Future Web, Post 06

Der Titel dieses Posts könnte auch lauten: Der Post vom großen Geschrei.

Denn in der Tat: Das Geschrei war groß. Das Geschrei war groß, als irgend jemand gemerkt hat, daß Informatiker der Uni Potsdam die öffentlich zugänglichen Facebook-Daten auswerten wollten. Die Informatiker wollten im Interesse der Schufa herausfinden, ob diese Daten relevante Informationen zur Einschätzung des Finanzverhaltens der jeweiligen Person hergeben. Die Schufa läßt erklären, daß sie die “Qualitätsführerschaft unter den Auskunfteien in Deutschland sichern” wolle, und daß sie “mit dem Forschungsprojekt … aber auch die unzähligen Mythen und Vermutungen rund um die Informationsquelle Web auf den wissenschaftlichen Prüfstand stellen“ wolle. Das Geschrei hat zur Einstellung des Projekts geführt. Dabei wäre es doch wirklich interessant gewesen, ob die ” unzähligen Mythen und Vermutungen rund um die Informationsquelle Web” einen wahren Kern haben oder nicht.

Das Geschrei war kurz danach schon wieder groß: Die Meldeämter sollten, falls man nicht bewußt Widerspruch einlegt, Meldedaten verkaufen können. Naja, wenn man genauer hinsieht – dann konnten sie das schon immer. Eine ausführliche Darstellung findet man z.B. in der FAZ (Alard von Kittlitz: Streit um Meldegesetz – Sie wussten, was sie taten. 14.07.2012). Auch andere, z.B. die Deutsche Post, haben schon immer Adressen verkauft. Also, nothing new under the sun.

Und noch ein Geschrei hat’s gegeben, das ist aber schon etwas länger her: Googles Streetview hat die Republik empört. Da wollte Google doch tatsächlich ein Foto von dem Haus ins Netz stellen, in dem ich wohne! Also, das ist doch …

Warum ich mich damit beschäftige? Die Überschrift, unter der das Geschrei vollführt wird, ist “Datenschutz”, d.h. die Daten, um die es jeweils geht, sollen vor mißbräuchlichem Zugriff geschützt werden. Die angeführten Daten “an sich” sind ja gar nicht so brisant: Ich kann nicht unmittelbar erkennen, warum Daten, die ich per Facebook öffentlich zugänglich mache, besonders schützenswert sind. Oder warum meine Adresse oder das Aussehen des Hauses, in dem ich wohne, etwas so besonderes sein sollen, daß ich deshalb laut schreien müßte.

In einem schon vor einiger Zeit bearbeiteten Projekt habe ich mich (gemeinsam mit diversen Partnern) mit dem Schutz von genetischen Daten beschäftigt, genetische Daten, die für wissenschaftliche Zwecke erhoben worden sind (und immer noch werden). Genetische Daten sind anders als die Daten, über die ich bis jetzt gesprochen habe: Weder mache ich genetische Daten per Facebook bekannt, noch sind sie einfach in Erfahrung zu bringen. Ich denke außerdem: Meine genetischen Daten (und die daraus ableitbaren Informationen) gehen nur mich etwas an und vielleicht noch einen Arzt oder einen Wissenschaftler. Aber sonst niemand. Der “Vorschlag für eine Datenschutz-Grundverordnung vom 25.1.2012 des Europäischen Parlaments und des Rates” sieht in diesem Sinne ein pauschales Verbot der Verarbeitung von genetischen Daten vor – um sie nur unter ganz bestimmten Bedingungen (wie z.B. der expliziten Einwilligung der betroffenen Person) zu erlauben.

Wenn Du, liebe Leserin, also zunächst gedacht hast, ich wolle den Datenschutz auskippen, dann wollte ich Dir mit dem Abschnitt über die genetische Daten erläutern, daß ich das nicht will. Was mich plagt, ist die Frage, wie wir Datenschutz mit technischen Mitteln erzielen können.

Fangen wir nochmals mit den öffentlichen Facebook-Daten an. Ich denke, was die Nutzer empört hat, war die Tatsache, daß öffentlich zugängliche Informationen auf einmal in einem Kontext interpretiert werden sollten, der von ihren Erzeugern gar nicht vorgesehen war. Ich möchte in meinem Facebook-Profil der Welt erzählen, was ich für ein toller Kerl bin, und dann kommt diese Schufa daher und interpretiert die Tatsache, daß ich ein cooles T-Shirt trage, als Warnsignal: “Der kann sich kein Hemd mit Schlips leisten, also sollte dieser Typ lieber keinen Kredit kriegen.”

Also geht es beim Datenschutz nicht um die Daten, sondern es geht um ihren Transfer in einen nicht vorgesehenen Bedeutungszusammenhang. Im Datenschutzrecht heißt das: Zweckbestimmung. Daten sollen nur entsprechend ihrer Zweckbestimmung genutzt werden. (Naja: Wenn ich allerdings Daten “einfach so” preisgebe, also kein Etikett mit aufgedruckter Zweckbestimmung dranhänge, dann wird’s schon etwas schwierig, irgend jemand vorzuwerfen, er handle gegen die Zweckbestimmung dieser Daten …)

Zweckbestimmung, das ist leider ein Begriff, der in der Informatik so nicht vorkommt. Daten ja, Zweckbestimmung nein. Ich denke, da ist das Dilemma.

Wenn wir über technische Hilfsmittel für den Datenschutz nachdenken (“Privacy Enhancing Technology”, PET), dann fällt uns meistens sofort die Kryptographie, speziell die Verschlüsselung ein. Der Gedanke ist: Ich verschlüssele meine Daten, und damit sind sie zunächst geschützt. Den Schlüssel zu den Daten gebe ich dann nur an solche Personen und Organisationen weiter, die mir zusichern, daß sie die Daten nur im Rahmen der Zweckbestimmung dieser Daten verwenden. Also: Meine Profildaten auf Facebook sind verschlüsselt. Jemand kommt auf mich zu und sichert mir zu, die Daten zu einem einzigen Zweck verwenden zu wollen, und dieser Zweck sei es, mich kennenzulernen. (Nun kommt noch einer dieser schwierigen Begriffe ins Spiel, nämlich “Vertrauen”. Denn ich muß ja Person, die da auf mich zukommt, vertrauen, daß sie wirklich nur das tut, was sie behauptet zu tun.) Aber auch wenn viel einfacher denkt, dann merkt man schon: Das geht nicht auf. Wie kann jemand auf mich zukommen, der meine Kontaktdaten nicht lesen kann, weil sie verschlüsselt sind …

Und wenn es doch mit Verschlüsselung ginge: Dann würde ich mir einen zusätzlichen Mechanismus wünschen, mit dem sichergestellt wird, daß meine einmal entschlüsselten Daten nicht in mißbräuchlicher Form weitergegeben werden. Also, wenn der Freund kein Freund ist, sondern nur behauptet hat, ein Freund zu sein. Daten, die einmal in die Welt hinausgepustet worden sind, bleiben in der Welt, man kann sie nicht zurückholen.

Kalamitäten über Kalamitäten.

Technisch orientierte Datenschützer haben das Konzept der “sticky policy” vorgeschlagen: Die zu schützenden Daten haben ein Etikett, das die Bedingungen spezifiziert, unter denen die Daten entschlüsselt werden können. Mit allerlei kryptographischen Tricks kann damit vielleicht ein Fortschritt erzielt werden. Wie allerdings der dargestellte Mißbrauch verhindert werden kann, das ist nicht klar.

Also, was ich mir wünschen würde, ist folgendes: Es gibt nach wie vor Daten, die öffentlich zugänglich sind, im Netz und anderswo. Diese Daten haben ein Etikett, auf dem draufsteht, was damit gemacht werden darf. Aber wenn sich jemand die Daten greift und mit diesen Daten etwas anderes macht, als das Etikett zuläßt, dann zerbröseln die Daten bzw. dann zerbröselt die Kopie der Daten, die sich der mißbrauchende Nutzer besorgt hat.

Das wäre doch einmal ein Forschungsprojekt im Rahmen eines “Future Web”-Projekts …

Leider habe ich keine Idee, wie’s gehen könnte. Datensicherung kommt im Studium vor, Datenzerbröselung nur am heimischen PC …

Comments
2 Responses to “Future Web, Post 06”
  1. Nils Gruschka says:

    Das wäre tatsächlich ein nettes Projekt. PETs werden immer noch viel zu wenig beachtet.

    Man kann dann nur hoffen, dass eine solche Technologie auch benutzt wird. Man sieht ja gerade bei Jüngeren, dass diese hemmungslos Informationen und Fotos ins Netz stellen ohne die Konsequenzen zu bedenken. Das Prinzip “Das Netz vergisst nichts” ist bei vielen noch nicht angekommen. Es gibt wohl aus diesem Grund auch gerade eine Initiative der der Polizei zu diesem Thema (http://www.polizei-beratung.de/medienangebot/details/form/7/190.html).

    Auf der anderen Seite müssen gerade wir Deutschen aufpassen, dass wir in Bezug auf Datenschutz nicht über das Ziel hinausschießen. Da bietet sich das Beispiel Streetview an. Groß war der Aufschrei und die Befürchtungen Diebe könnten beispielsweise diese Daten zur Vorbereitung von Straftaten verwenden. Tatsächlich ist (zumindest meines Wissens) nicht viel (schlimmes) passiert. Außerdem möchte sicherlich jeder gerne den Straßenzug anschauen, wenn man nach einer Wohnung oder einem Feriendomizil sucht. Aber dann kann nicht gleichzeitig Fotos der eigenen Umgebung im Netz verbieten, oder?

  2. Erik Theesen says:

    Zu dem Thema der technischen Umsetzung der Zweckbindung von Daten haben mein Freundeskreis und ich uns Gedanken gemacht.
    Wir kamen zu der Feststellung, dass es nicht möglich sei Informationen so zu verschlüsseln, dass diese dann nur mit einem Key für den bestimmten Zweck zu diesem bestimmten Zweck entschlüsselt werden können und sich andernfalls selbstzerstören würden.

    Unsere Überlegung war, dass die Informationen irgendwann einmal, spätestens im Prozessor als Klartext vorliegen müssten und an dieser Stelle kopiert werden können, wenn sie zuvor für den richtigen, den bestimmten Zweck entschlüsselt wurden. Als Beweisweg könnte man z.B. eine Turingmaschine konstruieren.

    Wir kamen zu dem Schluss, dass es für das Erreichen der Zweckbindung von Daten besser sei, wenn man nicht das Lecken verhindert, sondern das Leck ortet. Die gesetzliche Situation ist derzeit ja schon so, dass es verboten ist, Daten zu erheben für einen anderen als den eingewilligten Zweck.
    Wenn man nun besser zeigen könnte, wer für Datenmissbrauch verantwortlich ist, könnte man so die Kosten (monetär wie imagemäßig) für schlampigen Datenschutz hochtreiben und automatisch auch Datensparsamkeit fördern.