Die Datenschutz-Grundverordnung (DSGVO) basiert auf der Annahme, dass der Schutz personenbezogener Daten auch den Schutz der Privatsphäre gewährleistet. Diese Prämisse wurde indes stark kritisiert. Es konnte überzeugend dargelegt werden, dass mit Hilfe der algorithmischen Verarbeitung großer Datensätze Informationen über Personen hergeleitet werden können, ohne gegen die Bestimmungen der DSGVO zu verstoßen. Infolgedessen wächst das Bewusstsein dafür, dass die automatisierte Datenverarbeitung eine neuartige Gefahr für die Privatsphäre darstellt. Wie werden die Menschen ihr Verhalten angesichts der „Datafication“ ihres Lebens anpassen? Können die Datenschutzgesetze einen „chilling effect“ verhindern?
Der Begriff „Datafication“ bezeichnet die Erfassung einer zunehmenden Anzahl von unterschiedlichen Lebensbereichen als Daten. Die zur Verarbeitung verfügbaren Daten sind folglich umfangreich und vielfältig. Eine Analyse einer solchen Datenmenge ist nur möglich, wenn sie automatisiert, d. h. mit Hilfe von Algorithmen, durchgeführt wird. Daher ist die automatisierte, algorithmische Datenverarbeitung (im Folgenden: automatisierte Datenverarbeitung) zum bevorzugten Verfahren zur Extraktion von Informationen aus Daten geworden.
Bei der automatisierten Datenverarbeitung werden mit Hilfe von Korrelationen Informationen über eine Person hergeleitet. Datenpunkte über eine Person werden durch einen Algorithmus in Kategorien eingeteilt. Diese Kategorien bzw. Gruppen werden dann verwendet, um Vorhersagen über einzelne Personen zu treffen. Diese Vorhersagen basieren allerdings nicht auf kausalen Zusammenhängen. Vielmehr werden sie durch eine Bewertung der Informationen, die über alle Mitglieder einer Gruppe verfügbar sind, auf der Grundlage von Korrelationen gewonnen. Mit Hilfe von statistischen Zusammenfassungen über die Vergangenheit und Entwicklung aller Mitglieder einer Gruppe werden dann Informationen über die Zukunft jedes einzelnen Gruppenmitglieds generiert. Diese Vorhersagen werden schließlich zu Bewertungen umgewandelt, die wiederum bestimmen wie eine Person wahrgenommen und wie mit ihr umgegangen wird.
Selbstzensur und der „chilling effect“
Die Umwandlung von Vorhersagen in Bewertungen wird oft als „Scoring“ bezeichnet und ist bereits in mehreren Branchen Gang und Gebe. Der Zugang zu wichtigen Gütern wie Gesundheitsversorgung, Kredite und Wohnraum hängt oft von den Algorithmen ab, die solche Bewertungen vorbereiten. Die Auswirkungen der automatisierten Datenverarbeitung auf den Alltag des Einzelnen sind tiefgreifend – und unüberschaubar. Moderne Wissenschaftler haben darauf bereits ausführliche Antworten gefunden und fordern transparente, diskriminierungsfreie und verantwortungsvolle automatisierte Entscheidungssysteme. Im Hinblick auf die Konsequenzen der automatisierten Datenverarbeitung ist jedoch ein weiterer, subtilerer Aspekt zu berücksichtigen: die Privatsphäre eines jeden Einzelnen.
Aus reduktionistischer Betrachtungsweise leitet sich der Wert der Privatsphäre aus ihrer Fähigkeit ab, unerwünschte Folgen zu verhindern, die sich unterschiedlich manifestieren können. Einmal als Selbstzensur, d. h. die Ausübung von Selbsteinschränkung und Selbstkontrolle, zweitens durch die Herausbildung eines sogenannten „chilling effect“. Der Begriff bezieht sich auf den Prozess, der Personen durch die Androhung rechtlicher oder sozialer Sanktionen von bestimmten Aktivitäten abhält. Die neuartigen Gefahren einer automatisierten Datenverarbeitung lassen sich am besten in Bezug auf die Auswirkungen auf diese beiden unerwünschten Folgen verstehen.
Automatisierte Datenverarbeitung verändert Verhaltensweisen
Als unerwünschte Folgen der automatisierten Datenverarbeitung können Selbstzensur und der „chilling effect“ das Verhalten der Einzelnen, das menschliche Miteinander und den Grad der Kontrolle über das eigene Umfeld stark beeinflussen. Sie sind auch ein direktes Ergebnis der Art und Weise, wie durch die automatisierte Datenverarbeitung Wissen erworben wird. Im herkömmlichen Verständnis von Selbstzensur zwingt die Angst, beobachtet zu werden, den Einzelnen, sein Verhalten zu überwachen oder zu kontrollieren. Diese Person neigt dann dazu, zu befürchten, dass bestimmte Handlungen und Aussagen, die sie macht, auf sie zurückgeführt werden und dass sie aufgrund ihres Verhaltens unerwünschte Folgen erleiden wird. Traditionell wurden diese unerwünschten Folgen durch den Staat sanktioniert. Die Logik, auf deren Grundlage Sanktionen verhängt werden, sind kausaler Natur. Personen, die Ansichten äußern, die eine Staatsmacht herausfordern, die Aktivitäten unternehmen, die nicht mit den grundlegenden Werten eines staatlichen Systems übereinstimmen, oder die mit dessen Feinden in Kontakt stehen, gelten als Bedrohung. Um Sanktionen zu vermeiden, müssen Personen ihr Verhalten selbst überwachen und alle Handlungen vermeiden, die von einem staatlichen System als feindlich eingestuft werden können. Die Angst, vom Staat überwacht und bestraft zu werden, führt zu einer weit verbreiteten Annahme und Mäßigung des Verhaltens in einer Gesellschaft. Dieses Phänomen wird auch als „chilling effect“ (abschreckende Wirkung) bezeichnet. Da die automatisierte Datenverarbeitung in den unterschiedlichsten Lebensbereichen zunehmend angewandt wird, gewinnen die Problematik der Selbstzensur und des „chilling effect“ an Relevanz, und beide Aspekte werden sich verändern.
Um zu verstehen, warum sich die Probleme der Selbstzensur und des „chilling effect“ verstärken, muss man ebenfalls verstehen, wie sich der Hintergrund, vor dem sich die Selbstzensur entwickelt, verändert. Außerdem muss erkennbar sein, wie die Menschen sich der Bedeutung der automatisierten Datenverarbeitung bewusst werden. Früher befürchtete man eine staatliche Überwachung, heute wird die automatisierte Datenverarbeitung überwiegend von Unternehmen genutzt. Die Sanktionen, die wir befürchten, beschränken sich nicht mehr auf staatliche Sanktionen, sondern nehmen verschiedene Formen an und sind oft unklar und den Betroffenen sogar unbekannt. Mit zunehmender Datensicherheit werden fast alle Lebensbereiche einer Datenanalyse unterzogen. Die Diversifizierung und Multiplikation der gesammelten Datenpunkte verstärkt die Bedenken im Hinblick auf den Datenschutz zunehmend. Unter diesen Umständen ist der Wunsch des Einzelnen, die Kontrolle über seine Daten zu haben, völlig rational.
Kritiker werden argumentieren, dass Selbstkontrolle das Bewusstsein für Algorithmen voraussetzt und dass dieses Bewusstsein fehlt. Heute, so das Argument, sind sich die meisten Menschen weder der Verwendung der automatisierten Datenverarbeitung noch der Logik bewusst, der eine solche Verarbeitung unterliegt. Es sei daher unrealistisch zu behaupten, dass Menschen ihr Verhalten als Reaktion auf den Einsatz der automatisierten Datenverarbeitung anpassen würden. Dieses Argument mag derzeit relevant sein, wird aber mit der Zeit an Bedeutung verlieren. Tatsächlich sehen wir bereits Beispiele dafür, dass Menschen beginnen, auf den Einsatz von Algorithmen in bestimmten Bereichen zu reagieren. Ein offensichtliches und eher harmloses Beispiel findet sich in der Werbung. Die Menschen sind sich der Tatsache bewusst, dass ihr Browserverhalten heute die Online-Anzeigen bestimmt, die in Zukunft für sie geschaltet werden. Doch selbst wenn sie sich darüber nicht voll und ganz bewusst sind, fangen die Menschen an zu verstehen, dass die Werbung, die sie sehen, auf der Grundlage ihrer Daten und der Daten von Personen mit ähnlichen Interessen ausgewählt wird. Tatsächlich ist der Satz: „Kunden, die diesen Artikel gekauft haben, interessieren sich auch für …“ allen Online-Shoppern geläufig. Mit dem zunehmenden Einsatz von Algorithmen in wichtigen Lebensbereichen wird auch die Sorge um diese Anwendung zunehmen. Wenn Menschen Kredite wegen schwacher Bewertungen verweigert werden oder wenn sie höhere Gebühren für ihre Krankenversicherung zahlen müssen, werden sie wissen wollen, was hinter diesen Bewertungen steckt. Es kann 10, 20 oder 30 Jahre dauern, bis sich die Mehrheit der Bevölkerung der Bedeutung von Algorithmen und deren Auswirkungen voll bewusst sein wird. Dementsprechend kann es Jahrzehnte dauern, bis die meisten Menschen die Art und Weise, wie sie ihr Leben kontrollieren, geändert haben – aber die Veränderung wird kommen, und sie wird tiefgreifende Auswirkungen haben.
Es hat sich gezeigt, dass die Art und Weise, wie man mit Hilfe der automatisierten Datenverarbeitung wahrgenommen und behandelt wird, stark von den Kategorien oder Gruppen abhängt, denen man zugeordnet wird. Wenn ich kontrollieren will, wie ich wahrgenommen und behandelt werde, muss ich wissen, mit wem ich in eine Kategorie falle. Um zu verstehen, welche Informationen über mich selbst generiert werden, muss ich also wissen, was ich tue und was alle anderen tun. Folglich muss ich, um unerwünschte Wahrnehmungen und Behandlungen in Bezug auf mich selbst zu verhindern, nicht nur mein eigenes Verhalten überwachen, sondern auch kontrollieren, mit wem ich Datenpunkte teile. In der Ära der automatisierten Datenverarbeitung kann Selbstzensur also als der Drang verstanden werden, die eigene Umgebung zu kontrollieren, um Wissen und Bewertungen über sich selbst und damit die Art und Weise, wie man behandelt wird, zu kontrollieren. Das Überwachungsobjekt weitet sich vom eigenen Verhalten auf die eigene Umgebung aus.
Der Drang zur Selbstzensur ist ein Drang zur Neubewertung der eigenen Umgebung
Mit dem zunehmenden Einsatz der automatisierten Datenverarbeitung intensiviert sich der Drang, die Wahrnehmung seiner Person zu kontrollieren. Mit der zunehmenden Allgegenwart der Wahrnehmung von sich selbst durch andere – sei es in den Anzeigen, die man sieht, der eigenen Kreditwürdigkeit oder der Bewertung der eigenen Gesundheit – wächst der Wunsch nach Kontrolle. Da die Umgebung einer Person zu ihrer Beurteilung herangezogen wird, wächst der Anreiz, diese Umgebung anzupassen, um ein günstiges Bild von sich selbst zu schaffen. Als Reaktion auf die automatisierte Datenverarbeitung ist der Drang zur Selbstzensur also ein Drang, die eigene Umwelt neu zu bewerten – sie zu reinigen und alle Einflüsse auszusortieren, die sich nachteilig auf die Informationen über die eigene Person auswirken könnten. Die Auswirkungen einer solchen Selbstkontrolle müssen nicht immer negativ sein. Es ist durchaus möglich und wahrscheinlich, dass Personen positive Veränderungen an ihrem Verhalten vornehmen. Die Selbstkontrolle kann Personen helfen, negative Gewohnheiten abzuschütteln (z. B. ungesunde Ernährung) oder einen Anreiz darstellen, gesunden Aktivitäten nachzugehen (z. B. Mitgliedschaft in einem Sportverein). In einer pluralistischen Gesellschaft gibt es jedoch keine singuläre, umfassende Vorstellung davon, was gut oder schlecht ist. Wenn also die automatisierte Datenverarbeitung das Verhalten von Menschen massiv beeinflusst, darf sie nicht durch die wertorientierte Bewertung ihrer Auswirkungen gerechtfertigt werden. Um die automatisierte Datenverarbeitung mit der individuellen Freiheit in Einklang zu bringen, dürften andere Standards, wie beispielsweise die Transparenz, geeignetere Ansatzpunkte darstellen.
Selbstzensur hat einen etwas vageren „chilling effect“ zur Folge, wenn man die Kontrolle darüber verliert, wie bestimmtes Verhalten in Kategorien und Gruppen interpretiert wird und zu Vorhersagen über die eigene Zukunft führt (Hinweis: Tijmen Schep bezeichnet diese Dynamik als „social cooling“). Wenn Gruppen zu zufällig, zu granular, zu kontraintuitiv und zu undurchsichtig für Vorhersagen werden, löst die automatisierte Datenverarbeitung keine spezifischen Verhaltensreaktionen aus. Vielmehr entsteht ein Gefühl der Unsicherheit. Und ein Gefühl der Unsicherheit wird wahrscheinlich zu einer allgemeinen Änderung und Überwachung des Verhaltens einer Person führen. Mit dem vagen Wissen, dass die gemeinsame Gruppierung mit anderen schwerwiegende Folgen für das eigene Leben hat, wird der Einzelne sein Verhalten explizit oder unbewusst an das anpassen, was er glaubt, was zu den besten Bewertungen und Vorhersagen über ihn führt.
Diese neue Form der Selbstzensur und des „chilling effect“ stellen eine neue Herausforderung für den Datenschutz dar. Rechtswissenschaftler müssen die Datenschutzgesetze verfeinern, um wirksame Antworten und Schutzstandards zu entwickeln. Eine solche Anpassung setzt jedoch ein tiefes Verständnis der Auswirkungen von Selbstzensur und Abschreckung voraus und erfordert daher die Hilfe von Soziologen, Anthropologen, Psychologen und anderen Sozialwissenschaftlern. Die transdisziplinäre Forschung muss die Grundlage dafür bilden, dass ein neues, automatisiertes, datenverarbeitungssicheres Recht auf Privatsphäre definiert werden kann, indem diese Erkenntnisse als Ergänzung zu den durch die DSGVO gebotenen Schutzmaßnahmen, in spezifische Rechtsansprüche umgesetzt werden.
Kommentar schreiben