Unumstritten, Algorithmen und Künstliche Intelligenz (KI) bieten große Chancen für alle Gesellschaftsbereiche. Doch wenn YouTube Falschnachrichten und Hass verbreitet, Übersetzungssoftware Genderstereotypen reproduziert und durch autonome Software Situationen entstehen, in denen niemand für Schäden haftet, dann brauchen wir eine Debatte über die Risiken der Technologie – und vor allem über mögliche Lösungen. Wir hoffen, dass die Artikel, die wir diese Woche für Sie ausgewählt haben, einen kleinen Beitrag hierzu leisten können.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


?YouTubes ganz eigene Realität der Vorfälle in Chemnitz

(As Germans Seek News, YouTube Delivers Far-Right Tirades), 7. September 2018, New York Times

Wer sich bei YouTube nach dem Mord an Daniel Hillig und den darauffolgenden rechten Aufmärschen in Chemnitz über die Ereignisse informieren wollte, bekam vom Empfehlungsalgorithmus der Videoplattform vor allem eines aufgetischt: rechtsextreme Propaganda und Falschinformationen. Die “New York Times“-Journalisten Max Fisher und Katrin Bennhold dokumentieren hierzu die Ergebnisse einer Recherche des in Berlin lebenden Wissenschaftlers Ray Serrato. Dieser hat 650 vom YouTube-Algorithmus vorgeschlagene Videos zu Chemnitz analysiert und das Resultat ist eindeutig: Die auf Aktivität und Nutzungsdauer optimierten Videoempfehlungen präsentieren Nutzer:innen auf der Suche nach Fakten unweigerlich eine einseitige Welt an Verschwörungstheorien, Fakes und rechtsextremer Hetze. Kritik am YouTube-Algorithmus ist nicht neu (siehe Erlesenes #1 und Erlesenes #11). Doch die Analyse von Serrato zeigt, dass sich bislang nichts verbessert hat. AlgorithmWatch-Mitgründer Matthias Spielkamp forderte aus diesem Anlass eine Offenlegung von Daten durch Youtube, um eine externe Analyse des Algorithmus zu ermöglichen. Zum Thema verweisen wir auch auf unser Arbeitspapier “Digitale Öffentlichkeit: Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen”.


?Wie uns die Algorithmen über den Kopf wachsen

(Franken-algorithms: the deadly consequences of unpredictable code), 29. August 2018, The Guardian

Zwischen den von ihren Erschaffer: innen komplett beherrschten “dummen” Algorithmen und noch immer unerreichter starker Künstlicher Intelligenz (KI) liegt eine spezielle Übergangsphase. In ihr entgleitet den Menschen langsam die Kontrolle über die zunehmend selbstlernenden Algorithmen. Gleichzeitig mangelt es diesen Algorithmen an der Fähigkeit, komplexe Zusammenhänge zu verstehen und auf unerwartete negative Folgen ihres Wirkens korrigierend zu reagieren. Das Resultat: allerlei überraschende Nebeneffekte und unerwünschte Auswirkungen. In einem umfangreichen Essay erkundet der britische Buchautor Andrew Smith das Zusammenspiel der hochkomplexen algorithmischen Systeme, wie sie unserer Gesellschaft langsam über den Kopf wachsen, sowie die wenigen Lösungsansätze, um die Kontrolle vielleicht doch zurückzugewinnen. Statt nur über Optimierungsszenarien nachzudenken, sollten auch die extremsten, schlimmstmöglichen Konsequenzen einer KI schon bei ihrer Entwicklung berücksichtigt werden. Dafür benötige es eigentlich eine neue Wissenschaft, schlussfolgert Smith.


?Eine KI, die Depressionen erkennt – oder doch nicht?

(MIT’s depression-detecting AI might be its scariest creation yet), 5. September 2018, The Next Web

Forscher:innen des Massachusetts Institute of Technology (MIT) haben einen Algorithmus entwickelt, der anhand der Antworten auf eine Reihe von Fragen ohne weiteren Kontext erkennen soll, dass eine Person unter Depressionen leidet. Tristan Greene, Reporter bei The Next Web, hat sich das entsprechende Papier der Wissenschaftler:innen angeschaut und ein Problem entdeckt: Anders als Therapeut:innen könne die Software eine Depression nicht diagnostizieren, sondern lediglich bestimmen, mit welcher Wahrscheinlichkeit sie vorliege. Für eine Diagnose müssten die Prognosen hingegen in Abstimmung mit Patient:innen bestätigt werden. Greene beunruhigt vor allem die Vorstellung, dass ein derartiger Algorithmus abseits der psychologischen Behandlung eingesetzt werden könnte, um unbemerkt die psychische Verfassung von Menschen zu überwachen. Nicht nur sei das Missbrauchspotenzial groß, sondern auch das Risiko schwerwiegender Konsequenzen infolge von Fehleinschätzungen. “Maschinen wissen nicht, ob wir homosexuell, schuldig, oder deprimiert sind – sie vermuten es lediglich”, schreibt Greene.


?Wer muss ins Gefängnis, wenn eine KI Mist baut?

7. September 2018, Gründerszene

Der Einsatz von Künstlicher Intelligenz (KI) fordert die bestehenden Gesetze rund um Haftungs- und Vertragsfragen heraus. Darauf weist der Rechtsanwalt Torsten Kraul im Gespräch mit der Gründerszene-Journalistin Pauline Schnor hin. Wenn zum Beispiel eine KI eigenständig einen Vertrag unterzeichnet, dann würde nach heutigem Stand die Person, welche die Maschine einsetzt, für ihren Beschluss verantwortlich sein. Je autonomer Algorithmen jedoch agieren und je unbeherrschbarer sie sind, desto problematischer sei dieses Rechtsverständnis. Wenn dagegen eine KI bei ordnungsgemäßem Einsatz einen Schaden verursacht, dann könnte eine Situation entstehen, bei der nach den derzeitigen Gesetzen niemand die juristische Verantwortung tragen muss. Beide Szenarien zeigen gemäß Kraul den Bedarf an einer Aktualisierung der Rechtslage. Er führt die vom EU-Parlament vorgeschlagene juristische “E-Person” sowie die bereits heute konkreter geregelte Haftung bei Unfällen mit selbstfahrenden Autos als mögliche Lösungen an.


?Wie KI für Geschlechterklischees sensibilisiert wird

(Researchers develop a method that reduces gender biasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht. in AI datasets), 7. September 2018, Venturebeat

Selbstlernende Algorithmen fallen regelmäßig negativ dadurch auf, diskriminierende Stereotypen zu verstärken. Beispielsweise bekommt das medizinische Pflegepersonal in einer maschinellen Übersetzung häufig automatisch weibliche Attribute zugewiesen und Ärzt:innen männliche (siehe Erlesenes #4: “Google Translate und die Geschlechterrollen”). Schuld sind die für das Training der Künstlichen Intelligenz (KI) genutzten Klischees und kulturelle Rollenbilder abbildenden Datensätze. Wenn der Arzt gemäß Daten häufig ein Mann ist, dann folgert ein Algorithmus mitunter, dass ein Arzt grundsätzlich männlich sein muss. Kyle Wiggers, Reporterin bei Venturebeat, berichtet über eine neue KI von Forscher:innen aus Kalifornien, die zu einer geschlechtsneutraleren Interpretation von Daten in der Lage sein soll. Die KI habe eine deutlich erhöhte Sensibilität für die Vermeidung von Geschlechterklischees, berücksichtige aber gleichzeitig essenzielle Informationen zum Geschlecht. Dass ein Algorithmus einen Beruf automatisch mit einem Geschlecht assoziiert, ist so vielleicht bald Geschichte.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren