Willkommen zur zwölften Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren).
Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen.
Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.
Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:
?Zieloptimierung statt Erklärbarkeit
(Optimization over Explanation), 28. Januar 2018, medium.com
Wenn Algorithmen Entscheidungen vorbereiten oder umsetzen, ist der Ruf nach Transparenz meist nicht weit. David Weinberger, Forscher am Berkman Klein Center der Harvard University, argumentiert in diesem Essay gegen diesen Reflex – auch weil er sich nicht ohne deutliche Abstriche bei der Leistungsfähigkeit der Algorithmen befriedigen lässt. Eine bessere Lösung sei es, wenn über die existierenden demokratischen Systeme zur politischen und gesellschaftlichen Entscheidungsfindung Optimierungsziele definiert werden, anhand derer die Ergebnisse der algorithmenbasierten Entscheidungsfindung gemessen werden. Wenn wir diese Ziele kennen, ihre Erreichung sowie die Wahrung kultureller Maßgaben und Ansprüche an Gleichberechtigung überprüfen können, dann müssen wir nicht um jeden Preis verstehen, wie genau der Algorithmus ein Ergebnis generiert. Eine Optimierung auf Ziele garantiere keine Perfektion, aber erlaube deutliche Fortschritte, so Weinberger.
?Gesichtserkennungssysteme erkennen schwarze Frauen schlechter als weiße Männer (PDF)
(Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification), Februar 2018
Wenn Joy Buolamwini, Forscherin am MIT Media Lab, Gesichtserkennungssysteme nutzt, erkennen diese sie nicht oder denken, sie wäre ein Mann. Der Grund: Buolamwini ist eine Frau und sie hat eine dunkle Hautfarbe. In dieser Forschungsarbeit demonstriert die Informatikerin, wie kommerzielle Algorithmen zur Gesichtserkennnung von IBM, Microsoft und dem chinesischen Unternehmen Megvii (Face++) unter anderem aufgrund von nicht hinreichend heterogenen Trainingsdaten ungleiche Resultate liefern. Frauen und Menschen mit dunkleren Hautfarben tauchen in diesen Trainingsdaten selten auf. Die größten Zuordnungsprobleme hatten die Algorithmen daher mit dunkelhäutigen Frauen. In einem fünfminütigen Video kommentiert Buolamwini die Ergebnisse. Wir haben das Zeitalter von Automatisierung übermütig und schlecht vorbereitet eingeleitet, so die Mahnung der Wissenschaftlerin.
?„Roboter Recruiting“: „Der Algorithmus diskriminiert nicht“
9. Februar 2018, Zeit Online
Algorithmen treffen im Vorstellungsgespräch mitunter bessere Entscheidungen als Personaler. Diese These vertritt der Wirtschaftsinformatiker Tim Weitzel im Gespräch mit Zeit-Online-Journalist Bernd Kramer. Laut Weitzel entscheiden Menschen oft aus dem Bauch heraus und zu wenig mit dem Kopf. Zudem neigen sie zur Diskriminierung, zum Beispiel Bewerber mit ausländisch klingenden Namen. Dagegen seien Algorithmen – entsprechendes Training und umfangreiches Datenmaterial vorausgesetzt – besser dazu geeignet, vorurteilsfreie Entscheidungen zu treffen. Weitzel räumt allerdings ein, dass die meisten Unternehmen nicht genug Daten haben, aus denen ein selbstlernender Algorithmus die Maßstäbe für eine vernünftige Mitarbeitersuche ableiten könnte. Man müsste also deutlich mehr Daten über Angestellte und ihre Arbeit sammeln, woraus sich wiederum neue Probleme ergeben. Was als Frage offen bleibt: Anhand welcher Einstellungskriterien würde ein Algorithmus entscheiden? Wer definiert, woran man Erfolg in einer Tätigkeit misst? Und gibt es Trainingsdaten, die frei von den Verzerrungen der Vergangenheit sind?
?Googles freie KI-Software ermöglichte den problematischen “Deepfakes”-Trend
(Google gave the world powerful AI tools, and the world made porn with them), 7. Februar 2018, Quartz
Open-Source-Software für maschinelles Lernen ist ein Segen für Entwickler, Firmen, staatliche Institutionen und Sicherheitsforscher, wirft aber gleichzeitig ethische Fragen auf. Denn was passiert, wenn Künstliche-Intelligenz(KI)-Software wie die von Google entwickelte Open-Source-Programmbibliothek TensorFlow von jeder Person, die sich etwas eingelesen hat, für beliebige Anwendungen genutzt werden kann? Manche verwenden sie für problematische Zwecke. Dave Gershgorn, Reporter bei Quartz, erklärt hier, wie TensorFlow den jüngsten Onlinetrend “Deepfakes” möglich gemacht hat. Bei diesem ersetzen User in Online Communities mithilfe von neuronalen Netzen die Gesichter von Darstellern in Pornos durch die Prominenter oder anderer Personen. Open Source habe die Einstiegsbarrieren für KI gesenkt. Doch Verantwortung für den Einsatz sowie die Konsequenzen wollen die Urheber solcher Software – häufig die großen Techfirmen – nicht übernehmen. Deepfakes seien daher erst der Anfang, prophezeit Gershgorn.
?Software kürzt und visualisiert komplexe Nutzungsbedingungen
(An AI That Reads Privacy Policies So That You Don’t Have To), 9. Februar 2018, Wired
Datenschutzerklärungen von Onlinediensten werden nicht für Anwender geschrieben, sondern für Firmen, die sich vor Klagen schützen wollen. Dementsprechend schwer ist die Interpretation für die meisten Menschen. Forscher der Eidgenössischen Technischen Hochschule Lausanne (EPFL) sowie der University of Wisconsin und University of Michigan wollen mit einem neuen auf Künstlicher Intelligenz (KI) basierenden Tool Abhilfe schaffen. Über ihr gerade lanciertes Projekt Polisis berichtet der Wired-Journalist Andy Greenberg in diesem Artikel. Laut Greenberg basiert Polisis auf einem Datensatz von 115 im Detail analysierten Datenschutzerklärungen sowie weiteren 130.000, die dem Google Play Store entnommen wurden. Es handele sich zwar nicht um den ersten Versuch, solche Texte mittels maschinellen Lernens handhabbar zu machen. Aber die interaktive Umsetzung von Polisis, das mithilfe von Visualisierungen und einem Chatbot Licht ins Datenschutzdunkel zu bringen versucht, ist neuartig.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Kommentar schreiben