In dieser Ausgabe erwartet Sie wieder eine Mischung aus neuen Fallbeispielen, wissenschaftlichen Erkenntnissen und kontroversen Meinungsbeiträgen. Es geht um die Chancen Künstlicher Intelligenz (KI) für den Tierschutz, um Mitarbeiter:innen großer Tech-Konzerne, die sich gegen unethisches Verhalten ihrer Arbeitgeber auflehnen, um sechs große Irrtümer in der KI-Debatte und vieles mehr

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


?Über den wachsenden ethischen Konflikt zwischen Tech-Firmen und ihrer Belegschaft

(Can Employees Change the Ethics of Tech Firms?), 13. November 2018, Knoweldge@Wharton

Wie sollten sich Mitarbeiter:innen führender Technologiefirmen wie Facebook, Google und Microsoft verhalten, wenn ihre Arbeitgeber ethisch-moralisch fragwürdige Vorhaben umsetzen? Diese Frage erhielt in den letzten Monaten eine große Relevanz (siehe Erlesenes #32) und steht im Fokus dieses Artikels der Wharton University of Pennsylvania. Weil das Weltverbesserer-Selbstbild der Firmen immer größere Risse erhält, werden Teile der Belegschaft unruhig und initiieren Protestaktionen. Mit dem zunehmenden Bewusstsein der Angestellten für ethische Aspekte ihres Tuns und einem wachsenden Bedürfnis nach einer positiven Einflussnahme ist eine weitere Zuspitzung der Spannungen absehbar. Aufgrund des großen Bedarfs an Toptalenten, die jederzeit den Arbeitgeber wechseln können, seien Unternehmen immer stärker unter Druck, auf diesen Wandel zu reagieren. Auch in unserer Studie „Ethik für Algorithmiker – Was wir von erfolgreichen Professionsethiken lernen können“ haben wir uns mit der Frage beschäftigt, wie ein ethisches Bewusstsein unter Algorithmengestalter:innen gefördert werden kann.


?Wie der Tierschutz von Künstlicher Intelligenz profitiert

(How artificial intelligence is changing wildlife research), 13. November, National Geographic

Künstliche Intelligenz (KI) revolutioniert die Arbeit von Tierschützer:innen. Das ist der Tenor dieses Berichts von Anne Casselman, Reporterin bei National Geographic. Bislang litt der Tierschutz unter dem hohen Zeit- und Mittelaufwand, der notwendig ist, um den Zustand wilder Tierpopulationen zu überwachen. Doch der Fortschritt von KI verändert das grundlegend: Mit der Software Wildbook ist es beispielsweise möglich, sämtliche Giraffen eines Naturreservats anhand von Bildern an einem Wochenende zu identifizieren – Wildbook übernimmt die automatische Identifizierung einzelner Tiere anhand ihrer äußeren Merkmale. Das sei früher undenkbar gewesen. Ein anderes von Casselman geschildertes Beispiel ist das automatisierte Auffinden und Katalogisieren von neu bei YouTube hochgeladenen Videos, die Walhai-Sichtungen zeigen. Die Software identifiziert die Unterwassertiere, hält die Standorte der Sichtung fest und übermittelt die Daten an einen öffentlichen Katalog.


?Ein datenbasierter Ansatz, um Algorithmen akkurater zu machen

(How to make AI less biased), 16. November 2018, Techxplore

Ein System zur Vorhersage von Gehältern klassifizierte Frauen mit einer doppelt so hohen Fehlerquote als Wenigverdiener:innen. Wurden allerdings mehr Daten von Frauen einbezogen, ließ sich die Fehlerquote des Algorithmus signifikant verringern. Dieses Experiment ist Teil einer Studie von drei Forscher:innen des Massachusetts Institute of Technology (MIT), die zeigt, wie sich diskriminierende und verzerrende Resultate von Algorithmen verringern lassen, indem Datensets gezielt um Informationen von im Material bislang nicht hinreichend repräsentierten Gruppen erweitert werden. Im Artikel bei Tech Xplore stellt das MIT die wichtigsten Erkenntnisse der Studie vor, das Forschungspapier gibt es als PDF hier. Der Ansatz der Wissenschaftler:innen erlaubt es, ausgehend vom Datenset festzustellen, wie viele zusätzliche Daten von einzelnen Gruppen notwendig sind, um die Genauigkeit der sie betreffenden Vorhersagen zu steigern, ohne aber die Genauigkeit des Vorhersagens einer anderen Gruppe zu senken.


?Sechs große Irrtümer zu Künstlicher Intelligenz und zur digitalen Sphäre

(6 core falsehoods about the digital sphere), 17. November 2018, tante.cc

Schlüsselfiguren der Debatte über Künstliche Intelligenz (KI) aus Forschung, Politik und Gesellschaft vertreten Standpunkte, die der Wissenschaftler Jürgen Geuter (alias „tante“) als „grundsätzliche Irrtümer“ bezeichnet. Sechs von ihnen schildert Geuter in diesem Text. Unter anderem kritisiert er die verbreitete Annahme, dass sich hochgradig komplexe ethische Normen und Modelle in eindeutige und vermeintlich objektive algorithmische Regeln übersetzen ließen. Weiterhin moniert er die Annahme, dass man mit dem „richtigen“ Datenset Diskriminierung durch Algorithmen verhindern könne. Notwendig sei vielmehr, Wege zu finden, um die in den Daten unweigerlich repräsentierten strukturellen Benachteiligungen den Anwender:innen von Algorithmen klar zu kommunizieren. Geuter rechnet außerdem mit der „seit 50 Jahren“ im Raum stehenden Behauptung ab, dass KI kurz vor dem Durchbruch stehe. Noch sei nicht einmal genau geklärt, was eigentlich „Intelligenz“ ist. Selbst die modernsten Algorithmen seien noch meilenweit davon entfernt, überhaupt so etwas Ähnliches wie Intelligenz zu besitzen.


?Wenn die Maschine dem Mensch beibringt, wie eine Maschine zu kommunizieren

(Resist Google’s Attempts to Make You a Robot), 12. November 2018, Medium

Googles E-Mail-Dienst Gmail bietet eine Funktion, die Nutzer:innen kurze vorgefertigte Antwortoptionen für an sie geschickte E-Mails vorschlägt. Doch der zugrunde liegende Algorithmus habe keinen blassen Schimmer davon, wie qualitative menschliche Kommunikation aussieht, und mache absurde Empfehlungen, schreibt der Lexikograf Orin Hargraves. Erwartungsgemäß werde sich die Qualität der Vorschläge dank Googles einzigartiger Fähigkeit, viele Millionen Konversationen zu analysieren und daraus die jeweils statistisch sichersten Antwortoptionen zu generieren, sukzessive verbessern. Doch Hargraves zweifelt daran, dass dieses Verfahren tatsächlich zielführende und für die Gesprächspartner:innen zufriedenstellende Kommunikation erlernen könne. Seiner Ansicht nach konditioniert Gmail Menschen stattdessen darauf, so zu kommunizieren, wie es eine Maschine erledigen würde. Wer eine derartige Funktion nutzt, laufe Gefahr, etablierte Konventionen menschlicher Kommunikation zu brechen und dem Algorithmus zu signalisieren, dass dies gängige Praxis sei, warnt Hargraves.


?In eigener Sache: Meinungsbeitrag: Wird Deutschland mit seiner KI-Strategie eine Führungsrolle übernehmen? Oder wird es Europa spalten?

Nach einer langen Zeit der Planung und Diskussion hat Deutschland kürzlich seine neue Strategie für Künstliche Intelligenz (KI) beschlossen. In diesem Beitrag im blogs.bertelsmann-stiftung.de/algorithmenethik-Blog kommentiert der Journalist und Buchautor Steven Hill dieses Unterfangen. Hill sieht in dem Plan einige gute zukunftsweisende Maßnahmen, aber auch zwei grundlegende Fehler: Erstens scheint er, wie der KI-Plan der EU, zu sehr zu versuchen, das Silicon-Valley-Modell zu kopieren, das für Deutschland oder die EU gar nicht nachahmenswert ist. Und zweitens werde er wahrscheinlich ein KI-Rennen zwischen Staaten in Europa einleiten und so eine bereits gespaltene Union weiter untergraben.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren