Willkommen zur neunten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren).
Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht.
Wir bieten mit “Erlesenes” einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:
?Nein, Maschinen verstehen Text nicht besser als Menschen
(No, machines can’t read better than humans), 17. Januar 2018, The Verge
Kann Software von Microsoft und Alibaba tatsächlich besser lesen als Menschen, wie es vor einigen Tagen viele Schlagzeilen behaupteten? Nein. Zumindest, wenn es um das Leseverständnis geht, konstatiert James Vincent, Reporter beim Onlinemagazin The Verge. In Lesetests der Stanford Universität lag die Fehlerquote der Algorithmen beim Beantworten von mehr als 100.000 Fragen zu Textinhalten zwar niedriger als der Durchschnitt von über eine Clickworker-Plattform rekrutierten menschlichen Teilnehmern. Allerdings sagt der Test nichts über das eigentliche Textverständnis aus. Die Algorithmen von Microsoft und Alibaba sind schlicht sehr gut darin, identische Textelemente aus der Frage im Datenmaterial mit den Antworten zu finden. Das an sich verdient Anerkennung und bietet viele Einsatzfelder. Mit dem Lesebegriff, wie Menschen ihn interpretieren, hat es dennoch wenig zu tun.
(Cooperating with machines), 16. Januar 2018, nature.com
Fortschritte bei künstlicher Intelligenz (KI) werden häufig daran festgemacht, dass eine Maschine in einer weiteren Domäne den Menschen “schlägt”, ihm also in einer Form überlegen ist. Doch in vielen Anwendungsbereichen von KI wird die eigentliche Herausforderung sein, Systeme zu schaffen, die mit Menschen und anderen Maschinen kooperieren, selbst wenn diese nicht dieselben Interessen verfolgen. Ein internationales Forscherteam berichtet in diesem Papier über die Entwicklung eines lernfähigen Algorithmus, der in verschiedenen Spielen mit Menschen und anderen KI derartig gut kooperiert, dass es mit der Zusammenarbeit zwischen Menschen vergleichbar ist. Eine Schlüsselrolle spielt in dem Unterfangen die Fähigkeit der Software, per Kurznachrichten mit anderen Spielern kommunizieren zu können. Sogenannter “Cheap Talk” – der für menschliche Protagonisten ganz natürlich ist, vom Algorithmus aber erlernt werden muss – dient richtig eingesetzt dazu, in Spielen Kooperationsbereitschaft zu signalisieren.
Apropos Zusammenarbeit zwischen Mensch und Maschine: Bei uns im Blog schilderte Torsten Kleinz im November, wie bei Wikipedia Community-Mitglieder und Bots kooperieren.
?Freie Meinungsäußerung im Algorithmenzeitalter
(It’s the (Democracy-Poisoning) Golden Age of Free Speech), 16. Januar 2018, Wired
Staatliche Zensur galt lange als größte Gefahr für freie Meinungsäußerung und für die Entwicklung einer gefestigten, Fortschritt ermöglichenden Demokratie. Doch wenn fast jeder in nur wenigen Sekunden einen Social Media Account anlegen kann und so vom Konsumenten zum potenziellen Nachrichtenproduzenten wird, wird Zensur immer schwieriger. Die Gefahr ist somit eine andere: Wenn Algorithmen sozialer Netzwerke darüber entscheiden, wer welche Informationen sieht, zerfällt die Öffentlichkeit in viele einzelne, auf den Nutzer zugeschnittene Teilöffentlichkeiten. Das stellt Zeynep Tufekci, Assistenzprofessorin für Techniksoziologie an der Universität von North Carolina, Kolumnistin sowie Buchautorin, in diesem Text fest. Sie zeigt sich beunruhigt darüber, dass heutzutage vereinzelte Technologieplattformen steuern, ob, wie und mit wem ein Diskurs erfolgt. Eine effektive Gegenrede etwa ist mitunter so gar nicht möglich. Tufekci sieht hier die große Bedrohung für Demokratien und fordert politisches Eingreifen. Lösungen anzubieten, darf angesichts der Tragweite des Problems nicht als alleinige Aufgabe von Facebook-Chef Mark Zuckerberg gesehen werden.
?Wie Flüchtlinge und Arbeit optimiert zusammenfinden können
(Improving refugee integration through data-driven algorithmic assignment), 19. Januar 2018, Science
Amerikanische Wissenschaftler in den USA und der Schweiz haben getestet, ob ein Algorithmus in der Lage ist, eine optimale räumliche Verteilung von Flüchtlingen im Gastland zu errechnen. Darüber schreibt auch Sibylle Anderl, Redakteurin im Feuilleton, Ressort “Natur und Wissenschaft”, bei faz.net. Die Forscher um Kirk Bansak von der Stanford University programmierten ihre Software so, dass sie mithilfe maschinellen Lernens vorhandene Daten zu nationalen, arbeitsmarktspezifischen Gegebenheiten mit den Merkmalen neu angekommener Geflüchteter (z. B. Alter, Ausbildung, Sprachkenntnisse) vergleicht und so vorhersagt, an welchen Standorten am ehesten ein Erfolg bei der Suche nach Arbeit zu erwarten ist. Auch die Erfolgschancen von zumindest einem Familienmitglied sowie andere, flexible Zusatzkriterien sollen von dem Algorithmus berücksichtigt werden. Beim Test in den Vereinigten Staaten sei die mittlere Wahrscheinlichkeit einer Beschäftigung für Flüchtlinge von 25 auf 50 Prozent gestiegen. Doch sollten neu angekommene Flüchtlinge direkt arbeiten? Für viele könnten die Verfügbarkeit von Schutz- und Hilfsangeboten, Möglichkeiten zum Spracherwerb und von anderen Integrationsmaßnahmen an einem Standort von größerer Relevanz sein als die Erfolgschancen auf Arbeit. Sollte die Methode tatsächlich zum Einsatz kommen, muss dies mitgedacht werden.
?Sprachassistenten: Alexa ist nicht mehr deine Schlampe
19. Januar 2018, Zeit Online
Alexa, die Sprachassistentensoftware von Amazon, die in Millionen Haushalten zum Einsatz kommt, reagiert nun souveräner auf unangemessene Sprachbefehle der Nutzer. Das Unternehmen hat nach Kritik an den Reaktionen des Voice Bots auf Beschimpfungen und abwertende sexuelle Anspielungen (siehe Erlesenes #5) Änderungen implementiert. Anstatt sexistische Stereotype über ihre Antwort zu verstärken, antwortet Alexa nun „Das ist aber nicht nett von dir“ oder „Darauf antworte ich nicht“, wenn man sie als Schlampe bezeichnet. Eike Kühl, Redakteur im Ressort Digital bei Zeit Online, berichtet hier über die bereits im vergangenen Jahr umgesetzten Neuerungen und befasst sich mit der schwierigen Frage, wie viel Persönlichkeit ein Smart Assistant haben soll oder darf. Das “Persönlichkeitsteam”, das bei Amazon damit beschäftigt ist, Alexas Verhalten eine persönliche Note zu geben, hat jedenfalls den Entschluss getroffen, dass Alexa sich auf Nachfrage als “Feministin” bezeichnet. Das Spannungsfeld ist offensichtlich: Einerseits soll KI-Software möglichst neutral sein, andererseits aber nicht dabei mithelfen, Stereotype zu verstetigen. Je mehr Menschen mit Sprachassistenten interagieren, desto größere Konflikte dürfte dieses Spannungsfeld produzieren.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren. Selbstverständlich können Sie “Erlesenes” weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.
Kommentar schreiben