Willkommen zur sechsten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren). Dies ist die letzte Ausgabe im Jahr 2017. Mehr Denkanstöße von unserer Seite gibt es wieder ab dem 11.Januar 2018. Bis dahin wünschen wir erholsame Feiertage, in denen vom Nachdenken durchaus auch mal eine Pause gemacht werden darf.
Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht.
Wir bieten mit “Erlesenes” einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:
?Google behauptete, dass ich tot bin
(Google thinks I’m dead) 16. Dezember 2017, New York Times
Manchmal werden die Implikationen von Fehlern in algorithmischen Entscheidungsvorgängen für Individuen besonders deutlich: Wie im Falle von Rachel Adams, Wirtschaftsjournalistin bei der New York Times, die von Google in den Suchergebnissen aufgrund einer Verwechslung mit einer anderen Person gleichen Namens für tot erklärt wurde. In diesem Bericht beschreibt Adams die Odyssee, die sie durchlaufen musste, um bei dem Internetgiganten die notwendige Änderung durchzusetzen. Der Vorfall führt ganz praktisch die Folgen einer Welt vor Augen, in der Menschen falschen automatisierten Entscheidungen ausgeliefert sind, die eigentlich leicht zu beheben wären, nur weil deren Betreiber die mit Beschwerdeverfahren verbundenen Kosten scheuen.
?Ein Freund von mir starb, doch der Algorithmus verheimlichte es vor mir
(My friend died, and I didn’t know because algorithms) 18. Dezember 2017, Twitter Thread von Caryn Vainio (@Hellchick)
Welche Verantwortung trägt ein soziales Netzwerk darin, Nutzende verlässlich über für sie relevante Ereignisse zu informieren? Diese Frage stellt sich in Anbetracht eines Falles, von dem Caryn Vainio in diesem Twitter Thread berichtet. Gerade erhielt die Usability-Designerin eine traurige Nachricht: Ein langjähriger Bekannter war nach einem mehrwöchigen Krankenhausaufenthalt verstorben. Für Vainio kam diese Meldung als doppelter Schock: zum einen aufgrund des Verlustes an sich, zum anderen wegen der Tatsache, dass Facebooks Newsfeed die Entwicklung vor ihr verheimlichte. Denn besagter Bekannter hatte im November in einem Facebook-Post über seine Situation informiert. Die Amerikanerin betont, dass sie eine sehr aktive Nutzerin des Sozialen Netzwerks sei und dass auch andere gemeinsame Bekannte von Facebook über das Befinden ihres Freundes im Dunkeln gelassen wurden. Anders als sie alle war der Algorithmus offensichtlich der Ansicht, dass diese Information nicht relevant genug war. Inakzeptabel für einen Dienst, der sich auf die Fahne schreibt, Menschen näher zusammenzubringen, konstatiert Vainio.
?Fairness und Transparenz beim Einsatz künstlicher Intelligenz durch Medienanbieter
(What we talk about when we talk about fair AI) 11. Dezember 2017, Medium
Künstlicher Intelligenz (KI) verändern auch die Arbeit von Medienanbietern. Fragestellungen zu den Grenzen der Datensammlung, der Ausgewogenheit von Beiträgen und der Transparenz über Prozesse sind besonders bei öffentlich-rechtlichen Anbietern von extremer Bedeutung. In diesem Text gibt Fionntán O’Donnell, KI-Forschungsingenieur beim Innovationsinkubator BBC News Labs, einen tiefgehenden Überblick der Herausforderungen, die eine renommierte Medienorganisation wie die BBC meistern muss, um bei der Schaffung, Einordnung und Distribution von Inhalten auf verantwortungsvolle Weise KI-Verfahren einsetzen zu können. O’Donnell konzentriert sich auf Aspekte zur Fairness der Algorithmen, beleuchtet aber auch Fragen rund um Rechenschaftspflicht und die redaktionelle Kontrolle der generierten Resultate. Denn: “Die Verantwortung tragen nicht Algorithmen, sondern Menschen.”
?Die Stadt New York will Diskriminierung durch Algorithmen einen Riegel vorschieben
(New York City moves to establish algorithm-monitoring task force) 12. Dezember 2017, TechCrunch
Die Verwaltung der US-Metropole New York hat einstimmig einen Gesetzentwurf angenommen, der die Gründung einer Arbeitsgruppe vorsieht, die algorithmenbasierte Entscheidungen der öffentlichen Hand auf mögliche Benachteiligungen hin untersuchen soll. Die Task Force erhält zudem den Auftrag zur Erarbeitung von Verfahren, um die Öffentlichkeit verständlich über die Nutzung von Algorithmen für Beschlüsse in der Verwaltung zu informieren. Die Gruppe soll sich aus Personen mit Kompetenzen im Bereich algorithmischer Entscheidungsvorgänge sowie aus Vertretern von Organisationen zusammensetzen, die von solchen Prozessen betroffene Bevölkerungsgruppen repräsentieren. Klingt alles in allem nach einer interessanten Initiative, deren Entwicklung man im Auge behalten sollte.
?Chinas gigantisches Social-Ranking-Experiment
(Inside China’s vast new experiment in social ranking) 14. Dezember 2017, Wired
China befindet sich in der frühen Phase eines ethisch brisanten Social-Engineering-Experiments: Ermöglicht durch den Boom des mobilen Bezahlens mittels Smartphone sowie durch die massive Verbreitung der Apps heimischer Internetriesen wie Alibaba und Tencent entsteht parallel eine Vielzahl digitaler Punktesysteme. In erster Linie zielen sie darauf ab, die Kreditwürdigkeit der Konsumenten auf Basis ihrer Transaktionen zu bewerten. Doch die chinesische Regierung, die ihr eigenes System entwickelt, aber auch bei den kommerziellen Akteuren Einfluss hat, will viel mehr: Sie sieht die Chance, die Bürger des Landes durch ein landesweites daten- und algorithmengetriebenes Social-Scoring-System zu erziehen. Die Buchautorin, Journalistin und China-Kennerin Mara Hvistendahl berichtet in diesem umfangreichen Essay über das Entstehen eines Überwachungsstaates, wie die Welt ihn noch nie gesehen hat.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren. Selbstverständlich können Sie “Erlesenes” weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.
Kommentar schreiben