Ein Whistleblower enthüllt, dass Cambridge Analytica Daten von 50 Millionen Facebook-Nutzern gespeichert und diese für Trumps Wahlkampfteam zur Wählerbeeinflussung ausgewertet hat. Ein selbstfahrendes Auto von Uber baut einen Unfall, bei dem eine Fußgängerin zu Tode kommt. Microsoft verkündet einen historischen Durchbruch im Bereich der maschinellen Übersetzung.
Selten wurden die Auswirkungen von Algorithmen und Künstlicher Intelligenz auf unsere Gesellschaft so viel diskutiert, wie in den letzten Tagen. Wir haben für Sie fünf Artikel ausgewählt, die die Ereignisse reflektieren, wichtige Fragen über den verantwortungsvollen Einsatz algorithmischer Systeme aufwerfen und hoffentlich zum Nachdenken und Diskutieren anregen.
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider.
Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.
Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:
?Die Furcht vor der künstlichen Intelligenz am Steuer
21. März 2018, Spiegel online
Vor wenigen Tagen starb eine Fußgängerin in den USA, nachdem ein softwaregesteuertes Uber-Autor sie anfuhr. Der Unfall hat die Debatte über Roboterautos entfacht. Vermutlich sind die Vorbehalte gegen „Robo-Autos“ nun größer als die gegen Plutonium-Genmais, vermutet der SciFi-Autor Tom Hillenbrand. Die Furcht sei verständlich, aber unbegründet. Kulturelles Unbehagen, unser sich wandelndes Technologieverständnis und die menschliche Eigenheit, Menschen Fehler eher zu verzeihen als Maschinen, vernebeln den Blick. Denn es scheint gewiss zu sein, dass der Einsatz selbstfahrender Autos die Zahl der Verkehrstoten reduzieren könnte. Gleichzeitig gibt Hillenbrand zu bedenken: Selbst, wenn künstliche Intelligenz (KI) unfallfreier fährt als der Mensch, wird es immer wieder zu jenen Situationen kommen, die man in der philosophischen Ethik als Trolley-Problem bezeichnet und in denen die Maschinen über Leben und Tod entscheiden. Doch wenn wir die Kontrolle über diese Frage abgeben, geben wir dann nicht alle Kontrolle ab?
?Microsoft-Software übersetzt Chinesisch angeblich so gut wie Menschen
15. März 2018, heise online
Ein von Microsoft-Forschern entwickeltes maschinelles Übersetzungssystem kann chinesische Nachrichten ins Englische übertragen und soll dabei genauso akkurat sein wie ein menschlicher Übersetzer. Der Technologiereporter Daniel Berger berichtet über die jüngste Jubelmeldung des Softwaregiganten aus Redmond, der von einem “historischen Meilenstein” spricht. Bislang sei die Annahme verbreitet, dass menschliche Übersetzung vielleicht niemals zu schlagen sei. Doch dank KI-Systemen und neuronaler Netze gelang es Wissenschaftlern, flüssige und natürlich klingende Übersetzungen zu erzeugen, die auch den größeren Kontext beachten. Wer möchte, kann einen Teil der Technologie hier ausprobieren.
?Tech-Riesen saugen die KI-Kompetenz auf
(Silicon Valley companies are undermining the impact of artificial intelligence), 15. März 2018, TechCrunch
In den letzten fünf Jahren sind 90 Prozent der im Bereich künstliche Intelligenz (KI) aktiven Startups aus dem Silicon Valley von führenden Technologieriesen übernommen worden. Häufig ging es bei diesen Übernahmen nicht einmal um spezifische erfolgreiche Produkte, sondern vor allem um die personellen Talente. Das ist ein riesiges Problem, schreibt der Unternehmer und Gründer Ryan Kottenstette. Denn Firmen aus fast allen anderen Branchen bleibe der Zugang zur Kompetenz im KI-Bereich dadurch versperrt. Ihre Wettbewerbsfähigkeit leide und die zahlreichen Möglichkeiten, die sich aus dem Einsatz von KI für andere Sektoren ergeben können, bleiben ungenutzt. Was Kottenstette nicht erwähnt und den monierten Missstand noch gravierender macht: Das durch Google, Facebook, Amazon und Co aufgesaugte KI-Wissen fehlt ebenso in der unabhängigen Wissenschaft, in zivilgesellschaftlichen Organisationen und im öffentlichen Sektor – mit weitreichenden gesellschaftlichen Konsequenzen.
?KI erkennt Männer und Frauen am Lächeln
(AI can tell women from men based on their smiles), 16. März 2018, New Atlas
Künstliche Intelligenz (KI) ist in der Lage, alleine anhand des Lächelns einer Person deren Geschlecht zu bestimmen. Forscher der britischen University of Bradford haben mit einem Algorithmus für maschinelles Lernen 210 eindeutige Merkmale identifiziert, in denen sich lachende Gesichter von Männern und Frauen unterscheiden. Dem algorithmischen System wurden im Test 109 Videos von lächelnden Personen gezeigt. Bei 86 Prozent der Probanden konnte es erfolgreich das Geschlecht erkennen. Der Journalist James Holloway berichtet über die Ergebnisse der Studie und die Funktionsweise des Systems. Der Algorithmus analysiert die Muskelbewegungen der Probanden und ist daher schwer manipulierbar. Dies bedeutet jedoch auch, dass das System zwar das biologische Geschlecht (sex) einer Person erkennen kann, hingegen blind ist für das soziale Geschlecht (gender) – ein Problem, dessen sich die Autoren des Forschungspapiers durchaus bewusst seien, so Holloway. Die beschriebene Technologie und ähnliche Verfahren könnten dennoch helfen, Diskriminierung von Frauen durch Bilderkennungssoftware abzubauen. Erst kürzlich demonstrierte Joy Buolamwini, Forscherin am MIT Media Lab, dass solche Systeme schwarze Frauen schlechter erkennen als weiße Männer (siehe Algorithmenethik Erlesenes #12).
?Persönlichkeitstests und der Niedergang der Demokratie
(Personality Tests and the Downfall of Democracy), 17. März 2018, Ethical Tech
Es war die seit jeher im Netz zu beobachtende Leidenschaft vieler Onlinenutzer für virale Persönlichkeitstests, die sich die Datenanalysefirma Cambridge Analytica zunutze machte, als sie im Jahr 2014 Profildaten von rund 50 Millionen Facebook-Anwendern abfischen ließ. Ein Teil der betroffenen Personen nutzte Apps mit trivialen Persönlichkeitstest, welche mit ihren Facebook Profilen verbunden waren und ihr Like-Verhalten sowie das ihrer Freunde speicherten – zu diesem Zeitpunkt in Übereinstimmung mit den Richtlinien der Entwicklerschnittstelle des sozialen Netzwerks. Ben Werdmuller erläutert in diesem Essay, wie Nutzerpräferenzen sowie das System zur auf die Werbevermarktung ausgerichteten Datensammelei bei Facebook Missbrauch Tür und Tor öffneten. Nur so wurde der Skandal, dessen Ausmaße erst jetzt, Jahre später, ans Tageslicht kommen, möglich gemacht. Empfehlenswert ist in diesem Kontext auch das Videointerview mit dem Whistleblower und ehemaligen Cambridge-Analytica-Mitarbeiter Christopher Wylie, der gerade die Praktiken des Unternehmens publik machte.
?In eigener Sache: Wie Algorithmen Menschen vor einem frühzeitigen Tod bewahren können
Jährlich sterben in Kliniken in den USA bis zu 400.000 Menschen, weil den Notfallteams meistens nicht genügend Zeit bleibt, auf potenziell tödliche Ereignisse zu reagieren. Die zuständigen Gesundheitsbehörden sind davon überzeugt, dass der Einsatz von Algorithmen diese Zahl deutlich verringern könnte. Ein entsprechendes System ist bereits seit einigen Jahren im Einsatz. Dr. Cinthia Briseño setzt sich im blogs.bertelsmann-stiftung.de/algorithmenethik-Blog mit dem Ansatz sowie seinem Potenzial, Leben zu retten, auseinander.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Kommentar schreiben