Wir sollten aufhören, immer von „der einen“ Künstlichen Intelligenz (KI) zu sprechen. Wie man differenzierter darüber schreiben könnte, erfahren Sie heute im Erlesenes-Newsletter. Außerdem: Wie können wir dem Zweifel an algorithmischen Diagnosen begegnen? Wo spielen Algorithmen und Mensch besonders gut im Team zusammen? Diskutieren Sie mit und bleiben Sie informiert!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Es gibt nicht „die“ Künstliche Intelligenz

(AI Coverage Best Practices, According to AI Researchers), 11. November 2019, Skynet Today

Manche zeichnen in Berichten oder Vorträgen ein irreführendes Bild von Künstlicher Intelligenz (KI). Andrey Kurenkov, Chefredakteur des Onlinemagazins Skynet Today, will mit dieser auf Basis von Kommentaren von KI-Forscher:innen erstellten Übersicht zu Best Practices dazu animieren, mehr auf Sorgfalt und Genauigkeit zu achten, wenn über KI gesprochen oder geschrieben wird. Zu den genannten Empfehlungen gehören der Verzicht auf eine Vermenschlichung von KI und die Konkretisierung dessen, was gemeint ist, wenn von „lernender” Software die Rede ist. Außerdem stünden hinter jedem Algorithmus menschliche Verantwortliche, die man auch konsequent benennen sollte. Auch raten die Expert:innen, sich für ernsthafte Debatten nicht auf populärkulturelle Darstellungen von KI (etwa in Sci-Fi Filmen) zu beziehen und den oft spekulativen Meinungen bekannter Personen über KI nicht zu viel Aufmerksamkeit zu schenken.


?Je einzigartiger sich Patient:innen fühlen, desto größer ihre Zweifel an KI-Diagnosen

(AI Can Outperform Doctors. So Why Don’t Patients Trust It?), 30. Oktober 2019, Harvard Business Review

Viele Patient:innen würden die von Ärzt:innen gestellten Diagnosen denen von Künstlicher Intelligenz (KI) vorziehen. Der Grund sei aber nicht, dass sie grundsätzlich an der Leistungsfähigkeit des KI-Systems zweifeln; sie gingen davon aus, dass der Algorithmus ausgerechnet an ihrem „ganz speziellen” Fall versagen würde. Zu diesem Schluss kommt ein Forscher:innenteam rund um Chiara Longoni und Carey K. Morewedge, Professor:innen an der Boston University. Wie das Duo im Artikel erläutert, habe ihre Studie gezeigt, dass es eine eindeutige Korrelation zwischen individuell wahrgenommener Einzigartigkeit und der Ablehnung von Algorithmen zur Diagnose gibt. Selbst in Szenarien, in denen ein Computer eindeutig genauer ist als ein Mensch. Verringern ließe sich der Widerstand, wenn klar wird, dass KI sehr personalisierte Diagnosen stellen kann und die Ärzt:innen das letzte Wort haben. Passend zum Thema: Unser Papier von Anita Klingel zu Chancen und Risiken von Gesundheits-Apps für Patient:innen.


?Bürgerrechtler:innen fordern Prüfung von Robo Recruiting-Algorithmus

(The AI hiring industry is under scrutiny—but it’ll be hard to fix), 9. November 2019, MIT Technology Review

Immer mehr Unternehmen in den USA setzen KI-Software ein, die Videoaufnahmen von Bewerbungsgesprächen – darunter Sprache und Gesichtsausdrücke der Kandidat:innen – analysiert und davon ausgehend die Eignung bewerten soll. Die Bürgerrechtsorganisation EPIC will nun die US-Wettbewerbs- und Verbraucherschutzbehörde FTC dazu bringen, Anbieter:innen eines derartigen Systems  einer Prüfung zu unterziehen, schreibt Angela Chen, Reporterin beim MIT Technology. Es gebe Zweifel an der Effektivität des Algorithmus, zudem seien die Gefahren der Diskriminierung von Personen, die im zugrunde liegenden Datensatz nicht ausreichend repräsentiert sind, erheblich. Chen merkt jedoch an, dass die Chancen auf einen Erfolg des Anliegens nicht sonderlich gut wären. Traditionell sei es in solchen Fällen schwierig, konkret Diskriminierung nachzuweisen. Wichtig ist nach Ansicht von Chen, dass Regulierungsbehörden definieren, wie viel Verantwortung Firmen auferlegt werden kann, wenn es darum geht, die Reproduktion gesellschaftlich-struktureller Benachteiligungen zu verhindern. An dieser Stelle verweisen wir gerne auf unser Policy Paper von Tobias Knobloch und Carla Hustedt zu „Robo Recruiting”.


?Mit Deep Fakes die eigene Stimme behalten

(AI project to preserve people’s voices in effort to tackle speech loss), 9. November 2019, The Guardian

Künstliche Intelligenz soll Menschen, denen aufgrund von Erkrankungen wie etwa Krebs der Verlust ihrer Stimme droht, die Möglichkeit geben, sich auch in Zukunft verbal zu verständigen. Nicola Davis, Reporterin bei The Guardian, berichtet über ein derartiges Unterfangen, das derzeit an der Northeastern University in Boston in Zusammenarbeit mit einem Start-up-Unternehmen getestet wird. Nachdem die Stimme von Betroffenen zwei bis drei Stunden lang aufgenommen wurde, könne ein Algorithmus ihre Stimme nachbilden. Per Smartphone-App oder anderem Eingabegerät lasse sich dann das Geschriebene per individualisierter Computerstimme wiedergeben. Es sei sogar möglich, die nachgebildete Stimme so zu manipulieren, dass sie mit den Patient:innen altere. Bislang machte eine derartige „Deep Fake”-Technologie vor allem aufgrund ihres hohen Missbrauchspotenzials von sich reden. Der aktuelle Ansatz zeigt dagegen ein positives Einsatzgebiet.


?Wie Mensch und Algorithmus im Team Kursmanipulationen an der Börse erkennen sollen

(AI will now watch for fraudsters on the world’s largest stock exchange), 7. November 2019, MIT Technology Review

Die Hoffnung auf das große Geld an den Aktienmärkten zieht nicht nur Kleinanleger:innen und institutionelle Investor:innen an, sondern auch allerlei Betrüger:innen. Das Unternehmen NASDAQ, das Dutzende elektronische Marktplätze in den USA und Europa betreibt, will nun mithilfe von Künstlicher Intelligenz eine größere Zahl der sich stetig weiterentwickelnden Tricksereien erkennen. Wie Karen Hao vom MIT Technology Review schreibt, werde das neue System in Kombination mit bisherigen regelbasierten Lösungen sowie mit menschlicher Expertise eingesetzt. Wenn der Algorithmus auffällige historische Handelsmuster erkennt, alarmiert er menschliche Expert:innen mit jeweiliger Branchenkompetenz. Diese würde dann den entsprechenden Fall untersuchen und dem System ihre Einschätzung mitteilen. Auf diese Weise sollen Fehlentscheidungen verhindert und eine kontinuierliche Optimierung der Software sichergestellt werden. Vielleicht kann der Ansatz zu verhindern helfen, dass gerade die oft wenig erfahrenen Privatanleger:innen durch Kursmanipulationen um ihr Erspartes gebracht werden.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren