Wer in seinem Leben selten zum Arzt geht und wenige medizinische Leistungen in Anspruch nimmt, ist wohl einfach nicht behandlungsbedürftig – so denkt eine Software in den USA und bietet Afroamerikaner:innen komplexe teure Behandlungen gar nicht erst an. Außerdem in unseren Leseempfehlungen: Trägt der YouTube-Algorithmus zur politischen Radikalisierung bei? Eine neue Studie schlägt eine alternative Sichtweise vor. Und: Kann Künstliche Intelligenz Suizide in Gefängnissen verhindern?

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Patienten-Software benachteiligt Millionen Afroamerikaner:innen

25. Oktober 2019, Spiegel Online

Krankenhäuser und Versicherungen in den USA nutzen einen Algorithmus, um automatisiert Patienten zu identifizieren, die am ehesten von aufwendigen, teuren Behandlungen profitieren würden. Wie die Journalisten Patrick Beuth und Jörg Breithut bei Spiegel Online mit Bezug auf einen Bericht von US-Forscher:innen schreiben, diskriminiert diese Software Afroamerikaner:innen. Sie basiere nämlich auf der Höhe vergangener Behandlungskosten von Patient:innen. Was die Entwicklerfirma des Algorithmus dabei übersehen habe: Afroamerikaner:innen nehmen – zumindest teilweise  aufgrund struktureller Benachteiligung – seltener medizinische Leistungen in Anspruch. Ausgehend von diesen geringeren medizinischen Behandlungskosten folgert die Software, dass auch die medizinische Bedürftigkeit geringer sei – und teilt Afroamerikaner:innen deutlich seltener eine zusätzliche Behandlung zu. Es handele sich hierbei um einen typischen Fall eines diskriminierenden Algorithmus, da die Macher:innen einen bestimmten Wert als Grundlage nehmen würden, anstatt den gesamten Zusammenhang zu betrachten, zitieren die Autoren den Mitgründer und Geschäftsführer von AlgorithmWatch, Matthias Spielkamp.


?Zweifel an der radikalisierenden Funktion des YouTube-Algorithmus

(Maybe It’s Not YouTube’s Algorithm That Radicalizes People), 23. Oktober 2019, Wired

Der Empfehlungsalgorithmus von YouTube radikalisiere Nutzer:innen im großen Stil, indem er ihnen immer extremere Clips zeigt – so lautet ein gängiges Narrativ. Eine Studie der US-amerikanischen Politikwissenschaftler Kevin Munger und Joseph Phillips stellt diese angenommene Kausalität nun jedoch infrage, schreibt die Wired-Reporterin Paris Martineau. Gemäß einer Untersuchung des Forscherduos liege die Hauptursache für die Popularität rechtspopulistischer und -extremer Inhalte nicht in den Empfehlungen des Algorithmus. Stattdessen handele es sich um das Resultat aus einer latent vorhandenen Nachfrage nach diesen Inhalten, niedrigen Einstiegsbarrieren für Videoproduzent:innen sowie aus attraktiven Möglichkeiten zur Monetarisierung von Clips auf der Videoplattform. Andere Wissenschaftler:innen, die sich mit Politisierung und Radikalisierung auf YouTube beschäftigen, betrachten die umfassende quantitative Arbeit von Munger und Phillips als wegweisend für weitere Forschungen. Sich wissenschaftlich und politisch auf den vermeintlich radikalisierenden Empfehlungsalgorithmus zu konzentrieren, sei zwar verlockend, aber bei fehlender Berücksichtigung des Gesamtkontextes unvollständig.


?Mit Künstlicher Intelligenz Selbstmorde in Haft verhindern

22. Oktober 2019, dpa

Jedes Jahr bringen sich in den 36 Haftanstalten Nordrhein-Westfalens trotz aller Sicherheitsvorkehrungen etwa ein Dutzend Insass:innen um. Ein sich in der Entwicklung befindlicher Algorithmus soll künftig für eine Senkung der Suizide sorgen, wie aus dieser dpa-Meldung hervorgeht. Das System werde in der Lage sein, anhand von Videobildern Objekte in Hafträumen zu detektieren, die Selbstmordwerkzeuge darstellen könnten, etwa Scheren oder Schlingen. Auch soll es das Verhalten oder anhand von Gesichtsmerkmalen bestimmte Emotionen identifizieren, die auf eine Risikosituation hindeuten könnten. Die Übertragung der Bilder des Haftraums ins Überwachungszentrum der Justizvollzugsanstalt (JVA) solle nur geschehen, wenn der Algorithmus eine Gefahrensituation vermutet. Im Idealfall könne dieser Ansatz die derzeit äußerst belastende permanente Videoüberwachung und die 15-minütigen persönlichen Kontrollen besonders suizidgefährdeter Gefangener ersetzen. Das von NRW-Justizminister Peter Biesenbach vorgestellte Forschungsprojekt wird nun im sächsischen Chemnitz entwickelt und erprobt, bevor es im Realbetrieb der JVA Düsseldorf getestet werden soll.


?Mit KI gegen Plagiate

24. Oktober 2019, FAZ

Künstliche Intelligenz (KI) und andere technische Lösungen werden verstärkt dabei helfen, Plagiate in akademischen Arbeiten und Anträgen auf Forschungsförderung zu entdecken sowie um Ghostwriter zu entlarven, schreibt Jochen Zenthöfer für die FAZ. KI erlaube es, verschiedene Ähnlichkeitsmerkmale wie Texte, Abbildungen, Quellenverweise, Tabellen, mathematische Ausdrücke und Schreibstile kombiniert zu betrachten und zu gewichten. Bestehen bleibe allerdings das Nachweisproblem. Denn selbst wenn eine Software Indizien für Unregelmäßigkeiten finden sollte, seien diese noch gerichtsfest zu belegen. Technisch müsse man daher schon bei der Erstellung einer Arbeit ansetzen. Konkret nennt Zenthöfer ein Verfahren namens „Trusted Timestamping“, das bereits an einigen deutschen Hochschulen zur Dokumentierung des Arbeitsprozesses zum Einsatz kommt. Dabei werden digitale Fingerabdrücke von Arbeiten kontinuierlich in einer Blockchain abgelegt, um die Entstehungsgeschichte einer Forschungsleistung nachträglich lückenlos darlegen zu können.


?Intelligenz ist kein binärer Zustand

(What does it mean for a machine to “understand”?), 27. Oktober 2019, Medium

Wenn ein Mensch verschiedenste Eigenschaften von Wasser kennt, aber nicht intuitiv erahnt, dass man einen Fön besser nicht in der Badewanne verwenden sollte, würden wir ihm nicht attestieren, dass er Wasser “nicht versteht”. Ihm fehlt lediglich Wissen über ein spezifisches Charakteristikum von Wasser, nämlich seine elektrische Leitfähigkeit. Die gleiche Logik sollten wir auch bei KI-Systemen anwenden, argumentiert der emeritierte Hochschulprofessor der Computerwissenschaften Thomas G. Dietterich in diesem Essay. Dass ein algorithmisches System bestimmte Eigenschaften oder Kausalitäten nicht kennt, bedeute nicht, dass ein “echtes Verständnis” für die jeweilige Domäne fehlt. Verstehen sei nicht binär, sondern existiere entlang eines Spektrums, so Dietterich. Diesen Maßstab an die Ergebnisse der KI-Forschung anzulegen und sich auf das Fehlen oder Vorhandensein konkreter Fähigkeiten statt einer ominösen “echten Intelligenz” zu fokussieren, sei wichtig, um den Eindruck mangelnden Fortschritts und ein daraus folgendes Wegbrechen von Forschungsmitteln zu verhindern.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren