Gesichtserkennungstechnologie steht in der Kritik – doch wie können wir Sie nutzbringend für das Gemeinwohl einsetzen? Wo kann Künstliche Intelligenz (KI) uns beim früheren Aufspüren von Epidemien helfen? Und wie berechnet man den CO2-Fußabdruck von KI-Modellen? Unsere fünf Impulse zeigen: Die Zukunft der Entwicklung und des Einsatzes von neuer Software liegt in unseren Händen. Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Ein Algorithmus soll helfen, Erlebnisse von Holocaust-Überlebenden zu dokumentieren

(Facial recognition could help discover fate of Holocaust victims), 21. Januar 2020, Reuters

Könnte Gesichtserkennungstechnologie Nachfahr:innen von Holocaust-Überlebenden dabei helfen, den Lebensweg ihrer Familienmitglieder durch Fotos vor und während der Jahre des zweiten Weltkrieges aufzuspüren? Das israelische Shem Olam Holocaust Memorial Centre will dies mit einem entsprechenden Projekt herausfinden, berichtet die Reuters-Korrespondentin Rinat Harash. Ein Algorithmus werde dafür verwendet, eingesandte Familienfotos aus der Zeit kurz nach dem Krieg mit Fotos aus Archiven abzugleichen, die von Wehrmachtssoldaten angefertigt wurden, etwa in Gegenden mit einem hohen Anteil jüdischer Menschen. Viele Überlebende hätten nach der Befreiung nie über ihre damaligen Erlebnisse gesprochen. Die Initiator:innen erhoffen sich von der Initiative, dass jüngeren Generationen eine zusätzliche Perspektive auf das vermittelt wird, was ihre Eltern, Großeltern und anderen Verwandten damals erlebt haben, schreibt Harash.


?Coronavirus: Künstliche Intelligenz wusste vor allen anderen von der Epidemie

(An AI Epidemiologist Sent the First Warnings of the Wuhan Virus), 25. Januar 2020, Wired

Am Silvestertag 2019 informierte ein kanadisches Unternehmen über den Ausbruch einer bis dahin unbekannten Virenerkrankung im chinesischen Wuhan – mehr als eine Woche, bevor die Weltgesundheitsorganisation auf das neue Coranavirus aufmerksam machte. Der Algorithmus der Firma BlueDot durchsuche automatisch das Netz nach Indizien, die auf Epidemien hinweisen könnten, erklärt Eric Niiler bei Wired. Wird die Software fündig, übernähmen Epidemiolog:innen die Analyse des aufgespürten Datenmaterials. Sie entschieden darüber, ob die Firma Alarm schlägt. Laut Niiler habe das System im Falle des jüngsten Coranavirus anhand von Reisemustern auch korrekt vorhersagen können, in welchen Ländern die Krankheit als Nächstes auftauchen würde. Um Epidemien effektiv und schnell an ihrer Ausbreitung zu hindern, seien Transparenz und Offenheit nationaler Behörden Voraussetzung. Solange dies nicht gegeben ist, stelle Künstliche Intelligenz eine nützliche Alternative dar, so Niiler.


?Expert:innen sollen eingreifen, wenn beim maschinellen Lernen etwas schiefläuft

(Can AI put humans back in the loop?), 21. Januar 2020, ZDNet

Ein Algorithmus, der Fachexpert:innen Einblicke in seinen Entscheidungsprozess gibt, sei nicht genug – der Mensch müsse bei Fehlern während des maschinellen Lernens unmittelbar eingreifen können. Diese Sicht vertritt Computerwissenschaftler Patrick Schramowski von der Technischen Universität Darmstadt. Wie der freie Journalist Tiernan Ray bei ZDNet informiert, haben Schramowski und sein Team ein Verfahren entwickelt, das auf einer direkten, konstanten Interaktion zwischen Algorithmus und Fachexpert:in basiert. Ziel sei es, zu verhindern, dass sich das System beim Lernen auf Merkmale fokussiert, die irrelevant oder gar hinderlich für die angestrebte Aufgabe oder Fähigkeit sind. Der gewählte Ansatz sei stark inspiriert von am Fraunhofer Heinrich-Hertz-Institut und der Technischen Universität Berlin entstandener Arbeit, die aufzeigt, dass Algorithmen gerne Fähigkeiten nachgesagt werden, die sie gar nicht besitzen (siehe Erlesenes #61, Die „Schummelalgorithmen hinter der Künstlichen Intelligenz).


?KI-Forscher:innen und -Anwender:innen stellen sich ihrer Klima-Verantwortung

(AI Can Do Great Things—if It Doesn’t Burn the Planet), 21. Januar 2020, Wired

Ein Algorithmus, der sich eigenständig mithilfe der Rechenpower und Energieleistung von 1000 Desktop-PCs sowie einem Dutzend Spezialcomputern über mehrere Monate hinweg das Lösen eines Zauberwürfels beibringt – wie lässt sich das mit der Notwendigkeit der Reduktion von Emissionen in Einklang bringen? Verstärkt stellen sich Forscher:innen und Anwender:innen im Bereich Künstlicher Intelligenz (KI) die Frage, welchen Beitrag sie leisten können oder müssen, um nicht zur weiteren Erderwärmung beizutragen. Will Knight, Reporter bei Wired, erläutert, welche Maßnahmen die Protagonist:innen im KI-Feld ergreifen, um den CO2-Fußabdruck der Technologie zu verringern. Unter anderem erwähnt er ein Online-Tool, mit dem Wissenschaftler:innen die Emissionen ihrer Modelle und Algorithmen kalkulieren können. Weitere Ansätze seien unter anderem die Schaffung von Bewusstsein auf Fachkonferenzen sowie die gezielte Entwicklung von energieeffizienteren Algorithmen und Chips.


?Hilft das Trolley-Problem bei automatisierten Entscheidungssystemen?

23. Januar 2020, heise online

Die Bereitschaft, den Tod eines Menschen in Kauf zu nehmen, um andere am Leben zu erhalten, ist insgesamt weltweit größer, als ein solches Ableben etwa durch einen gezielten Stoß herbeizuführen und zu instrumentalisieren. So lautet eine Erkenntnis einer neuen Studie zum sogenannten „Trolleyproblem“, durchgeführt von Wissenschaftler:innen um Iyad Rahwan vom Max-Planck-Institut für Bildungsforschung, berichtet der freie Journalist Stefan Krempl. Befragt wurden für die nicht repräsentative Studie rund 70.000 Teilnehmer:innen aus 42 Nationen. Das Trolleyproblem wird häufig als theoretisch-philosophische Herausforderung angeführt, wenn es um Ethik und Moral autonomer Entscheidungen von Maschinen – insbesondere autonome Fahrzeuge – geht. Allerdings bemängeln Kritiker:innen den aufgrund der unrealistischen Rahmenbedingungen geringen Erkenntnisgewinn. Wie Torsten Kleinz im Algorithmenethik-Blog zum selben Thema anmerkte, sei die Technik momentan ohnehin noch damit ausgelastet, Fußgänger:innen überhaupt zu erkennen. Dennoch liefert die neue Studie interessante Einblicke, wie unterschiedliche Kulturen schwierige moralische Entscheidungen bewerten.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren