Keine Woche ohne neuen technologischen Durchbruch gegen COVID-19. Während einige Nachrichten hoffnungsfroh stimmen, scheitern Algorithmen manchmal an der schlechten Bildqualität des echten Lebens. Was wir deshalb beim Einsatz algorithmischer Systeme beachten müssen, diskutieren wir in dieser Ausgabe von „Erlesenes“! Wir fragen uns auch: Wie teuer ist das Training von KI-Modellen und wer bezahlt das eigentlich? Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
(How A.I. Steered Doctors Toward a Possible Coronavirus Treatment), 30. April 2020, New York Times
Biologie ist so komplex, dass die Erforschung möglicher Behandlungsmethoden von Krankheiten wie COVID-19 immer auch ein wenig der Zufall eine Rolle spielt. Die Hoffnungen sind jedoch groß, dass Künstliche Intelligenz (KI) hier ein wenig nachhelfen könnte. Cade Metz, Korrespondent bei der New York Times, berichtet über das Londoner Startup BenevolentAI und dessen Technologie. Unter Umständen sei durch den Einsatz der Technologie mit dem entzündungshemmenden Wirkstoff Baricitinib ein mögliches Medikament für COVID-19-Patient:innen gefunden worden. Die Software des Unternehmens scannt dabei enorme Mengen akademischer Papiere und wissenschaftlicher Literatur und so ließen sich mitunter unerwartete, komplexe biologisch-medizinische Zusammenhänge offenlegen und visualisieren, die Menschen leicht entgehen. Im speziellen Fall sei auf diese Weise die potenzielle Schlüsselrolle von Baricitinib als COVID-19-Behandlung erkannt worden. Nun laufe eine klinische Studie. Inwiefern der Einsatz dieser oder anderer Technologien in der aktuellen Lage wirklich zum Durchbruch verhilft, wird sich erst nach kritischen Prüfungen – auch in realen Anwendungsszenarien – zeigen.
? KI-Modelle prognostizieren, wann Gesichtsmasken gegen die Coronavirus-Pandemie helfen
(AI models suggest that masks can ‘significantly’ reduce spread of coronavirus), 29. April 2020, Venturebeat
Wenn 50 Prozent der Bevölkerung Mund-Nase-Masken tragen würden, sei dies nicht ausreichend, um die weitere Verbreitung des Coronavirus effektiv einzudämmen. Würden allerdings vier von fünf Personen Mund und Nase abdecken, hätte dies „signifikante Auswirkungen“. Dies zeigen zwei Simulationen, die mithilfe von KI-Modellen erstellt und von einem internationalen Forscher:innenteam durchgeführt wurden. Venturebeat-Reporter Kyle Wiggers fasst die Ergebnisse der Studie zusammen. Die Simulationen lägen auch den Schluss nahe, dass der verbreitete Einsatz von Masken nach Aufhebung der temporären Ausgangsbeschränkungen unter Umständen eine zweite Infektionswelle minimieren, wenn gar verhindern könnte. Eine weitere Erkenntnis der Studie: Die Verwendung selbstgefertigter, nicht medizinischer Masken sei besser, als auf das Abdecken von Mund und Nase ganz zu verzichten.
? Algorithmen scheitern am echten Leben
(Google’s medical AI was super accurate in a lab. Real life was a different story.), 27. April 2020, MIT Technology Review
Gängige Zulassungsverfahren für den Einsatz von Künstlicher Intelligenz (KI) im medizinischen Bereichen fokussieren sich üblicherweise auf Akkuratheit, Anforderungen bezüglich des tatsächlichen Nutzens für Patient:innen fehlen. Das müsse sich ändern, konstatiert Emma Beede, Mitautorin einer Studie von Google Health zum Patient:innen-Fokus beim KI-Einsatz im medizinischen Bereich, über die „MIT Technology Review“-Reporter Will Douglas Heaven berichtet. Als Teil dieser Forschung wurde in Kliniken in Thailand ein Algorithmus getestet, der mit einer theoretisch hochakkuraten Genauigkeit von 90 Prozent Sehstörungen bei Diabetik:erinnen erkennt. Im praktischen Einsatz jedoch kam es zu Problemen: Mal lehnte der Algorithmus Scans mit geringer Bildqualität kategorisch ab, mal funktionierte der Datenupload wegen schwachen Internets nicht. Lief alles reibungslos, sei die Lösung tatsächlich eine große Hilfe für das Fachpersonal gewesen. Aber eben nur dann.
? Das Training von KI-Modellen kann richtig teuer werden
(AI21 Labs Asks: How Much Does It Cost to Train NLP Models?), 30. April 2020, Synced
Hohe Kosten für das Training von Künstlicher Intelligenz (KI) haben zur Folge, dass Wissenschaftler:innen und Organisationen mit kleinem Budget deutlich schlechtere Voraussetzungen haben als Technologiekonzerne. Ein israelisches Forscherteam beleuchtet in einem aktuellen Papier die konkreten Ausgaben, die für das Training von KI-Modellen erforderlich sind, berichtet Fangyu Cai, Reporterin beim Onlinemagazin Synced. Demnach könne beispielsweise das Training von Sprachmodellen mit etwa 15 Gigabyte Wikipedia-Daten mit höchstem Optimierungsgrad bis zu zehn Millionen US-Dollar unter anderem für die Rechenkapazitäten verschlingen. Zwar gehe es auch deutlich günstiger – dann jedoch mit (kleinen) Abstrichen bei der Qualität der Resultate. Das Streben nach Perfektion ungeachtet der benötigten Ressourcen sei in der Forscher:innen-Gemeinde bislang überwiegend Usus. Yoav Shoham, einer der Autoren dieser Studie, appelliere an die Disziplin, sich effizienter KI zu verschreiben und neue Wege im Umgang mit großen Datenmengen zu finden, so Cai.
? Mindestens 11 Regionen in Europa setzen auf Überwachung per Gesichtserkennung
(Unchecked use of computer vision by police carries high risks of discrimination), 28. April 2020, AlgorithmWatch
In mindestens 11 Regionen Europas nutze die Polizei Kameras und Gesichtserkennungstechnologie zur (teil)automatisierten Überwachung. Das zeigte eine Untersuchung von AlgorithmWatch, über die Datenreporter Nicolas Kayser-Bril berichtet. Zugleich mangele es an Transparenz seitens der zuständigen Stellen und Softwarelieferanten. Manche Nachfragen seien unbeantwortet geblieben, andere mit dem Verweis auf Vertraulichkeit der Informationen abgewiegelt worden. Gaben die Verantwortlichen doch Auskunft, offenbarte sich scheinbar fehlendes Verständnis darüber, wie algorithmische Diskriminierung entsteht: So schloss eine involvierte Softwarefirma Diskriminierung auf Basis von Hautfarbe aus, weil das Programm Hautfarbe nicht als Attribut nutze. Doch sei gerade das Auffinden von nicht vordefinierten Mustern die Stärke von lernender algorithmischer Systeme, erinnert Kayser-Bril. In welchem Ausmaß die automatisierte Überwachung zu Diskriminierung in der Polizeiarbeit tatsächlich führe, sei aktuell unklar.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Kommentar schreiben