Wie können wir KI-Ethik in der Praxis umsetzen? Gleich zwei Beiträge dieser Woche beschäftigen sich mit kreativen Ideen und kritischen Hinweisen, wie diese schwierige Aufgabe gelingen kann. Außerdem in dieser Ausgabe von Erlesenes: Ist Quarantäne bei der Eindämmung der Corona-Pandemie wirksam? Und: Können Algorithmen die Ausbreitung von COVID-19 konkret berechnen? Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
14. April 2020, Tagesspiegel
Das im Februar 2020 veröffentlichte „Weißbuch zur Künstlichen Intelligenz“ (KI) der EU-Kommission enthalte „eine ganze Reihe von starken Punkten“ – aber deutlich weniger, als sie gerne gesehen hätten, schreiben die Mitglieder einer KI-Expertengruppe und Ethiker Mark Coeckelbergh und Thomas Metzinger. Sie loben unter anderem, das angestrebte Festhalten am Ideal der „Vertrauenswürdigkeit“, die Fokussierung des Dokumentes auf die Themen Klimawandel, Nachhaltigkeit und den Schutz natürlicher Ressourcen sowie die Einbindung ethischer Normen bereits bei der Entwicklung von Technologie. Als problematisch bezeichnen Coeckelbergh und Metzinger jedoch, dass dieses Vorgehen nur für „Hochrisikosektoren“ vorgeschlagen wird. Generell äußern sie sich kritisch zum sektorspezifischen Ansatz. Denn es wäre nicht abzusehen, ob Technologien in einem vermeintlich risikoärmeren Bereich mittelfristig oder in einem neuen Anwendungsfeld doch Schadenspotenzial entfalten könnten. In eigener Sache: Eine Kombination aus einer Ex-ante-Prüfung und einem risikobasierten Vorgehen über Sektorengrenzen hinweg bieten wir mit unserem neuen Ansatz des KI-Ethik Labels, das wir zusammen mit dem VDE e.V. und einem Konsortium aus Wissenschaft und Zivilgesellschaft erarbeitet haben.
?Wie Technologie eingesetzt werden kann, um Krankenpfleger:innen für COVID-19-Fälle auszubilden
(How AI-powered online learning is training nurses to fight COVID-19), 16. April 2020, TechRepublik
Krankenpfleger:innen, die im Kampf gegen COVID-19 eingesetzt werden sollen, profitieren, wenn ihnen schnellstmöglich fallspezifisches Wissen zum korrekten Umgang vermittelt wird. Der US-Krankenhausbetreiber Mount Sinai hat zu diesem Zweck zusammen mit der New York Academy of Sciences und dem schwedischen Startup Sana Labs eine digitale Lernplattform entwickelt, berichtet Brandon Vigliarolo beim Onlinemagazin TechRepublic. Mithilfe Künstlicher Intelligenz (KI) und eines initialen Fragebogens werde ein personalisierter Lehrplan erstellt, auf dessen Basis Pfleger:innen in einem zweitägigen Onlinekurs genau das Know-how zu der vom neuartigen Coronavirus verursachten Krankheit lernen, das ihnen bislang fehlt. Die drei Partner dieses Projekts haben laut Vigliarolo angekündigt, die Plattform kostenfrei für Krankenhäuser und Mediziner:innen weltweit verfügbar machen zu wollen.
?Forscher:innen fordern ein „Kopfgeld” für das Auffinden von Vorurteilen in KI
(AI researchers propose ‘biasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht. bounties’ to put ethics principles into practice), 17. April 2020, Venturebeat)
Eine große Gruppe von KI-Forscher:innen verschiedenster Organisationen und Unternehmen legt in einem neuen Bericht Ideen dar, wie sich ethische Prinzipien zu Künstlicher Intelligenz (KI) in die Praxis umsetzen und prüfen lassen. Venturebeat-Reporter Khari Johnson fasst einige der Kernpunkte zusammen. Eine zentrale Rolle spiele das Konzept, Entwickler:innen für das Auffinden von Vorurteilen in KI eine Art Belohnung zu zahlen, analog zum Prinzip sogenannter „Bug Bounties“. Bei diesen loben Technologiefirmen teils enorme Summen an Preisgeld für diejenigen aus, die Sicherheitslücken aufspüren. Zu den weiteren Vorschlägen der Wissenschaftler:innen gehört das Publikmachen von problematischen Vorfällen in zentralen Datenbanken, das Protokollieren von Vorgängen während des Entwicklungsprozesses von kritischen KI-Anwendungen sowie eine stärkere Unterstützung des Technologieeinsatzes, der keine Eingriffe in die Privatsphäre bedeutet. Künstliche Intelligenz habe das Potenzial, die Gesellschaft sowohl in positiver als auch in negativer Weise zu verändern, so die Autor:innen in ihrem Papier. In eigener Sache: Im Frühjahr 2020 veröffentlichen wir einen Leitfaden für Entwickler:innen, die eine ethische Entwicklung von Technologie auf Basis der Algo.Rules konkret umsetzen wollen.
?Forscher:innen entwickeln Epidemiologie-Algorithmus, der Quarantäneeffekte berücksichtigt
(Model quantifies the impact of quarantine measures on Covid-19’s spread), 16. April 2020, MIT News
Viele epidemiologische Modelle, die zur Berechnung der weiteren Ausbreitung des neuartigen Coronavirus eingesetzt werden, basieren auf Daten aus früheren Virenausbrüchen und berücksichtigten nicht die Effekte von Quarantänen, schreibt Mary Beth Gallagher, Communications Officer beim Department of Mechanical Engineering des Massachusetts Institute of Technology (MIT), in den MIT News. Ein von den MIT-Forschern Raj Dandekar und George Barbastathis entwickeltes Modell sei das erste, das anhand von Daten zur neuartigen Coronavirus-Pandemie trainiert wurde und in der Lage sei, die durch Quarantänen und Ausgangsbeschränkungen ausgelöste Reduktion der Basisreproduktionszahlen des Virus zu prognostizieren. Ein Algorithmus habe mit dem Modell beispielsweise die Entwicklung der letzten Wochen in den USA vorhergesagen können. Die Forscher planen, ihre Arbeit anderen Wissenschaftler:innen zugänglich zu machen, damit sie künftig als Grundlage für weitere Entscheidungen zu Ausgangsbeschränkungen dienen könne, so Gallagher.
?Wie Microsoft das Artensterben bekämpfen will
15. April 2020, Der Spiegel
Eine neu lancierte Plattform des Technologiekonzerns Microsoft verspricht Wissenschaftler:innen und Naturschutzorganisationen rund um den Globus bessere Informationen über den Zustand des Planeten, berichtet Der Spiegel. Auf dem „Planetary Computer“ sollen insgesamt mehrere Billionen Datenpunkte zum Zustand verschiedener Ökosysteme gespeichert werden. Darauf aufbauend könnten KI-Systeme beispielsweise anhand von Satellitenaufnahmen die Baumdichte in Wäldern schneller analysieren oder Algorithmen mit Messdaten von Gewässern gefüttert werden, um das Überschwemmungsrisiko verschiedener Gebiete zu berechnen. Gemäß dem im Artikel zitierten Nachhaltigkeitsexperten Chris Adams agiere Microsoft besser als viele Konkurrenten. Kritisch bewerte er allerdings, dass der US-Konzern gleichzeitig mit großen Öl- und Gasfirmen zusammenarbeitet.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Kommentar schreiben