Viel tut sich in der Welt der Algorithmenethik. Mit Erlesenes bleiben Sie auf dem neuesten Stand! Diese Woche haben wir Ihnen ein paar besonders internationale Perspektiven ausgewählt: Emmanuel Macron spricht über die französische KI-Strategie und zeigt dabei wahren Gestaltungswillen. Die Leiterin des Centre for Communication Governance der National Law University in Delhi beschreibt in einem Essay die regulatorischen Herausforderungen, die sich ergeben, wenn lokale Konflikte auf globalen Kommunikationsplattformen ausgetragen werden. Ein chinesischer Softwareingenieur des kalifornischen Startups Gfycat erklärt, wie er Gesichtserkennungs-Software baut, die nicht nur weiße, sondern auch asiatische Gesichter unterscheiden kann. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen.
Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten!
Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
?Wie man Gesichtserkennungs-Software entwickelt, die nicht diskriminiert
(How Coders Are Fighting BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht. in Facial Recognition Software), 29. März 2018, Wired
Die Zahl der Anwendungen, die auf Gesichtserkennungs-Software basieren, nimmt stetig zu. Umso problematischer wird es, dass die derzeit gängigen Gesichtserkennungs-Verfahren darunter leiden, dass sie für weiße Menschen deutlich genauere Ergebnisse liefern als für andere ethnische Gruppen (siehe Algorithmenethik Erlesenes #12). Um diese Ungleichheit abzubauen, sind Maßnahmen erforderlich, die über das Bereitstellen umfangreichen Bildmaterials für das Anlernen des Algorithmus hinausgehen. Der Wired-Reporter Tom Simonite berichtet in diesem Artikel über momentan von Unternehmen und Forschern erprobte Ansätze, die darauf abzielen, künstliche Intelligenz (KI) für typische äußere Merkmale bestimmter ethnischer Gruppen zu sensibilisieren. Simonite sprach unter anderem mit einem Softwareingenieur des Startups Gfycat, der angibt, die Genauigkeit des Gesichtserkennungsalgorithmus mit einem speziellen Detektor für Menschen asiatischer Abstammung deutlich optimiert zu haben.
?Selbstfahrende Autos: “Automation macht uns unaufmerksam”
24. März 2018, Zeit Online
Im Auto sind Mensch und Computer womöglich kein so gutes Team, wie es sich Technologiefirmen ausmalen. Das wird beim Lesen des von Linda Fischer geführten Interviews mit Klaus Bengler vom Lehrstuhl für Ergonomie der TU München deutlich. Bengler benennt als Grundproblem, dass sich unsere menschliche Wahrnehmung und Informationsverarbeitung ändert, sobald wir vom aktiv Handelnden – also etwa dem Autofahrer – zum Überwachenden werden. Automation macht uns in der Tendenz unaufmerksam. Doch sämtliche derzeit im experimentellen Einsatz befindlichen Algorithmen für autonome Fahrzeuge setzen einen menschlichen Überwacher voraus, der im Notfall blitzschnell eingreifen soll. Auch bei dem tragischen Unfall eines autonomen Uber-Fahrzeugs in Arizona (siehe Algorithmenethik Erlesnes #17) saß ein Mensch zur Überwachung der Technik im Auto und war im Moment des Unfalls abgelenkt. Im Flugzeug und im Zug funktioniert die Zusammenarbeit von Mensch und Maschine eigentlich ganz gut – doch beim Autofahren sind die Rahmenbedingungen andere, wie Bengler erklärt. Für die Zukunft autonomer Fahrzeuge wirft dies neue Fragen auf.
?Regulatorische Herausforderung: lokale Konflikte auf globalen Plattformen
(Rebalancing Regulation of Speech: Hyper-Local Content on Global Web-Based Platforms), 28. März 2018, Berkman Klein Center Collection
„Es gibt zu viele hetzerische Inhalte im Netz, während gleichzeitig zu viele legitime Meinungsäußerungen zensiert werden.“ So beginnt Chinmayi Arun, Leiterin des Centre for Communication Governance der National Law University in Delhi, ihren Essay über das hochgradig komplizierte Spannungsverhältnis, das in einer von globalen Webplattformen dominierten, aber gleichzeitig durch unzählige regionale Debatten und Konflikte fragmentierten (Online-)Welt entstanden ist. Arun beleuchtet verschiedene Facetten dieses Spannungsverhältnisses, etwa die Tatsache, dass die Moderation von Hassreden durch Personen erfolgt, denen die Kenntnis über lokale Kontexte und diskursive Besonderheiten fehlt. Oder dass drakonische Zensurmaßnahmen wie Internetabschaltungen in einigen Ländern dazu geführt haben, dass die Plattformen nun lieber präventiv alle Inhalte entfernen, die potenziell problematisch sein könnten, damit aber ungewollt Partei ergreifen. Eine Chance sieht Arun in den großen Mengen an gesammelten Daten über Hassreden, die eine systematische Erforschung der Problematik und die Entwicklung von Lösungsansätzen ermöglichen könnten. Sie fordert Facebook, YouTube & Co. daher auf, diese Daten der Forschung zugänglich zu machen.
?Emmanuel Macrons ausführliche Gedanken zu künstlicher Intelligenz (KI)
(Emmanuel Macron Talks to WIRED About France’s AI Strategy), 31. März 2018, Wired
Die technologische Revolution und insbesondere der Aufstieg künstlicher Intelligenz (KI) ist auch eine politische Revolution. Diese Aussage macht der französische Staatspräsident Emmanuel Macron in diesem umfangreichen Interview zu Frankreichs geplanter KI-Initiative. In dem durch Wired-Chefredakteur Nicholas Thompson per Videochat geführten Gespräch zeichnet Macron ein differenziertes Bild der digitalen Zukunft und spricht zahlreiche Herausforderungen und Fragestellungen an, die wir bei Algorithmenethik Erlesenes regelmäßig im Fokus haben. Wir empfehlen diesen Text, weil er weit über die sonst üblichen Ankündigungen aus der Politik zu Vorstößen in Sachen KI hinausgeht. Macron zeigt Gestaltungswillen und macht deutlich, dass Aspekte wie Transparenz und Überprüfbarkeit algorithmischer Prozesse, Datenschutz und Open Data essenzielle Teile seiner technologischen Reform sein werden. In nächster Zeit dürfte sich in unserem Nachbarland in diesem Bereich also einiges tun. Der Blogger, Buchautor und Journalist Sasha Lobo hat das Interview in seiner Spiegel-Online-Kolumne kommentiert und der „Deutschen Retrodigitalpolitik“ gegenübergestellt.
?Manipulation der Massen – Die wahre Bedrohung durch KI?
(What worries me about AI), 28. März 2018, Medium
Menschen hatten in der Vergangenheit im Zuge großer technologischer Veränderungen stets unbegründete Befürchtungen, gleichzeitig aber die tatsächlich aus dem Wandel resultierenden Probleme unterschätzt oder überhaupt nicht kommen sehen. Auch bei künstlicher Intelligenz (KI) könnte es wieder so sein, mutmaßt der bei Google tätige KI-Entwickler François Chollet in diesem Essay. Er hält es für denkbar, dass die Gefahr durch KI weder in künftiger Massenarbeitslosigkeit noch in dystopischen Maschinen mit eigenem Bewusstsein und dem Ziel der Vernichtung des Menschen liegt. Stattdessen fürchtet er die Fähigkeit von Unternehmen und Regierungen, systematisch das menschliche Verhalten nach eigenen Wünschen zu manipulieren und zu formen. Inwieweit sich das menschliche Verhalten tatsächlich durch gezieltes Platzieren von Botschaften beeinflussen lässt, ist umstritten. Chollet liefert jedoch eine Reihe stichhaltiger Argumente für seine Hypothese, bleibt aber auch konstruktiver Vorschläge nicht schuldig, die die Schaffung eines der KI komplett hörigen und von ihren Betreibern gesteuerten Menschen doch noch verhindern könnten.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren.
Kommentar schreiben