Mexikanische Männer tragen immer Sombreros, indonesisches Essen wird nur auf Bananenblättern serviert – viele KI-Bildergeneratoren sind nach wie vor nicht in der Lage, die Komplexität und Heterogenität unserer diversen Welt abzubilden. Selbst Stereotype, die nicht von Hause aus negativ sein müssen, sind immer noch Stereotype: Sie spiegeln ein bestimmtes Werturteil und eine Ausdünnung der Vielfalt wider. In einer eindrücklichen Untersuchung hält „rest of the world“ den Bildgeneratoren den Spiegel vors Gesicht. Dass Künstliche Intelligenz (KI) die Filmindustrie grundlegend verändern kann, dessen waren sich Drehbuchautor:innen in den USA bewusst. Nach monatelangen Protesten und Arbeitskampf gab es jetzt eine Einigung mit der Gewerkschaft Writers Guild of America. Was das alles konkret im Alltag der Filmindustrie bedeutet und vieles mehr, erfahren Sie in der heutigen Ausgabe von Erlesenes – wie der Zufall so will, ist unsere Autorin Teresa derzeit in den USA unterwegs, daher wünschen Ihnen heute ausnahmsweise
Asena und Michael
Viel Spaß beim Lesen!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
Die Antidiskriminierungspflicht für Algorithmenehen?
Less Discriminatory Algorithms, SSRN, 2.10.2023
Wenn KI-Systeme zu Diskriminierungen beitragen, wie etwa automatisierte Betrugserkennungen in der Sozialhilfe, dann dreht sie die Debatte oft um unvollständige Trainingsdaten, die vervollständigt oder bereinigt werden sollten. US-Forscher:innen zeigen einen weiteren Aspekt der Diskriminierungvermeidung auf: Die Veränderung der KI-Modelle. Schließlich sei aus der Informatik bekannt, dass es bei einer konkreten Anwendung fast immer verschiedene mögliche Modelle gibt, die gleich leistungsfähig sind. Aus diesem Grundsatz der „Modellvielfalt“ (engl. „model multiplicity“) ergibt sich für die Autor:innen eine klare Konsequenz: In vielen Fällen algorithmischer Diskriminierung wird es eine ebenso leistungsfähige, aber weniger diskriminierende Alternative geben. Damit Entwickler:innen diese Möglichkeit auch nutzen, sollen sie bewusst verschiedene Modelle explorieren. Damit sie das auch tun, schlagen die Autor:innen unter anderem vor, eine Pflicht zur Modellexploration in neue KI-Regulierungen einzubauen.
Film- und Fernsehautoren im Arbeitskampf zu KI
Done Deal: Here Is What’s in the New WGA Contract and What It Means, Vanity Fair, 26.9.2023
Nach fast einem halben Jahr endete vor Kurzem der Arbeitskampf der Drehbuchautor:innen in den USA. Eines der umstrittensten Themen: der wachsende Einsatz von KI in der Film- und Fernsehbranche. Der nun neu ausgehandelte Vertrag der Writers Guild of America enthält dafür erstmalig Regeln. Demnach darf mithilfe von KI-Systemen kein literarisches Material geschrieben oder umgeschrieben werden, Autor:innen können nicht gezwungen werden, KI-Anwendungen zu verwenden, und Studios müssen offenlegen, wenn Material teilweise oder vollständig von KI erzeugt wurde. Keine Bestimmungen hingegen finden sich dazu, ob von Drehbuchautor:innen erstellte Werke für das Training von KI-Modellen verwendet werden dürfen. Verboten ist es zumindest nicht. Erstmalig waren Textgeneratoren damit zentraler Bestandteil von gewerkschaftlichen Vereinbarungen – und wir können viel davon lernen. Es bleibt abzuwarten, ob der neue Vertrag ausreichen wird, um die Autor:innen vor dem faktischen Verlust ihrer Urheberrechte zu schützen.
How AI reduces the world to stereotypes, Rest of World, 10.10.2023
CEOs sind weiße Männer – so scheint es zumindest, wenn wir uns KI-generierte Bilder anschauen. Viele dieser anekdotischen Beispiele zeigen, dass KI-Bildgeneratoren nicht frei von Stereotypen sind. Doch wie tief und umfangreich sind diese? Dafür reicht es nicht, nur ein paar Begriffe auszuprobieren. Nachdem Bloomberg anhand von 5.000 generierten Bildern Verzerrungen bei der Gestaltung von Berufen und Angestellten aufzeigte, hat nun die Journalistin Victoria Turk circa 3.000 Bilder generiert und untersucht. Ihre Analyse zeigt plastisch anhand vieler Beispiele, wie gesellschaftliche Stereotype über Länder und Kulturen auch Eingang in Bildgeneratoren gefunden haben. Eine „indische Person“ kann scheinbar nur ein Mann mit Bart und Turban sein und „indonesisches Essen“ muss zwingend auf Bananenblättern serviert werden. Doch Stereotype werden nicht nur dargestellt, sondern sogar verstärkt: Die Kleidung der „indischen Person“ sei spiritualisiert, exzessiv und eigentlich untypisch, so Diversitätsforscherin Sangeeta Kamat. Anstatt Kulturen so angemessen zu repräsentieren, würden sie eher einem Cartoon gleichen. Der Artikel ist voller Beispiele zum Entdecken und Kopfschütteln.
Sounderkennung gegen Entwaldung
Tree-hugging AI to the rescue of Brazilian Amazon, 1.10.2023
Der brasilianische Präsident Luis Ináico Lula da Silva hat versprochen, illegale Abholzungen im Amazonas zu unterbinden. Doch wie kann dieser riesige Regenwald ausreichend überwacht und geschützt werden? Ein brasilianisches Team hat dafür eine Lösung entwickelt: Kleine Boxen mit Mikrofonen. Ein eingebautes KI-Modell wurde darauf trainiert, typische Urwaldgeräusche die Tiere, Wind oder Regen machen, von Kettensägen oder Traktoren zu unterscheiden. Die Sensorboxen werden über den Wald verteilt sind in einem Netzwerk verbunden, sodass bei Rodungen ein Alarm ausgelöst und in die Zentrale gesendet werden kann. Der Vorteil: Während bei Satellitenbildern erst nach der Abholzung die Schuldigen gefunden werden, können mit Soundaufnahmen illegale Aktivitäten live ermittelt und gestoppt werden. Noch ist das System ein Prototyp, aber die Forscher:innen sind gerade auf der Suche nach einer Fördergeldern, um in einem ersten Schritt mehrere hundert Sensorboxen aufzustellen.
KI-Kompetenzlücken bei der US-Polizei
FBI Agents Are Using Face Recognition Without Proper Training, WIRED, 25.9.2023
Automatisierte Gesichtserkennung ist nicht ganz unproblematisch: Immer wieder gabes Fälle, wo solche Software zu falschen Anschuldigungen oder Verhaftungen geführt hat. Nicht zuletzt deshalb fordern zivilgesellschaftliche Organisationen und auch das EU-Parlament ein Verbot dieser Anwendungen in der KI-Verordnung. Ob es dazu kommt, ist noch offen. Unabhängig davon sollten aber Sicherheitsbehörden, die bereits auf diese Technologie bauen, sorgsam damit umgehen. Dazu würden auch Kompetenztrainings gehören, wie sie etwa die US-Polizeibehörde FBI vorsieht. Sie sollen dabei helfen, den Output der Systeme angemessen zu interpretieren und für Fehler sensibilisiert zu sein. Ein Bericht der entsprechenden Aufsichtsbehörde zeigt aber nun, dass nur zehn von etwa 200 Mitarbeitenr:innen, die im Alltag Zugriff auf Gesichtserkennungssoftware haben, die entsprechende dreitägige Schulung besucht haben. Ähnliche Kompetenzlücken zeigen sich auch in anderen Behörden, die solche Anwendungen nutzen. Das zeigt, wie wichtig nicht nur das Angebot, sondern auch die verpflichtende Umsetzung von Schulungsmaßnahmen ist.
Liz Orembo arbeitet als Forscherin bei Research ICT Africa zu Plattformen, Data Governance und Public Interest Tech.
Verlesenes: Die Rettung für junge Väter wie Michael:
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben