In dieser Erlesenes-Ausgabe zeigen gleich zwei Beispiele, welche Auswirkungen KI-Modelle auf unseren Sprachgebrauch und die Wissensvermittlung haben: zum einen zeigt ein Projekt, dass generative KI-Modelle die Häufigkeit bestimmter Wörter und Ausdrücke verfälschen – und welche Auswirkungen das auf unseren Sprachgebrauch hat. Zum anderen befasst sich ein Beitrag mit den Ehrenamtlichen von Wikimedia, die sich der Mammutaufgabe widmen, KI-generierte Falschinformationen zu entdecken und die Web-Enzyklopädie davor möglichst zu schützen. Außerdem: Mind the Gender Gap – eine neue Studie zeigt die Unterrepräsentation von Frauen in der KI-Branche.
Viel Spaß beim Lesen wünschen
Elena und Teresa
P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
Plötzlich ersetzt: Wer zahlt die Rechnung?
Building an AI Superfund: Lessons from Climate Change Legislation, TechPolicy.Press, 10.10.2024
Es könnte eine Filmszene sein: Sie wachen eines Morgens auf und Ihr Job wurde über Nacht durch ein KI-Modell ersetzt. Wer kommt für den Schaden auf? In seinem Artikel schlägt Kevin Frazier vor, dass wir von Gesetzgebungs-Ansätzen zum Klimawandel lernen könnten, um uns auf Folgen der KI-Entwicklung vorzubereiten. Er bezieht sich dabei auf den „Vermont Climate Superfund Act“ (auf Deutsch: „Vermont Klimawandel-Superfonds-Gesetz“). Die Idee ist, dass Unternehmen, die von der Entwicklung von KI-Modellen profitieren, auch für deren negative Auswirkungen wie Cyberangriffe oder Arbeitsplatzverluste aufkommen sollten. Er schlägt auch vor, dass große Technologieunternehmen wie Google, Meta und OpenAI in einen „KI-Superfonds“ einzahlen. Dieser würde dann für Schäden aufkommen, die nachweislich durch ihre Technologien verursacht wurden. Frazier räumt ein, dass die praktische Umsetzung einer solchen Regelung schwierig wäre. Ähnlich wie beim „Vermont Climate Change Act“ müsste genau festgelegt werden, wer welchen Anteil an den Schäden trägt. Aber das Signal wäre klar: Verantwortungsvolles Handeln würde gefördert und diejenigen Unternehmen belohnt, die in soziale Sicherheitsnetze investieren.
Project Analyzing Human Language Usage Shuts Down Because ‘Generative AI Has Polluted the Data’, 404Media, 19.9.2024
Ist das Ihnen auch schon aufgefallen? Manche Texte klingen so, als hätte ein Roboter und nicht ein Mensch sie geschrieben. Das ist kein Zufall und hat weitreichendere Folgen, als wir vielleicht dachten. Der Artikel von Jason Koebler auf 404 Media berichtet über das Open-Source-Projekt Wordfreq – so heißt das Programm, das die sich ständig ändernde Beliebtheit verschiedener Wörter im menschlichen Sprachgebrauch in mehr als 40 verschiedenen Sprachen untersuchen wollte. Dazu analysierte es Millionen von Quellen – von Wikipedia über Untertitel bis hin zu sozialen Medien. Doch nun wird Wordfreq eingestellt. Die Flut an KI-generierten Inhalten im Netz habe es unmöglich gemacht, echte menschliche Sprache zu untersuchen, erklärt Robyn Speer, Initiatorin des Projekts. Sie sagt: „generative KI hat die Daten verschmutzt“ und ist davon überzeugt, dass niemand mehr verlässliche Informationen über den menschlichen Sprachgebrauch ab 2021 haben wird. KI-generierte Texte verfälschen nämlich die Häufigkeit bestimmter Wörter und Ausdrücke (Erlesenes berichtete) und beeinflussen damit nicht nur unsere Onlineerfahrung, sondern auch die Forschung. Die ausführliche Erklärung von Robyn Speer finden Sie hier.
Wikipedia und die Jagd nach der Fehlerflut
Wikipedia Declares War on AI Slop, Futurism, 10.10.2024
Viele von uns nutzen Wikipedia, um schnell Antworten zu finden. Doch die Qualität von Wikipedia-Artikeln ist in Gefahr. Schuld daran sind KI-generierte Falschinformationen. Wikipedia-Redakteur:innen haben eine neue Initiative gestartet, um das zu ändern. Die Gruppe „WikiProject AI Cleanup“ will falsche Inhalte auf Wikipedia finden und löschen. Dabei geht es nicht darum, den Einsatz von KI zu verbieten, sondern nur gegen falsche Beiträge vorzugehen. Manchmal sind KI-generierte Texte leicht zu erkennen, oft aber sind die Fehler in überzeugend klingenden Artikeln versteckt. Ein Beispiel aus ihrem Fundus: Ein Artikel, der eine osmanische Festung aus dem 13. Jahrhundert detailliert beschrieb – die es aber nie gab. Nur Expert:innen konnten diesen Eintrag als falsch identifizieren. Die Wikipedia-Community zieht daraus Konsequenzen und stuft nun Nachrichtenseiten, die nachweislich häufig KI-generierte Falschmeldungen veröffentlichen, als weniger vertrauenswürdig ein. Dennoch bleibt es eine Mammutaufgabe für ehrenamtliche Redakteur:innen, die Flut an KI-generierten Inhalten zu minimieren. Denn diese können nahezu kostenlos und in großen Mengen (re)produziert werden. Klar ist, das Engagement der Community reicht nicht aus; der verantwortungsvolle Umgang mit KI braucht Regeln.
AI’s Missing Link: The Gender Gap in the Talent Pool, Interface, 10.10.2024
Haben Sie sich schon mal die Frage gestellt, wer ein KI-System eigentlich entwickelt hat? Die Antwort lautet mit großer Wahrscheinlichkeit: ein Mann. Eine neue Studie zeigt, dass Frauen in der KI-Branche immer noch stark unterrepräsentiert sind. Weltweit sind nur 22 Prozent der KI-Fachkräfte weiblich. Bei den Führungspositionen sieht es noch düsterer aus: Hier liegt der Frauenanteil bei 14 Prozent. Selbst Länder wie Deutschland oder Schweden, die bei der allgemeinen Gleichstellung führend sind, hinken im Bereich KI hinterher. In Deutschland z. B. sind nur etwa 20 Prozent der KI-Expert:innen Frauen. Die Zahlen aus den Tech-Metropolen sprechen eine ähnliche Sprache. So liegt der Frauenanteil im europäischen KI-Zentrum Mailand bei knapp 31 Prozent. Ausnahmen sind Länder wie Lettland und Finnland, die einen Frauenanteil von über 40 Prozent aufweisen. Diese Unterschiede zeigen, dass ein ausgewogeneres Geschlechterverhältnis möglich ist. Warum sollte Sie das interessieren? KI-Systeme prägen zunehmend unseren Alltag – vom Bewerbungsverfahren bis zur medizinischen Diagnose. Wenn diese Systeme überwiegend von Männern entwickelt werden, besteht die Gefahr, dass die Perspektiven und Bedürfnisse der Hälfte der Bevölkerung nicht ausreichend berücksichtigt werden.
In California, no AI bill is safe, Blood in the Machine, 1.10.2024
Der Einsatz von KI-Systemen nimmt täglich zu – doch die Kontrolle darüber bleibt fest in der Hand der Tech-Konzerne. Das zeigt sich derzeit in Kalifornien, wo Gouverneur Gavin Newsom sein Veto gegen ein KI-Sicherheitsgesetz, das Big Tech stärker in die Pflicht nehmen sollte, eingelegt hat. Der Gesetzesentwurf hatte zum Ziel, Unternehmen wie OpenAI oder Google zu Sicherheitstests zu verpflichten und für schwere Schäden durch ihre KI-Systeme haftbar zu machen. Etwas überraschend war jedoch, dass dieselben Tech-CEOs, die öffentlich nach KI-Regulierung rufen, gegen das Gesetz waren. Sogar die demokratische Politikerin Nancy Pelosi war dagegen. Das offenbart, wie groß der Einfluss des Silicon Valleys ist, einem der wichtigsten Zentren der Tech-Industrie. Dieser Einfluss zeigt sich auch anderswo: Erst kürzlich verhinderte beispielsweise Google ein Gesetz zum Schutz des Lokaljournalismus. Erfolge gibt es nur bei weniger kritischen Themen – etwa beim Schutz von Schauspieler:innen vor Deepfakes oder bei der Bekämpfung von Wahlfälschungen. Ob ein Wandel durch starken Druck von unten oder einen Richtungswechsel in der Politik möglich ist, bleibt abzuwarten.
Follow-Empfehlung: Zamina Ahmad
Zamina Ahmad verbindet als KI-Expertin technologische Innovation mit sozialer Verantwortung.
Verlesenes: Wenn es einen Nobelpreis für Satire gäbe, hätten wir einen Preisträger
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben