Beginnen wollen wir diese erste Ausgabe nach der Sommerpause mit Beiträgen, die die aktuelle KI-Forschung kritisch hinterfragen: Zum einen ist da die Diskussion über die politische Ausrichtung von KI-Systemen zu nennen, denn Forscher:innen haben die gängige Annahme, dass Sprachmodelle wie ChatGPT politisch „links“ zu verorten seien, infrage gestellt. Zum anderen haben gleich drei Studien den Einfluss algorithmisch gesteuerter Echokammern auf politische Einstellungen etwas revidiert. Diese Erkenntnisse machen deutlich, dass eine kontinuierliche und differenzierte Analyse notwendig ist, um die tatsächlichen Auswirkungen von Künstlicher Intelligenz (KI) auf politische Diskurse und Meinungsbildung zu verstehen. Außerdem: Können kryptografische Verfahren eine Art „Beipackzettel“ für generative KI sein?
Viel Spaß beim Lesen wünschen
Teresa und Michael
P.S. Weiterhin sind Sie dazu eingeladen, an unserer Umfrage zu Erlesenes teilzunehmen: https://reframetech.limesurvey.net/363991?lang=de-easy. Herzlichen Dank für Ihr Feedback!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.
Wie US-Behörden KI-Bewerbungssoftware unter die Lupe nehmen?
EEOC Settles First-of-Its-Kind AI BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht. in Hiring Lawsuit (1), Bloomberg Law, 10.8.2023
Wenn es um KI und Diskriminierung geht, kennen viele das Paradebeispiel von Amazon, das einen algorithmischen Bewerbungsfilter einsetzte, der systematisch Frauen aussortierte. Wie solche Praktiken im Personalbereich erkannt werden können, lässt sich bei der iTutorGroup beobachten. Diese setzte ein einfaches algorithmisches System ein, das unentdeckt alle Bewerbungen von Frauen über 55 Jahre und Männer über 60 Jahre automatisch abwies. Zufällig entdeckt wurde diese Diskriminierung erst, als ein abgelehnter Bewerber seine Bewerbung erneut mit einem jüngeren Geburtsdatum einreichte und plötzlich zum Interview geladen wurde. Die für faire Arbeitspraktiken zuständige US-Behörde stieß daraufhin ein Gerichtsverfahren gegen die iTutorGroup an – möglicherweise das erste zu algorithmischen Bewerbungsfiltern. Die beiden Parteien haben sich nun auf einen Vergleich geeinigt, demzufolge iTutor neben einer Strafzahlung auch zu Abmilderungsmaßnahmen verpflichtet wurde, um weitere Diskriminierungen zu vermeiden. Das Beispiel zeigt, dass Behörden beginnen, sich solche KI-Systeme näher anzuschauen.
Like-minded sources on Facebook are prevalent but not polarizing, Nature, 27.07.2023
Filterblase, Echokammern – die Algorithmen, die Inhalte auf Sozialen Medien steuern, werden oft zuerst als Beispiele angeführt, wenn es um den Einfluss algorithmischer Systeme auf die politische Meinungsbildung geht. Eine Gruppe US-amerikanischer Forscher:innen hat diesen Sommer gleich drei Studien veröffentlicht, die diesen Einfluss genauer beleuchten. Sie haben auf Facebook und Instagram Gruppen von Nutzer:innen verschiedenen Experimenten ausgesetzt, die den Feed veränderten. Die Experimente wurden dabei vor der letzten US-Präsidentschaftswahl 2020 durchgeführt. In einem Experiment wurden den Teilnehmer:innen der Studien wesentlich weniger Inhalte von Quellen angezeigt, die ihrer eigenen politischen Ausrichtung entsprachen. Für die anderen beiden Untersuchungen sahen die Nutzer:innen nur noch einen chronologischen Feed oder wesentlich weniger Reposts. Die Ergebnisse sind durchaus überraschend: Während sich beispielsweise die Menge an angezeigten Falschmeldungen veränderte, gab es zumindest innerhalb des dreimonatigen Studienzeitraums kaum Veränderungen der politischen Einstellungen bei den Teilnehmer:innen der Studie.
ChatGPT ist links… oder doch nicht?
Does ChatGPT have a liberal bias? AI Snake Oil, 18.8.2023
Über den Sommer wurde eine Studie viel diskutiert, die ChatGPT auf eine mögliche politische Färbung untersuchte. Drei britische und brasilianische Forscher:innen kamen darin zu dem Schluss, dass die vom Chatbot gegebenen Antworten eher den Positionen der Demokraten in den USA; Lulas in Brasilien und der Labour Party im Vereinigten Königreich entsprachen. Andere Studien kamen zuvor zu ähnliche Ergebnisse Zwei Forscher der Universität Princeton setzen sich in diesem Blogbeitrag mit diesen Untersuchungen auseinander. Sie kritisieren etwa, dass die Studienergebnisse stark von den Formulierungen der Prompts – der Eingaben in den Chatbots – abhängen. Der erfasste politische Bias könne sich auch einfach über die Formulierung von Fragen einschleichen. Hingegen habe bei einem eigenen Test GPT4, also die neueste Version des Sprachmodells, in über 80 Prozent der Fälle eine Antwort verweigert, wenn sie eine politische Positionierung enthielten. Dies scheint auch generell die präferierte Lösung zu sein, die der ChatGPT-Betreiber OpenAI für das Problem verfolgt. Insgesamt stellen die Blogautor:innen fest, dass ChatGPT zwar eine politische Färbung haben könnte, diese aber eben nicht nur vom Modell abhängt, sondern auch stark davon, wie Nutzer:innen mit dem System interagieren und wie sie ihre Fragen stellen.
Der Beipackzettel für Generative KI
Cryptography may offer a solution to the massive AI-labeling problem, MIT Technology Review, 28.7.2023
Mit KI-Systemen, die immer überzeugendere Bilder und Texte generieren können, steigt die Herausforderung, maschinell erzeugte von menschengemachten Inhalten zu unterscheiden. Eine der bisherigen Lösungen ist es, KI-Systeme zu entwickeln, die KI-generierte Texte erkennen. Dieses Vorgehen ist genauso unzureichend, wie es klingt: Ein entsprechendes Werkzeug, ZeroGPT, bewertete etwa 96 Prozent der US-Verfassung als computergeneriert. Es braucht also andere Lösungen. Neben algorithmenbasierten Wasserzeichen (Erlesenes berichtete) scheinen kryptografische Verfahren vielversprechend zu sein: Digital- und Medienunternehmen entwickeln gerade ein neues Internetprotokoll mit dem Namen C2PA. Dieses verknüpft Informationen über ein vorliegendes Bild und seinen Ursprung mit den Pixeln des Bildes selbst. Der entstehende „Beipackzettel“ ist standardisiert und dank der verschlüsselten Verbindung mit der Datei selbst nur schwer fälschbar. Fotos sollen beispielsweise bereits zum Zeitpunkt der Aufnahme C2PA integrieren. Noch wird das Verfahren nur für Bild- und Videodateien verwendet – es zeigt aber, dass es kreative Möglichkeiten gibt, um Kennzeichnungen für KI-generierte Inhalte gesichert umzusetzen.
Getreidezucht mit KI optimieren
UQ researchers using artificial intelligence to breed plants resistant to climate change, pests, ABC Australia, 15.8.2023
Die Klimakrise stellt eine Herausforderung für die Landwirtschaft dar: Steigende Temperaturen oder veränderte Niederschläge können die Ernte gefährden. Wissenschaftler:innen züchten und kreuzen immer wieder Pflanzen, um deren Resistenz zu erhöhen. Doch nicht immer sind Eigenschaften von gekreuzten Varianten bereits vorher offensichtlich, was zeitraubende Experimente verursacht. KI-Systeme können dabei helfen, diesen Prozess zu beschleunigen. Forscher:innen in Australien nutzen dabei Werkzeuge zur Bild- und DNA-Analyse, um bestmögliche neue Kombinationen für die Züchtung zu ermitteln. Dabei kann das KI-System auch dazu genutzt werden, die Eigenschaften gekreuzter Varianten vorherzusagen. Damit können Millionen möglicher DNA-Kombinationen simuliert und die besten Möglichkeiten für die Züchtung ermittelt werden. Die neu gezüchteten Pflanzenarten verbrauchen zum Beispiel weniger Wasser und sind somit resilienter bei Dürren.
Empfehlung: Blog “AI Snake Oil”
Der Blog „AI Snake Oil“ der beiden Forscher Arvind Narayanan und Sayash Kapoor der Uni Stanford demystifiziert den Hype rund um KI und setzt sich kritisch mit der KI-Forschung auseinander.
Verlesenes: AI verfolgt uns überall!
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben