Was haben Pandemien, politische Machtspiele und Inklusion mit Künstlicher Intelligenz (KI) zu tun? In dieser Ausgabe werfen wir einen Blick auf die neuesten Entwicklungen: von der Europäischen Union, die sich auf ambitionierte KI-Investitionen stürzt, während geopolitische Spannungen den Kurs gefährden, bis hin zu den jüngsten politischen Manövern der Trump-Administration, die KI-Entwicklungen in Richtung einer „ideologiefreien Wettbewerbsfähigkeit“ lenken und dabei grundlegende Werte wie Fairness und Antidiskriminierung verraten. Doch es gibt auch ermutigende Beispiele, wie etwa den Einsatz von KI zur Bekämpfung von Pandemien, um schneller auf Infektionskrankheiten reagieren zu können.
Und dann ist da noch die Frage nach der Inklusion: Was passiert, wenn Menschen mit Behinderungen nicht ausreichend in KI-Systeme einbezogen werden? Oder wenn KI-gestützte Suchmaschinen falsche Quellen und verzerrte Informationen verbreiten, die zwar „glaubwürdig“ klingen, aber dennoch unzutreffend sind? Erlesenes liefert Antworten – oder zumindest Perspektiven – auf diese Fragen.
Viel Spaß beim Lesen wünschen
Elena und Teresa
P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.
Under Trump, AI Scientists Are Told to Remove ‘Ideological Bias’ From Powerful Models, WIRED, 14.3.2025
Seit Wochen verfolgen wir, wie die Trump-Administration direkten Einfluss auf die Entwicklung von KI in den USA nimmt. Das „Nationale Institut für Standards und Technologie“ (National Institute of Standards and Technology, NIST) hat nun Wissenschaftler:innen des „Instituts für die Sicherheit künstlicher Intelligenz“ (Artificial Intelligence Safety Institute, AISI) angewiesen, Begriffe wie „KI-Sicherheit“, „verantwortungsbewusste KI“ und „KI-Fairness“ zu streichen. Stattdessen sollen die Forscher:innen der „Verringerung ideologischer Vorurteile“ Vorrang einräumen, um „menschliches Gedeihen und wirtschaftliche Wettbewerbsfähigkeit zu ermöglichen“. Das bedeutet, dass KI-gestützte Diskriminierungen aufgrund von Geschlecht, Alter, sozioökonomischer und ethnischer Herkunft weder erkannt noch beseitigt werden sollen. Auch die Entwicklung von Tools zur Authentifizierung von Inhalten und zur Kennzeichnung synthetischer Inhalte steht nicht mehr im Fokus, was die Bekämpfung von Desinformation beeinflussen wird. Hinter den Kulissen scheint Elon Musk als Leiter der umstrittenen „Abteilung für Regierungseffizienz“ (Department of Government Effectiveness, DOGE) und Eigentümer des KI-Unternehmens xAI eine treibende Kraft zu sein. Für alle, die auf fairere und sicherere KI-Systeme hoffen, sind diese Entwicklungen beunruhigend.
Building A Disability-Inclusive AI Ecosystem: A Cross-Disability, Cross-Systems Analysis Of Best Practices, Centre for Democracy & Technology, 11.3.2025
Stellen Sie sich vor, ein KI-System lehnt Ihre Bewerbung ab, weil Ihr Bewegungsmuster nicht der „Norm“ entspricht. Für viele Menschen mit Behinderungen sind solche Szenarien bereits Realität. Das „Zentrum für Demokratie und Technologie” (Center for Democracy & Technology, CDT) und die „Amerikanische Vereinigung von Menschen mit Behinderungen” (American Association of People with Disabilities, AAPD) haben einen Bericht veröffentlicht, der gute Beispiele aufzeigt, um sicherzustellen, dass Menschen mit Behinderungen die Vorteile von KI-Technologien nutzen können und gleichzeitig vor deren Risiken geschützt sind. Der Bericht identifiziert drei Hauptprobleme: Erstens basieren viele KI-Systeme auf Mustererkennung, die „typisches“ Verhalten bevorzugt. Menschen mit Behinderungen fallen oft aus diesen Mustern heraus – sei es durch Unterschiede im Gang, in der Stimme oder in den Augenbewegungen. Zweitens werden KI-Systeme mit Datensätzen trainiert, die Menschen mit Behinderungen selten angemessen repräsentieren. Und drittens sind viele Menschen mit Behinderungen mehrfach marginalisiert, etwa als behinderte Person of Color oder als behinderter LGBTQ+-Mensch, was ihre Vulnerabilität gegenüber diskriminierenden Technologien noch verstärkt. Das politische Klima in den USA ist leider derzeit gegen Vielfalt gerichtet. Umso wichtiger ist es, darauf hinzuweisen, dass nur durch die Einbeziehung von Menschen mit Behinderungen in die Entwicklung und den Einsatz von KI-Systemen das Potenzial dieser Technologien für alle – ohne diskriminierende Stolpersteine – ausgeschöpft werden kann.
Artificial intelligence for modelling infectious disease epidemics, Nature, 19.2.2025
Was wäre, wenn wir die nächste Pandemie vorhersagen könnten? KI könnte hierbei als Hilfsmittel im Kampf gegen Infektionskrankheiten dienen. Denn während herkömmliche epidemiologische Modelle oft mit begrenzten Daten und rechenintensiven Methoden zu kämpfen haben, können moderne Verfahren Berechnungen, die früher Wochen gedauert haben, auf wenige Stunden verkürzen und so schneller Informationen für politische Entscheidungen liefern. Graphische Neuronale Netze (Graph Neural Networks, GNN) können beispielsweise komplexe Zusammenhänge erfassen. Mithilfe dieser Technologie konnten bereits COVID-19-Fälle für Regionen vorhergesagt und die Impfstoffaufnahme aus Online-Netzwerken prognostiziert werden. KI-Technologie spielt auch bei der Integration verschiedener Datenquellen eine Rolle: Durch die Kombination u. a. von Mobilitätsdaten aus Smartphones, Abwasserüberwachung und tragbaren Sensoren könnten Ausbrüche früher erkannt und die Ausbreitung von Krankheiten überwacht werden. Trotz dieser Fortschritte gibt es noch große Herausforderungen: KI-Modelle haben z. B. Probleme mit der Erklärbarkeit, was ihre Fähigkeit, Einblicke in den Übertragungsprozess zu geben, einschränkt. Darüber hinaus werden leistungsfähige KI-Modelle derzeit von großen Technologieunternehmen zu enormen Kosten trainiert, was Fragen der Zugänglichkeit und Gerechtigkeit aufwirft.
Vertrauen ist gut, Kontrolle ist besser
AI Search Has A Citation Problem, Columbia Journalism Review, 6.3.2025
Haben Sie in einem KI-gestützten Chatbot schon einmal die Frage eingegeben, woher die Informationen stammen? Eine neue Studie zeigt, dass häufig falsche Quellen generiert oder Verweise ganz ausgelassen werden. Das Forschungszentrum „Tow Center for Digital Journalism” der Columbia University in New York hat acht KI-Suchmaschinen darauf hin getestet, ob Nachrichteninhalte korrekt zitiert werden. Bei mehr als 60 Prozent der Anfragen generierten die Chatbots falsche Antworten. Dafür wählten die Forscher:innen zufällig Textauszüge aus Nachrichtenartikeln aus und gaben den Befehl ein, die ursprüngliche Quelle zu identifizieren. Paradoxerweise schnitten die kostenpflichtigen Premium-Modelle in mancher Hinsicht schlechter ab als ihre kostenlosen Pendants. Zwar waren mehr Suchanfragen korrekt, aber gleichzeitig generierten sie bei fehlenden Informationen zwar überzeugend richtig klingende, aber falsche Antworten. Ein weiteres Problem waren erfundene Links. Überraschenderweise boten auch formale Partnerschaften zwischen KI-Unternehmen und Verlagen keine Garantie für korrektes Zitieren. Mark Howard, COO des „Time”-Magazins, bleibt trotz der ernüchternden Ergebnisse optimistisch: „Das Produkt ist heute schlechter, als es jemals sein wird“, sagt er und fügt hinzu, dass die Systeme angesichts der massiven Investitionen in ihre Entwicklung stetig besser werden. Bis dahin gilt: Kontrolle ist besser als Vertrauen – und klassische Suchmaschinen sollten das Mittel der Wahl bleiben.
Zwischen KI-Euphorie und geopolitischen Realitäten
The EU Commission’s first 100 days, EU AI Industrial Policy Monitor, 18.3.2025
Während Unternehmen und Regierungen weltweit auf KI-Investitionen setzen, steht Europa vor der Herausforderung, seinen eigenen Weg zu finden. Die ersten 100 Tage der neuen EU-Kommission zeigen, wie sich die Prioritäten verschoben haben. Trumps Rückkehr ins Weiße Haus, transatlantische Spannungen und Verteidigungsfragen haben die ursprünglichen KI-Pläne in den Hintergrund gedrängt. Statt in KI fließen nun 800 Milliarden Euro in die Verteidigung. Dennoch hat die EU-Kommission ambitionierte KI-Projekte gestartet: eine AI Factories Initiative mit 1,5 Milliarden Euro für sieben europäische Standorte und eine 200 Milliarden Euro schwere Investitionsinitiative für „KI-Champions“, um auch kleinere Unternehmen, die KI-Technologien entwickeln, zu fördern. Bei aller Investitionseuphorie bleiben kritische Fragen offen: Welchem öffentlichen Interesse dienen diese KI-Investitionen? Wie vermeidet Europa neue Abhängigkeiten von US-Technologiekonzernen? Und wie transparent werden Entscheidungen über die Vergabe öffentlicher Gelder getroffen? Die Autor:innen warnen davor, dass die von der EU-Kommission als „Vereinfachung“ bezeichnete Anpassung von Gesetzen leicht in Deregulierung münden kann. Auch eine strengere Migrationspolitik könnte Europas KI-Ambitionen untergraben, da die Verbreitung von KI den Arbeitsmarkt verändert und Arbeitskräfte verdrängen kann, während gleichzeitig qualifizierte Arbeitskräfte benötigt werden.
Follow-Empfehlung: Camila Lombana-Diaz
Camila Lombana-Diaz setzt sich für ethische KI ein.
Verlesenes: Nägel mit Kö…, äh KI machen
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben