In einer Welt, in der es gerade von Polykrisen und schlechten Nachrichten nur so wimmelt, wollen wir in dieser Erlesenes-Ausgabe den Fokus stärker auf positive Beispiele legen: allen voran auf Forschungsergebnisse aus der ganzen Welt, die zeigen, wie Methoden der Künstlichen Intelligenz (KI) bei Krebsdiagnosen und -therapien unterstützend eingesetzt werden können, etwa bei der Erkennung von Brustkrebs oder der Einschätzung von Immuntherapien. Wie gemeinwohlorientierte KI-Anwendungen konkret aussehen – beispielsweise beim Vorhersagen von Überschwemmungen in Indien oder der Identifizierung von Schäden in der Gesundheitsinfrastruktur während der Brände in Los Angeles –, zeigt ein weiterer Artikel.

Doch wir wären nicht Erlesenes, wenn wir nicht auch auf Missstände hinweisen würden: Ein weiterer Beitrag beleuchtet, wie Unternehmen KI-Systeme zur prädiktiven Reiseüberwachung entwickeln und einsetzen – und warum Menschenrechtsorganisationen Alarm schlagen. Denn schon heute entscheiden Algorithmen, wer als Risiko eingestuft wird – oft ohne Transparenz und mit weitreichenden Folgen.

Viel Spaß beim Lesen wünschen
Elena und Teresa

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.


KI gegen Krebs: Von Genen, GPT und Grenzen

AI is already changing the ways we fight cancer, Popular Science, 8.1.2025

Was vor Jahren noch unmöglich schien, rückt nun näher: KI könnte helfen, Krebs zu bekämpfen. Forschungsergebnisse aus der ganzen Welt zeigen, wie KI bei der Diagnoseerstellung unterstützen kann. An der Columbia University entwickelten Wissenschaftler:innen ein Modell namens GET, das Genaktivitäten auf Zellebene vorhersagen kann – ähnlich wie ChatGPT Sprache erkennt. An der Harvard Medical School entstand CHIEF, ein KI-Tool, das 19 Tumorarten erkennt. Auch in einer deutschen Studie mit 500.000 Patientinnen konnte durch den Einsatz von KI die Brustkrebserkennung um 17,6 Prozent gesteigert werden. Ein weiteres Modell namens LORIS wurde entwickelt, um Empfehlungen zu generieren, welche Patient:innen von Immuntherapien profitieren könnten. Trotzdem ersetzt KI keine Ärzt:innen. Es kann ein wirkungsvolles Werkzeug sein, das Mediziner:innen unterstützen kann – nicht mehr, aber auch nicht weniger. Denn große Sprachmodelle können auch gefährlich ungenau sein. In einer Studie diagnostizierte z. B. ChatGPT 83 Prozent der pädiatrischen Fälle falsch. Mit anderen Worten: Ja, KI kann Leben retten, aber nur, wenn wir sie verantwortungsvoll einsetzen.




Gefährliche Flughöhen

Inside the Black Box of Predictive Travel Surveillance, WIRED 13.1.2025

Schon heute entscheiden Algorithmen, ob Passagiere ein potenzielles Risiko darstellen – noch bevor sie einen Fuß in ein Flugzeug setzen. Dieser Artikel zeigt, wie internationale Unternehmen wie Travizory, SITA, Idemia und WCC komplexe KI-Systeme entwickeln, die Reisedaten von Passagieren umfassend analysieren und auswerten. Diese Systeme durchleuchten jeden Aspekt der Reise, vom Buchungsdatum über Zahlungsinformationen bis hin zur Reiseroute, und kategorisieren Reisende in Risikostufen. Problematische Auswirkungen zeigt exemplarisch der Fall des niederländischen Menschenrechtsaktivisten Frank van der Linde: Ohne sein Wissen wurde er jahrelang überwacht, seine Reisedaten wurden gesammelt und weitergegeben, obwohl er keine Straftat begangen hatte. In Zukunft sollen nicht nur Flughäfen, sondern auch Häfen, Bahn- und Busbahnhöfe mit solchen Systemen überwacht werden. Die Entwickler:innen dieser Systeme locken mit dem Versprechen, Terrorist:innen, Menschenhändler:innen sowie andere Kriminelle zu identifizieren. Doch die Algorithmen sind intransparent – eine sogenannte „Black Box“, deren Entscheidungskriterien nicht nachvollziehbar sind. Menschenrechtsorganisationen befürchten, dass solche Systeme die Reisefreiheit einschränken und besonders schutzbedürftige Gruppen wie Geflüchtete gefährden.


KI im Dienste des Gemeinwohls?

AI for Social Good, Stanford Social Innovation Review, Winter 2025

In einer Welt, in der Technologie immer tiefer in unseren Alltag und unsere sozialen Systeme eindringt, stellt eine neue Studie die zentrale Frage: Kann KI tatsächlich zum Gemeinwohl beitragen? Forscher:innen im Abdul Latif Jameel Poverty Action Lab (J-PAL) des Massachusetts Institute of Technology (MIT) zeigen in ihrer Forschungsarbeit potenzielle Einsatzgebiete auf. Konkret sehen sie KI als Chance in Bereichen wie Gesundheit, Landwirtschaft und Katastrophenschutz. In Indien wird beispielsweise ein KI-Modell entwickelt, das Überschwemmungen im Ganges-Tal vorhersagt und Smartphone-Warnungen an gefährdete Haushalte sendet. Besonders interessant ist auch die Einschätzung der Autor:innen, dass KI Verzerrungen in Systemen reduzieren könnte. Der Einsatz von KI könnte zum Beispiel faire Einstellungsverfahren ermöglichen, indem Bewerber:innen ausschließlich nach ihrem Potenzial bewertet werden. Die Forscher:innen warnen jedoch davor, dass KI kein Allheilmittel ist. Jeder Einsatz erfordert strenge Folgenabschätzungen. Der Schlüssel sind evidenzbasierte Ansätze: erst testen, dann skalieren. KI ist also durchaus eine Technologie, die dem Gemeinwohl dienen kann – wenn wir verantwortungsvoll mit ihr umgehen.


KI im Klassenzimmer

From chalkboards to chatbots: Transforming learning in Nigeria, one prompt at a time, Word Bank Blogs, 11.1.2025

Kann KI das Lernen in der Schule unterstützen? Ein Pilotprojekt in Nigeria liefert erste Antworten auf diese Frage. An der Edo Boys High School in Benin City verbesserten die Teilnehmer:innen ihre Leistungen in nur sechs Wochen um das Äquivalent von zwei Lernjahren. Die Schüler:innen wurden zufällig für die Teilnahme am Programm ausgewählt und schnitten in allen Bereichen deutlich besser ab als ihre Mitschüler:innen, die nicht teilnahmen. Diese Ergebnisse weisen darauf hin, dass generative KI-Systeme als digitale Lernbegleiter fungieren können, wenn sie mit Bedacht und mit Unterstützung von Lehrer:innen eingesetzt werden. Tatsächlich hat das Programm allen geholfen, nicht nur den leistungsstärksten Schüler:innen. Omorogbe Uyiosa, ein Schüler, der an dem Pilotprojekt teilgenommen hat, beschreibt das verwendete KI-Modell als „universellen Tutor“, der auf unterschiedliche Bedürfnisse reagieren kann. Die langfristigen Auswirkungen der Technologie sind jedoch noch unklar, einschließlich der Frage, wie sich die Interaktion zwischen Schüler:innen und KI entwickeln wird. Ein Aspekt, der von entscheidender Bedeutung für die Weiterentwicklung und den effektiven Einsatz ähnlicher Programme ist.


KI im Kampf gegen das Feuer

Which Health Facilities Have Been Impacted by L.A.-Area Fires? AI May Paint a Clearer Picture, Direct Relief, 14.1.2025

In den Wäldern um Los Angeles wüten immer noch Brände, die eine Landschaft der Verwüstung hinterlassen. Nach einer solchen Katastrophe ist es für die Verteilung humanitärer Hilfe besonders wichtig, die Auswirkungen auf das Gesundheitssystem zu verstehen, auf das die meisten Menschen – insbesondere in gefährdeten Communities in ihrer Nachbarschaft angewiesen sind. Während herkömmliche Methoden Tage oder Wochen benötigen, können moderne KI-Systeme großflächige Schäden innerhalb von Stunden mit hoher Genauigkeit identifizieren. Mit ihrer Hilfe konnten beispielsweise Bewertungen für 156.102 Gebäude erstellt werden. Zum Vergleich: Bis zum 13. Januar konnten die Bodenteams rund um Los Angeles 4.547 Gebäude bewerten. KI-Systeme halfen auch bei der Lokalisierung beschädigter Gesundheitsinfrastruktur. So wurden mindestens vier Gesundheitseinrichtungen wie Pinnacle Health und Alta Loma Hospice als wahrscheinlich zerstört identifiziert – wichtige Informationen für Rettungs- und Hilfsteams. Die Technologie kombiniert Satellitenbilder, geografische Datenbanken und maschinelles Lernen, um eine schnellere und umfassendere Bewertung zu ermöglichen.


Follow-Empfehlung: Zoi Roupakia

Zoi Roupakia ist Forschungsleiterin für Politik und KI am „Institute for Manufacturing“ der Universität Cambridge


Verlesenes: Werden KI-Agenten bald Dinge empfehlen, von denen wir nicht einmal wussten, dass wir sie brauchen (– die wir aber eigentlich gar nicht wollen!?)


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.