In dieser Ausgabe begrüßen wir ein neues Gesicht bei „Erlesenes“: Elena Kalogeropoulos ist Politik- und Organisationsberaterin und beschäftigt sich insbesondere mit den Themen KI und algorithmenvermittelte Diskriminierung, innovative Verwaltung und Organisationsentwicklung sowie intersektionale Diversität. Herzlich Willkommen, liebe Elena!
Nun zum Inhaltlichen: Biometrische Gesichtserkennung wird derzeit in 78 Ländern eingesetzt und hat verheerende Folgen nicht nur für die Privatsphäre und die Möglichkeit des öffentlichen Protests, sondern sie trifft besonders bereits diskriminierungsgefährdete Menschen. Der Artikel von „Rest of the World“ zeigt anhand von konkreten Beispielen sehr eindrücklich die Auswirkungen dieser Technologie. Gute Nachrichten gibt es aus den Naturwissenschaften, wo maschinelles LernenMachine Learning Ein Teilbereich der KI, bei dem Systeme aus Daten lernen und sich verbessern, ohne explizit programmiert zu werden. in der Arzneimittelentwicklung eingesetzt wird. Außerdem: Wieder mal ist ein vermeintliches „KI“-System aufgeflogen.
Viel Spaß beim Lesen wünschen
Elena und Teresa
P.S. Sie wollen Erlesenes alle zwei Wochen als Newsletter im Postfach haben? Hier geht es zum Abo: https://www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.
Die verborgenen Hände hinter KI
Von wegen Künstliche Intelligenz: Indische Arbeitskräfte steckten hinter Amazons smarten Supermarktkassen, netzpolitik.org, 3.4.2024
Für einen neuen Aufreger in der KI-Welt sorgt derzeit Amazon. Das US-Unternehmen beendet nun den Einsatz seines angeblich auf KI basierenden Bezahlsystems „Just Walk Out” in seinen Supermärkten. Laut einem Bericht des US-Mediums „The Information“ waren mehr als 1.000 Arbeitskräfte notwendig, um das System manuell zu unterstützen – von wegen „KI“ also. Die meisten dieser Arbeitskräfte stammen aus Ländern des Globalen Südens und arbeiten oft unter prekären Bedingungen für minimale Löhne (Erlesenes berichtete). Obwohl Amazon die Funktionsweise des Systems verteidigt, gibt dieser Vorfall Einblick in die komplexe Realität der globalen Arbeitsteilung hinter vermeintlich autonomer Technologie. Auch bei uns in Deutschland werden ähnliche Technologien getestet, die Bewegungen im Geschäft aufzeichnen und automatisch die Rechnung erstellen. Diese Experimente werfen ebenfalls Fragen nach Datenschutz und Überwachung auf und verdeutlichen die anhaltende Spannung zwischen technologischem Fortschritt und ethischen Bedenken.
The changing face of protest, Rest of World, 27.3.2024
Die Verwendung von Gesichtserkennungstechnologien hat in den letzten Jahren weltweit zugenommen. Laut diesem Artikel setzen derzeit Behörden in 78 Ländern Systeme zur Gesichtserkennung in der Öffentlichkeit ein. Diese Technologie ermöglicht es, Personen in der Öffentlichkeit zu identifizieren – oft mit schwerwiegenden Folgen für die Betroffenen. Die Geschichte von Yulia Zhivtsova, einer Englischlehrerin aus Moskau, veranschaulicht die Auswirkungen eindrücklich. Wegen ihrer Teilnahme an Antikriegsdemonstrationen wurde sie noch Monate später mithilfe von Gesichtserkennung identifiziert und verhaftet, um sie präventiv für einige Stunden aus dem Verkehr zu ziehen. Ihre Erfahrung zeigt, wie die Technologie dazu genutzt werden kann, Oppositionelle zu überwachen und einzuschüchtern. Der Einsatz dieser Technologie wird von der Öffentlichkeit zwar oft positiv bewertet, vor allem wenn es um Verbrechensbekämpfung geht. Doch ihre Verwendung bei Demonstrationen wirft ethische Fragen auf, da Gesichtserkennungstechnologie dazu beitragen kann, den Raum für politischen Dissens einzuschränken und bereits diskriminierungsgefährdete Personen weiter zu benachteiligen.
New statistical-modeling workflow may help advance drug discovery and synthetic chemistry, phys.org, 8.4.2024
Ein neuer automatisierter Arbeitsablauf, entwickelt von Wissenschaftler:innen des Lawrence Berkeley National Laboratory in Kalifornien, verspricht bahnbrechende Möglichkeiten für die chemische Forschung. Arzneimittelentwickler:innen nutzen derzeit maschinelles Lernen, um Hunderte chemische Verbindungen virtuell zu analysieren und neue Wirkstoffe zu identifizieren, die potenziell wirksam gegen bestimmte Krankheiten sind. Diese Screening-Methoden durchsuchen Datenbanken und gleichen sie mit wahrscheinlichen Wirkstoff–„Zielen“ ab. Wenn aber mit Molekülen experimentiert wird, die so neu sind, dass ihre chemischen Strukturen noch nicht in einer Datenbank zu finden sind, müssen Forscher:innen in der Regel Tage im Labor verbringen, um diese zu klären. Diese neue Technik könnte eine Revolution bedeuten, da somit chemische Verbindungen in Echtzeit analysiert werden können. Diese Entwicklung verspricht nicht nur enorme Zeitersparnis, sondern auch eine präzise Analyse von Daten. Da die Grundlage der Technik außerdem ein offener Code ist, könnte sie auch den Weg für eine breite Anwendung ebnen.
Daten-Desperados und synthetische Stolpersteine
OpenAI transcribed over a million hours of YouTube videos to train GPT-4, The Verge, 6.4.2024
Wie weit Big Tech geht, um sich seinen Wettbewerbsvorsprung zu sichern, zeigt dieser Artikel. Die begrenzte Verfügbarkeit hochwertiger KI-Trainingsdaten zwingt Unternehmen zu einer verzweifelten Suche nach neuen Quellen: Um ihre Modelle zu trainieren, greifen Unternehmen zu teilweise fragwürdigen Maßnahmen wie der Transkription von YouTube-Videos. OpenAI, das Unternehmen hinter „ChatGPT“, soll sogar über eine Million Stunden YouTube-Videos transkribiert haben. Eine andere Methode, den Datenhunger der Modelle zu stillen, sind synthetische Daten. Diese werden künstlich erzeugt und sollen den Mangel an echten Trainingsdaten ausgleichen. Obwohl synthetische Daten als Alternative dienen können, bergen auch sie Risiken wie Fehlinformationen und Verstärkung von BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht., da sie oft auf vorhandene Daten basieren und die Vielfalt und Komplexität der realen Welt nicht widerspiegeln. Während die Unternehmen weiter nach Datenquellen suchen, bleibt die rechtliche Situation im Hinblick auf das Urheberrecht von Trainingsdaten ungeklärt, obwohl eine Lösung dringend erforderlich ist.
Zwischen Optimismus und Skepsis: Afrikas Weg in die KI-Zukunft
AI: the African opportunity, African Business, 4.4.2024
Afrika steht vor Herausforderungen und großen Chancen im Umgang mit Künstlicher Intelligenz (KI) – so der Tenor dieses Artikels. In vielen Teilen des Kontinents sind Bedenken und Skepsis über die Potenziale von KI spürbar. Die Bedenken reichen von eingeschränktem Internetzugang und Datenschutzängsten bis hin zu mangelnder digitaler Bildung und sozialer (Un-)Gerechtigkeit. Besonders problematisch ist, dass KI-Modelle oft auf Daten aus dem Globalen Norden basieren und daher nicht immer die afrikanische Realität angemessen widerspiegeln. Dies führt beispielsweise dazu, dass die Inhaltsmoderation auf Social-Media-Plattformen aufgrund unzureichender Sprachkenntnisse der Systeme nicht sehr wirksam ist, sodass afrikanische Nutzer:innen stärker von schädlichen Inhalten betroffen sind. Nichtsdestotrotz gibt es Initiativen wie „AI Movement“ in Marokko, die die positiven Aspekte von KI betonen und die transformativen Potenziale vor allem in Bereichen wie der Landwirtschaft und dem Gesundheitswesen, besonders in abgelegenen ländlichen Gegenden, hervorheben. Die vielfältigen Hindernisse werden nicht ignoriert, trotzdem stehen positive Botschaften und die Notwendigkeit, KI-Modelle zu entwickeln, die die spezifischen Bedürfnisse und Realitäten Afrikas berücksichtigen, im Fokus einer zukünftigen Vision.
Follow-Empfehlung: Yonah Welker
Die Schwerpunkte von Yonah Welker liegen auf sozialen und menschenzentrierten Technologien, KI, Robotik und Lösungen unter anderem in den Bereichen Neurodiversität und Barrierefreiheit.
Verlesenes: Das Potenzial von KI: Zeit für Sorgen
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben