Im September fand zum zweiten Mal die Hamburger „re:publica“, als kleinere Version von Europas größter Digitalkonferenz, im Rahmen des „Reeperbahn-Festivals“ statt.  In diesem Jahr waren wir von reframe[Tech] dabei und haben uns Sessions zu KI, Nachhaltigkeit und Ungerechtigkeiten in der Techbranche angehört.

„Klein, aber oho“ – das beschreibt die „re:publica“ in Hamburg ganz gut. Von Talks zur digitalen Souveränität über Künstliche Intelligenz (KI) in der Kreativbranche bis hin zur digitalen Care-Arbeit deckte auch der kleinere Rahmen eine große Bandbreite der Themen der digitalen Gesellschaft ab.

Wenn die Erde spricht

In der Kommunikation über die Klimakrise werden bestimmte Menschengruppen schwer erreicht und dadurch weniger für die drängenden Gefahren sensibilisiert.
Die von drei Bundesministerien getragene Initiative „Civic Coding“ hat sich zur Aufgabe gemacht, KI sozial, nachhaltig und partizipativ zu gestalten, und fördert in diesem Rahmen das Projekt „Mother Earth AI“. Es ermöglicht, durch die Nutzung eines Sprachmodells, mit einer fiktiven Version unseres Ökosystems zu „telefonieren“. Falko Saalfeld und das Entwicklungsteam versprechen sich davon, durch die Personifizierung der Erde die Klimakrise emotionaler und damit nahbarer zu machen. So sollen Menschen mit wenigen Berührungspunkten erreicht werden können. Als Grundlage für die „Persönlichkeit“ des Modells wird die universelle Erklärung der Rechte von Mutter Erde verwendet. Das Team hinter „Mother Earth AI“ hat erkannt, dass besonders indigene Bevölkerungen das Leben mit der Natur in harmonischen Einklang bringen konnten, und haben das Modell mit ihren Sprichwörtern und anderem gesammelten Wissen trainiert. Interessierte können „Mother Earth AI“ auch einfach online testen.

KI beim Polizeieinsatz – ein kritischer Blick

Das Projekt IVBeo von dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung soll die polizeilichen Behörden mit der automatisierten Erkennung von Auseinandersetzungen zwischen Personen unterstützen. Das Projekt, das am Hansaplatz in Hamburg seit Mitte Juli erprobt wird, wird von der Politik und der Polizei als Erfolg verbucht – die Trefferquote läge bei 92 Prozent.
Warum diese Zahl eine stark übertriebene Verzerrung ist, erklärten Stefanie Stoppel und Christoph Hassler vom „Bündnis Hansaplatz“ in der Session „‚Atypisch‘ – Wie die Hamburger Polizei KI zur Verhaltensüberwachung einsetzt“. Das Bündnis spricht sich aktiv gegen den Einsatz von KI bei der Polizeiarbeit aus.

In ihrem kritischen Blick zeigten die Speaker:innen, dass im Testzeitraum von ungefähr drei Monaten das System 1140-mal Alarm schlug und auf einen Vorfall aufmerksam machte. Von den 1140 Vorfällen, bei denen das System Alarm schlug, waren allerdings nur elf Fälle polizeilich relevant, das heißt in nur weniger als 1 Prozent der Fälle wurden tatsächlich Beamt:innen benötigt. Erklärt haben die beiden Speaker:innen dies mit der technologischen Unreife des Systems. Es hat beispielsweise Schwierigkeiten damit, Umarmungen von Würgegriffen zu unterscheiden, was zu falschen Alarmen führen kann. In einem zusätzlichen polizeilich relevanten Fall während des Testzeitraumes hat das System den Vorfall nicht erkannt. Wie kann es also sein, dass das Projekt als Erfolg verkauft wird? Die Polizei nimmt anstatt der 1140 Fälle nur die zwölf polizeilich relevanten Vorfälle als Basis und berichtet, dass in elf Fällen dieser zwölf Vorfälle das System gewirkt hat und damit die Trefferquote bei 92 Prozent liegt.

Träumen Androiden von programmierenden Frauen?

KI und innovative Technologien haben das Potenzial, das gesellschaftliche Miteinander positiv zu beeinflussen, wie zum Beispiel durch die Unterstützung von Care-Arbeit, digitaler Psychotherapie oder hilfreichen Werkzeugen. Dass Technologie aber nicht immer nur Positives birgt und es neben den Positivbeispielen auch einige kritische Punkte gibt, besonders hinsichtlich der ungleichen bei unterschiedlichen Geschlechtern, erklärten Ramona Greiner und Matthias Böck, Datenexpert:innen bei Feld M, einem Beratungsunternehmen für Datenanalysen, und das, maßgeblich beteiligt waren. In ihrem Beitrag verdeutlichten sie die Konsequenzen beim Einsatz von Algorithmen bei ungleicher Datenerhebung zwischen den Geschlechtern.
So können Algorithmen zum Beispiel Vorurteile über Frauen bei der Berufswahl reproduzieren, wenn die zugrunde liegenden Datensätze Verzerrungen aufweisen. So hat ein Chatbot, den ein österreichisches Arbeitsamt seit Anfang Januar 2024 zur Hilfe beim Berufswunsch einsetzt, Frauen bevorzugt die Serviceindustrie empfohlen, während Männern Angebote zu Weiterbildungen und IT (tendenziell höher bezahlte Berufe) nahegelegt wurden. Das Projekt wurde nach Nachjustierung des Modells fortgeführt.
Die Speaker:innen sagten, dass solche Probleme durch die Herstellung von qualitativ hochwertigen, sauberen Datensätzen unter Kontrolle gebracht werden können. Das könne aber nur durch diverse Teams passieren.

Problematisch für Frauen sind außerdem Deepfakes; Schätzungen zufolge werden 98 Prozent aller Deepfakes im pornografischen Bereich erstellt. In den meisten Fällen zeigen Deepfakes dabei Frauen. Zusätzlich verschlimmernd ist, dass ihre Gesichter ohne ihr Einverständnis dazu genutzt werden. Diese Übergriffigkeiten haben zur Folge, dass digitale Gewalt an Frauen normalisiert wird.  Der Appell der Speaker:innen: Hier muss die Politik noch aktiver werden!

Wir möchten uns an dieser Stelle für die spannenden Sessions bei dem Team der „re:publica“ und den einzelnen Speaker:innen bedanken!


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.