Ende Februar hatten wir für reframe[Tech] die Gelegenheit, an der RightsCon 2025 in Taipei, Taiwan, teilzunehmen – einer Konferenz, die Menschenrechtsaktivist:innen, Forschende und Entscheidungsträger:innen zusammenbringt, um die Schnittstelle zwischen Menschenrechten und Technologie zu diskutieren. Im Folgenden möchten wir vier zentrale Erkenntnisse und Beobachtungen von unserer Zeit auf der RightsCon teilen:
1. Das Public-AI-Panel: Eine Debatte über Alternativen
Ein großes Highlight unserer Teilnahme war die Organisation des Panels „Public AI als Infrastruktur – Demokratisierung des KI-Tech-Stacks“, moderiert von Felix. Die Panelist:innen Isabel Hou (Generalsekretärin der Taiwan AI Academy Foundation), Antonio Zappulla (CEO der Thomson Reuters Foundation), Alek Tarkowski (Director of Strategy der Open Future Foundation) und Teresa diskutierten die zentralen Abhängigkeiten innerhalb des KI-Stacks, insbesondere in den Bereichen Daten, Rechenleistung und Modelle.

Felix Sieker, Antonio Zappulla, Isabel Hou, Alek Tarkowski, Teresa Staiger (left to right)
Aktuell kontrolliert nur eine Handvoll Unternehmen wie Meta, OpenAI oder Google die modernsten KI-Modelle und die zugrunde liegende Infrastruktur. Diese Machtkonzentration birgt die Gefahr, dass die Technologie vor allem zu einem Instrument der Ausgrenzung verkommt und Ungleichheiten verstärkt werden. Das Konzept von „Public AI“ hingegen bietet eine alternative Vision: öffentliche, gemeinwohlorientierte KI-Modelle und -Infrastrukturen, die zugänglich, transparent sowie öffentlich überprüfbar und rechenschaftspflichtig sind.
Daten spielen hierbei eine paradoxe Rolle: Öffentliche Trainingsdatensätze werden oft in nicht öffentlichen Kontexten, also von privaten Unternehmen für proprietäre Modelle genutzt, wodurch sich Machtasymmetrien zwischen großen Techkonzernen und der Gesellschaft weiter verfestigen. Teresa betonte daher die Notwendigkeit verantwortungsvoller öffentlicher Daten-Gemeingüter (Data Commons): also sorgfältig kuratierte, qualitativ hochwertige und diverse Datensätze, die die gesellschaftliche Vielfalt widerspiegeln.
Neben den Daten ist auch der Zugang zu Rechenkapazitäten eine große Hürde, wie Alek hervorhob, da die Dominanz weniger Techkonzerne die technologische Souveränität vieler beeinträchtigt. Isabel brachte wertvolle Einblicke in Taiwans proaktiven Ansatz zur Ausbildung von Fachkräften im KI-Bereich ein – eine entscheidende Voraussetzung für den Aufbau öffentlicher Lösungen und Strukturen. Antonio erläuterte, wie seine Stiftung dazu beiträgt, die Wissenslücke in Redaktionen zu schließen, damit Journalist:innen KI-Technologien und ihre Auswirkungen kritisch hinterfragen und den dominanten Konzernnarrativen entgegentreten können.
2. Die materiellen und ökologischen Kosten von KI
Während Künstliche Intelligenz (KI) oft als etwas Abstraktes wahrgenommen wird, wurde in einer Session, moderiert von Jasmin Walda (Heinrich-Böll-Stiftung), die konkrete ökologische und soziale Kostenbilanz der Technologie thematisiert. Der Ressourcenverbrauch von KI geht weit über die bloße Rechenleistung hinaus und umfasst Rohstoffabbau, Wasser- und Energieverbrauch sowie die Entsorgung von Elektroschrott. Indigene Bevölkerungsgruppen und Menschen im Globalen Süden werden davon besonders belastet, da sie oft in Regionen wohnen, die besonders reich an Rohstoffen sind, die für die Technologieproduktion benötigt werden und gleichzeitig weniger Möglichkeiten haben, politisch Einfluss zu nehmen.
Die Idee eines „digitalen Produktpasses“ wurde von Diego Marin (European Environmental Bureau) als mögliche Lösung diskutiert, um mehr Transparenz über den ökologischen Fußabdruck und den Ressourcenverbrauch von KI-Modellen zu schaffen.
3. Kollektives Handeln und Arbeitskämpfe
Ein wiederkehrendes Thema war die Macht kollektiven Handelns – sei es durch Gewerkschaften von Tech-Arbeiter:innen, Whistleblower:innen, indigenen Bewegungen oder investigativem Journalismus, der Machtstrukturen offenlegt.
Die Informatikerin und Mitbegründerin des Distributed AI Research Institute (DAIR), Timnit Gebru, hob hervor, welche zentrale Rolle Arbeitsbewegungen dabei spielen, Veränderungen in Techunternehmen zu bewirken: Beschäftigte in Techkonzernen haben bereits KI-Ethik-Richtlinien beeinflusst und ihr potenzieller Einfluss ist nicht zu unterschätzen.
Dabei bleibt Transparenz eine Grundvoraussetzung für eine informierte, kritische Auseinandersetzung mit KI, sowohl in der Politik als auch innerhalb der Unternehmen, die diese Systeme entwickeln. Politische Maßnahmen können hierbei ein weiterer wichtiger Hebel sein: Ein gutes Beispiel dafür ist der „Silenced No More Act“ in Kalifornien. Dieses Gesetz schützt Arbeitnehmer:innen, die über Diskriminierung und Belästigung sprechen, selbst wenn sie eine Geheimhaltungsvereinbarung (Non-Disclosure Agreement, NDA) unterzeichnet haben, was eine gängige Praxis in der Tech-Industrie ist. Das Beispiel zeigt, dass regulatorischer Druck als Gegengewicht zur ungehemmten Macht von Konzernen wirken und gleichzeitig der Arbeitskampf unterstützt werden kann.
4. Fokus auf Aktivismus und die Finanzierungskrise
Ein zentrales Highlight der Konferenz war der starke Fokus auf Aktivismus. Die RightsCon 2025 bot eine Plattform für Stimmen, die in den Mainstream-Debatten über KI oft übergangen werden. Besonders die verstärkte Repräsentation von Expert:innen aus dem Globalen Süden (auch globale Mehrheit genannt) war ein wichtiger Schritt, um Perspektiven zu stärken, die in den europäisch-amerikanischen KI- und Politikdebatten häufig ignoriert werden.
Allerdings fiel die Gesamtbilanz hinsichtlich des Zusammenhangs zwischen Menschenrechten und Technologie ernüchternd aus. Zahlreiche Diskussionen thematisierten anhaltende Menschenrechtsverletzungen im Zusammenhang mit KI-Technologien: von der Überwachung der uighurischen Bevölkerung (dank Haiyuer Kuerban) über den Einsatz von Gesichtserkennungssystemen im Westjordanland bis hin zu Facebooks Rolle bei den Genoziden in Tigray und Myanmar (dank Htaike Htaike Aung). Zudem wurde der zunehmende Einfluss rechtsgerichteter Tech-Governance besonders in den USA als besorgniserregend wahrgenommen.
Eine weitere alarmierende Erkenntnis von RightsCon 2025 ist die massive Finanzierungskrise des dritten Sektors, also der Zivilgesellschaft. Die Finanzierungslücke beträgt eine Milliarde US-Dollar und entspricht rund einem Drittel der gesamten Mittel. Viele Organisationen, die sich für das Gemeinwohl engagieren, insbesondere an der Schnittstelle von Technologie und Menschenrechten, stehen dadurch vor existenziellen Herausforderungen. Diese Krise verdeutlicht abermals die Dringlichkeit nachhaltiger Finanzierungsmodelle, um sowohl zivilgesellschaftliche Organisationen im Kampf für digitale Rechte zu unterstützen als auch öffentliche KI-Initiativen zu stärken.
Ausblick
Unsere Teilnahme an der RightsCon 2025, die beeindruckende Arbeit vieler Aktivist:innen und zivilgesellschaftlicher Organisationen, die unglaubliche Bandbreite an Session und nicht zuletzt die Gespräche, die wir führen konnten, hat uns in unserer Arbeit bestärkt, dass wir digitale öffentliche Infrastrukturen und KI-Systeme brauchen, die transparent, rechenschaftspflichtig und dem Gemeinwohl verpflichtet sind – als Gegengewicht zur wachsenden Macht der großen Techkonzerne. Unsere kommenden Studien zu Public AI Stack und verantwortungsvolleren Basismodellen werden sich eingehender mit diesen Fragen befassen und konkrete Empfehlungen für politische Entscheidungsträger:innen, Forschende und zivilgesellschaftliche Akteure erarbeiten.
Wer auf dem Laufenden bleiben möchte, kann sich gerne bei Felix (felix.sieker@bertelsmann-stiftung.de ) oder Teresa (teresa.staiger@bertelsmann-stiftung.de) melden.
Dieser Text ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben