Wie stärken wir Vertrauen und Verantwortung in der KI-Governance? Beim 6. Athens Roundtable on AI and the Rule of Law diskutierten Expert:innen globale Standards und neue Ansätze für gemeinwohlorientierte Künstliche Intelligenz (KI). Die Botschaft: Es braucht Resilienz und messbare Verantwortung, um mit technologischen Entwicklungen Schritt zu halten.

Die Diskussionen rund um Künstliche Intelligenz (KI) und ihre Governance stehen weltweit im Fokus – jüngst auch beim 6. Athens Roundtable on AI and the Rule of Law, der am 9. Dezember stattfand. Die Veranstaltung, die unter der Schirmherrschaft der Staatspräsidentin der Hellenischen Republik, Katerina Sakellaropoulou, am Hauptsitz der OECD in Paris stattfand, brachte globale Vordenker:innen und Institutionen zusammen, um die drängende Frage zu adressieren: Wie schaffen wir Vertrauen und Rechenschaftspflicht in KI-Governance?

Von Compliance zu Resilienz

Eines der zentralen Themen war die Notwendigkeit, den Diskurs über Compliance und Risikominimierung  hinaus auszudehnen. In Zeiten rasanter technologischer Entwicklungen von dezentralisierten KI-Modellen bis hin zu autonomen KI-Agent:innen vernahm man Rufe nach einer „Kultur der Resilienz“. Der Aufbau eines belastbaren gemeinwohlorientierten „KI-Stacks“ – bestehend aus Infrastruktur, Governance-Mechanismen und technologischen Standards – wurde von öffentlichen und zivilgesellschaftlichen Teilnehmer:innen als Schlüssel hervorgehoben. In den Diskussionen wurde betont, dass globale Standards für das Risikomanagement unerlässlich sind, insbesondere im Hinblick auf die Evaluierung von KI-Risiken.

Fokus auf neue Governance-Modelle und öffentliche Infrastrukturen

Ein wiederkehrender Impuls war der Ruf nach neuen Governance-Modellen, die sowohl technologische Fortschritte als auch gesellschaftliche Werte berücksichtigen. Insbesondere die Entwicklung von dezentralisierten, kleinen KI-Modellen erfordert Ansätze, die über klassische Governance-Strukturen hinausgehen. Dabei wurde unter anderem auch die Notwendigkeit betont, eine „Public Interest“-Infrastruktur für KI zu schaffen, die im Einklang mit dem Gemeinwohl steht.

Die Diskussion ging auch auf die Idee ein, neue internationale und sektorübergreifende Institutionen zu schaffen, um diese komplexen Herausforderungen besser zu bewältigen und zumindest auf der Arbeitsebene einen Informationsfluss zu ermöglichen, der der schnellen technologischen Entwicklung gerecht wird. Interessant waren auch Gedankenspiele, welche Wege man von deklarativer Compliance hin zu messbarer Verantwortlichkeit beschreiten könnte. Der Vorschlag der Einführung eines „Proof of Trust“-Mechanismus stand im Raum, um die Einhaltung ethischer und regulatorischer Standards nachweisbarer zu machen.

Die Tage der Unschuld sind vorbei

Einer der anwesenden Experten für KI-Sicherheit formulierte es folgendermaßen: „Die Tage der Unschuld sind vorbei.“, und bezog sich unter anderem auf das neueste Vorgehen des letzten o1-Modells von OpenAI, das inzwischen bestimmte Restriktionen umgeht.

Die Diskussion um KI muss sich dringend auf belastbare Standards und eine Governance konzentrieren, die zukünftigen technologischen Risiken gewachsen ist. Besonders spannend wird es, beim multilateralen AI Action Summit am 10. Februar 2025 in Paris die Debatten zu diesem Thema und die Entwicklung konkreter Schritte hin zu einer resilienteren, menschenzentrierten KI-Governance weiterzuverfolgen.


Dieser Text ist lizenziert unter einer  Creative Commons Namensnennung 4.0 International Lizenz.