Die Verhandlungen zur KI-Regulierung befinden sich seit gestern im letzten Schritt: den allesentscheidenden Trilogverhandlungen. Der Beitrag stellt dar, welche Positionen umstritten sind und warum es entscheidend ist, genau jetzt die Umsetzung der KI-Regulierung vorzubereiten.

Gestern wurde ein weiterer Meilenstein auf dem mühsamen Weg des Ringens um den Artificial Intelligence Act (AI Act) erreicht – nach Monaten der zum Teil politisch ideologischen Diskussionen und zahlreichen Verzögerungen in den verantwortlichen Komitees des Europäischen Parlaments, wurde endlich die Position im Europäischen Parlament verabschiedet. Damit haben alle Beteiligten der berühmten und berüchtigten Triloge (der Rat der Europäischen Union, das Europäische Parlament und die Europäische Kommission) eine Position entwickelt. Wenn alles nach Plan läuft, sollte  bis zum Jahresende eine gemeinsame Position im Trilog verhandelt worden sein, sodass der AI Act im Laufe des ersten Halbjahres 2024 in Kraft treten kann. Allzu viel Zeit bleibt nicht mehr – die Europawahl 2024 rückt immer näher.

Streit um KI-Definition, Risikoeinstufung und generative Basismodelle

Kernstück des 120-seitigen Regulierungsvorschlags der Europäischen Kommission ist der risikobasierte Ansatz, der verhindern soll, dass KI-Systeme negative Auswirkungen auf die Sicherheit, Gesundheit und Grundrechte von Menschen haben. Sprich: Je risikoreicher ein KI-System ist, desto mehr Pflichten formuliert der AI Act gegenüber Anbieter:innen und Nutzer:innen. Schon sehr früh zeigten sich die kontroversen Kernpunkte der Diskussionen: die Definition von Künstlicher Intelligenz (KI), welche Systeme als Hochrisikoanwendungen eingestuft und welche gänzlich verboten werden sollten, und in den letzten Monaten auch die Frage der generativen Basismodellen.

Rat der Europäischen Union legt Fokus auf Wettbewerbsfähigkeit

Der Rat der Europäischen Union, die Stimme aller EU-Mitgliedsstaaten, sprach sich in seiner Position und in seinen Änderungsvorschlägen für eine engere Definition von KI aus, womit weniger Systeme von der Regulierung betroffen wären. Außerdem vertritt er die Position, dass weniger Systeme als Hochrisikoanwendungen kategorisiert oder verboten werden sollten als im Ursprungsvorschlag der Kommission. So sei die Innovationskraft und die Wettbewerbsfähigkeit auf dem Europäischen Markt zu halten.  Die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden sollen ermöglicht werden, wenn sie zu Strafverfolgungszwecken streng notwendig ist. Die zivilgesellschaftliche Watchdog-Organisation AlgorithmWatch wies in ihren Analysen darauf hin, dass die Position des Rates nicht ausreichend gegen algorithmische Diskriminierung und für den Schutz der Grundrechte tut, und zeigte auch, dass die Bundesregierung von ihren Versprechen im Koalitionsvertrag abgerückt ist. Digitalpolitische Organisationen kritisierten auch, dass der Einsatz von KI vor allem im migrationspolitischen Kontext zur Überwachung, Kriminalisierung und struktureller Diskriminierung von marginalisierten Meschen auf der Flucht beitragen kann.

Europäisches Parlament konkretisiert Bedingungen für Hochrisikoanwendungen

Im Europäischen Parlament einigte man sich jetzt zuletzt auf die OECD Definition zu KI. Die Liste der  Anwendungen, die unter dem AI Act verboten werden sollen, wurde erweitert: So sollen auch KI-Systeme für biometrische Kategorisierungen, prädiktive Polizeiarbeit und das Auslesen von Gesichtsbildern zum Aufbau von Datenbanken unter die Verbote fallen. Auch im Kontext der höchstumstritten biometrischen Echtzeit-Identifizierungssysteme konnte das Parlament in ihrer Position eine Mehrheit für ein vollständiges Verbot gewinnen. Dies sorgte bei konservativen Fraktionen für Unmut, die bei dieser  Frage der Position des Rates der Europäischen Union näherstehen. Die Liste der hochriskanten KI-Anwendungen (im berühmten Annex III) wurde erweitert und etwas präzisiert. Bisher sah der AI Act vor, dass alle Anwendungen, die in Annex III gelistet werden, automatisch als hochriskant gelten. Hier hat das Parlament eine weitere Ebene erdacht: Einige Anwendungen sollen demnach erst als hochriskant eingestuft werden, wenn ein erhebliches Risiko für die Gesundheit, Sicherheit oder Grundrechte von Menschen besteht.

Generative KI-Modelle als „Überraschungsgast“ der Verhandlungen

Die intensive Debatte um generative KI-Modelle, wie es das BasismodellBasismodell Ein großes, auf umfangreichen Datensätzen trainiertes KI-Modell, das als Grundlage für verschiedene spezifische Anwendungen dient. Foundation Models/Basismodelle können für eine Vielzahl von Aufgaben in verschiedenen Anwendungsgebieten feinabgestimmt werden. hinter ChatGPT ist, ist für die politischen Entscheider:innen mitten in den Verhandlungen dazugekommen. Ihre Auswirkungen waren im Ursprungstext noch gar nicht mitgedacht. Durch die rasanten Entwicklungen dieser Basismodelle in den letzten Monaten gibt es jetzt vom Europäischen Parlament den Vorschlag, Verpflichtungen für Anbieter:innen von generativen Basismodellen im AI Act aufzunehmen, die einen soliden Schutz der Grundrechte, der Gesundheit und der Sicherheit gewährleisten sowie die Auswirkungen auf Umwelt, Demokratie und Rechtsstaatlichkeit in den Blick nehmen. Die Anbieter:innen müssten ebenso Risikoanalysen durchführen, die Anforderungen an Design, Information und Umwelt erfüllen und sich in der EU-Datenbank registrieren lassen. Zusätzlich sollen weitere Transparenzanforderungen gelten: So soll bei diesen Anwendungen offengelegt werden, dass die Inhalte von einer generativen KI generiert wurden. Es soll zudem erkenntlich gemacht werden, dass diese  Modelle so gestaltet werden, dass sie keine illegalen Inhalte generieren. Außerdem soll garantiert werden, dass urheberrechtlich geschützte, für das Training der Systeme genutzte Daten, nicht veröffentlicht werden können.

Die Zeit, sich mit der Regulierungsumsetzung zu beschäftigen, ist jetzt!

Nach den Trilogen und darauffolgenden Schlussabstimmungen würde der AI Act in Kraft treten. Die Verordnung  soll 24 Monate nach Inkrafttreten vollständig gelten, während bestimmte Titel und Kapitel schon drei und zwölf Monate danach gelten werden. Die Implementierung des AI Acts hat somit eine klare Übergangszeit und Etappenziele.

Was sich noch nach einer langen Zeit anfühlt, ist im Prinzip gar nicht mehr so weit weg. Dass der AI Act  ̶  mit all seiner Unvollkommenheit und noch länger andauernden Streitpunkten  ̶  kommen wird, ist klar. Die Zeit bis dahin sollte dafür genutzt werden, konkrete Schritte zur gelingenden Umsetzung dieser Verordnung zu machen. Die Bundesregierung sollte entscheiden, welche Rahmenbedingungen auf nationaler Ebene geschaffen werden müssen, um eine effiziente Implementierung und Durchsetzung des AI Acts zu  gewährleisten. Andere Länder wie Spanien oder Frankreich sind da schon deutlich weiter und stellen sich bereits den Fragen der nationalen Aufsichtsbehörden oder den Regulatory Sandboxes die im Text vorgesehen sind. Dabei muss auch die Entwicklung der technischen Standards  ̶  die gerade parallel durch die Beauftragung der Europäischen Kommission von Standardisierungsorganisationen entwickelt werden  ̶  und anderen bereits bestehenden Regulierungen wie der Datenschutz-GrundverordnungDSGVO (Datenschutz-Grundverordnung) Ein EU-Gesetz zum Schutz personenbezogener Daten und der Privatsphäre von EU-Bürgern. (DSGVODSGVO (Datenschutz-Grundverordnung) Ein EU-Gesetz zum Schutz personenbezogener Daten und der Privatsphäre von EU-Bürgern.) mitgedacht werden. Denn je lascher und orientierungsloser die Vorbereitungen ausfallen, desto stärker verzögert sich der selbstgesetzte Anspruch auf europäischer Ebene, KI so einzusetzen, dass sie sicher und grundrechtewahrend für Menschen ist.


Dieser Text ist lizenziert unter einer  Creative Commons Namensnennung 4.0 International Lizenz.