In der dritten Ausgabe unserer Dialogreihe beleuchteten wir die Herausforderungen der nationalen KI-Aufsicht in Deutschland – ein Thema, das besonders im Hinblick auf die Frist bis August 2025 dringlich ist, da bis dahin gemäß der KI-Verordnung eine Aufsichtsstruktur etabliert werden muss.
Mit Andrea Sanders-Winter (Leiterin Abteilung Digitales, Bundesnetzagentur), Franziska Weindauer (Geschäftsführerin, TÜV AI Lab) und Miika Blinn (Referent Team Digitales & Medien, Verbraucherzentrale Bundesverband) diskutierten wir die aktuellen Entwicklungen und Perspektiven der KI-Aufsicht.
Obwohl der politische Prozess und die Abstimmungen zum Durchführungsgesetz momentan langsamer voranschreiten, zeichnete sich bereits im September 2024 ab, dass die Bundesnetzagentur (BNetzA) die Rolle der nationalen KI-Aufsichtsbehörde übernehmen wird. Dabei steht sie vor der Aufgabe, bestehende Marktüberwachungsstrukturen zu integrieren und neue Koordinierungsaufgaben zu übernehmen.
Wie kann die KI-Aufsicht effizient gestaltet werden? Inwieweit können private Akteure, wie TÜV oder DEKRA in die Aufsicht eingebunden werden? Und wie lassen sich Verbraucherrechte in diesem neuen Rahmen bestmöglich schützen? Diese und weitere Fragen standen im Mittelpunkt unserer Diskussion. Schnell wurde klar, dass Vertrauen die Grundlage für eine effektive KI-Aufsicht ist. Nur wenn Regulierungen transparent, sicher und verbraucherorientiert umgesetzt werden, kann Vertrauen in den Umgang mit KI geschaffen werden. Dieses Vertrauen muss durch klare Kommunikation, konsequente Aufsicht und die Einbindung relevanter Akteure gestärkt werden:
- Um Vertrauen in KI zu schaffen, muss eine transparente Aufsicht gewährleistet sein, die klare Regulierungen enthält, welche Sicherheit und Innovation fördern und gleichzeitig den Schutz der Verbraucherrechte sicherstellen. Durch proaktive Maßnahmen und enge Zusammenarbeit mit der Zivilgesellschaft kann das Vertrauen in den Umgang mit KI gestärkt werden.
- Die Hauptaufgabe der BNetzA in der nationalen KI-Aufsicht liegt neben den Vorgaben des AI Act vor allem in der Kommunikation: Nur durch enge Kooperation und klare Informationsweitergabe zwischen der Behörde, Prüforganisationen und Verbraucherschutzverbänden kann eine vertrauenswürdige und effektive Aufsicht gewährleistet werden. Als zentrale Koordinierungsstelle nimmt die BNetzA dabei eine Schlüsselrolle ein, um Klarheit zu schaffen und Vertrauen in die KI-Regulierung zu fördern.
- Die rasante Entwicklung von KI-Systemen erfordert flexible Prüfmethoden, um Risiken effektiv zu minimieren, ohne Innovationen zu bremsen oder Unternehmen unnötig zu belasten. Die schnelle Iteration von KI-Modellen und das Fehlen standardisierter Testmethoden machen eine kontinuierliche Anpassung der Prüfprozesse notwendig. In diesem Zusammenhang müssen politische Entscheidungsträger:innen sicherstellen, dass die Aufsichtsbehörde über die notwendigen personellen und finanziellen Ressourcen verfügt, um diese dynamische Herausforderung erfolgreich zu bewältigen.
Die Bundesnetzagentur als nationale KI-Aufsicht
Andrea Sanders-Winter sprach über die BNetzA als nationale KI-Aufsichtsbehörde. Die finale politische Entscheidung zur Umsetzung der KI-Verordnung steht allerdings noch aus und muss von der neuen Bundesregierung getroffen werden.
Die BNetzA soll als zentrale Koordinierungsstelle agieren, insbesondere für Bereiche ohne bestehende Marktüberwachungsmechanismen, wie etwa kritische Infrastrukturen oder Bildungseinrichtungen. Hierbei soll sie als „Single Point of Contact“ für Unternehmen und Verbraucher fungieren und einer Fragmentierung entgegenwirken. Ein weiteres Ziel ist die Schaffung eines Koordinierungs- und Kompetenzzentrums innerhalb der BNetzA, das bestehende Expertisen in sektoralen Marktüberwachungsbehörden bündeln und neue KI-Kompetenzen aufbauen soll.
Frau Sanders-Winter betonte, dass eine Balance zwischen Regulierung und Innovationsförderung gefunden werden müsse, um sowohl Sicherheitsstandards einzuhalten als auch eine dynamische Entwicklung der KI-Branche zu gewährleisten. Besonders wichtig sei die Kooperation mit Unternehmen, Verbänden, der Zivilgesellschaft und Forschungseinrichtungen, um zukünftige Entwicklungen frühzeitig zu berücksichtigen. Eine der ersten Aufgaben der BNetzA sei es ab August 2025, vor allem Aufklärung zu betreiben und Leitlinien für Unternehmen zu bieten, die derzeit mit Unsicherheiten bezüglich der genauen Anforderungen der KI-Verordnung konfrontiert sind. Darüber hinaus wurde die Bedeutung einer engen Zusammenarbeit zwischen nationalen und europäischen Behörden unterstrichen, um eine einheitliche und effektive Durchsetzung des AI Act zu gewährleisten.
Flexibilität und Effizienz bei der Prüfmethodenentwicklung
Franziska Weindauer stellte das TÜV AI Lab vor, das als Forschungs- und Entwicklungseinheit für KI-Zertifizierungsprozesse agiert. Sie erklärte, dass der TÜV AI Lab keine Zertifizierungen selbst durchführen wird, sondern Prüfmethoden für Hochrisiko-KI-Systeme entwickelt. Dabei liegt der Fokus auf der effizienten Gestaltung von Prüfprozessen und Lösungen für dynamische KI-Systeme, sodass diese nicht ständig neu zertifiziert werden müssen.
Ein zentrales Anliegen des TÜV AI Lab ist es, Vertrauen in KI aufzubauen. Dabei geht es vor allem darum, Risiken zu fokussieren und die Anforderungen der KI-Verordnung zu operationalisieren. Die fehlende Standardisierung von Testmethoden und schnelle Iterationszyklen von KI-Modellen stellen noch große Herausforderungen dar. Zudem wird die Einordnung von KI-Systemen je nach Anwendungsbereich zunehmend komplexer. Sie hob hervor, dass viele Normen noch unklar sind und in den kommenden Jahren konkretisiert werden müssen, um eine effektive Prüfung von KI-Systemen zu ermöglichen. Mit dem „ AI Risk Navigator“ bietet das TÜV AI Lab Unternehmen eine Möglichkeit, Regulierungspflichten besser zu verstehen.
Stärkung der Verbraucherrechte in der KI-Aufsicht
Miika Blinn von der Verbraucherzentrale Bundesverband erläuterte, dass die KI-Verordnung bisher wenig direkte Verbraucherrechte enthält und forderte eine verbraucherfreundliche Marktaufsicht. Besonders wichtig sei es, proaktiv über Rechte und Beschwerdemöglichkeiten zu informieren. Er plädierte für ein niedrigschwelliges Beschwerdeportal als zentrale Anlaufstelle, das den bürokratischen Aufwand für Verbraucher reduziert. Als Vorbild nannte er bestehende Mechanismen im Digitale-Dienste-Gesetz (DDG), die eine nutzerfreundliche Kommunikation mit der Aufsicht ermöglichen.
Ein weiterer wichtiger Punkt war die Einbindung der Zivilgesellschaft in die KI-Aufsicht. Die Verbraucherzentrale fordert die Einrichtung eines unabhängigen KI-Beirats, der Verbraucherinteressen in die Marktüberwachung einbringt. Der DSC-Beirat, der im Rahmen des DDG eingerichtet wurde, dient als Beispiel für eine solche effektive Einbindung.
Vierte Ausgabe der Dialogreihe „Vorbereitung und Umsetzung der KI-Verordnung in der Wirtschaft“
Wir danken allen Vortragenden und Teilnehmenden für die wertvollen Beiträge und Anregungen in der dritten Ausgabe unserer Dialogreihe.
Am 26. März 2025 von 14:00 bis 15:30 Uhr geht es weiter mit der vierten Ausgabe unserer Dialogreihe. Im Fokus steht das Thema: „Vorbereitung und Umsetzung der KI-Verordnung in der Wirtschaft“.
Bertelsmann Stiftung x Weizenbaum Institut – zur Kooperation
Die europäische KI-Verordnung ist seit dem 1. August 2024 in Kraft getreten. Seitdem liegt der Ball vor allem bei den Mitgliedstaaten: Wie packen wir in Deutschland die Umsetzung an? Für unsere Politiker:innen heißt es: Ärmel hochkrempeln und ran an den Text! Die KI-Verordnung ist nämlich keine leichte Lektüre, sondern ein langes Regelwerk mit komplexen Facetten. Den Überblick bei der nationalen Umsetzung zu behalten ist dabei essenziell. Um im Verordnungsdschungel einen Beitrag zu leisten und Wege in der Umsetzung aufzuzeigen, starten das Weizenbaum Institut und wir, das Projekt reframe[Tech] der Bertelsmann Stiftung, eine neue Dialogreihe. In dieser werden Expert:innen aus Politik, Verwaltung, Wissenschaft, Zivilgesellschaft und Wirtschaft in sieben Terminen zusammenkommen, um sich über die vielschichtigen Inhalte, die Auswirkungen, den Einzelheiten und Hintergründen zu den Umsetzungsanforderungen und -optionen der KI-Verordnung vertraut zu machen und um eine kohärente nationale Umsetzung zu gewährleisten.
Dieser Text ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben