Digitales

Anhörung zum Thema „Nationale Spielräume bei der Umsetzung des europäischen Gesetzes über Künstliche Intelligenz“

Zeit: Mittwoch, 15. Mai 2024, 14.30 bis 16.30 Uhr
Ort: Berlin, Marie-Elisabeth-Lüders-Haus, Sitzungssaal 3.101

Die nationale Aufsicht bei Fragen Künstlicher Intelligenz ist aufgrund der sektoralen Zuständigkeiten und der föderalen Aufteilung komplex. Wer die KI-Governance in Deutschland übernehmen soll, ist offen, bei einer Anhörung im Digitalausschuss am Mittwoch, 15. Mai 2024, brachten einige Sachverständige die Bundesnetzagentur ins Gespräch. Neun Sachverständige äußerten sich zu den nationalen Spielräumen bei der Umsetzung des europäischen Gesetzes über Künstliche Intelligenz (AI Act).

Am 13. März 2024 hat das Europäische Parlament das Gesetz zur Regulierung Künstlicher Intelligenz angenommen. Die Verabschiedung durch den Rat erfolge voraussichtlich am kommenden Dienstag, berichtete die Ausschussvorsitzende Tabea Rößner (Bündnis 90/Die Grünen). In Kraft trete der AI Act 20 Tage nach Veröffentlichung im EU-Amtsblatt. Zur Überwachung und Umsetzung der Verordnung soll jeder Mitgliedstaat eine zentrale Aufsichtsbehörde benennen.

KI-Büro bei der Europäischen Kommission

Über das geplante KI-Büro bei der Europäischen Kommission berichtete Kilian Groß von der Generaldirektion CNECT (eingeladen auf Beschluss des Ausschusses). Die Abteilung solle rund 100 Mitarbeiter umfassen, der Aufbau habe hohe Priorität: „Bis Ende nächsten Jahres sollen alle neuen Mitarbeiter an Bord sein“, sagte Groß. Er betonte, dass es sich um eine produktbezogene Regulierung mit einem horizontalen Ansatz handele, die strikt risikobasiert sei. Nötig sei national ausreichend Fach- und Personalkompetenz.

Groß wies darauf hin, dass Eile geboten sei, da bereits nach sechs Monaten die ersten Verbote kämen. Obwohl die gesetzliche Frist für die Benennung der zuständigen Behörde ein Jahr nach Inkrafttreten betrage, empfehle die Kommission, bereits jetzt Vertreter in das AI-Board zu entsenden, um gut vorbereitet zu starten, berichtete Groß.

Zwei organisatorisch getrennte Behörden

Prof. Dr. David Roth-Isigkeit von der Deutschen Universität für Verwaltungswissenschaften Speyer (eingeladen auf Vorschlag der Vorsitzenden) verwies darauf, dass zwei organisatorisch getrennte Behörden, eine notifizierende Behörde und eine Marktüberwachungsbehörde, erforderlich seien. Diese könnten aber trotzdem „unter einem Dach“ organisiert werden, so Roth-Isigkeit. Die Verordnung setze hohe Hürden im Hinblick auf die Ausstattung und die Kompetenzen der Mitarbeiter, was für Schwierigkeiten im föderalen Kontext sorgen könnte, sagte er weiter.

Die Grundmaterie der Produktsicherheit lasse bei der Einrichtung einer KI-Behörde einen weiten Spielraum zu; möglich seien Bundesbehörden ohne Beteiligung der Länder, aber auch aufgabenteilige Kooperationsformen zwischen Bund und Ländern seien möglich, solange es nicht zu einer unzulässigen Aufgabenverflechtung komme. Persönlich sehe er kaum eine Alternative zu einer Zentralisierung auf Bundesebene.

Plädoyer für zentrale Anlaufstelle

Nicole Büttner-Thiel vom Bundesverband Deutsche Startups und CEO von Merantix Momentum (eingeladen Vorschlag der Fraktion der FDP) betonte, dass die Ausgestaltung der nationalen Umsetzung entscheidend für die langfristige Innovationsfähigkeit der KI-Standorte Deutschland und Europa sei. Aus Sicht des Verbands bestehe wenig Bedarf für zusätzliche Gesetzgebung; unterschiedliche Auslegungen und Interpretationen der KI-Verordnung sollten möglichst vermieden werden. Notwendig sei eine rechtssichere, praxistaugliche, bürokratiearme und innovationsfreundliche Umsetzung der KI-Verordnung, sagte die Expertin.

Bei der Aufsicht müsse eine sektorale Zersplitterung der Aufsichtskompetenzen vermieden werden, sagte Büttner-Thiel und plädierte für eine zentrale Anlaufstelle, die schnelle Verfahren gewährleiste. Notwendig sei zudem eine zügige Umsetzung, um Rechtsunsicherheiten zu vermeiden, etwa im Hinblick auf Konformitätspflichten bei Hochrisikoanwendungen.

Digitale-Dienste-Gesetz als Vorbild

Lina Ehrig vom Verbraucherzentrale Bundesverband (eingeladen auf Vorschlag der Fraktion Bündnis 90/Die Grünen) betonte, Vertrauensbildung könne nur gelingen, wenn die Aufsicht die Bedürfnisse der Verbraucher berücksichtige. Dazu gehöre, dass es ein niedrigschwelliges Beschwerdeverfahren gebe und die künftige zentrale Aufsichtsbehörde für das gesamte Verfahren zuständig sei. Das Digitale-Dienste-Gesetz (DDG) könne hier als Vorbild dienen, um „Behörden-Ping-Pong“ zu vermeiden, sagte Ehrig.

Ebenfalls wie beim DDG könne ein unabhängiger KI-Beirat eingerichtet werden, der die Aufsichtsbehörden beraten und Empfehlungen veröffentlichen könne. Auf Nachfrage sagte Ehrig, es sei angesichts der zahlreichen neuen digitalpolitischen Aufgaben für die Bundesnetzagentur folgerichtig, diese ernsthaft für die Aufsicht zu bedenken.

„Gesichtserkennung muss flächendeckend verboten bleiben“

Ehrig und Kilian Vieth-Ditlmann (AlgorithmWatch, eingeladen auf Vorschlag der Gruppe Die Linke) sprachen sich klar für Verbote des Einsatzes biometrischer Fernidentifizierungssysteme an öffentlich zugänglichen Orten wie etwa Tankstellen oder Einkaufszentren auch für private Akteure aus. Das Verbot könne etwa im Zuge eines Durchführungsgesetzes konkretisiert werden, sagte Vieth-Ditlmann. „Gesichtserkennung muss flächendeckend verboten bleiben, sodass öffentliche Räume frei und sicher bleiben“, sagte er.

Der Sachverständige plädierte dafür, ein nationales KI-Transparenzregister für die öffentliche Hand aufzubauen, das die Informationen der EU-Datenbank über Hochrisiko-KI-Systeme umfassend ergänze und verpflichtende, aussagekräftige Angaben bereitstelle.

Eigenes Budget und langfristige Finanzierung

Lajla Fetic, Senior AI Governance Expert (Vorschlag der Fraktion der SPD) betonte, die Behörde müsse innerhalb von zwölf Monaten benannt werden. Sie brauche ein eigenes Budget und eine langfristige Finanzierung, sagte Fetic weiter.

Kurzfristig müssten bestehende Behörden um Kompetenzen erweitert werden, etwa solche, die dem soziotechnischen Charakter von KI-Systemen gerecht werden und über Wissen im Bereich des Grundrechtschutzes verfügten, so Fetic. Langfristig könne eine Bündelung bestehender Aufsichtsbehörden für den Digitalbereich ratsam sein, sagte sie.

Kritik am AI Act

Prof. Dr. Patrick Glauner von der Technische Hochschule Deggendorf (eingeladen auf Vorschlag der Fraktion der CDU/CSU) zeigte sich grundsätzlich skeptisch, ob es den AI Act benötige. Durch die breite und unkonkrete Definition von KI in Verbindung mit der nur vagen Abgrenzung von Hochrisiko-Anwendungen bestehe die Sorge vor Bürokratiebelastungen und Innovationshemmnissen, sagte Glauner. Für eine „innovationsfreundliche, kostenarme und praxisnahe“ Umsetzung brauche es eine zeitnahe Festlegung der Aufsicht, passende Standardisierungen und Checklisten. Er sprach sich mit Blick auf die Fehler bei der Umsetzung der Datenschutzgrundverordnung (DSGVO) gegen eine Aufsicht durch Daten- und Verbraucherschützer aus.

Glauner verwies zudem auf die Gefahr einer Vielzahl zivilrechtlicher Klagen, für die Behörden und die Justiz eigene KI-Kompetenzen aufbauen müssten. Ein permanentes Monitoring des AI Acts sei essentiell, sagte er weiter.

Bundesbehörde und Task Force

Auch Dr. Robert Kilian, CEO und Geschäftsführer von CertifAI und im Vorstand des KI-Bundesverbands (eingeladen auf Vorschlag der Fraktion der CDU/CSU), hielt es für sinnvoll, eine existierende Bundesbehörde zu benennen, auf bestehenden Kompetenzen aufzubauen und mit einer Task Force zu flankieren, die die föderalen Strukturen berücksichtige.

Sektorale Behörden sollten zuständig bleiben, wenn dies in der Verordnung angelegt sei, sagte Kilian weiter. Bei der Auswahl der Aufsichtsbehörde solle ausschlaggebend sein, wo Bereitschaft bestehe, sich auf neue Themen einzulassen, sagte er. Mit Blick auf das Personal forderte Kilian eine erhöhte Durchlässigkeit zwischen Wirtschaft, Wissenschaft und Aufsicht – dies sei gerade bei der sich schnell entwickelnden KI als Aufsichtsgegenstand von besonderer Bedeutung, so Kilian.

Betriebliche Nutzung von KI-Anwendungen

Auf die fehlende Rechtssicherheit für den KI-Einsatz im Arbeitskontext und die späte oder fehlende Einbeziehung von Beschäftigten verwies Oliver Suchy vom Deutschen Gewerkschaftsbund (eingeladen auf Vorschlag der Fraktion der SPD). Er plädierte für eine Konkretisierung der Öffnungsklausel, um die betriebliche Nutzung von KI-Anwendungen durch verbindliche Regeln zu erleichtern. Notwendig sei eine obligatorische KI-Folgenabschätzung vor Einführung von KI-Anwendungen und unabhängig der Hochrisiko-Thematik, sagte Suchy weiter.

Zudem müssten die Mitbestimmungsmöglichkeiten durch eine Reform des Betriebsverfassungsgesetzes erweitert werden. Ziel müsse es sein, dass „offen und gemeinsam mit den Beschäftigten über betriebliche Ziele der Nutzung von KI“ gesprochen werde. (lbr/15.05.2024)