Digitales

Generative Künstliche Intelligenz: Regulierung steht am Scheideweg

Es braucht eine angemessene Balance zwischen einer effektiven Regulierung und dem Fördern innovativer Geschäftsmodelle im Bereich generativer Künstlicher Intelligenz (KI). Dafür haben sich am Mittwoch, 24. Mai 2023, die Sachverständigen im Digitalausschuss ausgesprochen. Die Expertinnen und Experten bewerteten in der Anhörung die Potenziale und Risiken generativer KI für die Arbeitswelt und die Gesellschaft und betonten unisono, die Zeit dränge. Dies gelte im Hinblick auf Transparenzfragen, etwa danach, wie KI-basierte Texte gekennzeichnet werden können, aber auch hinsichtlich des europäischen Weges mit dem geplanten AI Act, über den das Europäische Parlament voraussichtlich Mitte Juni abstimmen will.

Unsicherheit bei Kunden und Wettbewerbern

Dafür, das Level an Regulierung so gering wie möglich zu halten und Geschwindigkeit aufzunehmen, sprach sich Jonas Andrulis vom Heidelberger Start-Up Aleph Alpha aus. Den aktuellen Zustand der Regulierung nannte er „bedenkenswert“. Der Entwurf enthalte viele unbestimmte Rechtsbegriffe und Folgenabschätzungen. Es gebe daher ein großes Maß an Unsicherheit bei Kunden und Wettbewerbern.

KI sei die Basistechnologie einer „neuen industriellen Revolution“ bei der aktuell wieder US-Tech-Giganten mit „intransparenten Angeboten“ den Ton angeben. Für Deutschland und Europa sei aber die inhaltliche und ökonomische Souveränität entscheidend. „Wir haben kein Microsoft und Google in Europa“, sagte Andrulis mit Blick auf mittlere und kleinere Unternehmen im Bereich KI.

Eine Art TÜV für KI-Anwendungen

Auch Rasmus Rothe (KI-Bundesverband) plädierte dafür, dem Mittelstand keine Steine in den Weg zu legen und pragmatischer zu werden, um kompetitiv zu bleiben. Er verwies darauf, dass generative KI viele Aufgaben besser ausführen werde als der Mensch und die Technologie zu Wirtschaftswachstum führen könne. Es müsse immer auf den konkreten Einsatzzweck einer KI geschaut werden und künftig mehr in Richtung eines TÜV für KI-Anwendungen gedacht werden, schlug er vor.

Philipp Hacker von der Viadrina-Universität in Frankfurt (Oder) betonte, dass generative KI die Art wie wir kommunizieren, leben und arbeiten massiv verändern werde. Mit Blick auf die Regulierung stehe man aktuell an einem Scheideweg, an dem die Weichen richtig gestellt werden müssten: Der letzte Entwurf aus dem Europäischen Parlament gehe in „eine richtige Richtung“, es gebe aber noch erhebliche Mängel, sagte Hacker. So sehe er unter anderem das Risiko, dass Anwendungen, die gesellschaftlich sinnvoll seien ausgebremst oder verhindert würden. Als Beispiel nannte er den von Google entwickelten KI-basierten Chatbot Bard, der in der EU nicht verfügbar sei.

Ein anderes Problem seien die Compliance-Kosten, die kleinere und mittlere Unternehmen nicht stemmen könnten. Hacker sprach sich für gewisse Mindeststandards aus, etwa bei den Trainingsdaten, und für anwendungsbezogene Regelungen für die Bereiche, in denen Hochrisiko-Anwendungen generativer KI angewandt werden, etwa im medizinischen Bereich.

Zusammenarbeit zwischen Entwicklern und Nutzern

Auch Natali Helberger von der University of Amsterdam lobte die Fortschritte beim Regelungsvorschlag für foundation models. Da diese Modelle für verschiedenste Zwecke verwendet werden, sei es entscheidend, Entwicklern Anreize zu geben, sich Gedanken über die Sicherheit der Systeme zu machen. Ansonsten würden Probleme etwa mit der Rechtmäßigkeit oder die Qualität der Trainingsdaten betreffend in einer unvorhersehbaren Anzahl nachgelagerter Verwendungen auftreten. Lernen könne man etwa von den Bestimmungen zur Bewertung systemischer Risiken für sehr große Online-Plattformen im Digital Services Act (DSA), sagte die Sachverständige.

Sie plädierte weiter dafür, die Forschung stärker zu nutzen, um die Risikoüberwachung zu stärken und verwies darauf, dass im Hinblick auf Verantwortung zwischen Entwicklern und Nutzern eine Zusammenarbeit erforderlich sei. Diesen Aspekt betonte auch Sandra Wachter vom Oxford Internet Institute. Derjenige, der die Design-Entscheidungen treffe, habe Einfluss auf das Risiko. Er könne etwa entscheiden, ob neue Texte einfließen, um einem Bias entgegenzuwirken, verdeutlichte sie.

Auswirkungen auf die Arbeitswelt

Die Auswirkungen der KI auf Arbeit und Beschäftigung erläuterte Christian Kellermann von der Hochschule für Technik und Wirtschaft Berlin. Er verwies darauf, dass die aktuelle Studienlage zwar gut sei, die Aussagekraft allerdings noch limitiert sei. Dies betreffe etwa belastbare Aussagen über den Grad der Substitution von Arbeit. Es sei anzunehmen, dass generative KI gut bei Übersetzungen, der Code-Generierung oder kreativem Schreiben funktioniere, sodass Übersetzer, Meinungsforscher oder PR-Fachleute dieser besonders ausgesetzt sein könnten – anders sähe das unter anderem bei Montage- oder Fabrikarbeitern aus, sagte Kellermann.

Catelijne Muller (ALLAI) betonte, es sei nicht der Fall, dass die europäischen Regulierungsbemühungen nicht Schritt halten könnten. Die großen Systeme könnten schon jetzt reguliert werden – das forderten die Unternehmen, wie etwa OpenAI, auch selbst, sagte Muller mit Blick auf Probleme wie Desinformation, Fake News oder das „Halluzinieren“ der Systeme, aber auch die Einstufung als Hochrisiko-Technologie.

Priorisierung, Geschwindigkeit, Zuständigkeiten

Die vielen Details dominierten derzeit, sagte hingegen Doris Weßels (Fachhochschule Kiel). Dabei rückten drei Grundprobleme in den Hintergrund: Erstens die fehlende Priorisierung, zweitens die unzureichende Geschwindigkeit und drittens, dass es verteilte Zuständigkeiten brauche.

Es gebe eine hohe Dynamik, doch Prozesse und Strukturen würden ausgebremst, sagte Weßels auch mit Blick auf die Notwendigkeit anderer Fördermöglichkeiten. Sie sprach sich für klare Eckpfeiler im AI Act und eine Kennzeichnungspflicht aus, betonte aber, dass es nicht zu einer Überregulierung kommen dürfe.

Spezialisierter Rechtsrahmen gefordert

Der Bundesbeauftragter für den Datenschutz und die Informationsfreiheit, Prof. Ulrich Kelber, nannte die Regelungen der Datenschutz-Grundverordnung (DSGVO) mit Blick auf den AI Act „eine gute Ausgangsbasis“ – es brauche hier aber einen anderen, spezialisierteren Rechtsrahmen.

Gerhard Schabhüser vom Bundesamt für Sicherheit in der Informationstechnik verwies darauf, dass insbesondere wenn mittels KI Entscheidungen getroffen werden noch Forschung nötig sei. (lbr/24.05.2023)