Wie algorithmische Entscheidungssysteme reguliert werden können
Die Mitglieder der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ haben sich am Montag, 10. Februar 2020, in ihrer Sitzung mit Feinheiten einer möglichen Regulierung algorithmischer Entscheidungssysteme (ADM-Systeme) befasst. Fünf Sachverständige trugen dazu in öffentlicher Sitzung unter Leitung von Kommissionsmitglied Ronja Kemmer (CDU/CSU) vor.
„Regulierung nur für kleinen Teil von ADM-Systemen notwendig“
Prof. Dr. Katharina Zweig, sachverständiges Mitglied der Kommission und Leiterin des Algorithm Accountability Lab der Technischen Universität Kaiserslautern, betonte in ihrem Vortrag, dass eine Regulierung nur für einen kleinen Teil von ADM-Systemen notwendig sei, nämlich solchen mit lernenden Komponenten, die über Menschen entscheiden. Zweig verwies dazu auf ein bereits in einer früheren Sitzung diskutiertes Kritikalitätsmodell, das die Regulierungsanforderungen anhand der Intensität des Eingriffs bestimmt.
Professor Roberto V. Zicari (Initiative Z-inspection) betonte in seinem Vortag die Bedeutung von Vertrauen im Einsatz von Systemen der Künstlichen Intelligenz. Zicari verwies wiederholt auf Empfehlungen der Datenethik-Kommission. Er empfahl unter anderem, dass der Staat keine proprietären KI-Systeme einsetzen sollte, die mit Berufung auf Geschäftsgeheimnisse Transparenz verhinderten.
Matthias Spielkamp (Algorithmwatch) fordert von der öffentlichen Verwaltung zudem, pro-aktiv über den Einsatz von ADM-Systemen zu informieren. Zudem sprach er sich für ein EU-weites ADM-Register aus.
„Diskriminierungen lassen sich besser erkennen“
Rebekka Weiß vom Branchenverband Bitkom forderte, in der Debatte nicht nur die Risiken, sondern auch die Chancen des Einsatzes von ADM-Systemen hervorzuheben. Durch ihren Einsatz ließen sich beispielsweise Diskriminierungen besser erkennen. Die Verbandsvertreterin betonte, dass die Selbstregulierung eine Chance biete. Eine Unterregulierung sei indes auch schädlich, da so nicht das erforderliche Vertrauen hergestellt werden könne.
Lina Ehrig vom Verbraucherzentrale Bundesverband betonte, Vertrauen sei kein Selbstläufer, aber wichtig, damit Verbraucher entsprechende Systeme annehmen. Ein Regulierung anhand des Schädigungspotenzials sah Ehrig als sinnvoll an. Sie forderte zudem, Standardisierung und Normung anzugehen. (scr/10.02.2020)
Liste der geladenen Sachverständigen
- Prof. Roberto V. Zicari, Initiative Z-inspection
- Rebekka Weiß, Bitkom
- Matthias Spielkamp, Algorithmwatch
- Lina Ehrig, Verbraucherzentrale Bundesverband