Digitales

Anhörung zum Thema „Chatkontrolle“

Zeit: Mittwoch, 1. März 2023, 14 bis 16 Uhr
Ort: Berlin, Marie-Elisabeth-Lüders-Haus, Sitzungssaal 3.101

Der Digitalausschuss hat sich am Mittwoch, 1. März 2023, in einer Anhörung mit den Plänen der Europäischen Kommission zur sogenannten „Chatkontrolle“ im Kampf gegen die Online-Verbreitung von Missbrauchsdarstellungen von Kindern und Jugendlichen befasst. Für die Pläne, die unter anderem den Einsatz von Technologien wie Client-Side-Scanning (CSS) vorsehen, hatte es von vielen Seiten Kritik gehagelt, die sich auch in den Einschätzungen der Sachverständigen zeigte: Die Mehrheit der geladenen Experten betonte, das Vorhaben gehe an entscheidenden Stellen zu weit.

Teil der CSA-Verordnung ist, dass private Kommunikation und Cloudspeicher auf Anordnung durchsucht werden können. Unter den Verordnungsentwurf fallen drei Arten von sexualisiertem Missbrauch, etwa Missbrauchsdarstellungen, bislang unbekanntes Material, aber auch das sogenannte Grooming, also die gezielte Kontaktaufnahmen zu Minderjährigen in Missbrauchsabsicht.

„Nie dagewesene Überwachungsinfrastruktur“

Der Verordnungsentwurf verfehle grundsätzlich das Ziel, Kindesmissbrauchsdarstellungen entgegenzutreten, betonte die Informatikerin und Sprecherin des Chaos Computer Clubs, Elina Eickstädt. Dem Entwurf liege eine „krasse Überschätzung von Fähigkeiten von Technologien“, zugrunde, insbesondere was das Erkennen von unbekanntem Material angehe.

Er stelle zudem eine noch „nie dagewesenen Überwachungsinfrastruktur“ dar, sagte Eickstädt. Sie verdeutlichte, dass bei einer Fehlerrate von einem Prozent und einer Milliarde Nachrichten am Tag zehn Milliarden Falschmeldungen entstehen könnten. Durch den Entwurf werde zudem eine Ausweispflicht im Internet nötig. Weiter gab sie zu bedenken, dass Netzsperren zu „Zensurtools sondergleichen“ werden könnten.

Expertin spricht von „digitalem Angriff“

Von einem „digitalen Angriff“ sprach auch die Sachverständige Ella Jakubowska von der European Digital Rights-Vereinigung. Sie betonte, dass der Verordnungsvorschlag nicht in Einklang mit den Menschenrechten stehe. Er unterminiere den Datenschutz von privater Kommunikation in Mails, Chats oder von Fotos in der persönlichen Cloud. Sie plädiere dafür, dass der Vorschlag zurückgezogen werde.

Der Forderung schloss sich auch Teresa Widlok an: Der Verein für liberale Netzpolitik – LOAD lehne die anlasslose und umfängliche Überwachung von Kommunikation und gespeicherten Inhalten grundsätzlich ab. Der Verordnungsentwurf solle zu einer Aufdeckung neuer Opfer sexualisierter Gewalt führen, eine echte Verhältnismäßigkeitsprüfung sei jedoch nicht möglich. Widlok gab weiter zu bedenken, dass das Recht auf Verschlüsselung mit dem Verordnung in weite Ferne rücken werde.

Lob für Stärkung der europäischen Zusammenarbeit

Der Leiter der Zentral- und Ansprechstelle Cybercrime Nordrhein-Westfalen, Oberstaatsanwalt Markus Hartmann, verwies darauf, dass ein so umfassender Eingriff wie mit der Verordnung geplant nicht erforderlich sei. Vielmehr sollten die derzeit unzureichend aufgestellten Strafverfolgungsbehörden gestärkt werden, sodass auf Basis der Erkenntnisse serverseitiger Scans und den Ermittlungsverfahren selbst ausreichend Informationen generiert werden können.

Begrüßt werde hingegen die Stärkung der europäischen Zusammenarbeit und auch die Meldepflicht für Anbieter. Rechtlich fraglich sei, ob und in welcher Intensität eigene Detektionsmechanismen angewandt werden können und sollen, sagte Hartmann. Er plädiere dafür, dass sich diese auf das Wiedererkennen über Hash-basierte Verfahren begrenzten.

„Der Schaden für die Privatsphäre aller Menschen wäre immens“

Dem Kinderschutz sei nicht gedient wenn die Verordnung später vor dem Europäischen Gerichtshof scheitere, sagte Felix Reda von der Gesellschaft für Freiheitsrechte. „Der Schaden für die Privatsphäre aller Menschen wäre immens“, sagte er. Die anlasslose Überwachung verletze den Wesensgehalt des Rechts auf Privatsphäre und könne damit durch keine Grundrechtsabwägung gerechtfertigt werden. So könnten auch Bilder von einvernehmlichen Sexting auf den Tischen von EU-Beamten und Strafverfolgungsbehörden landen.

Im Hinblick auf die Netzsperren gab der Sachverständige zu bedenken, dass dies technisch nicht für einzelne Unterseiten einer Webseite möglich sei.

Fehlerraten bei Erkennung unbekannter visueller Inhalte

Auch Prof. Dr. Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie äußerte Bedenken: Die drei Bereiche der geforderten Erkennung seien im Vorschlag gleichgestellt – es gebe allerdings massive Unterschiede bei der Komplexität und den zu erwartenden Fehlerraten. Auch der Reifegrad der Technologien sei nicht vergleichbar: Während das Wiedererkennen visueller Inhalte bereits Standard sei, könne das Erkennen von Grooming noch als Forschungsgegenstand angesehen werden.

Die Fehlerraten führten zudem dazu, dass viele Millionen Inhalte händisch geprüft werden müssten. Bei der Erkennung unbekannter visueller Inhalte könnten häufiger Fehler auftreten als beim Wiedererkennen bekannter Inhalte. So könne die Erkennung scheitern, wenn es für neue Ausprägungen keine Beispiele in den Trainingsdaten gebe, erklärte Steinebach.

Sachverständiger begrüßt öffentliche Debatte

Dass die Verordnung bei aller Kritik auch gute Seiten habe, betonte Joachim Türk vom Kinderschutzbund Bundesverband – er sei dankbar, dass eine öffentliche Debatte angestoßen werde. Auch unterstütze er die Einrichtung einer europäischen Behörde.

Fatal sei es hingegen, wenn das Dunkelfeld der Taten im Bereich sexualisierter Gewalt gegen Kinder im Vertrauen auf Scans einer Künstlichen Intelligenz nicht weiter bearbeitet würde, da dies mühsam und teuer sei. Das Löschen sei wichtig, um den Dauerkreislauf des Materials zu durchbrechen, betonte Türk. Sowohl das Recht auf körperliche Unversehrtheit und auf vertrauliche Kommunikation seien Kinderrechte. „Diese Überzeugung macht es uns unmöglich, die anlasslose Chatkontrolle als Option zu akzeptieren“, resümierte auch dieser Sachverständige. (lbr/01.03.2023)