Breite Kritik an Plänen zur Chatkontrolle
Berlin: (hib/LBR) Der Digitalausschuss hat sich am Mittwochnachmittag in einer Anhörung mit den Plänen der Europäischen Kommission zur sogenannten „Chatkontrolle“ im Kampf gegen die Online-Verbreitung von Missbrauchsdarstellungen von Kindern und Jugendlichen befasst. Für die Pläne, die unter anderem den Einsatz von Technologien wie Client-Side-Scanning (CSS) vorsehen, hatte es von vielen Seiten Kritik gehagelt, die sich auch in den Einschätzungen der Sachverständigen zeigte: Die Mehrheit der geladenen Experten betonte, dass Vorhaben gehe an entscheidenden Stellen zu weit.
Teil der CSA-Verordnung ist, dass private Kommunikation und Cloudspeicher auf Anordnung durchsucht werden können. Unter den Verordnungsentwurf fallen drei Arten von sexualisiertem Missbrauch, etwa Missbrauchsdarstellungen, bislang unbekanntes Material, aber auch das sogenannte Grooming, also die gezielte Kontaktaufnahmen zu Minderjährigen in Missbrauchabsicht.
Der Verordnungsentwurf verfehle grundsätzlich das Ziel, Kindesmissbrauchsdarstellungen entgegenzutreten, betonte die Informatikerin und Sprecherin des Chaos Computer Clubs, Elina Eickstädt. Dem Entwurf liege eine „krasse Überschätzung von Fähigkeiten von Technologien“, zugrunde, insbesondere was das Erkennen von unbekanntem Material angehe. Er stelle zudem eine noch „nie dagewesenen Überwachungsinfrastruktur“ dar, sagte Eickstädt. Sie verdeutlichte, dass bei einer Fehlerrate von einem Prozent und einer Milliarde Nachrichten am Tag zehn Milliarden Falschmeldungen entstehen könnten. Durch den Entwurf werde zudem eine Ausweispflicht im Internet nötig. Weiter gab sie zu bedenken, dass Netzsperren zu „Zensurtools sondergleichen“ werden könnten.
Von einem „digitalen Angriff“ sprach auch die Sachverständige Ella Jakubowska von der European Digital Rights-Vereinigung. Sie betonte, dass der Verordnungsvorschlag nicht in Einklang mit den Menschenrechten stehe. Er unterminiere den Datenschutz von privater Kommunikation in Mails, Chats oder von Fotos in der persönlichen Cloud. Sie plädiere dafür, dass der Vorschlag zurückgezogen werde.
Der Forderung schloss sich auch Teresa Widlok an: Der Verein für liberale Netzpolitik - LOAD lehne die anlasslose und umfängliche Überwachung von Kommunikation und gespeicherten Inhalten grundsätzlich ab. Der Verordnungsentwurf solle zu einer Aufdeckung neuer Opfer sexualisierter Gewalt führen, eine echte Verhältnismäßigkeitsprüfung sei jedoch nicht möglich. Widlok gab weiter zu bedenken, dass das Recht auf Verschlüsselung mit dem Verordnung in weite Ferne rücken werde.
Der Leiter der Zentral- und Ansprechstelle Cybercrime Nordrhein-Westfalen, Oberstaatsanwalt Markus Hartmann, verwies darauf, dass ein so umfassender Eingriff wie mit der Verordnung geplant, nicht erforderlich sei. Vielmehr sollten die derzeit unzureichend aufgestellten Strafverfolgungsbehörden gestärkt werden, sodass auf Basis der Erkenntnisse serverseitiger Scans und den Ermittlungsverfahren selbst ausreichend Informationen generiert werden können. Begrüßt werde hingegen die Stärkung der europäischen Zusammenarbeit und auch die Meldepflicht für Anbieter. Rechtlich fraglich sei, ob und in welcher Intensität eigene Detektionsmechanismen angewandt werden können und sollen, sagte Hartmann. Er plädiere dafür, dass sich diese auf das Wiedererkennen über Hash-basierte Verfahren begrenzten.
Dem Kinderschutz sei nicht gedient wenn die Verordnung später vor dem Europäischen Gerichtshof scheitere, sagte Felix Reda von der Gesellschaft für Freiheitsrechte. „Der Schaden für die Privatsphäre aller Menschen wäre immens“, sagte er. Die anlasslose Überwachung verletze den Wesensgehalt des Rechts auf Privatsphäre und könne damit durch keine Grundrechtsabwägung gerechtfertigt werden. So könnten auch Bilder von einvernehmlichen Sexting auf den Tischen von EU-Beamten und Strafverfolgungsbehörden landen. Im Hinblick auf die Netzsperren gab der Sachverständige zu bedenken, dass dies technisch nicht für einzelne Unterseiten einer Webseite möglich sei.
Auch Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie äußerte Bedenken: Die drei Bereiche der geforderten Erkennung seien im Vorschlag gleichgestellt - es gebe allerdings massive Unterschiede bei der Komplexität und den zu erwartenden Fehlerraten. Auch der Reifegrad der Technologien sei nicht vergleichbar: Während das Wiedererkennen visueller Inhalte bereits Standard sei, könne das Erkennen von Grooming noch als Forschungsgegenstand angesehen werden. Die Fehlerraten führten zudem dazu, dass viele Millionen Inhalte händisch geprüft werden müssten. Bei der Erkennung unbekannter visueller Inhalte könnten häufiger Fehler auftreten als beim Wiedererkennen bekannter Inhalte. So könne die Erkennung scheitern, wenn es für neue Ausprägungen keine Beispiele in den Trainingsdaten gebe, erklärte Steinebach.
Dass die Verordnung bei aller Kritik auch gute Seiten habe, betonte Joachim Türk vom Kinderschutzbund Bundesverband - er sei dankbar, dass eine öffentliche Debatte angestoßen werde. Auch unterstütze er die Einrichtung einer europäischen Behörde. Fatal sei es hingegen, wenn das Dunkelfeld der Taten im Bereich sexualisierter Gewalt gegen Kinder im Vertrauen auf Scans einer Künstlichen Intelligenz nicht weiter bearbeitet würde, da dies mühsam und teuer sei. Das Löschen sei wichtig, um den Dauerkreislauf des Materials zu durchbrechen, betonte Türk. Das Recht auf körperliche Unversehrtheit und das Recht auf vertrauliche Kommunikation seien Kinderrechte. „Diese Überzeugung macht es uns unmöglich, die anlasslose Chatkontrolle als Option zu akzeptieren“, resümierte auch dieser Sachverständige.
Die Anhörung im Video und die schriftlichen Stellungnahmen der Sachverständigen auf bundestag.de: https://www.bundestag.de/dokumente/textarchiv/2023/kw09-pa-digitales-928540