Mit einer neuen Verordnung will die EU-Kommission die Verbreitung von Kinderpornografie im Internet eindämmen. Datenschützer haben erhebliche Bedenken. Und hinter den Kulissen spielen auch wirtschaftliche Interessen eine Rolle.
In einem Büro des Polizeipräsidiums Bielefeld sitzt Michael Giezek an seinem Schreibtisch. Der Kriminalhauptkommissar blickt kurz vom Bildschirm auf. „Die Bilder geben schon ein ziemlich heftiges Geschehen wieder“, sagt er nach kurzem Zögern. Giezek, etwa Anfang 50, ermittelt gegen Verbreiter von Kinderpornografie. Die Frage nach dem Krassesten, was er bisher gesehen hat, mag er zuerst nicht beantworten. Dann nennt er ein aktuelles Ermittlungsverfahren, das auch in der Lokalpresse Schlagzeilen gemacht hat: Vater und Mutter haben gemeinsam ihre kleinen Zwillingstöchter missbraucht und die Bilder davon ins Netz gestellt. Über Details will der Polizist nicht sprechen.
Am Landeskriminalamt Nordrhein-Westfalen in Düsseldorf leitet Sven Schneider die zentrale Auswertungs- und Sammelstelle zur Bekämpfung von Kindesmissbrauchs-Abbildungen. Auch er berichtet von „horrenden Datenmengen, die für die Ermittler sehr belastend sind“.
Schneider outet sich als „Fan“ der geplanten EU-Verordnung zur Bekämpfung von Kindesmissbrauchs-Darstellungen im Internet.
Mit KI gegen Kinderpornografie
Nach der geplanten „Verordnung zur Festlegung von Vorschriften zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“ sollen Diensteanbieter wie Facebooks Mutterkonzern Meta ein „Risikomanagement“ gegen die Verbreitung von Kinderpornografie einführen. Mit Künstlicher Intelligenz sollen sie Inhalte, die Nutzer hochladen, auf Darstellungen von Kindesmissbrauch scannen. Treffer müssen sie dann löschen und anzeigen. Die EU will ein Zentrum einrichten, an das Kinderpornografie im Netz gemeldet werden soll. Das Zentrum leitet die Meldungen dann an die nationalen Strafverfolger weiter.
Schneider sieht darin ein „mehrstufiges Verfahren, das Falschmeldungen aussortiert, bevor die Polizei bei Unschuldigen vor der Tür steht.“
Der Datenschutz-Verein Digitalcourage befürchtet dagegen ein „Einfallstor für die Total-Überwachung im Internet“. Die Diensteanbieter wie Meta (Facebook, Instagram, Whatsapp) würden die Daten schon auf den Rechnern der Nutzer auslesen, bevor diese hochgeladen und von den jeweiligen Programmen verschlüsselt würden. So entstünden zusätzliche Sicherheitslücken auf den Geräten, die auch Kriminellen den Zugriff auf private Kommunikation erleichtern.
Digitalcourage-Experte Konstantin Macher sieht Geschäftsgeheimnisse in Gefahr, ebenso die Kommunikation der Anwälte mit ihren Mandanten oder zwischen Medienschaffenden und ihren Informanten. Schnell würden außerdem Strafverfolgungsbehörden dann diese Technik auch für die Ermittlungen wegen anderer Delikte nutzen. Die Privatsphäre der Nutzer würde immer weiter durchlöchert. Auch andere Fachleute befürchten hier ein Einfallstor für kriminelle Hacker. So warnt IT-Sicherheitsexperte Matthew Daniel Green von der John-Hopkins-Universität in den USA, dass Kriminelle Gesichtserkennungs- und andere Schad-Software auf Handys platzieren könnten, bevor die zu versendende Nachricht verschlüsselt wird. Auch bestehe die Gefahr, dass die für die Ermittlung gegen Kinderpornografie eingesetzte Software später für andere Zwecke genutzt werden könne.
Das würde bedeuten, „dass bei Milliarden Nachrichten, die per Whatsapp und Co tagtäglich verschickt werden, immer und immer wieder zu Unrecht Menschen dieser Verbrechen verdächtigt werden.“ Als Beispiel nennt er einen Fall in den USA, wo es kaum Datenschutzregeln gibt. Dort habe ein Mann seinem Arzt Bilder von seinem an den Genitalien erkrankten Kind geschickt. Der Internet-Provider meldete die Aufnahmen, wie in den USA üblich, dem Nationalen Zentrum für vermisste und ausgebeutete Kinder NCMEC (National Center for Missing and Exploited Children). Dieses leitete die Meldung an die Polizei weiter. Folge: Polizisten durchsuchten das Haus des Mannes, beschlagnahmten seine Rechner und veranlassten unter anderem Google, ihm seine sämtlichen Online- und Cloud-Zugänge zu sperren.
Andere Experten gehen davon aus, dass die Künstliche Intelligenz Kinderpornografie im Netz weitgehend fehlerfrei erkennt. Alexander Schmitt-Geiger von der PR-Agentur Communication Public Affairs in München wirbt im Auftrag einer Schweizer Stiftung für die neue EU-Verordnung gegen die Verbreitung von Kinderpornografie. Er hofft wie andere auf das Hash-Verfahren: Bilder, die nachweislich sexuellen Kindesmissbrauch zeigen, werden in einen eindeutigen, digitalen Code, einen „Hash“ aus 144 Ziffern, umgewandelt. Dieser wird in einer Datenbank gespeichert. Wird ein fragwürdiges Bild oder Video digital weitergegeben oder im Netz geteilt, kann man dessen Hash generieren und mit den Codes in der Datenbank vergleichen. Nur nach einem solchen Treffer beginnt die Suche nach den Urhebern und Verbreitern. Die Genauigkeit dieses Verfahrens gibt Schmitt-Geiger mit 99,9 Prozent an.
Einfallstor für Kriminelle befürchtet
In Deutschland lösen bisher die Meldungen des National Center for Missing and Exploited Children zwischen 60 und 80 Prozent der Ermittlungsverfahren aus. Findet das NCMEC kinderpornografisches Material auf deutschen Servern, meldet es diese an das Bundeskriminalamt, welches die Aufnahmen prüft und sie bei einem Anfangsverdacht auf eine Straftat an die Strafverfolgungsbehörden schickt.
Digitalcourage und andere Kritiker der europäischen Neuregelung befürchten nun, dass die Polizei mit Falschmeldungen überschwemmt und so von ihrer eigentlichen Arbeit abgehalten würde. Diese Gefahr sieht Sven Schneider vom Landeskriminalamt NRW eher nicht: Mehrere Instanzen prüften die verdächtigen Bilder und Videos, bevor gegen die Urheber oder Verbreiter ermittelt wird. So sei es unwahrscheinlich, dass Menschen zu Unrecht der Verbreitung von Kindesmissbrauchs-Bildern verdächtigt würden.
Schneider sieht hier keine Chat-Kontrolle oder Überwachung. Der LKA-Mann vergleicht das Verfahren mit einem Sprengstoff-Spürhund, der am Flughafen neben dem Gepäckband sitzt: „Der bellt, wenn er Sprengstoff riecht. Erst dann öffnet die Polizei den Koffer.“ Ohne Künstliche Intelligenz sieht Schneider keine Chance für Polizei und Staatsanwaltschaften, die Menge an Kinderpornografie im Internet zu bewältigen. „So viele Polizistinnen und Polizisten können wir gar nicht einstellen.“
Noch ist offen, ob und wie die von der EU-Kommission vorgeschlagene Regelung kommt. Nach dem EU-Parlament entscheiden die Vertreter der Mitgliedsländer. Die niederländische Regierung ist dagegen. In Deutschland hat vor allem die FDP Datenschutz-Bedenken. Innenministerin Nancy Faeser hat sich noch nicht festgelegt.
Hinter der Diskussion stecken auch wirtschaftliche Interessen. Allein die großen Plattform-Betreiber haben allein im vergangen Jahr rund 113 Millionen Euro ausgegeben, um die Politik in Brüssel in ihrem Sinne zu beeinflussen. Diese Zahl hat die lobbykritische Organisation Lobbycontrol veröffentlicht. Auch hinter den Befürwortern der geplanten Neuregelung stehen Geschäftsinteressen. So berichten „Die Zeit“ und die Internetseite Balkaninsight, dass die Organisation Thorn zahlreiche Kinderschutz-Organisationen finanziell unterstütze. Vertreter von Thorn säßen in der Steuerungsgruppe von ECLAC, einem Bündnis mehrerer Kinderschutz-Organisationen. Diese setzen sich für die neue EU-Verordnung ein. Gleichzeitig entwickle Thorn selbst Künstliche Intelligenz, die Kinderpornografie im Netz aufspüren kann. Meredith Wittacker, Vorsitzende der Signal-Stiftung sieht hier einen Markt von „mehreren Hundert Millionen Dollar“. Neutral ist auch sie nicht. Ihre Stiftung betreibt den Messengerdienst Signal.