Die niederländische Polizei hat vor einer Zunahme kinderpornografischer Bilder gewarnt, die mit Künstlicher Intelligenz (KI) erstellt werden. "Es ist zu einfach für böswillige Akteure, KI-Programme zu nutzen, um diese Art von Material zu erstellen", sagte der Koordinator der niederländischen Polizei zur Bekämpfung von Kinderpornografie, Ben van Mierlo, am Montag. KI-generierte Kinderpornografie tauche immer häufiger in Ermittlungen und bei Hotlines auf, auch international. "Letztendlich ist es nur ein kleiner Prozentsatz, aber wir sehen, dass er schnell zunimmt", sagt van Mierlo.

Mehr Panorama-News

Kinderpornografie mit künstlichen Bildern bereite der Polizei relativ viel Arbeit, da die Fahnder mit bloßem Auge schwer erkennen könnten, was echt und was gefälscht oder was eine Kombination aus beidem ist. "Wenn es sich um ein nicht existierendes Kind handelt, ist das natürlich eine Erleichterung. Aber wir würden diese Mühe lieber darauf verwenden, echten Missbrauch zu stoppen. Damit haben wir bereits alle Hände voll zu tun", sagte van Mierlo. Dabei seien kinderpornografische Bilder auch strafbar, wenn sie mit künstlicher Intelligenz erstellt werden. Wie in den Niederlanden gilt das auch in Deutschland.

Der Polizei-Koordinator forderte die Hersteller von KI-Software auf, die Möglichkeiten zur Erstellung von Nacktbildern einzuschränken. Die Unternehmen sollten über KI-generierte Nacktbilder von Kindern genauso besorgt sein wie über solche von berühmten Künstlern. Möglicherweise könnten die Entwickler dafür sorgen, dass ihre KI-Programme Bilder mit einem digitalen Wasserzeichen versehen. Dann wären diese Bilder zumindest rückverfolgbar, sagte van Mierlo. Die Erstellung von Nacktbildern mit KI führe außerdem zu anderen schädlichen Problemen wie Mobbing und Erpressung.


  © dpa

JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.