UNICEF forderte am Mittwoch dringend die Regierungen auf, KI-generierte Materialien zum sexuellen Missbrauch von Kindern zu kriminalisieren, und verwies auf alarmierende Beweise, dass im vergangenen Jahr mindestens 1,2 Millionen Kinder weltweit durch Manipulation ihrer Bilder in sexuell explizite Deepfakes verwandelt wurden. Die Zahlen, die im Rahmen von Disrupting Harm Phase 2 veröffentlicht wurden, einem Forschungsprojekt unter Leitung des UNICEF-Büros für Strategie und Evidenz Innocenti, ECPAT International und INTERPOL, zeigen, dass in einigen Ländern die Zahl einem Kind in 25 entspricht, was einem Kind in einem typischen Klassenzimmer entspricht, so eine Erklärung vom Mittwoch und eine begleitende Ausgabenübersicht. Die Forschung basiert auf einer landesweit repräsentativen Haushaltsbefragung von etwa 11.000 Kindern in 11 Ländern und hebt hervor, wie Täter jetzt realistische sexuelle Bilder eines Kindes erstellen können, ohne deren Beteiligung oder Wissen.
In einigen Studienländern gaben bis zu zwei Drittel an, befürchten zu müssen, dass KI verwendet werden könnte, um gefälschte sexuelle Bilder oder Videos von ihnen zu erstellen, wobei die Besorgnis zwischen den Ländern stark variiert, so die Daten. „Wir müssen klarstellen. Sexualisierte Bilder von Kindern, die mit KI-Tools erzeugt oder manipuliert werden, sind Kinderpornografie (CSAM)“, sagte UNICEF. „Deepfake-Missbrauch ist Missbrauch, und es gibt nichts Falsches an dem Schaden, den er verursacht.“ Die Dringlichkeit der Forderung steigt, da französische Behörden am Dienstag die Büros von X in Paris im Rahmen einer strafrechtlichen Untersuchung wegen angeblicher Kinderpornografie im Zusammenhang mit dem KI-Chatbot Grok durchsucht haben, wobei Staatsanwälte Elon Musk und mehrere Führungskräfte zu Vernehmungen geladen haben. Ein Bericht des Center for Countering Digital Hate, der letzten Monat veröffentlicht wurde, schätzte, dass Grok in einem Zeitraum von 11 Tagen zwischen dem 29. Dezember und dem 9. Januar 23.338 sexualisierte Bilder von Kindern produziert hat.
Die begleitende Ausgabenübersicht weist darauf hin, dass diese Entwicklungen „eine tiefgreifende Eskalation der Risiken für Kinder in der digitalen Umgebung“ darstellen, in der das Recht eines Kindes auf Schutz „ohne jemals eine Nachricht zu senden oder überhaupt zu wissen, dass es passiert ist“, verletzt werden kann. Die britische Internet Watch Foundation meldete fast 14.000 verdächtige KI-generierte Bilder auf einem einzigen Dark-Web-Forum innerhalb eines Monats, etwa ein Drittel davon wurde als kriminell bestätigt, während südkoreanische Behörden einen Zehnfachen Anstieg von KI- und Deepfake-assoziierten Sexualdelikten zwischen 2022 und 2024 meldeten, wobei die meisten Verdächtigen Jugendliche sind. Die Organisation forderte dringend alle Regierungen auf, die Definitionen von Materialien zum sexuellen Missbrauch von Kindern zu erweitern, um KI-generierte Inhalte einzuschließen, und deren Erstellung, Beschaffung, Besitz und Verbreitung zu kriminalisieren. UNICEF forderte außerdem, dass KI-Entwickler Sicherheits-von-Design-Ansätze umsetzen und digitale Unternehmen die Verbreitung solcher Materialien verhindern. Die Übersicht fordert die Staaten auf, Unternehmen zu verpflichten, eine Sorgfaltspflicht hinsichtlich der Kinderrechte durchzuführen, insbesondere Bewertungen der Auswirkungen auf Kinderrechte, und dass alle Akteure in der KI-Wertschöpfungskette Sicherheitsmaßnahmen integrieren, einschließlich Sicherheitsprüfungen vor der Veröffentlichung für Open-Source-Modelle. „Der Schaden durch Deepfake-Missbrauch ist real und dringend“, warnte UNICEF. „Kinder können nicht darauf warten, dass das Gesetz nachzieht.“ Die Europäische Kommission leitete letzten Monat eine formelle Untersuchung ein, ob X gegen EU-Digitalregeln verstoßen hat, indem es die Generierung illegaler Inhalte durch Grok nicht verhindert hat, während die Philippinen, Indonesien und Malaysia Grok verboten haben und Regulierungsbehörden in Großbritannien und Australien ebenfalls Ermittlungen aufgenommen haben.