Les images d’abus envers les enfants générées avec l’IA se multiplient, avertit Europol
Iattention•Si les victimes ne sont pas toujours reconnaissables, ces images contribuent à la sexualisation des enfants selon Europol20 Minutes avec AFP
Les images d’abus sexuels sur enfants générées à l’aide de l’intelligence artificielle sont en augmentation, rendant de plus en plus difficile l’identification des victimes et des auteurs, a averti lundi l’agence européenne de police.
Objectification et sexualisation des enfants
« Le volume de matériel sexuel auto-fabriqué constitue désormais une part importante et croissante du matériel sexuel pédopornographique en ligne », et est « appelé à proliférer davantage dans un avenir proche », souligne dans un rapport l’agence basée.
Même dans les cas où le contenu est entièrement artificiel et où aucune victime réelle n’est représentée, le matériel pédopornographique généré par l’IA contribue toujours à l’objectification et à la sexualisation des enfants, souligne Europol.
Trois cents millions d’enfants victimes
L’avènement de l’IA suscite une inquiétude croissante quant à son utilisation à des fins malveillantes, notamment à travers la création de « deepfakes » – des images et des vidéos générées par ordinateur, souvent réalistes, basées sur un modèle réel.
Plus de 300 millions d’enfants sont victimes chaque année d’exploitation et d’abus sexuels en ligne, ont déclaré en mai des chercheurs de l’Université d’Édimbourg.
En savoir plus sur la pédopornographieLes infractions vont de la « sextorsion » visant des adolescents victimes de chantage après des diffusions de photos intimes sur Internet, à l’abus de la technologie de l’IA pour créer de fausses vidéos et images, selon les chercheurs.


















