Le nombre d’images d’enfants détournées en deepfakes sexuels a explosé, alerte l’Unicef
INTELLIGENCE ARTIFICIELLE•Selon une enquête réalisée par l’Unicef avec Interpol, « dans 11 pays, au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée »H. B. avec AFP
Les contenus se multiplient sur les réseaux sociaux. L’Unicef met en garde contre la multiplication d’images d’enfants détournées par l’intelligence artificielle (IA) pour réaliser des deepfakes à caractère sexuel, notamment par le biais de la « nudification », consistant à modifier ou enlever les vêtements d’une victime.
Selon une enquête réalisée par l’Unicef avec Interpol, « dans 11 pays au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée », soit dans certains « l’équivalent d’un enfant par classe ».
« Des modèles d’IA conçus sans mécanismes de protection appropriés »
« Il convient de le rappeler clairement : les images d’enfants à caractère sexuel générées ou manipulées à l’aide d’outils d’IA ne sont autres que des contenus montrant des abus sexuels sur enfant. Les abus commis au moyen d’images hypertruquées restent des abus, et les préjudices qu’ils entraînent sont tout sauf fictifs », écrit l’organisation dans un communiqué.
L’Unicef déplore notamment qu' « un trop grand nombre de modèles d’IA sont encore conçus sans mécanismes de protection appropriés » et que « les risques tendent à se multiplier lorsque les outils d’IA générative sont directement intégrés aux plateformes de médias sociaux, où les images ainsi manipulées se propagent rapidement ».
Le réseau social X, propriété du milliardaire Elon Musk, est sous le coup de plusieurs procédures dans différents pays en raison de la diffusion par son chatbot Grok de contenus pornographiques à partir d’images réelles.
« Des garde-fous robustes »
Le Fonds des Nations Unies chargé de la protection de l’enfance à travers le monde réclame que les développeurs d’IA mettent en place « des garde-fous robustes » pour empêcher la création de ces deepfakes et que les entreprises du numérique « préviennent leur circulation » plutôt que se limitent à leur retrait après coup.
L’Unicef demande aussi aux gouvernements d' « élargir la définition des contenus montrant des abus sexuels sur enfant pour y inclure les contenus générés par l’IA, et criminaliser leur création, leur acquisition, leur détention et leur diffusion ».



















