Passer au contenu principalPasser à l'en-têtePasser au pied de page
Explosion du nombre d’images d’enfants détournées en deepfakes sexuels

Le nombre d’images d’enfants détournées en deepfakes sexuels a explosé, alerte l’Unicef

INTELLIGENCE ARTIFICIELLESelon une enquête réalisée par l’Unicef avec Interpol, « dans 11 pays, au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée »
Des fausses vidéos sexuelles de mineurs générées par Grok.
Hakima Bounemoura

H. B. avec AFP

Les contenus se multiplient sur les réseaux sociaux. L’Unicef met en garde contre la multiplication d’images d’enfants détournées par l’intelligence artificielle (IA) pour réaliser des deepfakes à caractère sexuel, notamment par le biais de la « nudification », consistant à modifier ou enlever les vêtements d’une victime.

Selon une enquête réalisée par l’Unicef avec Interpol, « dans 11 pays au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée », soit dans certains « l’équivalent d’un enfant par classe ».

L’accès à ce contenu a été bloqué afin de respecter votre choix de consentement

En cliquant sur« J’accepte », vous acceptez le dépôt de cookies par des services externes et aurez ainsi accès aux contenus de nos partenaires.

Plus d’informations sur la pagePolitique de gestion des cookies

« Des modèles d’IA conçus sans mécanismes de protection appropriés »

« Il convient de le rappeler clairement : les images d’enfants à caractère sexuel générées ou manipulées à l’aide d’outils d’IA ne sont autres que des contenus montrant des abus sexuels sur enfant. Les abus commis au moyen d’images hypertruquées restent des abus, et les préjudices qu’ils entraînent sont tout sauf fictifs », écrit l’organisation dans un communiqué.

L’Unicef déplore notamment qu' « un trop grand nombre de modèles d’IA sont encore conçus sans mécanismes de protection appropriés » et que « les risques tendent à se multiplier lorsque les outils d’IA générative sont directement intégrés aux plateformes de médias sociaux, où les images ainsi manipulées se propagent rapidement ».

Le réseau social X, propriété du milliardaire Elon Musk, est sous le coup de plusieurs procédures dans différents pays en raison de la diffusion par son chatbot Grok de contenus pornographiques à partir d’images réelles.

« Des garde-fous robustes »

Le Fonds des Nations Unies chargé de la protection de l’enfance à travers le monde réclame que les développeurs d’IA mettent en place « des garde-fous robustes » pour empêcher la création de ces deepfakes et que les entreprises du numérique « préviennent leur circulation » plutôt que se limitent à leur retrait après coup.

L’Unicef demande aussi aux gouvernements d' « élargir la définition des contenus montrant des abus sexuels sur enfant pour y inclure les contenus générés par l’IA, et criminaliser leur création, leur acquisition, leur détention et leur diffusion ».