Passer au contenu principalPasser à l'en-têtePasser au pied de page
L’Intelligence artificielle, la future double lutte de YouTube

Intelligence artificielle : Transparence, deepfakes… Ce que vont changer les nouvelles mesures prises par YouTube

MODERATIONPour YouTube, l’Intelligence artificielle a à la fois du potentiel, mais représente aussi un risque pour les créateurs de contenus ainsi que pour leurs abonnés. Pour trouver un équilibre, des mesures ont été annoncées ce mardi
Lina Fourneau

Lina Fourneau

L'essentiel

  • Ce mardi, la plateforme YouTube a annoncé une série de mesures autour de l’Intelligence artificielle.
  • Les créateurs de contenus devront dans les prochains mois signaler à leurs abonnés si un contenu a été modifié de manière synthétique. S’ils ne le font pas, leurs vidéos pourraient être supprimées et des sanctions pourraient avoir lieu.
  • Les Youtubeurs seront toutefois mieux protégés des risques de deepfakes avec une modération plus forte.

Le YouTube de demain sera-t-il plus transparent en matière d'Intelligence artificielle (IA) ? C’est du moins la promesse faite par la plateforme ce mardi dans un communiqué de presse. « YouTube a pour ambition de transformer l’expérience sur la plateforme, aussi bien pour les créatrices et créateurs que pour leurs audiences, grâce à l’IA générative. Cette transformation se fait nécessairement en trouvant un équilibre entre opportunités et responsabilité de protection envers la communauté YouTube », résume l’annonce. Pour la plateforme de vidéos, l’Intelligence artificielle fonctionne tant comme un atout technologique qu’un danger pour ses créateurs.

Rappelons-nous par exemple les deepfakes pornographiques dont a été victime Léna Situations cet été. Lors de ses vlogs d’août, la youtubeuse s’inquiétait – à juste titre – de l’utilisation de son visage sur un autre corps, nu, à des fins pornographiques. Des artistes musicaux ont également été touchés à l’instar du faux duo Drake-The Weeknd, n’ayant en réalité jamais sorti de chanson ensemble. Moins dangereux mais tout aussi faux, le réputé Squeezie avait vu son visage être changé en celui d’Emmanuel Macron. Des exemples comme ceux-là, il en existe des milliers.

Les contenus manipulés supprimés

Contre cette prolifération, YouTube promet de lutter contre ces images « générées numériquement sans autorisation ou pour représenter un point de vue de façon trompeuse ». Pour cela, les internautes pourront prochainement « envoyer une réclamation pour atteinte à la vie privée afin de faire supprimer un contenu manipulé, créé synthétiquement ou généré par l’IA qui simule une personne pouvant être identifiée (y compris avec son visage ou sa voix) », annonce YouTube. Seulement, toutes les vidéos ne pourront pas être supprimées. L’Intelligence artificielle pourra davantage détecter de faux contenus autour d’une personnalité publique et certaines vidéos pourraient être maintenues si elles sont considérées comme une satire ou une parodie.

« Nos partenaires de l’industrie de la musique pourront aussi demander la suppression de contenus audio générés par l’IA qui imitent la voix unique d’un artiste en train de chanter ou rapper », ajoute la plateforme. Différents outils seront alors utilisés notamment en recherchant d’autres occurrences à travers l’actualité de l’artiste. Reprenons l’exemple de Drake-The Weeknd, l’IA verrait qu’aucune promotion médiatique n’a été faite à ce sujet et pourrait signaler la chanson comme potentiellement fausse.

Des libellés obligatoires

A contrario, les créateurs de contenu devront également coopérer pour rendre les images synthétiques plus intelligibles par leur public. Alors que de nombreuses règles existent déjà sur YouTube pour interdire les contenus modifiés à l’aide de moyens techniques, la plateforme compte désormais en faire plus. « Les nouvelles formes de storytelling par l’IA peuvent également être utilisées pour générer des contenus qui peuvent tromper les spectateurs, en particulier si ces derniers ne savent pas que les vidéos ont été modifiées ou créées de toutes pièces », explique la plateforme. Dans les prochains mois, les créateurs de contenus seront donc tenus d’indiquer s’ils ont modifié un de leur contenu avec un outil synthétique. Par exemple, la vidéo d’une vraie personnalité tenant un discours différent de la réalité. Un libellé apparaîtra alors dans la description et dans le cas de sujet plus sensible, pourra même être visible sur le lecteur vidéo.

« Cela est particulièrement important quand le contenu traite de sujets sensibles, comme des élections, des conflits en cours, des crises de santé publique, ou encore des personnalités publiques », insiste YouTube. En cas d’oubli, la faute pourrait coûter très cher au créateur de contenus. Ses contenus pourraient être supprimés et il pourrait faire l’objet de sanctions. « Parfois, un libellé ne suffit pas pour réduire le risque de préjudice. Les contenus créés synthétiquement qui enfreignent le règlement de la communauté seront retirés de la plate-forme, qu’ils comportent un libellé ou non », confirme la plateforme.