01:06
IA : Google signe le « code de conduite » de l’UE… contrairement à Meta
OKI DOKI•Le groupe se conformera aux recommandations européennes sur les modèles d’IA les plus avancésO.M. avec AFP
C’est fait : Google a annoncé ce mercredi accepter de signer le « code de conduite » de l’Union européenne sur l’encadrement des modèles d’intelligence artificielle (IA), ce à quoi s’est, pour l’heure, refusé le groupe Meta.
Meta fait bande à part
« Nous allons rejoindre plusieurs autres entreprises […] en signant le "code de conduite" de l’Union européenne sur l’IA à usage général », a indiqué Kent Walker, président des affaires mondiales de Google.
OpenAI, créateur de ChatGPT, et la start-up française Mistral ont déjà annoncé signer ce « code de conduite », tandis que Meta (Facebook, Instagram) – virulent détracteur des règles numériques européennes – a affirmé qu’elle ne le ferait pas.
Droits d’auteur et propos déplacés
Publiées le 10 juillet, ces recommandations européennes sur les modèles d’IA les plus avancés, comme ChatGPT, mettent notamment l’accent sur les questions de droits d’auteur. L’UE appelle à exclure de l’IA les sites connus pour des actes répétés de piratage et demande aux signataires de s’engager à vérifier que leurs modèles ne reprennent pas des propos injurieux ou violents.
Ces recommandations sont pensées pour les modèles d’IA à usage général, comme ChatGPT, Gemini de Google, ou Grok de la plateforme X, qui a récemment défrayé la chronique en relayant des propos extrémistes et injurieux. La start-up d’Elon Musk xAI avait présenté ses excuses pour le « comportement horrible » de son robot conversationnel.
Des géants en colère
Mais ce « code de bonnes pratiques » n’est pas contraignant. Les entreprises signataires bénéficieront toutefois d’une « charge administrative réduite » quand il s’agira de prouver qu’elles se conforment bien à la législation européenne sur l’IA, promet la Commission européenne.
Cette future réglementation, baptisée « IA Act », suscite les foudres des géants de la tech, qui ne cessent d’appeler à reporter la loi. Mercredi, Google a encore affirmé que les règles européennes « risquent de ralentir le développement de l’IA en Europe ».
« Limiter les dérives de l’IA »
La Commission maintient cependant son calendrier, avec une mise en place à partir du 2 août 2025 et le gros des obligations en vigueur un an plus tard. L’exécutif européen dit vouloir limiter les dérives de l’IA tout en évitant de brider l’innovation. C’est pourquoi il classifie les systèmes selon leur niveau de risque, avec des contraintes proportionnelles au danger.
Notre dossier « Intelligence Artificielle (IA) »Les applications à haut risque, utilisées par exemple dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront soumises, d’ici à 2026, à des exigences renforcées avant toute autorisation de mise sur le marché en Europe.



















