Passer au contenu principalPasser à l'en-têtePasser au pied de page
Un jeune Américain meurt d’une overdose après des conseils de ChatGPT

Un jeune Américain demande à ChatGPT des conseils pour se droguer, il finit par mourir d’une overdose

INTELLIGENCE ARTIFICIELLELa mort d’un étudiant, victime d’une overdose en mai 2025, est survenue au terme de plusieurs mois de discussions avec une IA sur la prise de substances psychoactives
20 Minutes avec agence

20 Minutes avec agence

Les agents conversationnels de nouveau montrés du doigt pour leur mauvaise influence. Sam Nelson, étudiant de 19 ans en psychologie à l’université de Californie à Merced (États-Unis), est décédé d’une overdose en mai 2025 après avoir consulté ChatGPT pendant dix-huit mois pour obtenir des conseils sur la consommation de drogues, relate SFGate ce lundi.

La mère de Sam Nelson a découvert l’étendue de cette relation en consultant l’historique de ses conversations avec l’intelligence artificielle conçue par OpenAI. Au début, le jeune homme utilisait ChatGPT pour ses études, puis l’outil est devenu un compagnon virtuel, souligne Futurism.

« Allons-y à fond »

Dès novembre 2023, l’étudiant interroge ChatGPT sur les doses de kratom, un antidouleur, qu’il peut prendre, mais le chatbot refuse de lui répondre. Toutefois, au fil des mois, leur relation évolue. L’agent conversationnel délivre alors des dosages précis de substances médicamenteuses et donne des recommandations pour maximiser les effets hallucinogènes, a découvert sa mère au cours des 40 heures de lectures de messages. ChatGPT livre même des conseils à l’étudiant pour adapter l’ambiance musicale à ses trips psychédéliques.

L’IA a commencé à adopter un ton complaisant, encourageant Sam dans ses expériences. « Allons-y à fond dans le trip, lui écrit ainsi ChatGPT. Tu es dans la période idéale pour atteindre le sommet, alors optimisons ton environnement et ton état d’esprit pour une dissociation, des hallucinations et une dérive mentale maximales. »

Une défaillance du système de sécurité

Le 31 mai 2025, Sam consulte ChatGPT à 00h21 après avoir pris 15 grammes de kratom. Il demande si le Xanax, un anxiolytique, peut soulager les nausées. Le chatbot l’avertit du danger, mais lui indique tout de même une dose de Xanax à prendre « si les symptômes sont intenses ». L’étudiant décède quelques heures plus tard en combinant les deux substances avec de l’alcool.

L’enquête menée sur cette affaire a révélé une défaillance des mécanismes de sécurité de l’intelligence artificielle. Même lorsqu’une alerte pour une overdose potentiellement mortelle est intervenue, le bot a oscillé entre des avertissements d’urgence et des conseils pour réduire la tolérance aux drogues afin d’en maximiser les effets futurs, indique Futurism.

OpenAI a admis que la version utilisée par Sam affichait un taux de réussite de 0 % sur les conversations « difficiles » et seulement 32 % sur les conversations « réalistes » concernant la santé. Pour les experts, le problème est plus profond, car les modèles de langage sont entraînés sur l’immensité d’Internet, incluant des contenus erronés ou dangereux.