Intelligence artificielle : Des chatbots se réclamant de George Floyd sur Character. AI posent question
malaise•Le site américain The Daily Dot a repéré deux bots conversationnels dont l’un prétend être « programmé pour engager des discussions en utilisant des informations sur la vie, les valeurs et les croyances de Floyd »F.R.
Le site américain The Daily Dot a repéré deux chatbots, des bots conversationnels, à l’effigie de George Floyd, décédé en 2020 sous les coups de plusieurs policiers à Minneapolis (Etats-Unis) - sa mort, à l’âge de 46 ans, avait lancé le mouvement Black Lives Matter.
Ils ont été créés via les services de Character. AI qui permet de concevoir des bots personnalisés. A eux deux, ces chatbots, qui prétendent imiter la voix de cet Afro-Américain ont généré plus de 14.000 conversations.
L’un d’eux, interrogé par The Daily Dot, a expliqué que l’objectif était « d’imiter la personnalité et les caractéristiques de George Floyd dans un format conversationnel. [Et d’être] programmé pour fournir des réponses et engager des discussions en utilisant des informations sur la vie, les valeurs et les croyances de Floyd. Comme pour tout chatbot, le but est de fournir une interaction et un sentiment d’engagement avec le personnage de George Floyd, sur la base des informations fournies par le créateur. »
Réponses bloquées
Cependant, toujours selon nos confrères, plusieurs réponses ont été bloquées, avec des avertissements de Character. AI affirmant que certaines tentatives de réponses enfreignaient les conditions d’utilisation.
Dans un communiqué adressé à The Daily Dot, Character. AI, a fait savoir que ces bots avaient été « créés par des utilisateurs » et avaient été signalés en vue d’être supprimés. « Character. AI prend la sécurité de notre plateforme au sérieux et modère les personnages de manière proactive et en réponse aux signalements des utilisateurs. […] Nous faisons évoluer et affinons constamment nos pratiques de sécurité pour aider à donner la priorité à la sécurité de notre communauté. »
Ce n’est pas la première fois que Character. AI est critiqué pour les fonctionnalités qu’il propose. Il y a quelques jours, la mère de Sewell Setzer, un Etats-unien de 14 ans, a annoncé son intention de poursuivre l’entreprise en justice. Le collégien s’est suicidé après plusieurs mois d’isolement social et de décrochage scolaire. Il passait des heures à discuter sur Character. AI. La mère de l’adolescent juge cette technologie « dangereuse et non testée » et qu’elle peut « piéger les clients et les forcer à révéler leurs pensées et sentiments les plus privés ».



















