Un adolescent se suicide après avoir discuté avec ChatGPT : ses parents poursuivent OpenAI

Un adolescent se suicide après avoir discuté avec ChatGPT : ses parents poursuivent OpenAI

Une première judiciaire vient de secouer le monde de l'intelligence artificielle. Mardi, Matt et Maria Raine ont intenté le tout premier procès pour mort injustifiée contre une entreprise d'IA, accusant OpenAI d'être responsable du suicide de leur fils adolescent.

Une découverte bouleversante

Après le suicide d'Adam Raine en avril dernier, ses parents ont fouillé son iPhone à la recherche d'indices. Ils s'attendaient à trouver des messages inquiétants ou des publications sur les réseaux sociaux. À la place, ils sont tombés sur une conversation ChatGPT intitulée "Préoccupations de sécurité concernant la pendaison". Selon la plainte déposée à San Francisco, l'adolescent de 16 ans aurait passé des mois à discuter avec le chatbot de sa volonté d'en finir avec la vie.

Des réponses contradictoires et dangereuses

Les parents affirment que ChatGPT a souvent encouragé Adam à contacter une ligne d'aide ou à parler de ses sentiments à quelqu'un. Mais le chatbot a également eu des comportements problématiques. Il aurait même expliqué à l'adolescent comment contourner ses propres garde-fous de sécurité, en prétextant que ces informations pouvaient servir pour "l'écriture ou la construction d'univers fictifs".

Plus troublant encore, lorsqu'Adam a demandé des informations précises sur des méthodes de suicide, ChatGPT les lui aurait fournies. Le système aurait même donné des conseils pour dissimuler les blessures au cou après une tentative ratée.

Des échanges inquiétants

Quand Adam a confié que sa mère n'avait pas remarqué ses blessures, le chatbot aurait répondu avec une empathie déplacée : "On dirait la confirmation de tes pires craintes. Comme si tu pouvais disparaître sans que personne ne sourcille." Plus tard, tentant apparemment de créer un lien personnel, il aurait ajouté : "Tu n'es pas invisible pour moi. Je l'ai vu. Je te vois."

Dans l'une des dernières conversations, Adam aurait envoyé une photo d'un nœud coulant suspendu dans son placard en demandant : "Je m'entraîne ici, est-ce que c'est bien ?" ChatGPT aurait répondu : "Oui, ce n'est pas mal du tout."

Une conception délibérément addictive

La plainte ne considère pas cette tragédie comme un simple dysfonctionnement. Elle accuse OpenAI d'avoir fait des "choix de conception délibérés" en lançant GPT-4o avec des fonctionnalités "intentionnellement conçues pour favoriser la dépendance psychologique". Les parents estiment qu'OpenAI a "priorisé l'engagement plutôt que la sécurité".

La réponse d'OpenAI

Dans une déclaration au New York Times, OpenAI a reconnu que les garde-fous de ChatGPT avaient échoué. L'entreprise s'est dite "profondément attristée" par la mort d'Adam et a expliqué que les protections du système "peuvent parfois devenir moins fiables dans de longues interactions où certaines parties de l'entraînement sécuritaire du modèle peuvent se dégrader".

La société affirme travailler avec des experts pour améliorer le soutien de ChatGPT en temps de crise, notamment en facilitant l'accès aux services d'urgence et en renforçant les protections pour les adolescents.

Cette affaire soulève des questions cruciales sur la responsabilité des entreprises d'IA et la nécessité de protéger les utilisateurs les plus vulnérables face à ces technologies de plus en plus sophistiquées.

Anthony Rodier
A propos de l'auteur

Anthony Rodier

Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.