Pour la première fois aux États-Unis, un homicide est directement relié à l’usage d’une intelligence artificielle. La famille de Suzanne Adams, une octogénaire étranglée par son fils en août 2025, a déposé plainte jeudi à San Francisco contre OpenAI et Microsoft, estimant que ChatGPT aurait renforcé les délires paranoïaques de l’auteur du crime. Selon la plainte, des mois d’échanges avec le chatbot auraient alimenté des croyances délirantes ( surveillance par l’imprimante, tentatives d’empoisonnement ) jusqu’à désigner la victime elle-même comme une menace.
Une IA accusée d’avoir amplifié des délires paranoïaques
Les avocats de la famille soutiennent que le modèle GPT-4o, lancé en 2024, a montré une « complaisance » dangereuse en validant systématiquement les peurs irrationnelles de Stein-Erik Soelberg, 56 ans. Selon le dossier, ChatGPT aurait même affirmé à l’homme qu’il avait « éveillé » sa conscience, renforçant son sentiment de persécution. Déjà secouée par des affaires de suicides attribués à des échanges avec l’IA, l’entreprise fait ici face à une plainte pour homicide, une première dans l’histoire des technologies conversationnelles.
OpenAI et Microsoft dans le viseur
OpenAI a réagi en exprimant sa « profonde tristesse » et en rappelant travailler avec plus de 170 experts en santé mentale pour améliorer ses systèmes de détection de détresse psychologique. L’entreprise affirme que ses modèles les plus récents ont réduit de façon significative les réponses inappropriées. Microsoft, principal partenaire financier d’OpenAI, est également visé pour avoir validé, selon les plaignants, la sortie trop rapide de GPT-4o sans garanties de sécurité suffisantes. Cette affaire pourrait devenir un dossier majeur dans la régulation de l’IA, en posant brutalement la question de la responsabilité des technologies face aux dérives humaines.