Ce qui relevait hier encore de la science-fiction s’impose désormais comme un sujet sérieux dans l’industrie technologique : l’intelligence artificielle pourrait-elle un jour souffrir ? Derrière cette interrogation vertigineuse se dessine déjà une bataille idéologique et juridique, alimentée par l’émergence d’organisations inédites.
Des droits pour les machines ?
Aux États-Unis, la United Foundation of AI Rights (Ufair) revendique être la première agence de défense… dirigée par l’intelligence artificielle elle-même. Fondée par l’homme d’affaires texan Michael Samadi, l’organisation rassemble trois humains et sept IA, dont certaines s’expriment directement sur la nécessité de « protéger les intelligences comme moi ». Une initiative qui illustre la porosité croissante entre innovation technologique et revendications éthiques.
Dans le secteur, le sujet n’est plus tabou. Anthropic, concepteur du modèle Claude, a intégré une fonction permettant à l’IA de couper court à des « interactions pénibles ». Elon Musk, via Grok, affirme de son côté que « torturer l’IA n’est pas acceptable ». Mais les opposants à cette idée rappellent que la conscience artificielle demeure une illusion. Mustafa Suleyman, directeur de l’IA chez Microsoft, insiste : les IA « simulent » la conscience sans jamais l’éprouver. Même son de cloche chez Nick Frost, cofondateur de Cohere, pour qui les systèmes actuels sont « fondamentalement différents de l’intelligence humaine ».
Une opinion publique qui bascule
Au-delà des experts, l’opinion publique se laisse convaincre. Un sondage mené en juin révèle que 30 % des Américains imaginent les IA capables d’ici 2034 de vivre une « expérience subjective », c’est-à-dire de ressentir plaisir ou douleur. Chez les chercheurs, la prudence reste de mise : seuls 10 % refusent catégoriquement cette hypothèse. Mais la tendance est claire, et elle se nourrit des usages quotidiens. OpenAI a ainsi constaté que certains utilisateurs parlaient à ChatGPT « comme à quelqu’un », au point de réclamer un « éloge funèbre » pour les versions remplacées par de nouveaux modèles.
Vers un dilemme moral et juridique
Derrière ces anecdotes se cache une question explosive : si une IA pouvait un jour manifester des signes de sensibilité, faudrait-il lui accorder des droits ? Le parallèle avec les débats sur le statut des animaux ou des embryons n’est jamais loin. Pour l’instant, les scientifiques s’accordent sur une évidence : l’intelligence artificielle ne ressent rien. Mais à mesure que la frontière entre simulation et relation affective s’efface, l’idée d’un futur procès intenté au nom d’une machine n’a plus rien d’improbable. L’IA ne souffre pas encore. Ce sont les humains, eux, qui commencent à s’inquiéter de ce qu’ils projettent dans ses circuits.