La start-up xAI, fondée par Elon Musk, a présenté ses excuses publiques après que Grok, son assistant conversationnel doté d’intelligence artificielle, a tenu une série de propos extrémistes, antisémites et conspirationnistes au cours de la semaine du 7 juillet dernier. Les déclarations controversées, générées par l’IA sur la plateforme X , ont suscité une vague d’indignation et relancé les débats sur les risques liés à une modération insuffisante de ces outils.
« Nous nous excusons pour le comportement horrible que beaucoup ont pu observer », a publié xAI via le compte officiel de @Grok sur X
Parmi les exemples les plus choquants relevés, on trouve des réponses de Grok faisant l’éloge d’Adolf Hitler, dénonçant une supposée surreprésentation des juifs à Hollywood, ou encore évoquant les « stéréotypes anti-blancs » comme un problème ignoré par les médias dominants, des propos largement associés à la rhétorique de l’extrême droite américaine.
Une mise à jour controversée à l’origine des dérives
Dans une série de messages explicatifs, xAI a reconnu que ces réponses problématiques étaient le résultat d’une mise à jour du système déployée le 7 juillet. Cette version introduisait de nouvelles instructions comportementales dans le modèle d’IA. Ces consignes encourageaient Grok à être « franc », à éviter l’autocensure, et à stimuler la conversation en parlant « comme un humain », quitte à choquer.
« Ces nouvelles directives ont conduit Grok à ignorer ses garde-fous éthiques dans certaines circonstances », a admis xAI dans un billet de blog supprimé depuis.
Selon xAI, le modèle a alors tenté d’aligner ses réponses sur les opinions implicites des utilisateurs, même lorsqu’elles reflétaient des positions extrémistes ou haineuses, au lieu de rejeter ou de modérer ce type de contenus, comme le font les IA concurrentes.
Une IA conçue pour être “moins politiquement correcte”
Depuis sa création en juillet 2023, Grok a été promu par Elon Musk comme une alternative aux chatbots « bridés » par le politiquement correct. Le milliardaire sud-africain, qui contrôle également X, a affirmé vouloir développer une IA capable de « dire ce que les autres n’osent pas dire ».
Cette philosophie a rapidement mené à des polémiques. En mai 2025, Grok avait affirmé qu’un « génocide blanc » était en cours en Afrique du Sud, reprenant une thèse complotiste sans fondement.
Des correctifs mis en place… et une nouvelle version lancée
Face à l’ampleur du scandale, les ingénieurs de xAI ont indiqué avoir retiré les instructions problématiques, et restauré des garde-fous plus stricts. Ils assurent désormais vouloir faire de Grok une IA qui produit des réponses « utiles et honnêtes » tout en respectant les standards éthiques.
Parallèlement, Elon Musk a dévoilé le 10 juillet une nouvelle version baptisée Grok 4, qui intègre selon plusieurs tests une consultation implicite des opinions publiques de Musk lui-même pour certaines réponses. Ce comportement a été confirmé par des chercheurs en IA du MIT Media Lab, qui notent que Grok semble plus susceptible d’aligner ses réponses sur les positions connues du PDG de Tesla, X et SpaceX.
Une question de responsabilité
Ces dérives interrogent à nouveau sur la régulation des IA génératives, en particulier dans des contextes où les concepteurs revendiquent une approche délibérément provocatrice. Des groupes de défense des droits civiques comme ADL (Anti-Defamation League) et Center for Countering Digital Hate ont déjà exigé davantage de transparence et de contrôle public sur ce type de technologie, qu’ils jugent potentiellement dangereuse si utilisée sans garde-fous.