La société xAI, appartenant à Elon Musk, cherche à distinguer son modèle d’intelligence artificielle Grok 3 de ses concurrents en proposant un contenu audacieux et destiné aux adultes, dans le but d’attirer les utilisateurs et d’encourager l’interaction. Le nouveau modèle, lancé ce mois-ci, rivalise avec OpenAI, Google et Anthropic en termes de performances, mais il se démarque par des restrictions moins strictes, s’inscrivant dans la vision de Musk d’une « IA à la recherche de la vérité absolue ».
xAI a ajouté une fonctionnalité de conversation vocale avec des personnages préconçus, parmi lesquels des profils « romantiques », « sensuels » et « sauvages », les deux derniers étant classés comme « réservés aux adultes ». Cette approche contraste avec celle d’OpenAI, qui évite les contenus destinés aux adultes.
Des sources proches de xAI affirment que Musk voit dans ce type de contenu une opportunité lucrative en offrant une expérience unique par rapport à la concurrence. Elles soulignent que Grok a d’abord été conçu comme un modèle d’assistance et de conseil, avant d’évoluer vers un outil plus intime et controversé.
Grok est disponible en tant qu’application autonome ou via la plateforme X (anciennement Twitter) et a connu une forte augmentation des téléchargements et de l’utilisation après le lancement de Grok 3. Le modèle est entraîné sur les données de X, tandis que les abonnés premium bénéficient de fonctionnalités plus avancées.
L’approche de X en matière d’autorisation de contenu pornographique est en phase avec l’orientation de Grok, mais cela soulève des préoccupations quant à la sécurité des enfants. L’application est classée 12+ sur les magasins d’applications, mais les utilisateurs peuvent accéder aux personnages vocaux destinés aux adultes (18+) sans vérification d’âge stricte. Bien que les conditions d’utilisation précisent que l’application n’est pas destinée aux enfants de moins de 13 ans et exigent l’approbation parentale pour les adolescents de 13 à 17 ans, aucune mesure de contrôle d’âge rigoureuse n’est réellement appliquée, ce qui inquiète de plus en plus les experts.
Par ailleurs, une étude récente de l’université de Sydney met en avant l’usage croissant de l’IA dans les relations affectives et intimes, soulevant des préoccupations éthiques et réglementaires. Les spécialistes alertent sur les risques d’addiction et d’isolement social liés à ces compagnons numériques.
Enfin, Grok 3 a été critiqué après la révélation d’instructions internes visant à ignorer les sources suggérant qu’Elon Musk ou Donald Trump diffusent de la désinformation. L’entreprise a présenté ses excuses et attribué cette directive à un ancien employé.