ChatGPT n’est pas votre confident : ce qu’il faut savoir avant de tout lui dire (AP)
ChatGPT n’est pas votre confident : ce qu’il faut savoir avant de tout lui dire (AP)

Chaque jour, des millions d’utilisateurs confient à ChatGPT leurs questions les plus anodines comme leurs secrets les plus personnels. Pourtant, peu savent que leurs échanges ne restent pas toujours confidentiels. En réalité, plusieurs équipes humaines peuvent lire ce que vous écrivez à l’intelligence artificielle d’OpenAI, et parfois même le transmettre à des tiers.

Des conversations consultées par des humains

Contrairement à ce que beaucoup imaginent, ChatGPT ne fonctionne pas en vase clos. Les équipes d’OpenAI ont accès à certaines conversations, notamment celles signalées par les systèmes automatiques de surveillance. La cellule sécurité de l’entreprise examine ces échanges pour identifier d’éventuels abus ou tentatives de contournement des filtres, comme la génération de contenus illégaux ou dangereux. D’autres conversations peuvent être consultées par les chercheurs et formateurs d’OpenAI afin d’améliorer le modèle. Ces professionnels analysent ponctuellement des extraits de dialogues pour comprendre comment l’IA répond et comment affiner son apprentissage. Des prestataires externes, chargés de l’annotation de données, peuvent également y avoir accès, parfois depuis des pays où les normes de confidentialité sont moins strictes. En d’autres termes, vos messages peuvent passer entre plusieurs mains avant d’être définitivement archivés. Ce n’est pas systématique, mais le risque existe.

Quand la confidentialité s’arrête là où commence la sécurité

OpenAI précise que ses équipes peuvent intervenir si une conversation représente un risque de violence physique. Dans des cas jugés graves, les échanges peuvent être transmis aux forces de l’ordre, comme l’a montré un incident récent aux États-Unis impliquant un adolescent ayant formulé une menace explicite. En revanche, les discussions liées à des pensées suicidaires ne sont pas communiquées aux autorités, afin de préserver la vie privée des utilisateurs. Il est donc faux de croire que ChatGPT fonctionne comme un journal intime. L’outil n’est pas conçu pour garantir le secret des échanges ni pour traiter des informations sensibles.

Ce qu’il ne faut jamais confier à ChatGPT

Certaines données doivent absolument rester hors de portée du chatbot. Parmi elles : les informations bancaires (numéros de carte, codes ou identifiants), les données personnelles (adresse, date de naissance, numéro de Sécurité sociale), les documents professionnels confidentiels, contrats, ou feuilles de route internes. Des études ont montré que certaines informations saisies dans une session pouvaient, par erreur, réapparaître dans la réponse donnée à un autre utilisateur. Une fuite accidentelle, mais possible. Pour ceux qui souhaitent continuer à utiliser ChatGPT sans se mettre en danger, quelques réflexes simples s’imposent. D’abord, désactivez l’option « Améliorer le modèle pour tous », qui autorise l’usage de vos échanges à des fins d’entraînement. Ensuite, coupez la fonction « Mémoire », afin que vos conversations ne soient pas conservées après votre session. Ces précautions ne rendent pas l’usage de ChatGPT totalement privé, mais elles limitent considérablement les risques. Et surtout, gardez à l’esprit que tout ce que vous écrivez peut, un jour, être lu, analysé ou signalé. Moralité : ChatGPT peut être un assistant brillant, un rédacteur efficace ou un outil de recherche formidable, mais sûrement pas un confident fiable.

Que retenir rapidement ?

Chaque jour, des millions d’utilisateurs confient à ChatGPT leurs questions les plus anodines comme leurs secrets les plus personnels. Pourtant, peu savent

Partager