L’intelligence artificielle s’impose désormais comme un outil du quotidien dans les entreprises françaises. Traduction de documents, aide à la décision, automatisation de tâches complexes, les usages se multiplient, souvent dans l’urgence et sans cadre précis. Mais derrière ces gains apparents de productivité, des dérives bien concrètes émergent. Les services de sécurité intérieure tirent aujourd’hui la sonnette d’alarme sur des pratiques qui exposent directement les données, la stratégie et parfois la survie même des organisations. Dans une note récente consacrée aux risques d’ingérence économique, la DGSI décrit plusieurs situations vécues par des entreprises françaises. Elles ont en commun un point central : l’adoption rapide d’outils d’IA, souvent grand public, sans réelle prise de conscience des conséquences à moyen et long terme.
L’un des premiers risques identifiés concerne la manipulation de données sensibles
Dans certaines entreprises, des salariés ont pris l’habitude d’utiliser des outils d’intelligence artificielle accessibles en ligne pour traduire ou reformuler des documents professionnels. Contrats, notes internes, rapports techniques ou éléments financiers ont ainsi été copiés et transmis à des plateformes externes, sans validation préalable de la hiérarchie ni encadrement juridique. Ces usages, perçus comme anodins, ont conduit à une exposition involontaire d’informations stratégiques hors de l’entreprise. Le problème est aggravé par le fonctionnement même de nombreux services d’IA, qui exploitent les contenus fournis par les utilisateurs pour améliorer leurs modèles. Les données transmises peuvent être stockées sur des serveurs situés à l’étranger, soumis à des législations non européennes, parfois incompatibles avec les exigences françaises en matière de confidentialité et de protection du secret des affaires. Une fois l’information diffusée, aucun correctif interne ne permet réellement d’en reprendre le contrôle.
Au-delà des données, la DGSI pointe également un risque croissant de dépendance décisionnelle
Dans certaines structures en forte croissance, des outils d’IA ont été utilisés pour évaluer des partenaires commerciaux, analyser leur solvabilité, leur réputation ou les risques juridiques associés. Faute de temps et de ressources, ces recommandations ont parfois été suivies sans vérification humaine approfondie. Les choix stratégiques ont alors reposé presque exclusivement sur des analyses automatisées. Cette délégation excessive affaiblit la gouvernance des entreprises. Les systèmes d’IA produisent des résultats fondés sur des probabilités statistiques, susceptibles d’intégrer des biais, des approximations ou des erreurs. Leur fonctionnement interne reste largement opaque, rendant difficile toute compréhension fine des conclusions proposées. En l’absence de regard critique, les directions peuvent perdre la maîtrise de décisions engageant durablement l’avenir de leur organisation.
Un autre danger, plus spectaculaire et tout aussi préoccupant, concerne les usages frauduleux de l’IA
Les services de sécurité rapportent des tentatives d’escroquerie reposant sur des technologies de synthèse vocale et visuelle. Dans un cas récent, le responsable d’un site industriel a reçu un appel en visioconférence semblant provenir de son dirigeant. Le visage, la voix et le comportement paraissaient crédibles. La demande urgente de transfert de fonds a toutefois éveillé des soupçons, permettant d’éviter une fraude financière. L’analyse a confirmé qu’il s’agissait d’un deepfake généré par intelligence artificielle. Ces scénarios illustrent une réalité désormais bien installée : l’IA n’est plus seulement un outil de performance, elle devient aussi un vecteur de vulnérabilités. Sans cadre clair, sans formation des équipes et sans contrôle des usages, elle peut exposer des secrets industriels, affaiblir la prise de décision et ouvrir la voie à des manipulations sophistiquées. Pour les entreprises françaises, l’enjeu n’est plus de savoir si l’IA doit être utilisée, mais comment l’intégrer sans mettre en péril leur sécurité, leur souveraineté et leur crédibilité.