Штучний інтелект став важливим інструментом у французькому бізнесі. Від перекладу документів та підтримки рішень до автоматизації складних завдань, його використання множиться, часто поспіхом та без чіткої структури. Але за цим очевидним зростанням продуктивності виникають цілком реальні проблеми. Служби внутрішньої безпеки зараз б'ють тривогу щодо практик, які безпосередньо розкривають дані, стратегію, а іноді навіть саме виживання організацій. У нещодавньому звіті про ризики економічного втручання DGSI (Генеральний директорат внутрішньої безпеки) описує кілька ситуацій, з якими стикаються французькі компанії. Вони мають одну спільну центральну тему: швидке впровадження інструментів штучного інтелекту, часто споживчого рівня, без реального розуміння середньострокових та довгострокових наслідків.
Один з перших виявлених ризиків стосується обробки конфіденційних даних
У деяких компаніях працівники виробили звичку використовувати онлайн-інструменти штучного інтелекту для перекладу або перефразування професійних документів. Таким чином, контракти, внутрішні службові записки, технічні звіти та фінансова інформація копіювалися та передавались на зовнішні платформи без попереднього схвалення керівництва чи юридичного нагляду. Ці практики, які сприймалися як нешкідливі, призвели до ненавмисного розкриття стратегічної інформації за межами компанії. Проблема посилюється самою природою багатьох сервісів штучного інтелекту, які використовують наданий користувачами контент для покращення своїх моделей. Передані дані можуть зберігатися на серверах, розташованих за кордоном, відповідно до неєвропейського законодавства, яке іноді несумісне з французькими вимогами щодо конфіденційності та захисту комерційної таємниці. Після поширення інформації жодні внутрішні коригувальні дії не дозволяють відновити контроль над нею.
Окрім даних, DGSI також вказує на зростаючий ризик залежності від прийняття рішень
У деяких швидкозростаючих організаціях інструменти штучного інтелекту використовувалися для оцінки ділових партнерів, аналізу їхньої кредитоспроможності, репутації та пов'язаних з ними юридичних ризиків. Через обмеження часу та ресурсів ці рекомендації іноді виконувалися без ретельної перевірки людиною. Стратегічні рішення тоді майже виключно спиралися на автоматизований аналіз. Таке надмірне делегування послаблює корпоративне управління. Системи штучного інтелекту дають результати на основі статистичних ймовірностей, які можуть містити упередження, наближення або помилки. Їхня внутрішня робота залишається значною мірою непрозорою, що ускладнює повне розуміння висновків, які вони пропонують. Без критичного контролю керівництво може втратити контроль над рішеннями, які матимуть тривалий вплив на майбутнє їхньої організації.
Ще одна небезпека, більш вражаюча та не менш тривожна, стосується шахрайського використання штучного інтелекту.
Служби безпеки повідомляють про спроби шахрайства з використанням технологій синтезу мовлення та зображень. У нещодавньому випадку менеджер промислового об'єкта отримав відеодзвінок, ймовірно, від свого начальника. Обличчя, голос та поведінка виглядали правдоподібними. Однак терміновий запит на переказ коштів викликав підозри, що запобігло фінансовому шахрайству. Аналіз підтвердив, що це був діпфейк, створений штучним інтелектом. Ці сценарії ілюструють усталену реальність: ШІ вже не просто інструмент підвищення продуктивності; він також стає джерелом вразливостей. Без чіткої структури, без навчання команд та без контролю за його використанням він може розкрити комерційну таємницю, послабити процес прийняття рішень та прокласти шлях для складних маніпуляцій. Для французьких компаній питання вже не в тому, чи використовувати ШІ, а в тому, як інтегрувати його, не ставлячи під загрозу свою безпеку, суверенітет та довіру.