Künstliche Intelligenz (KI) ist in französischen Unternehmen zu einem unverzichtbaren Werkzeug geworden. Von der Dokumentenübersetzung und Entscheidungsunterstützung bis hin zur Automatisierung komplexer Aufgaben – ihre Einsatzmöglichkeiten nehmen rasant zu, oft überhastet und ohne klaren Rahmen. Doch hinter diesen scheinbaren Produktivitätsgewinnen verbergen sich gravierende Probleme. Die Sicherheitsbehörden warnen eindringlich vor Praktiken, die Daten, Strategien und mitunter sogar die Existenz von Organisationen gefährden. In einem aktuellen Bericht über die Risiken wirtschaftlicher Einflussnahme beschreibt die DGSI (Generaldirektion für Innere Sicherheit) verschiedene Situationen, die französische Unternehmen erlebt haben. Sie alle weisen ein gemeinsames Merkmal auf: die rasche Einführung von KI-Tools, oft für Endverbraucher, ohne die mittel- und langfristigen Folgen ausreichend zu verstehen.
Eines der ersten identifizierten Risiken betrifft den Umgang mit sensiblen Daten.
In einigen Unternehmen hat sich bei Mitarbeitern die Gewohnheit eingebürgert, Online-Tools mit künstlicher Intelligenz (KI) zur Übersetzung oder Umformulierung von Fachdokumenten zu nutzen. Verträge, interne Vermerke, technische Berichte und Finanzinformationen wurden so kopiert und ohne vorherige Genehmigung durch die Geschäftsleitung oder die Rechtsabteilung an externe Plattformen weitergeleitet. Diese als harmlos wahrgenommenen Praktiken haben dazu geführt, dass strategische Informationen unbeabsichtigt außerhalb des Unternehmens gelangten. Verschärft wird das Problem durch die Funktionsweise vieler KI-Dienste, die nutzergenerierte Inhalte zur Verbesserung ihrer Modelle verwenden. Die übertragenen Daten können auf Servern im Ausland gespeichert werden und unterliegen damit außereuropäischer Gesetzgebung, die mitunter nicht mit den französischen Anforderungen an Vertraulichkeit und den Schutz von Geschäftsgeheimnissen vereinbar ist. Sobald die Informationen verbreitet sind, lässt sich die Kontrolle darüber durch interne Korrekturmaßnahmen nicht mehr vollständig zurückgewinnen.
Über die Daten hinaus weist der DGSI auch auf ein wachsendes Risiko der Entscheidungsabhängigkeit hin.
In einigen schnell wachsenden Organisationen wurden KI-Tools eingesetzt, um Geschäftspartner zu bewerten und deren Kreditwürdigkeit, Reputation und damit verbundene rechtliche Risiken zu analysieren. Aufgrund von Zeit- und Ressourcenmangel wurden diese Empfehlungen mitunter ohne gründliche menschliche Überprüfung umgesetzt. Strategische Entscheidungen basierten dann fast ausschließlich auf automatisierten Analysen. Diese übermäßige Delegation schwächt die Corporate Governance. KI-Systeme liefern Ergebnisse auf Basis statistischer Wahrscheinlichkeiten, die Verzerrungen, Näherungen oder Fehler enthalten können. Ihre Funktionsweise bleibt weitgehend intransparent, was es schwierig macht, die von ihnen vorgeschlagenen Schlussfolgerungen vollständig zu verstehen. Ohne kritische Prüfung kann das Management die Kontrolle über Entscheidungen verlieren, die nachhaltige Auswirkungen auf die Zukunft der Organisation haben werden.
Eine weitere, spektakulärere und ebenso besorgniserregende Gefahr betrifft den betrügerischen Einsatz von KI.
Sicherheitsdienste berichten von Betrugsversuchen mithilfe von Sprach- und Bildsynthesetechnologien. In einem aktuellen Fall erhielt der Leiter eines Industriestandorts einen Videoanruf, der scheinbar von seinem Vorgesetzten stammte. Gesicht, Stimme und Verhalten wirkten glaubwürdig. Die dringende Aufforderung zu einer Geldüberweisung weckte jedoch Misstrauen und verhinderte so einen Finanzbetrug. Analysen bestätigten, dass es sich um einen Deepfake handelte, der von künstlicher Intelligenz generiert wurde. Diese Szenarien verdeutlichen eine mittlerweile etablierte Realität: KI ist nicht länger nur ein Leistungssteigerungsinstrument, sondern entwickelt sich auch zu einer Quelle von Sicherheitslücken. Ohne einen klaren Rahmen, ohne Schulungen für Teams und ohne Kontrollen ihrer Nutzung kann sie Geschäftsgeheimnisse offenlegen, die Entscheidungsfindung schwächen und den Weg für raffinierte Manipulationen ebnen. Für französische Unternehmen stellt sich daher nicht mehr die Frage, ob sie KI einsetzen sollen, sondern wie sie diese integrieren können, ohne ihre Sicherheit, Souveränität und Glaubwürdigkeit zu gefährden.