الذكاء الاصطناعي في مجال الأعمال: عندما يقوض الابتكار الأسرار الصناعية الفرنسية
الذكاء الاصطناعي في مجال الأعمال: عندما يقوض الابتكار الأسرار الصناعية الفرنسية

أصبح الذكاء الاصطناعي أداةً أساسيةً في الشركات الفرنسية. فمن ترجمة الوثائق ودعم اتخاذ القرارات إلى أتمتة المهام المعقدة، تتزايد استخداماته، غالبًا على عجل ودون إطار عمل واضح. ولكن وراء هذه المكاسب الظاهرية في الإنتاجية، تبرز مشاكل حقيقية. إذ تُدق أجهزة الأمن الداخلي ناقوس الخطر الآن بشأن ممارسات تُعرّض البيانات والاستراتيجيات للخطر، بل وأحيانًا تُهدد بقاء المؤسسات نفسها. وفي تقرير حديث حول مخاطر التدخل الاقتصادي، وصفت المديرية العامة للأمن الداخلي (DGSI) عدة حالات واجهتها الشركات الفرنسية. وتشترك هذه الحالات في موضوع رئيسي: التبني السريع لأدوات الذكاء الاصطناعي، والتي غالبًا ما تكون مُصممة للاستخدام الشخصي، دون فهم حقيقي للعواقب المتوسطة والطويلة الأجل.

أحد المخاطر الأولى التي تم تحديدها يتعلق بمعالجة البيانات الحساسة 

في بعض الشركات، اعتاد الموظفون استخدام أدوات الذكاء الاصطناعي عبر الإنترنت لترجمة أو إعادة صياغة الوثائق المهنية. ونتيجةً لذلك، يتم نسخ العقود والمذكرات الداخلية والتقارير الفنية والمعلومات المالية وإرسالها إلى منصات خارجية دون موافقة مسبقة من الإدارة أو رقابة قانونية. هذه الممارسات، التي يُنظر إليها على أنها غير ضارة، أدت إلى كشف معلومات استراتيجية خارج الشركة دون قصد. وتتفاقم المشكلة بسبب طبيعة العديد من خدمات الذكاء الاصطناعي، التي تستغل المحتوى الذي يقدمه المستخدمون لتحسين نماذجها. قد تُخزَّن البيانات المرسلة على خوادم موجودة في الخارج، وتخضع لتشريعات غير أوروبية، تتعارض أحيانًا مع المتطلبات الفرنسية المتعلقة بالسرية وحماية الأسرار التجارية. وبمجرد نشر المعلومات، لا توجد إجراءات تصحيحية داخلية تُمكّن من استعادة السيطرة.

وبالإضافة إلى البيانات، تشير المديرية العامة للأمن السيبراني أيضاً إلى تزايد خطر الاعتماد على الآخرين في عملية صنع القرار.

في بعض المؤسسات سريعة النمو، استُخدمت أدوات الذكاء الاصطناعي لتقييم الشركاء التجاريين، وتحليل جدارتهم الائتمانية وسمعتهم والمخاطر القانونية المرتبطة بهم. ونظرًا لضيق الوقت والموارد، تم اتباع هذه التوصيات أحيانًا دون مراجعة بشرية دقيقة. واعتمدت القرارات الاستراتيجية حينها بشكل شبه كامل على التحليلات الآلية. هذا التفويض المفرط يُضعف حوكمة الشركات. تُنتج أنظمة الذكاء الاصطناعي نتائج مبنية على احتمالات إحصائية، قد تحتوي على تحيزات أو تقريبات أو أخطاء. وتبقى آليات عملها الداخلية غامضة إلى حد كبير، مما يُصعّب فهم الاستنتاجات التي تقترحها فهمًا كاملًا. وبدون تدقيق نقدي، قد تفقد الإدارة السيطرة على قرارات سيكون لها تأثير دائم على مستقبل مؤسستها.

ثمة خطر آخر، أكثر إثارة للدهشة ومقلق بنفس القدر، يتعلق بالاستخدامات الاحتيالية للذكاء الاصطناعي.

تُفيد أجهزة الأمن بمحاولات احتيال باستخدام تقنيات توليف الكلام والصورة. في إحدى الحالات الأخيرة، تلقى مدير موقع صناعي مكالمة فيديو بدت وكأنها من رئيسه. بدا الوجه والصوت والسلوك مقنعًا. مع ذلك، أثار طلب تحويل الأموال العاجل الشكوك، مما حال دون وقوع عملية احتيال مالي. أكد التحليل أنها عملية تزييف عميق مُولّدة بواسطة الذكاء الاصطناعي. تُجسّد هذه السيناريوهات حقيقة راسخة: لم يعد الذكاء الاصطناعي مجرد أداة لتحسين الأداء، بل أصبح مصدرًا للثغرات الأمنية. فبدون إطار عمل واضح، وتدريب للفرق، وضوابط على استخدامه، يُمكنه كشف الأسرار التجارية، وإضعاف عملية اتخاذ القرار، وتمهيد الطريق للتلاعب المُعقد. بالنسبة للشركات الفرنسية، لم يعد السؤال هو ما إذا كان ينبغي استخدام الذكاء الاصطناعي، بل كيفية دمجه دون المساس بأمنها وسيادتها ومصداقيتها.

شارك