يقول المحللون أنه في مشهد الأعمال المتطور، يتم استخدام الذكاء الاصطناعي على نطاق واسع، لكن الشركات لا تزال تجهل التحديات المرتبطة به.
في الوقت الحالي، برز مصطلح "تسميم بيانات أو نماذج الذكاء الاصطناعي" كتحدٍ بالغ الأهمية، والذي يحدث عندما تقوم جهات خبيثة بالتلاعب عمداً ببيانات تدريب نموذج الذكاء الاصطناعي أو التعلم الآلي، مما يعرض موثوقيته للخطر.
في أغلب الأحيان، يستغل هذا الهجوم حلول الذكاء الاصطناعي التنبؤية أو المحدودة (أنظمة الذكاء الاصطناعي المُركزة على المهام) ضمن دورة تسمى "MLOps" (أو نشر نماذج التعلم الآلي). في حلول الذكاء الاصطناعي التوليدية، يظهر هذا الخلل فيما يسمى "RAG" (أي الإجابات باستخدام المعرفة المُسترجعة) والرسوم البيانية المعرفية (البيانات المُترابطة للفهم) وليس على مستوى النموذج. الأمر الأكثر إثارة للقلق هو التأثير على الذكاء الاصطناعي الوكيل، حيث لا يُفسد خلل الذكاء الاصطناعي المُخرجات فحسب، بل يؤثر أيضاً على الإجراءات الذاتية.
على سبيل المثال، لنفترض أن شركة نفط وغاز تستخدم الذكاء الاصطناعي بهدف الصيانة التنبؤية. في هذه الحالة، إذا قام مُخادعٌ بإدخال قراءات مُتلاعب بها لأجهزة الاستشعار في بيانات التدريب، فقد يفشل الذكاء الاصطناعي في تحديد علامات التحذير الحقيقية، أو حتى يُشير خطأً إلى وجود معدات سليمة. وقد يؤدي هذا إلى توقفات مفاجئة، وإصلاحات مكلفة، ومخاطر محتملة على السلامة.
وبالمثل، في القطاع المالي، قد تدفع بيانات الأسهم الفاسدة في مخطط المعرفة الخاص بوكيل الاستثمار البنكي للذكاء الاصطناعي التابع للوكيل إلى اتخاذ قرارات استثمارية خاطئة، مما يؤدي إلى خسائر فادحة للعملاء. وفي مقابلة مع صحيفة "خليج تايمز"، صرّح "بريمشاند كوروب"، الرئيس التنفيذي لشركة "باراماونت"، قائلاً: "إنّ خلل الذكاء الاصطناعي يُقوّض موثوقية القرارات المُعتمدة عليه، مما يجعل الشركات عُرضة لانقطاعات تشغيلية وخسائر مالية. وهذا يُبرز أهمية حماية سلامة البيانات لضمان استمرار التشغيل الآمن والفعّال للأصول".
يُشكل تسميم البيانات تهديداً خطيراً للمؤسسات، لا سيما في القطاعات الحساسة مثل المالية والأمن السيبراني. على سبيل المثال، عندما يُفسد المهاجمون بيانات التدريب في نظام كشف الاحتيال المُعزز بالذكاء الاصطناعي في أحد البنوك، فقد يفشل النظام في تحديد الاحتيال الحقيقي، مما يُسبب خسائر مالية فادحة. وكذلك في مجال الأمن السيبراني، قد يُخطئ نظام كشف البرامج الضارة المُسرب في تصنيف التهديدات على أنها آمنة، مما يجعل الأنظمة عُرضة للهجوم. وقد تتجاوز العواقب الخسائر المباشرة، إذ يُمكن أن يُؤدي تسريب البيانات إلى تلاشي ثقة العملاء والإضرار بالسمعة. وصرح "كوروب" قائلاً: "يتطلب الكشف عن هذه الهجمات المُعقدة إطار عمل قوي للأمن السيبراني قائم على الذكاء الاصطناعي وآليات حماية. وقد يُؤدي نقص كفاءة هذه الموارد إلى انخفاض ثقة المؤسسات في مبادرات الذكاء الاصطناعي".
وأضاف "كوروب": "مع تسارع تكامل الذكاء الاصطناعي، تحتاج الشركات إلى اعتماد إطار عمل شامل للذكاء الاصطناعي للأمن السيبراني لضمان تطبيق التكنولوجيا بأمان ومسؤولية. إن المكون الأول لهذا الإطار هو حوكمة الذكاء الاصطناعي، التي تضع إرشادات واضحة للاستخدام المسؤول للذكاء الاصطناعي، مع معالجة مخاوف خصوصية البيانات والمسؤوليات القانونية، مع تعزيز الإنتاجية. ثانياً، تأمين أنظمة الذكاء الاصطناعي لحماية نماذجه من التهديدات الخارجية من خلال نهج شامل لدورة حياة الذكاء الاصطناعي، بدءاً من جمع البيانات وحتى النشر والاستخدام. وهذا يضمن سلامة الذكاء الاصطناعي ومرونته من خلال الحد من مخاطر استغلال النظام".
أما العامل الثالث فهو استخدام الذكاء الاصطناعي في الأمن السيبراني. على سبيل المثال، دمج الذكاء الاصطناعي في مراكز عمليات الأمن لتعزيز قدرات الكشف عن التهديدات والاستجابة لها. وبالمثل، استخدام الذكاء الاصطناعي الوكيل في إدارة الهوية والوصول لإدارة وصول المستخدمين والتخفيف الاستباقي للمخاطر. وأخيراً، أمن البيانات والتكامل لحماية البيانات أثناء انتقالها بين الأنظمة المختلفة من خلال منع الوصول غير المصرح به. وصرح "كوروب" قائلاً: "في "باراماونت"، نلتزم بتوفير إطار عمل فعال في مجالات الأمن السيبراني الرئيسية، مثل أمن الشبكات، وإدارة الهوية والوصول، والأمن السحابي، وأمن البيانات، والذكاء الاصطناعي في الأمن السيبراني، وإطار اعتماد الذكاء الاصطناعي".
في حين لم تُسجل أي حوادث تسمم محددة بالذكاء الاصطناعي في منطقة دول مجلس التعاون الخليجي، إلا أن التحولات التكنولوجية المتسارعة تُشير إلى تنامي الوعي بالأمن السيبراني. وقد تطورت المنطقة من اتباع التوجهات العالمية إلى تبنٍ مبكّر واستباقي لتقنيات الذكاء الاصطناعي.
من المتوقع أن يُسهم الذكاء الاصطناعي التوليدي وحده بما يتراوح بين 21 و35 مليار دولار سنوياً في اقتصادات دول مجلس التعاون الخليجي، بالإضافة إلى 150 مليار دولار من تقنيات الذكاء الاصطناعي الأخرى. ويمثل هذا ما بين 1.7% و2.8% من الناتج المحلي الإجمالي السنوي غير النفطي الحالي لدول مجلس التعاون الخليجي. ويشير استطلاع حديث أجرته شركة "ماكينزي" إلى أن ما يقرب من ثلاثة أرباع المشاركين أفادوا بأن مؤسساتهم تستخدم الذكاء الاصطناعي التوليدي في وظيفة أعمال واحدة على الأقل، حيث يستثمر أكثر من نصف المشاركين في دول مجلس التعاون الخليجي ما لا يقل عن 5% من ميزانياتهم الرقمية في الذكاء الاصطناعي التوليدي، وهي نسبة أعلى من المتوسط العالمي البالغ 33%. ورغم التبني اللافت للنظر، إلا أن التقارير المتعلقة بتهديدات الذكاء الاصطناعي غير متاحة على نطاق واسع، نظراً لمرحلة التبني المبكرة والمخاوف المحتملة بشأن الإضرار بالسمعة.
ومع ذلك، فإن مكانة منطقة مجلس التعاون الخليجي كقوة اقتصادية عالمية، إلى جانب المخاوف الجيوسياسية السائدة، تستدعي اليقظة. حيث صرح "كوروب" قائلاً: "مع تعرض شركات التكنولوجيا العالمية الرائدة، بما في ذلك "آبل" و"أمازون"، لهجمات الذكاء الاصطناعي، يجب على المنطقة سنُّ تدابير أمنية صارمة لحماية أنظمة الذكاء الاصطناعي ومساهماتها الاقتصادية الكبيرة".
يؤثر خلل الذكاء الاصطناعي على أكثر من مجرد الوضع المالي، إذ قد يُعرّض سمعة الشركة التجارية للخطر، بدرجات متفاوتة من الشدة في مختلف القطاعات. على سبيل المثال، في شركة نفط وغاز، قد يؤدي فشل نظام الصيانة التنبؤية المُعطّل في اكتشاف أعطال المعدات إلى عمليات إغلاق وإصلاحات مكلفة. وفي قطاع الطاقة، قد تُكلّف الأعطال حوالي 2.48 مليون دولار أمريكي في الساعة. وتواجه شركات "فورتشن جلوبال 500" متوسط تكلفة سنوية غير مُخطط لها للتعطل يبلغ حوالي 129 مليون دولار أمريكي لكل منشأة.
وقال "كوروب" أنه رغم صعوبة تحديد الخسائر المالية بدقة نظراً لتطور الذكاء الاصطناعي، إلا أن احتمالية حدوث أضرار اقتصادية جسيمة لا يمكن إنكارها. ومع تزايد اندماج الذكاء الاصطناعي في البنية التحتية الحيوية وعمليات الأعمال، من المتوقع أن تتفاقم الآثار المالية لهجمات التسمم الناجحة بالذكاء الاصطناعي.