في خطوة تعزز مكانة دولة الإمارات كمركز عالمي للابتكار والأمن السيبراني، أعلن معهد سانز للأمن السيبراني عن الإطلاق الرسمي لخارطة طريق "Own AI Securely". يمثل هذا النموذج المنهجي الرائد إطار عمل حيويًا لمساعدة المؤسسات على دمج تقنيات الذكاء الاصطناعي بطريقة آمنة ومسؤولة، في وقت تواجه فيه الشركات تحديات متزايدة تتعلق بالسلامة والامتثال والسيطرة التشغيلية.
تأتي هذه الخارطة لتسد فجوة ملحة، حيث تتسارع وتيرة تطور أنظمة الذكاء الاصطناعي بشكل يفوق قدرة الأدلة التشغيلية التقليدية على المواكبة. وفي ظل الحاجة المتنامية إلى مهارات متقدمة وإرشادات موثوقة تركز على النتائج، يقدم نموذج سانز هيكلًا يربط بين الأمن والعمليات والامتثال في مسيرة التحول نحو الذكاء الاصطناعي المؤسسي.
لطالما وضعت دولة الإمارات الذكاء الاصطناعي في صميم استراتيجيتها للتحول في مجالات الحوكمة، والنمو، وجودة الحياة، وتنويع الاقتصاد. وتستند الاستراتيجية الوطنية للذكاء الاصطناعي 2031 إلى دمج هذه التقنية كمحرك رئيسي للازدهار المستقبلي، من خلال إيجاد مسارات جديدة للنمو وزيادة الكفاءة وتعزيز الاستدامة طويلة الأمد.
وتشير تقديرات شركة "برايس ووترهاوس كوبرز" إلى أن الإنفاق العالمي على الذكاء الاصطناعي سيتجاوز 300 مليار دولار أمريكي بحلول عام 2026، ومن المتوقع أن يساهم الذكاء الاصطناعي بما يصل إلى 13.6% من الناتج المحلي الإجمالي لدولة الإمارات بحلول عام 2030، مما يؤكد أهمية هذه الخطوة في تعزيز البنية التحتية الأمنية للذكاء الاصطناعي على الصعيد الوطني.
قال روب تي. لي، الرئيس التنفيذي للأبحاث والذكاء الاصطناعي في معهد سانز: "مع التغير السريع في الأدوار المرتبطة بالذكاء الاصطناعي وظهور مخاطر جديدة باستمرار، تحتاج المؤسسات إلى مواكبة هذا الإيقاع المتسارع والاستجابة بحزم. توفر خارطة الطريق هيكلاً واضحاً لبيئة تفتقر إلى التوجه الواضح، حيث قامت على الخبرات العملية الميدانية لمساعدة قادة الأمن على اتخاذ القرارات المدروسة".
تتكون الخارطة من ثلاثة مسارات رئيسية مصممة لتلبية احتياجات مختلف الوظائف المؤسسية، وترتبط بـ 14 برنامجًا تدريبيًا وشهادات "GIAC" لتطوير كوادر متخصصة:
حماية الذكاء الاصطناعي (Protect AI): يركز على تمكين فرق الأمن والهندسة لحماية أنظمة الذكاء الاصطناعي من الهجمات القائمة على التوجيه وتسرب البيانات، مما يضمن أن تظل هذه الأنظمة آمنة وموثوقة.
توظيف الذكاء الاصطناعي (Utilize AI): يشجع المدافعين السيبرانيين على توظيف الذكاء الاصطناعي داخل مراكز العمليات الأمنية لتعزيز عمليات الاكتشاف، والفرز، والاستجابة، لمواكبة الخصوم الذين يعملون بسرعة الآلة.
حوكمة الذكاء الاصطناعي (Govern AI): يوجه المديرين وأعضاء مجالس الإدارة لقيادة التحول بمسؤولية، من خلال الرقابة الواضحة وتطبيق إطار عمل للامتثال، مما يضمن بقاء المؤسسات متوافقة مع التشريعات وتطبيق سياسات فعالة.
وأكد لي أن "الخارطة تستند إلى ما يحدث بالفعل داخل المؤسسات. فالقادة لا يبحثون عن عناوين عامة، بل عن وسيلة عملية للتحرك الفعال. وهنا يأتي دور نموذج سانز الذي يوفر الهيكلية بدلاً من التشويش، والتوافق بدلاً من التشتت".
يمكن الاطلاع على خارطة أمن الذكاء الاصطناعي "Own AI Securely with SANS" وإطار المسارات المهنية والدليل التدريبي الكامل عبر الموقع الإلكتروني: sans.org/ai.