دبي: الذكاء الاصطناعي يسلّح المهاجمين.. و"صورة واحدة" تكفي لإنشاء تزييف عميق مثالي

أكبر التحولات إمكانية الوصول إلى أدوات الذكاء الاصطناعي التي تمكن المجرمين من شن هجمات دون أي خلفية تقنية تقريبًا
دبي: الذكاء الاصطناعي يسلّح المهاجمين.. و"صورة واحدة" تكفي لإنشاء تزييف عميق مثالي
تاريخ النشر

باتت صور "التزييف العميق" الآن حقيقية لدرجة "لا يمكنك تمييزها بينها وبين فيديو من مكالمة ."زووم"، حسبما أوضح خبير تقني مؤخراً على هامش "منتدى دبي للأعمال - النسخة الأمريكية".

هيمن التهديد المتزايد لتقنية "التزييف العميق" (Deepfakes) التي يمكن إنشاؤها في دقائق على المحادثات المتعلقة بسلامة الذكاء الاصطناعي خلال زيارة "غرفة دبي" لاستوديو ابتكار IBM في مدينة نيويورك.

يعتقد بن كولمان، الرئيس التنفيذي والمؤسس المشارك لشركة Reality Defender، التي تصنع أدوات لكشف الوسائط المولّدة بواسطة الذكاء الاصطناعي، أن دفع دبي لتصبح مركزاً عالمياً للتكنولوجيا يضع المدينة أيضاً في قلب محادثات مهمة حول الوسائط الاصطناعية — والمخاطر الحقيقية التي تجلبها للشركات، والحكومات، والأفراد العاديين.

وفي الشهر الماضي، أدان وزير الاقتصاد الإماراتي، عبد الله بن طوق المري، أيضاً سلسلة من مقاطع الفيديو المزيفة بعمق التي أظهرته زوراً وهو يروج لخطط استثمارية، واصفاً إياها بأنها ملفقة وخطيرة بالكامل. وفي كلمته في معرض جيتكس 2025 في دبي، حث الجمهور على الاعتماد فقط على القنوات الرسمية للحصول على معلومات دقيقة.

الجريمة السيبرانية لا تحتاج لمهارات علوم الكمبيوتر

مع تسريع دبي لاقتصادها الرقمي واستعدادها لتبني الذكاء الاصطناعي على نطاق واسع، كانت رسالة كولمان في مدينة نيويورك بمثابة تحذير ونداء للعمل.

أكد الخبير أن أحد أكبر التحولات في مخاطر الإنترنت اليوم هو "سهولة الوصول" إلى أدوات الذكاء الاصطناعي التي تُمكّن المجرمين من شن هجمات متطورة دون أي خلفية تقنية تقريباً.

قال كولمان: "لإنشاء هجوم ببرامج الفدية (Ransomware)، لا تحتاج إلى أن تكون خبيراً في علوم الكمبيوتر. الآن يمكن أن تكون أمي البالغة من العمر ثمانين عاماً أو ابني البالغ من العمر ثماني سنوات. ليسوا خبراء في الذكاء الاصطناعي أو علوم الكمبيوتر". وأضاف: "يمكنك الدخول عبر الإنترنت إلى مجموعة من المنصات المجانية في معظمها، وإنشاء احتيال أو مخاطر للآخرين. هذه الأدوات يمكن أن تتسبب في ضرر وجودي خطير".

وأوضح مدى سهولة فبركة مقاطع فيديو مقنعة ومزورة. وقال: "تشغيل مقطع فيديو يقول – أردت أن أقول إنني أحب Reality Defender وأقترح عليكم تبني تقنيتهم"، مشيراً إلى مدى سهولة تقليد أي شخصية عامة.

ما يزيد من خطورة الأمر، كما قال، هو قلة البيانات المطلوبة. في عالم يتواجد فيه الجميع عبر الإنترنت، يمكن لمقطع مدته ثوانٍ قليلة أن يسبب ضرراً حقيقياً.

وقال: "لذلك، المثير والمخيف أيضاً هو أنه اليوم، لإنشاء فيديو مزيف مثالي (Deepfake)، كل ما تحتاجه هو صورة واحدة موجهة للكاميرا".

"الذكاء الاصطناعي لن يتمكن أبداً من تقليد ما تعرفه"

قبل عام، كان الكثيرون لا يزالون قادرين على اكتشاف التناقضات. لكن كولمان قال إن التكنولوجيا تجاوزت الآن ما يمكن لمعظم الناس اكتشافه. وقال: "قبل عام، كان بإمكانك تمييز الفرق، لكن التكنولوجيا حالياً جيدة وحقيقية لدرجة أنه في دراساتنا الخاصة، تبدو صورة الزيف العميق أكثر واقعية من لقطة شاشة مأخوذة من Zoom... مما يعني أن Zoom يبدو مزيفاً وصورة الزيف العميق تبدو حقيقية. في تقنية Deepfake، يمكن لأي شخص أن يكون أي شخص... سهل جداً، وخطير جداً. لذا، المبدأ الآن هو: لا تثق أبداً وقم دائماً بالتحقق".

ولهذا السبب، قد يصبح المصادقة الشخصية — والأسئلة البشرية البسيطة — ضمانات حاسمة. قال: "سيتمكن الذكاء الاصطناعي من تقليدك، لكنه لن يتمكن أبداً من تقليد ما تعرفه. إذا كان الأمر يتعلق بعائلتي وأطفالي، سأطرح أسئلة مثل: 'ماذا تناولت على العشاء الليلة الماضية؟'".

بينما يعتمد بعض المشاهير بالفعل الذكاء الاصطناعي القائم على الإذن لتوسيع وجودهم، حذر من أن نفس التكنولوجيا يمكن أن تُستخدم كسلاح. قال: "في الطرق الجيدة، يستخدم ممثلون مثل ويل سميث وغيره الذكاء الاصطناعي القائم على الإذن لنشر أنفسهم في الإعلانات التجارية. هذه حالة استخدام جيدة. التحديات؟... يمكنك أيضاً استخدام ويل سميث وجعله يقول أو يفعل أي شيء على الإطلاق".

ولإظهار التهديد لجمهور دبي، كشف كولمان أن الفيديو الذي يتم عرضه على المسرح كان أيضاً ملفقاً. وقال: "مرحباً بوفد غرفة دبي. تشكل مقاطع الفيديو المزيفة والمعالجة بالذكاء الاصطناعي تهديدات خطيرة للأفراد والمنظمات والحكومات بسبب سهولة قيام المهاجمين بإنشاء تجسيد واقعي ومزيف للشخصيات وقراءة ملفاتكم.1 هذا... هذا الفيديو (مشيراً إلى الفيديو) هو صورة زيف عميق لي".

ثم شرح "خطة اللعب" التي يستخدمها المهاجمون. قال: "نحن جميعاً متصلون بالإنترنت، لذا الأمر يتعلق ببضعة عمليات بحث في جوجل، والتحقق من وسائل التواصل الاجتماعي الخاصة بك، وLinkedIn، وجمع المعلومات... عادةً ما يكون وجهاً، وبضع ثوانٍ من الصوت، وإذا لم يكن لديك الصوت... فهناك المئات من المنصات للتبرع الصوتي في الوقت الفعلي، وما عليك سوى اختيار مقطع صوتي يبدو مشابهاً بشكل معقول". يمكن نسخ كل شيء — من النبرة إلى اللهجة.

مقاطع "الزيف العميق" يمكن إنشاؤها في دقائق

وأوضح كولمان أن المهاجمين يقررون بعد ذلك هدفهم. "ما الذي تحاول تحقيقه؟ هل تحاول الإضرار بسمعة شخص ما؟ هل تحاول الحصول على أحدث إعلانات لشركة ما؟ ربما خطاب لزعيم بلد في الأمم المتحدة. كيف تجعله مواكباً للمستجدات أو ينتشر بسرعة وتخلق إحساساً بالارتباط؟ ثم تقوم بإنشاء صورة الزيف العميق التي تستغرق ثوانٍ، ثم تقوم بنشرها. يمكن القيام بهذه العملية برمتها في دقائق، وهذا هو الأمر المخيف".

وقال إن الأزمة الحقيقية هي أنه حتى الخبراء لا يمكنهم بشكل موثوق التمييز بين ما هو حقيقي وما هو ملفق. قال: "فلماذا تمثل صور الزيف العميق مشكلة؟ لأن الأفراد، ووكالات إنفاذ القانون، والشركات لا يمكنهم التمييز بين الوسائط الأصلية والزيف العميق". وأضاف: "يمكن لكل شيء أن يدّعي أنه اسمي، صوتي، وجهي، جهازي، اتصالي، عنوان IP الخاص بي... يمكن أن يقول نعم — ولكنه ذكاء اصطناعي. مع الزيف العميق، لن تكون أبداً نسبة 100 في المئة. ستكون 99 في المئة".

هذا يخلق أرضاً خصبة لهجمات الهندسة الاجتماعية المقنعة للغاية. وقال: "بقدر مناسب من الثقة والسلطة المتصورة، غالباً ما يثق الموظفون المبتدئون في شخصية عليا. إذا بدت المكالمة قادمة من رئيس تنفيذي أو مدير مالي وبدت معقولة، فلن تقول، 'يا أيها المدير التنفيذي، أثبت أنه أنت حقاً — أعطني رمز التحقق الثنائي قبل تسجيل الدخول إلى بريدك الإلكتروني.' لا أحد يفعل ذلك".

ابقَ على اطلاع بآخر الأخبار. تابع KT على قنوات واتساب.

التكنولوجيا التي تكشف صور الزيف العميق

حذر كولمان من أن قدرات أكثر تقدماً وشيكة. "ستصبح صور الزيف العميق أسهل وأرخص (في المستقبل). في الوقت الحالي، معظم صور الزيف العميق تستخدم الصوت في الوقت الفعلي. ليس الفيديو في الوقت الفعلي، ليس لأن التكنولوجيا غير متوفرة، ولكنها لا تزال باهظة الثمن جداً لجعلها مجانية". وقال: "في غضون ستة أشهر، سيصبح فيديو الزيف العميق في الوقت الفعلي رخيصاً ومجانياً مثل الصوت في الوقت الفعلي".

وأضاف أن شركة Reality Defender طورت أدوات لمواكبة هذا التطور السريع. وقال: "يمكننا اكتشاف الصوت والفيديو والصور والنصوص في الوقت الفعلي. قد لا تعرف ما إذا كان بن يقول شيئاً صادقاً أم كاذباً. لكننا نعرف ما إذا كان اسمك أو وجهك أو صوتك ذكاءً اصطناعياً أم لا. ويمكنها الآن أيضاً فهم اللهجات (العربية) المختلفة — الإماراتية، السعودية، والمصرية".

موصى به

No stories found.
Khaleej Times - Arabic Edition
www.khaleejtimes.com