مخاوف أمنية من استخدام داعش والقاعدة لأدوات الذكاء الاصطناعي
منشور على موقع إلكتروني موالٍ لداعش حث الأتباع على دمج الذكاء الاصطناعي في عملياتهم
حذر مختصون في الأمن القومي ووكالات الاستخبارات من أن الذكاء الاصطناعي قد يصبح أداة فعالة للجماعات المتطرفة لتجنيد أعضاء جدد، وإنشاء صور واقعية مفبركة، وصقل هجماتها الإلكترونية.
الشهر الماضي، دعا منشور على موقع إلكتروني موال لتنظيم داعش أنصار التنظيم إلى دمج الذكاء الاصطناعي في عملياتهم. وكتب المستخدم باللغة الإنجليزية: “من أفضل مزايا الذكاء الاصطناعي سهولة استخدامه”.
وأضاف المستخدم: “تخشى بعض وكالات الاستخبارات من مساهمة الذكاء الاصطناعي في عمليات التجنيد… فلنحول كابوسهم إلى حقيقة”.
يذكر أن تنظيم داعش، الذي سيطر على أراض في العراق وسوريا سابقا، ويشكل حاليا تحالفا لا مركزيا لجماعات مسلحة ذات أيديولوجية عنيفة، أدرك قبل سنوات أن وسائل التواصل الاجتماعي أداة فعالة للتجنيد ونشر المعلومات المضللة. لذلك، ليس من المستغرب أن تختبر الجماعة المسلحة تقنية الذكاء الاصطناعي، وفقا لخبراء الأمن القومي.
بالنسبة للجماعات المتطرفة غير المنظمة ذات الموارد المحدودة، يمكن استخدام الذكاء الاصطناعي لبث الدعاية الكاذبة أو مقاطع الفيديو المفبركة على نطاق واسع، ما يوسع نطاق وصولها وتأثيرها.
من جانبه، صرح جون لاليبيرت، الباحث السابق في الثغرات الأمنية بوكالة الأمن القومي والرئيس التنفيذي الحالي لشركة “كلير فيكتور” للأمن السيبراني: “بالنسبة لأي خصم، يسهل الذكاء الاصطناعي الأمور. فمن خلاله، يمكن حتى للجماعات الصغيرة ذات الموارد المحدودة إحداث تأثير”.
كيف تستخدم الجماعات المتطرفة الذكاء الاصطناعي؟
بدأت الجماعات المسلحة في استخدام الذكاء الاصطناعي فور توفر برامج مثل “تشات جي بي تي” على نطاق واسع. وفي السنوات اللاحقة، زاد استخدامها لبرامج الذكاء الاصطناعي التوليدية لإنشاء صور ومقاطع فيديو واقعية.
عند ربط هذا المحتوى الزائف بخوارزميات وسائل التواصل الاجتماعي، يمكنه استقطاب أفراد جدد، وتضليل الأعداء أو إخافتهم، ونشر دعاية على نطاق لم يكن متصوراً قبل سنوات قليلة.
وقال ماركوس فولر، العميل السابق في وكالة المخابرات المركزية الأميركية (سي آي إيه) والرئيس التنفيذي الحالي لـ”دارك تريس فيدرال”، وهي شركة للأمن السيبراني تعمل مع الحكومة الاتحادية، إن هذه الجماعات لا تزال متأخرة عن الصين وروسيا وإيران، وتعتبر الاستخدامات الأكثر تعقيدًا للذكاء الاصطناعي “طموحة”.
ومع ذلك، فإن المخاطر كبيرة جدا بحيث لا يمكن تجاهلها، ومن المرجح أن تتفاقم مع توسع استخدام الذكاء الاصطناعي الرخيص والفعال للغاية، حسبما ذكر فولر.
يستخدم قراصنة الإنترنت بالفعل الصوت والفيديو الاصطناعيين في حملات التصيد الاحتيالي، حيث يحاولون انتحال شخصية مسؤول رفيع في قطاع الأعمال أو الحكومة للوصول إلى الشبكات الحساسة. كما يمكنهم استخدام الذكاء الاصطناعي لكتابة رموز تشفير خبيثة أو أتمتة بعض جوانب الهجمات الإلكترونية.
الأمر الأكثر إثارة للقلق هو احتمال لجوء الجماعات المسلحة إلى الذكاء الاصطناعي للمساعدة في إنتاج أسلحة بيولوجية أو كيمياوية، لتعويض نقص الخبرة التقنية.
وأوضح فولر أن “تنظيم داعش اشترك في تويتر مبكرا، ووجد طرقا لاستخدام وسائل التواصل الاجتماعي لصالحه… إنهم يبحثون دائما عن الخطوة التالية لإضافة جديدة إلى ترسانتهم”.
مواجهة خطر متزايد
قدم المشرعون العديد من المقترحات، مؤكدين على الحاجة الملحة للتحرك.
وذكر السيناتور مارك وارنر من ولاية فرجينيا، وهو أحد أبرز الديمقراطيين في لجنة الاستخبارات بمجلس الشيوخ، أنه يجب على الولايات المتحدة، على سبيل المثال، تسهيل تبادل المعلومات بين مطوري الذكاء الاصطناعي حول كيفية استخدام منتجاتهم من قبل جهات خبيثة، سواء كانت متطرفين أو قراصنة إلكترونيين أو جواسيس أجانب.
علم أعضاء مجلس النواب، خلال جلسة استماع عقدت مؤخرا بشأن التهديدات المتطرفة، أن تنظيمي داعش والقاعدة نظما ورش عمل تدريبية لمساعدة أتباعهما على تعلم استخدام تقنية الذكاء الاصطناعي.
وينص تشريع أقره مجلس النواب الأميركي الشهر الماضي، على إلزام مسؤولي الأمن الداخلي بتقييم مخاطر الذكاء الاصطناعي التي تشكلها مثل هذه الجماعات سنويًا.