لطالما كانت المعلومات المضلِّلة والدعاية الكاذبة أداتين فعالتين في النزاعات البشرية عبر التاريخ، بحيث استُخدمت لإضعاف الخصم، والتأثير في معنوياته، وزعزعة تماسكه. إلا أن التطور التقني، وخصوصاً الذكاء الاصطناعي التوليدي، جعل عملية تزييف المعلومات أكثر سهولة وانتشاراً، الأمر الذي زاد في قدرتها على التأثير والتلاعب بالرأي العام بطرائق غير مسبوقة.
من خلال “تقرير المخاطر العالمية 2024″، لفت المنتدى الاقتصادي العالمي الانتباه إلى تصدُّر المعلومات المغلوطة، والمعلومات المضللة، قائمة أبرز التهديدات التي سيواجهها العالم خلال عامي 2024 و2025، الأمر الذي يستدعي السؤال بشأن مدى الجهود المبذولة في مكافحتها.
التزييف العميق وخطر التلاعب بالحقيقة
هناك بالفعل عدد من المحاولات في هذا الإطار نجح البعض منها، وما زال البعض الآخر قيد الاختبار. يبدو هذا الأمر شديد الشبه بما يجري على صعيد تطوير الأسلحة التقليدية والمنافسة بين الدول على الريادة العسكرية، ففي حين يعمل جيش دولة ما على تطوير أسرع صاروخ على الإطلاق بهدف تخطي أفضل الدفاعات الجوية، يعمل الطرف المقابل على محاولة تطوير سلاح دفاعي بوجه التقدم الجديد. القصد هنا أن الأطراف تعمل على إيجاد وسائل لمكافحة التزييف العميق واكتشافه، لكن أيضاً جهود تطوير قدرة الذكاء الاصطناعي وتحسينه من أجل القيام بعملية تزييف يصعب تمييزها عن الحقيقة، تجري أيضاً بوتيرة سريعة.
مع تصاعد تهديدات التزييف العميق، برزت مبادرات دولية لمواجهته، بحيث تعهّدت شركات تقنية كبرى، مثل Amazon، Google، Meta، Microsoft، ByteDance، وOpenAI، خلال مؤتمر ميونيخ للأمن (شباط/فبراير 2024)، مكافحة المحتوى المضلل الذي يستهدف التأثير في الناخبين.
وفي إطار الحلول التقنية، طوّرت Intel أداة FakeCatcher، التي تعتمد على تحليل تدفّق الدم في الوجوه ضمن مقاطع الفيديو لاكتشاف التلاعب، وفق ما نشرته مجلة Fast Company (آذار/مارس 2023). كذلك، أطلقت OpenAI أداة Deepfake Detector (آذار/مارس 2024)، لكنها تقتصر على كشف المحتوى المولّد عبر نموذجها DALL-E، الأمر الذي يعكس تعقيد تطوير حلول شاملة لمكافحة التزييف العميق.
الجيش الأميركي يخطّط استخدامَ تقنية التزييف العميق
تزدهر تقنيات التزييف العميق خلال فترات الانتخابات والحروب، والولايات المتحدة الأميركية لا تشذّ عن ذلك. مع احتدام السباق الرئاسي الأميركي العام الماضي، نبّه مدير مكتب التحقيقات الفيدرالي، كريستوفر راي، قبل موعد الانتخابات بأشهر من التهديد المتزايد، قائلاً إن الذكاء الاصطناعي التوليدي يجعل من السهل على “الخصوم الأجانب الانخراط في نفوذ خبيث”.
ووفقاً لاستطلاع رأي أجرته مجموعة “أكسيوس” الإعلامية، بالتعاون مع شركة “مورنينغ كونسالت” للمعلومات التجارية في عام 2023، توقع أكثر من 50% من الأميركيين أن يكون للمعلومات المفبركة، التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، تأثير مباشر في نتائج انتخابات عام 2024.
كما أظهر استطلاع رأي، أجرته مؤسسة “بيو” قبل الانتخابات، أن 39% من الجمهور يرى أن الذكاء الاصطناعي سيُستخدم على الأغلب لأغراض سيئة خلال الحملة الرئاسية.
في مثال على الاستخدامات العسكرية المتقدمة لتقنية التزييف العميق، أشار تقرير نُشِر في موقع One Defense في نيسان/ أبريل 2024 إلى أن الجيش الأميركي طوّر برنامجاً يُعرف باسم “Ghost Machine”، مصمماً لمحاكاة أصوات المسؤولين العسكريين في صفوف الخصم.
يعتمد هذا النظام على اختراق الاتصالات أو الاستفادة من البيانات المتاحة عبر المصادر المفتوحة، ليتمكن من الإنتاج والبث لرسائل صوتية مزيفة تهدف إلى خداع القوات المعادية، واستدراجها إلى كمائن، أو إضعاف روحها المعنوية، الأمر الذي يسلّط الضوء على أبعاد جديدة للحرب النفسية في العصر الرقمي.
في آذار/مارس 2023، كشف تقرير نشره موقع The Intercept الأميركي أن قيادة العمليات الخاصة في الجيش الأميركي (SOCOM) تخطط استخدامَ تقنية التزييف العميق (Deepfake) في حملات الدعاية والخداع الرقميَّين عبر الإنترنت، على رغم التحذيرات السابقة من أن هذه التقنية قد تهدد استقرار المجتمعات الديمقراطية.
ووفقاً للتقرير، أظهرت وثائق التعاقد الفدرالية، التي راجعها الموقع، أن SOCOM تعمل على تطوير أدوات تتيح لها تنفيذ عمليات تضليل رقمي باستخدام مقاطع فيديو مزيفة. وجاء ذلك ضمن وثيقة مشتريات عسكرية تسرد القدرات التي تطمح القيادة إلى تطويرها في المستقبل القريب، الأمر الذي يشير إلى نية الجيش الأميركي استغلال الذكاء الاصطناعي في الحرب المعلوماتية.
وأشار التقرير إلى أن الدعاية العسكرية تُستخدم منذ فجر الحروب، لكن ما يميز تقنية التزييف العميق هو طبيعتها المتطورة، التي تجعل من الصعب تمييز المعلومات الحقيقية من المفبركة، الأمر الذي قد يعزز فعّالية التضليل، ويشكل تهديداً حضارياً غير مسبوق.
ومع ذلك، فإن استخدامها في خضم المفاصل الحساسة والظروف الدقيقة، التي يتسم بها واقع الشرق الأوسط ما بعد “طوفان الأقصى”، يحتّم التصدي لمخاطرها قبل وقوعها، والتنبيه لما يمكن أن تحمله من تهديدات، وخصوصاً إذا ما ترافقت مع حملة إغراق باتت البرامح القائمة على الذكاء الاصطناعي قادرة على إدارتها ذاتياً، كما أنها تصبح أكثر فعّالية إذا ما جرى استخدامها بالتزامن مع حملة عسكرية تصعّب على الطرف المتصدي للعدوان أن يتعامل معها بحكم تعرّضه لملاحقات وتهديدات أمنية، الأمر الذي يعزز نِسَب النجاح في محاولات بث الذعر وتوهين الروح المعنوية للطرف المقاوم.