مقالات
زمن الصور المزيّفة: الحقيقة في مواجهة الخوارزمية

زينب عوض – الأخبار
هل تخيّلت يوماً أن تعاين مشهداً فتُقسم على صدقه، ثم تكتشف أنك كنت شاهداً على كذبةٍ صُنعت بشيفراتٍ رقميةٍ متقنة؟ هل خطر في بالك أنّ الصوت الذي أوجد فيك انفعالاً، أو الصورة التي أثارت أحاسيسك، لم تمرّ يوماً أمام كاميرا، بل وُلدت من خيال آلةٍ، مجرّد آلةٍ، تعرف كيف تتجسّد في هيئة الكائن البشري؟
من صورةٍ كادت تلامس فيها طائرة مسيّرة خزانَ مياهٍ فوق سطح منزلٍ لبناني، إلى مقاطع «حوت الأوركا» التي أقنعت الملايين بابتلاعه المدرّبة المغدورة جيسيكا رادكليف… رحبوا بزمن الحقيقة الهشّة والزيف البارع في التنكّر.
من هنا تبدأ الحكاية
لقطة بنكهة الخوف: طائرة مسيّرة تحوم على انخفاضٍ خطر فوق سطح منزلٍ لبناني، تكاد تلامس خزان المياه، فيما يتردّد على الألسن: «الخزان فاضي، ديروا المي!» وبين مصدّقٍ ومتوجّسٍ أسدلت الحقيقة ستارها: المشهد مزيّف، خُدعنا جميعاً! صورتان لا صلة بينهما التقتا في معمل الخداع الرقمي: الأولى لطائرةٍ أميركية، والثانية لخزانٍ في بغداد. دمجهما «عقلٌ» اصطناعي فخلُص إلى نتيجة تُقنع العين.
وفي أعماقٍ أخرى من الواقع الرقمي، تسلّل حوت الأوركا إلى واجهات الأخبار كما لو خرج من عمق البحر ليبتلع الحقيقة نفسها. قصةٌ تحرّكت لها المشاعر، عن المدرّبة الشابة جيسيكا رادكليف، قيل إن الحوت افترسها أمام الجمهور، فاهتزّت المنصّات. لا رادكليف وُجدت، ولا بيان صدر، ولا بحر شهد الحادثة، سوى بحر الخيال الذي صاغته خوارزميات الذكاء الاصطناعي.
وفي عالمٍ تتقاطع فيه الحقيقة مع الخيال، لا يقتصر الخداع على الحوادث المذهلة أو المأساوية، بل يمتدّ ليختبئ في اللحظات اليومية، داخل الاستديوهات مثلاً، أو بين المواجز الإخبارية، كالفأر الذي ظهر فجأةً أمام المذيعة، فتوقّفت خوفاً، ثم عادت لتبتسم وتعتذر للمشاهدين. الحقيقة مفاجئة: الفيديو مزوّر بالكامل بتقنيات الذكاء الاصطناعي، لم يحدث شيء في استوديو «الجزيرة» الإنكليزية، ولم ير أحدٌ الفأر قطّ.
إذاً، أليس لافتاً للنظر ما جمع هذه الحكايات؟
الطريقة… الطريقة التي استطاع فيها الذكاء الاصطناعي أن يلتفّ حولنا، ويخلق واقعاً يبدو حقيقياً بينما هو مبتكر بالكامل. لأنه، باختصار، أصبح قوّةً قادرةً على إعادة تشكيل الواقع نفسه. قدرته على مزج الصور، وتحريف الصوت، وإنتاج أحداثٍ لم تقع، تحوّل أدواته إلى وسيلة لتعليب الحقائق وطرحها على الجمهور كحقيقة مسلّمة.
تطبيقات متقدّمة تُمكّن من كشف المحتوى المولّد بالـ AI
الخطورة الحقيقية تكمن في أن هذا الاختراع «المفيد ـ الضار»، حين يُوظف بلا ضوابط، يجعل من الواقع مرآةً قابلةً للتعديل، وهنا تكمن الصعوبة في التفريق بين الفعلي والمصطنع. والنتيجة حتميّة وواضحة للعيان: تآكل الثقة بالمعلومة، وضبابيّة في التمييز بين الحقيقة والوهم، ما يخلق مجتمعاً هشاً أمام التضليل.
لكن، رغم كل الاحتياطات التي يبذلها صانعو الزيف الرقمي لإضفاء ملامح الواقع على الصور والفيديوهات، فإن التفاصيل الدقيقة تكشف الخداع، من أخطاءٍ في الأصابع والظلال، إلى تشوّهاتٍ في الخلفيات وتكرارٍ غير طبيعيٍّ للعناصر، ما يجعل فحص الصورة بعناية، والتركيز، والبحث العكسي عنها، أو متابعة علامات التحذير في التطبيقات، أدوات حاسمة للتمييز بين الحقيقي والمصطنع. وقد أظهرت الدراسات أنّ المحترفين في مجال التصوير يمكنهم تحديد الصور المولَّدة بالذكاء الاصطناعي بدقّةٍ تصل إلى 62.09 في المئة، بينما تصل دقّة غير المحترفين إلى 60.28 في المئة.
وإلى جانب مراقبة التفاصيل الدقيقة، تتوافر اليوم تطبيقات متقدّمة تُمكّن من كشف المحتوى المولد بالذكاء الاصطناعي؛ من أبرزها أداة SynthID التي أطلقتها «غوغل»، وتستخدم علاماتٍ مائية مخفية للكشف عن الصور والفيديوهات المزيّفة، وأدوات مثل Vastav.AI التي تكشف التلاعبات الدقيقة، ما يسهم في التمييز بين المحتوى الحقيقي والمزيّف بدقّةٍ عالية.
في المحصّلة، إدراك هذه المخاطر يجعل التحكّم في الذكاء الاصطناعي وتنظيمه أمراً حاسماً للحفاظ على أسس التفكير النقدي والوعي الجمعي. فالأمر أضحى معركةً على مصادر الحقيقة نفسها في عالمٍ متشابكٍ تقنياً واجتماعياً.
المقالات والآراء المنشورة في الموقع والتعليقات على صفحات التواصل الاجتماعي بأسماء أصحـابها أو بأسماء مستعـارة لا تمثل بالضرورة الرأي الرسمي لموقع "صدى الضاحية" بل تمثل وجهة نظر كاتبها، و"الموقع" غير مسؤول ولا يتحمل تبعات ما يكتب فيه من مواضيع أو تعليقات ويتحمل الكاتب كافة المسؤوليات التي تنتج عن ذلك.



