تكنولوجيا

طريق الذكاء الاصطناعي يمر عبر بياناتنا الشخصية!

على مدى سنوات، شكّل استخدام الخدمات «المجانية» من غوغل وفايسبوك ومايكروسوفت وغيرها من عمالقة التكنولوجيا ثمناً يتمثل في تسليم البيانات الشخصية للمستخدمين، وفق تقرير مترجم عن موقع «وايرد» للكاتب مات بورغيس.

تحميل الحياة الرقمية إلى السحابة واستخدام التكنولوجيا المجانية يوفّر سهولة وراحة، لكنه يضع المعلومات الشخصية في أيدي شركات عملاقة غالباً ما تسعى إلى تحقيق الربح منها. اليوم، من المرجّح أن تطلب الموجة التالية من أنظمة الذكاء الاصطناعي التوليدي وصولاً أوسع إلى البيانات أكثر من أي وقت مضى.

خلال العامين الماضيين، انتقلت أدوات الذكاء الاصطناعي التوليدي، مثل «تشات جي بي تي» من OpenAI و«جيميناي» من غوغل، إلى ما هو أبعد من روبوتات الدردشة النصية البسيطة التي أُطلقت في البداية.

تتجه شركات الذكاء الاصطناعي الكبرى بشكل متزايد إلى تطوير وكلاء و«مساعدين» يعدون بتنفيذ إجراءات وإنجاز مهام نيابةً عن المستخدم. المشكلة أن الاستفادة القصوى من هذه الأنظمة تتطلب منحها صلاحيات وصول إلى أنظمتك وبياناتك.

وإذا كان الجدل الأولي حول نماذج اللغة الكبيرة قد تمحور حول النسخ الصريح لمحتوى محمي بحقوق نشر على الإنترنت، فإن وصول وكلاء الذكاء الاصطناعي إلى بيانات الناس الشخصية مرشح لإطلاق سلسلة جديدة من الإشكاليات.

يقول الباحث الأول في معهد آدا لوفلايس، هاري فارمر، إن وكلاء الذكاء الاصطناعي يحتاجون، كي يعملوا بكامل قدراتهم ويصلوا إلى التطبيقات، إلى صلاحيات على مستوى نظام التشغيل للجهاز المستخدم. وقد أظهرت أبحاثه أن هؤلاء الوكلاء قد يشكّلون «تهديداً عميقاً» للأمن السيبراني والخصوصية.

ويضيف أن تخصيص عمل روبوتات الدردشة أو المساعدين ينطوي على مقايضات تتعلق بالبيانات، إذ تتطلب هذه الأنظمة قدراً كبيراً من المعلومات الشخصية كي تؤدي وظائفها.

لا يوجد تعريف صارم لوكيل الذكاء الاصطناعي، غير أنه يُفهم عادة بوصفه نظاماً توليدياً أو نموذج لغة كبيراً مُنح مستوى من الاستقلالية. في الوقت الراهن، تستطيع هذه الأنظمة، بما في ذلك متصفحات ويب تعمل بالذكاء الاصطناعي، التحكم بجهاز المستخدم، تصفح الإنترنت، حجز الرحلات، إجراء أبحاث، أو إضافة سلع إلى عربات التسوق، وبعضها ينفذ مهاماً تتضمن عشرات الخطوات المتتابعة.

ورغم أن وكلاء الذكاء الاصطناعي الحاليين يعانون من أخطاء متكررة وغالباً ما يفشلون في إتمام المهام الموكلة إليهم، تراهن شركات التكنولوجيا على أن هذه الأنظمة ستُحدث تحولاً جذرياً في وظائف ملايين الأشخاص مع ازدياد قدراتها.

ويبدو أن جوهر فائدتها مرتبط بالوصول إلى البيانات، فالنظام الذي يزوّد المستخدم بجدول ومهام يحتاج إلى الوصول إلى التقويم والرسائل والبريد الإلكتروني وغيرها.

تقدّم بعض المنتجات والميزات المتقدمة لمحة عن حجم الصلاحيات التي قد تُمنح لهذه الأنظمة. فبعض الوكلاء المخصصين للشركات قادرون على قراءة الشيفرات البرمجية والبريد الإلكتروني وقواعد البيانات ورسائل منصة «سلاك» والملفات المخزنة على «غوغل درايف» وغيرها.

كما يأخذ منتج «ريكول» من مايكروسوفت لقطات شاشة لسطح المكتب كل بضع ثوانٍ، ما يتيح البحث في كل ما فعله المستخدم على جهازه. كذلك طوّرت «تيندر» ميزة ذكاء اصطناعي تمسح الصور على الهاتف «لفهم أفضل» لاهتمامات المستخدمين وشخصياتهم.

تقول الأستاذة المشاركة في جامعة أكسفورد ومؤلفة متخصصة في قضايا الخصوصية، كاريسا فيليز، إن المستهلكين غالباً لا يملكون وسيلة حقيقية للتحقق من كيفية تعامل شركات الذكاء الاصطناعي مع بياناتهم. وتضيف: «هذه الشركات متساهلة جداً في استخدام البيانات، وقد أثبتت مراراً أنها لا تحترم الخصوصية».

لم يكن قطاع الذكاء الاصطناعي الحديث يوماً محترماً لحقوق البيانات. بعد الاختراقات في تعلم الآلة والتعلم العميق مطلع العقد الماضي، والتي أظهرت أن الأنظمة تحقق نتائج أفضل كلما تدربت على بيانات أكثر، تسارع السباق لجمع أكبر قدر ممكن من المعلومات.

سحبت شركات التعرف إلى الوجوه، مثل Clearview، ملايين الصور من الإنترنت. غوغل دفعت خمسة دولارات فقط مقابل مسح وجوه أشخاص، فيما استُخدمت، وفق مزاعم، صور لأطفال مستغلين ومقدمي تأشيرات وأشخاص متوفين لاختبار أنظمة حكومية رسمية.

بعد سنوات من سباق جمع البيانات، اتجهت شركات الذكاء الاصطناعي إلى مسح طبقات واسعة من الإنترنت ونسخ ملايين الكتب، في الغالب من دون إذن أو مقابل، بهدف تدريب نماذج اللغة الكبيرة والأنظمة التوليدية التي يجري اليوم تطويرها لتتحول إلى «وكلاء» مستقلين.

ومع تراجع ما يمكن استخلاصه من محتوى الويب العام، سادت لدى شركات كثيرة سياسة افتراضية تعتمد استخدام بيانات المستخدمين في التدريب، ليغدو الاعتراض أو الانسحاب إجراءً لاحقاً في آلية التعامل مع البيانات.

ورغم تطوير بعض الأنظمة التي تركز على الخصوصية ووجود إجراءات حماية معينة، فإن جزءاً كبيراً من معالجة بيانات الوكلاء يجري في السحابة، ما يفتح الباب أمام مخاطر عند انتقال البيانات بين الأنظمة.

حدّدت دراسة بتكليف من جهات تنظيم البيانات الأوروبية مجموعة من المخاطر، تشمل تسريب البيانات الحساسة أو إساءة استخدامها أو اعتراضها، وإمكانية إرسال معلومات حساسة إلى أنظمة خارجية من دون ضمانات، إضافة إلى تعارض ممارسات المعالجة مع قوانين الخصوصية.

تلفت فيليز إلى أن موافقة المستخدم لا تحل كل الإشكاليات، إذ قد لا يكون الآخرون الذين يتواصل معهم المستخدم قد أعطوا موافقتهم. فإذا امتلك النظام وصولاً إلى جهات الاتصال والبريد والتقويم، فإن أي تواصل مع شخص آخر يعني عملياً الوصول إلى بياناته أيضاً، وهو أمر قد يرفضه.

كما قد تهدد تصرفات الوكلاء ممارسات الأمن القائمة. فهجمات «حقن الأوامر»، التي تُمرر فيها تعليمات خبيثة إلى نموذج اللغة عبر النصوص التي يقرأها، قد تؤدي إلى تسريبات. ومنح الوكلاء وصولاً عميقاً إلى الأجهزة يجعل كل البيانات المخزنة عليها عرضة للخطر.

وفي تصريح سابق لـ«وايرد»، قالت رئيسة مؤسسة «سيغنال»، ميريديث ويتاكر، إن مستقبل «الاختراق الكامل وإلغاء الخصوصية» عبر وكلاء يعملون على مستوى نظام التشغيل لم يتحقق بعد، غير أنه يُدفع باتجاهه من دون إتاحة خيار الرفض للمطورين.

وأكدت أن وكلاء قادرين على الوصول إلى كل شيء على الجهاز يشكلون «تهديداً وجودياً» لتطبيق «سيغنال» وخصوصية التطبيقات، مطالبة بخيارات رفض واضحة للمطورين تمنع هذه الأنظمة من الوصول.

على مستوى الأفراد، يحذّر فارمر من أن كثيرين صاروا يتعاملون مع روبوتات الدردشة بشكل مكثف، وشاركوا معها كميات كبيرة من البيانات الحساسة، ما يميز هذه الأنظمة عن غيرها سابقاً. ويشدّد على ضرورة الحذر عند تبادل البيانات الشخصية مع هذه الأدوات، مشيراً إلى أن طريقة عملها التجارية اليوم قد تتغير في المستقبل.

الاخبار

المقالات والآراء المنشورة في الموقع والتعليقات على صفحات التواصل الاجتماعي بأسماء أصحـابها أو بأسماء مستعـارة لا تمثل بالضرورة الرأي الرسمي لموقع "صدى الضاحية" بل تمثل وجهة نظر كاتبها، و"الموقع" غير مسؤول ولا يتحمل تبعات ما يكتب فيه من مواضيع أو تعليقات ويتحمل الكاتب كافة المسؤوليات التي تنتج عن ذلك.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى