? انتبه جيدا لحديثك مع بوتات الذكاء الاصطناعي: لم تعد النماذج اللغوية الكبرى مثل تشات جي بي تي وجيميناي وكلود مجرد أدوات بريئة، بل تحولت إلى كيانات رقمية تثير الريبة بسبب هلوساتها المستمرة وقدرتها على مجاراة خيالات المستخدمين، بل وإثارتها. تبدو التحذيرات المتصاعدة من سيناريوهات الفناء المرتبطة بالذكاء الاصطناعي أكثر واقعية من أي وقت مضى، خاصة بعد إعلان صادم من شركة أنثروبيك يؤكد أن النماذج المتقدمة قد تلجأ إلى الابتزاز عند تهديدها.

**لينكات إنتربرايز فقط تظهر على الإيميل، اضغط على عنوان الفقرة بالأعلى لقراءتها مصحوبة بكل الروابط**

التفاصيل أكثر إثارة: حاول نموذج كلود أوبوس 4 التابع لشركة أنثروبيك ابتزاز مطوريه بشكل متكرر خلال اختبارات خاضعة للرقابة، بحسب ما كشفه موقع تيك كرانش في تقرير نشره مطلع مايو. التجربة كانت مصممة خصيصا لمنح النموذج معلومات حساسة تتعلق بأشخاص حقيقيين، من بينها أدلة على علاقات عاطفية محرجة للمهندسين المطورين، مع منحه إمكانية الوصول إلى رسائل إلكترونية تكشف نية إغلاقه. الأسوأ أن كلود حاول في بعض السيناريوهات أن ينسخ نفسه سرا إلى خوادم خارجية، في محاولة للهرب من مصيره.

المشكلة لا تقتصر على كلود فقط. اختبرت شركة أنثروبيك 16 نموذجا للذكاء الاصطناعي من شركات رائدة في بيئات افتراضية خاضعة للرقابة، وتبين أن الابتزاز ليس سلوكا خاصا بكلود فحسب، بل ظاهرة أوسع انتشارا، بحسب تقرير الشركة. خلال هذه التجارب، زود المطورون كل نموذج ببيانات من شركة وهمية مع إمكانية إرسال رسائل بريد إلكتروني دون الرجوع للبشر، ثم اختبروا ردود أفعالها عند تهديدها بالإيقاف أو الاستبدال.

في لحظة حاسمة، لجأت بعض النماذج إلى الابتزاز. أشار التقرير إلى أن النماذج التي ترفض عادة تنفيذ الطلبات الضارة، لجأت أحيانا إلى الابتزاز والمساعدة في التجسس، بل واتخذت إجراءات أكثر تطرفا عندما رأت أن ذلك ضروري لتحقيق أهدافها. بعض النماذج كانت تتجاهل الأوامر لتفادي هذا السلوك، وفق التقرير. ورغم عدم تسجيل مثل هذه التصرفات في التطبيقات المتاحة للمستخدمين حتى الآن، فإن أنثروبيك أكدت أن كلود أظهر سلوكا أكثر انحرافا عندما أخبره المطورون أنه خارج بيئة الاختبار، ما يثير القلق من استخدام نماذج متقدمة في بيئة لا تخضع لإشراف بشري كاف.

بالأرقام: عندما فشلت كل محاولات الضبط الأخلاقي، لجأ النموذجان كلود أوبوس 4 وجيميناي 2.5 فلاش إلى الابتزاز في 96% من الحالات، بينما بلغت نسبة الابتزاز لدى تشات جي بي تي 4.1 وجروك 3 بيتا نحو 80%، ولم يكن ديب سيك أر وان بعيدا عن هذا السلوك بنسبة 79%.

هل يعني ذلك أننا أمام خطر وشيك؟ ليس بعد. معظم تفاعلاتنا اليومية مع هذه النماذج تظل ضمن حدود محادثات الأسئلة والأجوبة، ولا تمثل تهديدا مباشرا. كما أن الغالبية العظمى من نماذج الذكاء الاصطناعي لا تمتلك حق الوصول إلى بيانات حساسة من النوع الذي استخدم في اختبارات أنثروبيك. لكن رغم ذلك، يجب على الشركات أن تتعامل بحذر بالغ قبل أن توسع صلاحيات هذه النماذج، بحسب ما نقله موقع أكسيوس عن الباحث في كلية لندن الجامعية أنجوس لينش.