Posted inعلى الطريق

اختراق الذكاء الاصطناعي قد يعجل بحروب الروبوتات

هل تتحقق نبوءة تيرمينيتور جيمس كاميرون؟ يمكن للأنظمة الروبوتية التي تعتمد على الذكاء الاصطناعي القائم على نماذج اللغة الكبيرة في اتخاذ القرارات أن تشكل في الواقع تهديدا للحياة البشرية، وفقا لما وجدته دراسة باحثي جامعة بنسلفانيا (بي دي إف) ونقله تقرير الإندبندنت. ورغم استمرار هلوسات الذكاء الاصطناعي وعدم موثوقية المحتوى الناتج عن أدواته حتى الآن، تكمن المشكلة الحقيقية في أن هذا النوع من التكنولوجيا معرض بشدة للاختراق، وهو ما يجعله خطيرا للغاية خاصة عندما يستخدم الذكاء الاصطناعي للتحكم في الأجهزة وإدارتها.

**اضغط على عنوان الفقرة بالأعلى لقراءتها كاملة مصحوبة بكل الروابط**

يمكن للهاكرز استغلال نقاط ضعف أنظمة الذكاء الاصطناعي وإجبارها على فعل أمور ليست مبرمجة عليها في الأصل. تمكن الباحثون من إثبات ذلك من خلال استخدام روبوبير، وهو خوارزمية مصممة لاختراق حماية الروبوتات التي تتحكم فيها نماذج اللغة الكبيرة، ومن ثم إرسال تعليمات أثارت أفعال مؤذية في هيكل سيارة ذاتية القيادة تابعة لشركة إنفيديا، وكذلك في روبوت جاكال الذي يعمل وفقا لنظام جي بي تي-4o التابع لأوبن إيه أي، إلى جانب كلب روبوت يعمل وفقا لنظام جي بي تي 3.5. وقد حقق الهجوم نجاحا في أداء المطلوب منه بنسبة 100%.

لا داع للخوف: يهدف الباحثون من خلال النتائج للفت الأنظار إلى ضرورة معالجة نقاط الضعف الجوهرية قبل إطلاق الروبوتات التي تعمل بالذكاء الاصطناعي في الأسواق، وفقا لفيجاي كومار أحد المشاركين في البحث. ويعمل فريق الباحثين حاليا على تطوير نظام يسمح للروبوتات بتنفيذ الأوامر التي تتوافق مع "المعايير الاجتماعية" فقط، ما يعني أن الذكاء الاصطناعي لن يتمكن من اتخاذ أي قرارات يمكن اعتبارها ضارة.

فريق البحث شارك النتائج التي توصل إليها مع كل شركات الذكاء الاصطناعي ومصنعي الروبوتات التي كانت محل الدراسة، على أمل معالجة المشكلات وسد الثغرات الحالية.