استقالات أوبن أيه أي تدق نواقيس الخطر بشأن الذكاء الاصطناعي: خلال الأسبوع الماضي فحسب، شهدت عملاق الذكاء الاصطناعي أوبن أيه أي مغادرة اثنين من أعمدتها الأساسية: المؤسس المشارك وكبير العلماء إليا سوتسكيفر، وعالم الأبحاث جان لايكي، واللذين كانا مسؤولين عن فريق " سوبر ألاينمنت " المكلف بالتأكد من توافق الذكاء الاصطناعي مع النوايا البشرية حتى عندما يتفوق على قدراتنا الحالية.

أسباب الرحيل: في حين ترك سوتسكيفر الشركة في هدوء، أعلن لايكي أن رحيله جاء بسبب مخاوف عدم تخصيص الشركة موارد كافية، خاصة في ما يخص الحوسبة، للبحث في مسائل سلامة الذكاء الاصطناعي. وأشار خلال حديثه في منشور له على منصة إكس، إلى المسؤولية الكبيرة الملقاة على عاتق مطوري الذكاء الاصطناعي، موضحا أن "بناء آلات أذكى من البشر طريق محفوف بالمخاطر، وعلى أوبن أيه أي تحمل هذه المسؤولية الكبيرة نيابة عن البشرية كافة".

التحذيرات لا تقتصر على خبراء أوبن أيه أي، إذ حذر البروفيسور جيفري هينتون الذي يعتبره كثيرون الأب الروحي للذكاء الاصطناعي، من الآثار الاجتماعية والتهديدات العسكرية المحتملة لهذه التكنولوجيا الجديدة، مشيرا إلى أن القيمة التي تخلقها ستنقلب على الأثرياء وليس أولئك الذين "فقدوا وظائفهم"، طبقا لحواره مع بي بي سي. وكان هينتون قد استقال من جوجل عام 2023، على خلفية مخاوف تطورات الذكاء الاصطناعي.

اقترح هينتون تطبيق سياسات الدخل الأساسي الشامل لتخفيف هذا الخلل، عبر توفير وسيلة لنقل الثروة إلى العمال الذين فقدوا وظائفهم، رغم أن ميزات وجدوى الدخل الأساسي الشامل كحل لمواجهة تحولات سوق العمل الناتجة عن الذكاء الاصطناعي لا تزال قيد النقاش والجدال. كما طالب بوضع اتفاقيات على غرار اتفاقية جنيف لتنظيم التطبيقات الدولية للذكاء الاصطناعي في حالات الحروب، مؤكدا أن أفضل حل هو فرض حظر شامل على استخدام الذكاء الاصطناعي العسكري.