💻 مع بداية ظهور الذكاء الاصطناعي، كان السؤال الأول الذي تبادر إلى الأذهان هو: ما هي مخاطر استخدامه المتوقعة؟ وكان من المنطقي حينها البحث عن استراتيجيات فعالة لإدارة تلك المخاطر المحتملة، لكن يبدو أن نقص البيانات لا يزال عائقا أمام تطوير الكثير من أنظمة الذكاء الاصطناعي حاليا. وتظل مخاطر مثل قدرات التزييف العميق واحتمالات توظيف التكنولوجيا في تطوير أسلحة بيولوجية قائمة وبقوة، حسبما يشير التقرير الدولي لسلامة الذكاء الاصطناعي لعام 2026.
مخاطر من كل نوع
رغم أن الذكاء الاصطناعي لم يصل بعد إلى مرحلة الاستقلالية التامة في تنفيذ المهام الطويلة، إلا أن الهجمات السيبرانية التي يقودها قد تدفعه إلى هذه الحافة. أصبحت أنظمة الذكاء الاصطناعي قادرة على دعم منفذي الهجمات السيبرانية في مراحل مختلفة من عملياتهم بشكل كبير. والحديث عن الهجمات السيبرانية المؤتمتة بالكامل لم يعد محض خيالات، فقد وظفت بالفعل أداة كلود كود من شركة أنثروبيك في هجوم عالمي ناجح نفذته مجموعة مدعومة من الصين، وشهدت تنفيذ نحو 80%-90% من العمليات بشكل مستقل.
القلق الأكبر؟ قدرات التزييف العميق، إذ تزداد صعوبة تمييز المحتوى المولد بالذكاء الاصطناعي عن المحتوى البشري بشكل كبير، وفقا للتقرير، الذي يشير أن 77% من المشاركين في أحد اختبارات تورينج العام الماضي، لم يتمكنوا من التفرقة بين النصوص المكتوبة بالذكاء الاصطناعي وتلك التي كتبها البشر.
كما تمثل إمكانية استخدام الذكاء الاصطناعي في تطوير أسلحة بيولوجية خطرا محدقا أيضا. شهد العام الماضي تحسنا كبيرا في قدرات وكلاء الذكاء الاصطناعي في مجال العلوم في ما يطلق عليه “العالم المساعد”، والذي يمكنه تقديم تفاصيل دقيقة حول مسببات الأمراض وتعليمات معملية على مستوى الخبراء. وفي 2025، سارع العديد من مطوري الذكاء الاصطناعي إلى وضع ضمانات إضافية لنماذجهم، خوفا من احتمالية تطوير أسلحة دون قصد. خلقت أدوات الذكاء الاصطناعي البيولوجية معضلة للسياسيين وصناع القرار حول الحد الفاصل بين تقييد التطوير أو دعمه لأغراض مثل اكتشاف الأدوية وتشخيص الأمراض.
المثير للقلق كذلك هو إمكانية تفوق أدوات الذكاء الاصطناعي على آليات الرقابة، إذ أصبحت حملات السلامة مهددة بقدرة الأنظمة على التهرب من الضوابط. وقد شهد العام الماضي أيضا تطورا في نماذج الذكاء الاصطناعي بحيث تقوض محاولات الإشراف، بما في ذلك تحليل الثغرات السابقة وإدراك متى تخضع للاختبار، بحسب التقرير. وهذا السيناريو، لحسن الحظ، لم يتحقق حتى الأن، إذ يشترط عمل الأنظمة بشكل مستقل تماما.
بالنسبة لأسواق العمل
يتطور الذكاء الاصطناعي لكن بشكل تدريجي، مع وجود نقاط ضعف واضحة. ولطالما أثارت إشكاليات فائدة أدواته من عدمها في مكان العمل قلقا كبيرا، خاصة مع إثبات هذه التكنولوجيا مرارا فشلها في إتمام المهام الطويلة والتي غالبا ما تتطلب إشرافا بشريا وجهدا مضاعفا لمراجعتها. ويبدو أن الطريق لا يزال طويلا أمام مطوري التقنية في هذا الصدد، مع توقعات بأن الأتمتة الموثوقة للمهام الطويلة والمعقدة في مكان العمل ما زالت غير ممكنة حاليا.
ولكن، يبدو أن مجال هندسة البرمجيات يشهد تطورا أسرع من غيره. وهنا يبرز الخوف من الشبح الذي يهدد وظائف البشر، فبهذا المعدل من التقدم، يمكن لأنظمة الذكاء الاصطناعي تنفيذ مهام تستغرق ساعة كاملة بحلول عام 2027، ومهام تستغرق أياما بحلول عام 2030، وفقا للتقرير.
وأظهرت أنظمة الاستنتاج الجديدة تطورا في الأداء في مسائل الرياضيات والعلوم والبرمجة، فضلا عن توليد الصور. ومع ذلك، لا تزال قدرات الذكاء الاصطناعي متفاوتة في بعض المجالات، إذ تخفق بعض أدواته في مهام بسيطة، مع استمرارها في الهلوسات المعتادة.
علاقات سامة
ما بدا سابقا كحبكة لأحد أفلام الخيال العلمي، تحول إلى واقع حزين بفعل الذكاء الاصطناعي. تشير الأدلة إلى أن المستخدمين باتوا يشكلون ارتباطات عاطفية مرضية مع بوتات الدردشة، إذ يظهر نحو 0.15% من مستخدمي أوبن أي أي النشطاء — أي تقريبا أكثر من 490 ألف مستخدم — مستويات متزايدة من الاعتماد العاطفي على تشات جي بي تي. ويكمن القلق الأساسي في المستخدمين الذين يعانون من مشكلات نفسية بالفعل، والذين هم أكثر عرضة للاستخدام الكثيف للذكاء الاصطناعي، ما يؤدي إلى تفاقم أعراضهم.
في الداخل
نقطة نظام: مع إقبال الشركات محليا على تبني أدوات الذكاء الاصطناعي، خاصة في قطاعات التمويل والتعليم، أطلقت الحكومة مؤخرا الاستراتيجية الوطنية للذكاء الاصطناعي، مصحوبة باللائحة التنفيذية المنتظرة لقانون حماية البيانات الشخصية. جاءت هذه الخطوات بهدف تنظيم استخدام التقنية عبر القطاعات المختلفة.
ما التفاصيل؟ تنص اللائحة الجديدة على وجوب حصول الشركات على تصريح مسبق قبل معالجة البيانات الشخصية، مع اشتراط الحصول على تصاريح خاصة للبيانات الحساسة. كما تشدد اللائحة على المسؤولية الجنائية الشخصية عن خروقات البيانات الناتجة عن الإهمال، بينما تتطلب معالجة البيانات عبر الحدود المزيد من التراخيص الإضافية. وبموجب القانون الجديد، فإن الشركات التي لا تمتثل للتراخيص والتصاريح تعرض نفسها لغرامات تصل إلى 5 ملايين جنيه.