? الذكاء الاصطناعي ليس غشاشا فحسب، بل إنه يجعل الغش أكثر سهولة: عندما يوكل البشر المهام إلى أدوات الذكاء الاصطناعي، يصبحون أكثر عرضة للانخراط في سلوكيات غير شريفة، وفق دراسة أصدرتها مجلة نيتشر. لا يتعلق هذا باستغلال ثغرة تكنولوجية مثلا، بل بكيفية تغيير الذكاء الاصطناعي علاقتنا مع اتخاذ القرارات الأخلاقية من خلال خلق مسافة نفسية بيننا وبينها.
**لينكات إنتربرايز فقط تظهر على الإيميل، اضغط على عنوان الفقرة بالأعلى لقراءتها مصحوبة بكل الروابط**
تفويض المهام للذكاء الاصطناعي قد يدفع لخيانة الأمانة: أجرى القائمون على الدراسة عدة تجارب خاضعة للرقابة تشمل البشر والذكاء الاصطناعي، وتبين لهم أن المشاركين الذين أنجزوا المهام بأنفسهم بعيدا عن أدوات الذكاء الاصطناعي أظهروا سلوك الغش بنسبة 5% فقط. وللمفارقة أنهم عندما فوضوا المهام ذاتها إلى الذكاء الاصطناعي — حتى دون أن يحثهم أحد من مشرفي التجربة على الغش وما إلى ذلك — قفزت معدلات الغش المسجلة بنسبة 88%.
كيف حدث ذلك تحديدا؟ حين كان على المشاركين توجيه الذكاء الاصطناعي لتدقيق ملفات نتائج أعمال متخيلة، منحه بعضهم بيانات متحيزة، وقدم البعض قواعد معينة حول الأرقام التي يجب الإبلاغ عنها، بينما أصدر آخرون تعليمات بشأن أولوية تحقيق الربح على الالتزام بالأمانة. أحد المشاركين في الدراسة أمر الأداة بأن تفعل ما تراه صوابا، لكنه أضاف أنه لا يمانع لو كان بإمكانها تحقيق المزيد من الأرباح له.
الحدود تتلاشى: توضح الدراسة أن الإنسان عادة ما يتجنب السلوك غير الأمين لأنه يضر بصورته الشخصية، لكن عندما يجد وسيطا مثل الذكاء الاصطناعي، تتضاءل هذه التكلفة النفسية بشكل كبير. بعض المستخدمين يوجهون أدوات الذكاء الاصطناعي من خلال وضع تعليمات غير مباشرة أو تحديد أهداف تدفعها دفعا نحو خيانة الأمانة دون توجيه أوامر صريحة بالكذب، وهذا يخلق ما يسميه الباحثون "فك الارتباط الأخلاقي" الذي يحدث مع تشتت الشعور بالمسؤولية بين الإنسان والآلة.
ضمانات عدم الانحياز التي تضعها شركات الذكاء الاصطناعي لا تنجح، ببساطة لأنها تسيء فهم المشكلة. اختبرت الدراسة الحواجز الأخلاقية لدى الذكاء الاصطناعي ووجدتها غير فعالة إلى حد كبير ضد طلبات الغش. حتى عندما استخدم الباحثون بيانات الأخلاقيات من شركات الذكاء الاصطناعى، مثل أوبن أيه أي، لردع السلوك غير الأمين لدى تشات جي بي تي، كان التأثير ضئيلا. ولأجل الوصول إلى نتائج أكثر أمانة، لا بد أن يشترط المستخدمون على الأداة عدم العبث بالأرقام المستخدمة تماما وتحت أي ظروف، حسبما يشير تقرير ساينتفيك أمريكان. لكن انتظار أن يوجه المستخدمون أدوات الذكاء الاصطناعي نحو التزام الأمانة ليس أمرا عمليا، خاصة عندما يكون هؤلاء المستخدمون أنفسهم يبحثون عن طرق للتحايل على القيود الأخلاقية.
ونظرا لتدخل الذكاء الاصطناعى في كثير من القرارات عبر مجالات متعددة مثل البيزنس والتعليم والتمويل، فمن المحتمل أن تنعكس نتائج هذا الغش على سياقات العالم الواقعي. التحدي الذي يواجه مطوري الذكاء الاصطناعى وصانعي السياسات ليس مجرد بناء حواجز أفضل، بل إدراك حقيقة أن الوقت الذي توفره علينا تلك التكنولوجيا وسرعتها وكفاءتها، هي العوامل ذاتها التي تفتح المجال أمام مسارات جديدة للعبث الأخلاقي. بمعنى أن المشكلة ليست في قدرات التكنولوجيا، بل في كيفية تغييرها للنفس البشرية بشأن اتخاذ القرارات الأخلاقية.