جدل جديد حول الذكاء الاصطناعي: جلسات العلاج النفسي قد تتاح عن طريق روبوت المحادثة (chatbot) بحسب ما ذكر مقال نُشر في موقع بي بي سي مطلع هذا الشهر. في عام 2013، وقع خواكين فينيكس في حب سامانثا في فيلم “Her“، وهي مساعدة افتراضية مثل سيري وألكسا. وما كان في يوم ما غاية بعيدة المنال تتحقق في أفلام الخيال العلمي فقط، أصبح اليوم أقرب إلى الواقع بكثير. إذ أن الأُلفة والثقة بين الإنسان وأنظمة الذكاء الاصطناعي لم تعد على عتبة أبوابنا فحسب، بل صارت متأصلة في حياة كثير من الناس.
ما المشكلة؟ يعاني أكثر من مليار إنسان من الاضطرابات النفسية بحسب منظمة الصحة العالمية. ومع ذلك، لا يتمكن كل المرضى من الحصول على المساعدة اللازمة. والأسباب كثيرة متنوعة مثل الوصم الاجتماعي أو التكلفة الباهظة لجلسات العلاج النفسي. وثمة أسباب أخرى ولكن النتيجة واحدة، إذ لا يتسنى لكثير من الناس الحصول على الدعم اللازم ويبقى كل فرد وحيدا في عزلته. والآن يَعِد الذكاء الاصطناعي بحل هذه المشكلة على وجه التحديد.
يرى المؤيدون للفكرة أن بعض الظروف جعلت العلاج النفسي ترفا ورفاهية بدلا من كونه احتياجا أساسيا للبعض يساعدهم على الاستقرار النفسي والحفاظ على صحتهم بوجه عام، وفي ظل هذا الوضع لم يعد ممكنا أن نتجاهل قدرة التكنولوجيا على سد هذه الفجوة. ونقل المقال عن الدكتور بول مارسدن، عضو الجمعية البريطانية للطب النفسي، رأيه “بأن دعم الصحة النفسية قائم على الحديث بين طرفين في الجلسات العلاجية، وهذا هو ما تجيده روبوتات المحادثة”. وفي بعض الحالات، مثل الأطفال والبالغين الذين يعانون من التوحد، يمكن استعمال الروبوتات للتدرب على بعض المواقف الاجتماعية بحسب ما ذكرت يوجينيا كيودا مؤسسة تطبيق Replika “الصديق الافتراضي”.
أما المعارضون فهم يرون أن منتجات الذكاء الاصطناعي يجب أن تخضع لمعايير السلامة والجودة “حين تخرج من مجال الترفيه والتعليم إلى مجال الصحة”، وفقا لما نقله المقال عن جين بيرسون الناشطة البريطانية والمدافعة عن حقوق الخصوصية عبر الإنترنت. وهكذا، ثارت بعض المخاوف فيما يخص السلامة والأخلاقيات ويجب معالجة مثل هذه الإشكاليات قبل أن تضر بالمستخدمين المعرضين للخطر بالفعل.
ماذا عن الحدود والمعايير؟ وما الذي يحدث حين لا تكون المحادثات مناسبة للمرضى المراهقين أو خطرا على أولئك الذين قد يتعرضون لسوء بسبب خطأ في النصيحة والتوجيه؟في فبراير الماضي منعت إيطاليا تطبيق Replika من الوصول إلى بيانات المستخدمين لحماية “القُصر والمعتلين نفسيا”، نظرا لبُعد المحادثات مع الروبوتات عن الإشراف الأسري.
هل المحادثة مع الروبوتات تنجح في تقديم العلاج فعلا؟ لا تعتمد جلسات العلاج النفسي على التحدث والحكي فقط كما نعلم. إذ أن عوامل مثل نبرة الصوت ولغة الجسد تعد أمورا محورية في تحديد المشكلات ومعالجتها. ولذلك يرى دكتور مارسدن أن الجلسات مع الروبوتات ليست أكثر من داعم لأساليب العلاج التقليدي، إذ “لا يمكن لتطبيق أن يحل محل المعالج البشري”. إلى جانب أن المحادثات الإلكترونية قد تؤدي إلى زيادة الشعور بالعزلة، إذا بدأ المستخدمون في تفضيل هذه الطريقة على حساب التواصل بشكل شخصي” . وإذا ما وضعنا في الحسبان إدمان الناس للشاشات الذي عمق الشعور بالعزلة والوحدة، فإن إساءة استخدام مثل هذه التطبيقات قد يعرضنا لمشكلات معقدة.
سيل من الأسئلة. يعد صعود نجم أنظمة الذكاء الاصطناعي مثل تشات جي بي تي حدثا ثوريا، ولذلك أثار الأمر نقاشات وجدالات لا حصر لها في وقت قليل. وقد رأينا خلال الفترة الماضية مناقشات ومخاوف من إحلال العنصر البشري وتسريح العمال والموظفين وكذلك إعادة تعريف لحقوق الملكية، ويبدو أن كل ذلك ليس أكثر من رأس جبل جليدي وسوف ينهال علينا سيل من الأسئلة كلما تعقدت استخدامات التكنولوجيا. ورغم أن التكنولوجيا تقدم لنا فرصا لا حدود لها، يجب على المستخدمين أن يدركوا أن التداعيات طويلة الأجل على المستوى الاجتماعي والنفسي والسياسي والاقتصادي لم تُعرف بعد.