جيميني.. لأن المساواة يمكن أن تزيد عن حدها: خلال محاولتها تفادي التحيز المتفشي بين أدوات الذكاء الاصطناعي التوليدي في الوقت الحالي، سقطت أداة الذكاء الاصطناعي الجديدة ” جيميني ” من شركة جوجل في فخ المغالطة التاريخية خلال إجابتها على أسئلة المستخدمين، وفق تقرير فوربس. وأبلغ المستخدمون عن أخطاء تاريخية وقعت فيها الأداة، مثل إنتاج صور تظهر الفايكنج ببشرة سوداء، وبابا الفاتيكان على هيئة امرأة هندية، والآباء المؤسسين للولايات المتحدة في شكل رجال سود وآسيويين وحتى من السكان الأصليين.

جوجل أوقفت إمكانية إنتاج صور البشر عن طريق جيميني مؤقتا لحل المشكلة، وأبلغ الرئيس التنفيذي للشركة سوندار بيتشاي موظفيه في رسالة داخلية أن هذه التحيزات غير مقبولة وأن جوجل ارتكبت خطأ. ومن المنتظر إجراء تغييرات هيكلية على جيميني تتضمن تحديث التعليمات التي يتبعها لإخراج المنتج النهائي، وكذلك إجراء المزيد من عمليات الفرق الحمراء (وهي محاكاة لسوء استخدام أدوات الذكاء الاصطناعي) لتحديد مناطق الخلل المحتملة، حسبما نقلت الجارديان عن متحدث باسم جوجل.

وادي السيليكون لا يزال عاجزا أمام تحيزات الذكاء الاصطناعي: رغم إنفاق عمالقة التكنولوجيا ما بين 20 و25 مليار دولار على تطوير أدوات الذكاء الاصطناعي العام الماضي فقط، ما زالت التكنولوجيا الجديدة تعيد إنتاج التحيز البشري. فعلى سبيل المثال، تترجم جوجل العبارات المحايدة جنسيا في اللغة الإنجليزية بشكل متحيز إلى الذكور، أما أداة دالي التابعة لشركة أوبن أيه أي فتعكس التحيزات العرقية عند إنتاجها صورا لبعض الوظائف، بحسب تقرير الجارديان.