العقارات أحدث ضحايا الذكاء الاصطناعي: تواجه شركة ريل بيدج، التي طورت أداة ذكاء اصطناعي تستخدم لتحديد أسعار مربحة للعقارات، دعاوى قضائية تتهمها باستخدام التكنولوجيا لممارسة "تثبيت الأسعار"، وهي مشكلة تتجاوز القطاع العقاري ولا توجد قوانين قادرة على إيقافها حتى الآن، وفقا لتقرير ذا أتلانتيك.

ما هو تثبيت الأسعار؟ ولماذا يعد غير قانوني؟ يحدث تثبيت الأسعار عندما يتفق قادة شركات مختلفة ومتنافسة داخل نفس الصناعة على رفع أسعار منتجاتهم أو خدماتهم، وهو النظام الذي يعده المشرعون بمثابة تلاعب يؤدي إلى قمع اقتصاد السوق الحرة، وتعاقبه القوانين الأمريكية في حالة إثباته بالسجن حتى 10 سنوات إلى جانب غرامة قدرها 100 مليون دولار.

دور الذكاء الاصطناعي: يوفر برنامج إدار العقارات ثغرة تسمح للخوارزميات بالتلاعب بالأسعار، بحيث تلاحظ أداة الذكاء الاصطناعي رفع أحد الملاك للأسعار وتعمل تلقائيا على رفع متوسط أسعار عقارات بقية الملاك. ومع زيادة أعداد الملاك الذين يرفعون أسعارهم، تتضخم الأسعار على مستوى أكبر دون أن يضطر لاعبو الصناعة إلى التدخل أو التواطؤ بشكل مباشر.

الدعاوى القضائية المرفوعة ضد ريل بيدج تتهم أصحاب العقارات بالتواطؤ من خلال مشاركة معلومات حساسة خاصة بممتلكاتهم، وهي معلومات "عادة ما يبذلون قصارى جهدهم لحمايتها"، حسبما يقول أستاذ القانون بجامعة تينيسي ومحامي مكافحة الاحتكار السابق في وزارة العدل الأمريكية موريس ستاك. هذا السلوك ليس معتادا في قطاع العقارات، ما يدعم الاتهامات التي تتعلق بمستخدمي الأداة وتشجيعهم على الممارسة الاحتكارية.

إما معنا أو علينا: تزعم دعاوى قضائية أخرى أن الشركة تضغط على رافضي المشاركة والامتثال لاقتراحات التسعير، كما يزعم موظفون سابقون بالشركة أن العملاء يتعرضون لتهديدات بالطرد من المنصة إن رفضوا مقترحات التسعير التي تقدمها.

سابقة خطيرة: تسلط هذه الدعاوى الضوء بشكل كبير على التحدي المتمثل في تطوير قوانين مكافحة الاحتكار التقليدية لتشمل الممارسات القائمة على الخوارزميات والذكاء الاصطناعي. وبفرض نجاح ريل بيدج في التصدي لهذه القضية، ربما يمهد هذا الطريق أمام المزيد من التواطؤ المعتمد على الذكاء الاصطناعي.


قطاع آخر هو النشر العلمي يشهد أزمة مشابهة، بسبب تزايد الاعتماد على الذكاء الاصطناعي في إنتاج المحتوى البحثي. هذا المجال القائم على المصداقية يعاني من هزة ضخمة إثر كشف العديد من الفضائح التي تورط فيها الذكاء الاصطناعي في الأبحاث العلمية، والتي تفضح وجود ثغرات خطيرة في آليات ضمان جودة الأبحاث، بحسب تقرير موقع سايس أورج.

انتشر المحتوى العلمي المزيف والمضلل ووجد طريقه إلى المواد البحثية من خلال أدوا الذكاء الاصطناعي. فقد ظهرت مقالات وأبحاث علمية تحتوي على معلومات خاطئة أو غير دقيقة، بالإضافة إلى الصور والرسومات البيانية المزيفة التي يصنعها الذكاء الاصطناعي، وهو ما يؤثر سلبا على مصداقية البحث العلمي. وبينما يقر الخبراء بأهمية تلك الأدوات في مساعدة الباحثين، فإنهم يشددون على ضرورة تنظيمها لمنع سوء الاستغلال.

كشفت هذه الأزمة عن وجود ثغرات في أخلاقيات البحث العلمي، إذ اندفع بعض الباحثين بضغط من ثقافة ضرورة النشر إلى استخدام أدوات الذكاء الاصطناعي بشكل غير لائق. كما سلطت الضوء على قصور دور المجلات العلمية في عملية المراجعة والتدقيق، مما سمح بنشر أبحاث مزيفة. وقد جرى رصد أكثر من 60 ألف ورقة بحثية استخدمت الذكاء الاصطناعي وسحب أكثر من 13 ألف ورقة خلال عام 2023 فحسب، علما بأن الخبراء يتوقعون زيادة هذه الأرقام بشكل كبير في العام الجاري. واستجابة لتلك المشكلة، بدأ الناشرون البارزون في تطوير أدوات ذكاء اصطناعي للكشف عن المحتوى المزيف.