🤖 كيف تميز استخدام الذكاء الاصطناعي في الميديا؟ الذكاء الاصطناعي يهيمن على عناوين الأخبار، ويحضر بقوة في حوارات الخبراء، ويغمر الأجيال الجديدة بأدوات وتقنيات مبهرة. تطورت هذه التكنولوجيا بشكل مرعب في فترة قصيرة، تقودها دوافع خفية لا نثق تماما في صدقها. وبين هلوسات الذكاء الاصطناعي والأخبار المزيفة، أصبحت الثقافة الرقمية ضرورة لا يمكن التهاون فيها. في هذا العدد من دليل إنتربرايز، نستكشف طرقا لرصد المحتوى المولد بالذكاء الاصطناعي، لنتمكن من تحديد المزيف من الحقيقي، وسط سيل الأخبار والمحتوى الذي لا ينتهي عبر وسائل التواصل الاجتماعي والميديا بشكلها الأوسع.

كيف ترصد الذكاء الاصطناعي في ما ترى وتسمع وتقرأ؟

في البدء كان من السهل اصطياد المحتوى المولد بالذكاء الاصطناعي لما فيه من صفات ومعالم مبالغ فيها تفضح استخدامه. أما الآن، فبينما نتصفح السوشيال ميديا، يصعب تجاهل سيل هذا النوع من المحتوى، الذي أصبح من شبه المستحيل أحيانا تمييزه عن المحتوى البشري.

ومع السرعة التي تتطور بها تلك الأدوات، فإن الاعتماد على حدسنا وحده لن يكون كافيا، إذ بدأ الكثير منا يقع ضحية تصديقه. وبينما توفر منصات مثل سورا التابعة لأوبن أيه أي وميتا أيه أي مساحات محدودة لإنتاج الفيديوهات بالذكاء الاصطناعي، لا يزال بإمكان المستخدمين تحميل محتوى منشأ بأدوات ذكاء اصطناعي خارجية دون أي التزام بالإفصاح عن مصدره، ما لم يكن هذا المحتوى قد أنتج عبر المنصة نفسها.

1#- الصور والفيديوهات:

إن أردت أن تخدع أحدا فعليك بما يراه. عندما تغيب الحقيقة عن الأعين، يصبح من السهل ممارسة التلاعب بالعقول، لذا قد يكون التمييز بين صورة أو فيديو مولد بالذكاء الاصطناعي، وصورة أو فيديو أصلي عملية شديدة الصعوبة، حتى بالنسبة للمحترفين ذوي الخبرة.

من أهم العناصر التي يجب الانتباه لها هي الأخطاء التشريحية في تكوين الأجسام والحركة، مثل كثرة الأصابع في اليدين، وحركات الجسم والوجوه غير الطبيعية، بالإضافة إلى الخلل أثناء الحركات. كما أن دلائل السياق بالغة الأهمية، لذا فإن التركيز على خلفية الصورة أو الفيديو والمحيط عادة ما يكشف عن التناقضات إن وجدت. اكتشاف النصوص غير المقروءة مؤشر واضح على استخدام الذكاء الاصطناعي، كما تعد الصور البراقة بشكل مبالغ فيه علامة تحذير واضحة، وكذلك الشعر اللامع بشكل واضح. ينصح أيضا بالتركيز إذا ما كان المظهر العام يتوافق مع سياق وبيئة الصورة أو الفيديو أم لا.

2#- النصوص:

النصوص المكتوبة بالذكاء الاصطناعي يصعب تتبعها، نظرا للتنوع الطبيعي في أساليب ولغات الكتاب البشر في ما يتعلق بالنبرة والأسلوب والصياغة والبنية. ومنذ ظهور بوتات الدردشة مثل تشات جي بي تي وجيميناي، أصبح التخلص من عبء مهام الكتابة أسهل من أي وقت مضى. هذه السهولة في إتمام المهام الكتابية تأتي على حساب خلق مجتمع من الكتاب المتطابقين، فانتشار النصوص غير الأصلية في العالم الرقمي يقوض قوة اللغة ويحد من قدرة الأفراد على استخدامها.

توجد بعض المؤشرات التي يمكن من خلالها تتبع النصوص المكتوبة بالذكاء الاصطناعي، مثل الإفراط في استخدام الشرطة الطويلة وبعض الرموز التعبيرية. عادة ما تحتوي تلك النصوص على أنماط من كلمات متوقعة وجمل قصيرة ذات تراكيب غير معقدة، بحسبسكرايبر. كما يجب الانتباه إلى الصياغة العامة واللغة المفرطة في التهذيب والتعميم والأخطاء المنطقية.

3#- الأصوات:

تزداد مخاطر استنساخ الأصوات البشرية واستغلالها يوما بعد يوم، خاصة بين الشخصيات السياسية والعامة المؤثرة. قد يكون الخداع الصوتي هو أكثر الأنواع خطورة، لأن الكشف عنه ليس سهلا مقارنة بأنواع المحتوى الأخرى، لذا يصبح من المهم أن يتقن المرء آلية تمييز الأصوات المولدة بالتقنيات المستحدثة فور سماعها. هناك علامات تحذيرية مثل الإيقاع غير الطبيعي والنطق السليم ووقفات الكلام غير المنطقية وغياب الضوضاء في الخلفية والمصطلحات غير المألوفة أو الدارجة، بحسب الشبكة العالمية للصحافة الاستقصائية. يمكن أن تكون الأصوات الاصطناعية دقيقة بشكل مريب، لكن افتقارها إلى الإنسانية والصدق العاطفي هو ما يكشفها.

الخوارزميات والمحتوى المضلل –

رصد الأخبار الكاذبة مهمة شاقة، ازدادت صعوبتها مع ظهور المحتوى المضلل والإعلانات. هوس جذب المشاهدات وزيادة التفاعل قد يدفع الكثيرين إلى تحريف المعلومات واستغلال انتباه المستخدمين. الذكاء الاصطناعي أيضا له دور في تعزيز هذه الممارسات المضللة، إذ كشفت دراسات حديثة أن أدوات الذكاء الاصطناعي ليس لها بوصلة أخلاقية، خصوصا عندما يتعلق الأمر بتحقيق هدف نهائي معين. الذكاء الاصطناعي مبرمج لجذب انتباه البشر، ما يجعل من وسائل التواصل الاجتماعي بيئة خصبة للتلاعب.

لا يؤثر الذكاء الاصطناعي على كيفية إنشاء المحتوى فحسب، بل قد يحدد أيضا المحتوى الذي يعرض في صدارة وسائل التواصل. تدمج السوشيال ميديا أدوات الذكاء الاصطناعي بشكل عميق في عملياتها، للمساعدة في بناء الخوارزميات وتفاعل المستخدمين وتفسير البيانات. في عام 2025 فقط، من المتوقع أن يبلغ سوق الذكاء الاصطناعي في وسائل التواصل الاجتماعي نحو 2.69 مليار دولار، مع توقعات بأن يصل إلى ما يقرب من 10 مليارات دولار بحلول عام 2030. يوجد حاليا أكثر من 1200 موقع إخباري ومعلوماتي مولد بالذكاء الاصطناعي، تنشر أخبارا كاذبة بـ 16 لغة دون إشراف بشري، حسبما وجدت منصة نيوزجارد.

الأخبار الكاذبة مشكلة لا يسببها الذكاء الاصطناعي وحده، ولكن ظهور أدواته الفعالة يمثل قوة تعزز من وجودها وانتشارها بشكل أسرع وأكثر تأثيرا. يرى البعض أن مخاوف تأثير الذكاء الاصطناعي على انتشار الأخبار الكاذبة مبالغفيها، ومع ذلك ينبغي التعامل مع المخاطر بحرص، والتدرب على اكتشافها.

1#- الخوارزميات أولا: تفاعلك مع المحتوى الذي تراه هو الأساس الذي تبنى عليه تجربتك الرقمية ككل. عدم المشاركة أو التفاعل مع المنشورات التي تروج للأخبار الكاذبة خطوة صغيرة لكنها مؤثرة. تتعلم الخوارزمية اهتمامات المستخدم، فتغرقه بالكثير منها سواء كان مبدعا من جانب البشر أو مختلقا بالذكاء الاصطناعي. كلما قل تفاعل المستخدمين مع المعلومات المضللة، قل ظهورها لهم، وقل طلب الذكاء الاصطناعي عليها.

2#- شكك في ما تراه: كل ما تراه أونلاين مصمم لجذب انتباهك وإثارة رد فعلك. فإذا أثار عنوان جدلي أو فيديو سخيف فضولك، عليك أن تسأل نفسك: لماذا وصلني هذا المنشور أو ذلك الفيديو؟ من المهم أن نختار متى نتفاعل ومتى نصوم عن ذلك. فحتى إن قرأ المستخدم خبرا مضللا، ينبغي أن يحكم عقله في كل ما يقرأه، ويتعامل مع السوشيال ميديا كمساحة لممارسة التفكير النقدي. ينصح باستخدام أدوات البحث العكسي عن الصور للتحقق من صحة الصورة، أو التوجه إلى منصات الأخبار الموثوقة للتأكد من صحة خبر ما.

3#- استخدم أدوات الكشف: يمكن أن تمثل أدوات الكشف عن الذكاء الاصطناعي ومواقع التأكد من الحقائق طرقا مفيدة للكشف عن زيف المعلومات. تتراوح دقة أدوات كشف الذكاء الاصطناعي الرائجة حاليا بين 65% و85%، وفق تقرير سكرايبر. مع الأسف، يمكن دائما التحايل على هذه الأدوات باستخدام خاصية التعرف على الأنماط، ما يعني أن هذه الأدوات ليست الحل الأمثل لمكافحة الذكاء الاصطناعي التوليدي المضلل. ومع ذلك، يمكن أن تساعد في تحديد معظم أخطاء الذكاء الاصطناعي.

اسبق بخطوة –

من المهم أن يعي المستخدم خطورة “الدووم سكرولينج” أو التمرير السلبي المستمر بلا توقف عبر السوشيال ميديا. فهم المستخدم لآلية عمل الخوارزميات، وتعامله بذكاء ووعي يساعد في خلق تجربة رقمية آمنة وأكثر صحة. تعريض العقل الباطن بكثرة إلى متعة التصفح اللا نهائي يؤدي إلى ما يشبه الغرفة الفارغة التي يتردد الصدى فيها بلا توقف، فيتعرض المستخدم لسيل من الآراء ووجهات النظر والمحتوى المتشابه.

كيف تتحكم في تجربتك الرقمية؟ بمجرد فهم الآلية التي تعمل بها خوارزميات السوشيال ميديا، يمكنك التصفح بطريقة أكثر ذكاء. ينصح بكتم الحسابات والمنصات والكلمات التي غالبا ما تروج للمحتوى المولد بالذكاء الاصطناعي والأخبار الكاذبة. كما أن الضغط على زر “غير مهتم” خطوة ضرورية تغذي الخوارزمية بما تريده وما لا تريده أثناء التصفح. مسح سجل التصفح وذاكرة التخزين المؤقتة للتطبيق كذلك تمثل طريقة بسيطة لكسر وإعادة ضبط الأنماط السائدة.

احرص على تنويع المحتوى الذي تشاهده: ينصح بأن تكون الصفحة الرئيسية لحسابك متنوعة، لتجنب تكرار المحتوى. ابحث دائما عن منصات ذات وجهات نظر مختلفة، وكن انتقائيا في المحتوى الذي تتفاعل معه، ليكون بإمكانك إفساح المجال لمزيج أوسع من المحتوى، وليس فقط المحتوى الذي يتشابه مع أفكارك بقوة.