أخبار حياة –مع تسارع حدة الأخبار الزائفة عبر المنصات الرقمية، يبرز الذكاء الاصطناعي التوليدي كـ “سلاح ذي حدين” في مواجهة التضليل. ومع هيمنة نماذج اللغة الضخمة، لم تعد معركة المعلومات المضللة تقنية بحتة، بل أصبحت صراعاً متحضراً يجمع بين ذكاء الآلة، وعي الإنسان، وحزم السياسات العامة.
ورغم أن الأبحاث في هذا المجال لا تزال في مراحلها الأولى، فإن قراءة تحليلية حديثة، اعتمدت إطاراً محدثاً لـ “نقاط القوة والضعف والفرص والتهديدات” تكشف سبعة أدوار رئيسية يمكن أن يؤديها الذكاء الاصطناعي في مواجهة المعلومات المُضللة، لها مكاسب واعدة.
1- المُخبر.. مُرشد المعرفة الذكي
بصفته مصدراً للمعلومات، يعمل الذكاء الاصطناعي كمُفسِّر ومُلخِّص عند الطلب، حيث يساعد المستخدمين على البحث عبر مصادر متعددة ولغات مختلفة، وتلخيص المحتوى المعقد، ومُقارنة الروايات المتباينة، وتبسيط المفاهيم بحسب مستوى الفهم.

لكن “الدقة” هنا مشروطة بجودة بيانات التدريب، فأي خلل في المصدر قد يُترجم إلى معلومة مُضللة مغلفة بثقة عالية.
2- الحارس.. خط الدفاع الأول
في هذه المهمة يؤدي الذكاء الاصطناعي دور “الحامي”، مع دعمه لأنظمة التحقق الآلي، وكشف الصور والفيديوهات المزيفة، وتصنيف الادعاءات ومقارنتها بالأدلة، وتنبيه المستخدمين عبر إضافات المتصفح.
كما أن قدرته على المراقبة في الوقت الفعلي تمنحه ميزة في رصد موجات التضليل الناشئة، لكن التحدي قائم ويكمن في صعوبة اكتشاف التكتيكات الجديدة، وضعف فهم السياق الثقافي أو السخرية، واحتمال تصنيف محتوى صحيح كمضلل، وللتغلب على ذلك من المهم دمج الذكاء الاصطناعي برقابة بشرية لضمان التوازن والدقة.
3- المُقنع.. مهندس الخطاب المضاد
هنا يتحول الذكاء الاصطناعي إلى طرف فاعل في المعركة السردية من أجل “الإقناع”، عبر روبوتات دردشة ترد على نظريات المؤامرة، ورسائل موجهة تدعم الإجماع العلمي، وحوارات تعزز التفكير التأملي.
وفي ذلك يمكنه إنتاج رسائل مقنعة بسرعة وعلى نطاق واسع، حتى في القضايا الحساسة مثل الصحة العامة.
4- المُكامل.. وسيط الحوار الديمقراطي
في البيئات المنقسمة، يستطيع الذكاء الاصطناعي دمج وجهات النظر المتعددة لتحقيق “التكامل”، وإبراز نقاط الاتفاق والاختلاف، وصياغة ملخصات متوازنة للنقاشات، وهو ما قد يدعم عمليات التداول الديمقراطي وصناعة السياسات.
5- المتعاون.. مُساعد البحث الذكي
كشريك بحثي، يساعد الذكاء الاصطناعي على صياغة الأسئلة، وتنظيم المصادر، وتقييم جودة الأدلة، ورسم خرائط الأدبيات.
وفي السياقات الأكاديمية، يمكنه توسيع الوصول إلى المعرفة وتحفيز التفكير ما وراء المعرفي.
لكن إشكالية “الصندوق الأسود” تبقى حاضرة، فغياب الشفافية قد يخلق وهماً بالدقة، ويدفع المستخدمين إلى قبول نتائج غير دقيقة دون تمحيص.
6- المُعلم.. مدرب التفكير النقدي
في الفصول الدراسية، يمكن للذكاء الاصطناعي أن يقدم تغذية مرجعية فورية، وتدريبات على التحقق من الحقائق، تبسيطًا للمفاهيم المعقدة، ومحاكاة تفاعلية لتقييم المعلومات، فضلاً عن أن إمكاناته في التخصيص والتوسع هائلة، لكن محدودية فهمه للسياق الأخلاقي أو السخرية تجعله غير كافٍ بمفرده كمعلم.
في هذا السياق، تكون التربية الإعلامية المعززة بالذكاء الاصطناعي خطوة مُهمة، بشرط أن تُصمم لتعزيز التفكير النقدي لا الاتكالية.
7- صانع الألعاب.. التعلم بالمحاكاة
من خلال الألعاب الجادة والمحاكاة واستخدام تقنيات “التلعيب”، يمكن للذكاء الاصطناعي إنشاء سيناريوهات تدريبية لمواجهة التضليل، وتوليد شخصيات وسرديات تفاعلية، وضبط مستوى الصعوبة وفق أداء المتعلم، حيث أثبت التعلم القائم على الألعاب فعالية في تنمية مهارات التحقق.
بشكل عام، يجب استخدام أنظمة الذكاء الاصطناعي بطرق تُعظّم الفوائد مع تقليل المخاطر، وتُعدّ الرقابة البشرية ضرورية لضمان أن تُكمّل أنظمة الذكاء الاصطناعي الحكم البشري لا أن تحلّ محلّه.
كما أن الشفافية في توليد محتوى الذكاء الاصطناعي ونشره ضرورية لمنع إساءة استخدامه، لذا من الضروري مراقبة قدرات الذكاء الاصطناعي الإقناعية وتصميمها لتشجيع التفكير النقدي بدلاً من القبول السلبي.
وينبغي أن تُعزّز المبادرات التعليمية، عموماً وفي البيئات التعليمية كالمدارس على وجه الخصوص، الوعي بالذكاء الاصطناعي، وأن تُزوّد المستخدمين بمهارات تقييم مخرجات الذكاء الاصطناعي بشكل نقدي، وأن تُعيق ترسيخ التحيزات والصور النمطية.
