في خضم الحروب، لا تُدار المعارك فقط على الأرض، بل أيضًا على شاشات الهواتف. ومع تصاعد التوترات، تغرق شبكات التواصل الاجتماعي بفيضٍ من الصور ومقاطع الفيديو التي تبدو حقيقية لكن كثيرًا منها مُفبرك ومزيّف باستخدام أدوات الذكاء الاصطناعي. فكيف يمكن التمييز بين الحقيقة والوهم؟

مع اندلاع ما يُعرف بـ”حرب إيران 2″، فاضت شبكات التواصل الاجتماعي وشبكة الإنترنت بموجة غير مسبوقة من المحتوى المزيف والمفبرك: انفجارات لم تقع في مدن إسرائيلية، هجمات مفبركة في طهران، وحتى مقاطع تُظهر شخصيات أو جهات تعلن مواقف لم تصدر عنها أصلًا. هذه المواد لا تبقى حبيسة المنصات الاجتماعية، بل تجد طريقها أحيانًا إلى وسائل الإعلام التقليدية.
على سبيل المثال، في النشرة الرئيسية لأخبار القناة 12، أدرجوا ضمن تقرير عن محاولة اغتيال المرشد الأعلى لإيران، علي خامنئي، صورة مُزيفة بالذكاء الاصطناعي لجثته تحت الأنقاض، رغم أن تلك الصورة كانت قد تم التعرف عليها مسبقًا على أنها غير حقيقية بعد أن نشرها محللهم، عميت سيغل، في قناته على تيليغرام.
في عدة حالات، تم بث صور ومقاطع تبيّن لاحقًا أنها مُولدة بالذكاء الاصطناعي أو مأخوذة من ألعاب فيديو ومحاكيات طيران، لكنها قُدِّمت على أنها توثيق حقيقي لأحداث عسكرية. بعض هذه المواد حصد ملايين المشاهدات خلال ساعات، ما يعكس حجم التأثير وسرعة الانتشار.
لا تتعامل مع كل ما تراه على أنه حقيقة، خاصة في أوقات الحرب والأزمات. توقّف، اسأل، وابحث قبل أن تضغط زر “مشاركة”
في المجتمع العربي، تم نشر صورة عبر مجموعات الواتساب تُظهر سقوط صاروخ على فرع بنك في بلدة عربية وتساقط الأوراق النقدية على الأرض مثل المطر ووجود عشرات الناس في الموقع وهي تجمع النقود عن الأرض. هذه الصورة كانت أيضا مفبركة ومزيفة بشكل تام ولا تمت بصلة للواقع.

من يربح من هذه الفبركات؟
اللافت أن جزءًا كبيرًا من هذا المحتوى لا ينتجه خصوم سياسيون أو جهات معادية، بل صانعو محتوى يسعون للربح. عبر منصات مثل “إكس” (تويتر سابقًا)، يمكن تحقيق دخل من المحتوى واسع الانتشار، ما يدفع بعض المستخدمين إلى تصنيع مشاهد حرب درامية تلبي طلب الجمهور على “الإثارة”.
ورغم إعلان المنصات عن قيود على تحقيق الأرباح من محتوى الذكاء الاصطناعي غير المُعلَّم، فإن هذه الإجراءات لا تزال محدودة التأثير، خصوصًا في المراحل الأولى للأحداث، حيث تنتشر المقاطع بسرعة قبل التحقق منها.

كيف تكتشفون المحتوى المزيف؟
رغم التطور السريع في تقنيات الذكاء الاصطناعي، لا تزال هناك مؤشرات يمكن من خلالها كشف التزييف. إليكم خمس قواعد عملية تساعدكم على التحقق قبل المشاركة:
- أحداث وأصوات مفزعة تُثير المشاعر والرعب
معظم محتوى الحروب يهدف إلى إثارة مشاعر قوية لدى المشاهدين وتصوير لحظات الذروة والرعب في مواقع الإصابة المختلفة. انفجارات “مثالية”، ألسنة لهب هائلة، مناورات لطائرات حربية أو صرخات هلع لمدنيين في الخلفية. هذه عادةً أحداث يصعب جدًا توثيقها في الزمن الحقيقي، ومن الجدير التشكيك في صحتها. وكلما كان المشهد أكثر تطرفًا وإبهارًا وسينمائيةً، زادت احتمالية كونه مزيفًا.
- أخطاء في اللغة والرموز
الذكاء الاصطناعي لا يزال يخطئ في النصوص، خصوصًا بالعبرية أو العربية. انتبهوا إلى اللافتات، الشعارات، الرتب العسكرية أو أسماء الأماكن، أي خلل فيها قد يكون مؤشرًا على التزييف.
- تفاصيل جسدية غير طبيعية
افحصوا الأيدي، الأصابع، ملامح الوجه أو الإكسسوارات. رغم تحسن النماذج، لا تزال هذه التفاصيل تكشف الكثير من الأخطاء، مثل تشوهات أو أوضاع غير منطقية.
- خلفيات غير متناسقة
غالبًا ما تبدو العناصر في الخلفية مشوشة أو غير مكتملة: أشخاص مكرّرون، ظلال غير منطقية، أو تفاصيل مقطوعة. لا تركّز فقط على الحدث الرئيسي، الخلفية قد تكشف الحقيقة.
- استخدام أدوات التحقق
جرّبوا البحث العكسي عن الصور عبر Google، أو استخدم أدوات ذكاء اصطناعي لفحص المحتوى. أحيانًا يمكن العثور على نفس الصورة في سياق مختلف، أو ضمن تقارير تدقيق حقائق. لكن تذكّر: هذه الأدوات ليست معصومة عن الخطأ.
القاعدة الأهم: شكّكوا قبل أن تُشاركوا
في نهاية المطاف، تبقى أهم مهارة هي التفكير النقدي. لا تتعامل مع كل ما تراه على أنه حقيقة، خاصة في أوقات الحرب والأزمات. توقّف، اسأل، وابحث قبل أن تضغط زر “مشاركة”.
*عيدان رينغ هو محاضر وباحث في مجال الإعلام، ونائب المدير العام لشؤون المجتمع في اتحاد الإنترنت الإسرائيلي.
**المقالات تعبر عن وجهة نظر أصحابها وليس عن وجهة موقع وصلة للاقتصاد والأعمال.










