
كثيرًا ما تنتشر خلال الحروب والأزمات صورٌ ومقاطع فيديو قديمة أو مفبركة، وذلك من أجل تزييف الحقائق ونشر معلومات مضللة، أو حتى لمجرد زيادة عدد المشاهدات.
وفي الحرب التي ما تزال تخوضها إسرائيل والولايات المتحدة الأمريكية ضد إيران، وصلت هذه المشكلة الآن إلى مستوى جديد. بحيث أنَّ وكالات الصور نفسها صدّقت الصور المفبركة أو المزيفة التي تصل إلى غرف الأخبار في أنحاء أوروبا.
وبعض هذه الصور يبدو أنَّها منتجة بالذكاء الاصطناعي، وكذلك توجد صور أخرى معدلة رقميًا. ما الذي حدث وكيف يمكننا اكتشاف الفبركة والتزييف بواسطة الذكاء الاصطناعي؟
قصة صور “سلام بيكس”
في بداية آذار/ مارس 2026، ذكرت وسائل إعلام هولندية أنَّ وكالة الأنباء الهولندية ANP قد حذفت نحو ألف صورة متعلقة بإيران من قاعدة بياناتها، وذلك بسبب الاشتباه في أنَّ بعض هذه الصور مفبركة باستخدام الذكاء الاصطناعي.
وبعد يومين، ذكر الفرع الهولندي لشبكة RTL الإعلامية أنَّ خدمة أخبار RTL Nieuws التلفزيونية التابعة لها قد استخدمت من دون سابق معرفة ثلاث صور من هذه الصور ونشرتها على موقعها الإلكتروني وفي تطبيقها. وبعد إعلان وكالة الأنباء الهولندية أنَّ هذه الصور مفبركة بالذكاء الاصطناعي، أزالتها قناة RTL من موقعها وتطبيقها، ونشرت شرحًا مفصلًا للصور التي حذفتها وأسباب حذفها.
وبعد وقت قصير، أعلنت أيضًا مجلة “دير شبيغل” الألمانية أنَّها استخدمت في تغطيتها الإعلامية صورة ثبت لاحقًا أنَّها مولّدة بالذكاء الاصطناعي.
وفي كلا الحالتين، نشرت هذه الصور وكالات أنباء ذات سمعة جيدة. فقناة RTL أخذت الصور التي نشرتها من وكالة الأنباء الهولندية ANP، بينما حصلت مجلة دير شبيغل على صورها عبر وكالة الصور Picture Alliance التابعة لوكالة الأنباء الألمانية dpa، ووكالة الصور ddp، ووكالة Imago Images، بعد أن حصلت عليها عبر وكالة الأنباء الفرنسية Abaca Press.
وتبيّن في النهاية أنَّ مصدر الصور يعود إلى وكالة الأنباء الإيرانية “سلام بيكس”. وبحسب مجلة دير شبيغل فقد قدّمت وكالة “سلام بيكس” الصور لوكالة Abaca Press، ووصلت من هناك إلى قواعد بيانات العديد من الوكالات الدولية، وأخيرًا إلى غرف الأخبار.
وعادة ما تقوم وكالات الأنباء بجمع الصور والمحتويات الإعلامية الأخرى من جميع أنحاء العالم، وتبيع هذه المعلومات وتوزعها على الصحف ومحطات التلفزيون والإذاعة، التي تستخدمها في تغطيتها الاعلامية.
وبعد اكتشاف الصور المفبركة بالذكاء الاصطناعي، قامت العديد من وكالات الصور بحظر وكالة “سلام بيكس” وطلبت من عملائها الإعلاميين أن يحذفوا من منشوراتهم صور سلام بيكس.
كيف تم خداع وكالات الصور؟
ويعتبر “امتياز الوكالة” في ألمانيا مصطلحًا قانونيًا يسمح للمؤسسات الإعلامية باستخدام المواد التي تقدمها وكالات الأنباء من نصوص وصور وفيديوهات، وهي على ثقة بأنَّ هذه المواد حقيقية وتم التحقق من صحتها. وحتى القنوات العالمية مثل دويتشه فيله (DW) تعتمد بانتظام على الوكالات في تغطيتها الإعلامية للأحداث العالمية.
ومع ذلك فإنَّ زيادة المحتويات المنتجة والمفبركة بالذكاء الاصطناعي، والتي تبدو مقنعة على نحو متزايد، تزيد من صعوبة التمييز بين الصور الحقيقية والمزيفة. والتحدي هنا لا يقصر فقط على الجانب النقني، بل يشمل الجانب اللوجستي أيضًا. ففي وضع إخباري يتطوّر بسرعة، يشاهد الصحفيون والوكالات كميات هائلة من المواد المرئية خلال فترة قصيرة جدًا. فمنذ بداية عام 2026، وصلت إلى DW نحو 140 ألف صورة يوميًا من الوكالات.
وحول ذلك قال ماتياس شتام، رئيس تحرير DW: “الشفافية واحدة من أهم أولوياتنا. وعند استخدامنا محتويات منتجة بالذكاء الاصطناعي، فيجب علينا تحديدها بوضوح وبشكل لا لبس فيه. وإعندما نرتكب خطأ، كما حدث في استخدام صور من وكالة سلام بيكس، فإنَّنا نعترف بالخطأ ونلتزم بالشفافية”.
أمثلة من الصور التي استخدمتها DW
وفي مراجعة جرت بعد التقارير الأولى حول صور وكالة سلام بيكس، اكتشفت DW أنَّ هناك صورًا من هذه الوكالة قد وصلت أيضًا إلى تغطيتها الإعلامية. وبعد ذلك حذفت DW جميع صور سلام بيكس من منشوراتها وأشارت في ملاحظات تصحيحية أسفل المقالات إلى هذا التغيير في المحتوى.
يعرض في هذا المثال مشهد يبدو واقعيًا لشارع بعد ضربة صاروخية مزعومة في طهران. تشاهد في المقدمة سيارات صفراء، ربما سيارات أجرة. وفي الخلفية توجد مبانٍ يتصاعد خلفها دخان. وهذه الصورة نشرتها وكالات أنباء في عام 2026.
ولكن عند النظر إليها وتدقيقها عن كثب تظهر فيها بعض أخطاء الذكاء الاصطناعي الواضحة.
ويتجلى هذا بشكل أوضح عند تدقيق الكتابة الموجودة على أحد الجدران وعلى إحدى السيارات. وهذه الكتابة تبدو كنصوص حقيقية، ولكن عند تكبير الصورة، يتضح أنَّها ليست عربية ولا فارسية. بل هي في الواقع مجرّد كتابة مزيّفة لا معنى لها ولا تشبه أية لغة حقيقية. وهذا خطأ شائع في الصور المولّدة بالذكاء الاصطناعي.
ومن أخطاء الذكاء الاصطناعي الأخرى ظهور المباني بأشكال غير مألوفة وأشياء تتحدى كل منطق. وبالإضافة إلى نافذة السيارة ذات الشكل الغريب، تشاهد في وسط الصورة جدران ونوافذ المبنى منحرفة للخارج غير مستوية.
وتشاهد في الزاوية السفلية اليسرى من الصورة سيارة وحافلة، يكشف تكبير الصورة عن أنَّ شكلهما غريب، ولا يشبه أيًا من موديلات المركبات الموجودة.
ونشهاد في مثال آخر رجلًا يرتدي ملابس سوداء ويحمل بيده سلاحًا. وجاء في التعليق التوضيحي أسفل الصورة: “طهران: قوات أمن إيرانية مسلحة تطلق النار لتفريق المتظاهرين خلال مظاهرات في 8 كانون الثاني/يناير 2026“.
وتظهر هنا أيضًا في هذه الصورة أخطاء الذكاء الاصطناعي بوضوح: الشخص الظاهر في الصورة يبدو أنَّ لديه قدمين مختلفتين جدًا وفردتي حذائه مختلفتان في الشكل والحجم. وظله (خاصة ظل اليد اليمنى فوق السلاح الناري) لا يتطابق مع أجزاء الجسم الحقيقية.
وكذلك تبدو اليد غير طبيعية من الناحية التشريحية أيضًا، إذ يبدو أنَّ هناك جزءًا مفقودًا بين الإبهام والسبابة.
وعند مراجعة صور قديمة نشرتها سلام بيكس، لاحظ أيضًا فريق تدقيق الحقائق التابع لـDW وجود جوانب مختلة. وفي تحقيقات مشابهة توصلت صحيفة زود دويتشه تسايتونغ، وهي إحدى أكبر الصحف اليومية في ألمانيا، إلى النتيجة نفسها.
وإحدى الصور التي حللتها DW موجودة في أعلى هذا المقال. من المفترض أنَّ هذه الصورة تعرض متظاهرين اشتبكوا مع قوات الأمن خلال احتجاجات ضد النظام الإيراني في تشرين الثاني/نوفمبر 2022 بمدينة مهاباد.
وتحتوي هذه الصورة على أخطاء من الذكاء الاصطناعي كانت شائعة في تلك الفترة: فبعض الأشخاص تبدو أيديهم وخاصة أصابعهم وكأنها منحوتة من الخشب. ونوافذ المبنى على اليسار ليست على مستوى واحد. وكذلك الشخص الموجود في أقصى اليمين وجهه مُشوّه.
كيف يمكن كشف الصور المفبركة؟
مع التحسين المستمر لأدوات الذكاء الاصطناعي، تزداد باستمرار صعوبة التمييز بين الصور المزيفة والحقيقية. ويزداد أيضًا خطر التعرّض للخداع بالنسبة لمستخدمي الصور، مثل الصحفيين. كما تُظهر هذه الحالات بكل وضوح.
المؤسسات الإعلامية مثل DW تستثمر كثيرًا في تدريب موظفيها من أجل تمكينهم من التعرف على الصور المفبركة بالذكاء الاصطناعي واكتشافها بشكل أفضل. وضمن هذا السياق يقوم فريق تدقيق الحقائق في DW بإنتاج محتويات تهدف إلى مساعدة جمهورنا على توسيع معرفتهم الإعلامية وفهم كيفية كشف الصور ومقاطع الفيديو المضللة.
أعده للعربية: رائد الباش
تحرير: عارف جابو
Source link
فضل محمد خير


