حقائق رئيسية
- ثلاثة فيديوهات من صنع الذكاء الاصطناعي تزعم زوراً إظهار ضرر عاصفة ثلجية في كامتشاتكا، روسيا، انتشرت على منصات التواصل الاجتماعي في 19 يناير 2026.
- التحليل المستقل باستخدام HiveModeration اكتشف احتمالية 99.9% بأن جميع الفيديوهات الثلاثة تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي.
- مُكتشف SynthID التابع لشركة جوجل حدد علامة مائية رقمية في الفيديو الثالث، مما أكد أنه تم إنشاؤه باستخدام تقنية الفيديو الخاصة بالذكاء الاصطناعي من جوجل.
- عمليات البحث العكسي للصور تتبع أصول الفيديوهات إلى مُنشئي محتوى في تركيا وحسابات إنستغرام متخصصة في محاكاة الذكاء الاصطناعي، وليس إلى شبه الجزيرة الروسية.
- تزامنت الفيديوهات مع أشد تساقط ثلج في كامتشاتكا خلال 60 عاماً، مما خلق ظروفاً مثالية لانتشار المعلومات المضللة.
- الدليل المرئي على التزوير شمل طفلاً ينزلق على كومة ثلج دون ترك أي آثار أقدام أو مسارات في الثلج.
ملخص سريع
فيديوهات مذهلة تنتشر على وسائل التواصل الاجتماعي تزعم إظهار ما بعد عاصفة ثلجية تاريخية في كامتشاتكا، روسيا. يظهر المقطع مباني مدفونة تحت الثلج وأطفالاً ينزلقون على الجدران المتجمدة.
ومع ذلك، يكشف التحليل أن المقطع مُصنوع بالكامل. تؤكد أدوات التحقق المستقلة أن الفيديوهات هي من صنع الذكاء الاصطناعي وليست توثيقاً للأحداث الجوية الفعلية في المنطقة.
المقطع المنتشر
ثلاثة فيديوهات محددة اكتسبت انتشاراً على X (تويتر سابقاً) يوم الاثنين، 19 يناير. تزامن التوقيت مع أشد تساقط ثلج أصاب شبه جزيرة كامتشاتكا خلال 60 عاماً.
يظهر الفيديو الأول مبنى مغطى بالكامل بالثلج، مع أطفال يتسلقون من نافذة وينزلقون على الكومة الضخمة. يترجم الصوت الروسي إلى: "نوسا، يبدو أنه سقط مباشرة من السطح. هذا الطابق الرابع، إنه مخيف. لكنه ممتع".
يعرض مقطع ثلثي مبنى مدفون تحت الثلج، بينما يظهر مقطع ثالث مجمّع شوارع محاطة بجدران ثلجية شاهقة يمشي الناس بينها. تشير التسميات التوضيحية بالإنجليزية إلى أن "الشتاء وصل إلى كامتشاتكا" وأن "الحياة مستمرة بهدوء مذهل" وسط المنظر المتجمد.
"نوسا، يبدو أنه سقط مباشرة من السطح. هذا الطابق الرابع، إنه مخيف. لكنه ممتع"
— ترجمة الصوت الروسي من الفيديو
التحقق التقني
كشف التحليل الجنائي للفيديوهات عن علامات صناعية متسقة. HiveModeration، وهو أداة مصممة للكشف عن الوسائط المُعدّلة بالذكاء الاصطناعي، حلّل جميع المقاطع الثلاثة.
كانت النتائج حاسمة:
- الفيديو الأول: احتمالية 99.9% لصور وصوت من صنع الذكاء الاصطناعي
- الفيديو الثاني: احتمالية 99.9% للإنشاء بالذكاء الاصطناعي
- الفيديو الثالث: احتمالية 99.9% للإنشاء بالذكاء الاصطناعي
قدم شذوذ مرئي في الفيديو الأول دليلاً فورياً على التزوير: طفل ينزلق على كومة الثلج لا يترك أي آثار أقدام أو مسار في الثلج.
"مُصنوع بذكاء اصطناعي من جوجل (فيديو) – تم التعرف على Synth ID في كامل أو جزء من المحتوى المرفوع"
خضع الفيديو الثالث لفحص إضافي باستخدام مُكتشف SynthID الخاص بجوجل. حددت هذه الأداة علامة مائية رقمية مضمنة مباشرة في إطارات الفيديو – تقنية غير ملموسة للمشاهدين البشريين ولكنها قابلة للتتبع من قبل أنظمة جوجل. أكد التحليل وجود هذه العلامة المائية عبر الفيديو بالكامل تقريباً.
كشف الأصول
تتبع عمليات البحث العكسي للصور باستخدام Google Lens الفيديوهات إلى مصادرها الفعلية، والتي لم تكن في روسيا.
الفيديو الأول، الذي يظهر "انزلاق الثلج"، نُشر أصلاً على إنستغرام في 18 يناير من قبل مُنشئ محتوى متخصص في محاكاة الذكاء الاصطناعي. أشارت الوسوم في التسمية التوضيحية بوضوح إلى الطبيعة الصناعية للمحتوى.
ظهر الفيديو الثاني على تيك توك في 16 يناير، ونُشر من قبل حساب مخصص لمحتوى من صنع الذكاء الاصطناعي.
الفيديو الثالث، الذي حددته SynthID على أنه محتوى ذكاء اصطناعي من جوجل، نُشر من قبل مصمم جرافيك مقره أنقرة، تركيا في 12 يناير. شرح التسمية التوضيحية الأصلية أن المقطع هو محاكية لكيفية ظهور المدينة التركية تحت الثلج.
العاصفة الحقيقية
استغلت حملة المعلومات المضللة حدثاً جوياً حقيقياً. في اليوم نفسه الذي انتشرت فيه الفيديوهات، شهدت كامتشاتكا أشد عاصفة ثلجية خلال ستة عقود.
أنتجت العاصفة الحقيقية كومات ثلجية ضخمة، وأغلقت مداخل المباني، ودفنت المركبات. وفر هذا الحدث الجوي الحقيقي الخلفية المثالية للفيديوهات المُصنوعة لكسب المصداقية.
من خلال ربط المقطع بحدث إخباري حقيقي يحدث في تلك اللحظة بالضبط، ضمن المنشئون أن المحتوى سيُنظر إليه على أنه توثيق حقيقي للأحداث الجوية التاريخية.
الاستنتاجات الرئيسية
يُظهر هذا الحادث التطور المتزايد لـ المعلومات المضللة من صنع الذكاء الاصطناعي وقدرتها على استغلال الأحداث الواقعية. تم إنشاء الفيديوهات وتوزيعها خلال العاصفة الفعلية، مما جعلها تبدو في الوقت المناسب ذات الصلة.
تُوفر أدوات التحقق مثل HiveModeration و SynthID قدرات أساسية للكشف عن المحتوى الصناعي، ولكن السرعة التي تنتشر بها المعلومات المضللة غالباً ما تتجاوز جهود التحقق من الحقائق.
مع تقدم تقنية إنشاء الفيديو بالذكاء الاصطناعي، سيتطلب التمييز بين المقطع الأصلي والإنشاءات الصناعية كلاً من الأدوات التقنية وزيادة الوعي الإعلامي بين المستهلكين.
"مُصنوع بذكاء اصطناعي من جوجل (فيديو) – تم التعرف على Synth ID في كامل أو جزء من المحتوى المرفوع"
— نتيجة تحليل مُكتشف SynthID التابع لجوجل
أسئلة متكررة
ما الذي تزعمه فيديوهات الذكاء الاصطناعي إظهاره؟
تزعم الفيديوهات إظهار ما بعد عاصفة ثلجية تاريخية في كامتشاتكا، روسيا. تظهر مباني مدفونة بالكامل تحت الثلج وأطفالاً ينزلقون على الجدران المتجمدة وكأنها منزلقات ضخمة.
كيف تم التعرف على الفيديوهات على أنها مزيفة؟
حلّلت أدوات التحقق المستقلة المقطع ووجدت احتمالية 99.9% للإنشاء بالذكاء الاصطناعي. حدد مُكتشف SynthID التابع لجوجل أيضاً علامة مائية رقمية مضمنة في إطارات الفيديو، مما أكد أنه تم إنشاؤه باستخدام تقنية الذكاء الاصطناعي الخاصة بجوجل.
من أين أصل الفيديوهات فعلياً؟
تتبع عمليات البحث العكسي للصور الفيديوهات إلى مُنشئي محتوى في تركيا وحسابات إنستغرام متخصصة في محاكاة الذكاء الاصطناعي. نُشر المقطع قبل أيام من عاصفة كامتشاتكا، مع تسميات توضيحية تشرح أنه محاكية أو إنشاء بالذكاء الاصطناعي.
لماذا اكتسبت الفيديوهات انتشاراً؟
انتشرت الفيديوهات في اليوم نفسه الذي شهدت فيه كامتشاتكا أشد تساقط ثلج خلال 60 عاماً. جعل هذا التوقيت المقطع المُصنوع يبدو وكأنه توثيق حقيقي لحدث جوي حقيقي، مما زاد من مصداقيته وقابلية مشاركته.










