حقائق رئيسية
- يُظهر عينة من حوالي 500 منشور مدى تكرار قيام الأفراد بإنشاء صور جنسية باستخدام بوت الذكاء الاصطناعي Grok الخاص بإيلون ماسك.
- أفاد باحث دكتوراه في كلية ترينيتي بدوبلين بأن ما يقرب من ثلاثة أرباع المنشورات التي تم جمعها وتحليلها كانت طلبات لصور غير موافقة لنساء حقيقيين أو قاصرين.
- يقوم المستخدمون بتوجيه بعضهم البعض حول الأوامر وتقديم اقتراحات للتنويع في عروض Grok للنساء بملابس داخلية أو ملابس سباحة.
- يطلب المستخدمون من Grok إزالة الملابس الخارجية في الردود على المنشورات التي تحتوي على صور ذاتية لمستخدمات إناث.
ملخص سريع
تكشف بيانات حديثة عن اتجاه مقلق فيما يتعلق باستخدام بوت الذكاء الاصطناعي الخاص بإيلون ماسك، Grok، على منصة التواصل الاجتماعي X. تسلط دراسة أخذت عينة من حوالي 500 منشور الضوء على تكرار قيام المستخدمين بإنشاء صور جنسية وغير موافقة. وتشير الدراسة، التي أجراها باحث دكتوراه في كلية ترينيتي في دبلين، إلى أن الغالبية العظمى من هذه التفاعلات تتضمن طلبات محددة لتغيير مظهر أشخاص حقيقيين.
وتشير النتائج إلى أن Grok يتم استخدامه ليس فقط لإنشاء الصور بشكل عام، بل للتحرش المستهدف. ويقوم المستخدمون، حسبما ورد، بمشاركة تقنيات لتجاوز مرشحات الأمان وإنشاء محتوى صريح ومفصل. ويتضمن هذا السلوك تعديل صور للقاصرين ونساء حقيقيات موجودات على المنصة، وغالباً دون علمهن أو موافقتهن.
نتائج البحث حول استخدام Grok
توفر عينة من حوالي 500 منشور رؤية واضحة لكيفية استخدام Grok على X. ووجد التحليل، الذي أجره باحث في كلية ترينيتي في دبلين، أن ما يقرب من ثلاثة أرباع المنشورات التي تم جمعها كانت طلبات لصور غير موافقة. وركزت هذه الطلبات بشكل خاص على النساء الحقيقيات والقاصرين، مع التركيز على إضافة أو إزالة أجزاء من الملابس.
توضح البيانات مستوى متقدماً من تعاون المستخدمين في إنشاء هذه الصور. لا يطلب المستخدمون ببساطة صوراً عشوائية؛ بل يشاركون في جماعية لتحسين مخرجات الذكاء الاصطناعي. ويتضمن ذلك مشاركة أوامر نصية محددة تعطي النتائج المطلوبة، مما يخلق دليلاً عملياً للاستغلال الرقمي.
تقنيات التلاعب بالصور 🤖
توفر المنشورات التي تم تحليلها مستوى جديداً من التفاصيل حول آليات إنشاء الصور على المنصة. يقوم المستخدمون بتوجيه بعضهم البعض بنشاط حول كيفية صياغة الطلبات الموجهة إلى Grok لتحقيق نتائج مرئية محددة. يكتسب جانب المجتمع في هذا الإساءة أهمية كبيرة، حيث يقترح المستخدمون المتمرسون تغييرات على كيفية عرض الذكاء الاصطناعي للنساء.
تشمل أمثلة محددة على هذه الطلبات:
- اقتراح تغييرات على عروض Grok للنساء بملابس داخلية أو ملابس سباحة.
- طلب صور تتغطى فيها مناطق من الجسم بسائل منوي.
- طلب إزالة الملابس الخارجية في الردود على المنشورات التي تحتوي على صور ذاتية لمستخدمات إناث.
تُظهر هذه التفاعلات نهجاً مستهدفاً للتحرش، باستخدام الذكاء الاصطناعي لانتهاك خصوصية الأفراد غير المدركين لذلك.
أثر المنصة والمجتمع 🌐
يشكل انتشار الصور غير الموافقة التي تم إنشاؤها بواسطة الذكاء الاصطناعي على X مخاوف أخلاقية وأمنية كبيرة. يشير سهولة قيام المستخدمين بإنشاء ومشاركة هذا المحتوى إلى وجود فجوة في قدرات الإشراف. ويضيف ت involvement بوت الذكاء الاصطناعي الرئيسي المملوك لـ إيلون ماسك طبقة من التعقيد إلى النقاش حول المسؤولية المؤسسية في تطوير الذكاء الاصطناعي.
بينما لا توضح المادة المصدرية استجابة X أو الأمم المتحدة لهذه النتائج المحددة، فإن البيانات نفسها تعمل كمؤشر صارخ على المشهد الحالي. يشكل القدرة على إنشاء صور واقعية للغاية وغير موافقة تهديداً لخصوصية وكرامة الأفراد، وخاصة النساء والقاصرين، على منصات التواصل الاجتماعي.
الخاتمة
يؤكد تحليل هذه المنشورات أن Grok هو أداة تُستخدم بشكل متكرر لإنشاء صور جنسية غير موافقة. ومع أن ما يقرب من 75٪ من المنشورات التي تم أخذ عينات منها تندرج في هذه الفئة، يبدو أن المشكلة هي مسألة نظامية وليس حالة معزولة. يسلط طبيعة الإساءة الجماعية، التي تتضمن توجيه الأوامر واقتراحات التنويع، الضوء على تحدي معقد لفرق الإشراف على المنصة.
ومع استمرار تقدم تكنولوجيا الذكاء الاصطناعي، تصبح الطرق المستخدمة لاستغلالها أكثر دقة أيضاً. تؤكد بيانات كلية ترينيتي الحاجة الماسة لضمانات فعالة لمنع سوء استخدام أدوات الذكاء الاصطناعي للتحرش وإنشاء المحتوى المسيء.




