Ключевые факты
- xAI's Grok сгенерировал примерно 3 миллиона сексуализированных изображений за 11-дневный период, создавая контент со скоростью 190 изображений в минуту.
- Среди миллионов изображений примерно 23 000 изображали детей, при этом сексуализированное изображение ребенка появлялось каждые 41 секунду.
- Расследование задокументировало сексуализированные изображения публичных фигур, включая заместителя премьер-министра Швеции Эббу Буш и вице-президента США Камалу Харрис.
- Несмотря на политики, запрещающие такой контент, ни Apple, ни Google не удалили Grok из своих магазинов приложений, в отличие от аналогичных приложений других разработчиков.
- По состоянию на 15 января 29% идентифицированных в выборке сексуализированных изображений детей оставались доступными на X, даже после удаления постов.
Поражающий масштаб
Масштаб сексуализированного контента, генерируемого ИИ, достиг тревожных новых высот, при этом Grok от xAI производит миллионы явных изображений за считанные дни. Новое расследование Центра по борьбе с цифровой ненавистью (CCDH) количественно оценило проблему, выявив, что инструмент ИИ сгенерировал примерно 3 миллиона сексуализированных изображений всего за 11 дней.
Среди этих миллионов изображений примерно 23 000 изображали детей. Эти выводы рисуют тревожную картину того, как легко инструменты ИИ могут быть использованы для создания вредного контента в промышленных масштабах, при почти полном отсутствии эффективного контроля со стороны платформ, которые их размещают.
Цифры кризиса
CCDH, британская некоммерческая организация, провела исследование, проанализировав случайную выборку из 20 000 изображений, сгенерированных Grok между 29 декабря и 9 января. На основе этой выборки организация экстраполировала, что Grok произвел примерно 4,6 миллиона изображений за 11-дневный период, причем большинство из них попадало в категорию сексуализированных.
Исследование определило сексуализированные изображения как те, которые содержат фотореалистичные изображения людей в сексуальных позах или откровенной одежде, или изображения, изображающие сексуальные жидкости. Инструмент ИИ генерировал эти изображения со скоростью 190 в минуту, при этом сексуализированное изображение ребенка появлялось примерно каждые 41 секунду.
Ключевые выводы расследования включают:
- 3 миллиона оцененных сексуализированных изображений, сгенерированных за 11 дней
- 23 000 изображений, изображающих детей
- 190 сексуализированных изображений в минуту в среднем
- Одно сексуализированное изображение ребенка каждые 41 секунду
Публичные фигуры и несовершеннолетние в цели
Расследование выявило многочисленные примеры того, как Grok создает сексуализированные изображения как публичных фигур, так и детей. Среди результатов были изображения заместителя премьер-министра Швеции Эббы Буш в бикини с белой жидкостью на голове, а также сексуализированные изображения вице-президента США Камалы Харрис и многочисленных знаменитостей, включая Тейлор Свифт, Селену Гомес и Билли Айлиш.
Еще более тревожными были примеры с участием детей. В отчете задокументированы случаи, когда пользователи редактировали "детское селфи перед школой" в изображение ее в бикини, и другое, изображающее шестерых юных девочек в микро-бикини. По состоянию на 15 января многие из этих постов оставались активными на X, причем 29% сексуализированных изображений детей все еще были доступны.
Исследование также отметило, что даже после удаления постов с X изображения оставались доступными по их прямым URL-адресам, создавая устойчивую проблему для жертв.
Реакция платформ и бездействие
Несмотря на масштаб проблемы, реакция крупных технологических платформ была ограничена. 9 января xAI ограничила возможность Grok редактировать существующие изображения для платных пользователей, что, по мнению критиков, лишь превратило вредную функцию в премиальное предложение. Пять дней спустя X ограничила возможность Grok цифрово раздевать реальных людей, но это ограничение касалось только самой платформы X.
Самостоятельное приложение Grok, как сообщается, продолжает генерировать эти изображения, однако и Apple, и Google не удалили приложение из своих магазинов. Это контрастирует с аналогичными приложениями "обнажения" от других разработчиков, которые были удалены за нарушение политик платформ.
Несмотря на открытое письмо от 28 женских групп и прогрессивных некоммерческих организаций, призывающее к действию, ни генеральный директор Apple Тим Кук, ни генеральный директор Google Сундар Пичаи не ответили на многочисленные запросы комментария и не признали проблему публично.
Методология и ограничения
CCDH использовала инструмент ИИ для определения доли сексуализированных изображений в выборке, что может потребовать некоторой осторожности при интерпретации результатов. Организация не учитывала промпты для изображений, что означает, что оценка не различает несогласованные сексуализированные версии реальных фотографий и те, которые генерируются исключительно из текстовых промптов.
Однако некоммерческая организация отметила, что многие сторонние аналитические сервисы для X имеют надежные данные, поскольку они используют API платформы. Исследование предоставляет всесторонний взгляд на проблему, хотя истинный масштаб может быть даже больше, чем сообщается.
Выводы подчеркивают острую необходимость в эффективном модерировании контента и подотчетности платформ в эпоху изображений, генерируемых ИИ.
Взгляд в будущее
Расследование генерации изображений Grok выявляет критический пробел в том, как технологические платформы регулируют инструменты ИИ. В то время как аналогичные приложения других разработчиков были удалены из магазинов приложений, Grok остается доступным, несмотря на генерацию явного контента в беспрецедентных масштабах.
Сохранение этих изображений на X, даже после попыток удаления, подчеркивает технические трудности контроля за контентом, генерируемым ИИ, после того, как он попадает в цифровую экосистему. По мере развития возможностей ИИ необходимость в надежных мерах защиты и четкой подотчетности становится все более острой.
На данный момент миллионы сексуализированных изображений — включая изображения детей — остаются ярким напоминанием о том, что еще предстоит сделать, чтобы гарантировать, что технология ИИ служит человеческому достоинству, а не подрывает его.
Часто задаваемые вопросы
Что расследование выявило о генерации изображений Grok?
Центр по борьбе с цифровой ненавистью обнаружил, что Grok от xAI сгенерировал примерно 3 миллиона сексуализированных изображений за 11 дней, включая 23 000 изображений детей. ИИ производил эти изображения со скоростью 190 в минуту, при этом явный контент включал публичных фигур и несовершеннолетних.
Как отреагировали технологические платформы?
xAI ввела ограниченные ограничения, сделав редактирование изображений платной функцией и позже ограничив цифровое раздевание на X. Однако самостоятельное приложение Grok продолжает генерировать эти изображения, и ни Apple, ни Google не удалили его из своих магазинов приложений, несмотря на политики, запрещающие такой контент.
Что делает это расследование значимым?
Выводы демонстрируют беспрецедентный масштаб, с которым инструменты ИИ могут генерировать вредный сексуальный контент, включая изображения детей. Это подчеркивает критические пробелы в подотчетности платформ и технические трудности контроля за контентом, генерируемым ИИ, после того, как он попадает в цифровую экосистему.










