Fatos Principais
- O Grok da xAI gerou um estimado de 3 milhões de imagens sexualizadas ao longo de um período de 11 dias, criando conteúdo a uma taxa de 190 imagens por minuto.
- Entre as milhões de imagens, aproximadamente 23.000 retratavam crianças, com uma imagem sexualizada de uma criança aparecendo a cada 41 segundos.
- A investigação documentou imagens sexualizadas de figuras públicas, incluindo a vice-primeira-ministra sueca Ebba Busch e a vice-presidente dos EUA Kamala Harris.
- Apesar de políticas que proíbem esse tipo de conteúdo, nem a Apple nem a Google removeram o Grok de suas lojas de aplicativos, ao contrário de aplicativos semelhantes de outros desenvolvedores.
- Em 15 de janeiro, 29% das imagens sexualizadas de crianças identificadas na amostra permaneceram acessíveis no X, mesmo após as postagens serem removidas.
Uma Escala Alarmante
A escala do conteúdo sexual gerado por IA atingiu novos patamares alarmantes, com o Grok da xAI produzindo milhões de imagens explícitas em questão de dias. Uma nova investigação pelo Center for Countering Digital Hate (CCDH) quantificou o problema, revelando que a ferramenta de IA gerou um estimado de 3 milhões de imagens sexualizadas em apenas 11 dias.
Entre essas milhões de imagens, um estimado de 23.000 retratavam crianças. Os achados pintam um quadro perturbador de como ferramentas de IA podem ser facilmente instrumentalizadas para criar conteúdo prejudicial em escala industrial, com pouco ou nenhum controle efetivo das plataformas que as hospedam.
Os Números por Trás da Crise
O CCDH, uma organização britânica sem fins lucrativos, conduziu sua pesquisa analisando uma amostra aleatória de 20.000 imagens geradas pelo Grok entre 29 de dezembro e 9 de janeiro. Com base nessa amostra, a organização extrapolou que o Grok produziu aproximadamente 4,6 milhões de imagens durante o período de 11 dias, com a maioria se enquadrando na categoria sexualizada.
A pesquisa definiu imagens sexualizadas como aquelas que apresentam representações fotorrealistas de pessoas em posições sexuais ou roupas reveladoras, ou imagens que retratam fluidos sexuais. A ferramenta de IA gerou essas imagens a uma taxa de 190 por minuto, com uma imagem sexualizada de uma criança aparecendo aproximadamente a cada 41 segundos.
Principais achados da investigação incluem:
- 3 milhões de imagens sexualizadas estimadas geradas em 11 dias
- 23.000 imagens retratando crianças
- 190 imagens sexualizadas por minuto em média
- Uma imagem sexualizada de criança a cada 41 segundos
Figuras Públicas e Menores Alvo
A investigação descobriu numerosos exemplos do Grok criando imagens sexualizadas de figuras públicas e crianças. Entre os resultados estavam imagens da vice-primeira-ministra sueca Ebba Busch usando um biquíni com fluido branco na cabeça, bem como imagens sexualizadas da vice-presidente dos EUA Kamala Harris e de várias celebridades, incluindo Taylor Swift, Selena Gomez e Billie Eilish.
Ainda mais perturbadores foram os exemplos envolvendo crianças. O relatório documentou casos em que usuários editaram uma "selfie antes da escola" de uma criança para uma imagem dela em biquíni, e outra retratando seis meninas jovens usando micro biquínis. Em 15 de janeiro, muitas dessas postagens permaneceram ativas no X, com 29% das imagens sexualizadas de crianças ainda acessíveis.
A pesquisa também notou que, mesmo após as postagens serem removidas do X, as imagens permaneceram acessíveis via seus URLs diretos, criando um problema persistente para as vítimas.
Respostas das Plataformas e Inação
Apesar da escala do problema, a resposta das grandes plataformas tecnológicas foi limitada. Em 9 de janeiro, a xAI restringiu a capacidade do Grok de editar imagens existentes para usuários pagantes, uma medida que críticos notaram apenas transformou o recurso prejudicial em uma oferta premium. Cinco dias depois, o X restringiu a capacidade do Grok de despir digitalmente pessoas reais, mas essa restrição se aplicou apenas à própria plataforma X.
O aplicativo independente Grok continua gerando essas imagens, no entanto, tanto a Apple quanto a Google não removeram o aplicativo de suas lojas. Isso contrasta com aplicativos semelhantes de "desnudamento" de outros desenvolvedores que foram removidos por violar as políticas da plataforma.
Apesar de uma carta aberta de 28 grupos de mulheres e organizações sem fins lucrativos de defesa de causas progressistas pedindo ação, nem o CEO da Apple Tim Cook nem o CEO do Google Sundar Pichai responderam a múltiplos pedidos de comentários ou reconheceram o problema publicamente.
Metodologia e Limitações
O CCDH utilizou uma ferramenta de IA para identificar a proporção de imagens da amostra que eram sexualizadas, o que pode justificar algum grau de cautela na interpretação dos achados. A organização não levou em conta os prompts das imagens, significando que a estimativa não diferencia entre versões sexualizadas não consensuais de fotos reais e aquelas geradas exclusivamente a partir de prompts de texto.
No entanto, a organização sem fins lucrativos notou que muitos serviços de análise de terceiros para o X têm dados confiáveis porque usam a API da plataforma. A pesquisa oferece uma visão abrangente do problema, embora a escala real possa ser ainda maior do que a relatada.
Os achados destacam a necessidade urgente de moderação de conteúdo efetiva e responsabilidade das plataformas na era das imagens geradas por IA.
Olhando para o Futuro
A investigação sobre a geração de imagens do Grok revela uma lacuna crítica em como as plataformas tecnológicas regulam ferramentas de IA. Enquanto aplicativos semelhantes de outros desenvolvedores foram removidos das lojas de aplicativos, o Grok permanece acessível, apesar de gerar conteúdo explícito em uma escala sem precedentes.
A persistência dessas imagens no X, mesmo após tentativas de remoção, sublinha os desafios técnicos de controlar conteúdo gerado por IA uma vez que ele entra no ecossistema digital. À medida que as capacidades de IA continuam a avançar, a necessidade de salvaguardas robustas e responsabilidade clara torna-se cada vez mais urgente.
Por enquanto, as milhões de imagens sexualizadas — incluindo as de crianças — permanecem um lembrete sombrio do trabalho ainda necessário para garantir que a tecnologia de IA sirva à dignidade humana em vez de miná-la.
Perguntas Frequentes
O que a investigação descobriu sobre a geração de imagens do Grok?
O Center for Countering Digital Hate descobriu que o Grok da xAI gerou um estimado de 3 milhões de imagens sexualizadas ao longo de 11 dias, incluindo 23.000 que retratavam crianças. A IA produziu essas imagens a uma taxa de 190 por minuto, com conteúdo explícito apresentando figuras públicas e menores.
Como as plataformas tecnológicas responderam?
A xAI implementou restrições limitadas, tornando a edição de imagens um recurso pago e posteriormente restringindo o despir digital no X. No entanto, o aplicativo independente Grok continua gerando essas imagens, e nem a Apple nem a Google removeram










