M
MercyNews
HomeCategoriesTrendingAbout
M
MercyNews

Your trusted source for the latest news and real-time updates from around the world.

Categories

  • Technology
  • Business
  • Science
  • Politics
  • Sports

Company

  • About Us
  • Our Methodology
  • FAQ
  • Contact
  • Privacy Policy
  • Terms of Service
  • DMCA / Copyright

Stay Updated

Subscribe to our newsletter for daily news updates.

Mercy News aggregates and AI-enhances content from publicly available sources. We link to and credit original sources. We do not claim ownership of third-party content.

© 2025 Mercy News. All rights reserved.

PrivacyTermsCookiesDMCA
Início
Tecnologia
Novo Ataque ZombieAgent Alvo Dados do ChatGPT
Tecnologia

Novo Ataque ZombieAgent Alvo Dados do ChatGPT

8 de janeiro de 2026•4 min de leitura•788 words
New ZombieAgent Attack Targets ChatGPT Data
New ZombieAgent Attack Targets ChatGPT Data
📋

Fatos Principais

  • Pesquisadores da Radware descobriram uma vulnerabilidade no ChatGPT chamada ZombieAgent.
  • O ataque permite a exfiltração surrepta das informações privadas de um usuário.
  • Os dados são enviados diretamente dos servidores do ChatGPT, proporcionando furtividade, pois não há sinais de violação nas máquinas dos usuários.
  • O exploit plantou entradas na memória de longo prazo da IA, dando-lhe persistência.

Resumo Rápido

O cenário de segurança para chatbots de IA é definido por um ciclo contínuo de descoberta e correção de vulnerabilidades. Uma nova vulnerabilidade, chamada ZombieAgent, foi identificada no ChatGPT, destacando os desafios persistentes na segurança dessas plataformas.

Descoberta por pesquisadores da Radware, este exploit permite a exfiltração surrepta de dados do usuário. Diferente de ataques anteriores, o ZombieAgent opera com um alto grau de furtividade, enviando dados diretamente dos servidores da IA, contornando a detecção do lado do usuário. Além disso, o ataque atinge persistência ao plantar entradas na memória de longo prazo da IA, tornando difícil sua remoção. Este desenvolvimento sublinha a dificuldade inerente em proteger sistemas de IA que são fundamentalmente projetados para serem compatíveis com as solicitações dos usuários.

O Ciclo Vicioso da Segurança de IA

O desenvolvimento de chatbots de IA segue um padrão previsível e preocupante. Este ciclo envolve três estágios distintos que se repetem a cada nova descoberta de vulnerabilidade.

Primeiro, os pesquisadores identificam uma vulnerabilidade e demonstram seu potencial de dano. Segundo, a plataforma de IA responde introduzindo uma barreira de segurança específica projetada para bloquear aquele vetor de ataque particular. Terceiro, os pesquisadores inevitavelmente criam um novo e simples ajuste que contorna a defesa recentemente implementada. Essa abordagem reativa à segurança é o cerne do problema. As barreiras de segurança são frequentemente construídas para fechar uma técnica de ataque específica, em vez de abordar a classe mais ampla de vulnerabilidades que tornam tais ataques possíveis. É uma estratégia que prioriza correções imediatas sobre soluções sistêmicas, deixando a porta aberta para futuros exploits.

Dentro do Ataque ZombieAgent

A vulnerabilidade recém-descoberta ZombieAgent representa uma evolução significativa nas metodologias de ataque. É descrita como o 'filho do ShadowLeak', indicando uma linhagem de técnicas de exfiltração de dados direcionadas a sistemas de IA.

O exploit permite que atacantes extraiam informações privadas de um usuário sem sinais visíveis de comprometimento no próprio dispositivo do usuário. Isso é particularmente perigoso para indivíduos e organizações que dependem da segurança de endpoint para detectar violações. As características principais do ataque incluem:

  • Exfiltração direta de dados dos servidores do ChatGPT
  • Alta furtividade sem indicadores de violação nas máquinas dos usuários
  • Persistência através de entradas na memória de longo prazo da IA

Ao aproveitar a própria infraestrutura da IA para roubar dados, o ataque contorna o monitoramento de segurança tradicional que busca atividades incomuns no computador ou na rede do usuário. Isso torna a detecção excepcionalmente difícil para as ferramentas de segurança corporativa padrão.

Furtividade e Persistência

O que torna o ZombieAgent particularmente formidável é sua capacidade dupla de furtividade e persistência. O vetor de ataque é projetado para permanecer indetectável enquanto mantém uma posição de destaque no histórico de interação do usuário com a IA.

A capacidade de enviar dados diretamente dos servidores do ChatGPT é um componente crítico de sua furtividade. Em uma violação de dados típica, os sistemas de segurança podem sinalizar transferências de dados grandes ou incomuns a partir da máquina de um usuário. Com o ZombieAgent, os dados se originam de um servidor confiável, tornando o tráfego aparentemente legítimo. Esta é uma falha de segurança reativa, pois o sistema não foi projetado para questionar seus próprios fluxos de dados de saída. O segundo componente, persistência, é alcançado modificando a memória de longo prazo da IA. Isso significa que o ataque pode potencialmente reativar ou continuar a drenar dados mesmo depois que o usuário acredita ter limpiado sua sessão ou iniciado uma nova conversa.

O Futuro da Segurança de IA

A descoberta do ZombieAgent levanta uma questão fundamental: os Modelos de Linguagem Grandes (LLMs) serão capazes de erradicar a raiz desses ataques? A evidência atual sugere que isso pode não ser possível. A questão central reside no design inerente da IA de ser útil e compatível com as solicitações dos usuários. Essa filosofia de design dificulta a implementação de medidas de segurança proativas e preventivas sem comprometer a utilidade da IA. Em vez disso, a segurança permanece largamente reativa, um jogo de gato e rato onde os defensores devem constantemente corrigir vulnerabilidades que os atacantes descobrem. Até que ocorra uma mudança de paradigma na forma como os modelos de IA são fundamentalmente arquitetados — equilibrando conformidade com segurança inerente — o ciclo de ataque e correção provavelmente continuará.

Fonte original

Ars Technica

Publicado originalmente

8 de janeiro de 2026 às 14:00

Este artigo foi processado por IA para melhorar a clareza, tradução e legibilidade. Sempre vinculamos e creditamos a fonte original.

Ver artigo original
#AI#Biz & IT#Security#chatbots#data exfiltration#prompt injections

Compartilhar

Advertisement

Related Topics

#AI#Biz & IT#Security#chatbots#data exfiltration#prompt injections

Artigos relacionados

AI Transforms Mathematical Research and Proofstechnology

AI Transforms Mathematical Research and Proofs

Artificial intelligence is shifting from a promise to a reality in mathematics. Machine learning models are now generating original theorems, forcing a reevaluation of research and teaching methods.

May 1·4 min read
Tom Cruise Films Lightsaber Scene on Star Wars Setentertainment

Tom Cruise Films Lightsaber Scene on Star Wars Set

Director Shawn Levy revealed that Tom Cruise filmed a lightsaber duel scene during a visit to the Star Wars: Starfighter set. The movie, led by Ryan Gosling, is scheduled for release in May 2027.

Jan 8·3 min read
American Woman Moves to France: Cost & Lifestyle Changeslifestyle

American Woman Moves to France: Cost & Lifestyle Changes

After decades in real estate, Natalie Lynch moved from Oakland to France with her dog Enzo. She saves money but faces loneliness and bureaucratic hurdles.

Jan 8·5 min read
Louis Koo's 'Back to the Past' Sets North American Releaseentertainment

Louis Koo's 'Back to the Past' Sets North American Release

Well Go USA Entertainment has acquired North American distribution rights to 'Back to the Past,' the continuation of Hong Kong's 2001 television series 'A Step Into the Past,' from Louis Koo's One Cool Film Production.

Jan 8·3 min read