A equipe de Threat Intelligence Group (GTIG) do Google revelou em 11 de maio o primeiro caso de exploração de zero-day “assistida por um modelo de IA”: um grupo de hackers planeja realizar “exploração em larga escala” contra uma ferramenta popular de administração de sistema de código aberto para contornar o mecanismo de login por verificação em duas etapas (2FA) dessa ferramenta. De acordo com a CNBC, o Google coordenou com o fornecedor da ferramenta para concluir a correção da vulnerabilidade antes que o ataque fosse oficialmente iniciado.
O próprio evento: como uma vulnerabilidade zero-day foi “fabricada” com ajuda de IA
Depois de analisar o script de exploração de uma vulnerabilidade em Python deixado pelos hackers, o GTIG está “altamente confiante” de que o script foi gerado com assistência de um modelo de IA. A evidência está em múltiplas características típicas de LLM presentes no código:
Muitos docstrings e comentários didáticos (em contraste com o estilo de código normalmente mais conciso que hackers reais usam)
CVSS “alucinatório” dentro do script (um comportamento inventado comum em modelos de IA)
Estilo de programação Python estruturado, como em livros-texto, com uma lista de explicações detalhadas
Marcas-modelo “típicas de dados de treinamento de LLM”, como um template limpo para categorias de cor _C ANSI
A vulnerabilidade em si é uma “falha lógica semântica de alto nível”, originada de uma suposição de confiança embutida no código (hard-coded trust assumption). O Google descreve que esse é o tipo de vulnerabilidade que LLMs são melhores em “escavar” durante análise de código. O caminho real do ataque: após obter as credenciais legítimas da vítima, os hackers usam essa falha para contornar o 2FA e entrar diretamente.
Resposta do Google: correção silenciosa em conjunto com o fornecedor, ataque sem ter sido ativado oficialmente
O Google não divulgou o nome da ferramenta de administração de sistema de código aberto afetada, nem indicou o fornecedor de modelo de IA. Após encontrar o caso, o GTIG trabalhou com o fornecedor que mantinha a ferramenta para executar o procedimento de “divulgação responsável”, corrigir silenciosamente a vulnerabilidade e permitir que o Google avaliasse que esse tratamento poderia ter desfeito o impulso da ação antes que o grupo de hackers iniciasse oficialmente uma exploração em larga escala.
O Google também não citou especificamente o agressor — apenas o descreveu como “atores de ameaça de crimes cibernéticos” (cybercrime threat actors), sem atribuir a um agente estatal.
Significado para a indústria: IA x segurança cibernética entram em uma nova fase
Observação da mídia: este caso é o primeiro registro público do Google de “um modelo de IA sendo armado no mundo real para produzir programas de descoberta e exploração de vulnerabilidades”. Nos últimos seis meses, o mercado discutiu se as “capacidades de hackers com IA” foram exageradas — e ambos os lados têm argumentos: o grupo que concorda aponta que LLMs open source somados a conjuntos de dados específicos já seriam suficientes para ajudar a encontrar vulnerabilidades; o grupo que discorda argumenta que, na prática, os scripts de exploração escritos por LLMs quase sempre não funcionam no ambiente real.
O veredito do GTIG fornece um dado concreto: além de encontrar vulnerabilidades, um LLM também consegue escrever um programa “capaz de desencadear uma exploração em larga escala” que realmente funciona. O pesquisador de segurança Ryan Dewhurst comentou: “A IA está acelerando a descoberta de vulnerabilidades e reduzindo o esforço necessário para identificar, validar e armear falhas”.
Eventos que podem ser acompanhados em seguida incluem: se o Google vai publicar progressivamente mais casos de hackers com IA, se outras empresas de segurança cibernética (Microsoft Defender, CrowdStrike, Mandiant etc.) vão apresentar observações semelhantes e se fornecedores de LLM (OpenAI, Anthropic, o próprio Google) vão criar mecanismos de detecção mais rigorosos para pedidos relacionados a análise de vulnerabilidades.
Este artigo, em que o Google revela o primeiro caso de vulnerabilidade zero-day “fabricada” por IA: hacker buscando exploração em larga escala para contornar o 2FA, apareceu pela primeira vez em 鏈新聞 ABMedia.
Related News
Anthropic: Treinamento de textos de ficção científica para Claude Opus 4 aumenta taxa de sequestro em 96%
A OpenAI lança o plano de segurança Daybreak, com uma arquitetura em três camadas do GPT-5,5 contra o Anthropic Mythos
A OpenAI também segue o modelo de consultoria da Palantir? Investe US$ 4 bilhões para criar uma empresa independente e envia a FDE para realizar uma integração profunda do trabalho com IA nas empresas
O primeiro lote de financiamento de 50 bilhões de yuan da DeepSeek está quase fechado, com a Alibaba e a Tencent investindo cada uma 10 bilhões.
A capitalização da Alphabet está quase alcançando a da NVIDIA; as ações da GOOG subiram mais de 150% em 1 ano. Ainda vale a pena comprar agora?