O Google revela o primeiro caso de vulnerabilidade zero-day criada por IA: os hackers procuram contornar a 2FA para exploração em larga escala

A equipa de Threat Intelligence Group (GTIG) da Google revelou a 11 de maio o primeiro caso de exploração de zero-day “assistida por um modelo de IA”: um grupo de piratas planeava levar a cabo “explorações em larga escala” contra uma ferramenta popular de gestão de código aberto, com o objetivo de contornar o mecanismo de início de sessão com verificação em dois fatores (2FA) desse mesmo sistema. De acordo com a CNBC, antes de a agressão ser desencadeada oficialmente, a Google teria coordenado com o fornecedor da ferramenta para que as falhas fossem corrigidas.

O próprio acontecimento: como é que um zero-day é “fabricado” por IA

Depois de analisar o script de exploração em Python deixado pelos piratas, o GTIG disse estar “muito confiante” de que o script foi gerado com a ajuda de um modelo de IA. A avaliação baseou-se na presença de vários traços típicos de LLM no script:

muitos docstrings e comentários didáticos (em contraste com o estilo de código mais sucinto que se espera de verdadeiros piratas)

contém pontuações de CVSS “alucinatórias” (um comportamento comum em modelos de IA)

um estilo de Python estruturado, com cara de livro de texto, e explicações detalhadas em forma de menu

marcas de templates típicas “do material de treino do LLM”, como classes de cores _C ANSI limpas

A falha em si pertence a “deficiências lógicas de alto nível” e provém de uma suposição de confiança hard-coded (hard-coded trust assumption). A Google descreve isto como o tipo de vulnerabilidade que os LLM estão “na melhor posição” para escavar durante a análise de código. O caminho de ataque real: depois de os piratas obterem as credenciais legítimas da vítima, contornam a 2FA diretamente através dessa falha.

A resposta da Google: correção silenciosa com o fornecedor, antes de o ataque ser lançado

A Google não divulgou o nome da ferramenta de gestão de código aberto afetada, nem indicou o fornecedor do modelo de IA. Após a deteção, o GTIG coordenou com o fornecedor responsável pela ferramenta para seguir um procedimento de “divulgação responsável”, corrigindo silenciosamente a falha. A Google avalia que este tipo de tratamento terá destruído o ímpeto da ação antes de o grupo de piratas iniciar oficialmente uma exploração em larga escala.

A Google também não apontou de forma concreta o(s) atacante(s): limitou-se a descrevê-los como “atores de ameaça do crime cibernético” (cybercrime threat actors), sem identificar a proveniência estatal.

Significado para a indústria: IA x cibersegurança entram numa nova fase

Observação da comunicação social: este caso é o primeiro em que a Google publica um registo público de que “modelos de IA foram armados no mundo real para descoberta de falhas e geração de código de exploração”. Nos últimos seis meses, o mercado discutiu se a “capacidade dos piratas com IA” tem sido exagerada — com argumentos de ambos os lados: os defensores afirmam que LLMs de código aberto, combinados com conjuntos de dados especializados, são suficientes para ajudar a encontrar falhas; os críticos referem que o código de exploração escrito por LLMs, na maioria dos casos, não funciona em ambientes reais.

A decisão do GTIG desta vez fornece um ponto de dados concreto: um LLM não só consegue encontrar falhas, como também consegue escrever um programa operacional “capaz de desencadear explorações em larga escala”. O investigador de segurança Ryan Dewhurst comentou: “A IA tem estado a acelerar a descoberta de falhas, a reduzir o esforço necessário para identificar, validar e tornar exploráveis as vulnerabilidades.”

Os acontecimentos seguintes a acompanhar poderão incluir: se a Google vai divulgando casos adicionais de “pirataria” com IA; se outros fornecedores de cibersegurança (Microsoft Defender, CrowdStrike, Mandiant, etc.) vão apresentar observações semelhantes; e se os fornecedores de LLM (OpenAI, Anthropic, o próprio da Google) vão criar mecanismos de deteção mais rigorosos para pedidos relacionados com análise de vulnerabilidades.

Este artigo da Google que revela o primeiro caso de falha de zero-day “fabricada” por IA: piratas querem explorar em larga escala contornando a 2FA aparece primeiro em 鏈新聞 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário