A inteligência artificial generativa é frequentemente colocada nos cenários de risco mais extremos: um agente de IA altamente autónomo foge ao controlo, liga-se à Internet, utiliza ferramentas de hackers e, no fim, assume sistemas financeiros, recursos de computação e até infraestruturas críticas. No entanto, investigadores do Cambridge Cybercrime Centre (Universidade de Cambridge), da Universidade de Edimburgo e da Universidade de Strathclyde indicam, num estudo recente, que, para compreender a ameaça real da IA ao crime informático, estas imaginações de ficção científica podem, pelo contrário, falhar o alvo.
Fóruns subterrâneos mostram mais interesse por ChatGPT do que por Dark AI, muito além
O estudo, intitulado 《Stand-Alone Complex or Vibercrime? Exploring the adoption and innovation of GenAI tools, coding assistants, and agents within cybercrime ecosystems》, é da autoria de Jack Hughes, Ben Collier e Daniel R. Thomas, e foi submetido ao arXiv a 31 de março de 2026.
Os autores defendem que o impacto da IA generativa no crime informático não deve ser entendido apenas com base na pergunta “se a IA consegue ou não escrever código malicioso”, mas sim considerando o mercado do crime na rede subterrânea como um ecossistema composto por fornecedores de ferramentas, prestadores de serviços, operadores com baixa qualificação e pequenas “startups” criminosas.
O artigo apresenta dois conceitos para definir os limites superior e inferior do impacto da IA no crime informático. O cenário de alto nível é chamado Stand-Alone Complex, ou seja, “crime-gang-in-a-box”: um agente de IA maduro empacota o cybercrime-as-a-service que antes exigia a divisão de trabalho por várias pessoas numa estrutura semi-automatizada, permitindo que um único agente execute fluxos que, no passado, só seriam realizados por equipas criminosas.
O cenário de baixo nível é denominado Vibercrime: refere-se ao vibe coding, aos coding assistants e a chatbots que reduzem parte das barreiras técnicas, mas sem verdadeiramente remodelar o modelo de negócios e a estrutura económica do crime informático.
As conclusões da equipa de investigação são bastante contraintuitivas: até agora, de facto, as comunidades do crime na rede subterrânea demonstram um interesse muito elevado em ferramentas como ChatGPT, Claude, Gemini, Cursor, Copilot, WormGPT, entre outras, mas não se observa evidência de que a IA generativa já tenha vindo a perturbar em larga escala o ecossistema do cybercrime. O artigo refere que, neste momento, a IA se assemelha mais a uma ferramenta de produtividade absorvida pelos processos criminosos existentes do que a uma força que crie uma nova revolução industrial do crime.
Do “filme de hackers” para a economia subterrânea: o crime informático já se parecia com um conjunto de pequenas empresas tecnológicas
O artigo começa por rever a evolução do ecossistema do crime informático. No início, o cybercrime assemelhava-se mais a uma cultura experimental de alguns hackers de elevada competência, com foco na mestria técnica, na desobediência à autoridade e na criatividade; mas a partir dos anos 2000 o crime informático foi ficando cada vez mais industrializado, transformando-se num mercado com ferramentas, scripts, templates, permissões iniciais de intrusão, aluguer de botnets e divisão de tarefas com suporte ao cliente — isto é, o chamado cybercrime-as-a-service.
Os autores consideram que o mercado do crime na rede subterrânea tem, na verdade, pouca capacidade de inventar tecnologias de ponta de raiz. A verdadeira investigação de vulnerabilidades, as técnicas avançadas de red-team e as novas abordagens de ataque provêm, na maioria das vezes, de investigação académica, empresas de cibersegurança ou entidades governamentais; já os criminosos subterrâneos são sobretudo melhores a reembalar tecnologias maduras, copiar ferramentas do setor legítimo e desenvolver modelos de negócio, automatizando processos aborrecidos mas lucrativos.
É também por isso que os autores acreditam que o impacto real da IA no crime não estará em “um novato passar de repente a escrever 0-day”, mas antes em aspetos mais rotineiros: automatização do apoio ao cliente, geração de conteúdo para burlas, tradução de argumentos e técnicas de conversa, gestão de contas, tratamento de processos de back-office, otimização de fraudes por SEO, gestão de robôs de redes sociais — ou tornar ainda mais eficiente a grey economy de baixa margem, que já é altamente automatizada.
Método de investigação: acompanhar 15 anos, mais de 100 milhões de dados de fóruns subterrâneos e conversas
A importância do estudo está em que não se limita a testes em laboratório, nem tira conclusões a partir de alguns casos de empresas de cibersegurança; usa o conjunto de dados CrimeBB do Cambridge Cybercrime Centre. Este conjunto de dados cobre mais de 15 anos e mais de 100 milhões de publicações em fóruns subterrâneos e canais de chat discutindo temas como roubo de contas, fraude por SEO, cheats em jogos, rendimento passivo e burlas românticas, entre outros.
A equipa de investigação pesquisou com palavras-chave como artificial intelligence, LLM, GPT, Claude, Gemini, prompt, Copilot, vibe coding, OpenAI, model, generative, machine learning, AI e outras, obtendo inicialmente 808,526 threads; depois, ao excluir discussões anteriores à publicação do ChatGPT, focou-se nos dados entre 1 de novembro de 2022 e 10 de dezembro de 2025, chegando, por fim, a 97,895 threads para análise.
Os autores combinaram ainda modelação de tópicos, seguimento por palavras-chave, classificação assistida por LLM e análise qualitativa por humanos. Um ponto a notar é que a equipa de investigação reconhece também que, ao classificar discussões em fóruns subterrâneos com LLM local, descobriu que os LLM não são fiáveis para classificações finas; cerca de 80% das publicações marcadas como relevantes pelo modelo estão, de facto, ligadas a IA ou vibe coding, mas a classificação concreta está quase sempre errada.
Este facto acaba por ser uma prova colateral interessante no artigo: muitas vezes, os LLM só conseguem ajudar os investigadores a encontrar “coisas que já se sabe que é preciso perguntar”, e como ferramenta de exploração têm limitações claras.
Os fóruns subterrâneos falam mais de ChatGPT; WormGPT, ao contrário do que se imagina, não é tão importante
Pelos padrões de tendência das palavras-chave, o ChatGPT é o produto de IA mais falado nos fóruns subterrâneos; a discussão sobre Claude cresce de forma estável; Gemini regista um aumento claro após o lançamento do Gemini 1.5; e Grok aparece em várias ondas curtas de discussão. Em comparação, Codex tem menos discussão, e modelos do tipo WormGPT, que são jailbroken, apesar de captarem grande atenção da comunicação social de cibersegurança, não chegam a criar uma explosão contínua de interesse nos fóruns.
O artigo indica que a comunidade subterrânea tem, de facto, uma excitação cultural em torno do chamado Dark AI. Nos fóruns aparecem anúncios de WormGPT, versões “black” do ChatGPT, modelos sem limites e ferramentas de IA ofensiva, além de muitas pessoas perguntarem como aceder gratuitamente. Ainda assim, a equipa de investigação concluiu que estas discussões tendem, na maioria das vezes, a ficar por “como obter as ferramentas”, “imaginar como a IA mudará o mundo dos hackers” ou a testar se os modelos aceitam responder a questões ilegais — e não em usar em grande escala essas ferramentas para desenvolver capacidades criminosas com sucesso.
Mais importante, a equipa de investigação não viu evidência clara de que novatos consigam aprender competências reais e executáveis de hacking com Dark AI, nem que consigam gerar ferramentas maliciosas que funcionem de forma estável. Pelo contrário, alguns utilizadores de fóruns queixam-se de que o código produzido por estas ferramentas não é fiável e requer muito trabalho e conhecimento profissional para correção; isso faz com que os LLM jailbroken se pareçam mais com uma atuação cultural subterrânea do que com um avanço técnico relevante na ecologia do crime informático.
A IA não transformou novatos em hackers; parece mais substituir o Stack Overflow e as cheatsheets
Uma das conclusões mais importantes do estudo é que a IA não reduziu de forma significativa as barreiras ao “núcleo” das competências do cybercrime. Para utilizadores que já têm capacidade, os coding assistants podem ajudar a escrever pequenos trechos de código, a detetar erros, a completar sintaxe e a realizar tarefas gerais de engenharia de software; mas isso é mais uma substituição do que uma criação: substitui o Stack Overflow, as cheatsheets, a pesquisa no Google de mensagens de erro e a cópia e colagem de código, em vez de criar capacidades criminosas totalmente novas.
Para utilizadores de baixa competência, a utilidade do vibe coding é, ainda assim, limitada. A razão é simples: eles não sabem necessariamente se o código gerado pela IA funciona, nem sabem como o integrar, corrigir e manter. Em vez de usar um chatbot para escrever, do zero, uma ferramenta instável, muitos novatos em fóruns subterrâneos continuam a preferir scripts prontos, templates, conjuntos de tutoriais ou ferramentas já preparadas por outras pessoas.
Dito de outra forma: a IA não está a transformar “script kiddies” em hackers avançados; parece antes aumentar um pouco a eficiência de quem já sabe escrever código. Isto também explica por que os autores consideram que, mesmo quando se teme o “surgimento de Vibercriminal”, se está provavelmente a sobrestimar a dimensão real das mudanças.
O que a IA está realmente a mudar: fraude por SEO, robôs de redes sociais e burlas românticas
Embora o estudo refute a narrativa de pânico sobre uma explosão criminosa alimentada por IA, não significa que a IA não tenha usos criminosos. A investigação indica que os casos de adoção mais evidentes são, na verdade, greyware e atividades já existentes de grande escala, baixa margem e elevada automatização, como fraude por SEO, robôs de redes sociais, automação de artigos por IA, “content farms”, algumas burlas românticas e engenharia social.
Estas situações partilham um aspeto: dependem, por natureza, de grandes volumes de conteúdo, de muitas contas, de muito trabalho repetitivo e de aproveitar regras e brechas das plataformas. A IA generativa pode melhorar a qualidade do texto, aumentar a capacidade de tradução, variar estilos de conteúdo “lixo”, reduzir a probabilidade de deteção por regras simples e tornar os fluxos automatizados existentes mais baratos e mais fáceis de expandir.
Por isso, o risco da criminalidade online trazido pela IA pode não ser “um agente de IA que inicia sozinho uma guerra de hackers”, mas sim algo mais realista, mais aborrecido e mais próximo da essência da economia das plataformas: permite que as grey activities existentes se tornem mais facilmente escaláveis em conteúdo, contas, anúncios, SEO, operação em redes sociais e burlas de baixo custo.
Stand-Alone Complex ainda não apareceu, mas a AIização das plataformas pode criar novas superfícies de ataque
No cenário de alto nível Stand-Alone Complex, os autores consideram que ainda não há evidência de que algo tenha ficado completamente consolidado. Os agentes de IA ainda não integraram ransomware, DDoS, gestão de botnets, operações de pagamentos, apoio ao cliente e operação de infraestruturas num verdadeiro produto “de caixa” para equipas criminosas. Ainda assim, o artigo não exclui totalmente esse futuro.
Os autores alertam que, se as plataformas de redes passarem, a partir do modelo das últimas duas décadas — display ads, pesquisa e fluxos de tráfego em redes — para uma nova arquitetura centrada em chatbots e em respostas geradas por IA, então os intervenientes da grey economy que já dominam SEO, content farms, conta farms, infraestruturas de robôs e os jogos de armadilha e defesa baseados em regras das plataformas poderão encontrar novos espaços lucrativos. Por outras palavras, a IA pode não tornar os criminosos mais “tech”, mas pode alterar a estrutura económica das plataformas legítimas, e isso altera também o posicionamento onde os criminosos conseguem arbitrar vantagens.
Este é também o ponto de extensão do estudo que mais merece atenção: o impacto máximo da IA no crime informático pode não ser o resultado de a própria rede subterrânea inventar alguma tecnologia nova, mas sim de a indústria legítima de IA alterar toda a estrutura do tráfego, do conteúdo, da publicidade, da pesquisa e da automatização na rede, fazendo com que as grey activities existentes encontrem novas falhas.
Recomendação dos autores: não entrar em pânico, mas também não ignorar o efeito de amplificação do crime automatizado de baixo nível
No final, as recomendações do estudo para decisores políticos, indústria e autoridades de aplicação da lei podem ser resumidas a uma frase: não entrar em pânico. A equipa de investigação considera que, na adoção atual de ferramentas de IA no ecossistema do crime na rede subterrânea, continua a ser algo fragmentado, gradual e não revolucionário; não se pode aplicar diretamente a adoção de IA em coding dentro da indústria de software legítima ao negócio do cybercrime, porque muitos modelos de negócio criminosos não dependem, de facto, de capacidades técnicas de alto nível.
Mas “não entrar em pânico” não significa “sem riscos”. Os autores referem que os mecanismos de guardrails dos modelos, o ajuste e a fricção na utilização ainda funcionam, sobretudo em cenários de abuso de baixo nível, em grande escala e automatizados; podem aumentar o custo para os criminosos e limitar a dimensão das grey activities através da saturação e da competição por recursos. Estas medidas não impedem atacantes avançados com motivação, mas podem reduzir a expansão de usos abusivos de baixo custo.
Este estudo oferece uma estrutura mais fria e realista do que o “AI hacker apocalipse”: a IA generativa ainda não faz com que novatos se tornem hackers da noite para o dia, e ainda não construiu organizações de crime totalmente automáticas; parece antes trazer os criminosos subterrâneos para a era do trabalho assistido por IA. O verdadeiro problema não é se a IA vai ou não transformar os criminosos em super-heróis, mas sim como vai amplificar o ganho marginal das grey activities existentes, da arbitragem entre plataformas, da automatização de conteúdos e das burlas de baixo custo.
Este artigo: a IA não transformou novatos em hackers! Investigação britânica: a IA é usada sobretudo para conteúdos de spam e burlas sentimentais. Aconteceu pela primeira vez em 鏈新聞 ABMedia.