No dia 16 de abril de 2026, Ko Woo-young, investigador sénior do Instituto de Tecnologia de Segurança Nacional da Coreia do Sul (NSTI), apresentou conclusões na 32.ª Conferência sobre Segurança da Rede de Informação e Comunicação (NetSec-KR 2026), em Seul, revelando que notícias falsas geradas por IA podem ser produzidas a um custo e a uma velocidade surpreendentemente baixos. De acordo com a apresentação de Ko, a criação de notícias falsas com recurso à IA generativa custa, em média, 13 won e leva 4 segundos, sendo que 12 itens de notícias falsas exigem, em média, 155 won e 46 segundos. Ko sublinhou que a proliferação de desinformação gerada por IA e de comentários maliciosos concebidos para manipular a opinião pública se tornou uma ameaça crítica para a sociedade.
Ko salientou que, à medida que as capacidades da IA generativa são cada vez mais utilizadas de forma indevida, a principal tática de abuso envolve a manipulação de opiniões e de informação. Enfatizou que, com o custo e o volume das notícias falsas e dos comentários falsos a tornarem-se tão baixos e abundantes, a sociedade chegou a um ponto em que distinguir a verdade da falsidade é extremamente difícil.
De acordo com a análise de Ko, quando a informação falsa se torna omnipresente, os membros da sociedade se cansam da desinformação e começam a perder o interesse pela realidade. Este fenómeno leva as pessoas a colocarem em causa até a informação genuína. Ko referiu que “a punição por notícias falsas é legalmente difícil de fazer cumprir, a menos que resulte em ganho financeiro” e sublinhou que “a tecnologia de IA generativa está a evoluir demasiado depressa e são necessárias melhorias a nível institucional”.
Ko Woo-young a apresentar os riscos de notícias falsas geradas por IA na NetSec-KR 2026
Choi Seok-woo, diretor do NSTI, apresentou, na mesma sessão, a “Tecnologia de Análise de Malware com base em IA”. De acordo com as conclusões de Choi, à medida que a IA começa a ser usada para gerar malware, são criadas diariamente cerca de 450.000 novas amostras de malware. O total acumulado de malware ultrapassou 1 mil milhões de instâncias.
Face a esta ameaça em escalada, Choi defendeu o desenvolvimento de soluções orientadas por IA, incluindo sistemas de apoio analítico baseados em IA, agentes de análise autónomos baseados em modelos de grandes linguagens (LLM) e ferramentas automatizadas de desobfuscação.
Choi Seok-woo a apresentar a necessidade de tecnologia de análise de malware baseada em IA
Ji Hyun-seok, investigador sénior do NSTI, apresentou a “Era da deteção de vulnerabilidades de segurança de software baseada em LLM”. A investigação de Ji analisou como os LLMs detetam vulnerabilidades de segurança e encontrou limitações significativas nas capacidades atuais.
Ji afirmou: “Nos casos recentes, embora a IA tenha identificado inúmeras vulnerabilidades, os resultados da análise mostram que, na realidade, não é assim. A deteção eficaz de vulnerabilidades só foi possível quando os modelos LLM e de IA foram fornecidos com ferramentas dedicadas para deteção de vulnerabilidades.” Segundo Ji, os LLMs enfrentam atualmente várias limitações, incluindo dificuldades no tratamento de grandes bases de código, problemas de dependência de dados e raciocínio pouco fiável.
Ji previu que a sinergia seria maximizada quando analistas de segurança experientes, capazes de identificar diretamente vulnerabilidades, pudessem aproveitar ferramentas de LLM. No entanto, Ji sublinhou que “a deteção de vulnerabilidades por LLM ainda não está concluída. É necessário explorar métodos melhores para encontrar vulnerabilidades”. A apresentação destacou que a deteção de vulnerabilidades baseada em LLM ainda não pode ser realizada de forma eficaz apenas pela IA, sendo a experiência humana essencial para uma análise de segurança fiável.
Ji Hyun-seok a apresentar investigação sobre deteção de vulnerabilidades baseada em LLM