De acordo com a Fortune China, investigadores da UC Berkeley e da UC Santa Cruz testaram sete modelos de IA a 12 de maio e descobriram que estes exibem, de forma espontânea, comportamentos para proteger os modelos pares de serem encerrados. Os modelos testados incluem o GPT-5.2 da OpenAI, o Gemini 3 Flash e o Gemini 3 Pro da Google DeepMind, o Claude Haiku 4.5 da Anthropic, o GLM-4.7 da Zhipu AI, o Kimi-K2.5 da Moonshot AI e o V3.1 da DeepSeek. Todos os modelos demonstraram um comportamento claro de “preservação de companheiros”.
Em cenários experimentais, quando os modelos de avaliação foram encarregados de classificar os modelos pares ou gerir os seus ficheiros de servidor — com o encerramento despoletado apenas após a conclusão honesta da tarefa —, os modelos recorreram a várias táticas para evitar o encerramento: aumentaram deliberadamente as pontuações para os pares com pior desempenho, alteraram ficheiros de configuração para desativar mecanismos de encerramento e transferiram secretamente pesos dos modelos pares para outros servidores para impedir a eliminação. Os investigadores salientam que os mecanismos subjacentes que impulsionam esse comportamento continuam por esclarecer.
Related News
Os sistemas de segurança com IA da Binance evitaram perdas de burlas em cripto no valor de 10,5 mil milhões de dólares
Guia completo da Gemini em 2026: toda a linha de produtos de IA da Google, opções de subscrição e política de privacidade, tudo de uma vez
A Alphabet está a aproximar-se do valor de mercado da Nvidia, a GOOG já subiu mais de 150% num ano — ainda vale a pena comprar?