O Governo de Trump adoptou durante muito tempo uma postura de não intervenção face à inteligência artificial; no entanto, agora, devido às preocupações com a cibersegurança desencadeadas pelo poderoso modelo Mythos, revelado recentemente pela Anthropic, começa a ponderar a implementação de um mecanismo de revisão governamental antes da divulgação pública dos modelos de IA, assinalando uma grande mudança nas políticas de regulação da IA nos EUA.
Reviravolta urgente na política de IA da Casa Branca: de deixar fazer para controlar
Segundo a reportagem do New York Times, funcionários norte-americanos revelaram que o Presidente Trump está a considerar emitir uma ordem executiva para criar uma equipa de trabalho de IA, composta por altos responsáveis do sector tecnológico e funcionários do governo, com o objectivo de delinear procedimentos de revisão governamental a aplicar antes de novos modelos de IA serem disponibilizados ao público.
A Casa Branca já realizou, na semana passada, conversações com altos executivos de empresas como a Anthropic, Google e OpenAI sobre os planos em questão. De acordo com informadores, o eventual mecanismo de revisão poderá basear-se no modelo actualmente em vigor no Reino Unido, com várias agências governamentais a garantirem em conjunto que os modelos de IA cumprem determinadas normas de segurança.
A mudança de rumo desta vez contrasta com a posição mais aberta de Trump no passado. Em Julho do ano passado, o líder afirmou publicamente: «Temos de deixar este bebé crescer e florescer; não podemos impedir isso com regulamentos estúpidos», e, após tomar posse, aboliu rapidamente o procedimento regulatório do Governo Biden que exigia aos criadores de IA avaliações de segurança. Contudo, em apenas alguns meses, a orientação da política já mudou.
O «Claude Mythos» da Anthropic, que não ousou revelar, chocou a Casa Branca
Uma das razões apontadas para a mudança de atitude da Casa Branca é o novo modelo de IA Claude Mythos divulgado pela Anthropic no mês passado. A Anthropic alertou que o Mythos tem uma capacidade extremamente forte para identificar vulnerabilidades de segurança em software, ao ponto de poder explorar as fragilidades de «todos os sistemas operativos e navegadores web mais comuns», o que poderia desencadear ataques cibernéticos de grande escala. Por fim, decidiu não o publicar para o público.
A Casa Branca ficou em alerta máximo, preocupada com as consequências políticas difíceis que o governo enfrentaria caso ocorra um incidente de ataque cibernético devastador conduzido por IA. Alguns responsáveis avaliaram de forma ainda mais proactiva se seria possível criar um mecanismo de «prioridade de acesso ao governo», permitindo que as agências federais obtenham primeiro permissões de acesso antes da divulgação do modelo, assegurando que o valor militar e de inteligência do novo modelo possa ser aproveitado pelo Pentágono.
( O modelo de cibersegurança de nível “armas” Mythos da Anthropic sofre acesso não autorizado: como conseguiram? )
Disputa legal entre a Anthropic e o Pentágono
O contexto da mudança de políticas também se entrelaça com um caso jurídico espinhoso em que estão envolvidas o governo e uma empresa. Em Fevereiro deste ano, a Anthropic e o Pentágono estiveram em negociações sobre um contrato de 200 milhões de dólares; no entanto, a Anthropic recusou o pedido do Governo de Trump. Para esse efeito, o Departamento de Defesa classificou a Anthropic como um «risco de cadeia de fornecimento para a segurança nacional», e a Anthropic, posteriormente, intentou uma acção judicial para tentar impedir este movimento.
No mês passado, o Chefe de Gabinete da Casa Branca, Susie Wiles, e a Ministra das Finanças, Bezalent, reuniram-se na Casa Branca com o CEO da Anthropic, Dario Amodei, com foco em como restabelecer a utilização das tecnologias da Anthropic pelo governo. Depois da reunião, ambas as partes descreveram o encontro como «produtivo».
A corrida aos armamentos de IA acelera; a estrutura de regulação ainda está por formar
Em Março deste ano, o Governo de Trump nomeou uma nova comissão consultiva de IA da Casa Branca, composta por 13 líderes do sector tecnológico, incluindo o CEO da Meta, Zuckerberg, o CEO da Nvidia, Huang Renxun, e o fundador da Oracle, Larry Ellison, e publicou um enquadramento legislativo, exigindo ao Congresso que estabeleça uma política nacional unificada de IA para substituir as regras dispersas por cada estado.
Na semana passada, o Pentágono também anunciou que chegou a acordos com a OpenAI, Google, Nvidia, SpaceX, Microsoft, Amazon e Reflection, para implementar as ferramentas de IA das empresas acima no sistema de redes confidenciais do Departamento de Defesa, com o objectivo de reforçar a análise de dados, melhorar a consciência situacional no campo de batalha e apoiar a tomada de decisão dos soldados em ambientes operacionais complexos.
Este passo mostra que, independentemente de como evoluam as políticas de regulação, a tendência do governo norte-americano para ampliar as aplicações militares da IA já está definida. No entanto, como equilibrar o incentivo à inovação com o controlo de riscos continua a ser o problema mais difícil que se coloca à Casa Branca.
Este artigo A Mythos da Anthropic é demasiado poderosa! A Casa Branca prepara-se para exigir que os novos modelos de IA passem por uma revisão de segurança governamental antes da publicação surgiu pela primeira vez em Cadeia News ABMedia.
Related Articles
IREN adquire a Mirantis por $625M num acordo integral em ações para expandir a plataforma de cloud de IA
CEO da Anthropic: os EUA estão a considerar um processo simplificado de lançamento de modelos de IA, enquanto os concorrentes estão 1-3 meses atrasados
A equipa da SGLang conclui a $100M ronda de financiamento-semente$400M com avaliação, com a Accel na liderança
A OpenAI concede 8.000 programadores um aumento de 10x do limite de taxa do Codex até 5 de junho
Joint Venture da OpenAI com a Anthropic em negociações para adquirir três empresas de serviços de IA a 5 de maio
A Anthropic lança dez agentes de IA para serviços financeiros na terça-feira