Exclusivo da Axios: a NSA dos EUA contorna a lista negra do Pentágono usando o Anthropic Mythos; Dario Amodei vai às pressas à Casa Branca negociar

ChainNewsAbmedia

Com base em um relatório exclusivo da Axios e republicado pela Reuters, a Agência de Segurança Nacional dos EUA (NSA) está usando o modelo mais forte da Anthropic, o Mythos Preview, apesar de a instituição superior, o Departamento de Defesa dos EUA (Department of Defense, DoD), desde fevereiro já ter classificado a Anthropic como “risco de cadeia de suprimentos” e tê-la desativado. Este é o primeiro exemplo público na história da governança de IA nos EUA de uma contradição aberta em que um órgão de um mesmo governo federal bloqueia, enquanto outro órgão, na prática, utiliza.

Mythos só abriu para 40 empresas, enquanto a lista oficial só revela 12

Depois que a Anthropic anunciou publicamente a existência do Claude Mythos em fevereiro, ela concedeu acesso ao preview para apenas cerca de 40 organizações no mundo, e a lista divulgada oficialmente tem só 12. O restante foi intencionalmente ocultado com base em que “capacidades de ciberataque são sensíveis demais”. A NSA, como unidade central no sistema de inteligência dos EUA que lida com informações de sinais (SIGINT) e criptografia, não está entre as 12 empresas na lista pública da Anthropic, mas ainda assim obteve e usa o Mythos — o que levanta duas dúvidas simultâneas no exterior: transparência da lista da Anthropic e autorização de acesso do governo dos EUA.

Proibição do DoD vs conflito interno de uso ampliado pelas forças armadas

A relação entre o Pentágono e a Anthropic se rompeu no começo deste ano. A versão oficial é que, quando houve atualização de contrato, a Anthropic insistiu em excluir finalidades como “monitoramento doméstico em massa e desenvolvimento de armas autônomas”, enquanto o Departamento de Defesa exigiu que o Mythos “fique aberto para todos os usos legais”. Depois que as negociações fracassaram, em fevereiro o DoD colocou a Anthropic na lista de desativação sob o argumento de “risco de cadeia de suprimentos” e determinou que os fornecedores do setor de defesa interrompessem os negócios em conjunto.

Ironicamente, dois meses depois da desativação formal pelo DoD, não só a NSA continuou a usar o Mythos como também várias unidades das forças armadas dos EUA passaram a adotar ainda mais a série de outros modelos da Anthropic Claude. Unidades governamentais argumentaram em documentos públicos de tribunal que “usar ferramentas da Anthropic ameaçaria a segurança nacional”, mas as mesmas unidades continuam usando o Claude internamente para tarefas de segurança da informação e de inteligência. Mais cedo neste mês, o ministro do Tesouro Bessent e o presidente do Fed, Powell, convocaram uma reunião de emergência com líderes do setor bancário para discutir preocupações regulatórias sobre o Mythos; agora as contradições internas vieram à tona, e o risco administrativo do Mythos aumentou de forma significativa.

Dario Amodei vai à Casa Branca para negociar acordo

O CEO da Anthropic, Dario Amodei, já foi à Casa Branca em 17 de abril para se reunir com a chefe de gabinete Susie Wiles e com o secretário do Tesouro Scott Bessent. Segundo a Axios, as conversas se concentraram em três pontos: os limites de uso do Mythos dentro do sistema governamental, as operações e fluxos de auditoria de segurança da Anthropic como um todo e como permitir que “outros órgãos além do Pentágono” continuem obtendo acesso. Os próximos passos podem incluir a criação de um canal de autorização separado para agências federais que não sejam do DoD, ou exigir que a Anthropic divulgue uma lista mais completa de clientes para responder às preocupações regulatórias do Pentágono.

Novo modelo para acesso por níveis e limites de compras governamentais

O caso do Mythos e, na mesma semana, o lançamento do GPT-5.4-Cyber pela OpenAI se conectam: em 2026, os modelos de IA mais avançados entrarão na fase de liberação segmentada em que “quanto maior a capacidade, menor o número de clientes”. Esse tipo de sistema de controle parece rigoroso, mas quando o próprio governo federal dos EUA tem normas internas inconsistentes, na prática equivale a deixar o fabricante (Anthropic) decidir quais unidades governamentais merecem confiança. Para governos e empresas de outros países, a próxima pressão de políticas é: se exigir que fabricantes de IA divulguem listas de autorização de clientes quando envolverem o processamento de dados de cidadãos do próprio país. As ações da Anthropic nas próximas semanas se tornarão um modelo de governança para toda a indústria de IA de ponta.

Este artigo da Axios em primeira mão: a NSA dos EUA contornou a lista negra do DoD e usou o Anthropic Mythos; Dario Amodei foi à Casa Branca com urgência para negociar. Apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários