
O diretor da Comissão Nacional de Economia da Casa Branca (NEC), Kevin Hassett, disse em 7 de maio, em entrevista ao Fox Business, que o governo Trump está avaliando ordenar, por meio de uma ordem executiva, que modelos de IA passem por uma revisão de segurança do governo antes de serem disponibilizados publicamente, e comparou o processo ao da FDA para a aprovação prévia de medicamentos para lançamento no mercado. Mas, segundo o Politico em 8 de maio, autoridades sêniores da Casa Branca afirmaram em seguida que a declaração foi “recortada fora de contexto”.
Em 4 de maio de 2026, o “New York Times” reportou que a Casa Branca estava discutindo criar um mecanismo de revisão antes da publicação de modelos de IA, na época descrito como “em consideração”. Em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, declarou publicamente: “Estamos analisando se podemos, por meio de uma ordem executiva, exigir que a IA que, no futuro, possa apresentar vulnerabilidades seja colocada em uso somente depois de provar que é segura — como os remédios da FDA”.
Na madrugada de 7 de maio de 2026, a chefe de gabinete Susie Wiles publicou no X que o governo “não é responsável por escolher vencedores e perdedores” e afirmou que implantações de segurança para tecnologias fortes deveriam ser impulsionadas por “inovadores excepcionais dos EUA, e não por agências burocráticas”. Conforme o histórico de posts na conta oficial, a publicação acima foi o 4º conteúdo divulgado desde que Wiles criou sua conta.
O Politico cita três pessoas informadas, sob condição de anonimato, dizendo que a Casa Branca discute fazer com que agências de inteligência realizem avaliações prévias antes da disponibilização pública de modelos de IA. Um oficial do governo dos EUA afirmou na reportagem que um dos objetivos disso é “garantir que o setor de inteligência estude e use essas ferramentas antes que adversários como Rússia e China entendam as novas capacidades”.
O Centro de Padrões e Inovação de IA (CAISI), ligado ao Departamento de Comércio, anunciou nesta semana que assinou acordos de avaliação de segurança de IA com Google DeepMind, Microsoft e xAI, com a expansão do escopo em relação ao que já havia sido incluído anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias da CAISI está em vigor desde 2024.
Em 8 de maio de 2026, em um evento de IA em Washington, o subsecretário de Defesa Emil Michael apoiou publicamente a pré-avaliação do governo antes da disponibilização de modelos de IA e citou o sistema Mythos da Anthropic como exemplo, dizendo que modelos “mais cedo ou mais tarde vão aparecer” e que o governo precisa criar mecanismos de resposta.
De acordo com o Politico, o secretário de Defesa Pete Hegseth, em março de 2026, incluiu a Anthropic em uma lista de riscos com base em risco da cadeia de suprimentos e proibiu que seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, o Trump teria solicitado separadamente que agências federais interrompessem o uso de produtos da Anthropic dentro de seis meses. Ao mesmo tempo, no mês passado, a Anthropic revelou que seu sistema de IA Mythos tem capacidade robusta de descoberta de vulnerabilidades de software, além do patamar de segurança exigido para lançamento público, e várias agências federais posteriormente apresentaram pedidos de acesso. Em 8 de maio de 2026, a OpenAI anunciou que fará uma prévia limitada da GPT-5.5-Cyber, uma nova ferramenta capaz de detectar e corrigir vulnerabilidades de rede.
Daniel Castro, presidente do Information Technology and Innovation Foundation (ITIF), disse na reportagem do Politico: “Se você consegue negar a aprovação antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente recebe aprovação enquanto outro não, a diferença de semanas ou meses na entrada no mercado terá um impacto enorme.” Os financiadores do ITIF incluem Anthropic, Microsoft e Meta.
Um alto funcionário da Casa Branca afirmou na mesma reportagem: “Há, de fato, um ou dois que estão muito entusiasmados com a supervisão do governo, mas eles são minoria.” O funcionário pediu anonimato alegando necessidade de descrever discussões sensíveis de políticas.
Conforme reportado pelo Politico, em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, afirmou publicamente que o governo está avaliando uma ordem executiva para exigir que modelos de IA passem por uma revisão de segurança do governo antes de serem lançados, comparando o processo ao fluxo de aprovação da FDA para medicamentos.
Segundo a reportagem do Politico em 8 de maio de 2026, autoridades sêniores da Casa Branca disseram que a fala de Hassett foi “um pouco recortada fora de contexto”, e que a direção de políticas da Casa Branca é firmar parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete Susie Wiles também publicou novamente para reiterar que o governo não interfere na escolha do mercado.
De acordo com o comunicado da CAISI nesta semana, os acordos adicionais abrangem Google DeepMind, Microsoft e xAI, além dos que já estavam cobertos anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias está em vigor desde 2024.
Related Articles
SoftBank divulga resultados do ano fiscal, enquanto investidores questionam o plano de financiamento da US$60B OpenAI
Anúncios de vagas de emprego com IA aumentam 50% à medida que a disputa por talentos na Ásia redefine o emprego
Yu Wenhao, ex-pesquisador de IA da Tencent, ingressa na OpenAI como pesquisador de AGI no mês passado
A Anthropic considera uma captação de US$ 50 bilhões no verão, com uma avaliação pré-investimento de cerca de US$ 900 bilhões
Ações da SanDisk Disparam 430% com a Demanda por Armazenamento de IA
Executivos da Microsoft duvidaram da OpenAI em 2017-2018 e investiram $1B para impedir a mudança para a Amazon