Exposição do debate sobre o mecanismo de pré-aprovação de IA na Casa Branca; comentários de Hassett desmentidos oficialmente no dia seguinte

白宮AI預審機制討論

O diretor da Comissão Nacional de Economia da Casa Branca (NEC), Kevin Hassett, disse em 7 de maio, em entrevista ao Fox Business, que o governo Trump está avaliando ordenar, por meio de uma ordem executiva, que modelos de IA passem por uma revisão de segurança do governo antes de serem disponibilizados publicamente, e comparou o processo ao da FDA para a aprovação prévia de medicamentos para lançamento no mercado. Mas, segundo o Politico em 8 de maio, autoridades sêniores da Casa Branca afirmaram em seguida que a declaração foi “recortada fora de contexto”.

Linha do tempo do caso: contradições da política da Casa Branca vêm à tona em reportagem do “New York Times”

Em 4 de maio de 2026, o “New York Times” reportou que a Casa Branca estava discutindo criar um mecanismo de revisão antes da publicação de modelos de IA, na época descrito como “em consideração”. Em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, declarou publicamente: “Estamos analisando se podemos, por meio de uma ordem executiva, exigir que a IA que, no futuro, possa apresentar vulnerabilidades seja colocada em uso somente depois de provar que é segura — como os remédios da FDA”.

Na madrugada de 7 de maio de 2026, a chefe de gabinete Susie Wiles publicou no X que o governo “não é responsável por escolher vencedores e perdedores” e afirmou que implantações de segurança para tecnologias fortes deveriam ser impulsionadas por “inovadores excepcionais dos EUA, e não por agências burocráticas”. Conforme o histórico de posts na conta oficial, a publicação acima foi o 4º conteúdo divulgado desde que Wiles criou sua conta.

O Politico cita três pessoas informadas, sob condição de anonimato, dizendo que a Casa Branca discute fazer com que agências de inteligência realizem avaliações prévias antes da disponibilização pública de modelos de IA. Um oficial do governo dos EUA afirmou na reportagem que um dos objetivos disso é “garantir que o setor de inteligência estude e use essas ferramentas antes que adversários como Rússia e China entendam as novas capacidades”.

Agências envolvidas e marco de políticas

CAISI amplia acordo voluntário de avaliações de segurança

O Centro de Padrões e Inovação de IA (CAISI), ligado ao Departamento de Comércio, anunciou nesta semana que assinou acordos de avaliação de segurança de IA com Google DeepMind, Microsoft e xAI, com a expansão do escopo em relação ao que já havia sido incluído anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias da CAISI está em vigor desde 2024.

Subsecretário de Defesa apoia publicamente mecanismo de pré-avaliação

Em 8 de maio de 2026, em um evento de IA em Washington, o subsecretário de Defesa Emil Michael apoiou publicamente a pré-avaliação do governo antes da disponibilização de modelos de IA e citou o sistema Mythos da Anthropic como exemplo, dizendo que modelos “mais cedo ou mais tarde vão aparecer” e que o governo precisa criar mecanismos de resposta.

Contexto de políticas do governo Trump e da Anthropic

De acordo com o Politico, o secretário de Defesa Pete Hegseth, em março de 2026, incluiu a Anthropic em uma lista de riscos com base em risco da cadeia de suprimentos e proibiu que seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, o Trump teria solicitado separadamente que agências federais interrompessem o uso de produtos da Anthropic dentro de seis meses. Ao mesmo tempo, no mês passado, a Anthropic revelou que seu sistema de IA Mythos tem capacidade robusta de descoberta de vulnerabilidades de software, além do patamar de segurança exigido para lançamento público, e várias agências federais posteriormente apresentaram pedidos de acesso. Em 8 de maio de 2026, a OpenAI anunciou que fará uma prévia limitada da GPT-5.5-Cyber, uma nova ferramenta capaz de detectar e corrigir vulnerabilidades de rede.

Posições da indústria contra mecanismo de revisão compulsória

Daniel Castro, presidente do Information Technology and Innovation Foundation (ITIF), disse na reportagem do Politico: “Se você consegue negar a aprovação antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente recebe aprovação enquanto outro não, a diferença de semanas ou meses na entrada no mercado terá um impacto enorme.” Os financiadores do ITIF incluem Anthropic, Microsoft e Meta.

Um alto funcionário da Casa Branca afirmou na mesma reportagem: “Há, de fato, um ou dois que estão muito entusiasmados com a supervisão do governo, mas eles são minoria.” O funcionário pediu anonimato alegando necessidade de descrever discussões sensíveis de políticas.

Perguntas frequentes

Quando e onde Kevin Hassett fez declarações sobre pré-avaliação de IA?

Conforme reportado pelo Politico, em 7 de maio de 2026, Kevin Hassett, em entrevista ao Fox Business, afirmou publicamente que o governo está avaliando uma ordem executiva para exigir que modelos de IA passem por uma revisão de segurança do governo antes de serem lançados, comparando o processo ao fluxo de aprovação da FDA para medicamentos.

Qual é a base para a Casa Branca negar as declarações de Hassett?

Segundo a reportagem do Politico em 8 de maio de 2026, autoridades sêniores da Casa Branca disseram que a fala de Hassett foi “um pouco recortada fora de contexto”, e que a direção de políticas da Casa Branca é firmar parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete Susie Wiles também publicou novamente para reiterar que o governo não interfere na escolha do mercado.

Quais novos acordos de avaliação de segurança de IA a CAISI acrescentou nesta semana?

De acordo com o comunicado da CAISI nesta semana, os acordos adicionais abrangem Google DeepMind, Microsoft e xAI, além dos que já estavam cobertos anteriormente, OpenAI e Anthropic. A estrutura de avaliações voluntárias está em vigor desde 2024.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

SoftBank divulga resultados do ano fiscal, enquanto investidores questionam o plano de financiamento da US$60B OpenAI

De acordo com a Bloomberg, a SoftBank Group reportou os lucros do ano fiscal inteiro encerrado em março, enquanto os investidores analisam como a empresa vai financiar o investimento planejado de US$60 bilhões na OpenAI. A empresa registrou lucro líquido de aproximadamente 3,3 trilhões de ienes (US$20,8 bilhões) no ano fiscal, ajudada por

GateNews4m atrás

Anúncios de vagas de emprego com IA aumentam 50% à medida que a disputa por talentos na Ásia redefine o emprego

Desorganização do talento em IA por toda a Ásia As ofertas de emprego relacionadas à IA aumentaram 50% ano a ano, mesmo com o mercado de trabalho mais amplo permanecendo estável, de acordo com Peter Bithos, diretor comercial da Seek, que discutiu o cenário de emprego em mudança em um episódio recente de podcast com foco em como

CryptoFrontier14m atrás

Yu Wenhao, ex-pesquisador de IA da Tencent, ingressa na OpenAI como pesquisador de AGI no mês passado

De acordo com Beating, Yu Wenhao, ex-pesquisador sênior do laboratório de IA da Tencent em Seattle, entrou na OpenAI no mês passado como pesquisador de AGI. Ele confirmou no LinkedIn que vai contribuir para moldar modelos de IA de próxima geração e impulsionar o desenvolvimento de AGI. Yu tem um Ph.D. em Ciência da Computação de

GateNews30m atrás

A Anthropic considera uma captação de US$ 50 bilhões no verão, com uma avaliação pré-investimento de cerca de US$ 900 bilhões

De acordo com o jornal britânico Financial Times, em 8 de maio, o desenvolvedor do Claude, a Anthropic, está considerando iniciar uma nova rodada de captação no verão, com a intenção de arrecadar cerca de US$ 50 bilhões, com valuation pré-investimento de aproximadamente US$ 90 bilhões, e, após a operação, a valuation deve ficar perto de US$ 1 trilhão; o Financial Times, citando cinco pessoas familiarizadas com o assunto, afirma que as negociações de financiamento ainda estão em um estágio inicial, que a Anthropic ainda não aceitou nenhuma oferta e que a captação deve ser concluída dentro de dois meses.

MarketWhisper1h atrás

Ações da SanDisk Disparam 430% com a Demanda por Armazenamento de IA

A SanDisk, fabricante de memórias flash e SSD dos EUA que foi desmembrada da Western Digital no ano passado, fechou em US$ 1.409,98 em 6 de maio, com as ações disparando quase 430% neste ano à medida que investidores apostam na crescente demanda por armazenamento para servidores de IA, segundo o Chosun Daily. Contratos de longo prazo de fornecimento garantem receita A empresa

CryptoFrontier1h atrás

Executivos da Microsoft duvidaram da OpenAI em 2017-2018 e investiram $1B para impedir a mudança para a Amazon

De acordo com os processos judiciais monitorados pela Beating News, e-mails de mais de uma dúzia de executivos da Microsoft, incluindo o CEO Satya Nadella, revelaram entre 2017 e 2018 uma desconfiança interna em relação à OpenAI antes do investimento de US$ 1 bilhão da empresa. Nadella consultou colegas sobre apoiar os US$ 300

GateNews1h atrás
Comentário
0/400
Sem comentários