Google e o Pentágono assinam acordo secreto de IA, carta aberta de funcionários se opõe

Google簽署機密AI協議

De acordo com a The Information, em 28 de abril, o Google assinou um acordo para fornecer ao Pentágono modelos de inteligência artificial (IA) para trabalhos confidenciais. O The New York Times, citando pessoas com conhecimento do assunto, disse que o acordo permite ao Departamento de Defesa usar a IA do Google para fins governamentais legais, com natureza semelhante aos acordos confidenciais de implantação de IA que o Pentágono assinou mês passado com a OpenAI e a xAI.

Conteúdo do acordo e contexto de múltiplas partes

De acordo com a reportagem do The New York Times citando pessoas com conhecimento do assunto, o acordo entre o Google e o Pentágono permite que o DoD use os modelos de IA do Google em trabalhos confidenciais. O Pentágono já havia concluído assinaturas semelhantes separadamente com a OpenAI e a xAI no mês passado, permitindo a implantação de modelos de IA em redes confidenciais; o acordo do Google é o exemplo mais recente de uma ampliação da cooperação em IA pelo Pentágono.

Em comunicado ao The New York Times, um porta-voz do Google disse: “É uma honra fazer parte de uma ampla coalizão formada por laboratórios de IA líderes, empresas de tecnologia e de nuvem, para fornecer serviços de IA e infraestrutura para a segurança nacional.” A Decrypt entrou em contato com o Google para comentar sobre o assunto e, até o momento em que a reportagem foi publicada, o Google ainda não havia respondido.

Carta aberta de funcionários: instando a recusar cargas de trabalho confidenciais

De acordo com a reportagem do The New York Times, antes da assinatura do acordo, centenas de funcionários do Google já haviam assinado uma carta aberta, endereçada ao CEO Sundar Pichai, instando a empresa a não fornecer sistemas de IA ao Pentágono para trabalhos confidenciais.

A carta aberta escreveu: “Esperamos que a IA faça bem à humanidade, e não seja usada para fins desumanos ou extremamente prejudiciais. Atualmente, a única forma de garantir que o Google não tenha qualquer relação com esse tipo de dano é recusar qualquer carga de trabalho confidencial. Caso contrário, tais usos podem acontecer sem que saibamos ou sem que consigamos impedir.”

Na carta, “armas autônomas letais e vigilância em larga escala” são listadas como as principais preocupações, e ela alerta que “tomar a decisão errada agora causará danos irreparáveis à reputação, aos negócios e à posição do Google no mundo”.

Processo de integração de IA no Pentágono e caso da Anthropic

De acordo com a reportagem do The New York Times, o secretário de Defesa dos Estados Unidos, Pete Hegseth, em janeiro deste ano, em um discurso na Starbase de Elon Musk, disse: “A América precisa vencer a competição estratégica pela supremacia tecnológica no século XXI” e afirmou que “cada uma das nossas redes não confidenciais e confidenciais do nosso departamento implantará em breve modelos de IA líderes no mundo”. Desde então, o Pentágono acelerou os passos para fechar acordos com as principais empresas de IA.

Quanto ao contexto relacionado, de acordo com reportagens relacionadas, em março deste ano o Pentágono classificou a Anthropic como uma empresa de “risco de cadeia de suprimentos”, em razão de o CEO da Anthropic, Dario Amodei, ter se recusado a permitir que o governo federal use seus modelos de IA sem restrições; posteriormente, a Anthropic processou o Pentágono com base na referida determinação e buscou continuar a cooperar com outros departamentos do governo.

Perguntas frequentes

Que usos o acordo confidencial de IA do Google com o Pentágono permite?

De acordo com reportagem do The New York Times citando pessoas com conhecimento do assunto, o acordo permite ao DoD usar a IA do Google para “qualquer finalidade governamental legal”. Um porta-voz do Google disse que a empresa mantém a posição de que a IA não deve ser usada para vigilância doméstica em larga escala ou armas autônomas sem supervisão humana.

Com quais empresas de IA o Pentágono já assinou acordos semelhantes?

De acordo com a reportagem do The New York Times, no mês passado o Pentágono assinou acordos, respectivamente, com a OpenAI e a xAI, permitindo a implantação de IA em redes confidenciais; o acordo do Google é o exemplo mais recente desse tipo de cooperação.

Qual é a posição da Anthropic sobre questões semelhantes?

De acordo com reportagens relacionadas, em março deste ano o Pentágono classificou a Anthropic como uma empresa de “risco de cadeia de suprimentos”, em razão de a Anthropic recusar permitir que o governo federal use seus modelos de IA sem restrições; posteriormente, a Anthropic processou o Pentágono com base na referida determinação e buscou continuar a cooperar com outros departamentos do governo.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Audiência no tribunal de OpenAI: Brockman depõe; Musk já teria dito que não vai fazer segurança e que as negociações de ações podem ficar violentas

De acordo com o New York Post em 6 de maio, o CEO da OpenAI, Greg Brockman, testemunhou em 5 de maio perante um tribunal federal do distrito em Oakland, Califórnia, revelando a fala para todos feita por Musk quando ele deixou o conselho da OpenAI em 2018, dizendo que, ao impulsionar a IA na Tesla, “não vai gastar tempo com segurança”, além de que, em 2017, ele teve discussões tensas com os cofundadores da OpenAI sobre participações acionárias.

MarketWhisper22m atrás

Empresas indianas de cibersegurança usam IA para reduzir testes de vulnerabilidades para horas

Empresas indianas de cibersegurança, incluindo Indusface e Astra Security, estão adotando agentes de IA criados sobre grandes modelos de linguagem para acelerar testes de vulnerabilidades de software, de dias ou semanas para apenas horas, segundo o The Economic Times. A mudança reflete a velocidade crescente dos atacantes e a capacidade emergente das ferramentas de IA

CryptoFrontier1h atrás

Desmascarando a bolha da IA! CEO da BlackRock: a escassez de poder de computação vai dar origem a um “mercado de futuros de computação”

A demanda global por IA e necessidades de computação disparou. O CEO da BlackRock, Fink, rejeitou a ideia de uma bolha de IA, dizendo que a escassez de capacidade computacional deve dar origem a uma nova classe de ativos: os “futuros de capacidade computacional”. Para acompanhar a tendência, a BlackRock, em parceria com a Microsoft, a Nvidia e a MGX, investiu dezenas de bilhões de dólares em data centers e infraestrutura de energia; a GIP adquiriu a Aligned Data Centers por cerca de US$ 40 bilhões e, em conjunto com a EQT, por meio de US$ 10,7 bilhões, adquiriu a AES. Fink e outros, como a Brookfield, consideram isso uma oportunidade de investimento de capitalização composta e sólida no longo prazo, com retornos sustentáveis por décadas.

ChainNewsAbmedia1h atrás

O CEO da Tether Anuncia uma Prova de Pesquisa em IA que Deve Chegar Esta Semana

De acordo com o Cointelegraph, o CEO da Tether, Paolo Ardoino, anunciou em 6 de maio que a equipe de pesquisa de IA da empresa vai lançar mais um avanço em IA local esta semana.

GateNews1h atrás

A Anthropic lança 10 agentes de IA financeiros, integrados ao Microsoft 365 para lidar facilmente com tarefas de finanças

A Anthropic lançou 10 modelos de agentes de IA financeiros, integrando parceiros de dados como o Microsoft 365, Moody’s e D&B, e que podem ser usados como plugins ou com execução automática por agendamento. Os modelos se dividem em duas categorias: pesquisa/atendimento ao cliente e rotinas financeiras, cobrindo investimentos e pesquisa, modelos financeiros, KYC etc., além de incorporar as classificações da Moody’s. O Claude Opus 4.7 ficou em primeiro lugar nos benchmarks de agentes financeiros, indicando que os talentos do setor financeiro e o cenário regulatório serão impactados.

ChainNewsAbmedia1h atrás
Comentário
0/400
Sem comentários