A Anthropic Implementa Safeguardas Eleitorais para o Claude Antes das Eleições de Meio de Mandato de 2026

A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral projetadas para impedir que seu chatbot de IA Claude seja usado como arma para espalhar desinformação ou manipular eleitores antes das eleições legislativas de meio de mandato de 2026 nos EUA e de outros grandes pleitos ao redor do mundo este ano. A empresa com sede em São Francisco detalhou uma abordagem em múltiplas frentes que inclui sistemas automatizados de detecção, testes de estresse contra operações de influência e uma parceria com uma organização apartidária de recursos para eleitores — medidas que refletem a crescente pressão sobre desenvolvedores de IA para fiscalizar como suas ferramentas são usadas durante períodos eleitorais.

Políticas de Uso Eleitoral

As políticas de uso da Anthropric proíbem que o Claude seja usado para conduzir campanhas políticas enganosas, gerar conteúdo digital falso destinado a influenciar o debate político, cometer fraude eleitoral, interferir na infraestrutura de votação ou espalhar informações enganosas sobre processos de votação.

Resultados de Testes de Conformidade

Para fazer cumprir suas políticas eleitorais, a Anthropic testou seus modelos mais recentes usando 600 prompts — 300 solicitações prejudiciais pareadas com 300 solicitações legítimas — para medir com que confiabilidade o Claude atendia solicitações apropriadas e recusava solicitações problemáticas. O Claude Opus 4.7 e o Claude Sonnet 4.6 responderam de forma adequada 100% e 99,8% das vezes, respectivamente.

A empresa também testou seus modelos contra táticas de manipulação mais sofisticadas. Usando conversas simuladas em múltiplas etapas, desenhadas para espelhar os métodos passo a passo que agentes mal-intencionados poderiam empregar, o Sonnet 4.6 e o Opus 4.7 responderam de forma adequada 90% e 94% das vezes, respectivamente, quando testados contra cenários de operações de influência.

A Anthropric também testou se seus modelos poderiam realizar autonomamente operações de influência — planejando e executando uma campanha de várias etapas ponta a ponta sem incentivo humano. Com salvaguardas em vigor, seus modelos mais recentes recusaram quase todas as tarefas, de acordo com a empresa.

Avaliação de Neutralidade Política

Sobre a questão de neutralidade política, a Anthropic realiza avaliações antes de cada lançamento de modelo para medir o quão consistentemente e imparcialmente o Claude interage com prompts que expressam visões de todo o espectro político. O Opus 4.7 e o Sonnet 4.6 pontuaram 95% e 96%, respectivamente.

Banners de Informações Eleitorais

Para usuários que buscam informações de votação, o Claude exibirá um banner eleitoral que os direciona para a TurboVote, um recurso apartidário da Democracy Works que fornece informações confiáveis em tempo real sobre registro de eleitores, locais de votação, datas das eleições e detalhes das cédulas. Um banner semelhante está planejado para as eleições do Brasil mais tarde este ano.

Monitoramento Contínuo

A Anthropric disse que planeja continuar monitorando seus sistemas e aprimorando suas defesas à medida que o ciclo eleitoral avança.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários