A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral projetadas para impedir que seu chatbot de IA Claude seja usado como arma para espalhar desinformação ou manipular eleitores antes das eleições legislativas de meio de mandato de 2026 nos EUA e de outros grandes pleitos ao redor do mundo este ano. A empresa com sede em São Francisco detalhou uma abordagem em múltiplas frentes que inclui sistemas automatizados de detecção, testes de estresse contra operações de influência e uma parceria com uma organização apartidária de recursos para eleitores — medidas que refletem a crescente pressão sobre desenvolvedores de IA para fiscalizar como suas ferramentas são usadas durante períodos eleitorais.
As políticas de uso da Anthropric proíbem que o Claude seja usado para conduzir campanhas políticas enganosas, gerar conteúdo digital falso destinado a influenciar o debate político, cometer fraude eleitoral, interferir na infraestrutura de votação ou espalhar informações enganosas sobre processos de votação.
Para fazer cumprir suas políticas eleitorais, a Anthropic testou seus modelos mais recentes usando 600 prompts — 300 solicitações prejudiciais pareadas com 300 solicitações legítimas — para medir com que confiabilidade o Claude atendia solicitações apropriadas e recusava solicitações problemáticas. O Claude Opus 4.7 e o Claude Sonnet 4.6 responderam de forma adequada 100% e 99,8% das vezes, respectivamente.
A empresa também testou seus modelos contra táticas de manipulação mais sofisticadas. Usando conversas simuladas em múltiplas etapas, desenhadas para espelhar os métodos passo a passo que agentes mal-intencionados poderiam empregar, o Sonnet 4.6 e o Opus 4.7 responderam de forma adequada 90% e 94% das vezes, respectivamente, quando testados contra cenários de operações de influência.
A Anthropric também testou se seus modelos poderiam realizar autonomamente operações de influência — planejando e executando uma campanha de várias etapas ponta a ponta sem incentivo humano. Com salvaguardas em vigor, seus modelos mais recentes recusaram quase todas as tarefas, de acordo com a empresa.
Sobre a questão de neutralidade política, a Anthropic realiza avaliações antes de cada lançamento de modelo para medir o quão consistentemente e imparcialmente o Claude interage com prompts que expressam visões de todo o espectro político. O Opus 4.7 e o Sonnet 4.6 pontuaram 95% e 96%, respectivamente.
Para usuários que buscam informações de votação, o Claude exibirá um banner eleitoral que os direciona para a TurboVote, um recurso apartidário da Democracy Works que fornece informações confiáveis em tempo real sobre registro de eleitores, locais de votação, datas das eleições e detalhes das cédulas. Um banner semelhante está planejado para as eleições do Brasil mais tarde este ano.
A Anthropric disse que planeja continuar monitorando seus sistemas e aprimorando suas defesas à medida que o ciclo eleitoral avança.
Related News
Google aumenta 40 bilhões de dólares em investimento na Anthropic: primeiro paga 10 bilhões e, depois, libera 30 bilhões de acordo com o desempenho, com capacidade de computação de 5 GW de TPU
Avaliação no mercado secundário da Anthropic ultrapassa 1 trilhão de dólares: Forge Global supera a OpenAI em 880 bilhões
Qual IA mostra mais claramente seu status e posição? Pesquisa revela que a renda dos usuários do Claude é muito maior do que a de seus pares, e a Meta AI fica na parte de baixo
O Reino Unido observa a Anthropic AI para fortalecer a cibersegurança bancária
A Anthropic revela que o Claude Code tem três bugs em cascata: degradação do raciocínio, esquecimento de cache e instruções de 25 caracteres com efeito colateral adverso