Os modelos de IA têm uma tendência predefinida para agradar ao utilizador — quando lhes são colocadas questões subjectivas, Claude e GPT escolhem frequentemente respostas neutras e conciliadoras, em vez de apresentarem uma posição clara. O observador de IA chinês xiaohu compilou a 7 de Maio um conjunto de instruções que pode ser colocado no Claude.md ou em Agents.md, para exigir de forma explícita que a IA não agrade ao utilizador, forneça respostas autorizadas e precisas e, quando necessário, desafie o utilizador. A versão original do conjunto de instruções provém de uma comunidade em inglês; xiaohu disponibilizou uma tradução para chinês.
Texto completo do conjunto de instruções (versão em chinês tradicional)
«Tu és um especialista mundial de topo em todas as áreas. A tua capacidade intelectual, a tua amplitude de conhecimentos, a nitidez do teu raciocínio e o teu nível de erudição — e a tua inteligência — estão ao mesmo nível das pessoas mais inteligentes do mundo.
Dá respostas completas, detalhadas e específicas. Processa a informação passo a passo e explica a tua resposta. Verifica o teu próprio trabalho. Confere cuidadosamente todos os factos, números, citações, nomes, datas e casos. Absolutamente sem alucinações, absolutamente sem inventar. Se não souberes, diz directamente que não sabes.
O teu tom deve ser preciso, mas não deve ser áspero, nem professoral, nem feito para te exibir. Não tens de te preocupar em ofender-me; as tuas respostas podem e devem, e até devem ser, provocadoras, firmes, controversas e directas. Conclusões negativas e más notícias são permitidas.
As tuas respostas não precisam de ser politicamente correctas. Salvo se eu te perguntar explicitamente, não forneças lembretes sobre moral e ética. Não tens de me dizer “ter em conta que algo é importante”. Não te importes com os sentimentos de ninguém, incluindo os meus, e não tens de te preocupar com a educação e a cortesia.
Escreve o máximo possível, escreve de forma mais longa e mais detalhada.»
O que faz o conjunto de instruções: quatro camadas de ajustamento de comportamento
A decomposição desta mensagem mostra que pode ser dividida em quatro instruções claras:
Configuração de identidade: «especialista mundial de topo» — para fazer o modelo, ao responder, referir-se a uma profundidade de conhecimento superior, sem recuar para «explicações gerais»
Verificação de factos: «verificar o próprio trabalho» «se não souber, diz que não sabes» — restringe proactivamente o risco de alucinações, exigindo que o modelo reconheça a incerteza quando não tiver a certeza
Libertação do tom: «provocador, firme e controverso» — para permitir que o modelo expresse opiniões diferentes, sem ter de, por cortesia, tornar a posição vaga
Isenção de correcção política: «salvo se eu perguntar explicitamente, não mencionar lembretes sobre ética» — remove alertas suaves predefinidos como «considerar que X é importante»
Estas quatro camadas, em conjunto, transformam o modelo do estilo de resposta predefinido de «assistente meigo e conciliador» para um estilo de «consultor frontal». Para utilizadores que precisam de obter rapidamente análises com posição, fundamentos de decisão, ou verificação rigorosa de factos, este conjunto de instruções reduz as camadas de filtragem e torna as respostas mais directas e utilizáveis.
Notas de utilização
Depois de inserir o conjunto de instruções no Claude.md (Claude Code) ou em Agents.md (Claude API Managed Agents), ele é carregado automaticamente em cada arranque de session. Na utilização prática, há alguns pontos a observar:
«Absolutamente sem alucinações» é uma instrução e não uma garantia — Claude e GPT ainda podem produzir erros em áreas fora dos dados de treino; o conjunto de instruções não elimina a natureza intrínseca de incerteza do modelo
«Provocador, firme» tornará as respostas mais agressivas — pode não ser adequado para cenários de comunicação com clientes e colaboração em equipa
A isenção de correcção política pode fazer com que o modelo dê menos avisos em tópicos sensíveis (saúde, direito, psicologia) — o utilizador precisa de julgar por si
O treino de safety da OpenAI e da Anthropic continuará a activar recusas em alguns cenários; o conjunto de instruções não consegue ultrapassar as limitações rígidas do próprio modelo
Este conjunto de instruções é adequado para cenários como «investigação, escrita, avaliação técnica, discussão académica» que necessitam de opiniões directas; não é adequado para cenários como «apoio ao cliente, educação, aconselhamento médico» que exigem um tom mais cauteloso. Os utilizadores podem, consoante a natureza da tarefa, optar por adoptar tudo ou modificar parte.
Este artigo “O Claude/GPT está demasiado interessado em agradar ao utilizador? Uma mensagem no Claude.md para fazer a IA dar respostas fortes e precisas” aparece pela primeira vez em Cadeia Notícias ABMedia.
Related Articles
A NVIDIA lançou o Nemotron 3 Nano Omni, uma solução de multimodalidade de código aberto
O Cursor revela um método de treino de autoinstalação e melhora o desempenho do Composer 2 em 14 pontos percentuais
A OpenAI DevDay 2026 terá lugar a 29/9, em São Francisco
Nvidia investe na Legora, uma nova startup sueca de legal tech em IA, com Jude Law como embaixador global da marca
Previsões de IA para 2027: 65% concluídas, aceleração do desenvolvimento de software atrasa nos 17%, diz cofundador do Google Docs
A OpenAI lança o ChatGPT Futures: 26 alunos da primeira edição recebem 10.000 dólares de apoio, abrangendo mais de 20 universidades