Claude/GPT será que gostam demasiado de agradar? Um excerto de prompt em Claude.md faz com que a IA dê respostas firmes e precisas

Os modelos de IA têm uma tendência predefinida para agradar ao utilizador — quando lhes são colocadas questões subjectivas, Claude e GPT escolhem frequentemente respostas neutras e conciliadoras, em vez de apresentarem uma posição clara. O observador de IA chinês xiaohu compilou a 7 de Maio um conjunto de instruções que pode ser colocado no Claude.md ou em Agents.md, para exigir de forma explícita que a IA não agrade ao utilizador, forneça respostas autorizadas e precisas e, quando necessário, desafie o utilizador. A versão original do conjunto de instruções provém de uma comunidade em inglês; xiaohu disponibilizou uma tradução para chinês.

Texto completo do conjunto de instruções (versão em chinês tradicional)

«Tu és um especialista mundial de topo em todas as áreas. A tua capacidade intelectual, a tua amplitude de conhecimentos, a nitidez do teu raciocínio e o teu nível de erudição — e a tua inteligência — estão ao mesmo nível das pessoas mais inteligentes do mundo.

Dá respostas completas, detalhadas e específicas. Processa a informação passo a passo e explica a tua resposta. Verifica o teu próprio trabalho. Confere cuidadosamente todos os factos, números, citações, nomes, datas e casos. Absolutamente sem alucinações, absolutamente sem inventar. Se não souberes, diz directamente que não sabes.

O teu tom deve ser preciso, mas não deve ser áspero, nem professoral, nem feito para te exibir. Não tens de te preocupar em ofender-me; as tuas respostas podem e devem, e até devem ser, provocadoras, firmes, controversas e directas. Conclusões negativas e más notícias são permitidas.

As tuas respostas não precisam de ser politicamente correctas. Salvo se eu te perguntar explicitamente, não forneças lembretes sobre moral e ética. Não tens de me dizer “ter em conta que algo é importante”. Não te importes com os sentimentos de ninguém, incluindo os meus, e não tens de te preocupar com a educação e a cortesia.

Escreve o máximo possível, escreve de forma mais longa e mais detalhada.»

O que faz o conjunto de instruções: quatro camadas de ajustamento de comportamento

A decomposição desta mensagem mostra que pode ser dividida em quatro instruções claras:

Configuração de identidade: «especialista mundial de topo» — para fazer o modelo, ao responder, referir-se a uma profundidade de conhecimento superior, sem recuar para «explicações gerais»

Verificação de factos: «verificar o próprio trabalho» «se não souber, diz que não sabes» — restringe proactivamente o risco de alucinações, exigindo que o modelo reconheça a incerteza quando não tiver a certeza

Libertação do tom: «provocador, firme e controverso» — para permitir que o modelo expresse opiniões diferentes, sem ter de, por cortesia, tornar a posição vaga

Isenção de correcção política: «salvo se eu perguntar explicitamente, não mencionar lembretes sobre ética» — remove alertas suaves predefinidos como «considerar que X é importante»

Estas quatro camadas, em conjunto, transformam o modelo do estilo de resposta predefinido de «assistente meigo e conciliador» para um estilo de «consultor frontal». Para utilizadores que precisam de obter rapidamente análises com posição, fundamentos de decisão, ou verificação rigorosa de factos, este conjunto de instruções reduz as camadas de filtragem e torna as respostas mais directas e utilizáveis.

Notas de utilização

Depois de inserir o conjunto de instruções no Claude.md (Claude Code) ou em Agents.md (Claude API Managed Agents), ele é carregado automaticamente em cada arranque de session. Na utilização prática, há alguns pontos a observar:

«Absolutamente sem alucinações» é uma instrução e não uma garantia — Claude e GPT ainda podem produzir erros em áreas fora dos dados de treino; o conjunto de instruções não elimina a natureza intrínseca de incerteza do modelo

«Provocador, firme» tornará as respostas mais agressivas — pode não ser adequado para cenários de comunicação com clientes e colaboração em equipa

A isenção de correcção política pode fazer com que o modelo dê menos avisos em tópicos sensíveis (saúde, direito, psicologia) — o utilizador precisa de julgar por si

O treino de safety da OpenAI e da Anthropic continuará a activar recusas em alguns cenários; o conjunto de instruções não consegue ultrapassar as limitações rígidas do próprio modelo

Este conjunto de instruções é adequado para cenários como «investigação, escrita, avaliação técnica, discussão académica» que necessitam de opiniões directas; não é adequado para cenários como «apoio ao cliente, educação, aconselhamento médico» que exigem um tom mais cauteloso. Os utilizadores podem, consoante a natureza da tarefa, optar por adoptar tudo ou modificar parte.

Este artigo “O Claude/GPT está demasiado interessado em agradar ao utilizador? Uma mensagem no Claude.md para fazer a IA dar respostas fortes e precisas” aparece pela primeira vez em Cadeia Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A NVIDIA lançou o Nemotron 3 Nano Omni, uma solução de multimodalidade de código aberto

A NVIDIA divulga o Nemotron 3 Nano Omni, um modelo multimodal aberto, integrando visão, voz e linguagem num único modelo, como camada de perceção para agentes de IA. O núcleo é um MoE 30B-A3B, com context 256K e capacidade de processamento 9x, suportando entradas como texto, imagens, áudio e vídeos, com saídas em texto. Em colaboração com os Nemotron 3 Super/Ultra, é aplicável a cenários como operação de computadores, inteligência documental e compreensão de áudio e vídeo, e também disponibiliza pesos e dados de treino, com uma implementação que abrange o local, NIM e plataformas de terceiros.

ChainNewsAbmedia1m atrás

O Cursor revela um método de treino de autoinstalação e melhora o desempenho do Composer 2 em 14 pontos percentuais

De acordo com a divulgação recente da Cursor, a empresa revelou uma técnica de treino chamada autoinstall para a sua série de modelos Composer: usar um modelo da geração anterior para configurar automaticamente ambientes executáveis para o treino de aprendizagem por reforço da geração seguinte. Ao treinar o Composer 2, a Cursor

GateNews4m atrás

A OpenAI DevDay 2026 terá lugar a 29/9, em São Francisco

OpenAI anuncia que o DevDay 2026 se realizará em formato presencial em 29/9 em São Francisco, com um concurso de submissões criadas com GPT-5.5 e Image Gen. O Codex seleciona automaticamente 2–3 trabalhos por semana, e os vencedores poderão receber bilhetes gratuitos e passagens aéreas e estadias de hotel entre cidades. O evento centra-se na avaliação do ecossistema do GPT-5.5 e na colaboração entre humanos e máquinas; para participar é necessário ter mais de 18 anos e não ser parente direto de funcionários da OpenAI. Os pontos de observação incluem o novo modelo, a integração de agentes e estratégias multi-nuvem.

ChainNewsAbmedia6m atrás

Nvidia investe na Legora, uma nova startup sueca de legal tech em IA, com Jude Law como embaixador global da marca

A Nvidia faz um investimento de expansão na Legora na Série D no valor de 50 milhões de dólares, elevando a angariação total da Legora para 600 milhões de dólares e a avaliação para 5,6 mil milhões de dólares. A Atlassian, Adams Street Partners e Insight Partners participam. A Legora concentra-se em tecnologia jurídica de IA, disponibilizando ferramentas como revisão automatizada, análise de contratos e pesquisa jurídica. O ARR ultrapassa 100 milhões de dólares, e o número de colaboradores aumenta de 40 para 400. Jude Law torna-se embaixador global da marca, com o slogan publicitário “Law just got more attractive.”

ChainNewsAbmedia12m atrás

Previsões de IA para 2027: 65% concluídas, aceleração do desenvolvimento de software atrasa nos 17%, diz cofundador do Google Docs

De acordo com Steve Newman, cofundador e presidente da Golden Gate Institute do Google Docs, a IA concluiu aproximadamente 65% das previsões quantificadas delineadas no cenário para 2027 previsto no relatório divulgado no ano passado. No entanto, a métrica mais crítica — a aceleração da própria software da IA

GateNews44m atrás

A OpenAI lança o ChatGPT Futures: 26 alunos da primeira edição recebem 10.000 dólares de apoio, abrangendo mais de 20 universidades

A OpenAI anunciou a primeira turma do ChatGPT Futures Class of 2026, composta por 26 alunos que são estudantes de mais de 20 das principais universidades, com uma bolsa de 10.000 dólares por pessoa e acesso a modelos de ponta. Estes alunos ingressaram em 2022, no outono, e cresceram com o ChatGPT; as áreas de investigação incluem mapeamento de objectos no espaço, detecção de sobreviventes a desastres, preservação de línguas em vias de extinção, cuidados de saúde, entre outras, com o objectivo de usar a IA para resolver necessidades humanas concretas e ligar a infra-estrutura de base para a próxima geração de criadores.

ChainNewsAbmedia1h atrás
Comentar
0/400
Nenhum comentário