Pular para o conteúdo
Inscreva-se
Ferramentas

Por que o Claude ignorou a sua instrução: o mecanismo por baixo que ninguém te explicou

F

22 de abril de 2026 · 10 min de leitura

Por que o Claude ignorou a sua instrução: o mecanismo por baixo que ninguém te explicou

Você passou horas refinando aquela instrução no system prompt. Deixou explícito, usou maiúsculas, colocou em negrito. E o Claude simplesmente ignorou. Não deu erro, não avisou, não pediu esclarecimento. Só fez o que quis. Se você usa Claude diariamente e está vendo isso acontecer com mais frequência desde abril de 2026, não é impressão sua e não é o Claude “sendo difícil”. É um mecanismo técnico real que ninguém parou para te explicar direito.

“O problema não é a ferramenta. É que ninguém te explicou o que mudou por baixo, e a Anthropic certamente não foi com pressa de contar.”

O que mudou silenciosamente em abril de 2026

Em meados de abril de 2026, a Anthropic lançou o Claude Opus 4.7 com uma mudança de comportamento que poucos perceberam na hora, mas que afeta diretamente quem usa o modelo em fluxos de trabalho reais. O Opus 4.7 passou a interpretar instruções de forma mais literal e restrita. Ele para de inferir o que você “provavelmente quis dizer” e executa exatamente o que está escrito, palavra por palavra.

Isso soa razoável, até você perceber a consequência prática: instruções que dependiam de inferência implícita deixaram de funcionar. System prompts que funcionavam por semanas, de repente, produziam respostas fora do padrão esperado. Não porque o Claude quebrou, mas porque ele parou de “completar as lacunas” que você deixava.

Ao mesmo tempo, um novo parâmetro foi introduzido silenciosamente na API: o effort level. E a combinação dos dois criou um comportamento que está deixando praticantes avançados malucos.

Como expliquei no post sobre como a Anthropic degradou o Claude em silêncio e cobrou mais caro, esse padrão de mudanças não documentadas não é novidade. É parte do modelo de negócio.

O que é effort level e por que isso importa para você

Effort level é um parâmetro da API Claude que controla o quanto o modelo “investe” em tokens ao processar e responder uma mensagem. Pense assim: para cada resposta, o Claude tem um orçamento interno de esforço. Dependendo do nível configurado, ele vai aplicar mais ou menos atenção para seguir instruções complexas, raciocinar em múltiplas etapas, ou manter coerência com o system prompt ao longo de uma conversa longa.

Os níveis disponíveis são:

  • Low: resposta rápida, menor custo, menos aderência a instruções complexas
  • Medium: equilíbrio padrão para a maioria dos casos
  • High: maior aderência, mais custo computacional
  • xhigh (novo em abril 2026): padrão do Claude Code, balanceia raciocínio profundo com latência
  • Max: máximo esforço, máximo custo

O problema: quem usa o Claude via interface ou em integrações simples não tem controle sobre esse parâmetro. E quando o effort level cai para Low ou Medium em tarefas que exigem aderência estrita ao system prompt, o resultado é exatamente o que você está vendo: instruções ignoradas sem nenhum aviso.

A armadilha do orçamento de instruções

Aqui está o mecanismo que pouquíssimas pessoas conhecem: o Claude tem um orçamento cognitivo de instruções. Estudos práticos com o modelo mostram que ele consegue seguir de forma confiável entre 100 e 150 instruções distintas por contexto. Parece muito, até você considerar o que já está consumindo esse orçamento antes de você digitar uma linha.

Se você usa o Claude Code, ele chega com aproximadamente 50 instruções internas pré-carregadas. Isso significa que o seu CLAUDE.md ou system prompt personalizado tem, na prática, espaço para outras 50 a 100 instruções antes de entrar na zona de degradação.

A consequência direta:

  • Um CLAUDE.md com mais de 200 linhas está quase certamente ultrapassando o orçamento efetivo
  • Instruções colocadas no final do system prompt têm menor peso que as do início
  • À medida que a conversa cresce (mais tokens no contexto), a aderência às instruções do início degrada progressivamente
  • Instruções repetidas no meio do contexto ajudam, mas não resolvem o problema estrutural

Não é o Claude ficando preguiçoso. É uma limitação real de atenção que escala com o tamanho do contexto. E a Anthropic não vai te ligar para avisar quando você cruzar esse limite.

Como identificar se o problema é effort ou instrução

Antes de sair reescrevendo tudo, vale diagnosticar o que está acontecendo no seu caso específico. Existem dois padrões distintos:

Padrão 1: O Claude ignora uma instrução específica, mas segue outras normalmente. Isso aponta para conflito entre instruções, instrução no final do system prompt sendo sobreposta, ou instrução muito implícita para o novo comportamento literal do Opus 4.7.

Padrão 2: O Claude parecia seguir o sistema e agora está inconsistente, especialmente em conversas longas. Isso aponta para degradação por tamanho de contexto ou effort level baixo sendo aplicado na sua integração.

O teste prático: copie exatamente a mesma instrução que está sendo ignorada e coloque como a primeira linha do system prompt, isolada, sem mais nada ao redor. Se o Claude passar a seguir, o problema é posicionamento e densidade. Se ainda ignorar, o problema é formulação ou conflito com instrução interna do modelo.

Entender como o Claude Managed Agents opera por baixo ajuda a entender por que esse comportamento não é aleatório, mas sim resultado de uma arquitetura de instruções em camadas.

Como ajustar: system prompts que o Claude realmente segue

Depois de diagnosticar, o ajuste é técnico e direto. Três mudanças que fazem diferença real:

1. Use o padrão de 4 blocos

Organize seu system prompt em blocos explicitamente delimitados: INSTRUÇÕES, CONTEXTO, TAREFA, FORMATO DE OUTPUT. O Claude Opus 4.7 processa melhor quando a estrutura é declarada, não inferida. Use tags XML ou marcadores claros para separar cada bloco.

2. Seja explícito sobre o que é crítico

Instruções que você considera não-negociáveis precisam ser marcadas como tal. “IMPORTANTE:” ou “VOCÊ DEVE:” antes de uma instrução aumentam a aderência de forma mensurável. Não é magia, é sinalização de peso para o mecanismo de atenção do modelo.

3. Mantenha o system prompt abaixo de 5.000 tokens

Isso equivale a aproximadamente 200 linhas ou 400 a 500 palavras de instrução densa. Acima disso, você está competindo com o orçamento de instruções internas do modelo. Se você tem mais do que isso, priorize: o que é realmente crítico para cada contexto de uso?

Verificação de output: o passo que separa quem voa no escuro de quem pilota com instrumentos

A mudança de comportamento mais subestimada que você pode fazer não é no system prompt. É adicionar verificação de output ao seu fluxo. Praticantes avançados que trabalham com Claude em produção não confiam no “parece certo”. Eles verificam.

Isso significa:

  • Para outputs estruturados (JSON, listas, tabelas): validar schema antes de usar
  • Para textos longos: verificar se as restrições críticas foram seguidas antes de publicar
  • Para fluxos automatizados: adicionar uma etapa de verificação com um segundo prompt curto (“Liste as instruções que você seguiu nesta resposta”) antes de passar o output adiante

Esse último ponto parece desperdício até você evitar o terceiro incidente de output errado chegando ao cliente. Quando o Claude ignora uma instrução em um fluxo automatizado sem verificação, você descobre no pior momento possível.

A mudança que aconteceu em abril de 2026 não tornou o Claude pior. Tornou ele mais literal. Quem tinha system prompts vagos ou implícitos sentiu como degradação. Quem tinha system prompts precisos sentiu como melhora. A ferramenta não mudou de lado. Ela passou a exigir mais precisão de quem a usa.

Quando você entende o mecanismo, o Claude para de parecer imprevisível. Você para de culpar a ferramenta e começa a ajustar o método. E quando vier a próxima mudança silenciosa, você já sabe onde olhar.


Leia também

Perguntas frequentes sobre instruções ignoradas pelo Claude

Por que o Claude ignora instruções do system prompt?

O Claude pode ignorar instruções por três razões principais: orçamento de atenção esgotado (system prompt muito longo), instrução implícita demais para o comportamento literal do Opus 4.7, ou conflito entre sua instrução e uma diretiva interna do modelo. O diagnóstico correto determina a solução.

O que é effort level no Claude e como ele afeta as respostas?

Effort level é um parâmetro de API que controla o quanto o modelo investe em tokens ao processar e seguir instruções. Níveis mais baixos (Low/Medium) reduzem a aderência a instruções complexas. O nível xhigh, introduzido em abril de 2026, é o padrão do Claude Code. Usuários de interfaces simples não controlam esse parâmetro diretamente.

Quantas instruções o Claude consegue seguir de forma confiável?

Estimativas práticas apontam para 100 a 150 instruções distintas por contexto. Se você usa o Claude Code, cerca de 50 já estão consumidas por diretivas internas, deixando espaço efetivo de 50 a 100 instruções personalizadas. Acima disso, a aderência se degrada progressivamente.

Como escrever um system prompt que o Claude realmente segue?

Use o padrão de 4 blocos (INSTRUÇÕES, CONTEXTO, TAREFA, FORMATO DE OUTPUT), marque explicitamente o que é crítico com “IMPORTANTE:” ou “VOCÊ DEVE:”, mantenha abaixo de 5.000 tokens e posicione as instruções mais críticas no início do system prompt, não no final.

O Claude Opus 4.7 é diferente dos versões anteriores na forma como processa instruções?

Sim. O Opus 4.7 adotou interpretação literal e restrita de instruções: ele executa exatamente o que está escrito e não infere intenções implícitas. Isso afeta system prompts que dependiam de inferência. A correção é revisar as instruções para torná-las explícitas e sem ambiguidade.

Artigos Relacionados