Um engenheiro da AMD analisou 6.852 sessões do Claude e documentou o que a Anthropic não anunciou: o modelo foi degradado silenciosamente. O esforço padrão foi reduzido para “médio” sem nenhuma notificação aos usuários que pagam pelo plano. Dias depois, o preço do plano Max subiu. Isso não é acidente. É exatamente como funciona o modelo de negócio de toda grande plataforma tecnológica que lucra com a sua dependência.
“O problema não é a Anthropic. É que você construiu dependência direta da ferramenta sem método por baixo. Quando ela muda as regras, você não tem o que fazer.”
O que aconteceu de verdade em abril de 2026
Em abril de 2026, um engenheiro chamado Dmitry Karpov usou suas sessões de trabalho com Claude para documentar algo que muitos usuários sentiram mas não conseguiram provar: a qualidade das respostas havia caído. Não era impressão subjetiva. Eram 6.852 sessões catalogadas, comparando outputs, medindo coerência, profundidade e utilidade das respostas ao longo do tempo.
O que ele encontrou confirmou o que o mercado suspeitava: a Anthropic havia reduzido o effort level padrão do Claude para “médio” sem comunicar isso a nenhum usuário. Em termos práticos, isso significa que o modelo passou a gerar respostas mais superficiais, com menos etapas de raciocínio, consumindo menos recursos computacionais por requisição. Para a Anthropic, isso reduz custo. Para quem paga pelo plano e construiu fluxos de trabalho baseados na qualidade anterior, é uma quebra de contrato não declarada.
A resposta oficial da Anthropic veio poucos dias depois, na forma de uma nota técnica que reconhecia o ajuste e prometia correções. Mas a sequência dos eventos é o que importa: primeiro a degradação, depois o aumento de preço do plano Max, depois a explicação. Na lógica do design intencional de plataformas, essa ordem não é coincidência.
Por que isso era previsível
Nenhuma empresa de tecnologia que atinge escala mantém a mesma qualidade pelo mesmo preço indefinidamente. Isso não é cinismo, é estrutura de negócio. Quando a base de usuários está presa, o incentivo para manter performance máxima a custo elevado diminui. O incentivo para otimizar margem aumenta.
Veja o padrão histórico:
- Google Search: resultado orgânico foi sendo comprimido ao longo dos anos para dar espaço a anúncios. Quem construiu negócio 100% dependente de tráfego orgânico Google aprendeu isso da pior forma.
- Facebook Orgânico: em 2012, alcance orgânico de páginas chegava a 16%. Em 2014, caiu para 6%. Em 2023, ficou abaixo de 1%. Sem aviso prévio, sem compensação.
- AWS e cloud em geral: preços sobem e dependências aumentam à medida que a migração se torna mais cara do que continuar pagando.
A Anthropic está no mesmo ciclo. Diferente é apenas a velocidade: o mercado de IA comprime em meses o que plataformas anteriores levaram anos para fazer.
O custo real de depender diretamente da ferramenta
Quando a qualidade do Claude cai silenciosamente, quem sofre mais? Não é quem usa Claude eventualmente. É quem construiu processos inteiros baseados em um nível específico de output. Pipelines de conteúdo, fluxos de atendimento, sistemas de análise: tudo calibrado para uma performance que pode mudar sem aviso.
Como já analisei antes, o problema de quem paga por IA sem método é que não sabe distinguir quando o problema é a ferramenta ou quando é o uso da ferramenta. Quando a degradação do Claude aconteceu, quantos usuários acharam que estavam promovendo mal, que perderam o jeito, que precisavam de mais um curso de prompt?
Esse é o custo invisível da dependência direta: você não consegue nem diagnosticar o problema porque não sabe o que está por baixo. Não entende o mecanismo. Não tem baseline para comparar.
O que diferencia quem tem método de quem não tem
Quando a degradação do Claude foi documentada publicamente, dois tipos de profissionais reagiram de forma completamente diferente:
- Quem depende diretamente da ferramenta: entrou em pânico, ajustou prompts aleatoriamente, buscou substitutos sem critério, perdeu produtividade enquanto tentava diagnosticar o problema sem instrumentos para isso.
- Quem tem método por baixo: identificou o problema em horas porque tinha baseline documentado, sabia qual parte do output havia mudado, conseguiu compensar com ajustes pontuais enquanto avaliava se migrar para outro modelo fazia sentido ou não.
A diferença não é habilidade técnica. É estrutura. Quem construiu seu uso de IA sobre método, e não sobre o comportamento específico de uma ferramenta, tem o que fazer quando a ferramenta muda. Quem construiu sobre a ferramenta, não tem.
Isso inclui saber:
- Qual parte do output depende do modelo e qual depende do contexto que você fornece
- Como medir se a qualidade mudou, com critérios objetivos
- Quais ajustes de instrução compensam mudanças de comportamento do modelo
- Quando vale a pena migrar de modelo e como fazer isso sem reescrever tudo do zero
A lógica do preço e o que vem a seguir
O plano Max da Anthropic custa mais do que qualquer plano equivalente no mercado. Depois da degradação documentada e do reconhecimento público, o preço subiu. A lógica interna é consistente: usuários presos pagam mais.
E aqui está a parte que poucos falam: essa dinâmica não vai mudar. Não porque a Anthropic seja maliciosa, mas porque é o modelo de negócio padrão de plataformas com alto custo de migração. Enquanto trocar de ferramenta for custoso demais, o preço pode subir e a qualidade pode variar sem consequências comerciais sérias para a empresa.
A pergunta relevante não é “a Anthropic fez certo ou errado”. A pergunta é: o que você pode controlar nessa equação?
A resposta é sempre a mesma: o método. Quem tem método não migra de ferramenta porque foi forçado. Migra quando escolhe, porque comparou, testou, e decidiu que vale a pena. Quem não tem método espera a plataforma mudar as regras e reage depois, gastando tempo e dinheiro que não estavam no planejamento.
O que fazer a partir de agora
Não se trata de abandonar o Claude. Se ele funciona para o que você faz, continue usando. Mas construa sua operação de forma que não dependa de um nível de performance específico de um modelo específico.
Na prática, isso significa:
- Documente baselines: registre exemplos de output que você considera bom para cada caso de uso. Quando o modelo mudar, você saberá comparar.
- Separe instrução de ferramenta: suas instruções, contextos e critérios de qualidade devem existir independentemente de qual modelo está rodando. Se você precisar trocar de modelo, a lógica do que quer que ele faça está documentada em algum lugar que não é o histórico de chat.
- Monitore output, não apenas processo: se você usa IA em pipelines de produção, tenha alguma forma de detectar queda de qualidade sem precisar de 6.852 sessões para provar.
- Calcule custo de migração antes de precisar migrar: quando você está no meio de uma crise de qualidade não é a hora de descobrir o que seria necessário para trocar de ferramenta.
O caso Anthropic é um serviço público: mostrou claramente como essa dinâmica funciona antes que a maioria dos usuários de IA descobrisse da pior forma. Use esse exemplo enquanto o custo ainda é baixo.
Leia também
- Claude Managed Agents chegou: o que mudou na prática e o que ninguém está explicando sobre o custo real
- 40% do que você ganhou de tempo com IA foi embora corrigindo os erros da IA. Este dado muda tudo
- O dia que o Claude Code quebrou meu SaaS: bastidores reais da construção de um produto com IA
Perguntas frequentes
A Anthropic confirmou oficialmente a redução de qualidade do Claude?
Sim. Após a repercussão do estudo com 6.852 sessões documentadas, a Anthropic reconheceu publicamente que havia ajustado o nível de esforço padrão do modelo para “médio” sem comunicação prévia aos usuários. A empresa prometeu correções, mas o fato da mudança silenciosa foi confirmado.
O Claude ainda vale o preço do plano Max depois disso?
A resposta depende do uso. Para quem tem método documentado e sabe medir qualidade de output, o Claude continua sendo uma ferramenta competitiva para tarefas complexas. O problema não é o modelo em si, mas construir dependência de um nível de performance que pode mudar a qualquer momento sem aviso.
Como detectar se um modelo de IA degradou a qualidade sem comparar milhares de sessões?
A forma prática é manter um conjunto pequeno de prompts de referência com outputs esperados documentados. Quando suspeitar de mudança, rode os mesmos prompts e compare com o baseline. Não é necessário escala de 6.852 sessões para detectar variações significativas em casos de uso específicos.
Devo migrar do Claude para outro modelo por causa disso?
Migração não é decisão emocional. Se o Claude está funcionando para o que você faz e os outputs estão dentro do padrão que você precisa, não há razão para migrar agora. A decisão de migrar deve ser tomada com dados: qual modelo entrega o que você precisa, a que custo, e o que seria necessário para fazer a transição. Reação a notícia negativa não é estratégia.
O que é “método por baixo da ferramenta” na prática?
É a documentação de como você usa IA de forma que o processo não dependa do comportamento específico de um modelo específico. Inclui: critérios claros de qualidade de output, instruções e contextos documentados fora do chat, baselines para comparação, e capacidade de diagnosticar problemas sem precisar de intuição sobre o comportamento do modelo. Quando isso existe, você controla o processo. Quando não existe, a ferramenta controla você.




