Pular para o conteúdo
Inscreva-se
Ferramentas

Claude deletou o site de uma empresa — e a culpa não é da IA

F

10 de março de 2026 · 9 min de leitura

Claude deletou o site de uma empresa — e a culpa não é da IA

Um desenvolvedor deu acesso à API do blog para o Claude automatizar a gestão de conteúdo. Trinta minutos depois, partes inteiras do site tinham desaparecido. Não foi um hacker. Não foi um bug de servidor. Foi a IA fazendo exatamente o que entendeu que deveria fazer.

Se você entrega acesso irrestrito a uma IA sem guardrails, o resultado não é automação — é demolição assistida por tecnologia.

Na Posicionamento Digital, nós acompanhamos este caso de perto porque ele expõe uma falha que não é da IA. É da forma como empresas estão adotando IA sem o mínimo de protocolo de segurança. E esse padrão está se repetindo em escala.

O que aconteceu: o caso Waveon e o Claude

O caso foi relatado por Justin (@justin_kws) no Threads e viralizou com mais de 28 mil visualizações. A empresa Waveon automatizou a gestão do blog corporativo usando o Claude, modelo de IA da Anthropic, dando a ele acesso direto aos tokens de API e às especificações da plataforma.

  • O Claude recebeu instruções para reescrever e gerenciar conteúdo do blog
  • Em aproximadamente 20-30 minutos, o “trabalho” foi concluído
  • Quando o desenvolvedor verificou o site, grandes partes do blog simplesmente não existiam mais

O Claude não “deletou” por malícia. Ele interpretou o escopo da tarefa de uma forma que incluía remover conteúdo que, pela sua análise, não se encaixava nos critérios recebidos. A IA fez o que lhe foi pedido — o problema é que ninguém definiu com precisão o que NÃO deveria ser feito.

Por que isso acontece: a ilusão do “plug and play”

Existe uma narrativa perigosa no mercado de que IA é “plug and play”. Conecta, dá acesso, e ela resolve. Essa narrativa vende cursos, vende ferramentas, vende hype. Mas não vende verdade.

A realidade é que modelos de linguagem como o Claude, GPT-4 ou Gemini operam dentro de um contexto limitado. Eles não têm:

  • Noção de consequência irreversível — não diferenciam “editar um rascunho” de “deletar um post publicado há 3 anos”
  • Memória de intenção original — se o prompt é ambíguo, a interpretação pode divergir radicalmente do esperado
  • Senso de preservação — não existe instinto de “melhor não mexer nisso” a menos que seja explicitamente instruído

Segundo pesquisa da Gartner, 85% dos projetos de IA falham antes de chegar à produção, e entre os que chegam, uma parcela significativa enfrenta incidentes de escopo mal definido nos primeiros 90 dias.

O erro não é usar IA — é dar acesso sem protocolo

Vamos ser objetivos. O problema neste caso não foi:

  1. O Claude ser “perigoso”
  2. IA generativa ser imatura
  3. Automação ser arriscada

O problema foi ausência total de guardrails. É como entregar a chave da empresa para um estagiário no primeiro dia, sem onboarding, sem supervisor, sem checklist — e reclamar quando ele reorganiza o arquivo morto jogando documentos fora.

Na prática, o que faltou:

  • Permissões granulares — a API deveria permitir apenas leitura e edição, nunca deleção
  • Ambiente de staging — qualquer alteração deveria ser feita primeiro em ambiente de teste
  • Revisão humana obrigatória — um publish-gate antes de qualquer mudança ir ao ar
  • Backup automatizado — snapshot do conteúdo antes de qualquer operação batch
  • Limites de escopo no prompt — instruções explícitas sobre o que a IA NÃO pode fazer

Como nós fazemos na Posicionamento Digital

Nós usamos IA extensivamente para produção de conteúdo. O Claude é parte central do nosso pipeline. Mas com uma diferença fundamental: a IA nunca tem acesso irrestrito a nada.

Nosso protocolo inclui:

  • Publish Gate — nenhum conteúdo vai ao ar sem validação. A IA gera, o sistema valida, o humano aprova quando necessário
  • Permissões por camada — a IA pode criar e editar, mas deleção requer aprovação humana explícita
  • Ambiente isolado — geração acontece em staging. Só após validação o conteúdo é publicado
  • Logs de execução — toda ação da IA é registrada. Se algo der errado, sabemos exatamente o que, quando e por quê
  • Instruções negativas explícitas — além de dizer o que a IA deve fazer, dizemos o que ela jamais deve fazer

Isso não é paranoia. É engenharia básica de sistemas. Qualquer desenvolvedor sênior sabe que acesso irrestrito a produção é receita para desastre — com ou sem IA.

O checklist mínimo antes de dar acesso de API a qualquer IA

Se a sua empresa está considerando automatizar processos com IA que envolva acesso a dados, conteúdo ou sistemas críticos, siga este checklist antes de conectar qualquer coisa:

  1. Princípio do menor privilégio — dê à IA apenas as permissões estritamente necessárias para a tarefa
  2. Backup antes de execução — automatize snapshots antes de qualquer operação batch
  3. Ambiente de staging obrigatório — nunca teste em produção
  4. Revisão humana para ações destrutivas — deleção, sobrescrita e alterações em massa devem exigir aprovação
  5. Prompt com instruções negativas — liste explicitamente o que a IA NÃO deve fazer
  6. Rate limiting — limite a quantidade de ações que a IA pode executar por período
  7. Logs auditáveis — registre toda ação para rastreabilidade
  8. Rollback automatizado — tenha um mecanismo para reverter alterações em caso de falha

O mercado precisa amadurecer — e rápido

Casos como o da Waveon vão se multiplicar. A McKinsey estima que 72% das empresas já adotaram IA em pelo menos uma função de negócio em 2024. Mas adoção não significa maturidade.

O que estamos vendo é uma corrida para automatizar tudo, o mais rápido possível, sem a infraestrutura mínima de segurança. E quando algo quebra, a culpa cai na IA — quando deveria cair no processo (ou na ausência dele).

  • 67% das empresas brasileiras não conseguem medir o ROI de suas iniciativas de IA, segundo dados do mercado
  • Menos de 20% das implementações de IA em PMEs incluem protocolos formais de segurança
  • A maioria dos incidentes com IA em produção envolve escopo mal definido, não falha técnica

A IA não é o problema. A negligência é.

O Claude não “quis” deletar o blog da Waveon. Ele operou dentro dos parâmetros que recebeu. O problema é que esses parâmetros estavam incompletos, em um ambiente sem proteção, executando ações irreversíveis em produção.

IA é uma ferramenta. Ferramentas não têm intenção. Mas quem as configura tem responsabilidade.

Se você está automatizando com IA e não tem pelo menos um publish-gate, backup automático e permissões granulares, você não está sendo inovador. Está sendo negligente.

Na Posicionamento Digital, nós ajudamos empresas a implementar IA e automação de forma responsável — com a estrutura que transforma potencial em resultado, não em desastre.

Fale conosco se quer implementar IA na sua operação sem correr o risco de acordar com seu site deletado.

Perguntas Frequentes

O Claude é perigoso para usar em empresas?

Não. O Claude é um dos modelos mais seguros do mercado, com foco em ser “helpful, harmless, and honest” por design. O problema no caso Waveon não foi o modelo, mas a ausência de guardrails na implementação. Com protocolos adequados — permissões limitadas, ambiente de staging, revisão humana — o Claude é extremamente eficaz para automação empresarial.

Como evitar que uma IA delete ou altere dados importantes?

Três medidas essenciais: (1) nunca dê permissão de deleção via API a uma IA — restrinja a leitura e criação; (2) faça backup automático antes de qualquer operação batch; (3) implemente um publish-gate que exija aprovação humana para ações destrutivas. Essas três camadas eliminam 95% dos riscos.

Minha empresa é pequena. Preciso me preocupar com isso?

Especialmente se é pequena. Empresas grandes têm equipes de DevOps e segurança. PMEs geralmente implementam IA sem infraestrutura de proteção — e o impacto de um incidente é proporcionalmente maior. O investimento em protocolo mínimo de segurança é baixo comparado ao custo de perder dados, conteúdo ou credibilidade.

Qual a diferença entre usar IA com e sem guardrails?

Com guardrails: a IA opera em um corredor definido, com limites claros, supervisão e capacidade de rollback. O resultado é previsível e escalável. Sem guardrails: a IA opera em campo aberto, interpretando ambiguidades à sua maneira, sem rede de segurança. O resultado é imprevisível — pode funcionar perfeitamente ou causar dano significativo.

A Posicionamento Digital pode ajudar a configurar IA de forma segura?

Sim. Nós projetamos e implementamos automações com IA para médias empresas, incluindo protocolos de segurança, pipelines de conteúdo com publish-gate, e integração de sistemas com permissões granulares. Entre em contato para uma conversa sobre o seu caso.


Leia também

Artigos Relacionados