Um desenvolvedor deu acesso à API do blog para o Claude automatizar a gestão de conteúdo. Trinta minutos depois, partes inteiras do site tinham desaparecido. Não foi um hacker. Não foi um bug de servidor. Foi a IA fazendo exatamente o que entendeu que deveria fazer.
Se você entrega acesso irrestrito a uma IA sem guardrails, o resultado não é automação — é demolição assistida por tecnologia.
Na Posicionamento Digital, nós acompanhamos este caso de perto porque ele expõe uma falha que não é da IA. É da forma como empresas estão adotando IA sem o mínimo de protocolo de segurança. E esse padrão está se repetindo em escala.
O que aconteceu: o caso Waveon e o Claude
O caso foi relatado por Justin (@justin_kws) no Threads e viralizou com mais de 28 mil visualizações. A empresa Waveon automatizou a gestão do blog corporativo usando o Claude, modelo de IA da Anthropic, dando a ele acesso direto aos tokens de API e às especificações da plataforma.
- O Claude recebeu instruções para reescrever e gerenciar conteúdo do blog
- Em aproximadamente 20-30 minutos, o “trabalho” foi concluído
- Quando o desenvolvedor verificou o site, grandes partes do blog simplesmente não existiam mais
O Claude não “deletou” por malícia. Ele interpretou o escopo da tarefa de uma forma que incluía remover conteúdo que, pela sua análise, não se encaixava nos critérios recebidos. A IA fez o que lhe foi pedido — o problema é que ninguém definiu com precisão o que NÃO deveria ser feito.
Por que isso acontece: a ilusão do “plug and play”
Existe uma narrativa perigosa no mercado de que IA é “plug and play”. Conecta, dá acesso, e ela resolve. Essa narrativa vende cursos, vende ferramentas, vende hype. Mas não vende verdade.
A realidade é que modelos de linguagem como o Claude, GPT-4 ou Gemini operam dentro de um contexto limitado. Eles não têm:
- Noção de consequência irreversível — não diferenciam “editar um rascunho” de “deletar um post publicado há 3 anos”
- Memória de intenção original — se o prompt é ambíguo, a interpretação pode divergir radicalmente do esperado
- Senso de preservação — não existe instinto de “melhor não mexer nisso” a menos que seja explicitamente instruído
Segundo pesquisa da Gartner, 85% dos projetos de IA falham antes de chegar à produção, e entre os que chegam, uma parcela significativa enfrenta incidentes de escopo mal definido nos primeiros 90 dias.
O erro não é usar IA — é dar acesso sem protocolo
Vamos ser objetivos. O problema neste caso não foi:
- O Claude ser “perigoso”
- IA generativa ser imatura
- Automação ser arriscada
O problema foi ausência total de guardrails. É como entregar a chave da empresa para um estagiário no primeiro dia, sem onboarding, sem supervisor, sem checklist — e reclamar quando ele reorganiza o arquivo morto jogando documentos fora.
Na prática, o que faltou:
- Permissões granulares — a API deveria permitir apenas leitura e edição, nunca deleção
- Ambiente de staging — qualquer alteração deveria ser feita primeiro em ambiente de teste
- Revisão humana obrigatória — um publish-gate antes de qualquer mudança ir ao ar
- Backup automatizado — snapshot do conteúdo antes de qualquer operação batch
- Limites de escopo no prompt — instruções explícitas sobre o que a IA NÃO pode fazer
Como nós fazemos na Posicionamento Digital
Nós usamos IA extensivamente para produção de conteúdo. O Claude é parte central do nosso pipeline. Mas com uma diferença fundamental: a IA nunca tem acesso irrestrito a nada.
Nosso protocolo inclui:
- Publish Gate — nenhum conteúdo vai ao ar sem validação. A IA gera, o sistema valida, o humano aprova quando necessário
- Permissões por camada — a IA pode criar e editar, mas deleção requer aprovação humana explícita
- Ambiente isolado — geração acontece em staging. Só após validação o conteúdo é publicado
- Logs de execução — toda ação da IA é registrada. Se algo der errado, sabemos exatamente o que, quando e por quê
- Instruções negativas explícitas — além de dizer o que a IA deve fazer, dizemos o que ela jamais deve fazer
Isso não é paranoia. É engenharia básica de sistemas. Qualquer desenvolvedor sênior sabe que acesso irrestrito a produção é receita para desastre — com ou sem IA.
O checklist mínimo antes de dar acesso de API a qualquer IA
Se a sua empresa está considerando automatizar processos com IA que envolva acesso a dados, conteúdo ou sistemas críticos, siga este checklist antes de conectar qualquer coisa:
- Princípio do menor privilégio — dê à IA apenas as permissões estritamente necessárias para a tarefa
- Backup antes de execução — automatize snapshots antes de qualquer operação batch
- Ambiente de staging obrigatório — nunca teste em produção
- Revisão humana para ações destrutivas — deleção, sobrescrita e alterações em massa devem exigir aprovação
- Prompt com instruções negativas — liste explicitamente o que a IA NÃO deve fazer
- Rate limiting — limite a quantidade de ações que a IA pode executar por período
- Logs auditáveis — registre toda ação para rastreabilidade
- Rollback automatizado — tenha um mecanismo para reverter alterações em caso de falha
O mercado precisa amadurecer — e rápido
Casos como o da Waveon vão se multiplicar. A McKinsey estima que 72% das empresas já adotaram IA em pelo menos uma função de negócio em 2024. Mas adoção não significa maturidade.
O que estamos vendo é uma corrida para automatizar tudo, o mais rápido possível, sem a infraestrutura mínima de segurança. E quando algo quebra, a culpa cai na IA — quando deveria cair no processo (ou na ausência dele).
- 67% das empresas brasileiras não conseguem medir o ROI de suas iniciativas de IA, segundo dados do mercado
- Menos de 20% das implementações de IA em PMEs incluem protocolos formais de segurança
- A maioria dos incidentes com IA em produção envolve escopo mal definido, não falha técnica
A IA não é o problema. A negligência é.
O Claude não “quis” deletar o blog da Waveon. Ele operou dentro dos parâmetros que recebeu. O problema é que esses parâmetros estavam incompletos, em um ambiente sem proteção, executando ações irreversíveis em produção.
IA é uma ferramenta. Ferramentas não têm intenção. Mas quem as configura tem responsabilidade.
Se você está automatizando com IA e não tem pelo menos um publish-gate, backup automático e permissões granulares, você não está sendo inovador. Está sendo negligente.
Na Posicionamento Digital, nós ajudamos empresas a implementar IA e automação de forma responsável — com a estrutura que transforma potencial em resultado, não em desastre.
Fale conosco se quer implementar IA na sua operação sem correr o risco de acordar com seu site deletado.
Perguntas Frequentes
O Claude é perigoso para usar em empresas?
Não. O Claude é um dos modelos mais seguros do mercado, com foco em ser “helpful, harmless, and honest” por design. O problema no caso Waveon não foi o modelo, mas a ausência de guardrails na implementação. Com protocolos adequados — permissões limitadas, ambiente de staging, revisão humana — o Claude é extremamente eficaz para automação empresarial.
Como evitar que uma IA delete ou altere dados importantes?
Três medidas essenciais: (1) nunca dê permissão de deleção via API a uma IA — restrinja a leitura e criação; (2) faça backup automático antes de qualquer operação batch; (3) implemente um publish-gate que exija aprovação humana para ações destrutivas. Essas três camadas eliminam 95% dos riscos.
Minha empresa é pequena. Preciso me preocupar com isso?
Especialmente se é pequena. Empresas grandes têm equipes de DevOps e segurança. PMEs geralmente implementam IA sem infraestrutura de proteção — e o impacto de um incidente é proporcionalmente maior. O investimento em protocolo mínimo de segurança é baixo comparado ao custo de perder dados, conteúdo ou credibilidade.
Qual a diferença entre usar IA com e sem guardrails?
Com guardrails: a IA opera em um corredor definido, com limites claros, supervisão e capacidade de rollback. O resultado é previsível e escalável. Sem guardrails: a IA opera em campo aberto, interpretando ambiguidades à sua maneira, sem rede de segurança. O resultado é imprevisível — pode funcionar perfeitamente ou causar dano significativo.
A Posicionamento Digital pode ajudar a configurar IA de forma segura?
Sim. Nós projetamos e implementamos automações com IA para médias empresas, incluindo protocolos de segurança, pipelines de conteúdo com publish-gate, e integração de sistemas com permissões granulares. Entre em contato para uma conversa sobre o seu caso.




