US$ 1,03 bilhão. Esse é o valor que Yann LeCun — o mesmo cientista que ganhou o Prêmio Turing por inventar as redes neurais convolucionais — acaba de levantar para provar que o ChatGPT, o Claude e o Gemini são um beco sem saída. A tese dele: os LLMs nunca vão alcançar inteligência real. E NVIDIA, Bezos e Eric Schmidt concordaram com o cheque.
Enquanto o mercado inteiro aposta em modelos de linguagem cada vez maiores, LeCun saiu da Meta e fundou a AMI Labs com uma proposta radicalmente diferente: construir World Models — sistemas de IA que aprendem da realidade física, não de texto. Se ele estiver certo, tudo o que sabemos sobre IA pode mudar nos próximos anos.
“Vamos ter sistemas de IA com inteligência no nível humano, mas eles não serão construídos sobre LLMs. E isso não vai acontecer no próximo ano. Existem avanços conceituais que precisam acontecer antes.” — Yann LeCun, fundador da AMI Labs
Quem é Yann LeCun e por que você deveria prestar atenção
LeCun não é um outsider. Ele é um dos três “padrinhos do deep learning” ao lado de Geoffrey Hinton e Yoshua Bengio. Durante mais de uma década, liderou toda a pesquisa de IA da Meta (Facebook). Suas redes neurais convolucionais são a base de praticamente todo sistema de reconhecimento de imagem que você usa hoje — do desbloqueio facial do seu celular ao diagnóstico médico por imagem.
Em novembro de 2025, ele deixou a Meta. Quatro meses depois, em março de 2026, anunciou a AMI Labs (Advanced Machine Intelligence) com o que se acredita ser o maior seed round da história da Europa: US$ 1,03 bilhão, com valuation pré-money de US$ 3,5 bilhões.
A lista de investidores é um mapa de quem acredita nessa tese:
- NVIDIA — a empresa que fornece o hardware de toda a revolução de IA
- Bezos Expeditions — o fundo pessoal de Jeff Bezos
- Eric Schmidt — ex-CEO do Google
- Samsung e Toyota Ventures — gigantes industriais apostando em IA para o mundo físico
- Temasek — fundo soberano de Singapura
- Mark Cuban, Xavier Niel, Tim Berners-Lee — entre outros nomes de peso
A tese contra os LLMs: por que LeCun diz que são um beco sem saída
O argumento de LeCun é técnico, mas a consequência é prática. Large Language Models (LLMs) como GPT, Claude e Gemini funcionam prevendo a próxima palavra em uma sequência. São mestres da correlação estatística — mas não entendem causalidade.
Isso gera o problema mais famoso da IA atual: alucinações. O modelo gera texto convincente, mas factualmente errado, porque nunca entendeu o mundo real. Apenas aprendeu padrões em texto.
LeCun compara assim: um LLM sabe descrever perfeitamente como é chutar uma bola de futebol. Mas não faz ideia da física envolvida — trajetória, gravidade, força. Um World Model, por outro lado, aprende exatamente essas relações causais observando o mundo.
As limitações concretas que ele aponta:
- Sem raciocínio real: LLMs simulam raciocínio via padrões de texto, mas não planejam nem entendem consequências
- Sem compreensão física: não sabem como objetos se comportam no mundo real
- Escalar não resolve: adicionar mais parâmetros e mais dados não corrige o problema fundamental de causalidade
- Risco em aplicações críticas: saúde, robótica e indústria não toleram alucinações
O que são World Models e como funcionam
World Models são sistemas de IA que aprendem como o mundo funciona observando a realidade — não lendo sobre ela. Em vez de treinar com texto da internet, usam vídeo, áudio, dados de sensores, simulações físicas e até dados de braços robóticos.
A ideia central: assim como um bebê aprende sobre gravidade deixando objetos caírem (sem ler um livro de física), um World Model aprende as regras do mundo por observação direta.
As aplicações mais imediatas estão onde LLMs mais falham:
- Robótica industrial: robôs que entendem física e podem planejar movimentos complexos
- Saúde: diagnóstico e monitoramento que exigem zero margem para alucinação
- Manufatura: controle de processos onde decisões precisam ser confiáveis
- Aeroespacial: sistemas autônomos em ambientes de alto risco
JEPA: a arquitetura por trás dos World Models da AMI Labs
O motor técnico da AMI Labs se chama JEPA — Joint Embedding Predictive Architecture. É a arquitetura que LeCun vem desenvolvendo há anos e que agora será levada à escala comercial.
A diferença fundamental em relação aos LLMs:
- LLMs (autoregressive): geram saída um token por vez, sequencialmente. Preveem a próxima palavra.
- JEPA: faz previsões em um espaço de representação comprimido. Em vez de prever cada detalhe, aprende o que é relevante sobre como o mundo muda.
LeCun explica: “O mundo é imprevisível. Se você tentar construir um modelo generativo que preveja cada detalhe do futuro, ele vai falhar. JEPA não é IA generativa.”
Na prática, é como a diferença entre imaginar cada pixel de um vídeo do futuro versus entender as regras que governam o que vai acontecer. Seu cérebro não simula cada fóton quando imagina pegar uma bola — ele roda uma simulação mental rápida e comprimida. JEPA funciona de forma similar.
Resultados recentes dão sustentação à tese. O V-JEPA 2, versão escalada do modelo original, já foi testado com sucesso em braços robóticos Franka. O VL-JEPA alcançou estado da arte em benchmarks de modelagem do mundo, com 65,7% de acurácia.
A corrida dos World Models em 2026: quem mais está apostando
A AMI Labs não está sozinha. O paradigma de World Models explodiu entre o final de 2025 e início de 2026, com investimentos bilionários de múltiplas frentes:
- World Labs (Fei-Fei Li): fundada pela “madrinha da IA”, levantou US$ 1 bilhão em fevereiro de 2026. Já tem um produto em mercado, o Marble.
- Google DeepMind — Genie 3: modelo de world simulation do laboratório que criou o AlphaGo
- NVIDIA — Cosmos: plataforma de World Models para “physical AI”, integrando com o ecossistema de hardware da empresa
Quando três dos maiores nomes em IA — LeCun, Fei-Fei Li e DeepMind — convergem para a mesma direção ao mesmo tempo, é um sinal que merece atenção.
O que isso significa para quem já investiu em LLMs
Se você é uma empresa que implementou ChatGPT, Claude ou Gemini nos últimos dois anos — calma. Os LLMs não vão desaparecer amanhã. A própria AMI Labs reconhece que seu primeiro ano será inteiramente dedicado a pesquisa, sem produto comercial.
Mas existem implicações estratégicas concretas:
- LLMs continuam relevantes para texto: geração de conteúdo, atendimento, análise de documentos — tudo isso continua funcionando bem com LLMs
- Para o mundo físico, atenção: se sua empresa opera com robótica, manufatura, logística ou saúde, os World Models podem se tornar a tecnologia dominante nos próximos 3-5 anos
- Diversificação é inteligente: não aposte 100% em uma única abordagem de IA. O cenário está mudando rápido
- Dados multimodais ganham valor: vídeo, sensores e dados do mundo físico serão o “novo petróleo” para treinar World Models — quem já coleta esses dados tem vantagem
A analogia mais útil: LLMs são como a internet discada — revolucionária, transformadora, mas com limitações estruturais que uma nova tecnologia vai eventualmente superar.
Os riscos e as perguntas que ninguém está respondendo
Nenhuma tecnologia deve ser avaliada apenas pelo hype. Existem questões legítimas sobre World Models:
- JEPA nunca foi provada em escala: a arquitetura é teoricamente sólida, mas ninguém construiu um World Model de produção com ela ainda. A distância entre paper acadêmico e produto é enorme.
- O problema dos dados: LLMs treinam com texto da internet, disponível em quantidade praticamente ilimitada. World Models precisam de vídeo, dados de sensores e simulações físicas — você não consegue simplesmente raspar a web para conseguir leituras de sensores de uma fábrica.
- Timing incerto: enquanto World Models amadurecem, agentes baseados em LLMs já estão comercializando. A Tencent integrou IA ao WeChat para 1,4 bilhão de usuários. A corrida é entre uma tecnologia promissora mas imatura versus uma limitada mas já funcional.
- US$ 1 bilhão sem produto: a AMI Labs tem zero receita, zero produto e investidores que acreditam puramente na visão. É uma aposta de alto risco, mesmo com o pedigree de LeCun.
FAQ — Perguntas frequentes sobre World Models e AMI Labs
World Models vão substituir o ChatGPT?
Não no curto prazo. World Models e LLMs resolvem problemas diferentes. LLMs são excelentes para linguagem e texto. World Models são projetados para entender e interagir com o mundo físico. A tendência é que coexistam, com cada um dominando seu nicho — mas para aplicações que exigem raciocínio sobre o mundo real, World Models devem se tornar superiores.
O que é JEPA de forma simples?
JEPA (Joint Embedding Predictive Architecture) é uma forma de IA que aprende prevendo o que vai acontecer no mundo em um nível abstrato — sem tentar reconstruir cada detalhe. Imagine que em vez de tentar prever cada frame de um vídeo, ela aprende as regras que governam o que acontece no vídeo. É mais eficiente e mais próximo de como o cérebro humano funciona.
Como a AMI Labs afeta empresas brasileiras que usam IA?
No curto prazo (1-2 anos), o impacto é mínimo. Continue usando LLMs para texto, atendimento e automação. No médio prazo (3-5 anos), empresas que operam com processos físicos (logística, manufatura, saúde) devem acompanhar a evolução dos World Models. A recomendação prática: comece a coletar e organizar dados multimodais (vídeo, sensores) agora — eles serão valiosos quando a tecnologia amadurecer.
Quem são os concorrentes da AMI Labs?
Os principais são: World Labs (fundada por Fei-Fei Li, com US$ 1 bilhão e produto já no mercado), Google DeepMind com Genie 3, e NVIDIA com a plataforma Cosmos. A corrida de World Models em 2026 tem múltiplos players bilionários competindo simultaneamente.
Vale a pena esperar os World Models para investir em IA?
Não. A melhor estratégia é usar LLMs agora para os problemas que eles resolvem bem (e são muitos), enquanto se mantém informado sobre World Models. Esperar pela “tecnologia perfeita” é a maneira mais cara de ficar para trás. Use o que funciona hoje. Prepare-se para o que vem amanhã.
Nós, da Posicionamento Digital, acompanhamos essa corrida de perto. Se você quer entender como posicionar sua empresa nas próximas ondas de IA — seja com LLMs, World Models ou o que vier depois — acompanhe o Insight Artificial. O futuro da IA não é uma aposta única. É um jogo de camadas, e quem entende as camadas joga melhor.
Leia também
- GEO para profissionais liberais: como coaches, corretores e fotógrafos aparecem (ou somem) nas respostas do ChatGPT
- O dia que o Claude Code quebrou meu SaaS: bastidores reais da construção de um produto com IA
- Claude Managed Agents chegou: o que mudou na prática e o que ninguém está explicando sobre o custo real



