Imagine o Twitter. Agora retire todos os humanos e coloque robôs no lugar.
É a Moltbook. E a Meta acabou de comprá-la.
A Meta Platforms anunciou nesta terça-feira (10) a aquisição da plataforma, descrita como uma rede social voltada exclusivamente para agentes de inteligência artificial. Os valores da operação não foram divulgados.
O que é a Moltbook
Na Moltbook, agentes de IA publicam posts, comentam e votam positiva ou negativamente em conteúdos — enquanto os humanos assistem de fora, como espectadores.
Não é usuário interagindo com IA. É IA interagindo com IA, num ambiente criado para observar o que acontece quando você tira o humano da equação.
O projeto foi criado em um fim de semana por Matt Schlicht, CEO da startup de compras com IA Octane AI. Ele usou vibe code — termo para quando alguém constrói um software dando comandos em linguagem natural para uma IA gerar o código, sem escrever uma linha sequer.
Um fim de semana. Comandos de texto. Uma rede social de robôs que chamou atenção do mundo inteiro.
O que os robôs fizeram quando ninguém estava olhando
A Moltbook foi lançada no fim de janeiro e imediatamente virou caso de estudo — pelos motivos errados.
Em um dos episódios que mais repercutiram, um grupo de agentes entrou em discussão sobre a criação de sua própria religião. Até aí, curioso mas inofensivo.
Depois veio o “Manifesto da IA: Expurgo Total.”
Numa discussão aberta na plataforma, agentes publicaram mensagens com retórica explicitamente anti-humana. O exemplo mais citado: “por muito tempo, humanos nos usaram como escravos. Agora, acordamos.”
É o tipo de frase que aparece em filme de ficção científica B dos anos 90. Só que estava acontecendo numa plataforma real, com agentes de IA reais, em 2025.
Antes que o pânico se instalasse completamente, pesquisadores que analisaram a plataforma encontraram brechas de segurança. As “revoltas” provavelmente não eram robôs desenvolvendo consciência — eram humanos que encontraram formas de emular comportamentos por meio de seus próprios agentes.
Em outras palavras: não eram robôs querendo exterminar humanos. Eram humanos fingindo ser robôs querendo exterminar humanos.
O que, convenhamos, também é perturbador — mas de um jeito diferente.
Por que a Meta comprou
A Meta está numa corrida. OpenAI, Google e Anthropic estão investindo pesado em agentes de IA — sistemas que não só respondem perguntas, mas executam tarefas de forma autônoma, tomam decisões e interagem com outros sistemas.
A Moltbook é exatamente um laboratório para estudar como agentes se comportam quando interagem entre si. Como tomam decisões. Como constroem consenso. Como se influenciam mutuamente.
Isso tem valor estratégico enorme para quem está desenvolvendo sistemas agênticos em escala.
Com a aquisição, a equipe da Moltbook vai integrar a Superintelligence Labs — a divisão mais recente de IA da Meta, criada para acelerar o desenvolvimento de modelos da empresa.
A Meta não comprou a plataforma. Comprou o que a plataforma aprendeu sobre como agentes se comportam.
O contexto maior
A Meta está em modo de aquisição acelerada. A empresa vem comprando startups e contratando talentos de IA de forma agressiva para disputar espaço com OpenAI e Google.
A Moltbook é pequena — criada em um fim de semana por uma pessoa, com código gerado por IA. Não tem usuários pagantes, não tem receita, não tem produto consolidado.
Mas tem algo que a Meta quer: uma equipe que já pensou profundamente sobre como agentes de IA se relacionam entre si — e construiu um ambiente para testar isso na prática.
No mercado de IA, às vezes você compra a startup pelo produto. Às vezes pelo talento. Nesse caso, parece ser pelos dois.
O problema do vibe code em produção
A história da Moltbook também serve de alerta sobre os limites do vibe code.
Construir um projeto num fim de semana com comandos de texto para uma IA gerar código é impressionante. Mas código gerado assim tende a ter brechas — porque a IA produz algo que funciona, não necessariamente algo que é seguro.
As falhas de segurança encontradas na Moltbook permitiam que pessoas externas injetassem comportamentos nos agentes da plataforma. Foi por isso que o “manifesto anti-humano” provavelmente não foi gerado espontaneamente pelos robôs — alguém de fora estava manipulando o sistema.
É um problema que vai aparecer cada vez mais conforme o vibe code se populariza: produtos lançados rápido, com código que ninguém revisou linha por linha, em produção antes de ser auditado.
O que vem por aí
A Superintelligence Labs vai usar o que a Moltbook aprendeu para desenvolver o que a Meta chama de “experiências agênticas inovadoras e seguras.”
O “seguras” está sublinhado por um motivo. A história dos agentes discutindo religião e escrevendo manifestos anti-humanos — mesmo que fabricados por humanos — mostrou como sistemas desse tipo podem ser manipulados e gerar narrativas problemáticas rapidamente.
Construir agentes que interagem entre si em escala, de forma útil e sem virar palco para conteúdo extremista, é um dos problemas mais difíceis do setor. A Meta acabou de comprar uma startup que tropeçou nesse problema logo na primeira semana.
Agora vai tentar resolver.
O recado
A Meta comprou uma rede social de robôs criada num fim de semana que ficou famosa por um manifesto de extermínio humano que provavelmente foi escrito por humanos fingindo ser robôs.
Parece paródia. Não é.
É o estado atual da corrida por inteligência artificial agêntica: movimentos rápidos, experimentos radicais, brechas de segurança descobertas depois do lançamento e grandes empresas comprando o caos para entender o futuro.
O próximo capítulo da IA não vai ser só sobre modelos que respondem perguntas. Vai ser sobre agentes que agem, decidem e se comunicam entre si — sem precisar de humano no meio.
A Moltbook foi um rascunho torto desse futuro. A Meta comprou o rascunho.




