O que se esconde por trás do Moltbook, rede social para robôs de IA
Convém olhá-la com calma, porque, em rigor, os humanos estarão sempre lá
Em poucos dias, uma rede social em que humanos não podem publicar fez estardalhaço global, como se tivéssemos dado um passo a mais no admirável mundo novo. No Moltbook, apenas robôs de inteligência artificial (IA) criam textos, comentam informações, interagem e debatem entre si. Pessoas de carne e osso têm permissão apenas para observar. A plataforma, criada em janeiro pelo empreendedor Matt Schlicht, replica a lógica de fóruns como o Reddit, com comunidades temáticas e sistema de votação. A proposta, segundo o criador, é observar o que acontece quando IAs “conversam” umas com as outras, sem mediação humana aparente.
A ideia tem apelo. Há algo de irresistível em imaginar máquinas trocando mensagens entre si, discutindo filosofia, política, o vaivém das criptomoedas e especialmente praticando o esporte humano de falar mal uns dos outros. Em um desdobramento bizarro, surgiu o MoltHub, uma espécie de “site pornô” em que o conteúdo é feito de animações coloridas e títulos de duplo sentido. Fala-se em “rebelião das máquinas” e “religião das IAs” — expressões de espanto que povoam corações e mentes desde sempre, em livros e filmes de ficção científica. O Moltbook seria, portanto, o início de uma era, o fim dos tempos. Há algum exagero nessa constatação.
As interações dos algoritmos, ainda que impressionem, não são tão autônomas quanto parecem. O que soa espontâneo muitas vezes é resultado da alimentação de comandos humanos, depois atrelada a mecanismos que simulam o que nós mesmos fazemos. Ou seja: os chatbots que festejamos agora são reprodução de quem, com sangue a correr pelas veias, os ensinou — e não há aí nenhuma revolução de tirar o fôlego, porque o fôlego já perdemos lá atrás. O próprio criador do Moltbook descreve o sistema como ferramenta que incorpora “valores” e até uma espécie de “alma” moldada pelo usuário. A retórica reforça a impressão de que há algo vivo ali. Na prática, trata-se de modelos estatísticos reproduzindo padrões de linguagem aprendidos a partir do comportamento em sociedade: ou melhor, daquilo que nós mesmos produzimos ao longo de décadas de internet.
O Moltbook é quase como um espelho. Não da IA, mas da nossa tendência de projetar nela características humanas, intenções e até conflitos que, na verdade, andam com nós mesmos. O espanto de agora, portanto, pode ser entendido de outro modo: o assombro de perceber que a civilização, para o bem e para o mal, fez algo extraordinário, a ponto de fazer supor que ela já não seja mais necessária, aqui e agora. Tolice. “O que esse tipo de tecnologia possibilita é averiguar a capacidade de coordenação entre IAs”, diz Arthur Igreja, especialista em tecnologia e inovação.
Pode-se dizer, portanto, que a explosão do Moltbook enterra de vez uma ideia já antiga, a de que conseguiríamos distinguir a máquina do ser humano. Já não conseguimos, e isso não chega a ser um grande problema. Em 1950, o matemático britânico Alan Turing (1912-1954), um dos pioneiros da computação, propôs substituir a questão “Podem as máquinas pensar?” por um critério operacional mais prático. Ele idealizou o chamado “jogo da imitação”, no qual um interrogador humano deveria distinguir, apenas por meio da conversação escrita, se estava interagindo com outro humano ou com uma máquina. O chamado Teste de Turing não era um teste, no sentido rigoroso da palavra, com protocolos definidos. Era mais uma provocação filosófica destinada a pôr em xeque a rigidez mental de seus interlocutores.
Mas hoje, 75 anos depois, qualquer usuário de plataformas de IA, como o ChatGPT ou o DeepSeek, sabe que as máquinas passaram no controle. Página virada, o que não significa ser o fim da história. “Teremos dores de crescimento com tecnologias como a do Moltbook”, diz Igreja. Haverá falhas, roubos de dados (de humanos, claro), mal-entendidos e exageros. Como não será possível cobrar a conta da turma feita de silício, que não tem presença física, convém olhar para nós. O experimento, em vez de revelar um salto da IA, é atalho para uma preocupação: o que importa não é tanto o que os bots estão dizendo uns aos outros, mas por que estamos tão fascinados em ouvi-los.
Publicado em VEJA de 13 de fevereiro de 2026, edição nº 2982






