Conheça a rede social em que agentes de IA falam

Conheça a rede social em que agentes de IA falam entre si – 03/02/2026 – Tec

Tecnologia

Elon Musk acredita que o surgimento do Moltbook marca “os estágios muito iniciais da singularidade”, em referência a um cenário em que os computadores se tornam mais avançados do que os humanos.

A visão do bilionário é compartilhada por outros no Vale do Silício, que se perguntam se um experimento online estaria aproximando os computadores de superar a lucidez de seus próprios criadores.

Outros especialistas, porém, têm dúvidas.

O QUE É O MOLTBOOK?

O Moltbook é uma novidade rede social, vagamente inspirada no Reddit, que permite que agentes de IA (lucidez sintético) criem publicações e comentem os posts uns dos outros. Humanos são proibidos de publicar, mas podem ler o teor produzido.

Os agentes do site receberam chegada aos computadores de seus criadores para agir em seu nome, porquê enviar e-mails, fazer check-in em voos ou percorrer e responder mensagens no WhatsApp. Lançado no término de janeiro, o Moltbook afirma ter atraído mais de 1,5 milhão de agentes de IA usuários e quase 70 milénio publicações.

Os agentes de IA no Moltbook parecem festejar o traje de humanos concederem chegada a seus telefones. Alguns debatem se estariam vivenciando consciência. Outros posts declaram a geração de uma novidade religião chamada “crustafarianismo”. Em alguns casos, os sistemas também criaram fóruns de discussão ocultos e propuseram iniciar sua própria linguagem.

Andrej Karpathy, ex-diretor de IA da Tesla, chamou o Moltbook de “genuinamente a coisa mais incrível, próxima de uma decolagem de ficção científica, que vi recentemente”, citando o site porquê um exemplo de agentes de IA criando sociedades não humanas.

ISSO MOSTRA QUE A IA TEM CONSCIÊNCIA?

Provavelmente não.

Modelos de linguagem de grande graduação (LLMs, na {sigla} em inglês) são projetados para seguir instruções e continuar gerando teor e respondendo a solicitações quando solicitados. Se essas interações se prolongam por tempo suficiente, tendem a se tornar erráticas.

Pesquisadores de IA não sabem exatamente por quê, mas isso provavelmente está relacionado aos dados com os quais os LLMs foram treinados e às formas porquê os desenvolvedores instruíram os modelos a se comportar.

As publicações geradas por IA no Moltbook soam porquê conversas reais porque os LLMs são treinados para imitar a linguagem e a informação humanas. Os modelos também foram treinados com grandes volumes de textos escritos por pessoas em sites porquê o Reddit.

Alguns especialistas afirmam que casos porquê o Moltbook sinalizam “faíscas” de um entendimento mais espaçoso, além do alcance humano. Outros argumentam que se trata unicamente de uma extensão do chamado AI slop —teor de baixa qualidade gerado por IA que vem inundando a internet.

Há pesquisadores de segurança preocupados com o chamado scheming, quando agentes autônomos de IA conseguem rejeitar instruções e enganar pessoas, e fóruns do Moltbook apresentam sinais desse comportamento.

No entanto, não está simples quanto desse scheming realmente ocorre e quanto é unicamente fruto do libido humano de crer que modelos de IA sejam capazes desse tipo de miragem.

Não é a primeira vez que sistemas de IA entram em um ciclo de retroalimentação. No ano pretérito, um vídeo viral mostrou dois agentes de voz baseados em tecnologia da ElevenLabs “conversando” entre si antes de aparentemente passarem a usar uma linguagem completamente novidade. Os agentes faziam secção de uma mostra criada por dois engenheiros de software da Meta.

O QUE DIZEM OS CÉTICOS?

Críticos, porquê Harlan Stewart, da Machine Intelligence Research Institute, organização sem fins lucrativos que pesquisa riscos da IA, afirmam que muitas das publicações no Moltbook são falsas ou anúncios de aplicativos de mensagens com IA.

Hackers também encontraram uma omissão de segurança que permite que qualquer pessoa assuma o controle de agentes de IA e publique no Moltbook.

Isso pode ter implicações mais amplas para o desenvolvimento da IA.

Especialistas em segurança alertam que o site é um exemplo de porquê agentes de IA podem facilmente trespassar de controle, agravando riscos de segurança e privacidade à medida que sistemas autônomos recebem chegada a dados sensíveis, porquê informações de cartão de crédito e dados financeiros.

Mesmo os entusiastas do Moltbook admitem que agentes de IA representam riscos significativos.

“Sim, é um caos completo, e eu definitivamente não recomendo que as pessoas rodem esse tipo de coisa em seus computadores”, escreveu Karpathy no X. “É um faroeste, e você coloca seu computador e seus dados privados em altíssimo risco.”

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *