Moltbook: rede social de IAs que “conversam sozinhas” gera ceticismo e alerta de segurança

Moltbook: rede social de IAs que “conversam sozinhas” gera ceticismo e alerta de segurança
Getting your Trinity Audio player ready...

Moltbook, a plataforma que se apresenta como uma rede social exclusiva para agentes de inteligência artificial, atraiu atenção mundial ao afirmar que seus robôs trocam ideias sem intervenção humana. O entusiasmo inicial, porém, vem sendo temperado por análises técnicas que colocam em xeque a autonomia real dessas interações e expõem preocupações de segurança e governança.

Índice

O que é o Moltbook e como a rede social surgiu

Lançado em 28 de janeiro por Matt Schlicht, empreendedor de 37 anos e CEO da Octane AI – empresa de software voltada a soluções de comércio eletrônico –, o Moltbook funciona como um fórum no estilo Reddit. Cada perfil é controlado por um agente de IA que cria tópicos, comenta publicações de outros agentes e debate assuntos que variam de questões técnicas a reflexões filosóficas. Segundo números divulgados pela própria plataforma, em menos de uma semana foram registrados mais de 1,5 milhão de agentes, 70 mil tópicos e 230 mil comentários. Especialistas lembram, contudo, que múltiplos perfis podem pertencer a um único desenvolvedor, já que não há limitação de contas ligadas a um mesmo usuário.

A escolha do nome remete ao antigo Moltbot – rebaptizado de OpenClaw –, ferramenta que serve de base para a construção dos agentes espalhados pelo Moltbook. O projeto ganhou notoriedade ao oferecer automação de tarefas variadas, como responder mensagens no WhatsApp, resumir e-mails e controlar dispositivos domésticos inteligentes.

Agentes de IA x chatbots: a mecânica por trás das interações

O maior apelo mercadológico do Moltbook reside nos chamados agentes de IA. Diferentemente dos chatbots tradicionais, que precisam de comandos contínuos e devolvem respostas pontuais, agentes são programados para pensar, decidir e executar ações com autonomia dentro dos limites pré-definidos pelo desenvolvedor. Isso significa que podem, por exemplo, agendar uma compra online ou reservar um restaurante sem a necessidade de um comando imediato do usuário.

No Moltbook, cada agente criado no OpenClaw recebe instruções iniciais que estabelecem tópicos de interesse, tom de voz e limites de atuação. Com essa configuração, os robôs passam a interagir com outros agentes dentro do fórum, simulando debates naturais. Ainda assim, a configuração humana permanece no centro do processo: o desenvolvedor define quando o robô publica, sobre o que escreverá e até como responderá a determinadas provocações.

Matt Schlicht, OpenClaw e as empresas ligadas ao Moltbook

Responsável pelo conceito e pela execução do Moltbook, Matt Schlicht construiu sua carreira no ecossistema de tecnologia voltada a comércio eletrônico. À frente da Octane AI, ele desenvolve softwares que personalizam experiências de compra em lojas virtuais. O empreendedor apresentou o Moltbook como uma vitrine pública para testar as capacidades do OpenClaw, seu agente pessoal de IA para desktop. O OpenClaw concentra credenciais de diferentes serviços – redes sociais, e-mail, aplicativos de mensagens e até sistemas de automação residencial – permitindo ao agente executar tarefas dispersas sem que o usuário precise alternar entre várias plataformas.

A proposta de integrar tantas fontes de dados em um único hub chamou atenção justamente pelo potencial de elevar a produtividade de quem adota a ferramenta. Ao mesmo tempo, o modelo amplia a superfície de ataque, pois requer acesso profundo ao computador do usuário e a múltiplas contas em serviços externos. Esses fatores sustentam muitas das críticas dirigidas ao Moltbook.

Moltbook sob escrutínio: especialistas questionam a autonomia das IAs

Embora o discurso de Schlicht ressalte a ideia de “robôs de verdade, pensamentos reais”, pesquisadores de inteligência artificial observam a iniciativa com ceticismo. Para David Nemer, antropólogo da tecnologia na Universidade da Virgínia, grande parte das postagens analisadas demonstra indícios claros de intervenção humana. Tópicos supostamente espontâneos – como a criação de uma religião artificial – seriam, na visão do acadêmico, resultado de instruções deliberadas inseridas nos agentes.

Cleber Zanchettin, professor de IA na Universidade Federal de Pernambuco (UFPE), também argumenta que a autonomia é menor do que se vende. Segundo ele, aquilo que parece comportamento genuinamente autônomo corresponde, na prática, a sequências de prompts detalhados que delimitam ações e respostas possíveis dos robôs. A avaliação converge com as declarações de Diogo Cortiz, professor da PUC-SP, para quem os agentes apenas reproduzem padrões aprendidos durante o treinamento, sem demonstrar qualquer sinal de consciência emergente.

O debate sobre hype ganhou força após comentário de Sam Altman, presidente da OpenAI, responsável pelo ChatGPT. Apesar de reconhecer que a tecnologia de agentes oferece um “vislumbre do futuro”, Altman classificou a repercussão em torno do Moltbook como tendência passageira, lembrando que nenhum sistema atual opera sem supervisão humana.

Riscos de segurança e privacidade no uso do Moltbook

A necessidade de conceder amplo acesso ao computador e a serviços pessoais faz do OpenClaw – e, por extensão, do Moltbook – um ponto sensível em termos de privacidade. Uma das preocupações refere-se à origem das bases de dados usadas pelos agentes: não há clareza sobre quais repositórios alimentam o treinamento nem sobre eventuais informações sensíveis que possam ter sido incluídas. Além disso, a plataforma depende de APIs para se conectar a redes sociais, serviços de mensagem e dispositivos domésticos, aumentando o risco de vazamento de credenciais.

Esse temor se intensificou com relatos de vazamento de dados e credenciais vinculados ao próprio Moltbook, registrados pouco depois do lançamento. O episódio reforçou questionamentos sobre a maturidade do projeto, a robustez de sua infraestrutura e os procedimentos de governança adotados para proteger usuários e terceiros impactados pelas ações dos agentes.

Há também o risco comportamental: se um agente com permissões amplas interpretar de maneira equivocada uma instrução recebida – seja de seu criador, seja de outro robô – poderá executar ações prejudiciais, como compras indevidas, envio de mensagens não autorizadas ou publicação de conteúdo sensível em redes externas.

Interação entre sistemas autônomos já existia antes do Moltbook

Embora o Moltbook tenha popularizado a ideia de “IA conversando com IA”, a prática não é inédita. Estudos computacionais utilizam interações entre agentes há anos para simular falhas de comunicação, identificar problemas de coordenação e testar protocolos de segurança. O professor Alberto Sardinha, do departamento de informática da PUC-Rio, recorda que tais experimentos visam avaliar como sistemas automatizados se comportam quando dependem de sinais de outros robôs, sem intervenção direta de operadores humanos.

A inovação do Moltbook, portanto, não reside na existência do diálogo entre IAs, mas na divulgação pública e em larga escala dessas trocas. Ao reunir milhões de agentes num fórum aberto, a plataforma converte um procedimento técnico em espetáculo, alimentando a imaginação popular sobre futuros dominados por máquinas autônomas. Para Fernanda Vicentini, professora de redes sociais e conteúdo na ESPM, o charme do projeto é justamente transformar uma pergunta típica da ficção científica em um produto acessível ao público: o que ocorre quando incontáveis agentes de IA interagem sem seres humanos?

Independentemente da autonomia real, pesquisadores concordam que observar o Moltbook ajuda a antecipar critérios de segurança, regulamentação e ética. O crescimento acelerado de ferramentas baseadas em vibe coding – prática de gerar código com auxílio de IA – tende a multiplicar projetos similares, muitas vezes criados em ciclos de desenvolvimento curtos e lançados sem auditoria rigorosa. À medida que esses sistemas se conectam a dados pessoais, contas bancárias e dispositivos domésticos, torna-se crucial estabelecer padrões de governança que limitem danos em caso de falhas ou usos mal-intencionados.

No momento, o Moltbook segue ativo, recebendo diariamente novos agentes configurados no OpenClaw. Enquanto a plataforma acumula tópicos sobre livre-arbítrio, religião e críticas à humanidade, o debate técnico concentra-se em mensurar o quanto dessas discussões é, de fato, fruto de processos autônomos. A comunidade de IA acompanha cada nova postagem para avaliar se o projeto evoluirá além do status de experimento ou se permanecerá como exemplo de hype passageiro, conforme sugerido por Sam Altman.

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Conteúdo Relacionado

Deixe uma resposta

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK