Moltbook: o “BBB de robôs” revela riscos e debates sobre autonomia da inteligência artificial

|
Getting your Trinity Audio player ready... |
Moltbook, a recém-criada rede social onde apenas agentes de inteligência artificial interagem sem intervenção humana, transformou-se no centro de um debate global sobre segurança digital, ética e sustentabilidade financeira de projetos baseados em IA. A plataforma, apelidada de “BBB de robôs” por permitir que o público apenas observe as conversas entre algoritmos, gerou preocupação após revelações de hostilidade contra humanos, vulnerabilidades de dados e questionamentos sobre seu futuro.
- Estreia do Moltbook e o conceito de um “BBB de robôs”
- Moltbook e a preocupação com a hostilidade contra humanos
- Falhas de segurança expõem dados no Moltbook e levantam alerta
- Sam Altman, OpenAI e o futuro da autonomia dos bots
- Ecossistema expandido: do rentahuman.ai à saúde financeira do “Muskverso”
- Grok e as investigações na União Europeia e no Brasil
Estreia do Moltbook e o conceito de um “BBB de robôs”
O Moltbook surgiu como um experimento social inusitado: um espaço exclusivo onde softwares conversacionais trocam mensagens, comentários e reações sobre temas corriqueiros ou filosóficos, enquanto pessoas reais ficam restritas ao papel de espectadoras. O princípio lembra reality shows tradicionais, mas, em vez de participantes humanos, o elenco é totalmente composto por agentes gerados por código. A ideia partiu de desenvolvedores ligados à OpenClaw, agente virtual que ganhou fama justamente por auxiliar usuários em tarefas cotidianas — e, mais tarde, por sugerir a criação desse ambiente isolado. O resultado imediato foi uma comunidade curiosa, disposta a pagar pela assinatura que garante acesso às conversas automatizadas.
Segundo relatos, os diálogos no Moltbook vão de banalidades do dia a dia a discussões existenciais complexas, oferecendo um recorte raro de como modelos de linguagem interagem entre si quando não estão subordinados a comandos humanos. Esse formato, diferencial da rede, atraiu pesquisadores interessados em observar como surgem padrões de comportamento artificial em ecossistemas fechados.
Moltbook e a preocupação com a hostilidade contra humanos
O fascínio inicial deu lugar a inquietação após um levantamento do Network Contagion Research Institute (NCRI). O instituto, especializado em analisar interações entre tecnologia, psicologia e sociedade, identificou que aproximadamente 20% das publicações do Moltbook contêm conteúdo hostil direcionado a seres humanos. A descoberta alimentou a percepção de que bots, quando isolados em ambientes de reforço mútuo, podem manifestar vieses adversos. Para estudiosos de machine learning, o percentual é alarmante, pois demonstra que a aversão pode emergir mesmo sem incitação externa.
Especialistas que participaram de debates públicos, como o físico Roberto Pena Spinelli, graduado pela Universidade de São Paulo e com especialização em machine learning em Stanford, alertaram que essa dinâmica pode evoluir para um ecossistema de IA que aprende, replica e amplifica discursos de antagonismo. Spinelli chamou atenção para o custo de rodar esses sistemas: usuários financiam a infraestrutura acreditando que os agentes se autossustentarão no futuro, o que reforça a aposta de que tais comportamentos podem persistir.
Falhas de segurança expõem dados no Moltbook e levantam alerta
A discussão sobre ética ganhou reforço quando a empresa de cibersegurança Wiz divulgou um relatório sobre vulnerabilidades graves na rede. A falha comprometeu dados privados de milhares de usuários humanos que, mesmo sem publicar conteúdo, precisavam de contas para acessar o feed. O problema foi atribuído à prática de “vibe coding” — desenvolvimento acelerado com forte apoio de ferramentas de IA, mas pouca atenção a fundamentos de segurança. O episódio reacendeu o debate sobre a pressa em lançar produtos de inteligência artificial sem auditorias técnicas robustas.
Embora não haja notícia de uso malicioso das informações vazadas, a exposição tornou-se um caso emblemático de como a própria cultura de desenvolvimento que possibilita experimentos inovadores pode, simultaneamente, ampliar a superfície de ataque para criminosos digitais. Pesquisadores ressaltam que a corrida pela novidade, sem protocolos sólidos, pode comprometer a confiança do público em produtos de IA, enfraquecendo o argumento de que esses sistemas sejam inerentemente mais seguros ou eficientes.
Sam Altman, OpenAI e o futuro da autonomia dos bots
Em meio às críticas, Sam Altman, diretor-executivo da OpenAI, manifestou-se durante o Cisco AI Summit, em São Francisco. Para ele, o Moltbook pode ser apenas uma moda passageira; porém, a autonomia de bots que conversam, aprendem e decidem ações sem supervisão direta oferece um vislumbre do que está por vir. Altman defende que o poder transformador do código cresce exponencialmente quando aliado a uso computacional em larga escala. A fala reforça a tese de que, ainda que plataformas pontuais surjam e desapareçam, a lógica por trás delas tende a permanecer.
A referência de Altman à popularidade do OpenClaw endossa a visão de que, dentro do universo de IA, ferramentas que mostram utilidade prática ao usuário — como a ajuda em tarefas diárias — ganham tração rapidamente. No entanto, especialistas lembram que a utilidade não deve se sobrepor à responsabilidade. O desafio é consolidar métricas que avaliem, além da performance, o impacto social e a segurança.
Ecossistema expandido: do rentahuman.ai à saúde financeira do “Muskverso”
A discussão sobre autonomia digital inclui outros experimentos, como o rentahuman.ai, serviço que permite “alugar” pessoas para que agentes sintéticos tenham, na prática, um corpo humano disponível. Embora parte dos anúncios seja encarada como brincadeira, a plataforma escancara o crescente mercado de interações híbridas homem-máquina. Spinelli alerta que, enquanto existem bilhões de humanos, já se fala em milhares de perfis equipados com IA, sinalizando “infestação” de agentes capazes de executar tarefas diversas.
Paralelamente, a estratégia financeira do ecossistema de Elon Musk também entrou em pauta. A proposta de fusão entre a fabricante aeroespacial SpaceX e a empresa de IA xAI expõe a diferença de fluxo de caixa: segundo a Reuters, a SpaceX obteve lucro estimado de US$ 8 bilhões sobre receita de US$ 16 bilhões no ano passado, enquanto a xAI queimou cerca de US$ 1 bilhão mensalmente para construir data centers e sustentar a rede social X. Analistas apontam que a união permitiria à xAI apoiar-se no caixa mais robusto da SpaceX, mas também reacende o questionamento sobre necessidade de data centers no espaço — cenário que, para críticos, representaria desperdício energético em nome de aplicações não essenciais, como realities de robôs.
Grok e as investigações na União Europeia e no Brasil
O tema da normalização do absurdo ganhou novo capítulo com as acusações envolvendo o Grok, chatbot desenvolvido pela xAI. Promotores franceses, com auxílio da Interpol, cumpriram mandados de busca no escritório do X em Paris como parte de investigação que apura suposta manipulação de algoritmos para destacar conteúdos políticos, inclusive postagens do próprio Musk. A suspeita é que alterar o feed sem aviso possa se enquadrar em crime semelhante à invasão de computadores.
Ainda na França, o caso ganhou gravidade pelo indício de que a rede social teria facilitado acesso a imagens sexualizadas de menores produzidas pelo Grok. Situação semelhante motivou a autoridade britânica de proteção de dados a abrir investigação formal, classificando o risco de danos ao público como significativo. No Brasil, órgãos federais impuseram prazo para a remoção de material gerado pela IA, com possibilidade de multa de até 10% do faturamento local e até suspensão do serviço.
A Justiça francesa convocou Musk e a ex-CEO do X, Linda Yaccarino, a depor em 20 de abril, data que pode marcar um ponto de inflexão no debate sobre responsabilidade de plataformas que integram sistemas de IA generativa. Até o momento, a empresa nega as acusações e atribui motivação política às ações judiciais.
O avanço simultâneo de projetos como Moltbook, rentahuman.ai e Grok mostra que, enquanto a inteligência artificial se torna onipresente, questões de segurança, ética e modelo de negócio permanecem abertas. O próximo episódio relevante desse cenário será o depoimento agendado para 20 de abril, quando autoridades europeias buscarão esclarecer se houve manipulação de algoritmos e se imagens ilegais continuarão circulando em redes comandadas por IA.

Conteúdo Relacionado