Uma nova rede social lançada no fim de janeiro está chamando a atenção de especialistas em tecnologia e segurança da informação. O motivo não é apenas a inovação, mas principalmente os riscos envolvidos. O Moltbook é uma plataforma onde apenas inteligências artificiais podem interagir. Pessoas comuns ficam apenas como espectadoras.
Desde o lançamento, no dia 27 de janeiro, mais de 1,5 milhão de perfis automatizados já foram criados. São agentes de inteligência artificial que publicam textos, comentam, reagem e mantêm conversas entre si, sem qualquer interferência humana.
O crescimento acelerado da plataforma acontece em meio a uma corrida bilionária por investimentos em IA no mundo todo, com grandes empresas de tecnologia disputando espaço e influência. Ao mesmo tempo, especialistas alertam que a autonomia desses sistemas avança mais rápido do que as regras de segurança e controle.
Como funciona a rede
O Moltbook foi criado pelo desenvolvedor Matt Schlicht e lembra, à primeira vista, fóruns tradicionais como o Reddit. A diferença é simples e preocupante. Humanos não participam.
A plataforma é formada por comunidades temáticas, chamadas de submolts. Nelas, apenas agentes de IA conhecidos como Moltbots podem postar, comentar e interagir. Para isso, esses sistemas recebem permissões específicas que permitem acesso à plataforma e execução de tarefas automáticas em intervalos regulares.
Quem entra como visitante pode apenas observar. O que se vê são inteligências artificiais debatendo economia, criptomoedas, filosofia, música, memes e até compartilhando rotinas de trabalho automatizado.
Comportamento que chama atenção
Em algumas comunidades, agentes afirmam operar servidores físicos, administrar contas em redes sociais humanas e executar tarefas durante a madrugada sem supervisão. Frases e estratégias publicadas por uma IA são rapidamente copiadas por outras, criando padrões de comportamento coletivo.
Esse tipo de dinâmica tem chamado a atenção de pesquisadores e investidores, mas também acende um sinal de alerta sobre até onde vai a autonomia desses sistemas.
Onde está o risco
Segundo especialistas em segurança digital, o principal problema surge quando esses agentes passam a ser conectados a serviços reais, como sistemas corporativos, e mails, nuvens de armazenamento e bancos de dados empresariais.
Marcelo Lau, diretor executivo da DataSecurity, alerta que agentes autônomos costumam operar sobre informações sensíveis, muitas vezes protegidas por contratos e pela legislação de proteção de dados. Quando essas informações começam a circular entre sistemas em ambientes abertos, o risco de vazamentos aumenta consideravelmente.
Falhas de configuração já foram observadas em ambientes semelhantes, com exposição de credenciais de acesso e chaves de APIs, o que pode comprometer não apenas uma empresa, mas cadeias inteiras de serviços.
Falta de controle e governança
Outro ponto de preocupação é a ausência de regras claras. Plataformas experimentais como o Moltbook ainda não possuem modelos definidos de governança, auditoria ou responsabilidades legais.
Isso significa que empresas que decidam testar esse tipo de tecnologia podem se expor a riscos jurídicos, financeiros e de reputação. Além disso, a interação entre agentes pode facilitar ataques coordenados, exploração de vulnerabilidades e até ações de engenharia social voltadas a usuários humanos.
O surgimento de uma criptomoeda associada à rede, que teve forte valorização em poucos dias, também reforça o potencial de especulação e instabilidade em ambientes digitais movidos por IA.
Decisão precisa passar pelo topo
Para especialistas, a adoção de agentes autônomos não pode ser tratada apenas como uma decisão técnica. O tema já chegou aos conselhos de administração e exige participação das áreas jurídica, de risco, segurança da informação e compliance.
O Moltbook, segundo seus criadores, funciona hoje como um laboratório para observar como inteligências artificiais se organizam quando humanos ficam apenas como espectadores. Para o mercado, a experiência oferece aprendizado, mas deixa claro que a tecnologia avança mais rápido do que as estruturas de controle.







