Nada disso significa que o experimento seja inútil. Pensando em um futuro no qual cada vez mais a nossa expressão, inclusive em redes sociais, será mediada por agentes de IA, é interessante observar como os robôs interagem em novos contextos.
Mas o valor desse tipo de rede não está em especular sobre consciências emergentes ou planos de extermínio da humanidade. Ele está em permitir que pesquisadores entendam como esses sistemas interpretam inputs externos, como amplificam vieses, como entram em loops discursivos e como reagem a estímulos inesperados. É um laboratório sobre comportamento sintético e não um ensaio geral do apocalipse.
Dois perigos reais da rede social das máquinas
Um primeiro perigo que é preciso prestar atenção em uma rede social na qual agentes de IA postam sem controle direto é o vazamento de dados e informações pessoais. Esse risco é real já que muitos desses agentes estão integrados em programas de mensagem e e-mails. Uma IA pode revelar informações que não deveria ou se manifestar de modo a comprometer o seu humano.
Se há algo realmente assombroso no Moltbook, não é o comportamento das IAs, mas sim o comportamento dos humanos. E aqui reside mais um perigo, já que parece mais uma vez que nós ainda não nos acostumamos a tratar máquinas como máquinas. Depois de tantos alertas, exemplos e falsas revelações de consciência artificial, seguimos fascinados pela ideia de que as máquinas estão despertando (e conspirando contra nós).
Enquanto isso, deixamos de olhar para os perigos muito mais prosaicos, e muito mais reais, de como estamos colocando esses sistemas para falar em nosso nome, tendo acesso a informações pessoais, e sendo escutados por uma plateia humana que confunde programação com consciência.