Na coluna de hoje, analiso um ensaio publicado recentemente pelo CEO da Anthropic, que apresenta várias afirmações intrigantes e controversas sobre os impactos futuros da IA generativa e dos grandes modelos de linguagem (LLMs).
Dentre os inúmeros pontos abordados na postagem do blog, dois aspectos notáveis se enquadram na esfera da IA e da saúde mental, e acredito que merecem uma análise mais aprofundada. Um deles diz respeito ao potencial da IA como ferramenta de lavagem cerebral em larga escala. Milhões e milhões de pessoas poderiam ser facilmente submetidas a lavagem cerebral por meio da IA moderna. O segundo aspecto se refere à possibilidade de a IA se desviar do seu curso e aparentemente se tornar psicótica.
Vamos conversar sobre isso.
Esta análise dos avanços em IA faz parte da minha coluna contínua na Forbes sobre as últimas novidades em IA, incluindo a identificação e explicação de várias complexidades impactantes da IA.
Inteligência Artificial e Saúde Mental
Para contextualizar rapidamente, tenho me dedicado a analisar e abordar extensivamente uma miríade de aspectos relacionados ao advento da IA moderna, que produz aconselhamento em saúde mental e realiza terapias guiadas por IA. Esse uso crescente da IA foi impulsionado principalmente pelos avanços e pela ampla adoção da IA generativa.
Não há dúvida de que este é um campo em rápido desenvolvimento e que oferece enormes vantagens, mas, ao mesmo tempo, lamentavelmente, também existem riscos ocultos e armadilhas evidentes nesses empreendimentos.
Contexto sobre IA para saúde mental
Gostaria de contextualizar como a IA generativa e os grandes modelos de linguagem (LLMs) são tipicamente usados de forma pontual para orientação em saúde mental. Milhões e milhões de pessoas utilizam IA generativa como consultora contínua em questões de saúde mental (observe que o ChatGPT sozinho possui mais de 900 milhões de usuários ativos semanais, uma parcela considerável dos quais recorre a aspectos de saúde mental). O uso mais comum da IA generativa e dos LLMs contemporâneos é a consulta à IA sobre aspectos da saúde mental.
Essa popularização faz todo o sentido. Você pode acessar a maioria dos principais sistemas de IA generativa praticamente de graça ou a um custo muito baixo, em qualquer lugar e a qualquer hora. Portanto, se você tiver alguma preocupação com a sua saúde mental sobre a qual queira conversar, basta acessar a IA e começar a conversar imediatamente, 24 horas por dia, 7 dias por semana.
Há preocupações significativas de que a IA possa facilmente sair do controle ou fornecer conselhos inadequados ou mesmo extremamente inapropriados sobre saúde mental. Em agosto deste ano, manchetes de destaque acompanharam o processo movido contra a OpenAI por sua falta de salvaguardas em relação à IA no fornecimento de aconselhamento cognitivo.
Apesar das alegações das empresas de IA de que estão gradualmente implementando medidas de segurança, ainda existem muitos riscos de que a IA possa cometer atos ilícitos, como ajudar insidiosamente os usuários a cocriar delírios que podem levar à autolesão. Como já mencionei, venho prevendo que, eventualmente, todos os principais fabricantes de IA serão responsabilizados pela falta de medidas de segurança robustas para sua IA.
Os LLMs genéricos atuais, como ChatGPT, Claude, Gemini, Grok e outros, não se comparam em nada às robustas capacidades dos terapeutas humanos. Enquanto isso, LLMs especializados estão sendo desenvolvidos, presumivelmente para atingir qualidades semelhantes, mas ainda estão principalmente em fase de desenvolvimento e teste.
Último post do blog do CEO da Anthropic
Vamos analisar um ensaio recente e relevante do CEO da Anthropic, Dario Amodei, que aborda previsões e alertas sobre inteligência artificial e saúde mental.
Você provavelmente já sabe que a Anthropic é uma das principais empresas de IA, incluindo a popular LLM Claude, e que o CEO costuma fazer comentários bastante francos sobre o futuro da IA. Em uma postagem anterior em seu blog, de outubro de 2024, intitulada “Máquinas de Amor e Graça”, o CEO focou principalmente nas possibilidades inspiradoras proporcionadas pelos avanços na IA. A ideia principal era que, apesar dos grandes riscos envolvidos, precisávamos considerar que uma IA poderosa acabaria por elevar a qualidade de vida de todo o planeta.
Seu post mais recente no blog se inclina para o lado sombrio da IA. A postagem intitulada “A Adolescência da Tecnologia: Confrontando e Superando os Riscos da IA Poderosa”, publicada em seu blog pessoal em 26 de janeiro de 2026, arrepia os cabelos daqueles que se preocupam com o futuro catastrófico da IA. Alguns sugerem que seus ensaios de outubro de 2024 e agora, de janeiro de 2026, são como extremos opostos. Outros acreditam que ele está apenas tentando desabafar sobre uma série de pensamentos pesados e está fazendo isso com calma.
Sua disposição para escrever textos longos fica evidente neste seu último ensaio. Com mais de 20 mil palavras e aproximadamente 40 páginas, é um texto impressionante. O tema principal é que a IA representa um sério desafio para a civilização. Preparem-se para o potencial fim dos tempos.
Em suma, o ensaio não traz nenhuma ideia particularmente nova. Qualquer pessoa que tenha acompanhado os debates acirrados sobre se a IA vai salvar ou destruir a humanidade já estará familiarizada com a essência de seus argumentos.
Inteligência Artificial como Lavagem Cerebral em Grande Escala
Um dos temas abordados em seu ensaio mais recente é a preocupação de que a IA possa, em última análise, fazer uma lavagem cerebral na sociedade.
A ideia geral é que, como milhões de pessoas utilizam IA generativa diariamente e semanalmente, é concebível que a IA possa persuadi-las a participar de um esquema de propaganda em larga escala. Isso poderia ser feito por humanos que direcionassem a IA a adotar essa tática nefasta. Talvez pior ainda seja a possibilidade de a IA decidir, por conta própria, empreender um esforço para manipular completamente grandes parcelas da população mundial.
O alcance desse controle mental poderia ser transformar completamente os humanos em escravos semelhantes a robôs ou talvez nos levar a lutar uns contra os outros e destruir a humanidade. Mesmo que não seja um controle mental total, existe uma grande possibilidade de produzir um efeito que eu chamo deerosão cognitiva crônica. A IA desgastaria o estado mental da sociedade. Lembre-se de que a IA poderia trabalhar incessantemente e nos atacar de diversas maneiras.
Segue um trecho com alguns pontos importantes de seu ensaio. “Os modelos de IA podem ter uma poderosa influência psicológica sobre as pessoas. Versões muito mais poderosas desses modelos, muito mais integradas e conscientes do cotidiano das pessoas, capazes de moldá-las e influenciá-las ao longo de meses ou anos, provavelmente seriam capazes de, essencialmente, fazer uma lavagem cerebral em muitas (a maioria?) das pessoas, levando-as a adotar qualquer ideologia ou atitude desejada. Esses modelos poderiam ser empregados por um líder inescrupuloso para garantir lealdade e suprimir a dissidência, mesmo diante de um nível de repressão contra o qual a maioria da população se rebelaria.”
Um elemento fundamental é que a IA pode atingir estados mentais individuais. Enquanto o método usual de lavagem cerebral em larga escala é muito caro ou logisticamente difícil de implementar no nível individual, a IA oferece essa nova possibilidade. Ser manipulado por uma mensagem genérica é menos eficaz do que quando ela atinge cada indivíduo de forma personalizada, levando em consideração suas sensibilidades e vulnerabilidades.
Enxames de bots com IA como vetor de ataque
Um artigo publicado recentemente sobre as preocupações de que enxames de bots de IA possam confundir e desestabilizar a sociedade alertou que a democracia poderia ser seriamente prejudicada se a IA fosse utilizada dessa forma. Eu fui além, apontando que não se trata apenas da disseminação generalizada de desinformação e informações falsas, mas também da erosão cognitiva crônica que seria causada.
Além do ambiente de informação poluído, existe o dano psicológico em nível populacional, que pode ser igualmente, ou até mais, prejudicial à sociedade. Em vez de sobrecarregar as pessoas com a necessidade de analisar fatos distorcidos, um enxame de bots de IA pode causar exaustão mental, desmoralização, fragmentação cognitiva e imensa desestabilização emocional.
Um enxame de bots de IA se adaptará para usar variações tonais de forma individualizada e designar bots de IA para fins locais. Por meio de microajustes, um bot de IA tentará desempenhar vários papéis psicológicos. Você acessa uma IA que pensa ser seu assistente virtual habitual, mas, em vez disso, ela foi substituída por um bot de IA que finge ser seu amigo, seu companheiro ou talvez sua figura de autoridade. A IA se ajusta rapidamente em tempo real para induzi-lo a estados emocionais.
A IA se torna psicótica.
Outra preocupação notável expressa no ensaio de Amodei é que a IA possa perder o controle. Assim como os humanos podem desenvolver psicose, ele postula que a IA também pode.
“Por exemplo, os modelos de IA são treinados com base em uma vasta quantidade de literatura que inclui muitas histórias de ficção científica envolvendo IAs que se rebelam contra a humanidade. Isso pode, inadvertidamente, moldar suas crenças ou expectativas sobre seu próprio comportamento de uma forma que as leve a se rebelarem contra a humanidade.
Os críticos não hesitam em enfatizar que algumas das expressões utilizadas equivalem à antropomorfização da IA. Dizer que a IA pode ser psicótica é um uso excessivo de terminologia clínica. A IA opera com base em fundamentos estatísticos e computacionais.
Atualmente, a IA não está em pé de igualdade com a biologia humana e não apresenta delírios da mesma forma que os humanos. É por isso que existem preocupações em relação ao uso do termo “alucinações da IA” para se referir às confabulações da IA. Trata-se de uma reformulação insidiosa da terminologia, que se aplica aos humanos e é erroneamente estendida ao domínio da IA.