Versão drogada é feita com treinamento a partir de estudos científicos sobre as substâncias. Na página do serviço, o diretor criativo sueco Petter Rudwallpeter explica que usou várias pesquisas psicológicas e descrições de efeitos de experiências psicodélicas humanas. A partir disso, começou a pensar em módulos de código para fazer os chatbots darem respostas “diferentonas”.
O idealizador do projeto diz que módulos ajudam a desbloquear a criatividade dos chatbots. Rudwall diz que é uma forma de se livrar da “lógica sufocante das IAs”, em entrevista à revista Wired. Ele também afirma que vendeu dezenas de licenças na Suécia para seu sistema, que só funciona com uma versão paga do ChatGPT.
Essa onda faz sentido?
Especialistas duvidam da eficácia das “drogas” aplicadas à IA. Danny Forde, autor de um livro sobre experiências psicodélicas, disse à Wired que no máximo o chatbot pode “alucinar por meio de sintaxes”, gerando padrões associados ao estado de psicodelia. Para ele, a psicodelia de IA só ocorreria se ela pudesse ter experiências —algo que não acontece, pois não tem consciência e não é humana.
Faz sentido pensar no assunto? No ramo de IA é discutido se, em algum momento, elas terão “consciência”. Caso isso ocorra, talvez queiram experimentar estados alterados de consciência, como ocorre com humanos. Recentemente, a Anthropic —que desenvolve o chatbot Claude— chegou a contratar um especialista para entender se em algum momento chatbots terão consciência.