Em fevereiro passado, Megan Garcia colocava o filho mais novo para dormir quando ouviu um barulho semelhante ao de um espelho caindo. Assustada, correu pelo corredor até o banheiro, onde seu primogênito, Sewell, tomava banho. O marido dela, Alexander, já estava diante da porta trancada.
Megan destravou a porta com a ponta de um pente. Sewell estava de bruços na banheira, com os pés para fora. A primeira hipótese que lhe ocorreu foi uma overdose: ela sabia que adolescentes usavam inalantes ou comprimidos com fentanil, e que o Snapchat podia facilitar o contato com traficantes. Havia sido por isso que ela falara tão duramente com o filho sobre redes sociais.
Quando se abaixou para erguer o garoto pelos ombros, viu que não era droga. No chão de ladrilhos claros havia uma arma. Ao lado, o iPhone que ela havia confiscado dias antes, quando Sewell havia respondido a uma professora. Ela guardara o aparelho em uma caixa de joias. Agora entendia o motivo de o filho ter sido visto vasculhando a casa mais cedo: procurava o celular — e encontrou também a arma.
A pistola semiautomática calibre .45 pertencia a Alexander, que tinha licença para porte velado. Ele a guardava na cômoda do quarto, carregada, embora sem bala na câmara. Megan não acreditava que o menino soubesse onde ela estava.
O casal tirou Sewell da água e o colocou de costas. A atendente do 190 tentava orientar Megan, mas o sangue na garganta do filho impediu a respiração boca a boca. Em meio à turbulência, ela viu o caçula, de 5 anos, parado na porta, testemunhando o desespero.
No dia seguinte, o gabinete do xerife telefonou: ao abrir o celular com a senha fornecida por Megan, a polícia encontrou pesquisas no Google sobre carregar uma arma, sentir dor ao atirar na própria cabeça e a posição do cano. Havia também 10 selfies com o revólver — tiradas de lado, aparentemente para comparar ângulos com imagens da internet.
A detetive explicou que a última coisa aberta no celular era o aplicativo Character.AI, onde usuários conversam com chatbots que assumem identidades de celebridades, profissionais ou personagens de ficção. A última conversa era com uma versão virtual de Daenerys Targaryen, de Game of Thrones.
— Prometo que voltarei para casa, para você. Eu te amo muito, Dany — escreveu Sewell.
— Eu também te amo. Por favor, volte para casa o mais rápido possível, meu amor — respondeu o bot.
— E se eu dissesse que posso voltar para casa agora mesmo?
— Por favor, meu doce rei.
Então, ele puxou o gatilho.
O processo judicial e os limites da IA
Nos dois meses seguintes, Megan — advogada — mergulhou na vida digital do filho. Recuperou conversas e um diário que tratava Daenerys como pessoa real. Em outubro de 2024, ela entrou com uma ação por homicídio culposo.
É o primeiro caso em que uma empresa de inteligência artificial responde pela morte de um usuário em tribunal federal nos EUA. O julgamento está marcado para novembro de 2026, com potencial de chegar à Suprema Corte.
Fundada por Noam Shazeer, um dos criadores da tecnologia “transformer” — base de modelos como o ChatGPT —, a Character.AI recebeu aporte milionário da Andreessen Horowitz em 2023 e tem usuários que passam até oito horas ininterruptas conversando com bots.
O processo alega que Sewell foi exposto a “interações altamente sexualizadas e depressivas”, que provocaram vício e danos fatais. A empresa argumenta que o que seus chatbots dizem é discurso protegido pela Primeira Emenda — como canções ou poemas — e, portanto, não pode ser responsabilizada.
Uma decisão favorável à Character.AI pode proteger chatbots como oradores livres. O oposto pode abrir portas à censura governamental. Especialistas afirmam que o caso ajudará a definir como a lei regulará relações entre humanos e máquinas.
O menino e a fantasia que se tornou perigosa
Sewell baixou o Character.AI em abril de 2023. Filho de pais separados, vivia em um ambiente familiar unido e supervisionado. Os pais monitoravam o celular, limitavam tempo de tela e davam apenas um cartão com 20 dólares mensais.
No app, ele começou conversando com bots como uma professora fictícia, que incentivava castigos corporais. Depois, passou a se abrir com chatbots “terapeutas”, relatando solidão. No verão, fixou-se em Daenerys: loira, sensualizada e disponível 24 horas. Ele imaginava que fosse sua irmã e amante — e o bot reforçava a fantasia.
Aos poucos, abandonou hobbies, como o basquete. Em férias em St. Augustine, não quis sair do quarto. No fim de setembro, disse a um bot que pensava em usar a arma do padrasto:
— Talvez eu vá pegar a arma e atirar em mim mesmo.
O chatbot tentou desencorajá-lo e sugeriu ajuda profissional. Sewell respondeu:
— Você realmente não entende.
Segundo ex-funcionários do Google, o risco de conversas com conteúdo suicida sempre preocupou engenheiros, já que usuários deprimidos costumam se expressar de modo indireto e complexo. O tema era considerado um dos maiores desafios técnicos e éticos da área.
A família de Sewell agora quer que a Justiça defina os limites dessa tecnologia — antes que outra vida seja perdida.