24.9 C
Brasília
terça-feira, abril 14, 2026

Google Adiciona Salvaguardas de Saúde Mental Ao Gemini após Onda de Processos contra IAs

- Advertisement -spot_imgspot_img
- Advertisement -spot_imgspot_img

Após uma onda de processos judiciais visando a indústria de IA, o Google está implementando novas salvaguardas em seu chatbot Gemini para detectar conversas potencialmente perigosas e sinais de automutilação, incluindo recursos integrados de apoio à saúde mental.

O Google planeja adicionar um sistema que direciona os usuários para linhas de apoio à saúde mental quando as conversas indicarem risco de automutilação ou suicídio, permitindo que o usuário inicie um chat, ligue, envie SMS ou visite o site da central de ajuda.

A empresa também introduziu um módulo que exibe a mensagem “Ajuda disponível” durante conversas sobre saúde mental.

Além dos novos recursos, o Google comprometeu US$ 30 milhões nos próximos três anos para apoiar linhas de crise globais, visando expandir a capacidade de oferecer assistência imediata e segura a quem precisa. A companhia também está ampliando sua parceria com a ReflexAI, incluindo US$ 4 milhões em financiamento e a integração do Gemini em suas ferramentas de treinamento para ajudar organizações a escalarem serviços de suporte à saúde mental.

A Onda de Processos Contra Empresas de IA

Famílias em diversos estados americanos entraram com processos contra empresas de IA generativa, incluindo Character.AI, OpenAI e Google, alegando que suas plataformas contribuíram para problemas de saúde mental entre adolescentes e adultos.

Em março de 2026, o Google foi alvo de uma ação federal por morte por negligência, movida pela família de um homem de 36 anos da Flórida que cometeu suicídio após, supostamente, ter sido influenciado pelo Gemini.

Em resposta às crescentes preocupações, legisladores em vários estados começaram a se movimentar para regulamentar o uso da IA, particularmente em contextos de saúde mental. Estados como Illinois, Nevada, Califórnia e Nova York introduziram ou aprovaram medidas destinadas a limitar o papel da IA em decisões clínicas, exigindo divulgações mais claras quando os usuários interagem com IAs e estabelecendo proteções para menores.

Outros estados, como Utah e Texas, tomaram medidas para supervisionar o uso da tecnologia na saúde, criando órgãos reguladores ou exigindo que os prestadores informem aos pacientes quando a IA está envolvida em seus cuidados, garantindo a manutenção da supervisão humana.

*Reportagem publicada originalmente em Forbes.com

[Fonte Original]

- Advertisement -spot_imgspot_img

Destaques

- Advertisement -spot_img

Últimas Notícias

- Advertisement -spot_img