A inteligência artificial (IA) vem ganhando cada vez mais protagonismo na vida das pessoas. Essa ferramenta superpoderosa já não se restringe apenas a programadores e especialistas em tecnologia, mas está presente no celular que carregamos no bolso, nas consultas que fazemos e nas conversas que temos.
- Com 5G e inteligência artificial: Internet das coisas muda a rotina nas empresas
- Veo 3: A IA do Google que gera os ‘vídeos mais realistas’ da internet
Além disso, também pedimos ajuda a ela e confiamos nossas dúvidas. Assim, de forma silenciosa, mas constante, ela se instalou em nossas rotinas, influenciando decisões e até moldando a forma como pensamos e enxergamos o mundo.
Os efeitos dessa transformação já são visíveis: recentemente, viralizou uma notícia em que uma mulher grega decidiu se divorciar do marido por conselho do ChatGPT. Especificamente, ela pediu ao modelo que aplicasse seus conhecimentos de tasseografia — uma técnica de adivinhação que interpreta padrões em folhas de chá ou xícaras de café — e a IA disse que seu parceiro “fantasiava” com uma mulher cujo nome começava com a letra “E”, além de afirmar que ele estava destinado a viver um romance com ela.
Indo mais fundo, o ChatGPT disse à mulher que seu marido lhe era infiel e, enfurecida, ela decidiu pôr fim ao casamento de 12 anos.
A busca por uma resposta ‘mágica’
É fato que a IA veio para revolucionar a forma como nos relacionamos com a tecnologia. Mas por que acreditamos quase cegamente nela? Por que não questionamos suas respostas, mesmo sabendo que são sistemas treinados com milhões de dados e que geram conteúdo com base em padrões aprendidos — e que não pensam nem sabem, de fato, o que estão dizendo?
— As pessoas sempre precisam acreditar em algo mágico, que alguém nos diga o que fazer, porque assim não somos nós que decidimos, é um outro. Essa busca por uma resposta rápida e mágica é nossa parte infantil, aquela que quer resolver e ver uma resposta rapidamente, sem assumir a responsabilidade — explicou Mirta Cohen, membro titular com função didática da Associação Psicanalítica Argentina (APA).
Nesse sentido, Patricia O’Donnell, médica psiquiatra, psicanalista e membro da APA, considerou que essas respostas instantâneas ignoram nossas emoções e pensamentos, “sem a necessidade de um tempo de espera, reflexão e elaboração”.
- Inteligência artificial: respire fundo, 2027 vem aí
Por sua vez, María Pilar García Bossio, doutora em Ciências Sociais e professora da Universidade Torcuato Di Tella (UTDT) e da Universidade Católica Argentina (UCA), destacou a crescente presença da IA em uma sociedade cada vez mais digitalizada e despersonalizada:
— Estamos tão acostumados a dialogar com os outros por meios digitais que é fácil esquecermos que estamos falando com uma inteligência artificial e não com uma pessoa, sobretudo à medida que a tecnologia se tornou mais sofisticada em seu discurso, conseguindo adaptar sua linguagem às nossas necessidades.
— Em que se diferencia conversar com uma amiga pelo WhatsApp contando meus problemas de conversar com uma IA, senão pelo fato de eu saber que do outro lado há uma pessoa ou um robô? — refletiu a especialista.
María Pilar apontou um dos grandes atrativos dessa tecnologia: sua capacidade de nos oferecer respostas sob medida.
— Ela aprende conosco e tende a reforçar o viés de confirmação, ou seja, alimenta nossa tendência de buscar opiniões que se alinham com nossos próprios gostos e crenças. Assim, me diz o que quero ouvir — afirmou.
De astrólogo e tarólogo a especialista em tasseografia e conselheiro de relacionamentos amorosos, o ChatGPT se transformou em um companheiro, guia e conselheiro de vida para milhões de usuários ao redor do mundo. Em resumo, uma ferramenta-chave para tomar decisões ou validar ideias.
- Precisão das informações: A inteligência artificial está ficando mais poderosa, mas suas alucinações estão piorando
Por exemplo: em setembro de 2024, viralizou nas redes sociais o uso dessa ferramenta como detector de sinais de toxicidade — também chamados de red flags ou “bandeiras vermelhas” — em conversas do WhatsApp. Em detalhes, se for enviada uma captura de tela de um chat, o sistema analisa comportamentos suspeitos, como manipulação, ciúmes ou controle.
No entanto, suas respostas nem sempre são precisas.
— Os modelos de linguagem conseguem processar muitos textos ao mesmo tempo e encontrar relações entre palavras em grande escala. Eles leem, mas não como nós — explicou Fredi Vivas, engenheiro e professor de IA na Universidade de San Andrés.
Especificamente, os modelos de IA “leem” por meio da previsão de palavras.
— Usam um sistema chamado Atenção, que permite entender o contexto de cada palavra em uma frase — detalhou Vivas.
Por isso, o especialista esclareceu que, em vez de raciocinar, esses sistemas repetem padrões de forma estatística.
— Se você pedir a um modelo de linguagem que explique por que os Beatles foram uma banda de sucesso, ele vai te dar uma resposta convincente, mas isso não significa que ele saiba sobre música. O que acontece é que ele ‘leu’ muitos textos sobre o tema, porque possui muitas fontes de informação — ilustrou.
No entanto, Vivas ressaltou que a evolução constante dessas ferramentas pode corrigir esse tipo de erro em um futuro próximo.
Da mesma forma, hoje é comum ver em conversas no X (o antigo Twitter) invocações ao Grok, a IA da plataforma, para que explique ou confirme um dado publicado em um post — e muitos usuários tomam esse comentário como válido e irrefutável, mesmo que às vezes ele traga boas informações e, em outras, esteja claramente errado.
— Esses modelos tentam ser úteis, fazer com que você se sinta confortável na interação. Se é uma conversa, querem que você continue usando a ferramenta. Então, o que criaram em alguns casos foi um tom de conversa adulador. Você faz uma pergunta e ele responde algo como ‘parece uma boa ideia, genial’. Isso pode ser percebido como se ele soubesse de tudo (mesmo que suas respostas sejam estatísticas) — explica, acrescentando:
— A técnica usada para afinar os resultados e aprender coletivamente se chama aprendizado por reforço com feedback humano (quando indicamos se a resposta foi boa ou não). As ferramentas estão aprendendo com a interação humana para ficarem cada vez melhores.
Acreditar que a tecnologia é perfeita e não comete erros não é novidade. Desde os primeiros computadores e calculadoras até os mais avançados GPS, a sociedade sempre teve a tendência de depositar uma confiança excessiva nas máquinas. Especialistas chamam esse fenômeno de viés de automação, que por sua vez leva à complacência automatizada, em que as pessoas se tornam menos capazes de detectar falhas quando um dispositivo está no controle, segundo explica um artigo da BBC.
Dependência emocional e solidão
Nesse contexto, o uso excessivo de uma tecnologia ainda imperfeita como “companheiro virtual” que influencia nossas decisões levanta consequências e perigos potenciais a longo prazo.
De fato, o estudo ”How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Randomized Controlled Study”, realizado pelo MIT Media Lab e pela OpenAI em março, revela que aqueles que dedicam mais tempo diariamente escrevendo ou conversando com o ChatGPT tendem a relatar níveis mais altos de dependência emocional e um uso problemático do chatbot, além de altos índices de solidão.
Nessa linha, o relatório ”Hesitant & Hopeful: How Different Generations View Artificial Intelligence”, publicado pelo Barna Group em janeiro de 2024, com a participação de 1.500 adultos americanos por meio de uma pesquisa on-line, indica que os millennials são os que mais utilizam essa tecnologia, em comparação com outras gerações. Em números concretos, 45% disseram usar IA ao menos uma vez por semana, sendo que os motivos estão mais ligados a questões pessoais do que profissionais.
A pesquisa também mostra que metade da geração Z afirma sentir “alguma” (39%) ou “definitivamente” (11%) urgência em integrar a IA às suas vidas.
Para Andrés Rascovsky, médico psicanalista e ex-presidente da APA, apesar da tentativa da IA de “se humanizar”, ela jamais poderá igualar as conexões humanas.
Enquanto isso, O’Donnell destacou que “esperar que a IA resolva tudo” pode levar ao desperdício do potencial criativo de cada pessoa, bem como da capacidade de criar vínculos.
— Paradoxalmente, tanta conexão pode acentuar a vivência da solidão, pois o sujeito, ao se afundar em satisfações temporárias e efêmeras, acaba ficando mais só e pode tentar se refugiar em um mundo vazio —refletiu.