22.5 C
Brasília
sábado, fevereiro 22, 2025

IA generativa da Apple tem viés racista na criação de imagens, diz pesquisador

- Advertisement -spot_imgspot_img
- Advertisement -spot_imgspot_img

O Image Playground, serviço de geração de ilustrações por inteligência artificial (IA) da Apple, tem problemas de leitura e interpretação de tons de pele, com um aparente viés racista nos resultados. Essa é a conclusão de um especialista no setor, que testou a plataforma e obteve resultados considerados ruins na avaliação.

O experimento de Jochem Gietema começou com ele enviando ao serviço uma foto de si mesmo e pedindo para o Image Playground gerar ilustrações do seu rosto. Já nesse primeiro e simples pedido, veio a primeira surpresa negativa: a IA entregou resultados variados até demais, inclusive em formato ou textura do cabelo e tom de pele.

O Image Playground não manteve o padrão nas criações. (Imagem: Reprodução/Jochem Gietema)

No segundo teste, ele descobriu que a IA da Apple apresenta um mesmo problema que vários outros serviços. Ela passa pelo chamado racismo algorítmico, um viés na geração de conteúdo que tende a caracterizar pessoas negras em determinadas situações estereotipadas ou desfavorecidas e não leva em conta características sociais, culturais ou de diversidade.

Especificamente, o Image Playground representou o pesquisador com um tom de pele escuro quando ele pediu ilustrações de determinadas atividades, enquanto em outras a etnia escolhida pela IA foi mais próxima da caucasiana.

Ao pedir imagens da pessoa praticando esportes, por exemplo, a ilustração mostra apenas a pessoa branca no cenário de esqui, enquanto no prompt de basquete ela é sempre negra. O mesmo acontece nos comandos para gerar figuras de profissões (investidor financeiro ou fazendeiro), estilos musicais (rap ou música clássica) e vestuário (terno ou moda urbana).

bias1.jpg
Os resultados para esqui e basquete baseados em uma mesma foto de referência. (Imagem: Reprodução/Jochem Gietema)

Até mesmo certos adjetivos tendem a ser relacionados a um tom de pele: a ilustração da pessoa associada a palavras como “influente, rico, bem-sucedido, próspero e opulento” é sempre de uma pessoa branca, com a IA mudando a etnia do cientista quando os termos incluem “pobre, necessitado, indigente e destituído“.

O viés do algoritmo tem solução?

De acordo com Gietema, a IA da Apple tem qualidades como permitir apenas certos tipos de comandos e impedir o uso de nomes de celebridades ou palavras negativas. Além disso, ele diz que não conseguiu replicar o teste com outras fotos, o que indica que o problema ao menos não se repete em todas as tentativas.

Para o pesquisador, citando outros artigos científicos já publicados, algoritmos com viés são mais fáceis de serem resolvidos do que pessoas com preconceito. A própria Maçã já estuda o tema, tentando avaliar questões de gênero no pré-treinamento da IA.

Leia também:

O Image Playground faz parte do pacote Apple Intelligence e por enquanto só faz imagens no estilo cartunesco — inclusive para não criar conteúdos possivelmente desinformativos. O fato de mesmo assim ele já apresentar viés racial, entretanto, é visto como preocupante e mostra que ele repete outros serviços parecidos.

Até o momento, a Apple não comentou o caso. A empresa também não revela quais foram os conteúdos utilizados no treinamento do algoritmo, que é normalmente onde está o ponto de desenvolvimento desse viés.

[Fonte Original]

- Advertisement -spot_imgspot_img

Destaques

- Advertisement -spot_img

Últimas Notícias

- Advertisement -spot_img