O novo sistema de inteligência artificial do Google tem dado o que falar ao divulgar pontuações na qual indicam que homossexuais são pessoas ruins. Na nova ferramenta, “pessoas gays” aparecem com -0,2, o que tem intrigado muita gente.
Os preconceitos aconteceram por causa de um sistema de polarizações programadas em seus dados de treinamento, os resultados então passaram a estar acessíveis ao público da gigante empresa de tecnologia.
Leia Mais:
Twitter pede desculpas após censurar conteúdo LGBT em buscas
Polícia do Egito está usando apps de pegação para prender gays
Diante da repercussão negativa, o Google pediu desculpas, e afirmou em declaração à Mashable que irá incluir as minorias no futuro. “Nós dedicamos muitos esforços para garantir que a API da PNL evite o viés, mas nem sempre conseguimos”, confessou um porta-voz do Google.
“Este é um exemplo de um daqueles tempos, e nos sentimos. Levamos isso seriamente e estamos trabalhando para melhorar nossos modelos. Vamos corrigir este caso específico e, mais amplamente, construir algoritmos mais inclusivos é crucial para trazer os benefícios do aprendizado de máquina para todos”, completou.