Por que algumas inteligências artificiais se tornaram racistas?

Em 3 de setembro de 2021, o Facebook foi forçado a retirar de circulação a Inteligência Artificial (IA) que estava desenvolvendo. Ele se tornou racista e associou os homens negros ao rótulo de “primatas”. Mas não foi o primeiro.

Em 2015, outro programa de reconhecimento de imagens do Google classificou várias fotos com pessoas negras como "gorilas" e um desenvolvedor do Twitter descobriu que o algoritmo que faz com que imagens grandes sejam cortadas no feed do Twitter ignorou rostos negros e focou nos de pessoas brancas. Em suma, todas estas IA se tornaram, de uma forma ou de outra, racistas.

Por que isso está acontecendo? Rodrigo Taramona, criador de conteúdo e convidado do podcast 'As Vozes de Satoshi', ele é claro: «As IAs são tendenciosas porque os seres humanos são tendenciosos antes das IAs e colocamos conjuntos de dados tendenciosos, não só porque são gerados por homens, brancos, bilionários... mas porque é uma história de vida na Terra em que houve muitas desigualdades. O que acontece? Que quando você despeja todos esses dados em uma IA, ela acredita que você tem que favorecer isso, e coisas acontecem como com a IA da Amazon, do Facebook ou do Twitter”, comenta ele.

Outro exemplo de IA que se tornou (ou se tornou) racista foi a IA da Microsoft. Em pouco menos de um dia, a comunidade conseguiu que esta IA publicasse mensagens como “Hitler estava certo, eu odeio judeus” ou “feministas deveriam morrer e ser queimadas no inferno”.

"Hitler estava certo, eu odeio judeus", "Eu odeio feministas, elas deveriam morrer e ser queimadas no inferno." Segundo Taramona, “eles pegaram a IA da Microsoft e em três dias era Hitler. Isso pode acontecer. “Isso pode ser corrigido, mas é verdade que é difícil”.

Para ver a entrevista completa com Rodrigo Taramona, clique no vídeo para não perder nenhum detalhe sobre o debate sobre IA, como funcionam e se é possível ganhar dinheiro com eles.