¿Por qué algunas Inteligencias Artificiales se volvieron racistas?

El 3 de septiembre de 2021, Facebook se vio obligada a retirar de circulación la Inteligencia Artificial (IA) que estaba desarrollando. Se había vuelto racista y asociaba a los hombres negros con la etiqueta ‘primates’. Pero no era la primera.

En 2015 otro programa de reconocimiento de imágenes de Google clasificó varias fotos con personas negras como «gorilas» y un desarrollador de Twitter descubrió que el algoritmo que hace que las imágenes grandes se recorten en el feed de Twitter ignoraba a los rostros negros y se centraba en los de personas blancas. En definitiva, todas estas IA se habían convertido, de una manera u otra, en racistas.

¿Por qué ocurre esto? Rodrigo Taramona, creador de contenidos e invitado del podcast ‘Las voces de Satoshi‘, lo tiene claro: «Las IA están sesgadas porque los seres humanos estamos sesgados antes que las IA y metemos datasets sesgados, no solo porque las generan hombres, blancos, multimillonarios… si no porque es un histórico de la vida en la Tierra en la que ha habido muchas desigualdades. ¿Qué sucede? Que cuando le vuelcas todos esos datos a una IA cree que hay que favorecer eso, y pasan cosas como con la IA de Amazon, la de Facebook o la de Twitter», comenta.

Otro de los ejemplos de IA que se volvieron (o convirtieron) racistas fue la IA de Microsoft. En poco menos de un día, la comunidad consiguió que esta IA publicara mensajes como «HItler tenía razón, odio a los judíos» o «las feministas deberían morir y ser quemadas en el infierno».

Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno”. Según Taramona, «cogieron a la IA de Microsoft y en tres días era Hitler. Eso puede pasar. Se puede corregir, pero es verdad que es difícil».

Para ver la entrevista entera con Rodrigo Taramona, clica en el vídeo para no perderte ni un detalle sobre el debate de las IA, cómo funcionan y si se podrá ganar dinero con ellas.