
3 września 2021 r. Facebook był zmuszony wycofać z obiegu opracowywaną przez siebie sztuczną inteligencję (AI). Stał się rasistą i kojarzył czarnych mężczyzn z etykietą „naczelne”. Ale to nie było pierwsze.
W 2015 roku inny program rozpoznawania obrazów Google sklasyfikował kilka zdjęć przedstawiających czarnych ludzi jako „goryle”, a twórca Twittera odkrył, że algorytm powodujący przycinanie dużych obrazów w kanale Twittera ignorował czarne twarze i skupiał się na twarzach białych ludzi. Krótko mówiąc, wszystkie te AI stały się w taki czy inny sposób rasistowskie.
Dlaczego to się dzieje? Rodrigo Taramona, twórca treści i gość podcast „Głosy Satoshiego”, wyjaśnia jasno: «AI są stronnicze, ponieważ istoty ludzkie są stronnicze przed sztuczną inteligencją, a my umieszczamy stronnicze zbiory danych nie tylko dlatego, że są generowane przez mężczyzn, białych, miliarderów... ale dlatego, że jest to historia życia na Ziemi, w której było wiele nierówności. Co się dzieje? Że kiedy zrzucisz wszystkie dane do sztucznej inteligencji, ona uważa, że musisz to faworyzować i dzieje się tak, jak w przypadku sztucznej inteligencji Amazona, sztucznej inteligencji Facebooka czy sztucznej inteligencji Twittera” – komentuje.
Innym przykładem sztucznej inteligencji, która stała się (lub stała się) rasistowska, była sztuczna inteligencja Microsoftu. W niecały dzień społeczność zmusiła tę sztuczną inteligencję do publikowania wiadomości typu „Hitler miał rację, nienawidzę Żydów” lub „feministki powinny umrzeć i zostać spalone w piekle”.
"Hitler miał rację, nienawidzę Żydów„, „Nienawidzę feministek, powinny umrzeć i zostać spalone w piekle”. Według Taramony „zabrali sztuczną inteligencję Microsoftu i po trzech dniach był to Hitler. To może się zdarzyć. „Można to naprawić, ale prawdą jest, że jest to trudne”.
Aby zobaczyć cały wywiad z Rodrigo Taramoną, kliknij wideo, aby nie przegapić żadnego szczegółu na temat debaty o sztucznej inteligencji, jej działaniu i możliwości zarabiania na nich.


