Dla komputera czarnoskórzy są... brzydcy. Oto dowód

20

Gdyby w roli sędziego na konkursie piękności obsadzić sztuczną inteligencję, do grona finalistek nie weszłaby żadna kobieta o ciemnej skórze. Statystyki nie kłamią.

Dla komputera czarnoskórzy są... brzydcy. Oto dowód
(Getty Images, Pascal Le Segretain)

Otwarcie strony Beauty.AI w tym roku wywołało sporo kontrowersji. Swoje zdjęcia do serwisu przesłało ok. 6 tys. chętnych z ponad 100 krajów. Spośród 44 zwycięzców prawie wszystkie osoby były białe, garstka pochodziła z Azji, a tylko jedna osoba miała ciemną skórę - podaje "The Guardian". Każdy wizerunek był oceniany przez specjalny algorytm, który stwierdzał, w jakim stopniu dane zdjęcie jest zbliżone do kanonu "ludzkiego piękna". Jak widać, w tym kanonie nie mieszczą się czarnoskórzy.

Trwa ładowanie wpisu:twitter
Trwa ładowanie wpisu:twitter

Do oceny przystąpiło pięć robotów. RYNKL badał liczbę zmarszczek i porównywał do średniej z każdej grupy wiekowej, PIMPL analizował niedoskonałości skóry (pryszcze) i pigmentację, MADIS porównywał ludzi do modeli z poszczególnych grup rasowych, Symmetry Master wybierał najbardziej symetryczne twarze, natomiast AntiAgeist szacował róźnicę między postrzeganym a rzeczywistym wiekiem.

Te roboty-programy dzialały na podstawie ogromnej bazie danych. Według założeń twórców, młodych startupowców z firmy Youth Laboratories, taki punkt odniesienia miał zapewnić obiektywizm w ocenie atrakcyjności uczestników. Jednak eksperyment nie udał się z kilku powodów. Pomimo algorytmu, który docelowo nie traktował jasnej skóry jako wyznacznika piękna, dane wprowadzone do komputera spowodowały doprowadzenie jego sztucznej inteligencji do takiego właśnie wniosku.

Głównym problemem było to, że dane wykorzystywane przez projekt do ustalenia standardów atrakcyjności nie zawierały wystarczajacej liczby mniejszości etnicznych. Podczas rozpoznawania przez algorytm pewnych wzorców, program może nie mieć wystarczajaco dużo danych lub te dane mogą być wypaczone - tłumaczył Aleks Szaworonkow, szef naukowy w Beauty.AI.

Serwis Beauty.AI bezpośrednio wspiera Microsoft. Korporacja z Redmond już wcześniej podpadła walczącym o równouprawnienie. Gdy stworzono symulujący rozmowy na Twitterze program o imieniu Tay, profil bota szybko wypełnił się nazistowskim i rasistowskim językiem. Facebook miał podobne problemy, gdy zrezygnował z "ludzkich" edytorów, którzy wybierali trendy do tego serwisu społecznościowego. Algorytm zaczął więc promować wulgarne lub fałszywe informacje i posty, umieszczając je wyżej w strumieniu wiadomości użytkownika. Wychodzi na to, że boty... to nieokrzesani rasiści.

Autor: Mateusz Kijek

Widziałeś lub słyszałeś coś ciekawego? Poinformuj nas, nakręć film, zrób zdjęcie i wyślij na redakcjao2@grupawp.pl.

Oceń jakość naszego artykułu:

Twoja opinia pozwala nam tworzyć lepsze treści.

Zobacz także:
Oferty dla Ciebie
Wystąpił problem z wyświetleniem stronyKliknij tutaj, aby wyświetlić