Czy algorytmy sztucznej inteligencji mogą być seksitowskie?

Ostatnia aktualizacja: 26 kwietnia, 2021

seksizm, nierówność

O tym, czego algorytm się nauczy, decyduje człowiek.

Wydaje się, że rozwiązania z pogranicza machine learningu i sztucznej inteligencji będą z zasady obiektywne i bezstronne, oraz że nie dojdzie do przykrych zjawisk, jak faworyzowanie danej płci czy grupy społecznej. Jak jest w rzeczywistości?

Sztuczna inteligencja jest niczym innym, jak kolejnym projektem zaprogramowanym przez ludzi. Naukowcy i specjaliści najpierw muszą dokonać selekcji danych treningowych, na podstawie których sztuczna inteligencja nauczy się rozwiązywać zadania. Dobranie odpowiednich baz danych, ewaluacja procesu oraz eliminowanie potencjalnych słabych punktów, powinny być priorytetem, nie tylko w branży tłumaczeniowej. O tym, dlaczego jest to tak istotne, dowiesz się z poniższych przykładów.

Pouczająca historia Taya

Liczne przykłady pokazują, że baza treningowa dla rozwiązań z obszaru sztucznej inteligencji, jest kluczowa. Najsłynniejszym przypadkiem tego typu był bot o imieniu Tay. Algorytm został stworzony przez firmę Microsoft, jego premiera miała miejsce w marcu 2016 roku. Tay miał się uczyć „na żywo”, na podstawie odbytych rozmów z realnymi osobami z Twitterze. Bazą treningową byli więc zwykli ludzie. Okazało się, że bota trzeba było bardzo szybko wyłączyć – na podstawie rozmów z użytkownikami Twittera, Tay zaczął głosić rasistowskie, a nawet nazistowskie poglądy. Eksperyment zakończył się totalnym fiaskiem, bota wyłączono.

Sztuczna inteligencja faworyzowała kandydatki w konkursie piękności

Sztuczną inteligencję postanowiono także wykorzystać do pierwszego na świecie konkursu piękności, który miał być w pełni obiektywny. W jury „zasiadała” sztuczna inteligencja, która miała brać pod uwagę zobiektywizowane czynniki, takie jak obecność zmarszczek czy symetria twarzy. Za pośrednictwem formularza zgłoszeniowego na stronie zgłosiło się 6 tysięcy kandydatek. Algorytm wybrał 44 najładniejsze kandydatki. Okazało się, że w przeważającej większości były to osoby o jasnej karnacji. Werdykt sztucznej inteligencji okazał się dużo bardziej krzywdzący niż tradycyjne konkursy piękności, a algorytm posądzono o rasizm. Wszystko z prostego powodu – sztuczna inteligencja „uczyła się” głównie na podstawie obrazów o jasnej karnacji twarzy i na tej podstawie wypracowała rasistowski „kobiecy ideał”.

równość

Sztuczna inteligencja, branża tłumaczeniowa i seksizm

Powyższe przykłady idealnie ilustrują główny problem dotyczący rozwiązań ze sztuczną inteligencją w roli głównej. Nieodpowiednio dobrana baza lub brak stosownej ewaluacji, mogą mieć nieprzewidywane efekty, które odbiją się szerokim echem.

W marciu 2021 roku w ogniu krytyki znalazł się tłumacz Google, który został oskarżony o seksizm. Jeden z użytkowników Twittera opublikował zrzuty ekranu przedstawiające zdania napisane w języku węgierskim, który jest neutralny płciowo i nie posiada zaimków pod względem płci. Wspomniane fragmenty zostały przetłumaczone przez algorytm na angielski zgodnie z najgorszymi stereotypami.

Przykładowo, pomimo braku określenia płci, algorytm domyślnie dookreślił podmiot, tłumacząc „ona myje naczynia”, „ona jest sprzątaczką”, „on zarabia dużo pieniędzy”. Sztuczna inteligencja podjęła autonomiczną decyzję, prawdopodobnie na podstawie setek tysięcy podobnych kontekstów, które wcześniej przetłumaczyła.

Sztuczna inteligencja kontra stereotypy

Treningowa baza danych jest kluczowa w przypadku algorytmów sztucznej inteligencji, która będzie w przyszłości odpowiadać za coraz większą ilość tłumaczeń na całym świecie. Jak pokazują obiektywne wskaźniki rozwoju tej technologii, trend jest już raczej nie do odwrócenia.

Projektując automatyczne rozwiązania, nie możemy zapominać o weryfikacji efektów. Twórcy aplikacji i tego typu projektów powinni przykładać szczególną uwagę do tego, żeby nie reprodukować krzywdzących stereotypów, z których ludzkość od dłuższego czasu prowadzi nierówną walkę. Nawet sztuczna inteligencja, może być seksistowska, mimo że (jeszcze) nie posiada własnej świadomości.

Największym wyzwaniem dla branży tłumaczeniowej jest zastosowanie skutecznych mechanizmów antydyskryminacyjnych, szczególnie w przypadku otwartych projektów, gdzie testy są zakrojone na bardzo szeroką skalę.

Jeśli interesuje Cię tematyka związana z zapobieganiem uprzedzeniom od strony językowej, przeczytaj nasz poprzedni artykuł pt.: „Język, który nie wyklucza”.

Poświeciliśmy także osobny tekst dotyczący strategii marki oraz rzeczy, których lepiej unikać, żeby nie narazić się na krytykę.

Powiązane wpisy

Summa Linguae korzysta z plików cookie dla lepszego rozumienia sposobu korzystania ze strony internetowej. Dalsze korzystanie z tej strony internetowej jest równoznaczne z wyrażeniem zgody na politykę cookies.

Więcej