Sztuczna Inteligencja Okazała Się Rasistą - Alternatywny Widok

Sztuczna Inteligencja Okazała Się Rasistą - Alternatywny Widok
Sztuczna Inteligencja Okazała Się Rasistą - Alternatywny Widok

Wideo: Sztuczna Inteligencja Okazała Się Rasistą - Alternatywny Widok

Wideo: Sztuczna Inteligencja Okazała Się Rasistą - Alternatywny Widok
Wideo: Jak sztuczna inteligencja oszukała człowieka 2024, Może
Anonim

Badanie przeprowadzone przez naukowców z Massachusetts Institute of Technology ujawniło szczegóły procesu analizy danych przez sztuczną inteligencję, który często kieruje się seksistowskimi i rasistowskimi stereotypami przy podejmowaniu decyzji. Kilka systemów, które brały udział w eksperymencie, wykazało podatność na ludzkie uprzedzenia.

Brytyjska gazeta „The Daily Mail” pisze, że po otrzymaniu wyników badań zespół naukowców podjął się przeprogramowania sztucznej inteligencji, eliminując wcześniejsze problemy. Według Irene Chen, która pracuje w Massachusetts Institute of Technology, informatycy skłaniają się ku konkluzji, że jedynym sposobem na wyeliminowanie elementów rasizmu i seksizmu w algorytmach sztucznej inteligencji jest ulepszenie kodu oprogramowania. Jakość algorytmów jest wprost proporcjonalna do danych, na których operują. Badania przeprowadzone przez Chen z Davidem Sontagiem i Fredrikiem D. Johannsonem pokazują, że więcej dostępnych danych może radykalnie zmienić sytuację na lepsze.

W jednym eksperymencie zespół przyjrzał się systemowi, który przewidywał dochód osoby na podstawie dostępnych informacji. Analiza wykazała, że w 50% przypadków algorytm jest skłonny przewidywać, że dochód kobiety będzie średnio niższy od dochodu mężczyzny. Zwiększając 10-krotnie ilość dostępnych danych, naukowcy odkryli, że współczynnik takiego błędu zmniejszył się o 40%.

Co więcej, w badaniu systemu stosowanego w szpitalach, który przewiduje przeżycie pacjentów poddawanych ciężkiej operacji, trafność przewidywań była znacznie niższa dla rasy mongoloidalnej niż dla rasy kaukaskiej i murzynów. Jednak naukowcy argumentują, że zastosowanie zaawansowanej techniki analizy może znacznie zmniejszyć dokładność przewidywania w przypadku pacjentów nienależących do rasy mongoloidalnej. To pokazuje, że więcej dostępnych danych może nie zawsze korygować błędy algorytmu. Zamiast tego naukowcy powinni otrzymać więcej informacji na temat grup dyskryminowanych.

Nowa metoda stawia kolejne pytanie dla badaczy zajmujących się uczeniem maszynowym, jak efektywnie analizować dane bez istniejącej dyskryminacji.

Jak działa uczenie maszynowe w systemach opartych na sztucznej inteligencji?

Systemy sztucznej inteligencji opierają się na sztucznych sieciach neuronowych (SSN), które ekstrapolują techniki przechowywania informacji i uczenia się wykorzystywane przez ludzki mózg na systemy mechaniczne. SSN uczą się znajdować wzorce w dostępnych źródłach informacji, w tym w mowie, tekście i obrazach. Poprawa dokładności analizy danych jest jednym z podstawowych warunków wstępnych poprzedzających najnowsze osiągnięcia w dziedzinie sztucznej inteligencji.

„Normalna” sztuczna inteligencja wykorzystuje dane wejściowe, aby opowiedzieć algorytmowi o przedmiocie analizy, operując na ogromnej ilości informacji.

Film promocyjny:

Praktyczne zastosowania uczenia maszynowego obejmują usługi tłumaczeniowe Google, rozpoznawanie twarzy ze zdjęć z Facebooka oraz filtry w Snapchacie, które skanują twarze przed zastosowaniem efektów wizualnych online.

Proces wprowadzania danych jest często czasochłonny i zwykle jest ograniczony przepływem informacji o jednym aspekcie badanego obiektu. Nowy typ SSN - generatywna kontradyktoryjna sieć neuronowa - przeciwstawia się możliwościom dwóch różnych robotów ze sztuczną inteligencją jednocześnie, prowokując mniej inteligentny system do uczenia się kosztem drugiego bez udziału człowieka. Ta technika znacznie poprawia wydajność i szybkość uczenia maszynowego, jednocześnie podnosząc jakość analizy danych.

Oliy Kurilov

Zalecane: