Budowanie Maszyny Moralnej: Kto Będzie Odpowiedzialny Za Etykę Samojeżdżących Samochodów? - Alternatywny Widok

Spisu treści:

Budowanie Maszyny Moralnej: Kto Będzie Odpowiedzialny Za Etykę Samojeżdżących Samochodów? - Alternatywny Widok
Budowanie Maszyny Moralnej: Kto Będzie Odpowiedzialny Za Etykę Samojeżdżących Samochodów? - Alternatywny Widok

Wideo: Budowanie Maszyny Moralnej: Kto Będzie Odpowiedzialny Za Etykę Samojeżdżących Samochodów? - Alternatywny Widok

Wideo: Budowanie Maszyny Moralnej: Kto Będzie Odpowiedzialny Za Etykę Samojeżdżących Samochodów? - Alternatywny Widok
Wideo: ZBUDOWAŁ SUPER-SAMOCHÓD z samego DREWNA! *V8 600km* 2024, Kwiecień
Anonim

Jedziesz autostradą, gdy na ruchliwą drogę wybiega mężczyzna. Wokół Ciebie poruszają się samochody, a Ty masz ułamek sekundy na podjęcie decyzji: starać się unikać osoby i stwarzać ryzyko wypadku? Kontynuować jazdę w nadziei, że będzie miał czas? Hamować? Jak oceniasz szanse na przypięcie dziecka na tylnym siedzeniu? Pod wieloma względami jest to klasyczny „dylemat moralny”, problem wózka. Ma milion różnych opcji, które pozwalają zidentyfikować ludzkie uprzedzenia, ale istota jest taka sama.

Znajdujesz się w sytuacji, w której stawką jest życie i śmierć, nie ma prostego wyboru, a od twojej decyzji zależy, kto żyje, a kto umiera.

Dylemat wózka i sztuczna inteligencja

Nowy artykuł MIT, opublikowany w zeszłym tygodniu w czasopiśmie Nature, próbuje znaleźć działające rozwiązanie problemu wózka poprzez rekrutację milionów wolontariuszy. Eksperyment rozpoczął się w 2014 roku i zakończył się sukcesem, otrzymując ponad 40 milionów odpowiedzi z 233 krajów, co czyni go jednym z największych badań moralnych, jakie kiedykolwiek przeprowadzono.

Osoba może podejmować takie decyzje nieświadomie. Trudno jest zważyć wszystkie systemy etyczne i wymagania moralne, gdy twój samochód ściga się po drodze. Ale w naszym świecie decyzje są coraz częściej podejmowane przez algorytmy, a komputery mogą z łatwością reagować szybciej niż my.

Hipotetyczne sytuacje z autonomicznymi samochodami to nie jedyne moralne decyzje, jakie muszą podejmować algorytmy. Algorytmy medyczne wybiorą, kto otrzyma leczenie przy ograniczonych zasobach. Zautomatyzowane drony zdecydują, ile „szkód ubocznych” jest do przyjęcia w pojedynczym zaangażowaniu wojskowym.

Film promocyjny:

Nie wszystkie zasady moralne są równe

„Rozwiązania” problemu wózka są tak różne, jak same problemy. W jaki sposób maszyny będą podejmować decyzje moralne, skoro podstawy moralności i etyki nie są powszechnie akceptowane i mogą nie mieć rozwiązań? Kto może określić, czy algorytm działa dobrze, czy źle?

Podejście crowdsourcingowe przyjęte przez naukowców z Moral Machine jest dość pragmatyczne. Ostatecznie, aby społeczeństwo zaakceptowało autonomiczne samochody, musi zaakceptować moralne podstawy ich decyzji. Nie będzie dobrze, jeśli etycy lub prawnicy wymyślą rozwiązanie, które jest albo niedopuszczalne, albo nie do przyjęcia dla zwykłych kierowców.

Wyniki prowadzą do ciekawego wniosku, że priorytety moralne (a tym samym decyzje algorytmiczne, które ludzie mogą podejmować) zależą od tego, gdzie na świecie się znajdujesz.

Przede wszystkim naukowcy uznają, że nie można poznać częstotliwości ani charakteru takich sytuacji w prawdziwym życiu. Osoby, które uczestniczyły w wypadku, bardzo często nie potrafią powiedzieć, co dokładnie się wydarzyło, a zakres możliwych sytuacji wyklucza prostą klasyfikację. Dlatego, aby problem stał się możliwy do wyśledzenia, trzeba go rozbić na uproszczone scenariusze, szukając uniwersalnych reguł i zasad moralnych.

Podczas wypełniania ankiety otrzymujesz trzynaście pytań, które wymagają prostego wyboru tak lub nie, próbując zawęzić odpowiedzi do dziewięciu czynników.

Czy samochód powinien skręcić w inny pas, czy jechać dalej? Czy powinieneś ratować młodych, a nie starych? Kobiety czy mężczyźni? Zwierzęta czy ludzie? Czy powinieneś spróbować ocalić jak najwięcej istnień ludzkich, czy może jedno dziecko jest warte dwóch starszych osób? Oszczędzać pasażerów w samochodzie, a nie pieszych? Ci, którzy nie przestrzegają zasad, czy ci, którzy ich nie przestrzegają? Czy powinieneś ratować ludzi silniejszych fizycznie? A co z osobami o wyższym statusie społecznym, takimi jak lekarze czy biznesmeni?

W tym surowym, hipotetycznym świecie ktoś musi umrzeć, a ty odpowiesz na każde z tych pytań - z różnym stopniem entuzjazmu. Jednak podejmowanie tych decyzji ujawnia również głęboko zakorzenione normy kulturowe i uprzedzenia.

Przetwarzanie ogromnego zbioru danych zbadanego przez naukowców dostarcza uniwersalnych reguł, a także ciekawych wyjątków. Trzy najbardziej dominujące czynniki, uśrednione dla całej populacji, to fakt, że każdy wolał ratować więcej istnień niż mniej, ludzi zamiast zwierząt i raczej młodych niż starszych.

Różnice regionalne

Możesz zgodzić się z tymi punktami, ale im głębiej się nad nimi zastanowisz, tym bardziej niepokojące będą wnioski moralne. Więcej respondentów wybrało zbrodniarza zamiast kota, ale generalnie woleli uratować psa niż przestępcę. Średnio na świecie starość jest oceniana wyżej niż bycie bezdomnym, ale osoby bezdomne były mniej uratowane niż osoby grube.

A te zasady nie były uniwersalne: respondenci z Francji, Wielkiej Brytanii i Stanów Zjednoczonych woleli młodych, natomiast respondenci z Chin i Tajwanu chętniej ratowali osoby starsze. Respondenci z Japonii woleli ratować pieszych nad pasażerami, podczas gdy w Chinach wolą pasażerów od pieszych.

Naukowcy odkryli, że mogą pogrupować odpowiedzi według krajów na trzy kategorie: „Zachód”, głównie Ameryka Północna i Europa, gdzie moralność opiera się w dużej mierze na doktrynie chrześcijańskiej; „Wschód” - Japonia, Tajwan, Bliski Wschód, gdzie dominuje konfucjanizm i islam; Kraje „południowe”, w tym Ameryka Środkowa i Południowa, wraz z silnymi wpływami kulturowymi Francji. W segmencie południowym istnieje silniejsza preferencja do składania ofiar z kobiet niż gdziekolwiek indziej. W segmencie wschodnim występuje większa skłonność do ratowania młodych ludzi.

Filtrowanie według różnych atrybutów respondentów daje nieskończenie wiele interesujących opcji. Respondenci „bardzo religijni” raczej nie będą preferować ratowania zwierzęcia, ale zarówno respondenci religijni, jak i niereligijni wyrażają w przybliżeniu równe preferencje dla ratowania osób o wysokim statusie społecznym (chociaż można powiedzieć, że jest to sprzeczne z niektórymi doktrynami religijnymi). Mężczyźni i kobiety wolą ratować kobiety, ale mężczyźni są do tego mniej skłonni.

Pytania bez odpowiedzi

Nikt nie twierdzi, że te badania w jakiś sposób „rozwiązują” wszystkie te poważne problemy moralne. Autorzy badania zauważają, że crowdsourcing danych online wiąże się z uprzedzeniami. Jednak nawet przy dużej próbie liczba pytań była ograniczona. A jeśli ryzyko zmieni się w zależności od podjętej decyzji? A jeśli algorytm obliczy, że masz tylko 50% szans na zabicie pieszych, biorąc pod uwagę prędkość, z jaką się poruszałeś?

Edmond Awad, jeden z autorów badania, zwrócił uwagę na nadmierną interpretację wyników. Jego zdaniem dyskusja powinna przejść do analizy ryzyka - kto jest bardziej lub mniej zagrożony - zamiast decydować, kto umiera, a kto nie.

Ale najważniejszym wynikiem badania była dyskusja, która wybuchła na jego ziemi. Ponieważ algorytmy zaczynają podejmować coraz ważniejsze decyzje wpływające na życie ludzi, konieczne jest, abyśmy stale dyskutowali o etyce sztucznej inteligencji. Projektowanie „sztucznego sumienia” musi uwzględniać opinię wszystkich. Chociaż odpowiedzi nie zawsze są łatwe do znalezienia, najlepiej jest spróbować stworzyć ramy moralne dla algorytmów, nie pozwalając algorytmom na samodzielne kształtowanie świata bez ludzkiej kontroli.