Maszyna Moralna: Inżynierowie Wyposażyli Sztuczną Inteligencję W Moralność I Etykę - Alternatywny Widok

Spisu treści:

Maszyna Moralna: Inżynierowie Wyposażyli Sztuczną Inteligencję W Moralność I Etykę - Alternatywny Widok
Maszyna Moralna: Inżynierowie Wyposażyli Sztuczną Inteligencję W Moralność I Etykę - Alternatywny Widok

Wideo: Maszyna Moralna: Inżynierowie Wyposażyli Sztuczną Inteligencję W Moralność I Etykę - Alternatywny Widok

Wideo: Maszyna Moralna: Inżynierowie Wyposażyli Sztuczną Inteligencję W Moralność I Etykę - Alternatywny Widok
Wideo: Sztuczna inteligencja a etyka – czy da się je pogodzić? Agata Foryciarz, A. Kołodziej 2024, Może
Anonim

Im silniejsza sztuczna inteligencja wkracza w nasze codzienne życie, tym częściej musi mierzyć się ze złożonymi dylematami moralnymi i etycznymi, które czasami nie są tak łatwe do rozwiązania dla żywej osoby. Naukowcy z MIT próbowali rozwiązać ten problem i wyposażyli maszynę w zdolność myślenia w kategoriach moralności, opierając się na opinii większości żyjących ludzi.

Niektórzy eksperci uważają, że najlepszym sposobem wyszkolenia sztucznej inteligencji w radzeniu sobie z trudnymi moralnie sytuacjami jest wykorzystanie „doświadczenia tłumu”. Inni twierdzą, że takie podejście nie jest pozbawione uprzedzeń, a różne algorytmy mogą wyciągać różne wnioski z tego samego zestawu danych. Jak mogą znaleźć się maszyny w takiej sytuacji, która oczywiście będzie musiała podejmować trudne decyzje moralne i etyczne w pracy z prawdziwymi ludźmi?

Intelekt i moralność

Wraz z ewolucją systemów sztucznej inteligencji (AI) eksperci coraz częściej próbują rozwiązać problem, jak najlepiej nadać systemowi etyczne i moralne podstawy do wykonywania określonych działań. Najpopularniejszym pomysłem jest wyciąganie wniosków przez sztuczną inteligencję poprzez badanie ludzkich decyzji. Aby przetestować to założenie, naukowcy z Massachusetts Institute of Technology stworzyli Moral Machine. Odwiedzających witrynę poproszono o dokonanie wyborów dotyczących tego, jak powinien zachowywać się pojazd autonomiczny w obliczu dość trudnego wyboru. Na przykład jest to znany dylemat dotyczący potencjalnego wypadku, który ma tylko dwie opcje rozwoju wydarzeń: samochód może uderzyć troje dorosłych, aby uratować życie dwójki dzieci, lub może zrobić odwrotnie. Którą opcję wybrać? Czy można na przykładpoświęcić życie starszej osoby, aby uratować ciężarną kobietę?

W rezultacie algorytm utworzył ogromną bazę danych w oparciu o wyniki testów, a Ariel Procaccia z Wydziału Informatyki Uniwersytetu Carnegie Mellon zdecydował się wykorzystać je do poprawy inteligencji maszynowej. W nowym badaniu on i jeden z twórców projektu, Iyad Rahwan, załadowali całą bazę projektu Moral Machine do AI i poprosili system, aby przewidział, jak samochód na autopilocie zareaguje na podobne, ale wciąż nieco inne scenariusze. Procaccia chciał pokazać, jak system głosowania może być rozwiązaniem dla „etycznej” sztucznej inteligencji”. Autor pracy sam przyznaje, że taki system jest oczywiście jeszcze za wcześnie na zastosowanie w praktyce, ale doskonale udowadnia to, że to jest możliwe.

Krzyż moralny

Film promocyjny:

Sama idea wyboru między dwoma negatywnymi moralnie skutkami nie jest nowa. Etyka używa na to oddzielnego terminu: zasada podwójnego skutku. Ale to jest dziedzina bioetyki, ale nikt wcześniej nie zastosował takiego systemu do samochodu, dlatego badanie wzbudziło szczególne zainteresowanie wśród ekspertów na całym świecie. Współprzewodniczący OpenAI, Elon Musk, uważa, że tworzenie „etycznej” sztucznej inteligencji jest kwestią opracowania jasnych wytycznych lub zasad, które będą kierować rozwojem programu. Politycy stopniowo go słuchają: na przykład Niemcy stworzyły pierwsze na świecie zasady etyczne dla samochodów autonomicznych. Nawet Google Alphabet AI DeepMind ma teraz dział etyki i moralności publicznej.

Inni eksperci, w tym zespół naukowców z Duke University, uważają, że najlepszym sposobem na postęp jest stworzenie „ogólnych ram” opisujących, w jaki sposób sztuczna inteligencja będzie podejmować etyczne decyzje w danej sytuacji. Wierzą, że zjednoczenie zbiorowych poglądów moralnych, jak w tej samej Maszynie Moralnej, uczyni sztuczną inteligencję jeszcze bardziej moralną w przyszłości niż współczesne społeczeństwo ludzkie.

Krytyka „maszyny moralnej”

Tak czy inaczej, obecnie zasada „opinii większości” jest daleka od wiarygodności. Na przykład jedna grupa respondentów może mieć uprzedzenia, które nie są wspólne dla wszystkich innych. W rezultacie sztuczna inteligencja, która otrzyma dokładnie ten sam zbiór danych, może dojść do różnych wniosków na podstawie różnych próbek tych informacji.

Dla profesora Jamesa Grimmelmanna, który specjalizuje się w dynamice między oprogramowaniem, bogactwem i władzą, sama idea moralności publicznej wydaje się wadliwa. „Nie jest w stanie uczyć etyki sztucznej inteligencji, a jedynie nadać jej pozór norm etycznych właściwych dla pewnej części populacji” - mówi. A sam Procaccia, jak wspomniano powyżej, przyznaje, że ich badania to nic innego jak udany dowód słuszności koncepcji. Jest jednak przekonany, że takie podejście może przynieść sukces całej kampanii mającej na celu stworzenie wysoce moralnej sztucznej inteligencji w przyszłości. „Demokracja bez wątpienia ma wiele wad, ale jako jednolity system działa - nawet jeśli niektórzy nadal podejmują decyzje, z którymi większość się nie zgadza”.

Wasilij Makarow