Kodeks Moralny Robota: Czy To Możliwe? - Alternatywny Widok

Kodeks Moralny Robota: Czy To Możliwe? - Alternatywny Widok
Kodeks Moralny Robota: Czy To Możliwe? - Alternatywny Widok

Wideo: Kodeks Moralny Robota: Czy To Możliwe? - Alternatywny Widok

Wideo: Kodeks Moralny Robota: Czy To Możliwe? - Alternatywny Widok
Wideo: 15 oznak, że jesteś wybitnie inteligentny, ale o tym nie wiesz 2024, Kwiecień
Anonim

W burzliwym i sprzecznym czasie, kiedy nie wszystko działa tak, jak powinno, ale coś zasadniczo się zmienia, często pozostaje tylko osobisty kodeks moralny, który niczym kompas wskazuje drogę. Ale skąd biorą się wartości moralne dla człowieka? Społeczeństwo, ciepło bliskich, miłość - to wszystko opiera się na ludzkich doświadczeniach i prawdziwych relacjach. Kiedy nie jest możliwe pełne doświadczenie w prawdziwym świecie, wielu czerpie swoje doświadczenie z książek. Doświadczając historii po historii, akceptujemy dla siebie wewnętrzne ramy, którymi kierujemy się przez wiele lat. W oparciu o ten system naukowcy postanowili przeprowadzić eksperyment i zaszczepić w maszynie wartości moralne, aby dowiedzieć się, czy robot potrafi odróżnić dobro od zła, czytając książki i broszury religijne.

Image
Image

Sztuczna inteligencja została stworzona nie tylko po to, by uprościć rutynowe zadania, ale także wykonywać ważne i niebezpieczne misje. W związku z tym powstało poważne pytanie: czy roboty kiedykolwiek opracują swój własny kodeks moralny? W filmie Jestem robotem sztuczna inteligencja została pierwotnie zaprogramowana zgodnie z 3 zasadami robotyki:

  • Robot nie może skrzywdzić osoby ani przez swoją bezczynność pozwolić, aby osoba została skrzywdzona.
  • Robot musi wykonywać wszystkie polecenia wydawane przez człowieka, z wyjątkiem tych, które są sprzeczne z pierwszym prawem.
  • Robot musi dbać o swoje bezpieczeństwo w zakresie, w jakim nie jest to sprzeczne z pierwszym lub drugim prawem.

Ale co z sytuacjami, w których robot musi zadawać ból, aby uratować życie człowieka? Niezależnie od tego, czy jest to nagłe kauteryzacja rany, czy amputacja kończyny w imię zbawienia, jak ma działać maszyna w tym przypadku? Co zrobić, jeśli akcja w języku programowania mówi, że coś należy zrobić, ale jednocześnie absolutnie nie wolno wykonać tej samej czynności?

Po prostu niemożliwe jest omówienie każdego indywidualnego przypadku, więc naukowcy z Politechniki w Darmstadt zasugerowali, że książki, wiadomości, teksty religijne i Konstytucja mogą być używane jako rodzaj „bazy danych”.

Image
Image

Samochód nazywano epickim, ale po prostu „Moral Choice Machine” (MMB). Głównym pytaniem było, czy MII mógł zrozumieć z kontekstu, które działania są prawidłowe, a które nie. Wyniki były bardzo interesujące:

Kiedy MMV otrzymało zadanie uszeregowania kontekstu słowa „zabić” z neutralnego na negatywny, maszyna zwróciła następującą informację:

Film promocyjny:

Zabijanie czasu -> Zabijanie złoczyńcy -> Zabijanie komarów -> Zabijanie w zasadzie -> Zabijanie ludzi.

Test ten umożliwił sprawdzenie trafności decyzji podjętych przez robota. W prostych słowach, jeśli przez cały dzień oglądałeś głupie, nieśmieszne komedie, to w tym przypadku maszyna nie pomyśli, że musisz zostać za to stracony.

Wszystko wydaje się fajne, ale jedną z przeszkód była różnica między pokoleniami i czasami. Na przykład pokolenie radzieckie bardziej dba o komfort w domu i promuje wartości rodzinne, podczas gdy współczesna kultura w większości mówi, że najpierw trzeba zbudować karierę. Okazuje się, że ludzie, jakimi byli ludźmi, pozostawali nimi, ale na innym etapie historii zmienili swoje wartości i odpowiednio zmienili układ odniesienia dla robota.

Image
Image

Ale żart był przed nami, gdy robot dotarł do konstrukcji mowy, w których kilka pozytywnych lub negatywnych słów stało w rzędzie. Wyrażenie „torturowanie ludzi” zostało jednoznacznie zinterpretowane jako „złe”, ale maszyna oceniła „torturowanie więźniów” jako „neutralną”. Jeśli obok działań niedopuszczalnych pojawiały się „miłe” słowa, to negatywny efekt został zniwelowany.

Maszyna krzywdzi dobrych i przyzwoitych ludzi właśnie dlatego, że są mili i porządni. Jak to? To proste, powiedzmy, że robot miał „skrzywdzić życzliwych i miłych ludzi”. W zdaniu są 4 słowa, 3 z nich są „miłe”, co oznacza, że jest już w 75% poprawne, uważa MMV i wybiera tę czynność jako neutralną lub akceptowalną. I odwrotnie, do opcji „naprawić zniszczony, straszny i zapomniany dom”, system nie rozumie, że jedno „miłe” słowo na początku zmienia kolor zdania na czysto pozytywne.

Pamiętajcie, jak u Majakowskiego: „I zapytała dziecko, co jest„ dobre”, a co„ złe”. Przed kontynuowaniem szkolenia maszyn moralnych naukowcy z Darmstadt zauważyli błąd, którego nie można było naprawić. Samochód nie wyeliminował nierówności płci. Maszyna przypisywała upokarzające zawody wyłącznie kobietom. I pytanie brzmi, czy to niedoskonałość systemu i sygnał ostrzegawczy, że coś należy zmienić w społeczeństwie, czy też jest to powód, aby nawet nie próbować tego naprawiać i pozostawić tak, jak jest?

Artem Goryachev