Czy Chronią Nas „trzy Prawa Robotyki”? - Alternatywny Widok

Spisu treści:

Czy Chronią Nas „trzy Prawa Robotyki”? - Alternatywny Widok
Czy Chronią Nas „trzy Prawa Robotyki”? - Alternatywny Widok

Wideo: Czy Chronią Nas „trzy Prawa Robotyki”? - Alternatywny Widok

Wideo: Czy Chronią Nas „trzy Prawa Robotyki”? - Alternatywny Widok
Wideo: Dlaczego prawa robotyki Asimova nie działają – komputerowiec 2024, Kwiecień
Anonim

Minęło 50 lat, odkąd Izaak Asimov wymyślił swoje słynne Trzy prawa robotyki - zestaw zasad, których musi przestrzegać każdy szanujący się robot. Chociaż początkowo było to tylko narzędzie literackie, te trzy prawa stały się oryginalną receptą na uniknięcie „robotokalipsy”. Na szczęście są eksperci, którzy szukają pewności, czy gwarancje Azimowa przetrwały próbę czasu. Niestety wszyscy mówią nie.

Na początek przypomnijmy sobie te same trzy prawa:

Robot nie może skrzywdzić osoby ani przez swoją bezczynność pozwolić, aby osoba została skrzywdzona.

Robot musi wykonywać wszystkie polecenia wydawane przez człowieka, z wyjątkiem tych, które są sprzeczne z pierwszym prawem.

Robot musi dbać o swoje bezpieczeństwo w zakresie, w jakim nie jest to sprzeczne z pierwszym i drugim prawem.

Później Azimov dodał czwarte, czyli zero, prawo, które wyprzedziło pozostałe pod względem priorytetu:

Film promocyjny:

0. Robot nie może skrzywdzić człowieka, chyba że może udowodnić, że ostatecznie przyniesie korzyści całej ludzkości.

Image
Image

W fantastycznym świecie Asimova prawie wszystkie roboty musiały przestrzegać tych praw. To nie były tylko sugestie czy wytyczne - w oprogramowanie wbudowano prawa. Ponadto zasad tych nie można obejść, przepisać ani zmienić.

Jak pokazał sam Asimov, niedoskonałości, luki i niejasności w tych prawach często prowadziły do dziwnych i nielogicznych zachowań robotów. Prawa były zbyt niejasne i często nie definiowały i nie odróżniały „ludzi” od „robotów”. Ponadto roboty mogły nieświadomie łamać prawa, jeśli nie miały dostępu do pełnych informacji. Poza tym zbyt przebiegły robot lub sztuczna inteligencja musiały być pod presją, aby nie przeprogramowywać swojego rdzenia.

Jest rok 2014 i wiele rzeczy powszednich, od naszego życia po fantazje ubiegłego wieku, może wydawać się po prostu fantazją. Wiele osób uważało, że prawa Asimova powinny pozostać jako narzędzie literackie. Ale sam Azimov zauważył w 1981 roku, że jego prawa mogą działać. Compute! wskazał, co następuje:

„Gdy ktoś mnie zapyta, jak by to było, gdyby moje trzy prawa robotyki zostały faktycznie użyte do zdefiniowania zachowania robotów, odpowiedź jest gotowa. Oczywiście pod warunkiem, że roboty są wystarczająco elastyczne i wszechstronne, aby wykazywać różne zachowania. Moja odpowiedź brzmi: tak, te trzy prawa to jedyny sposób, w jaki ludzie mogą wchodzić w interakcje z robotami - lub cokolwiek innego.

Prawie trzydzieści lat później zbliżyliśmy się do rzeczywistości, w której będziemy mieć roboty - a dokładniej sterującą nimi sztuczną inteligencję - wystarczająco elastyczną i wszechstronną do różnych zachowań. Pozostaje tylko kwestią czasu: kiedy maszyna przewyższa człowieka pod każdym względem, od siły fizycznej po siłę wyobraźni.

Przerażające jest to, że praktycznie nie ma marginesu błędu. Jeśli sztuczna superinteligencja jest słabo zaprogramowana lub obojętna na ludzi, doprowadzi to do katastrofy. Musimy się upewnić, że sztuczna inteligencja jest bezpieczna, jeśli chcemy przetrwać jej pojawienie się”.

Odpowiedz na pytanie "czy trzy prawa Azimova mogą pomóc?" Dwóch teoretyków sztucznej inteligencji przejęło kontrolę: Ben Herzel (Aidyia Holdings) i Louis Helm, zastępca dyrektora Machine Intelligence Research Institute (MIRI) i redaktor naczelny magazynu Rockstar Research. Po rozmowie z nimi stało się jasne, że prawa Asimova w ogóle nie radzą sobie z powierzonym im zadaniem, a jeśli będziemy musieli stworzyć bezpieczną sztuczną inteligencję, będziemy musieli opracować coś zupełnie innego.

Przyszłość Asima?

Image
Image

Rozmowa z Herzelem i Helmem rozpoczęła się od tego, w czym Asimov się nie mylił, przewidując przyszłość i gdzie się mylił.

„Myślę, że ten typ robotów, jaki przewidywał Asimov, będzie możliwy w niedalekiej przyszłości” - odpowiada Herzel. - Jednak w większości swoich fikcyjnych światów pisarz zakładał, że humanoidalne roboty będą szczytem robotyki i inżynierii sztucznej inteligencji. To mało prawdopodobne. Wkrótce, po osiągnięciu statusu robotów Azimov, będzie możliwe tworzenie sztucznych superinteligencji i super robotów”.

Zatem typowy świat przyszłości w opowieściach Asimova o robotach, według Herzela, będzie podobny do tego, w którym żyjemy dzisiaj, ale z inteligentnymi robotami chodzącymi po ulicach.

„Jest mało prawdopodobne, że tak się stanie, a jeśli tak się stanie, nie będzie to długo opóźniane”.

W przypadku Helma roboty wydają się być zupełnie inne.

„Głównym problemem, który moim zdaniem będzie najważniejszy dla ludzkości, nie pozostaje moralna regulacja gigantycznej liczby półinteligentnych humanoidów, ale ostatecznie rozwój zaawansowanych form sztucznej inteligencji (w każdym ciele). Ten rozwój superinteligencji jest filtrem, przez który ludzkość musi w końcu przejść. Dlatego tak ważne jest opracowanie strategii bezpieczeństwa dla tego przejścia. Wydaje mi się całkowicie dziwne, że roboty, androidy czy „emulacje” będą istnieć przez dziesięć lat lub dłużej, dopóki ludzkość nie stanie przed prawdziwym problemem rozwijania etyki maszynowej dla superinteligencji”.

Dobry start?

Image
Image

Biorąc pod uwagę, że trzy prawa robotyki Asimova były pierwszą szczerą próbą rozwiązania bardzo poważnego problemu - problemu bezpiecznego zachowania maszyn ze sztuczną superinteligencją - warto poszukać takich momentów, w których prawa nadal mogą być skuteczne (lub przynajmniej inspirujące).

„Szczerze mówiąc, nie znajduję żadnej inspiracji w tych trzech prawach robotyki” - mówi Helm. - Istotą etyki maszyn jest to, że nie spełniają one podstaw etyki maszyn. Być może te trzy prawa robotyki są szeroko znane, ale w rzeczywistości używanie ich jako podstawy programowania jest bezużyteczne”.

„Z jakiegoś powodu system dobrej etyki - zwany deontologią - stał się niewiarygodną podstawą etyki. Jest wielu filozofów, którzy próbują rozwiązać problemy deontologii, ale w większości są to ci sami ludzie, którzy szukają „inteligentnego projektu” i „boskiej interwencji”. Nikt nie traktuje ich poważnie”.

Wady trzech praw robotyki Asimova sprowadzają się do następujących kwestii:

Przeciwstawny charakter

Oparty na przestarzałej teorii etycznej (deontologia)

Nawet nie pracuj w fikcji

Herzel zgadza się:

„Celem tych trzech praw było ich złamanie w interesujący sposób; dlatego ich historie są szczególnie zabawne. Dlatego te trzy prawa mogą pozostać tylko moralnym przykładem tego, jak tego nie robić. Jeśli weźmiemy je za podstawę, nieuchronnie pojawią się w nich luki”.

Herzel uważa, że w rzeczywistości te prawa nie sprawdzą się, ponieważ terminy z ich udziałem są niejednoznaczne i pozostają przedmiotem interpretacji - co oznacza, że są one niezwykle zależne od tych, którzy dokonują tłumaczeń.

Uprzedzenie wobec robotów?

Innym aspektem (i potencjalną wadą) Trzech Praw w pozornym szowinizmie jest założenie, że roboty powinny pozostać podporządkowane człowiekowi, ludzkim potrzebom i priorytetom, pomimo swej nadrzędnej mocy.

„Społeczeństwo przyszłości Azimowa składa się wyłącznie z szowinistów: ludzie mają znacznie więcej praw niż roboty. Trzy prawa robotyki zostały stworzone po to, aby utrzymać taki porządek społeczny”.

Image
Image

Helm patrzy na ten problem nieco inaczej, argumentując, że jeśli znajdziemy się w takiej sytuacji, to samo w sobie będzie dowodem na to, że zaszliśmy za daleko.

„Myślę, że nierozsądne byłoby zaprojektowanie systemu sztucznej inteligencji lub samoświadomego robota. I w przeciwieństwie do filmów czy książek, w których twórcy sztucznej inteligencji „przypadkowo” trafiają do inteligentnych maszyn, nie wierzę, że może się to zdarzyć w prawdziwym życiu. Będzie to wymagało zbyt wiele wysiłku i wiedzy. A większość projektantów sztucznej inteligencji to ludzie z rozsądkiem etycznym, więc będą unikać tworzenia tego, co filozofowie nazywają „istotami znaczącymi moralnie”. Zwłaszcza, gdy z łatwością mogą stworzyć zaawansowaną maszynę, która nie ma etycznych skłonności”.

Helm nie przejmuje się potrzebą opracowania asymetrycznych praw rządzących wartością robotów nad ludźmi, argumentując (i mając nadzieję), że przyszli twórcy sztucznej inteligencji będą polegać na pewnych etycznych ograniczeniach.

„Wydaje mi się, że ludzie są zbudowani z atomów, więc teoretycznie inżynier może stworzyć syntetyczną formę życia lub robota o moralnym znaczeniu. Chciałbym myśleć, że nikt tego nie zrobi. Myślę, że większość ludzi też. Ale nieuchronnie znajdzie się głupiec, który chce być znany jako pionier, nawet jeśli jest to nieetyczne i głupie”.

Trzy prawa robotyki 2.0?

Biorąc pod uwagę oczywiste wady trzech praw robotyki Asimova, zasób io9 zadał pytanie: czy można je poprawić lub poprawić? W rzeczywistości wielu pisarzy science fiction próbowało tego wiele razy, ulepszając to przez lata.

„Nie” - mówi Helm. „Nie ma poprawek dla tych trzech praw”.

Oprócz swojej sprzeczności, prawa mają również charakter przeciwstawny.

„Jestem zwolennikiem podejść do etyki maszynowej, które są bardziej kooperatywne, spójniejsze i bardziej normatywne, co oznacza, że mogą one naprawić nieporozumienia lub poprawić nieprawidłowe programowanie”.

Herzel powtarza twierdzenia Helma.

Zdefiniowanie zestawu zasad etycznych jako rdzenia etyki maszynowej będzie beznadziejne, jeśli maszyna będzie oparta na elastycznej ogólnej sztucznej inteligencji. Jeśli zostanie pomyślany jako intuicyjny, elastyczny, adaptacyjny lub etyczny - w tym kontekście zasady etyczne będą użyteczne dla systemu tylko jako przybliżona wskazówka do zastosowania własnej intuicji etycznej. Ale w tym przypadku przykazania nie staną się podstawą systemu etycznego, a jedynie aspektem. Widać to na ludzkich przykładach - zasady etyczne, które badamy, działają, ale nie jako wytyczne, tylko popychają naszą intuicję i instynkty etyczne. Jesteśmy praktycznie niezależni od zasad etycznych”.

Jak stworzyć bezpieczną sztuczną inteligencję?

Biorąc pod uwagę nieadekwatność podejścia prawnego, można zapytać Gertzela i Helma o nowoczesne podejście do problemu „bezpiecznej sztucznej inteligencji”.

„Bardzo niewielu badaczy zajmujących się sztuczną inteligencją uważa, że możliwe jest stworzenie systemu, który jest całkowicie bezpieczny” - mówi Herzel. „Ale większości to nie przeszkadza, ponieważ w tym życiu nic nie można zagwarantować”.

Herzel uważa, że kiedy stworzymy ogólny system sztucznej inteligencji lub jego embrion, będziemy mogli przeprowadzić badania i eksperymenty, które powiedzą nam znacznie więcej o etyce sztucznej inteligencji, niż wiemy.

„Miejmy nadzieję, że w ten sposób będziemy mogli sformułować dobre teorie na temat etyki sztucznej inteligencji, które pozwolą nam zagłębić się w ten temat. Ale teraz raczej trudno jest teoretyzować na temat etyki sztucznej inteligencji, ponieważ nie mamy tylko dobrych teorii, nie mamy żadnych teorii”.

„A ludziom, którzy obejrzeli zbyt wiele terminatorów, proces tworzenia sztucznej inteligencji może wydawać się onieśmielający, ponieważ brakuje im w tym kontekście słowa„ prymitywny”. Jednak najbardziej radykalne zmiany zaszły w ten sposób”.

„Kiedy grupa inteligentnych jaskiniowców wynalazła język, nie spodziewali się opracowania solidnej formalnej teorii języka, która pomogłaby przewidzieć przyszłe zmiany spowodowane pojawieniem się języka w społeczeństwie”.

Zanim rozważymy rozwój kolejnych „trzech praw” jako problem techniczny, należy przeprowadzić wiele badań. I w tym miejscu Helm i Herzel zgadzają się.

„Mój kolega z MIRI Luc Muelhauser podsumował nasze rozumowanie w następujący sposób. Powiedział, że problemy często przechodzą od filozofii do matematyki, a następnie do inżynierii. Często filozofii zadaje się właściwe pytania, ale w najbardziej niepraktyczny sposób. Nikt nie może z całą pewnością stwierdzić, czy nastąpił postęp w rozwiązaniu problemu. Jeśli uda nam się przeformułować ważne filozoficzne problemy rozumu, identyfikacji i wartości w precyzyjne formuły, z którymi może sobie poradzić matematyk, wówczas można zbudować pewien model. Pewnego pięknego dnia przyjdzie do inżynierii”.

Helm uważa ten problem za trudny dla nauki i filozofii, ale postęp jest możliwy.

„Jestem sceptyczny, że filozofia będzie w stanie rozwiązać problem, z którym borykamy się od ponad 3000 lat. Ale my także nie możemy przyjąć i zacząć tworzyć modeli matematycznych pytań, które nie są technicznie obecne. Nadal potrzebujemy wielu rozwiązań teoretycznych, a nawet praktycznych”.

Zalecane: