Dlaczego źle Rozumiesz Robo-apokalipsę - Alternatywny Widok

Spisu treści:

Dlaczego źle Rozumiesz Robo-apokalipsę - Alternatywny Widok
Dlaczego źle Rozumiesz Robo-apokalipsę - Alternatywny Widok

Wideo: Dlaczego źle Rozumiesz Robo-apokalipsę - Alternatywny Widok

Wideo: Dlaczego źle Rozumiesz Robo-apokalipsę - Alternatywny Widok
Wideo: Jeśli zobaczysz to na niebie, masz kilka sekund na ukrycie 2024, Kwiecień
Anonim

Strach przed sztuczną inteligencją od dawna jest zakorzeniony w kulturze popularnej. Najwspanialsze umysły ludzkości, od Stephena Hawkinga po Elona Muska, mówiły o egzystencjalnym zagrożeniu ludzkości ze strony cyfrowego umysłu.

Mówi o tym również profesor Uniwersytetu Kalifornijskiego w Berkeley Stuart Russell, ale w jego wizji przyszłości nie ma złych robotów buntujących się przeciwko ludzkiej dominacji.

Według Russella w pewnym momencie maszyny staną się po prostu na tyle efektywne, że nas zniszczą, wykonując powierzone im zadania.

Russell jest ekspertem w dziedzinie uczenia maszynowego i autorem książki Human Compatible: AI and the Problem of Control.

„Tradycyjna historia Hollywood mówi, że maszyny spontanicznie stają się świadome, a następnie decydują, że nienawidzą ludzi i chcą zabić wszystkich” - zauważa profesor Russell.

Ale to jego zdaniem błędna wizja roboapokalipsy, ponieważ maszyny nie mają ludzkich emocji.

„Musimy martwić się nie samoświadomością złych maszyn, ale kompetencjami maszyn, które wykonują wyznaczone przez nas zadania” - przekonuje naukowiec.

Film promocyjny:

„Zbyt kompetentny”

W rozmowie z BBC Today profesor Russell opisał hipotetyczną sytuację, w której istnieniu ludzkości może zagrozić sztuczna inteligencja.

Wyobraź sobie, że istnieje super-potężna sztuczna inteligencja, która może kontrolować klimat na planecie. Jego zadaniem jest przywrócenie poziomu dwutlenku węgla w atmosferze do poziomu sprzed epoki przemysłowej.

Image
Image

„System uzna, że najskuteczniejszym sposobem na to jest niszczenie ludzi. Wytwarzają dwutlenek węgla”- mówi profesor.

„Można to obejść, na przykład, czyniąc z niej warunek, aby nie pozbywać się ludzi. Co wtedy zrobi system? Dopilnuje, aby rodziło się coraz mniej dzieci, aż ludzie całkowicie znikną”.

To jest przykład tego, do czego może doprowadzić sztuczna inteligencja przy nieprzemyślanych ludzkich instrukcjach.

Superinteligencja

Istniejące dziś systemy SI mają wąsko ukierunkowane aplikacje. Mają na celu rozwiązanie jasno określonych problemów w jednym obszarze - twierdzą naukowcy z Center for the Study of Existential Risks na Uniwersytecie Cambridge.

Triumfalnym momentem dla tej filozofii AI było zwycięstwo komputera Deep Blue nad panującym mistrzem świata w szachach Garrym Kasparowem w 1997 roku.

* Zwycięstwo Deep Blue nad Kasparowem w 1997 roku było triumfem AI
* Zwycięstwo Deep Blue nad Kasparowem w 1997 roku było triumfem AI

* Zwycięstwo Deep Blue nad Kasparowem w 1997 roku było triumfem AI.

Ale Deep Blue został stworzony wyłącznie do gry w szachy. W warcabach przegrałby z piątoklasistą.

Ostatnie postępy w sztucznej inteligencji przyniosły nam bardzo różne programy.

Na przykład program AlphaGo Zero nauczył się samodzielnie grać w Go, bez korzystania z danych z poprzednich gier, w które grali ludzie, iw zaledwie trzy dni zabawy z samym sobą osiągnął poziom nieosiągalny dla zwykłego człowieka.

Do stworzenia AlphaGo Zero wykorzystano algorytmy głębokiego uczenia. Oznacza to, że opracowanie programu wymagało stosunkowo niewielkiej pracy ludzkiej.

Jednocześnie AlphaGo Zero wie, jak dobrze grać zarówno w szachy, jak i shogi.

Przypomnij sobie, że program jest całkowicie samouczący się. Może to budzić niepokój niektórych.

„W miarę jak sztuczna inteligencja staje się coraz potężniejsza i bardziej wszechstronna, istnieje ryzyko, że stanie się superinteligentna, to znaczy przewyższy ludzi w wielu lub we wszystkich dziedzinach” - mówi Centrum Badań nad Ryzykiem Egzystencjalnym.

„Nie wiemy, czego chcemy”

Profesor Russell uważa, że po prostu powierzenie sztucznej inteligencji bardzo konkretnych zadań nie jest wyjściem, ponieważ sami ludzie nie są w stanie ich wystarczająco dobrze sformułować.

Image
Image

„Nie zdajemy sobie sprawy, że coś nam się nie podoba, dopóki to się nie stanie” - mówi.

„Musimy zmienić bardzo podstawowe podejście do tworzenia systemów AI” - dodaje profesor. Uważa, że powierzanie robotom zadania, które następnie wykonują, jest zasadniczo błędne.

„System musi zrozumieć, że cel nie jest dla niego jasny. on mówi. - Kiedy takie systemy są tworzone, naprawdę zależą od osoby. Zaczynają prosić o pozwolenie, zanim coś zrobią, ponieważ nie są pewni, czy chcesz”.

Co najważniejsze, mówi profesor, nie będą się opierać, jeśli zdecydujesz się je wyłączyć, ponieważ są zaprojektowane tak, aby nie robić tego, czego nie lubisz.

Lampa Alladyna

Współczesna sztuczna inteligencja jest tworzona tak, jakby była dżinem z lampy, mówi profesor Russell. Pocierasz lampę i mówisz: „Chcę, żeby to się stało”.

W 2001 * A Space Odyssey * Stanleya Kubricka superinteligentny komputer buntuje się przeciwko ludziom, którzy zdecydują się go wyłączyć
W 2001 * A Space Odyssey * Stanleya Kubricka superinteligentny komputer buntuje się przeciwko ludziom, którzy zdecydują się go wyłączyć

W 2001 * A Space Odyssey * Stanleya Kubricka superinteligentny komputer buntuje się przeciwko ludziom, którzy zdecydują się go wyłączyć.

A jeśli sztuczna inteligencja jest wystarczająco potężna, zrobi dokładnie to, o co poprosisz.

„Problem z ginem polega na tym, że trzecim życzeniem jest zawsze anulowanie pierwszych dwóch, ponieważ osoba źle je sformułowała”.

„Maszyna, która dąży do złego celu, staje się de facto wrogiem ludzkości, a ten wróg jest znacznie silniejszy od nas” - podsumowuje naukowiec.