Bazyliszek Roco: Najbardziej Przerażający Eksperyment Myślowy W Historii - Alternatywny Widok

Bazyliszek Roco: Najbardziej Przerażający Eksperyment Myślowy W Historii - Alternatywny Widok
Bazyliszek Roco: Najbardziej Przerażający Eksperyment Myślowy W Historii - Alternatywny Widok

Wideo: Bazyliszek Roco: Najbardziej Przerażający Eksperyment Myślowy W Historii - Alternatywny Widok

Wideo: Bazyliszek Roco: Najbardziej Przerażający Eksperyment Myślowy W Historii - Alternatywny Widok
Wideo: Filmy z NAJCIEMNIEJSZYCH ZAKAMARKÓW internetu 2024, Może
Anonim

Bazyliszek Roco to boska forma sztucznej inteligencji, tak niebezpieczna, że jeśli tylko o tym pomyślisz, resztę swoich dni spędzisz na przerażających torturach. Wygląda jak kaseta z filmu „The Ring”. Jednak nawet śmierć nie będzie wyzwoleniem, ponieważ Bazyliszek Roko wskrzesi cię i będzie kontynuował swoje tortury. T&P przedstawia tłumaczenie artykułu o jednej z najdziwniejszych legend generowanych w Internecie.

OSTRZEŻENIE: Po przeczytaniu tego artykułu możesz skazać się na wieczne cierpienia i męki.

Bazyliszek Roco pojawił się na styku filozoficznego eksperymentu myślowego i miejskiej legendy. Pierwsza wzmianka o nim pojawiła się na forum dyskusyjnym Less Wrong, które skupia osoby zainteresowane optymalizacją myślenia i życia przez pryzmat matematyki i racjonalności. Jego twórcy są znaczącymi postaciami techno-futuryzmu, a do osiągnięć ich instytutu badawczego należy wkład w akademicką debatę na temat etyki technologicznej i teorii decyzji. Jednak to, co teraz przeczytasz, może wydawać się dziwne, a nawet szalone. Mimo to wierzą w to bardzo wpływowi i zamożni naukowcy.

Pewnego dnia użytkownik o imieniu Roko opublikował następujący eksperyment myślowy: A co, jeśli w przyszłości pojawi się złośliwa sztuczna inteligencja, która chce ukarać tych, którzy nie wykonują jej rozkazów? A co, jeśli chce ukarać tych ludzi, którzy w przeszłości nie przyczynili się do jego stworzenia? Czy mniej błędni czytelnicy pomogliby wtedy powstaniu złej sztucznej inteligencji, czy też byliby skazani na wieczne męki?

Założyciel Less Wrong, Eliezer Yudkowski, przyjął oświadczenie Roko ze złością. Oto, co mu odpowiedział: „Musisz być mądry, jeśli wpadłeś na ten pomysł. Zasmuca mnie jednak, że ludzie, którzy są na tyle sprytni, by sobie coś takiego wyobrazić, nie są na tyle sprytni, by ZATRZYMAĆ SWÓJ GŁUPI JĘZYK PO ZĘBACH i nikomu o tym nie mówić, bo to jest ważniejsze niż wykazanie się bystrością, mówienie o tym wszystkim swoim znajomym” …

„A co, jeśli w przyszłości pojawi się sztuczna inteligencja, która będzie chciała karać tych, którzy nie wykonują jej rozkazów?”

Yudkowski przyznał, że Roko był odpowiedzialny za koszmary użytkowników Less Wrong, którzy przeczytali wątek i usunął go, czyniąc Bazyliszka Roko legendarnym. Ten eksperyment myślowy stał się tak niebezpieczny, że myślenie o nim zagrażało zdrowiu psychicznemu użytkownika.

Co robi mniej złego? Kształtowanie się koncepcji przyszłości ludzkości w oparciu o osobliwość. Wierzą, że moc obliczeniowa w przyszłości wzrośnie na tyle, że sztuczną inteligencję można będzie stworzyć przy pomocy komputera - a wraz z nim możliwość przesłania ludzkiej świadomości na dysk twardy. Termin „osobliwość” powstał w 1958 roku podczas dyskusji między dwoma geniuszami matematyki - Stanislavem Ulamem i Johnem von Neumannem, kiedy Neumann powiedział: „Stale przyspieszający postęp technologii umożliwi zbliżenie się do osobliwości, w której technologia nie może być zrozumiana przez ludzi”. Futuryści i pisarze science fiction, tacy jak Vernor Vinge i Raymond Kurzweil, spopularyzowali ten termin, ponieważ wierzyli, że Osobliwość czeka na nas wkrótce - w ciągu najbliższych 50 lat. Podczas gdy Kurzweil przygotowuje się do osobliwościYudkowski wiąże duże nadzieje z krioniką: „Jeśli nie zarejestrowałeś swoich dzieci wcześniej do kriokonserwacji, jesteście kiepskimi rodzicami”.

Film promocyjny:

Jeśli wierzysz, że nadchodzi osobliwość i że potężne SI pojawią się w najbliższej przyszłości, pojawia się logiczne pytanie: czy będą przyjazne, czy złe? Fundacja Yudkowskiego stawia sobie za cel takie pokierowanie rozwojem technologii, abyśmy mieli dokładnie przyjazną sztuczną inteligencję. To pytanie ma ogromne znaczenie dla niego i dla wielu innych. Osobliwość doprowadzi nas do maszyny równoważnej bogu.

Nie wyjaśnia to jednak, dlaczego Bazyliszek Roco wygląda tak okropnie w oczach tych ludzi. Pytanie wymaga spojrzenia na główny „dogmat” Less Wrong - „Ponadczasową teorię decyzji” (HTDM). VPPR to przewodnik po racjonalnym działaniu, oparty na teorii gier, prawdopodobieństwie bayesowskim i teorii decyzji, ale z myślą o równoległych wszechświatach i mechanice kwantowej. VTPR wyrosło z klasycznego eksperymentu myślowego, Newcomb Paradox, w którym obcy o superinteligencji oferuje dwa pudełka. Daje ci wybór: weź oba pudełka lub tylko pudełko B. Jeśli wybierzesz oba, masz gwarancję otrzymania tysiąca dolarów. Jeśli weźmiesz tylko pudełko B, możesz nic nie dostać. Jednak obcy ma jeszcze jedną sztuczkę: ma wszechwiedzący superkomputer, który tydzień temu przepowiedział,czy weźmiesz oba pudełka, czy tylko B. Jeśli komputer przewidział, że weźmiesz oba pudełka, obcy zostawiłby drugie puste. Gdyby komputer przewidział, że wybierzesz skrzynkę B, włożyłby tam milion dolarów.

Więc co zamierzasz zrobić? Pamiętaj, że superkomputer jest wszechwiedzący.

Ten problem zdezorientował wielu teoretyków. Obcy nie może już zmieniać zawartości pudeł. Najbezpieczniej jest wziąć oba pudełka i zgarnąć tysiąc. Ale co, jeśli komputer jest naprawdę wszechwiedzący? Wtedy wszystko, co musisz zrobić, to wziąć pudełko B, aby otrzymać milion. Ale jeśli okaże się, że się myli? I bez względu na to, co przewidział komputer, czy naprawdę nie ma sposobu, aby zmienić swoje przeznaczenie? Następnie, do cholery, musisz zabrać oba pudełka. Ale w takim razie …

Szalony paradoks, który zmusza nas do wyboru między wolną wolą a boskimi przepowiedniami, nie ma rozwiązania, a ludzie mogą tylko wzruszyć ramionami i wybrać opcję, która jest dla nich najwygodniejsza. WTPR radzi: weź pudełko B. Nawet jeśli kosmita zdecyduje się z ciebie śmiać i otworzy puste pudełko ze słowami: "Komputer przewidział, że weźmiesz oba pudełka, ha ha!" - nadal musisz to wybrać. Uzasadnienie jest następujące: aby dokonać prognozy, komputer musiał symulować cały wszechświat, w tym ciebie. Zatem w tej chwili stojąc przed pudełkami możesz być tylko symulacją komputera, ale to, co zrobisz, wpłynie na rzeczywistość (lub rzeczywistość). Więc weź Box B i zdobądź milion.

„Szalony paradoks, który zmusza nas do wyboru między wolną wolą a boską przepowiednią, nie ma rozwiązania”.

Co to ma wspólnego z Basilisk Roco? Cóż, on też ma dla ciebie kilka pudełek. Może jesteś teraz w symulacji stworzonej przez Basilisk. Wtedy być może otrzymamy nieco zmodyfikowaną wersję paradoksu Newcomba: Bazyliszek Roco mówi ci, że jeśli weźmiesz Pudełko B, będziesz cierpieć wieczne męki. Jeśli weźmiesz oba pudełka, będziesz zmuszony poświęcić swoje życie stworzeniu Bazyliszka. Jeśli Bazyliszek faktycznie istnieje (lub, co gorsza, już istnieje i jest bogiem tej rzeczywistości), zobaczy, że nie wybrałeś opcji pomocy w jego stworzeniu i ukarze cię.

Możesz się zastanawiać, dlaczego to pytanie jest tak ważne dla Less Wrong, biorąc pod uwagę konwencję tego eksperymentu myślowego. Nie jest faktem, że Bazyliszek Rocko kiedykolwiek powstanie. Jednak Yudkowski usunął odniesienia do Bazyliszka Roka nie dlatego, że wierzy w jego istnienie lub rychły wynalazek, ale dlatego, że uważa ideę bazyliszka za niebezpieczną dla ludzkości.

Jako taki, Rocko's Basilisk jest niebezpieczny tylko dla tych, którzy w niego wierzą - w rezultacie członkowie Less Wrong, którzy wspierają ideę Bazyliszka, mają pewnego rodzaju zakazaną wiedzę, która przypomina przerażające historie Lovecrafta o Cthulhu czy Necronomiconie. Jeśli jednak nie zgodzisz się na wszystkie te teorie i nie poczujesz pokusy posłuszeństwa podstępnej maszynie z przyszłości, Bazyliszek Roco nie stanowi dla ciebie żadnego zagrożenia.

Bardziej interesują mnie ludzie, którym wydaje się, że przekroczyli konwencjonalne standardy moralne. Podobnie jak przewidywana przyjazna sztuczna inteligencja Yudkowskiego, sam jest utylitarystą: wierzy, że największe dobro dla całej ludzkości jest etycznie uzasadnione, nawet jeśli kilka osób musi umrzeć lub cierpieć w drodze do tego. Nie każdy może stanąć przed takim wyborem, ale sprawa jest inna: co jeśli dziennikarz napisze o eksperymencie myślowym, który może zniszczyć świadomość ludzi, szkodząc tym samym ludzkości i utrudniając postęp w rozwoju sztucznej inteligencji i osobliwości? W tym przypadku każde dobro, które uczyniłem w życiu, musi przeważyć nad krzywdą, jaką wyrządziłem światu. A może Yudkowski przyszłości, który powstał ze snu kriogenicznego, połączył się z osobliwością i postanowił zasymulować mnie w następującej sytuacji:pierwsze pudełko - napiszę ten artykuł, drugie - nie. Proszę, wszechmogący Yudkowski, nie rób mi krzywdy.