Sztuczna Inteligencja. Część Druga: Zagłada Czy Nieśmiertelność? - Alternatywny Widok

Spisu treści:

Sztuczna Inteligencja. Część Druga: Zagłada Czy Nieśmiertelność? - Alternatywny Widok
Sztuczna Inteligencja. Część Druga: Zagłada Czy Nieśmiertelność? - Alternatywny Widok
Anonim

Przed Wami druga część artykułu z serii „Czekaj, jak to wszystko może być prawdziwe, dlaczego wciąż nie mówi się o tym na każdym rogu”. W poprzedniej serii okazało się, że eksplozja inteligencji stopniowo wkrada się do ludzi planety Ziemia, próbuje ona rozwinąć się od wąsko skupionej do uniwersalnej inteligencji i wreszcie do sztucznej superinteligencji.

„Być może mamy do czynienia z niezwykle trudnym problemem i nie wiadomo, ile czasu przeznaczono na jego rozwiązanie, ale przyszłość ludzkości może zależeć od jego rozwiązania”. - Nick Bostrom.

Pierwsza część artykułu zaczęła się dość niewinnie. Omawialiśmy wąsko ukierunkowaną sztuczną inteligencję (AI, która specjalizuje się w rozwiązywaniu jednego konkretnego problemu, jak wyznaczanie tras czy gra w szachy), w naszym świecie jest jej bardzo dużo. Następnie przeanalizowali, dlaczego tak trudno jest wyhodować ogólną sztuczną inteligencję kierunkową (AGI, czyli AI, która pod względem możliwości intelektualnych może równać się z człowiekiem w rozwiązywaniu dowolnego problemu) jest tak trudna. Doszliśmy do wniosku, że wykładnicze tempo postępu technologicznego wskazuje, że AGI może wkrótce nadejść. W końcu zdecydowaliśmy, że gdy tylko maszyny osiągną ludzką inteligencję, mogą się wydarzyć:

Image
Image
Image
Image
Image
Image
Image
Image

Jak zwykle patrzymy na ekran, nie wierząc, że sztuczna superinteligencja (ISI, która jest znacznie mądrzejsza niż jakikolwiek człowiek) może pojawić się za naszego życia i wybieramy emocje, które najlepiej oddają nasze zdanie na ten temat.

Film promocyjny:

Zanim zagłębimy się w specyfikę ISI, przypomnijmy sobie, co oznacza superinteligentna maszyna.

Główna różnica polega na szybkiej superinteligencji i jakości superinteligencji. Często pierwszą rzeczą, która przychodzi na myśl, myśląc o superinteligentnym komputerze, jest to, że może on myśleć znacznie szybciej niż człowiek - miliony razy szybciej iw ciągu pięciu minut zrozumie, ile człowiekowi zajęłoby dziesięć lat. („Znam kung fu!”)

Brzmi imponująco, a ISI naprawdę powinno myśleć szybciej niż ktokolwiek z ludzi - ale główną cechą oddzielającą będzie jakość jego intelektu, co jest czymś zupełnie innym. Ludzie są znacznie mądrzejsi od małp, nie dlatego, że myślą szybciej, ale dlatego, że ich mózgi zawierają wiele genialnych modułów poznawczych, które wykonują złożone reprezentacje językowe, długoterminowe planowanie, abstrakcyjne myślenie, do których małpy nie są zdolne. Jeśli przyspieszysz mózg małpy tysiąc razy, nie stanie się mądrzejszy od nas - nawet po dziesięciu latach nie będzie w stanie zmontować konstruktora według instrukcji, co zajęłoby człowiekowi maksymalnie kilka godzin. Są rzeczy, których małpa nigdy się nie nauczy, bez względu na to, ile godzin spędza i jak szybko pracuje jej mózg.

Ponadto małpa nie wie, jak po ludzku, ponieważ jej mózg po prostu nie jest w stanie uświadomić sobie istnienia innych światów - małpa może wiedzieć, kim jest człowiek i czym jest drapacz chmur, ale nigdy nie zrozumie, że wieżowiec został zbudowany przez ludzi. W jej świecie wszystko należy do natury, a makak nie tylko nie może zbudować wieżowca, ale także rozumie, że każdy może go zbudować. A to wynika z niewielkiej różnicy w jakości inteligencji.

W ogólnym schemacie inteligencji, o którym mówimy, lub po prostu według standardów istot biologicznych, różnica w jakości inteligencji między ludźmi a małpami jest niewielka. W poprzednim artykule umieściliśmy biologiczne zdolności poznawcze na drabinie:

Image
Image

Aby zrozumieć, jak poważna będzie superinteligentna maszyna, umieść ją o dwa stopnie wyżej niż osoba na tej drabinie. Ta maszyna może być tylko trochę superinteligentna, ale jej przewaga nad naszymi zdolnościami poznawczymi będzie taka sama jak nasza - nad małpami. I tak jak szympans nigdy nie zrozumie, że można zbudować drapacz chmur, możemy nigdy nie zrozumieć, co zrozumie maszyna kilka kroków wyżej, nawet jeśli maszyna spróbuje nam to wyjaśnić. Ale to tylko kilka kroków. Mądrzejsza maszyna dostrzeże w nas mrówki - przez lata nauczy nas najprostszych rzeczy ze swojej pozycji, a te próby będą zupełnie beznadziejne.

Rodzaj superinteligencji, o którym dzisiaj będziemy mówić, wykracza daleko poza tę drabinę. To eksplozja inteligencji - im mądrzejszy staje się samochód, tym szybciej może zwiększyć swoją inteligencję, stopniowo zwiększając rozpęd. Może minąć lata, zanim maszyna taka jak ta przewyższy szympansy pod względem inteligencji, ale może nawet kilka godzin, zanim prześcignie nas o kilka kroków. Od tego momentu samochód może już przeskoczyć cztery kroki na sekundę. Dlatego powinniśmy zrozumieć, że już niedługo po pojawieniu się pierwszej wiadomości, że maszyna osiągnęła poziom inteligencji ludzkiej, możemy zmierzyć się z rzeczywistością współistnienia na Ziemi z czymś, co na tej drabinie będzie znacznie wyższe od nas (a może i miliony razy wyższe):

Image
Image

A ponieważ ustaliliśmy, że próba zrozumienia potęgi maszyny, która jest tylko dwa stopnie nad nami, jest całkowicie bezużyteczna, zdefiniujmy raz na zawsze, że nie ma sposobu, aby zrozumieć, co zrobi ISI i jakie będą tego konsekwencje dla nas. Każdy, kto twierdzi, że jest inaczej, po prostu nie rozumie, co oznacza superinteligencja.

Ewolucja powoli i stopniowo ewoluowała biologiczny mózg przez setki milionów lat, a jeśli ludzie stworzą superinteligentną maszynę, w pewnym sensie przekroczymy ewolucję. Albo będzie częścią ewolucji - być może ewolucja działa w taki sposób, że inteligencja rozwija się stopniowo, aż osiągnie punkt zwrotny, który zwiastuje nową przyszłość dla wszystkich żywych istot:

Image
Image

Z powodów, które omówimy później, ogromna część społeczności naukowej uważa, że nie chodzi o to, czy dojdziemy do tego punktu krytycznego, ale kiedy.

Gdzie po tym skończymy?

Myślę, że nikt na tym świecie, ani ja, ani ty, nie będzie w stanie powiedzieć, co się stanie, gdy osiągniemy punkt krytyczny. Oksfordzki filozof i czołowy teoretyk sztucznej inteligencji Nick Bostrom uważa, że wszystkie możliwe wyniki można ująć w dwie szerokie kategorie.

Po pierwsze, patrząc na historię, o życiu wiemy, co następuje: gatunki pojawiają się, istnieją przez pewien czas, a następnie nieuchronnie tracą równowagę i wymierają.

Image
Image

„Wymieranie wszystkich gatunków” było równie wiarygodną zasadą w historii, jak „wszyscy ludzie pewnego dnia umrą”. 99,9% gatunków wypadło z kłody życia i jest całkiem jasne, że jeśli gatunek pozostanie na tej kłodzie zbyt długo, podmuch naturalnego wiatru lub nagła asteroida przewróci kłodę. Bostrom nazywa wyginięcie stanem atraktora - miejsca, w którym wszystkie gatunki równoważą się, aby nie spaść tam, gdzie żaden gatunek nie powrócił.

I chociaż większość naukowców przyznaje, że ISI będzie w stanie skazać ludzi na wyginięcie, wielu uważa również, że wykorzystanie możliwości ISI pozwoli jednostkom (i całemu gatunkowi) osiągnąć drugi stan atraktora - gatunkową nieśmiertelność. Bostrom uważa, że nieśmiertelność gatunku jest tak samo atrakcyjna jak wyginięcie gatunku, to znaczy, jeśli do tego dojdziemy, będziemy skazani na wieczne istnienie. Tak więc, nawet gdyby wszystkie gatunki do dnia dzisiejszego wpadły z tego patyka w wir wymierania, Bostrom uważa, że kłoda ma dwie strony, a po prostu nie pojawiła się na Ziemi taka inteligencja, która rozumiałaby, jak spaść na drugą stronę.

Image
Image

Jeśli Bostrom i inni mają rację i sądząc po wszystkich dostępnych nam informacjach, może tak być, musimy przyjąć dwa bardzo szokujące fakty:

1. Pojawienie się ISI po raz pierwszy w historii otworzy gatunkowi możliwość osiągnięcia nieśmiertelności i wyjścia z fatalnego cyklu wymierania.

2. Pojawienie się ISI będzie miało tak niewyobrażalnie ogromny wpływ, że najprawdopodobniej odepchnie ludzkość od tej wiązki w jednym lub drugim kierunku.

Możliwe, że gdy ewolucja osiągnie taki punkt zwrotny, zawsze kładzie kres relacji ludzi ze strumieniem życia i tworzy nowy świat, z ludźmi lub bez nich.

Rodzi to interesujące pytanie, którego nie zadałby tylko bummer: kiedy dojdziemy do tego punktu krytycznego i gdzie nas to umieści? Nikt na świecie nie zna odpowiedzi na to podwójne pytanie, ale wielu mądrych ludzi próbowało to rozgryźć od dziesięcioleci. W dalszej części artykułu dowiemy się, skąd pochodzą.

* * *

Zacznijmy od pierwszej części tego pytania: kiedy powinniśmy osiągnąć punkt krytyczny? Innymi słowy: ile czasu pozostało, zanim pierwsza maszyna osiągnie superinteligencję?

Opinie różnią się w zależności od przypadku. Wielu, w tym profesor Vernor Vinge, naukowiec Ben Herzel, współzałożyciel Sun Microsystems Bill Joy, futurysta Ray Kurzweil, zgodziło się z ekspertem od uczenia maszynowego Jeremym Howardem, kiedy przedstawił następujący wykres na TED Talk:

Image
Image

Ci ludzie podzielają pogląd, że ISI wkrótce nadejdzie - ten wykładniczy wzrost, który dziś wydaje się nam powolny, dosłownie eksploduje w ciągu najbliższych kilku dekad.

Inni, na przykład współzałożyciel firmy Microsoft Paul Allen, psycholog naukowy Gary Marcus, ekspert komputerowy Ernest Davis i przedsiębiorca technologiczny Mitch Kapor, uważają, że myśliciele tacy jak Kurzweil poważnie nie doceniają skali problemu i uważają, że nie jesteśmy tak blisko punktu krytycznego.

Obóz Kurzweila argumentuje, że jedynym niedoszacowaniem, które występuje, jest ignorowanie wykładniczego wzrostu, a wątpiących można porównać do tych, którzy patrzyli na powoli rozwijający się Internet w 1985 roku i argumentowali, że nie będzie on miał wpływu na świat w najbliższej przyszłości.

Wątpliwości mogą odeprzeć fakt, że postępowi trudniej jest zrobić każdy kolejny krok, jeśli chodzi o wykładniczy rozwój inteligencji, który neutralizuje wykładniczy charakter postępu technicznego. Itp.

Trzeci obóz, w którym znajduje się Nick Bostrom, nie zgadza się ani z pierwszym, ani z drugim, argumentując, że a) wszystko to może się absolutnie wydarzyć w najbliższej przyszłości; oraz b) nie ma gwarancji, że to w ogóle nastąpi lub że potrwa to dłużej.

Inni, jak filozof Hubert Dreyfus, uważają, że wszystkie trzy grupy naiwnie wierzą, że w ogóle będzie punkt zwrotny i najprawdopodobniej nigdy nie dotrzemy do ISI.

Co się stanie, gdy zbierzemy wszystkie te opinie?

W 2013 r. Bostrom przeprowadził ankietę, w ramach której przeprowadził wywiady z setkami ekspertów w dziedzinie sztucznej inteligencji podczas serii konferencji na temat: „Jakie będą Twoje prognozy dotyczące osiągnięcia AGI na poziomie ludzkim?”. i poprosił nas o podanie optymistycznego roku (w którym będziemy mieć AGI z 10-procentową szansą), realistycznego założenia (rok, w którym będziemy mieć AGI z 50-procentowym prawdopodobieństwem) i pewnego założenia (najwcześniejszy rok, w którym AGI pojawi się od 90 -procentowe prawdopodobieństwo). Oto wyniki:

- Średni optymistyczny rok (10%): 2022 r

- Przeciętny realistyczny rok (50%): 2040

- Średni rok pesymistyczny (90%): 2075

Przeciętni respondenci uważają, że za 25 lat będziemy mieli raczej AGI niż nie. 90-procentowa szansa wystąpienia AGI do 2075 roku oznacza, że jeśli jesteś teraz jeszcze dość młody, najprawdopodobniej wydarzy się to za życia.

Odrębne badanie przeprowadzone niedawno przez Jamesa Barratta (autora uznanej i bardzo dobrej książki Our Latest Invention, fragmentów, z których zwróciłem uwagę czytelników Hi-News.ru) i Bena Herzel na Konferencji AGI, dorocznej Konferencji AGI, po prostu pokazało opinie ludzi w stosunku do roku, w którym docieramy do AGI: 2030, 2050, 2100, później lub nigdy. Oto wyniki:

- Do 2030 roku: 42% respondentów

- Do 2050 roku: 25%

- Do 2100: 20%

- Po 21:00: 10%

- Nigdy: 2%

Podobne do wyników Bostrom. W sondażu przeprowadzonym przez Barratta ponad dwie trzecie ankietowanych uważa, że AGI pojawi się tutaj do 2050 r., A mniej niż połowa uważa, że AGI pojawi się w ciągu najbliższych 15 lat. Uderzające jest również to, że tylko 2% respondentów w zasadzie nie widzi AGI w naszej przyszłości.

Ale AGI nie jest punktem zwrotnym jak ISI. Kiedy, zdaniem ekspertów, będzie ISI?

Bostrom zapytał ekspertów, kiedy dotrzemy do ASI: a) dwa lata po osiągnięciu AGI (czyli prawie natychmiast z powodu eksplozji inteligencji); b) po 30 latach. Wyniki?

Przeciętna opinia jest taka, że szybkie przejście z AGI na ISI nastąpi z 10% prawdopodobieństwem, ale za 30 lat lub mniej nastąpi z 75% prawdopodobieństwem.

Z tych danych nie wiemy, jaką datę respondenci nazwaliby 50-procentową szansą wystąpienia ASI, ale na podstawie dwóch powyższych odpowiedzi załóżmy, że jest to 20 lat. Oznacza to, że czołowi światowi eksperci AI uważają, że punkt zwrotny nadejdzie w 2060 r. (AGI pojawi się w 2040 r., A przejście z AGI na ISI zajmie 20 lat).

Image
Image

Oczywiście wszystkie powyższe statystyki mają charakter spekulacyjny i reprezentują jedynie opinię ekspertów w dziedzinie sztucznej inteligencji, ale wskazują też, że większość zainteresowanych zgadza się, że do 2060 roku sztuczna inteligencja prawdopodobnie pojawi się. Za 45 lat.

Przejdźmy do drugiego pytania. Kiedy dojdziemy do punktu krytycznego, która strona fatalnego wyboru zadecyduje o nas?

Superinteligencja będzie miała najpotężniejszą moc, a krytyczne pytanie dla nas będzie następujące:

Kto lub co będzie kontrolować tę moc i jaka będzie ich motywacja?

Odpowiedź na to pytanie będzie zależała od tego, czy ISI otrzyma niesamowicie potężny rozwój, niezmiernie przerażający rozwój, czy coś pomiędzy.

Oczywiście społeczność ekspertów stara się odpowiedzieć na te pytania. W ankiecie Bostrom przeanalizowano prawdopodobieństwo możliwych konsekwencji wpływu AGI na ludzkość i okazało się, że przy 52-procentowym prawdopodobieństwie wszystko pójdzie bardzo dobrze, a przy 31-procentowym prawdopodobieństwie wszystko pójdzie źle lub bardzo źle. Ankieta załączona na końcu poprzedniej części tego tematu, przeprowadzona wśród Was, drodzy czytelnicy Hi-News, wykazała podobne wyniki. W przypadku względnie neutralnego wyniku prawdopodobieństwo wynosiło tylko 17%. Innymi słowy, wszyscy wierzymy, że AGI będzie wielką sprawą. Warto też zaznaczyć, że badanie to dotyczy pojawienia się AGI - w przypadku ISI procent neutralności będzie niższy.

Zanim przejdziemy głębiej do rozważenia dobrych i złych stron pytania, połączmy obie strony pytania - „kiedy to się stanie?” i „czy to dobrze czy źle?” w tabelę zawierającą opinie większości ekspertów.

Image
Image

Za chwilę porozmawiamy o głównym obozie, ale najpierw zdecydujcie o swojej pozycji. Najprawdopodobniej jesteś w tym samym miejscu, w którym byłem, zanim zacząłem pracować nad tym tematem. Jest kilka powodów, dla których ludzie w ogóle nie myślą o tym temacie:

- Jak wspomniałem w pierwszej części, filmy poważnie zdezorientowały ludzi i fakty, przedstawiając nierealne scenariusze ze sztuczną inteligencją, co doprowadziło do tego, że AI nie powinniśmy w ogóle traktować poważnie. James Barratt porównał tę sytuację do wydania przez Centers for Disease Control (CDC) poważnego ostrzeżenia o wampirach w naszej przyszłości.

- Ze względu na tak zwane błędy poznawcze bardzo trudno jest nam uwierzyć, że coś jest realne, dopóki nie mamy dowodów. Można śmiało wyobrazić sobie informatyków z 1988 roku, którzy regularnie dyskutują o dalekosiężnych konsekwencjach Internetu i tym, czym może on się stać, ale ludzie prawie nie wierzyli, że zmieni on ich życie, dopóki tak się nie stanie. Po prostu komputery nie wiedziały, jak to zrobić w 1988 roku, a ludzie po prostu patrzyli na swoje komputery i myśleli: „Naprawdę? Czy to zmieni świat?” Ich wyobraźnię ograniczało to, czego nauczyło ich osobiste doświadczenie, wiedzieli, czym jest komputer, i trudno było sobie wyobrazić, do czego będzie zdolny w przyszłości. To samo dzieje się teraz z AI. Słyszeliśmy, że stanie się to poważną sprawąAle ponieważ nie spotkaliśmy się jeszcze z nią twarzą w twarz i generalnie obserwujemy raczej słabe przejawy sztucznej inteligencji we współczesnym świecie, raczej trudno nam uwierzyć, że radykalnie zmieni to nasze życie. Wbrew tym uprzedzeniom wielu ekspertów ze wszystkich obozów, a także osoby zainteresowane, sprzeciwia się próbowaniu przyciągnięcia naszej uwagi przez hałas codziennego kolektywnego egocentryzmu.

- Nawet gdybyśmy wierzyli w to wszystko - ile razy dzisiaj myślałeś o tym, że resztę wieczności spędzisz w nicości? Trochę się zgadzam. Nawet jeśli ten fakt jest o wiele ważniejszy niż cokolwiek, co robisz na co dzień. Dzieje się tak, ponieważ nasze mózgi zwykle koncentrują się na drobnych, codziennych rzeczach, bez względu na to, jak bardzo urojenia znajdujemy się w długoterminowej sytuacji. Po prostu jesteśmy stworzeni.

Jednym z celów tego artykułu jest wyciągnięcie cię z obozu o nazwie „Lubię myśleć o innych rzeczach” i umieszczenie cię w obozie ekspertów, nawet jeśli stoisz na skrzyżowaniu dwóch przerywanych linii na placu powyżej, zupełnie niezdecydowany.

W toku badań staje się oczywiste, że opinie większości ludzi szybko dryfują w stronę „obozu macierzystego”, a trzy czwarte ekspertów dzieli się na dwa podobozy w obozie macierzystym.

Image
Image

Odwiedzimy oba te obozy w całości. Zacznijmy od zabawy.

Dlaczego przyszłość mogłaby być naszym największym marzeniem?

Odkrywając świat AI, w naszej strefie komfortu znajdujemy zaskakująco wiele osób. Ludzie na prawym górnym placu tętnią życiem. Wierzą, że upadniemy po dobrej stronie kłody, a także wierzą, że nieuchronnie do tego dojdziemy. Dla nich przyszłość jest najlepszą, o jakiej można tylko pomarzyć.

Tym, co odróżnia tych ludzi od innych myślicieli, nie jest to, że chcą być po szczęśliwej stronie - ale to, że są pewni, że ona na nas czeka.

To zaufanie wypływa z kontrowersji. Krytycy uważają, że pochodzi z olśniewającego podniecenia, które przesłania potencjalne negatywne strony. Ale zwolennicy twierdzą, że ponure prognozy są zawsze naiwne; technologia trwa i zawsze pomoże nam bardziej niż zaszkodzić.

Możesz wybrać dowolną z tych opinii, ale odłóż na bok sceptycyzm i dobrze przyjrzyj się szczęśliwej stronie równoważni, próbując zaakceptować fakt, że wszystko, o czym czytasz, mogło już się wydarzyć. Gdybyś pokazał łowcom-zbieraczom nasz świat komfortu, technologii i niekończącej się obfitości, wydawałoby się im to magiczną fikcją - a my zachowujemy się dość skromnie, nie mogąc przyznać, że ta sama niezrozumiała przemiana czeka nas w przyszłości.

Nick Bostrom opisuje trzy ścieżki, którymi może obrać superinteligentny system sztucznej inteligencji:

Wyrocznia, która może odpowiedzieć na każde dokładne pytanie, w tym złożone pytania, na które ludzie nie mogą odpowiedzieć - na przykład „jak zwiększyć wydajność silnika samochodowego”? Google to prymitywny typ „wyroczni”.

Dżin, który wykona każde polecenie wysokiego poziomu - używając assemblera molekularnego do stworzenia nowej, wydajniejszej wersji silnika samochodowego - i będzie czekał na następne polecenie.

Suweren, który będzie miał szeroki dostęp i możliwość swobodnego funkcjonowania w świecie, podejmowania własnych decyzji i usprawniania procesu. Wymyśli tańszy, szybszy i bezpieczniejszy środek transportu prywatnego niż samochód.

Te pytania i zadania, które wydają się nam trudne, wydadzą się superinteligentnemu systemowi tak, jakby ktoś poprosił o poprawę sytuacji „mój ołówek spadł ze stołu”, w którym po prostu podnosisz go i odkładasz.

Eliezer Yudkowski, amerykański ekspert od sztucznej inteligencji, ujął to dobrze:

„Nie ma trudnych problemów, są tylko te, które są trudne dla pewnego poziomu inteligencji. Pójdź o krok wyżej (jeśli chodzi o inteligencję), a niektóre problemy zmienią się nagle z kategorii „niemożliwe” do obozu „oczywistego”. Jeden krok wyżej - a wszystkie staną się oczywiste”.

Jest wielu niecierpliwych naukowców, wynalazców i przedsiębiorców, którzy wybrali strefę pewności siebie na naszym stole, ale potrzebujemy tylko jednego przewodnika, aby chodzić dla najlepszych w tym najlepszym ze światów.

Ray Kurzweil jest niejednoznaczny. Niektórzy idolizują jego idee, inni gardzą. Niektórzy pozostają pośrodku - Douglas Hofstadter omawiając idee książek Kurzweila wymownie zauważył, że „to tak, jakbyś wziął dużo dobrego jedzenia i małą psią kupę, a potem wszystko wymieszał w taki sposób, że nie sposób zrozumieć, co jest dobre, a co złe”.

Czy podoba ci się jego pomysły, czy nie, nie da się ich ominąć bez cienia zainteresowania. Jako nastolatek zaczął wymyślać różne rzeczy, aw następnych latach wynalazł kilka ważnych rzeczy, w tym pierwszy płaski skaner, pierwszy skaner konwertujący tekst na mowę, dobrze znany syntezator muzyczny Kurzweil (pierwszy prawdziwy fortepian elektryczny) oraz pierwszy komercyjnie udany aparat do rozpoznawania mowy. Jest także autorem pięciu sensacyjnych książek. Kurzweil jest doceniany za odważne przewidywania, a jego osiągnięcia są całkiem dobre - pod koniec lat 80., kiedy Internet był jeszcze w powijakach, przewidział, że do 2000 roku Internet stanie się zjawiskiem globalnym. The Wall Street Journal nazwał Kurzweila „niespokojnym geniuszem”, Forbes „globalną maszyną myślącą”, Inc. Magazyn - „prawowity spadkobierca Edisona”, Bill Gates - „najlepszy z nichktóry przepowiada przyszłość sztucznej inteligencji”. W 2012 roku współzałożyciel Google, Larry Page, zaprosił Kurzweila na stanowisko CTO. W 2011 roku był współzałożycielem Singularity University, którego gospodarzem jest NASA i częściowo sponsorowanym przez Google.

Jego biografia ma znaczenie. Kiedy Kurzweil mówi o swojej wizji przyszłości, brzmi to jak szalenie szalone, ale naprawdę szalone jest to, że jest daleki od szaleństwa - jest niesamowicie inteligentną, wykształconą i rozsądną osobą. Możesz pomyśleć, że myli się w swoich przewidywaniach, ale nie jest głupcem. Przewidywania Kurzweila są podzielane przez wielu ekspertów od stref komfortu, Petera Diamandisa i Bena Herzel'a. Uważa, że tak się stanie.

Chronologia

Kurzweil uważa, że komputery osiągną poziom ogólnej sztucznej inteligencji (AGI) do 2029 r., A do 2045 r. Będziemy mieli nie tylko sztuczną superinteligencję, ale też zupełnie nowy świat - czas tzw. Osobliwości. Jego chronologia sztucznej inteligencji jest nadal uważana za skandalicznie przesadzoną, ale w ciągu ostatnich 15 lat szybki rozwój wysoce ukierunkowanych systemów sztucznej inteligencji (AI) zmusił wielu ekspertów do stanięcia po stronie Kurzweila. Jego prognozy są nadal bardziej ambitne niż badanie Bostroma (AGI do 2040 r., ISI do 2060 r.), Ale niewiele.

Według Kurzweila Osobliwość roku 2045 jest napędzana przez trzy jednoczesne rewolucje w biotechnologii, nanotechnologii i, co ważniejsze, sztucznej inteligencji. Ale zanim przejdziemy dalej - a nanotechnologia ściśle śledzi sztuczną inteligencję - poświęćmy chwilę na nanotechnologię.

Image
Image

Kilka słów o nanotechnologii

Zwykle nazywamy technologie nanotechnologiczne, które zajmują się manipulacją materią w zakresie 1-100 nanometrów. Nanometr to jedna miliardowa część metra lub milionowa część milimetra; w zakresie 1-100 nanometrów można pomieścić wirusy (o średnicy 100 nm), DNA (o szerokości 10 nm), cząsteczki hemoglobiny (5 nm), glukozę (1 nm) i inne. Jeśli nanotechnologia kiedykolwiek stanie się naszym przedmiotem, następnym krokiem będzie manipulowanie pojedynczymi atomami o wielkości mniejszej niż jeden rząd wielkości (~, 1 nm).

Aby zrozumieć, gdzie ludzie napotykają problemy, próbując manipulować materią na taką skalę, przejdźmy do większej skali. Międzynarodowa Stacja Kosmiczna znajduje się 481 kilometrów nad Ziemią. Gdyby ludzie byli gigantami i uderzyli w ISS głowami, byliby 250 000 razy więksi niż obecnie. Jeśli powiększysz cokolwiek od 1 do 100 nanometrów 250 000 razy, otrzymasz 2,5 centymetra. Nanotechnologia jest odpowiednikiem człowieka krążącego wokół ISS, próbującego manipulować przedmiotami wielkości ziarenka piasku lub gałki ocznej. Aby przejść do następnego poziomu - kontrolowania poszczególnych atomów - gigant będzie musiał ostrożnie ustawiać obiekty o średnicy 1/40 milimetra. Zwykli ludzie będą potrzebować mikroskopu, aby je zobaczyć.

Po raz pierwszy Richard Feynman mówił o nanotechnologii w 1959 roku. Następnie powiedział: „Zasady fizyki, o ile wiem, nie przemawiają przeciwko możliwości kontrolowania rzeczy atom po atomie. W zasadzie fizyk mógłby zsyntetyzować każdą substancję chemiczną zapisaną przez chemika. W jaki sposób? Umieszczając atomy tam, gdzie chemik mówi, aby uzyskać substancję”. Na tym polega cała prostota. Jeśli wiesz, jak poruszać pojedynczymi cząsteczkami lub atomami, możesz zrobić prawie wszystko.

Nanotechnologia stała się poważną dziedziną naukową w 1986 roku, kiedy inżynier Eric Drexler przedstawił jej podstawy w swojej przełomowej książce Machines of Creation, ale sam Drexler uważa, że ci, którzy chcą dowiedzieć się więcej o nowoczesnych ideach nanotechnologii, powinni przeczytać jego książkę z 2013 roku. Full Abundance”(Radical Abundance).

Kiedy już dotrzemy do sedna nanotechnologii, możemy ją wykorzystać do tworzenia urządzeń technicznych, odzieży, żywności, bioproduktów - krwinek, środków zwalczających wirusy i raka, tkanki mięśniowej i tak dalej - cokolwiek. W świecie, w którym wykorzystuje się nanotechnologię, koszt materiału nie będzie już związany z jego niedoborem lub złożonością procesu produkcyjnego, ale raczej ze złożonością jego struktury atomowej. W świecie nanotechnologii diament mógłby być tańszy niż gumka.

Nie jesteśmy tam nawet blisko. I nie jest do końca jasne, czy nie doceniamy, czy przeceniamy złożoność tej ścieżki. Jednak wszystko sprowadza się do tego, że nanotechnologia nie jest daleko. Kurzweil zakłada, że do lat 20. będziemy je mieć. Państwa świata wiedzą, że nanotechnologia może obiecać wspaniałą przyszłość, dlatego inwestują w nie wiele miliardów.

Wyobraź sobie, jakie możliwości miałby superinteligentny komputer, gdyby trafił do niezawodnego asemblera w nanoskali. Ale nanotechnologia to nasz pomysł i staramy się nią sterować, jest to dla nas trudne. A co, jeśli są tylko żartem dla systemu ISI, a sam ISI wymyśli technologie, które będą wielokrotnie potężniejsze niż cokolwiek, co możemy w zasadzie założyć? Zgodziliśmy się: nikt nie może sobie wyobrazić, do czego zdolna będzie sztuczna superinteligencja? Uważa się, że nasz mózg nie jest w stanie przewidzieć nawet minimum tego, co się stanie.

Co AI mogłaby dla nas zrobić?

Uzbrojony w superinteligencję i całą technologię, którą mógłby stworzyć superinteligencja, ISI prawdopodobnie będzie w stanie rozwiązać wszystkie problemy ludzkości. Globalne ocieplenie? ISI najpierw zatrzyma emisje dwutlenku węgla, wynajdując szereg wydajnych paliw niekopalnych do wytwarzania energii. Następnie wymyśli skuteczny, innowacyjny sposób usuwania nadmiaru CO2 z atmosfery. Rak i inne choroby? Żaden problem - opieka zdrowotna i medycyna zmienią się w sposób niemożliwy do wyobrażenia. Głód na świecie? ISI wykorzysta nanotechnologię do stworzenia mięsa identycznego z naturalnym, od podstaw, prawdziwym mięsem.

Image
Image

Nanotechnologia będzie w stanie zamienić stos śmieci w kadź ze świeżym mięsem lub inną żywnością (niekoniecznie nawet w zwykłej formie - wyobraź sobie gigantyczną kostkę jabłka) i rozprowadzić całą tę żywność po całym świecie za pomocą zaawansowanych systemów transportowych. Oczywiście będzie to świetne dla zwierząt, które nie muszą już umierać za jedzenie. ISI może również robić wiele innych rzeczy, na przykład chronić zagrożone gatunki lub nawet przywracać wymarłe z zachowanego DNA. ISI może rozwiązać nasze najtrudniejsze problemy makroekonomiczne - najtrudniejsze debaty ekonomiczne, kwestie etyczne i filozoficzne, handel światowy - z których wszystkie będą boleśnie oczywiste dla ISI.

Jest jednak coś wyjątkowego, co ISI może dla nas zrobić. Kuszące i kuszące, które zmieniłyby wszystko: ISI może nam pomóc radzić sobie ze śmiertelnością. Stopniowo rozumiejąc możliwości sztucznej inteligencji, być może ponownie rozważysz wszystkie swoje pomysły na temat śmierci.

Nie było powodu, dla którego ewolucja miałaby przedłużać nasze życie dłużej niż teraz. Jeśli żyjemy wystarczająco długo, aby rodzić i wychowywać dzieci do poziomu, w którym mogą same sobie radzić, wystarczy ewolucja. Z ewolucyjnego punktu widzenia na rozwój wystarczy ponad 30 lat i nie ma powodu, aby mutacje przedłużały życie i obniżały wartość doboru naturalnego. William Butler Yates nazwał nasz gatunek „duszą przywiązaną do umierającego zwierzęcia”. Niezbyt fajne.

A ponieważ kiedyś wszyscy umrzemy, żyjemy w przekonaniu, że śmierć jest nieunikniona. Myślimy o starzeniu się w czasie - o dalszym posuwaniu się do przodu i niemożności zatrzymania tego procesu. Ale myśl o śmierci jest zdradliwa: schwytani przez nią zapominamy o życiu. Richard Feynman napisał:

„W biologii jest coś wspaniałego: w tej nauce nie ma nic, co mówiłoby o konieczności śmierci. Jeśli chcemy stworzyć perpetuum mobile, zdajemy sobie sprawę, że znaleźliśmy w fizyce wystarczająco dużo praw, które albo wskazują na to, że jest to niemożliwe, albo że prawa są błędne. Ale w biologii nie ma nic, co wskazywałoby na nieuchronność śmierci. To prowadzi mnie do przekonania, że nie jest to tak nieuniknione, i jest tylko kwestią czasu, zanim biolodzy odkryją przyczynę tego problemu, tej strasznej powszechnej choroby, zostanie ona wyleczona”.

Faktem jest, że starzenie się nie ma nic wspólnego z czasem. Starzenie się występuje, gdy fizyczne materiały ciała ulegają zużyciu. Części samochodowe również ulegają degradacji - ale czy starzenie się jest nieuniknione? Jeśli będziesz naprawiać swój samochód w miarę zużywania się części, będzie trwał wiecznie. Ciało ludzkie nie jest inne - po prostu bardziej złożone.

Kurzweil mówi o inteligentnych nanobotach podłączonych do sieci Wi-Fi we krwi, które mogą wykonywać niezliczone zadania dla zdrowia ludzkiego, w tym regularnie naprawiać lub zastępować zużyte komórki w dowolnym miejscu ciała. Poprawa tego procesu (lub znalezienie alternatywy sugerowanej przez mądrzejszy ASI) nie tylko utrzymuje ciało w zdrowiu, ale może odwrócić proces starzenia. Różnica między ciałem 60-latka a 30-latkiem polega na kilku problemach fizycznych, które można naprawić za pomocą odpowiedniej technologii. ISI może zbudować samochód, do którego wsiada się, gdy ma 60 lat, a opuszcza, gdy ma 30 lat.

Nawet zdegradowany mózg można odnowić. ISI z pewnością wiedziałby, jak to zrobić bez wpływu na dane mózgu (osobowość, wspomnienia itp.). 90-letni mężczyzna cierpiący na całkowitą degradację mózgu mógł przejść przekwalifikowanie, odnowić się i powrócić do początków swojego życia. Może się to wydawać absurdalne, ale ciało składa się z kilku atomów, a ISI z pewnością mógłby z łatwością manipulować nimi, dowolnymi strukturami atomowymi. To nie jest takie absurdalne.

Kurzweil uważa również, że z upływem czasu sztuczne materiały będą coraz bardziej integrować się z organizmem. Po pierwsze, organy można by zastąpić super zaawansowanymi wersjami maszyn, które przetrwałyby wiecznie i nigdy nie zawiodły. Następnie moglibyśmy całkowicie przeprojektować ciało, zastępując czerwone krwinki doskonałymi nanobotami, które poruszają się samodzielnie, całkowicie eliminując potrzebę posiadania serca. Moglibyśmy również poprawić nasze zdolności poznawcze, zacząć myśleć miliardy razy szybciej i uzyskać dostęp do wszystkich informacji dostępnych ludzkości za pośrednictwem chmury.

Możliwości zrozumienia nowych horyzontów byłyby naprawdę nieograniczone. Ludziom udało się nadać seksowi nowy cel, robią to dla przyjemności, a nie tylko dla reprodukcji. Kurzweil uważa, że możemy zrobić to samo z jedzeniem. Nanoboty mogą dostarczać idealne odżywianie bezpośrednio do komórek ciała, umożliwiając przenikanie przez organizm niezdrowych substancji. Teoretyk nanotechnologii Robert Freitas opracował już substytut krwinek, które po wdrożeniu w ludzkim ciele mogą pozwolić mu nie oddychać przez 15 minut - i to zostało wynalezione przez człowieka. Wyobraź sobie, kiedy ISI zyska moc.

W końcu Kurzweil wierzy, że ludzie osiągną punkt, w którym staną się całkowicie sztuczni; czas, kiedy patrzymy na materiały biologiczne i myślimy o ich prymitywności; czas, kiedy będziemy czytać o wczesnych etapach historii ludzkości, zdumieni tym, jak zarazki, wypadki, choroby lub po prostu starość mogą zabić człowieka wbrew jego woli. Ostatecznie ludzie pokonają własną biologię i staną się wieczni - to droga do szczęśliwej strony równoważni, o której mówiliśmy od samego początku. A ludzie, którzy w to wierzą, są również pewni, że taka przyszłość czeka nas bardzo, bardzo szybko.

Prawdopodobnie nie będziesz zaskoczony, że pomysły Kurzweila spotkały się z ostrą krytyką. Jego osobliwość w 2045 roku i późniejsze życie wieczne ludzi nazywano „wniebowstąpieniem nerdów” lub „inteligentnym stworzeniem ludzi o IQ 140”. Inni kwestionowali optymistyczne ramy czasowe, rozumienie ludzkiego ciała i mózgu, przypominając prawo Moore'a, które jeszcze nie odeszło. Na każdego eksperta, który wierzy w idee Kurzweila, przypada trzech, którzy uważają, że się myli.

Ale najciekawsze w tym jest to, że większość ekspertów, którzy się z nim nie zgadzają, na ogół nie twierdzi, że jest to niemożliwe. Zamiast mówić „bzdury, to się nigdy nie wydarzy”, mówią coś w stylu „to wszystko się wydarzy, jeśli dotrzemy do ISI, ale to jest haczyk”. Bostrom, jeden z uznanych ekspertów AI, ostrzegających przed niebezpieczeństwem sztucznej inteligencji, przyznaje również:

„Nie ma prawie żadnego problemu, którego superinteligencja nie mogłaby rozwiązać, a nawet pomóc nam rozwiązać. Choroby, bieda, niszczenie środowiska, wszelkiego rodzaju cierpienia - cała ta superinteligencja z pomocą nanotechnologii może rozwiązać w jednej chwili. Superinteligencja może również zapewnić nam nieograniczoną żywotność, zatrzymując i odwracając proces starzenia za pomocą nanomedycyny lub możliwość przesłania nas do chmury. Superinteligencja może również stwarzać możliwości niekończącego się wzrostu zdolności intelektualnych i emocjonalnych; może pomóc nam stworzyć świat, w którym będziemy żyć w radości i zrozumieniu, zbliżając się do naszych ideałów i regularnie spełniając nasze marzenia”.

To cytat z wypowiedzi jednego z krytyków Kurzweila, który przyznaje, że to wszystko jest możliwe, jeśli uda nam się stworzyć bezpieczny ASI. Kurzweil po prostu zdefiniował, czym powinna się stać sztuczna superinteligencja, jeśli to w ogóle możliwe. A jeśli jest dobrym bogiem.

Najbardziej oczywistą krytyką zwolenników strefy komfortu jest to, że mogą się mylić, oceniając przyszłość ISI. W swojej książce The Singularity Kurzweil poświęcił 20 stron z 700 potencjalnych zagrożeń ISI. Nie chodzi o to, kiedy dotrzemy do ISI, tylko o to, jaka będzie jego motywacja. Kurzweil odpowiada na to pytanie z ostrożnością: „ISI wywodzi się z wielu odmiennych wysiłków i będzie głęboko zintegrowane z infrastrukturą naszej cywilizacji. W rzeczywistości będzie ściśle osadzony w naszym ciele i mózgu. Będzie odzwierciedlał nasze wartości, ponieważ będzie jednym z nami”.

Ale jeśli odpowiedź brzmi, dlaczego tak wielu mądrych ludzi na tym świecie martwi się o przyszłość sztucznej inteligencji? Dlaczego Stephen Hawking mówi, że rozwój ISI „może oznaczać koniec rasy ludzkiej”? Bill Gates mówi, że „nie rozumie ludzi, którym to nie przeszkadza”. Elon Musk obawia się, że „przyzywamy demona”. Dlaczego wielu ekspertów uważa ISI za największe zagrożenie dla ludzkości?

Na podstawie materiałów z waitbutwhy.com, kompilacja Tima Urbana. W artykule wykorzystano materiały z prac Nicka Bostroma, Jamesa Barratta, Raya Kurzweila, Jaya Nielsa-Nilssona, Stephena Pinkera, Vernora Vinge'a, Moshe Vardy, Russa Robertsa, Stuarta Armstroga i Kai Sotal, Susan Schneider, Stuarta Russella i Petera Norviga, Theodore'a Modisa Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Autor: Ilya Khel

Część trzecia: dlaczego może to być nasz ostatni wynalazek?