Osoby Ze Zwiększoną Inteligencją Mogą Być Skuteczniejsze Niż Sztuczna Inteligencja - Alternatywny Widok

Spisu treści:

Osoby Ze Zwiększoną Inteligencją Mogą Być Skuteczniejsze Niż Sztuczna Inteligencja - Alternatywny Widok
Osoby Ze Zwiększoną Inteligencją Mogą Być Skuteczniejsze Niż Sztuczna Inteligencja - Alternatywny Widok

Wideo: Osoby Ze Zwiększoną Inteligencją Mogą Być Skuteczniejsze Niż Sztuczna Inteligencja - Alternatywny Widok

Wideo: Osoby Ze Zwiększoną Inteligencją Mogą Być Skuteczniejsze Niż Sztuczna Inteligencja - Alternatywny Widok
Wideo: Hot Wheels AI - Ścigamy się ze sztuczną inteligencją! 2024, Może
Anonim

Pomimo powszechnej uwagi na rozwój sztucznej inteligencji, na świecie jest kilka osób, które uważają, że potencjał istotnie poprawionej inteligencji ludzkiej (AI) jest znacznie wyższy. Pytanie, co będzie pierwsze, pozostaje otwarte, ale uważa się, że zaawansowany technologicznie mózg może być równie potężny (i, szczerze mówiąc, równie niebezpieczny) jak sztuczna inteligencja.

Człowiek jako gatunek rozwijał swoje myślenie przez wiele tysiącleci. A przynajmniej próbował to zrobić. Próbując przezwyciężyć swoje ograniczenia poznawcze, ludzie używali wszystkiego, co mogli, od technik pisemnych, językowych i medytacyjnych po nowoczesne nootropy.

Dlaczego zamiast próbować rozwijać ogólną sztuczną inteligencję (AGI), a nawet sztuczną superinteligencję (ISI), nie lepiej byłoby skupić się na ludzkim mózgu i jego wciąż dalekim od pełnego ujawnienia potencjału? Rzeczywiście, znaczna poprawa umysłu - czy to poprzez genetykę, cybernetykę, czy też siły urządzeń zewnętrznych - może doprowadzić do tego samego rezultatu, jakiego oczekujemy od stworzenia zaawansowanej sztucznej inteligencji.

Portal Gizmodo postanowił skontaktować się z futurologiem Michaiłem Anisimowem, blogerem portalu Accelerating Future i współzałożycielem wydarzenia Singularity Summit, i dowiedzieć się, jakie są prawdopodobne perspektywy rozwoju kierunku doskonalenia ludzkiego mózgu. Anisimov bardzo poważnie traktuje tę kwestię i uważa, że powinniśmy uważać na sztuczną inteligencję tak samo jak sztuczną inteligencję.

Michael, kiedy mówimy o zwiększaniu inteligencji, co tak naprawdę przez to rozumiemy? Czy mówimy o stworzeniu nowych Einsteinów? A może jest to coś jeszcze bardziej ambitnego?

Prawdziwym celem kierunku AI jest raczej stworzenie „super-Einsteinów”, ludzi znacznie mądrzejszych niż jakakolwiek osoba, która kiedykolwiek żyła na Ziemi. Aby osiągnąć ten cel, trzeba będzie podjąć kilka kluczowych kroków.

Pierwszym krokiem jest stworzenie bezpośredniego połączenia neuronowego z informacją. Potraktuj to jako rodzaj „telepatycznego wyszukiwania w Google”.

Następnym będzie opracowanie interfejsów mózg-komputer, które usprawnią pracę części mózgu odpowiedzialnej za percepcję wzrokową. Poprawi to nie tylko naszą wizję, ale także znacząco zwiększy efektywność przetwarzania informacji. Wyobraź sobie, że będziesz w stanie niemal natychmiast stworzyć w swoim mózgu jakiś złożony schemat obiektu ze szczegółami, albo teraz możesz zapamiętać schemat, który widziałeś ze szczegółami. Wzmocnienie będzie również wymagane w innych obszarach kory czuciowej odpowiedzialnych za dotyk i słuch.

Film promocyjny:

Trzecim krokiem będzie wzmocnienie kory przedczołowej. To święty Graal badań nad UI - poprawa efektywności percepcji i integracja informacji sensorycznych z pojęciami. Efektem końcowym będzie pojawienie się ludzi zdolnych do wykazania prawie niemożliwych zdolności intelektualnych. Mówimy np. O umiejętności kontrolowania innych ludzi siłą rozumu, zrozumieniu wszystkich wygrywających pozycji na giełdzie, czy np. Tworzeniu wynalazków, które mogą zmienić świat w niemal jeden dzień. Teraz może się to wydawać niemożliwe, tak jak nasze współczesne osiągnięcia wydawały się niemożliwe w oczach ludzi epoki kamienia łupanego. Ale ta możliwość jest naprawdę realna.

Patrząc w przyszłość, na następne dziesięć lat, gdzie będzie ewoluować sztuczna inteligencja? Czy ludzki mózg naprawdę może z nim konkurować?

Ludzki mózg naprawdę nie może być zbytnio zmieniony. W końcu to już wynik siedmiu milionów lat ewolucyjnej optymalizacji i dostrajania, które, muszę przyznać, były bardzo udane, biorąc pod uwagę swoje ograniczenia. A próby „podkręcenia” go z reguły prowadzą do jego niepowodzenia, jeśli rozważymy tę kwestię przynajmniej z punktu widzenia przykładu efektów, którym towarzyszy uzależnienie amfitaminowe.

Zwiastun filmu Obszary ciemności

Substancje chemiczne nie są w stanie wzmocnić zdolności poznawczych człowieka. A wszystko to, co przemawia za skutecznością obecnych „akceleratorów mózgowych”, wydaje się w rzeczywistości niezwykle kontrowersyjne i wątpliwe. Prawdziwy sukces będzie wymagał zastosowania implantów mózgowych łączących się z milionami neuronów. To z kolei będzie wymagało milionów maleńkich elektrod i specjalnego systemu sterowania, aby je wszystkie zsynchronizować. Obecnie najbardziej zaawansowany projekt interfejsu komputer-mózg ma co najwyżej około 1000 takich połączeń. Innymi słowy, aby osiągnąć coś naprawdę interesującego, trzeba zwiększyć skalę nowoczesnych rozwiązań ponad tysiąckrotnie. Nawet jeśli weźmiemy pod uwagę wykładniczy wzrost, osiągnięcie jakichkolwiek wyników zajmie co najmniej 15 do 20 lat.

Rozwój UI opiera się przede wszystkim na postępach w rozwoju nanoprodukcji. A wyniki inżynierów pracujących nad interfejsami mózg-komputer, takich jak na przykład Ed Boyden z Massachusetts Institute of Technology, zależą całkowicie od postępu w tym kierunku. Biorąc pod uwagę znikomy poziom rozwoju technologii produkcji na poziomie atomowym, samoorganizacja na poziomie nano wydaje się najbardziej oczywistym sposobem opracowania interfejsów mózg-komputer z milionami elektrod. Należy zauważyć, że samoorganizacja na poziomie nano nie jest metodą wytwarzania atomowo dokładną, ale jest wystarczająco dokładna, zgodnie ze standardami wytwarzania podstawowego i fotolitografii.

Jakie są potencjalne psychologiczne skutki uboczne dla osób o znacznie poprawionej inteligencji? Czy ogólnie można ich uważać za ludzi z tego punktu widzenia?

Jednym z najczęstszych skutków ubocznych będzie szaleństwo. Ludzki mózg to niezwykle precyzyjnie dostrojona maszyna. A każda zmiana w sposobie jego działania prowadzi do tego, co zwykle nazywamy „szaleństwem”. Istnieje wiele różnych rodzajów szaleństwa, znacznie więcej niż wzorce zachowań w zdrowym rozsądku. Na przykład, ukryte szaleństwo z punktu widzenia środowiska zewnętrznego może wydawać się całkiem zdrowe zachowanie, dlatego najprawdopodobniej będziemy mieli trudności z identyfikacją takich osób cierpiących na szaleństwo.

Nawet przy całkowitym zdrowym rozsądku mogą wystąpić różne skutki uboczne, w tym napady padaczkowe, nadmiar informacji i prawdopodobnie uczucie egomanii i całkowitej wyobcowania. Mądrzy ludzie czują się bardziej wyobcowani z otaczającego ich świata, więc świadomość, że jesteś mądrzejszy niż wszyscy na planecie, wielokrotnie potęguje ten efekt.

Większość bardzo inteligentnych ludzi nie jest zbyt towarzyska i wesoła, jak na przykład amerykański naukowiec Richard Feynman lub współczesny Neil DeGrasse Tyson. Hemingway powiedział kiedyś: „Inteligentna osoba jest czasami zmuszana do upicia się, aby znieść komunikację z głupcami”. Ale co się dzieje, gdy odurzenie alkoholowe nie wystarcza już, aby utrzymać koleżeństwo i wzajemne uczucie? Może to prowadzić do utraty empatii, co ostatecznie prowadzi do psychopatii.

Więc co jest pierwsze? Wzmocniona czy sztuczna inteligencja?

Bardzo trudno to przewidzieć. Istnieje wielkie pragnienie, aby wzmocniona inteligencja pojawiła się przed AI. Wszystkie te dzieła sztuki i gry, w których protagonista posiada taki interfejs, są w dużej mierze odpowiedzialne za to pragnienie. Należy jednak rozumieć, że nastawienie na interfejs użytkownika w rzeczywistości nie ułatwia pracy pod względem złożoności technologicznej. Ale osobiście uważam, że interfejs użytkownika pojawi się wcześniej.

Tak czy inaczej, oba kierunki są bardzo trudne do wykonania. Żadnego z nich możemy zobaczyć dopiero w latach 60., 70., a nawet później. Docelowo oba kierunki rozwoju osiągną swoje cele. Jeśli się nad tym zastanowić, w inteligencji nie ma teraz nic dziwnego, więc potrzeba jej ulepszenia jest niesamowicie ogromna. I prawdopodobnie zajmie globalne powstanie luddyjskie (uczestnicy spontanicznych protestów pierwszej ćwierci XIX wieku przeciwko wprowadzeniu maszyn w czasie rewolucji przemysłowej w Anglii - red.), Aby zatrzymać postęp rozwoju technologicznego, który doprowadzi nas do pożądanych rezultatów.

Jakie są zalety i wady tych dwóch różnych podejść do rozwoju?

Główną zaletą wyboru ścieżki rozwoju AI są nieproporcjonalnie tańsze i łatwiejsze procesy rozwojowe. AI na papierze iw kodzie została już opracowana. Pozostaje tylko prawidłowo go złożyć. Z kolei najbardziej znaczące badania dotyczące interfejsu użytkownika są teraz po prostu nielegalne. Poważne badania nad UI będą wymagały bardzo zaawansowanych eksperymentów w neurochirurgii i implantach mózgowych. Z kolei implanty mózgowe mogą zawieść, powodując drgawki, szaleństwo, a nawet śmierć. Poprawa ludzkiej inteligencji w kategoriach jakościowego sposobu samodoskonalenia to nie tylko kwestia przyjęcia kilku tabletek w celu uzyskania supermocy. Tutaj naprawdę musisz eksperymentować z implantami mózgowymi, jeśli chcesz osiągnąć poważne rezultaty.

Większość badań w tej dziedzinie jest ściśle kontrolowana i niezwykle kosztowna. Wszystkie eksperymenty na zwierzętach są zawsze drogie. Na przykład Theodor Berger od wielu lat pracuje nad implantem hipokampu w celu przywrócenia i poprawy wydajności pamięci. W 2004 r. Przeprowadzono pierwsze testy na żywej tkance, ale od tego czasu informacje są bardzo rzadkie. Oczywiście co kilka lat pojawiają się wiadomości w wiadomościach, ale jestem bardzo sceptyczny co do ostatecznego wyniku. Teraz spójrz na poziom rozwoju, jaki udało nam się osiągnąć w rozwoju sztucznej inteligencji!

Czy sztuczna inteligencja wygląda na bezpieczniejszą niż sztuczna inteligencja pod względem przewidywalności i kontroli? Co jest ważniejsze do stworzenia najpierw sztucznej inteligencji, czy supermocnej sztucznej inteligencji?

Ulepszona inteligencja jest postrzegana jako bardziej nieprzewidywalna i niekontrolowana w porównaniu z super potężną sztuczną inteligencją. A na dłuższą metę wygląda to jeszcze bardziej niebezpiecznie. Niedawno napisałem artykuł, w którym zastanawiam się nad tematem globalnej transformacji politycznej, wywołanej ogromną władzą skupioną w rękach niewielkiej grupy ludzi posiadających sztuczną inteligencję lub wyłączny dostęp do produkcji molekularnej. Ukułem w niej termin „Maksymilian”, oznaczający „najlepszy z najlepszych”, aby opisać wysoce wpływowego przywódcę, który sam wykorzystuje technologię zwiększonej inteligencji, aby wznieść się ponad wszystkich innych.

Ulepszony poznawczo Reginald Barkley ze Star Trek: The Next Generation w odcinku X

Image
Image

Kluczowym punktem mojego rozumowania w artykule jest to, że w przypadku lepszej inteligencji trzeba mieć do czynienia z ludźmi, a osoba, jak wiesz, jest niedoskonała. Może się okazać, że ludzie o zwiększonej inteligencji być może zachowają pewien poziom ludzkiej moralności, ale najprawdopodobniej zaczną wykorzystywać całą moc swojego umysłu do celów hedonistycznych, a być może nawet do ludobójstwa.

Z kolei sztuczną superinteligencję można stworzyć od podstaw i po prostu zmusić do podążania za zestawem własnych motywacji (które również zostaną w nim osadzone), które mają dobry start, stabilność i pozytywne opinie.

Ludzie zadają pytanie: „Czy ISI odrzuciłoby te motywacje?” Nie, nie zrobi tego, bo te motywacje będą stanowić rdzeń jego wartości, o ile oczywiście zostaną odpowiednio zaprogramowane. Nie będzie żadnego „ducha w samochodzie”, który byłby w stanie zignorować lub odrzucić zaprogramowane motywy.

Filozof Nick Bostrom dokonał niesamowitej analizy w swojej pracy The Will of the Superintelligence. Kluczową ideą jest to, że samolubne cele nie mogą pojawić się same, jeśli system kluczowych zadań AI jest początkowo zbiorem bezinteresownych celów i jeśli istotą istnienia maszyny jest utrzymanie tej bezinteresowności. Ewolucja pokazała, że samolubne cele odgrywają ważną rolę w przetrwaniu, zwłaszcza jeśli weźmiemy pod uwagę ewolucyjne konstruktywne ograniczenia żywych organizmów, ale nie oznacza to, że sami nie jesteśmy w stanie zaprogramować od podstaw bezinteresownych agentów?

Jakie trudności (technologiczne, medyczne czy etyczne) stoją na drodze rozwoju?

Największym wyzwaniem jest opracowanie odpowiednich technologii produkcji. Teraz nie jesteśmy nawet blisko tego. Kolejną pułapką jest zadanie ustalenia, za co dokładnie odpowiada każdy pojedynczy neuron, i określenie dokładnej lokalizacji tych neuronów u jednej osoby. Ponownie, nawet się do tego nie zbliżyliśmy.

Po trzecie, musimy opracować szybki sposób testowania wielu teorii dotyczących funkcji mózgu. Ed Boyden nazywa to „obwodem ekranującym sieci neuronowych o wysokiej przepustowości”. Najwłaściwszym i najbardziej oczywistym rozwiązaniem tego pytania może być w jakiś sposób stworzenie człowieka nieświadomego i eksperymentowanie z nim bez wyrzutów sumienia i dylematów moralnych. Ale mam wrażenie, że większość komisji etycznych spotka się z niechęcią do tego pomysłu.

Wobec braku takiej możliwości musimy znaleźć sposób na stworzenie bezprecedensowo szczegółowego modelu ludzkiego mózgu. I nie mówimy o dzisiejszych trudnych próbach projektu „modelowania mózgu”, wokół którego jest tyle szumu. Mowa o bezprecedensowym nowym poziomie, którego osiągniemy dopiero w latach 2050-2080. Analiza Oxfordu pokazuje, że bardziej chodzi o lata 80. Wszystko to wygląda teraz oczywiście jak wróżenie z fusów kawy, ale wciąż jest bliższe rzeczywistości.

NIKOLAY KHIZHNYAK