Cała Nasza Wiedza Na Temat Sztucznej Inteligencji To Tylko Złudzenia - Alternatywny Widok

Spisu treści:

Cała Nasza Wiedza Na Temat Sztucznej Inteligencji To Tylko Złudzenia - Alternatywny Widok
Cała Nasza Wiedza Na Temat Sztucznej Inteligencji To Tylko Złudzenia - Alternatywny Widok

Wideo: Cała Nasza Wiedza Na Temat Sztucznej Inteligencji To Tylko Złudzenia - Alternatywny Widok

Wideo: Cała Nasza Wiedza Na Temat Sztucznej Inteligencji To Tylko Złudzenia - Alternatywny Widok
Wideo: 15 oznak, że jesteś wybitnie inteligentny, ale o tym nie wiesz 2024, Może
Anonim

Być może jednym z najtrudniejszych testów inteligencji maszynowej była gra w szachy, która miała miejsce prawie 20 lat temu między komputerem Deep Blue a mistrzem świata w szachach Garrym Kasparowem. Samochód wygrał. W tej chwili zakończyła się seria gier w logicznej grze go, w której rywalizowali AI AlphaGo firmy DeepMind (właściciel Google) i legendarny mistrz go z Chin Li Si Dol. W czterech z pięciu gier maszyna wygrała, pokazując swoją wyższość nad człowiekiem w tej grze. Niezwykle złożona gra między człowiekiem a sztuczną inteligencją pokazuje, że inteligencja maszynowa bardzo mocno się rozwinęła w tym czasie. Wygląda na to, że fatalny dzień, w którym maszyny naprawdę stają się mądrzejsze od ludzi, jest teraz bliżej niż kiedykolwiek. Wydaje się jednak, że wielu w ogóle nie rozumie, a wręcz myli się co do konsekwencji, jakie mogą nas czekać w przyszłości.

Nie doceniamy niektórych bardzo poważnych, a nawet niebezpiecznych konsekwencji rozwoju sztucznej inteligencji. W zeszłym roku współzałożyciel SpaceX Elon Musk wydał oświadczenie, w którym wyraził zaniepokojenie możliwym zniewoleniem świata przez sztuczną inteligencję, co z kolei wywołało ogromną ilość komentarzy zarówno zwolenników, jak i przeciwników tej opinii.

Image
Image

W obliczu tak fundamentalnie rewolucyjnej przyszłości, która może nas czekać, jest zaskakujące, że jest dziś tak wiele nieporozumień co do tego, czy w ogóle się to wydarzy i jak się ostatecznie okaże. Szczególnie dziwne jest zaprzeczanie niesamowitym korzyściom, jakie możemy uzyskać dzięki stworzeniu naprawdę inteligentnej sztucznej inteligencji, oczywiście biorąc pod uwagę wszystkie możliwe zagrożenia. Wszystkie te pytania są niezwykle trudne do uzyskania właściwych odpowiedzi, ponieważ sztuczna inteligencja, w przeciwieństwie do innych wynalazków ludzkości, może naprawdę „odmłodzić” tę ludzkość lub całkowicie ją zniszczyć.

Teraz trudno zrozumieć, w co wierzyć i na co mieć nadzieję. Jednak dzięki pionierom informatyki, neuronaukowcom i teoretykom rozwoju sztucznej inteligencji, powoli zaczyna się klarować wyraźny obraz. Poniżej znajduje się lista najczęstszych nieporozumień i mitów dotyczących sztucznej inteligencji.

Nigdy nie stworzymy sztucznej inteligencji z humanoidalną inteligencją

Rzeczywistość z kolei sugeruje, że mamy już komputery, które w niektórych obszarach dorównują, a nawet przekraczają ludzkie możliwości. Weźmy na przykład szachy lub tę samą grę w chodzie, handel na giełdach lub rolę wirtualnego rozmówcy. Komputery i sterujące nimi algorytmy będą z czasem coraz lepsze, a to tylko kwestia czasu, zanim staną się dorównujące ludzkim możliwościom.

Film promocyjny:

Image
Image

Badacz z Uniwersytetu Nowojorskiego Gary Markus powiedział kiedyś, że „praktycznie każdy”, kto pracuje z AI, wierzy, że maszyny pewnego dnia nas prześcigną:

„Jedyny spór między kibicami a sceptykami dotyczy czasu tego wydarzenia”.

Futuryści, tacy jak Ray Kurzweil, uważają, że może to nastąpić w nadchodzących dziesięcioleciach, podczas gdy inni twierdzą, że zajmie to kilka wieków.

Sceptycy AI nie przekonują w swoich dowodach, że stworzenie sztucznej inteligencji jako czegoś wyjątkowego i bardzo podobnego do prawdziwego, żywego ludzkiego mózgu pod względem technologicznym jest gdzieś poza rzeczywistością. Nasz mózg to także maszyna. Maszyna biologiczna. Istnieje w tym samym świecie i podlega tym samym prawom fizyki, co wszystko inne. Z biegiem czasu w pełni zrozumiemy całą zasadę jego pracy.

AI będzie mieć świadomość

Istnieje ogólna zgoda co do tego, że inteligencja maszynowa będzie świadoma. Oznacza to, że sztuczna inteligencja będzie myśleć w taki sam sposób, jak robi to człowiek. Ponadto niektórzy krytycy, np. Współzałożyciel Microsoftu Paul Allen, uważają, że ze względu na niepełne podstawy teoretyczne opisujące mechanizmy i zasady samoświadomości nie stworzyliśmy jeszcze nawet ogólnej sztucznej inteligencji, czyli inteligencji zdolnej do wykonywania wszelkich zadań intelektualnych, z którymi osoba może sobie poradzić. Jednak według Murraya Shanahana, adiunkta na Wydziale Robotyki Poznawczej w Imperial College w Londynie, nie powinniśmy ich porównywać.

Image
Image

„Samoświadomość jest zdecydowanie bardzo interesującym i ważnym przedmiotem badań, ale nie uważam, aby samoświadomość była obowiązkowym atrybutem sztucznej inteligencji podobnej do ludzkiej” - mówi Shanahan.

„Ogólnie rzecz biorąc, używamy terminu„ samoświadomość”tylko po to, by wskazać kilka cech psychologicznych i poznawczych, które są zwykle powiązane w człowieku”.

Można sobie wyobrazić bardzo inteligentny samochód, któremu brakuje co najmniej jednego z tych atrybutów. Któregoś dnia będziemy w stanie zbudować naprawdę niesamowicie inteligentną sztuczną inteligencję, ale jednocześnie pozbawioną zdolności do samoświadomości, a także subiektywnego i świadomego rozumienia otaczającego nas świata. Shanahan zauważa, że zjednoczenie inteligencji i samoświadomości wewnątrz maszyny nadal będzie możliwe, ale nie powinniśmy tracić z oczu faktu, że są to dwie całkowicie oddzielne od siebie koncepcje.

I choć jeden z wariantów „Testu Turinga”, w którym maszyna pokazała, że niczym nie różni się od człowieka, został pomyślnie zaliczony, to wcale nie oznacza, że ta maszyna ma świadomość. Z naszego (ludzkiego) punktu widzenia zaawansowana sztuczna inteligencja może wydawać się nam czymś posiadającym samoświadomość, ale sama maszyna będzie świadoma siebie nie bardziej niż ten sam kamień lub kalkulator.

Nie powinniśmy bać się AI

W styczniu tego roku założyciel Facebooka Mark Zuckerberg podzielił się swoimi przemyśleniami na temat tego, jak nie powinniśmy bać się sztucznej inteligencji, dodając, że ta technologia może przynieść ogromne korzyści na całym świecie. Prawda jest taka, że ma tylko częściową rację. Rzeczywiście będziemy w stanie czerpać niesamowite korzyści z AI do naszej dyspozycji (od samojezdnych samochodów po nowe odkrycia w medycynie), ale nikt nie może zagwarantować, że każde zastosowanie sztucznej inteligencji przyniesie korzyści.

Być może wysoce inteligentny system będzie wiedział wszystko, co jest niezbędne do wykonania niektórych zadań (na przykład rozwiązania złożonej globalnej sytuacji finansowej lub włamania się do systemów komputerowych wroga), ale poza wysoce wyspecjalizowanymi zadaniami potencjał sztucznej inteligencji jest nadal całkowicie niejasny, a zatem potencjalnie niebezpieczny. Na przykład system DeepMind specjalizuje się w grze w go, ale brakuje mu możliwości (i powodu) eksploracji obszarów poza tym królestwem.

Wirus komputerowy Flame, którego zadaniem było śledzenie krajów Bliskiego Wschodu

Image
Image

Wiele z tych systemów może stanowić poważne zagrożenie bezpieczeństwa. Dobrym przykładem jest potężny i bardzo przebiegły wirus Stuxnet, zmilitaryzowany robak stworzony przez wojsko amerykańskie i izraelskie w celu infiltracji i ataku na irańskie elektrownie atomowe. Tylko ten złośliwy program w jakiś sposób (przypadkowo lub celowo) zainfekował również jedną z rosyjskich elektrowni atomowych.

Innym przykładem jest wirus Flame, opracowany do ukierunkowanego cyberszpiegostwa na Bliskim Wschodzie. Łatwo sobie wyobrazić, jak „przyszłe wersje” wirusów Stuxnet i Flame niezależnie wykraczają poza przypisane im zadania i będą w stanie zainfekować prawie całą infrastrukturę kraju. I zrobią to bardzo cicho i niezauważalnie.

Sztuczny superinteligencja będzie zbyt sprytny, by popełniać błędy

Richard Luzmore, matematyk, badacz sztucznej inteligencji i założyciel firmy zajmującej się robotyką Surfing Samurai Robots, uważa, że większość scenariuszy dnia zagłady AI wygląda mało prawdopodobne, ponieważ wszystkie one są szeroko oparte na tym, co sztuczna inteligencja powie pewnego dnia: „Rozumiem, że zniszczenie people to błąd w moim kodzie programu, ale nadal muszę wykonywać zadanie”.

Image
Image

Luzmore uważa, że jeśli sztuczna inteligencja zachowa się zgodnie z tym scenariuszem, napotka logiczne sprzeczności, które podważą całą zgromadzoną bazę wiedzy i ostatecznie doprowadzą do własnej świadomości jej głupoty i bezużyteczności.

Badacz uważa też, że mylą się osoby, które twierdzą, że „AI zrobi tylko to, co zawiera jej program”, podobnie jak osoby, które kiedyś powiedziały to samo, ale wobec komputerów deklarując, że systemy komputerowe nigdy nie będą miały uniwersalności.

Peter McIntyre i Stuart Armstrong, obaj z Institute for the Future of Humanity na Oxford University, z kolei nie zgadzają się z tą opinią, argumentując, że zachowanie AI będzie obowiązkowe i w dużej mierze uzasadnione kodem programu. Naukowcy nie wierzą, że sztuczna inteligencja nigdy nie będzie popełniać błędów, a wręcz przeciwnie, będzie zbyt głupia, aby dokładnie zrozumieć, czego od nich chcemy.

„Z definicji sztuczna superinteligencja (ISI) jest agentem, którego inteligencja wielokrotnie przewyższa najlepsze umysły ludzkości w niemal wszystkich dziedzinach” - mówi McIntyre.

- Na pewno zrozumie, czego od niego chcemy.

McIntyre i Armstrong uważają, że sztuczna inteligencja wykona tylko te zadania, do których została zaprogramowana, ale jeśli w jakiś sposób rozwinie się sama, najprawdopodobniej spróbuje dowiedzieć się, jak bardzo jej działania będą się różnić od zadań ludzkich i nieodłącznych. prawa.

McIntyre porównuje przyszłość ludzi do myszy. Myszy mają potężny instynkt znajdowania pożywienia i schronienia, ale ich cele bardzo często są sprzeczne z osobą, która nie chce ich widzieć w swoim domu.

„Podobnie jak nasza wiedza o myszach i ich pragnieniach, system superinteligencji może również wiedzieć o nas wszystko i wiedzieć, czego chcemy, ale jednocześnie będzie całkowicie obojętny na nasze pragnienia”.

Proste rozwiązanie wyeliminuje problem sterowania AI

Jak pokazuje film „From the Machine”, bardzo trudno będzie kontrolować sztuczną inteligencję, która będzie znacznie mądrzejsza od nas

Image
Image

Jeśli założymy, że pewnego dnia stworzymy superinteligencję, która będzie mądrzejsza od ludzi, to będziemy musieli zmierzyć się z poważnym problemem, problemem kontroli. Futuryści i teoretycy sztucznej inteligencji nie są jeszcze w stanie wyjaśnić, w jaki sposób możemy kontrolować i powstrzymywać ISI po jego stworzeniu. Nie jest też jasne, w jaki sposób możemy zapewnić, że będzie on przyjazny dla ludzi. Niedawno naukowcy z Georgia Institute of Technology (USA) naiwnie zasugerowali, że sztuczna inteligencja może uczyć się i przyswajać ludzkie wartości oraz znajomość norm społecznych, po prostu czytając proste bajki. Tak, tak, proste bajki i historie dla dzieci, które rodzice czytali nam w dzieciństwie. Ale w rzeczywistości wszystko okaże się znacznie bardziej skomplikowane niż to wszystko.

„Zaproponowano wiele tak zwanych„ rozwiązań”do sterowania sztuczną inteligencją” - mówi Stuart Armstrong.

Przykładem takich rozwiązań może być programowanie ISI w taki sposób, aby nieustannie starał się zadowolić lub zadowolić osobę. Alternatywą byłoby zintegrowanie takich pojęć jak miłość lub szacunek z kodem źródłowym. Aby uniknąć takiego rozwoju scenariusza, zgodnie z którym sztuczna inteligencja może uprościć wszystkie te koncepcje i postrzegać ten świat przez pryzmat tych super uproszczonych koncepcji, dzieląc go tylko na czarno-biały, można zaprogramować ją tak, aby rozumiała i akceptowała różnorodność intelektualną, kulturową i społeczną.

Trzy prawa robotyki Isaaca Asimova doskonale pasują do pojęcia fikcji, ale w rzeczywistości potrzebujemy czegoś bardziej wszechstronnego, aby rozwiązać problem kontroli

Image
Image

Niestety, te rozwiązania są zbyt proste i wyglądają na próbę dopasowania całej złożoności ludzkich upodobań lub antypatii do jednej ogólnej definicji lub koncepcji lub próbę dopasowania całej złożoności ludzkich wartości do jednego słowa, wyrażenia lub idei. Na przykład spróbuj dopasować do tych ram spójną i adekwatną definicję czegoś takiego jak „szacunek”.

„Oczywiście nie należy myśleć, że takie proste opcje są całkowicie bezużyteczne. Wiele z nich daje doskonały powód do myślenia i być może stymuluje poszukiwanie rozwiązania ostatecznego problemu”- mówi Armstrong.

„Ale nie możemy polegać wyłącznie na nich bez bardziej złożonej pracy, bez jasnych badań i szukania konsekwencji stosowania określonych rozwiązań”.

Zostaniemy zniszczeni przez sztuczną superinteligencję

Nikt nie może zagwarantować, że sztuczna inteligencja nas kiedyś zniszczy, tak jak nikt nie może powiedzieć z całą pewnością, że nie będziemy w stanie znaleźć sposobów na kontrolowanie i wykorzystywanie sztucznej inteligencji do własnych celów. Jak powiedział kiedyś amerykański ekspert od sztucznej inteligencji Eliezer Yudkowski: „AI nie może cię kochać ani nienawidzić, ale jesteś zbudowany z atomów, które mogłaby wykorzystać do czegoś innego”.

Oksfordzki filozof Nick Bostrom w swojej książce Superintelligence: Ways, Dangers and Strategies pisze, że prawdziwa superinteligencja pewnego dnia będzie w stanie się zrealizować, co uczyni ją bardziej niebezpieczną niż jakikolwiek wynalazek kiedykolwiek stworzony przez człowieka. Wybitni współcześni myśliciele, tacy jak Elon Musk, Bill Gates i Stephen Hawking (z których wielu uważa, że „sztuczna inteligencja może być najgorszym błędem w historii ludzkości”) są bardziej skłonni zgodzić się z tą opinią i już biją na alarm.

Peter McIntyer uważa, że w przypadku większości zadań, które superinteligencja może sobie postawić, ludzie będą wyglądać jak dodatkowe ogniwo.

„AI pewnego dnia będzie w stanie stwierdzić - i należy zauważyć, że obliczy to całkiem poprawnie - że ludzie nie chcą jej używać do maksymalizacji rentowności jakiejkolwiek konkretnej firmy za wszelką cenę, niezależnie od konsekwencji dla konsumentów, środowiska i istot żywych. Dlatego będzie miał ogromny bodziec do opracowania planu i strategii, dzięki czemu dana osoba nie będzie w stanie ingerować w rozwiązanie zadania, zmieniając je czy nawet wyłączając sztuczną inteligencję”.

Według McIntyera, jeśli zadania sztucznej inteligencji są dokładnie odwrotne od naszych, da to doskonałe powody, by nie pozwolić nam tego zatrzymać. A jeśli weźmiemy pod uwagę, że poziom jego inteligencji będzie znacznie wyższy niż nasz, to naprawdę bardzo, bardzo trudno będzie go powstrzymać, jeśli w ogóle będzie to możliwe.

Jednak teraz nie da się nic z całą pewnością powiedzieć i nikt nie będzie w stanie powiedzieć, z jaką formą sztucznej inteligencji będziemy mieli do czynienia i jak może zagrozić ludzkości. Jak powiedział kiedyś Elon Musk, sztuczna inteligencja może być faktycznie używana do kontrolowania, śledzenia i kontrolowania innych AI. I być może zostaną do niej wprowadzone ludzkie wartości i początkowa życzliwość dla ludzi.

Sztuczny superinteligencja będzie przyjazny

Filozof Immanuel Kant uważał, że inteligencja jest silnie związana z zasadami moralności. W swojej pracy Singularity: A Philosophical Analysis neurobiolog David Chalmers wziął za podstawę słynną ideę Kanta i próbował zastosować ją do analizy powstawania sztucznego superinteligencji.

Image
Image

„Jeśli zasady opisane w tym artykule są prawidłowe, to wraz z gwałtownym rozwojem sztucznej inteligencji należy spodziewać się gwałtownego rozwoju zasad moralnych. Dalszy rozwój doprowadzi do pojawienia się systemów ISI, które będą posiadały supermorale i superinteligencję. Dlatego powinniśmy oczekiwać z ich strony jedynie życzliwych cech”.

Prawda jest taka, że idea zaawansowanej sztucznej inteligencji z zasadami moralnymi i wyjątkowymi cnotami nie wytrzymuje. Jak podkreśla Armstrong, świat jest pełen sprytnych zbrodniarzy wojennych. Na przykład intelekt i moralność w człowieku nie są w żaden sposób powiązane, dlatego naukowiec kwestionuje, że taki związek będzie istniał w innych formach inteligencji.

„Mądrzy ludzie, którzy zachowują się niemoralnie, stwarzają o wiele więcej problemów i bólu niż ich mniej inteligentni koledzy. Inteligencja pozwala im być bardziej wyrafinowanymi w swoich złych niż dobrych działaniach”- mówi Armstrong.

McIntyre wyjaśnia, że zdolność agenta do wykonania danego zadania nie ma nic wspólnego z tym, czym ono jest.

„Będziemy mieć dużo szczęścia, jeśli nasze AI staną się bardziej moralne, a nie tylko inteligentne. Poleganie na szczęściu to oczywiście ostatnia rzecz w tej sprawie, ale być może to szczęście określi naszą pozycję w przyszłości”- mówi badacz.

Ryzyko związane ze sztuczną inteligencją i robotyką jest takie samo

Jest to szczególnie powszechne nieporozumienie używane w mediach, a także w hollywoodzkich hitach, takich jak Terminator.

Image
Image

Jeśli sztuczna superinteligencja, na przykład Skynet, naprawdę chce zniszczyć całą ludzkość, jest mało prawdopodobne, że użyje paramilitarnych androidów z karabinami maszynowymi w każdej ręce. Jego sprytne i efektywne myślenie pozwoli mu zrozumieć, że znacznie wygodniej będzie zastosować, powiedzmy, nowy rodzaj dżumy biologicznej czy na przykład jakąś katastrofę nanotechnologiczną. A może po prostu zabierze i zniszczy atmosferę naszej planety. Sztuczna inteligencja jest potencjalnie niebezpieczna nie tylko dlatego, że jej rozwój jest ściśle powiązany z rozwojem robotyki. Przyczyną jego potencjalnego niebezpieczeństwa są metody i środki, za pomocą których może on ogłosić swoją obecność światu.

Sztuczna inteligencja wykorzystana w science fiction odzwierciedla naszą przyszłość

Bez wątpienia przez wiele lat pisarze i pisarze science fiction używali środowiska science fiction jako trampoliny do spekulacji na temat naszej prawdziwej przyszłości, ale faktyczne stworzenie ISI i rzeczywiste konsekwencje tego wciąż wykraczają poza horyzont naszej prawdziwej wiedzy. Co więcej, taka sztuczna i wyraźnie nieludzka natura sztucznej inteligencji nie pozwala nam nawet z jakąkolwiek dokładnością założyć, czym faktycznie będzie ta sztuczna inteligencja.

Image
Image

W większości dzieł science-fiction sztuczna inteligencja jest jak najbliżej ludzi.

„Przed nami jest właściwie całe spektrum najróżniejszych możliwych typów umysłów. Nawet jeśli przyjmiemy tylko ludzką postać. Na przykład, twój umysł nie jest identyczny z umysłem twojego bliźniego. Ale to porównanie to tylko kropla w morzu całej możliwej różnorodności umysłów, które mogłyby istnieć”- mówi McIntyre.

Większość fikcji science-fiction jest oczywiście tworzonych głównie po to, aby opowiedzieć historię, a nie po to, aby być tak przekonującym naukowo, jak to tylko możliwe. Gdyby było na odwrót (nauka jest ważniejsza niż fabuła), to śledzenie takich prac byłoby nieciekawe.

„Wyobraź sobie, jak nudne byłyby wszystkie te historie, w których sztuczna inteligencja bez samoświadomości, zdolności do radowania się, kochania czy nienawiści niszczy praktycznie wszystkich ludzi bez żadnego oporu przed osiągnięciem celu, co zresztą może też nie być zbyt interesujące dla czytelnika lub widza”- komentuje Armstrong.

AI zajmie nam pracę

Zdolność sztucznej inteligencji do automatyzacji procesów, które wykonujemy ręcznie, i jej potencjał zniszczenia całej ludzkości to nie to samo. Jednak według Martina Forda, autora Rise of the Robots: Technology and the Threat of a Jobless Future, często próbuje się je porównać i połączyć w spójną całość. Oczywiście to wspaniale, że staramy się dotychczas przewidywać konsekwencje tworzenia sztucznej inteligencji, ale tylko wtedy, gdy te wysiłki nie odciągną nas od problemów, z którymi możemy się zmierzyć za kilka dekad, jeśli nic nie zrobimy. Jednym z głównych takich problemów jest automatyzacja masowa.

Image
Image

Niewielu twierdzi, że jednym z wyzwań sztucznej inteligencji będzie znalezienie sposobu na zautomatyzowanie wielu zawodów, od pracy w fabryce po niektóre prace umysłowe. Niektórzy eksperci przewidują, że połowa wszystkich miejsc pracy, przynajmniej w USA, może zostać zautomatyzowana w najbliższej przyszłości.

Ale to wcale nie oznacza, że nie będziemy w stanie zaakceptować takich zmian. Ważne jest, aby zrozumieć, że chęć uwolnienia się od niepotrzebnego stresu fizycznego i psychicznego w pracy od dawna jest marzeniem naszego gatunku ludzkiego.

„Za kilka dziesięcioleci sztuczna inteligencja rzeczywiście zastąpi ludzi na wielu stanowiskach. I to jest naprawdę bardzo dobre. Na przykład samojezdne samochody zastąpią truckerów, co z kolei nie tylko obniży koszty wysyłki towarów, ale także obniży koszt samych towarów. Jeśli pracujesz jako kierowca ciężarówki, to oczywiście pozostaniesz ostatni, ale wszyscy inni w tym przypadku mają większe szanse na podniesienie pensji. Im więcej tych pieniędzy można zaoszczędzić, tym więcej można je wydać na inne towary i usługi, którymi ludzie będą się zajmować w swoich miejscach pracy”.

Najprawdopodobniej sztuczna inteligencja będzie szukać nowych sposobów na dobre samopoczucie i karmić ludzi, podczas gdy oni zajmują się innymi rzeczami. Postępom w rozwoju AI towarzyszyć będą sukcesy w innych obszarach. Szczególnie w sektorach produkcyjnych. W przyszłości wszystko to prawdopodobnie znacznie uprości, a nie skomplikuje zaspokojenie naszych podstawowych potrzeb.