Czego Obawia Się Twórca Sztucznej Inteligencji W Swoim Dziele - Alternatywny Widok

Spisu treści:

Czego Obawia Się Twórca Sztucznej Inteligencji W Swoim Dziele - Alternatywny Widok
Czego Obawia Się Twórca Sztucznej Inteligencji W Swoim Dziele - Alternatywny Widok

Wideo: Czego Obawia Się Twórca Sztucznej Inteligencji W Swoim Dziele - Alternatywny Widok

Wideo: Czego Obawia Się Twórca Sztucznej Inteligencji W Swoim Dziele - Alternatywny Widok
Wideo: Uratuje nas Sztuczna Inteligencja – Wiesław Bartkowski (X Festiwal Przemiany) 2024, Może
Anonim

Jako badacz AI często spotykam się z opinią, że wiele osób boi się AI i tego, czym może się ona stać. W rzeczywistości nie jest zaskakujące, jeśli spojrzysz z perspektywy historii ludzkości, zwracając uwagę na to, czym przemysł rozrywkowy nas karmi, że ludzie mogą obawiać się cybernetycznego powstania, które zmusi nas do życia na odizolowanych terytoriach i zamieni innych w rodzaj ludzkich baterii "podobnych do matryc" …

A jednak, patrząc na te wszystkie ewolucyjne modele komputerowe, których używam w rozwoju sztucznej inteligencji, trudno mi pomyśleć, że moje nieszkodliwe, czyste jak łzy dziecka stworzenia na ekranie mojego komputera mogą pewnego dnia zamienić się w potwory futurystycznej dystopii. Czy naprawdę można mnie nazwać „niszczycielem światów”, jak kiedyś Oppenheimer żałował i mówił o sobie po tym, jak poprowadził program stworzenia bomby atomowej?

Może zaakceptowałbym taką sławę, a może krytycy mojej twórczości mają rację? Może naprawdę powinienem przestać unikać pytań o to, jakie mam obawy dotyczące AI jako eksperta AI?

Strach przed nieprzewidywalnością

HAL 9000, marzenie pisarza science fiction Arthura Charlesa Clarke'a, ożywione przez reżysera Stanleya Kubricka w A Space Odyssey z 2001 roku, jest doskonałym przykładem systemu, który uległ awarii z powodu nieprzewidzianych okoliczności.

W wielu złożonych systemach - Titanic, prom kosmiczny NASA i elektrownia jądrowa w Czarnobylu - inżynierowie musieli łączyć wiele komponentów. Być może architekci tych systemów doskonale zdawali sobie sprawę z tego, jak każdy z jego elementów działa indywidualnie, ale nie rozumieli dostatecznie dobrze, jak wszystkie te elementy będą ze sobą współpracować.

Film promocyjny:

Rezultatem były systemy, które nigdy nie zostały w pełni zrozumiane przez ich własnych twórców, co doprowadziło do dobrze znanych konsekwencji. W każdym przypadku statek zatonął, dwa wahadłowce eksplodowały, a prawie cała Europa i części Azji stanęły przed problemem skażenia radioaktywnego - zestawu stosunkowo niewielkich problemów, które wystąpiły jednocześnie, powodując katastrofalny efekt.

Doskonale wyobrażam sobie, jak my, twórcy sztucznej inteligencji, możemy osiągnąć podobne rezultaty. Bierzemy najnowsze osiągnięcia i badania z kognitywistyki (nauki o myśleniu - przyp. Red.), Przekładamy je na algorytmy komputerowe i dodajemy to wszystko do istniejących systemów. Staramy się rozwijać sztuczną inteligencję bez pełnego zrozumienia naszej własnej inteligencji i świadomości.

Systemy takie jak Watson firmy IBM czy Alpha firmy Google to sztuczne sieci neuronowe o imponującej mocy obliczeniowej i możliwości radzenia sobie z naprawdę złożonymi zadaniami. Ale na razie jedyną rzeczą, do której doprowadzi błąd w ich pracy, będzie przegrana w intelektualnej grze „Jeopardy!”. lub stracona szansa na pokonanie kolejnej najlepszej na świecie logicznej gry planszowej Go.

Konsekwencje te nie mają charakteru globalnego. W rzeczywistości najgorszą rzeczą, która może się przydarzyć ludziom w tym przypadku, jest to, że ktoś traci pewną ilość pieniędzy na zakładach.

Jednak architektura sztucznej inteligencji staje się coraz bardziej złożona, a procesy komputerowe przyspieszają. Możliwości sztucznej inteligencji będą się zwiększać z czasem. I już to doprowadzi nas do tego, że zaczniemy przypisywać AI coraz większą odpowiedzialność, nawet pomimo wzrastającego ryzyka nieprzewidzianych okoliczności.

Doskonale zdajemy sobie sprawę, że „błędy są częścią ludzkiej natury”, dlatego po prostu fizycznie niemożliwe będzie dla nas stworzenie naprawdę bezpiecznego systemu we wszystkim.

Strach przed niewłaściwym użyciem

Nie martwi mnie nieprzewidywalność konsekwencji w pracy sztucznej inteligencji, którą rozwijam stosując tzw. Podejście neuroewolucyjne. Tworzę wirtualne środowiska i zapełniam je cyfrowymi stworzeniami, wydając ich mózgom polecenia rozwiązywania problemów o coraz większej złożoności.

Z biegiem czasu skuteczność rozwiązywania problemów przez te stworzenia rośnie i ewoluuje. Ci, którzy wykonują najlepszą robotę, są wybierani do reprodukcji, tworząc na ich podstawie nowe pokolenie. Z biegiem pokoleń te cyfrowe stworzenia rozwijają zdolności poznawcze.

Na przykład w tej chwili stawiamy pierwsze kroki w rozwoju maszyn do poziomu wykonywania prostych zadań nawigacyjnych, podejmowania prostych decyzji, czy zapamiętywania kilku informacji. Ale wkrótce zobaczymy rozwój maszyn, które mogą wykonywać bardziej złożone zadania i mają znacznie bardziej wydajny ogólny poziom inteligencji. Naszym ostatecznym celem jest stworzenie inteligencji na poziomie ludzkim.

W trakcie tej ewolucji postaramy się znaleźć i naprawić wszystkie błędy i problemy. Z każdą nową generacją maszyny będą lepiej radzić sobie z błędami niż poprzednie. Zwiększy to szanse, że uda nam się zidentyfikować nieprzewidywalne konsekwencje w symulacjach i wyeliminować je, zanim będą mogły zostać zrealizowane w rzeczywistym świecie.

Kolejną szansą, jaką daje ewolucyjna metoda rozwoju, jest wyposażenie sztucznej inteligencji w etykę. Jest prawdopodobne, że takie etyczne i moralne cechy człowieka jak rzetelność i altruizm są wynikiem naszej ewolucji i czynnikiem jej kontynuacji.

Możemy stworzyć środowisko konstrukcyjne i dać maszynom możliwość okazywania życzliwości, uczciwości i empatii. To może być jeden ze sposobów na upewnienie się, że stworzymy bardziej posłusznych sług niż bezwzględnych robotów-zabójców. Jednak chociaż neuroewolucja może zmniejszyć poziom niezamierzonych konsekwencji w zachowaniu sztucznej inteligencji, nie może zapobiec niewłaściwemu wykorzystaniu sztucznej inteligencji.

Jako naukowiec muszę sprostać mojemu zaangażowaniu w prawdę i informować o tym, co odkryłem podczas moich eksperymentów, bez względu na to, czy podobają mi się wyniki, czy nie. Moim zadaniem nie jest określanie tego, co mi się podoba, a czego nie. Jedyną ważną rzeczą jest to, że mogę upublicznić swoją pracę.

Strach przed niewłaściwymi priorytetami społecznymi

Bycie naukowcem nie oznacza utraty człowieczeństwa. Na pewnym poziomie muszę ponownie połączyć się z moimi nadziejami i obawami. Jako osoba o motywacji moralnej i politycznej muszę wziąć pod uwagę potencjalne konsekwencje mojej pracy i jej możliwy wpływ na społeczeństwo.

Jako naukowcy i jako przedstawiciele społeczeństwa wciąż nie doszliśmy do jasnego pomysłu, czego dokładnie chcemy uzyskać od sztucznej inteligencji i czym powinna się ona ostatecznie stać. Wynika to oczywiście częściowo z faktu, że nadal nie w pełni rozumiemy jego potencjał. Jednak nadal musimy jasno zrozumieć i zdecydować, czego chcemy uzyskać od naprawdę zaawansowanej sztucznej inteligencji.

Jednym z największych obszarów, na które ludzie zwracają uwagę, mówiąc o sztucznej inteligencji, jest zatrudnienie. Roboty już teraz wykonują dla nas złożone prace fizyczne, takie jak składanie i spawanie części karoserii. Ale pewnego dnia nadejdzie dzień, w którym roboty otrzymają zadanie wykonywania zadań poznawczych, to znaczy otrzymają zadanie, które wcześniej uważano za wyłącznie unikalną zdolność samej osoby. Samojezdne samochody mogą zastąpić taksówkarzy; samoloty samojezdne nie będą potrzebować pilotów.

Zamiast opieki medycznej w salach ratunkowych wypełnionych zawsze zmęczonym personelem i lekarzami, pacjenci będą mogli przeprowadzać badania i uczyć się diagnoz za pomocą systemów eksperckich z natychmiastowym dostępem do całej wiedzy medycznej. Operacje chirurgiczne będą wykonywane przez niewrażliwe na zmęczenie roboty, z doskonale „wytrenowaną ręką”.

Porady prawne będą dostępne w kompleksowych ramach prawnych. W celu uzyskania porady inwestycyjnej skorzystamy z eksperckich systemów prognozowania rynku. Być może pewnego dnia cała ludzka praca zostanie wykonana przez maszyny. Nawet moją pracę można wykonać szybciej, używając dużej liczby maszyn, które nieustannie badają, jak uczynić maszyny jeszcze inteligentniejszymi.

W realiach naszego obecnego społeczeństwa automatyzacja już zmusza ludzi do odejścia z pracy, czyniąc bogatych właścicieli takich zautomatyzowanych maszyn jeszcze bogatszymi, a resztę jeszcze biedniejszymi. Ale to nie jest problem naukowy. Jest to problem polityczny i społeczno-gospodarczy, który samo społeczeństwo musi rozwiązać.

Moje badania tego nie zmienią, ale moje polityczne fundamenty, wraz z ludzkością, mogą prowadzić do okoliczności, w których sztuczna inteligencja może stać się niezwykle użyteczną funkcją, zamiast zwiększać przepaść między jednym procentem światowej elity a resztą z nas.

Strach przed katastrofalnym scenariuszem

Doszliśmy do ostatecznego strachu narzuconego nam przez szalonego HAL 9000, Terminatora i każdy inny nikczemny superinteligencję. Jeśli sztuczna inteligencja będzie ewoluować, aż przewyższy ludzką inteligencję, czy sztuczny system superinteligentny (lub zbiór takich systemów) uważałby ludzi za bezużyteczny materiał? Jak możemy usprawiedliwić nasze istnienie w obliczu superinteligencji zdolnej do zrobienia i stworzenia tego, czego nie potrafi nikt inny? Czy uda nam się uniknąć losu zmiatania z powierzchni Ziemi przez maszyny, które pomogliśmy stworzyć?

Dlatego najważniejsze pytanie w takich okolicznościach zabrzmi tak: po co nam sztuczna superinteligencja?

Gdyby taka sytuacja miała miejsce, powiedziałbym pewnie, że jestem dobrym człowiekiem, który nawet przyczynił się do powstania tego superinteligencji, z którym mam teraz do czynienia. Apeluję do jego współczucia i empatii, aby superinteligencja pozostawiła mnie żywego, tak współczującego i empatycznego. Dodałbym również, że sama różnorodność gatunkowa ma wartość, a wszechświat jest tak duży, że istnienie w nim gatunku ludzkiego jest właściwie zupełnie nieistotne.

Ale nie mogę mówić w imieniu całej ludzkości, więc trudno będzie mi znaleźć uzasadniony argument dla nas wszystkich. Po prostu kiedy patrzę na nas wszystkich, naprawdę widzę, że zrobiliśmy dużo i robimy dużo źle. Na świecie panuje nienawiść do siebie nawzajem. Idziemy na wojnę przeciwko sobie. Niesprawiedliwie rozdajemy żywność, wiedzę i opiekę zdrowotną. Zanieczyszczamy planetę. Na tym świecie jest oczywiście wiele dobrych rzeczy, ale jeśli spojrzysz na wszystkie złe rzeczy, które stworzyliśmy i nadal tworzymy, bardzo trudno będzie znaleźć argument na poparcie naszego dalszego istnienia.

Na szczęście nie musimy jeszcze usprawiedliwiać naszego istnienia. Nadal mamy czas. Od 50 do 250 lat, w zależności od tego, jak szybko rozwinie się sztuczna inteligencja. Jako gatunek mamy zdolność do spotkania się i znalezienia dobrej odpowiedzi na pytanie, dlaczego superinteligencja nie powinna zetrzeć nas z powierzchni planety.

Rozwiązanie tego problemu będzie bardzo trudne. Przecież stwierdzenie, że wspieramy różnorodność i różnice etnokulturowe, i czynienie tego, to zupełnie inna sprawa. Jak powiedzieć, że chcemy ocalić planetę i skutecznie sobie z nią poradzić.

Każdy z nas, czy to każda osoba, czy społeczeństwo jako całość, musimy przygotować się na katastrofalny scenariusz, wykorzystując ten czas, aby być gotowym do pokazania i udowodnienia, dlaczego nasze dzieła powinny pozwolić nam nadal istnieć. Albo możemy po prostu nadal ślepo wierzyć, że taki rozwój wydarzeń jest niemożliwy i po prostu przestać mówić na ten temat.

Jednak bez względu na to, jakie fizyczne zagrożenie może dla nas stanowić superinteligencja, nie powinniśmy zapominać, że będzie to również zagrożenie polityczne i gospodarcze. Jeśli nie znajdziemy sposobu na poprawę naszego standardu życia, skończymy po prostu na napędzaniu kapitalizmu robotnikiem sztucznej inteligencji, który będzie służył tylko nielicznym wybranym, którzy mają wszystkie środki produkcji.

Ten artykuł został pierwotnie opublikowany na theconversation.com przez Arenda Hintze, profesora nadzwyczajnego na Wydziale Biologii Integratywnej, Informatyki i Inżynierii Uniwersytetu Michigan

Nikolay Khizhnyak

Zalecane: