Niebezpieczna Ludzkość: Po Co Nam Inteligentna Sztuczna Inteligencja? - Alternatywny Widok

Spisu treści:

Niebezpieczna Ludzkość: Po Co Nam Inteligentna Sztuczna Inteligencja? - Alternatywny Widok
Niebezpieczna Ludzkość: Po Co Nam Inteligentna Sztuczna Inteligencja? - Alternatywny Widok

Wideo: Niebezpieczna Ludzkość: Po Co Nam Inteligentna Sztuczna Inteligencja? - Alternatywny Widok

Wideo: Niebezpieczna Ludzkość: Po Co Nam Inteligentna Sztuczna Inteligencja? - Alternatywny Widok
Wideo: Do czego zdolna jest sztuczna inteligencja? 2024, Może
Anonim

Kiedy Norbert Wiener, ojciec cybernetyki, napisał w 1950 roku swoją książkę Human Uses of Human Beings, lampy próżniowe nadal były podstawowymi elementami elektronicznymi, aw rzeczywistości działało tylko kilka komputerów. Jednak wyobraził sobie przyszłość, którą teraz widzimy, z niespotykaną dotąd precyzją, myląc tylko drobne szczegóły.

Przed jakimkolwiek innym filozofem sztucznej inteligencji zdawał sobie sprawę, że sztuczna inteligencja nie tylko będzie naśladować - i zastępować - istoty ludzkie w wielu rodzajach aktywności intelektualnej, ale także zmieni ludzi w tym procesie. „Jesteśmy tylko wirami w rzece nieustannie płynącej wody” - napisał. „Nie jesteśmy czymś, co po prostu żyje, jesteśmy wzorami, które się utrwalają”.

Na przykład, gdy pojawia się wiele kuszących możliwości, jesteśmy gotowi zapłacić i zaakceptować niewielkie koszty prowadzenia firmy, aby uzyskać dostęp do nowych możliwości. I bardzo szybko uzależniamy się od nowych narzędzi, tracimy możliwość istnienia bez nich. Opcje stają się wymagane.

To bardzo stara historia ewolucji i wiele z jej rozdziałów jest nam dobrze znanych. Większość ssaków może syntetyzować własną witaminę C, ale naczelne jedzące owoce utraciły tę wbudowaną zdolność. Powtarzające się wzorce, które nazywamy ludźmi, opierają się teraz na odzieży, przetworzonej żywności, witaminach, strzykawkach, kartach kredytowych, smartfonach i Internecie. A jutro, jeśli nie dziś, od sztucznej inteligencji.

Wiener przewidział kilka problemów związanych z tym stanem rzeczy, które Alan Turing i inni wczesni optymiści AI w dużej mierze przeoczyli. Prawdziwym zagrożeniem, powiedział, było:

… polega na tym, że takie maszyny, choć bezradne same w sobie, mogą być używane przez ludzi lub blokować ludzi, aby zwiększyć ich kontrolę nad resztą rasy, lub przywódcy polityczni mogą próbować przejąć kontrolę nad swoją populacją za pomocą metod politycznych, a nie samych maszyn, tak wąskie i obojętne na człowieka, jakby zostały wynalezione mechanicznie.

Oczywiście te niebezpieczeństwa są teraz bardzo istotne.

Na przykład w mediach innowacje w cyfrowym audio i wideo pozwalają nam zapłacić niewielką cenę (w oczach audiofilów i widzów) za odejście od formatów analogowych, aw zamian otrzymać niezwykle prosty - zbyt prosty - sposób odtwarzania nagrań niemal bez ograniczeń.

Film promocyjny:

Image
Image

Ale jest ogromny ukryty koszt. Służba prawdy Orwella stała się prawdziwą szansą. Techniki sztucznej inteligencji służące do tworzenia praktycznie nieodróżnialnych fałszywych „zapisów” sprawiają, że narzędzia, których używaliśmy w dochodzeniach, są przestarzałe przez ostatnie 150 lat.

Musimy po prostu porzucić krótką erę fotograficznych dowodów i wrócić do starego świata, w którym ludzka pamięć i zaufanie były złotym standardem. Albo możemy opracować nowe metody obrony i ataku w walce o prawdę. Jednym z najbardziej ekscytujących niedawnych przykładów jest fakt, że znacznie taniej jest zniszczyć reputację niż zdobyć i chronić tę samą reputację. Wiener widział to zjawisko bardzo szeroko: „Na dłuższą metę nie będzie różnicy między uzbrojeniem się a uzbrojeniem wroga”. Era informacji stała się również erą dezinformacji.

Co możemy zrobić? Kluczem jest ta sama obserwacja Wienera, że „te maszyny” są „same bezradne”. Tworzymy narzędzia, a nie współpracowników, a prawdziwym zagrożeniem jest to, że nie widzimy różnicy.

Sztuczna inteligencja w swojej obecnej formie pasożytuje na inteligencji ludzkiej. Bardzo bezceremonialnie przejmuje w posiadanie wszystko, co stworzyli ludzcy twórcy, i rysuje wzory - w tym nasze najbardziej tajne nawyki. Te maszyny nie mają jeszcze celów ani strategii, nie są zdolne do samokrytyki i innowacji, tylko studiują nasze bazy danych, bez własnych myśli i celów.

Są, jak mówi Wiener, bezradni nie w tym sensie, że są przykute lub unieruchomieni, nie, wcale nie są agentami - nie mają zdolności „działania z przyczyn”, jak powiedziałby Kant.

W dłuższej perspektywie „silna sztuczna inteligencja”, czyli ogólna sztuczna inteligencja, jest w zasadzie możliwa, ale niepożądana. Jeszcze bardziej ograniczona sztuczna inteligencja, która jest dziś możliwa w praktyce, nie będzie zła. Ale stanowi zagrożenie - po części dlatego, że można go pomylić z potężną sztuczną inteligencją.

Jak silna jest dziś sztuczna inteligencja?

Przepaść między dzisiejszymi systemami a systemami science-fiction zalewająca powszechną wyobraźnię jest wciąż ogromna, chociaż wiele osób, zarówno amatorów, jak i profesjonalistów, ma tendencję do jej niedoceniania. Przyjrzyjmy się Watsonowi IBM, który w dzisiejszych czasach może być poważny.

Ten superkomputer jest wynikiem niezwykle zakrojonego na szeroką skalę procesu badawczo-rozwojowego (badawczo-rozwojowego), w który zaangażowanych było wiele osób i projektów inteligencji na przestrzeni wielu stuleci, i zużywa tysiące razy więcej energii niż ludzki mózg. Jego zwycięstwo w Jeopardy! był prawdziwym triumfem, który był możliwy dzięki formalnym ograniczeniom reguł Jeopardy !, ale nawet te zasady musiały zostać zmienione, aby mógł uczestniczyć. Musiałem zrezygnować z odrobiny wszechstronności i dodać człowieczeństwo, aby zrobić show.

Watson to zła firma, pomimo wprowadzających w błąd reklam IBM, które obiecują zdolność konwersacji AI na obu poziomach, a uczynienie Watsona wiarygodnym, wieloaspektowym agentem byłoby podobne do zrobienia kalkulatora Watson. Watson może być dobrym przypadkiem komputerowym dla takiego agenta, ale raczej móżdżkiem lub ciałem migdałowatym niż umysłem - w najlepszym przypadku podsystemem specjalnego przeznaczenia służącym jako wsparcie, ale nie prawie systemem planowania i formułowania celów w oparciu o otrzymane doświadczenie konwersacyjne.

Dlaczego mielibyśmy chcieć stworzyć myślącego i kreatywnego agenta z Watson? Być może genialny pomysł Turinga - słynny test Turinga - zwabił nas w pułapkę: mamy obsesję na punkcie stworzenia przynajmniej iluzji prawdziwej osoby siedzącej przed ekranem, omijającej „złowrogą dolinę”.

Niebezpieczeństwo polega na tym, że odkąd Turing przedstawił swoje zadanie - które było przede wszystkim zadaniem oszukania sędziów - twórcy sztucznej inteligencji próbowali to osiągnąć za pomocą zabawnych humanoidalnych lalek, „kreskówkowych” wersji, które zafascynują i rozbroją niewtajemniczonych. ELIZA autorstwa Josepha Weisenbauma, pierwszego chatbota, była doskonałym przykładem stworzenia takiej iluzji, ale z niezwykle prostym algorytmem, który mógł przekonać ludzi, że prowadzą szczerą i szczerą rozmowę z innymi ludźmi.

Martwił się, z jaką łatwością ludzie są skłonni w to uwierzyć. A jeśli wyciągnęliśmy cokolwiek z corocznego limitowanego testu Turinga przyznawanego przez Lebnera, to jest to, że nawet najmądrzejsi ludzie, którzy nie są biegli w programowaniu komputerowym, łatwo dają się nabrać na te proste sztuczki.

Stosunek ludzi w sztucznej inteligencji do takich technik waha się od osądzania do satysfakcji, a konsensus jest taki, że te sztuczki nie są zbyt głębokie, ale mogą być przydatne. Zmiana postawy, która byłaby bardzo pożądana, byłaby szczerym przyznaniem, że androidy pomalowane na lalki to fałszywe reklamy, które należy oceniać, a nie zachęcać.

Jak można to osiągnąć? Kiedy zrozumiemy, że ludzie zaczynają podejmować decyzje dotyczące życia i śmierci, kierując się „radami” systemów sztucznej inteligencji, których wewnętrzne operacje są prawie niezrozumiałe, zobaczymy dobry powód dla tych, którzy wzywają ludzi do ufania takim systemom, aby zaczęli polegać na normach moralności i prawa.

Systemy sztucznej inteligencji to bardzo potężne narzędzia. Tak potężne, że nawet eksperci mają dobry powód, by nie ufać własnemu osądowi, kiedy istnieją „sądy” reprezentowane przez te narzędzia. Ale jeśli ci użytkownicy narzędzi mają odnieść korzyści finansowe lub inne z popularyzacji tych narzędzi, muszą upewnić się, że wiedzą, jak to zrobić z pełną odpowiedzialnością, maksymalną kontrolą i uzasadnieniem.

Licencjonowanie i zatwierdzanie operatorów takich systemów - tak jak udzielamy licencji farmaceutom, operatorom dźwigów i innym profesjonalistom, których błędy i błędne oceny mogą mieć tragiczne konsekwencje - być może, przy wsparciu firm ubezpieczeniowych i innych organizacji, zobligujemy twórców systemów AI do pójścia daleko szukając słabych i niedociągnięć swoich produktów, a także szkoląc tych, którzy będą z nimi pracować.

Można sobie wyobrazić swego rodzaju odwrotny test Turinga, w którym sędzia będzie przedmiotem oceny; dopóki nie znajdzie słabości, przekroczenia granic, luk w systemie, nie otrzyma licencji. Taki sędzia będzie wymagał poważnego przeszkolenia, aby uzyskać certyfikat. Chęć przypisania obiektowi ludzkiej zdolności myślenia, jak to zwykle robimy podczas spotkania z inteligentnym agentem, jest bardzo, bardzo silna.

W rzeczywistości zdolność oparcia się pokusie zobaczenia czegoś humanizowanego jest dziwną rzeczą. Wiele osób uznałoby wychowanie takiego talentu za wątpliwe, ponieważ nawet najbardziej pragmatyczni użytkownicy systemu są czasami „przyjaźni” w stosunku do swoich narzędzi.

Bez względu na to, jak ostrożnie projektanci sztucznej inteligencji wybierają eliminowanie fałszywych „ludzkich” podtekstów w swoich produktach, powinniśmy spodziewać się rozkwitu etykiet, obejść i tolerowanych zniekształceń faktycznego „zrozumienia” zarówno systemów, jak i ich operatorów. Tak samo, jak w telewizji reklamowane są narkotyki z długą listą skutków ubocznych, a alkohol jest reklamowany dużą ilością drobnego druku ze wszystkimi ostrzeżeniami wymaganymi przez prawo, więc twórcy sztucznej inteligencji będą przestrzegać prawa, ale będą wyrafinowani w ostrzeżeniach.

Dlaczego potrzebujemy sztucznej inteligencji?

Nie potrzebujemy sztucznych, świadomych agentów. Istnieje wiele naturalnych świadomych agentów, które są wystarczające do wykonania każdego zadania dla profesjonalistów i osób uprzywilejowanych. Potrzebujemy inteligentnych narzędzi. Narzędzia nie mają praw i nie powinny wywoływać uczuć, które można zranić lub nadużyć.

Jednym z powodów, dla których nie warto tworzyć sztucznych, świadomych agentów jest to, że chociaż mogą stać się autonomicznymi (iw zasadzie mogą być tak samo autonomiczne, samodoskonalące się lub samodoskonalące jak każda osoba), nie powinny - bez specjalnego pozwolenia - dzielić się z naszymi naturalne świadome czynniki, nasza wrażliwość lub nasza śmiertelność.

Daniel Dennett, profesor filozofii na Uniwersytecie Tufts, rzucił kiedyś wyzwanie studentom na warsztatach poświęconych sztucznym agentom i autonomii: Podaj mi specyfikacje robota, który może podpisać z tobą umowę - nie zastępcę będącego własnością innej osoby, ale samego siebie. Nie jest to kwestia zrozumienia przyczyn lub manipulacji piórem na papierze, ale raczej własność i zasłużona własność statusu prawnego i odpowiedzialności moralnej. Małych dzieci nie mogą podpisywać takich umów, a także osoby niepełnosprawne, których stan prawny zobowiązuje je do pozostawania pod opieką i nakłada odpowiedzialność na opiekunów.

Problem z robotami, które mogą chcieć osiągnąć tak wysoki status, polega na tym, że podobnie jak Superman są zbyt wrażliwe, aby wysuwać takie twierdzenia. Jeśli odmówią, co się stanie? Jaka będzie kara za złamanie obietnicy? Czy zostaną zamknięte w klatce czy rozebrane? Więzienie dla sztucznej inteligencji nie będzie niewygodne, jeśli najpierw nie załadujemy pragnienia wolności, którego nie może zignorować ani wyłączyć sama sztuczna inteligencja. Demontaż AI nie zabije informacji przechowywanych na jej dysku iw oprogramowaniu.

Łatwość cyfrowego rejestrowania i przesyłania danych - przełom, który umożliwił oprogramowaniu i danym osiągnięcie w rzeczywistości nieśmiertelności - czyni roboty niewrażliwymi. Jeśli nie wydaje się to oczywiste, zastanów się, jak zmieniłaby się moralność ludzi, gdybyśmy mogli co tydzień wspierać ludzi. Skakanie z mostu bez gumki w niedzielę po piątkowej kopii zapasowej może być pochopną decyzją, wtedy możesz później obejrzeć nagranie swojej przedwczesnej śmierci.

Dlatego nie tworzymy świadomych - chcielibyśmy stworzyć - humanoidalnych agentów, a raczej zupełnie nowy typ stworzeń, jakieś wyrocznie, nieświadome, bez lęku przed śmiercią, bez rozpraszania miłością i nienawiścią, bez osobowości: lustra prawdy, które prawie na pewno zostaną zarażone przez człowieka kłamstwa.

Wykorzystywanie ludzi przez ludzi wkrótce zmieni się - po raz kolejny - na zawsze, ale jeśli weźmiemy odpowiedzialność za naszą ewolucyjną trajektorię, możemy uniknąć niepotrzebnych niebezpieczeństw.

Ilya Khel