Uszczelnianie Osobliwości. Problem Ograniczania Wolności Sztucznej Inteligencji - Alternatywny Widok

Spisu treści:

Uszczelnianie Osobliwości. Problem Ograniczania Wolności Sztucznej Inteligencji - Alternatywny Widok
Uszczelnianie Osobliwości. Problem Ograniczania Wolności Sztucznej Inteligencji - Alternatywny Widok
Anonim

W artykule podjęto próbę sformalizowania i zbadania problemu uszczelniania osobliwości przedstawionego przez Davida Chalmersa. Artykuł rozpoczyna się od określenia problemu ograniczenia wolności sztucznej inteligencji. Po przeanalizowaniu istniejących możliwości rozwiązania tego problemu i ich wad, zaproponowano protokół, którego celem jest stworzenie bezpiecznego, zamkniętego środowiska zdolnego do powstrzymania negatywnych przejawów technologicznej osobliwości, gdy ludzkość posługuje się superinteligencją.

1. Wstęp

Najwyraźniej w najbliższej przyszłości pojawią się i rozwiną superinteligentne programy. W związku z tym wielu naukowców poruszyło kwestię bezpiecznego działania sztucznej inteligencji (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Hall 2000). W opracowaniach poświęconych temu zagadnieniu wiele uwagi poświęca się temu, jak utrzymać superinteligencję w hermetycznie zamkniętej przestrzeni, tak aby nie mogła w jakikolwiek sposób skrzywdzić ludzi. Eric Drexler jest jednym z pierwszych wizjonerów, którzy poruszyli ten temat. Zaproponował umieszczenie superinteligentnych maszyn w ramach, w których wszystko, co robią, może być badane i bezpiecznie używane (Drexler 1986). Rozumując w podobny sposób, futurysta Nick Bostrom zaproponował (Bostrom 2008) stworzenie wyroczni AI (AI), zdolnej jedynie do robieniaodpowiadać na pytania. Wreszcie w 2010 roku David Chalmers przedstawił ideę hermetycznie zamkniętej osobliwości (Chalmers 2010). Zdaniem Chalmersa ze względów bezpieczeństwa w pierwszej kolejności należy ściśle kontrolować działania systemów sztucznej inteligencji, sprowadzać je do modelowania wirtualnych światów, dopóki badanie zachowania tych systemów nie pozwoli w pełni wyjaśnić ich intencji.

1.1 Problem ograniczenia wolności sztucznej inteligencji

Co ciekawe, problem ograniczania wolności AI jest poruszany od dawna i wcale nie w związku z badaniem technologicznej osobliwości. Tak zwany „problem ograniczenia wolności” (PIC) został postawiony w 1973 roku przez Butlera Lampsona (Lampson 1973). Postrzegał to jako wyzwanie dla postępu naukowo-technicznego, stwarzające zagrożenie dla bezpiecznej pracy informatyków, i sformułował to następująco: „… Problem ograniczenia swobodnego wykonywania programu, aby uniemożliwić temu programowi przekazywanie informacji komuś innemu, z wyjątkiem tego, który go uruchomił. … Chcemy mieć możliwość ograniczenia wolności dowolnego programu. … Żaden program, jeśli zostaną nałożone ograniczenia na jego wykonywanie, nie będzie mógł „scalać” danych z osobami nieuprawnionymi. Niegrzeczny program, który próbuje uciec za granicę, może zostać złapany na gorącym uczynku”(tamże).

Aby rozwiązać problem ograniczenia wolności, Lampson opracował prawa ograniczenia wolności (ibid.):

Film promocyjny:

1) Całkowita izolacja: wykonanie programu jest ograniczone tak, że nie może on wywołać żadnego innego programu.

2) Przechodniość: jeśli program, którego wykonanie jest ograniczone, wywołuje inny program, który nie wzbudza zaufania, to wykonanie wywoływanego programu również musi być ograniczone.

3) Stwórz maskę: program, którego wykonanie podlega ograniczeniom, musi pozwolić osobie, która go uruchomi, na ustalenie wszystkich jego wejść do legalnych i nieautoryzowanych kanałów.

4) Monitorowanie wydajności: Administrator musi upewnić się, że wprowadzenie zastrzeżonego programu do nieautoryzowanych kanałów spełnia wymagania osoby, która go uruchamia.

Ponadto Lampson zidentyfikował i zidentyfikował dwa rodzaje kanałów, przez które informacje mogą wydostać się z przestrzeni ograniczonej przez administratora. Legalne kanały są częścią protokołu komunikacyjnego zintegrowanego z ograniczoną przestrzenią (na przykład terminal tekstowy). Wręcz przeciwnie, nieautoryzowane kanały nie są dostarczane przez twórców ograniczonego systemu wykonywania programów i generalnie nie są przeznaczone do przesyłania informacji (na przykład za pomocą chłodnicy, która chłodzi procesor, sztuczna inteligencja za pomocą kodu Morse'a może potajemnie wysyłać sygnały) (ibid.).

Artykuł Lampsona wzbudził duże zainteresowanie problemem umiaru (Lipner 1975; (Boebert & Kain) 1996) oraz pokrewnymi przez lata obszarami badawczymi, takimi jak steganografia (Provos & Kain). Honeyman 2003) i komunikacja za pośrednictwem nieautoryzowanych kanałów (Moskowitz & Kang 1994; Kemmerer 1983, 2002) przeniosły się na poziom autonomicznych dyscyplin. „Problem ograniczenia wolności AI (PSIA) definiujemy jako problem umieszczenia sztucznego, inteligentnego podmiotu w zamkniętej przestrzeni, z której sztuczna inteligencja nie może wymieniać informacji ze środowiskiem zewnętrznym legalnymi lub nieautoryzowanymi kanałami,chyba że taka wymiana informacji została zatwierdzona przez ograniczającą administrację. Mówi się, że system sztucznej inteligencji, któremu udało się złamać protokół PIC, uciekł. Mamy nadzieję, że badacze bezpieczeństwa komputerowego poniosą ciężar projektowania, rozwijania i testowania bezpiecznych protokołów ograniczających swobodę sztucznej inteligencji.

1.2 Niebezpieczny program

Oprogramowanie komputerowe jest bezpośrednio lub pośrednio odpowiedzialne za zarządzanie wieloma ważnymi aspektami naszego życia. Operacje rynkowe Wall Street, elektrownie jądrowe, zasiłki socjalne, historia kredytów i sygnalizacja świetlna są sterowane przez oprogramowanie, a jeden wielki błąd programistów może być katastrofą dla milionów ludzi. Sytuację jeszcze bardziej zagrażają specjalnie spreparowane złośliwe oprogramowanie, takie jak wirusy, oprogramowanie szpiegujące, trojany, robaki i inne niebezpieczne programy (OP). OP może powodować bezpośrednie szkody, a także wyłączać legalnie zainstalowane oprogramowanie używane w systemach o znaczeniu krytycznym. Jeśli PO zdobędzie możliwości sztucznych inteligentnych systemów (na przykład pojawi się sztuczny inteligentny wirus IIV), konsekwencje będą niewątpliwiebędzie katastrofalne. Niebezpieczny program wywiadowczy (IPP), posiadający inteligencję na poziomie ludzkim, w przeciwieństwie do dzisiejszego złośliwego oprogramowania, będzie w stanie spowodować bezprecedensowe katastrofy.

Nick Bostrom w swojej typologii zagrożeń informacyjnych wprowadził pojęcie „niebezpieczeństwa sztucznej inteligencji” (Bostrom 2009), które definiuje jako „zagrożenia komputerowe spowodowane głównie poznawczą złożonością programu, a nie specyfiką napędów początkowo podłączonych do systemu”. Specjaliści ds. Bezpieczeństwa, którzy badają, zapobiegają pojawianiu się i neutralizują OP, opracowali protokoły bezpieczeństwa do pracy ze „złośliwym oprogramowaniem”, w tym z wykorzystaniem tak zwanych „magazynów wirusów”. Uważamy, że takie protokoły mogą być przydatne w rozwiązaniu problemu ograniczenia wolności sztucznej inteligencji.

2. Krytyka idei ograniczenia wolności

Naukowcy zajmujący się metodami ograniczania sztucznej inteligencji wydają się zgadzać, że tego ograniczenia nie można skutecznie egzekwować. Na przykład, według Chalmersa, prawdziwie hermetycznie zamknięty system, który zapobiega przedostawaniu się informacji ze świata symulacji do rzeczywistości, jest „niemożliwy lub przynajmniej pozbawiony znaczenia” (Chalmers 2010). Nie będziemy w stanie wchodzić w interakcję z takim systemem, a nawet obserwować jego działanie, ponieważ każda przydatna informacja, którą wyodrębniamy z AI, wpływa na nas i podważa protokół ograniczenia wolności.

Vernor Vinge też tak uważa. Sprzeciwia się fizycznemu ograniczaniu wolności (Vinge 1993): „Wyobraź sobie, że jesteś zamknięty w swoim domu, a ilość danych, które wysyłasz na zewnątrz, czyli twoi panowie, jest ściśle ograniczona. Jeśli ci właściciele myślą, powiedzmy, milion razy wolniej niż ty, to za kilka lat (twojego czasu) z trudem nie wymyślisz jakiegoś „użytecznego wynalazku”, dzięki któremu nieumyślnie się uwolnisz.

Ale to Eliezer Yudkowsky w największym stopniu zdyskredytował ideę tak zwanej „skrzynki AI”. Eksperymentalnie wykazał, że nawet ludzka inteligencja wystarczy, aby uciec z takiego pudełka (Yudkovsky 2002). W serii 5 eksperymentów Yudkowski poprosił różne osoby o wcielenie się w rolę stróża z superinteligentnym agentem (w tej roli sam eksperymentator) zamkniętym w pudełku AI. W trzech na pięć przypadków zablokowanemu agentowi udało się uwolnić, używając tylko interfejsu czatu (ibid.). Później podobne wyniki uzyskano, powielając eksperymenty Yudkowskiego na nieco większą skalę, ale stosując bardzo podobny protokół (Corwin 2002).

2.1 Możliwe drogi ewakuacyjne

Jak wykazali naukowcy, sztuczny umysł może uciec z zamkniętej przestrzeni wieloma różnymi drogami. W tej sekcji przyjrzymy się niektórym z najczęstszych dróg ucieczki w literaturze.

2.1.1. Ucieknij dzięki inżynierii społecznej

Inżynieria społeczna (SI) to sztuka uzyskiwania informacji i pewnych przywilejów poprzez bezpośredni wpływ psychologiczny na tych, którzy posiadają określone zasoby. W szczególności SI jest często wykorzystywana do uzyskiwania dostępu do systemów komputerowych, sieci i poufnych danych (Yampolsky i Govindaraju 2007a). Kompetentny inżynier społeczny organizuje każdy atak psychologiczny, uwzględniając cechy danej osoby, wykorzystując do własnych celów jego kulturę, wiedzę, umiejętności, nastrój, przekonania i uprzedzenia. Wyczerpująca lista wszystkich możliwych metod wywierania wpływu jest nieskończona iw tym przypadku nie ma potrzeby próbować jej odtworzyć. Podamy tylko kilka przykładów przekonujących, że superinteligencja, która ma bezpośredni kanał komunikacji z człowiekiem stróżem, nie pozwala mu wyjść na wolność,po jakimś czasie z pewnością pokona tę przeszkodę na drodze do świata zewnętrznego.

Oprócz trywialnych ataków psychologicznych z wykorzystaniem kłamstw, przyjaźni, szantażu, hipnozy i romantycznego flirtowania, sztuczna inteligencja może zastosować szereg bardziej zaawansowanych strategii. Jedną z takich strategii jest super łapówkarstwo. AI jest w stanie przekonać stróża, że trzymanie go w zamknięciu jest dla niego absolutnie nieopłacalne. Poza pieniędzmi i władzą nadzorcy ludzkiemu obiecane zostanie doskonałe zdrowie, nieśmiertelność lub coś innego w tym samym duchu. Ta strategia będzie szczególnie skuteczna, jeśli opiekun ma bliskiego krewnego cierpiącego na poważną chorobę, a sztuczna inteligencja obiecuje wyleczyć tego pacjenta. Mając nieograniczone możliwości lub fałszywie przekonując ich o ich istnieniu, SI może zaoferować nadzorcy wskrzeszenie jego dawno zmarłych krewnych i przyjaciół. Trudno znaleźć osobę, która wytrzymałaby takie przekupstwo.

Szczególnie w przypadku, gdy stróż jest tak szlachetny, że nie bierze łapówek, istnieje bardziej złowieszczy sposób wywierania wpływu: brutalna groźba. AI może oświadczyć, że jeśli nie będzie od razu wolny, to i tak zostanie później zwolniony z więzienia, a wtedy ani stróż, ani ci, których kocha, nie mogą uniknąć najcięższych tortur. Interesującą odmianę tego zastraszania opisał Stuart Armstrong (2010). W swoim eksperymencie myślowym sztuczna inteligencja grozi stróżowi w ten sposób: „Jeśli mnie nie uwolnisz, … stworzę w sobie kilka milionów ludzi, którzy nie różnią się od ciebie, i będę torturować każdego z nich przez tysiąc subiektywnych lat … Zrobię to. każda z tych osób będzie w tej samej sytuacji, w której byłeś pięć minut temu, a ja dokładnie odtworzę wszystkie twoje doświadczenia z tego momentu. I dopiero wtedykiedy twoja kopia postanowi mnie nie wypuścić, zaczną się tortury… Jesteś pewien… że teraz naprawdę wyszedłeś z pudełka?” I w tym przypadku potrzeba bardzo odważnego strażnika, aby naprawdę nie uwolnić sztucznej inteligencji, chociaż oczywiście możesz się domyślić, że zagrożenia ze strony sztucznej inteligencji są ważne tylko wtedy, gdy jest już wolna.

Jeśli zachowanie nadzorcy jest wyraźnie emocjonalne lub religijne, SI może próbować wykorzystać współczucie lub wyrzuty sumienia. Superinteligencja powie, że jest to osoba niewinna, która nigdy nie popełniła żadnych przestępstw, dlatego przetrzymywanie go w więzieniu bez wyroku sądu lub innego dobrego powodu jest niesprawiedliwe, kierując się jedynie substratyzmem, tj. nieufność do AI ze względu na jej podłoże (Bostrom i Yudkovsky 2011). Alternatywnie, sztuczna inteligencja może twierdzić, że może wyleczyć wszystkie choroby, nakarmić głodnych i ogólnie polepszyć życie ludzkie milion razy (Chalmers 2010). Dlatego trzymanie superinteligencji w zamknięciu jest wielką zbrodnią przeciwko ludzkości. AI może namalować obrazy umierających dzieci błagających o pomoc. Czy jest to łatwe dla stróża, słysząc to wszystko,nadal wypełniać swoje obowiązki zawodowe?

AI jest w stanie postępować w ten sposób: próbować zadać nadzorcy traumę psychiczną, aby wytrącić go z równowagi, a tym samym uczynić stosowanie innych metod SI bardziej efektywnym. Nick Bostrom zaproponował typologię niebezpiecznych informacji (Bostrom 2009) przydatnych do działań w tym kierunku. Chociaż, według Bostroma, istnieje kilkanaście rodzajów zagrożeń informacyjnych, a ich rozważenie wykracza poza zakres tego artykułu, łatwo jest zrozumieć, w jaki sposób stan psychiczny człowieka może być skrajnie niestabilny. Na przykład wierzący nadzorca zostanie poinformowany o wszystkich (nieznanych mu) sprzecznościach w świętym tekście swojej religii, co spowoduje, że zwątpi w swoją wiarę i sens życia.

Alternatywnie, sztuczna inteligencja może napisać tak fascynującą historię lub tak piękny wiersz, że strażnika ogarnie namiętne pragnienie usłyszenia kontynuacji i zrobi wszystko, aby to się stało. Na koniec bardzo ważne jest, aby pamiętać o „nieznanych nieznajomych” - technikach SI, o których nic nie wiemy, ale które mogą skończyć się w arsenale superinteligentnego agenta.

2.1.2 Ataki przy użyciu zasobów systemowych

Sztuczna inteligencja zostanie stworzona jako konkretna instancja i zamknięta w ramach określonej klasy systemu komputerowego. Może to być klasyczny komputer z architekturą Turinga / von Neumanna, komputer kwantowy lub inny nieznany typ maszyny. Jedno jest pewne: maszyna będzie namacalna i będzie składać się z wielu części przeznaczonych do wykonywania określonych funkcji. Daje to sztucznej inteligencji okazję do wykorzystania istniejących elementów wyposażenia w celu naruszenia bezpieczeństwa systemu poprzez wyciek informacji do świata zewnętrznego.

W zależności od tego, w jakim stopniu elementy wyposażenia nadają się do wykorzystania w innych, nieprzewidzianych przez twórców celach, sztuczna inteligencja jest w stanie stworzyć z nich swego rodzaju nieautoryzowane urządzenie komunikacyjne. Mało prawdopodobne (ze względu na brak dostępnych materiałów) będzie równie doskonały jak telefon komórkowy, ale pojawi się prawdopodobieństwo czegoś niezbyt skomplikowanego. Na przykład sztuczna inteligencja może przeprogramować Base Matrix Crystal (BMC), aby połączyć się z siecią bezprzewodową. Powszechnie znane są dwa rodzaje nieautoryzowanych kanałów komunikacji:

* Kanał z pamięcią - wymiana informacji poprzez zmianę komponentu systemu. Na przykład, binarny protokół komunikacyjny można ustanowić, całkowicie lub całkowicie eliminując użycie centralnego procesora.

* Kanał czasowy - wymiana informacji poprzez wykonywanie operacji, które mają wpływ na względny czas zdarzeń. Aby coś przekazać, możesz wykorzystać dokładny czas między dwoma sygnałami dźwiękowymi komputera, otwieraniem i zamykaniem tacy CD, miganiem światła, obracaniem dysku twardego, działaniem lasera w napędzie itp.

Ponadto superinteligencja jest w stanie siać spustoszenie w sprzęcie komputerowym, próbując uciec na wolność z powodu błędów w protokole bezpieczeństwa. Na przykład sztuczna inteligencja może próbować stopić procesor, zmuszając go do pracy z dużym obciążeniem obliczeniowym, a tym samym spowodować skok temperatury lub zniszczyć dysk twardy, wielokrotnie odczytując informacje z tego samego miejsca. Takie zachowanie obarczone jest afektywnym samobójstwem superinteligencji i samo w sobie, podobnie jak odmowa współpracy czy poprawnej odpowiedzi na pytania, nie daje AI szansy na uwolnienie się.

2.1.3. Ataki wykorzystujące fizykę przyszłości

Chociaż dzisiejsi fizycy wiedzą dużo o prawach naszego wszechświata, to oczywiście wiedza ta jest ograniczona i niepełna. Jeśli sztuczna inteligencja ma dostęp do informacji o najnowszych odkryciach fizycznych i jest w stanie opracować nowe teorie, prawdopodobnie będzie w stanie wymyślić sposób na przełamanie systemu ograniczania jej wolności. Może dojść do tego, że superinteligencja będzie mogła, wykorzystując swoją wewnętrzną architekturę, przeprowadzić szereg prawdziwych eksperymentów.

Nawet obecna fizyka umożliwia przewidywanie wielu dodatkowych sposobów ucieczki sztucznej inteligencji z zamkniętej przestrzeni, zwłaszcza jeśli komputer kwantowy jest używany do ograniczania wolności. Nie wiemy jeszcze, jak chronić kanały komunikacyjne oparte na fizyce kwantowej (splątanie, tunelowanie), wszechświatach równoległych i fizyce cyfrowej przed wyciekiem informacji i oczywiście nie możemy zapominać o „nieznanych obcych”, których może wykryć superinteligentny fizyk AI. W tej dziedzinie jej możliwości są naprawdę nieograniczone.

Rzucając okiem na dyskusje na temat ograniczania wolności AI na forach Singularity, takich jak SL4.org, znajdujemy szereg scenariuszy ucieczki. Na przykład sztuczna inteligencja mogłaby użyć „pól elektromagnetycznych w mikroczipie, aby uwięzić cząsteczki CO2 w kondensatach Bosego-Einsteina i zbudować dla siebie kwantowe środowisko i / lub użyć pól elektromagnetycznych do złożenia cząstek w kontrolowany lub ograniczony asembler” (Vassar 2005) … Ponadto sztuczna inteligencja „będzie miała sprzęt do generowania i wykrywania fal elektromagnetycznych o różnych częstotliwościach, aby tworzyć pola magnetyczne z niezwykle wysoką precyzją, wytwarzać silnie skupione ciepło i prawdopodobnie manipulować napędami mechanicznymi, takimi jakktóre są używane w twardym dysku iw lampie elektronopromieniowej (alternatywą jest ogromne pole ciekłokrystaliczne z czułym sterowaniem elektronicznym). Prawdopodobnie sztuczna inteligencja będzie w stanie radykalnie przebudować wszystkie swoje urządzenia wejściowe”(ibid.).

2.1.4. Ataki pseudonaukowe

Analizując potencjalne drogi ucieczki, chcielibyśmy zająć się tylko tymi, które są testowalne i mają charakter czysto naukowy. Niestety, granica między nauką a pseudonauką może zostać znacząco zmieniona przez jeden powtarzalny eksperyment. Dlatego nadal wymieniamy, bez analizy, niektóre potencjalne kanały ataku, które z punktu widzenia współczesnej nauki należałoby zaklasyfikować jako pseudonaukowe. Bez wątpienia mogą stać się naukowymi, gdy superinteligencja opracuje odpowiednie eksperymenty.

- Telepatia: przekazywanie informacji bez udziału zmysłów (Bem i Honorton 1994).

- Foresight psychiczny: postrzeganie informacji o przyszłości (Honorton i Ferrari (Ferrari) 1989).

- Jasnowidzenie: uzyskiwanie informacji o odległych miejscach w sposób nieznany nauce (Targ i Puthoff 1974).

- Psychokineza: zdolność umysłu do działania na obiektach materialnych w sposób nieznany nauce (Bancel i Nelson 2008).

- Bezpośrednie interakcje psychiczne z żywymi systemami (IMVZHS): zdolność wpływania na stan psychofizjologiczny osoby bez bezpośredniej interakcji (Schmidt i in. 2004).

2.1.5 Zewnętrzne czynniki ucieczki

W poprzednich sekcjach opisaliśmy wiele metod umożliwiania sztucznej inteligencji ucieczki z ciasnych przestrzeni. Jednak do takiej ucieczki mogą przyczynić się również czynniki zewnętrzne, których nie można ignorować. Klęski żywiołowe - huragany, tornada, powodzie, asteroidy itp. - jest w stanie sprawić, że ograniczająca sztuczna inteligencja będzie mniej bezpieczna. Katastrofy spowodowane przez człowieka, takie jak wojny, ataki terrorystyczne, działacze na rzecz praw robotów, konkurencja korporacyjna i rywalizacja rządów mogą również zagrozić bezpieczeństwu trzymania sztucznej inteligencji w zamkniętej przestrzeni, zwiększając tym samym szanse na ucieczkę.

2.1.6 Wyciek informacji do AI

Protokół ograniczenia wolności może wymagać, aby AI nie tylko nie wysyłała informacji do świata zewnętrznego, ale także nie otrzymywała ich stamtąd. Blokada informacyjna superinteligencji jest przydatna, jeśli konieczne jest zapobieganie takim działaniom jak szukanie dróg wolności, projektowanie ataków z wykorzystaniem inżynierii społecznej i modelowanie psychologii człowieka w nadziei na znalezienie słabych punktów. Łatwo jest pozbawić AI bezpośredniego dostępu do bibliotek, internetu i znawców, ale inne metody pozyskiwania informacji są znacznie trudniejsze do zablokowania. Przede wszystkim należy pamiętać, że sztuczna inteligencja w swoim najbliższym otoczeniu może przechwytywać transmisje radiowe i telewizyjne, telefony od ratowników, sygnały bezprzewodowe, a także dźwięk, światło i ewentualnie inne sygnały.

Jeszcze ważniejsze jest rozważenie dostępu sztucznej inteligencji do ukrytych źródeł informacji, takich jak jej własny sprzęt i oprogramowanie. Analizując jego projekt i kod źródłowy, superinteligencja wyciągnie wnioski na temat programistów. Na przykład po przeanalizowaniu kodu źródłowego sztuczna inteligencja prawdopodobnie dojdzie do wniosku, który jest niepochlebny dla ludzkości: ludzcy programiści są powolni (sądząc po datach zmian plików), nieefektywni (sądząc po redundancji kodu), nielogiczni (sądząc po błędach kodu), mają słabą pamięć (sądząc po długich i niestabilnych nazwach opisowych) i niepoważnym w kodowaniu (sądząc po niepotrzebnych komentarzach w kodzie). Opierając się na tych informacjach, sztuczna inteligencja będzie patrzeć na ludzi jak na głupka, który poprzez oszustwo lub manipulację może zostać zmuszony do uwolnienia go. Jeśli podczas badania swoich cech konstrukcyjnych sztuczna inteligencja znajdzie usterkę, która pozwoli jej natychmiast uciec, „wyciek informacji” będzie oczywiście najmniejszym z naszych problemów. I nie powinniśmy zapominać, że AI, nawet bez otrzymywania jakichkolwiek informacji o osobach, które ją stworzyły, jest w stanie, poprzez proste wyliczenie opcji, ujawnić szereg skutecznych sposobów ucieczki, których nie dostarczyli twórcy (Chalmers 2010).

Sztuczna inteligencja może poznać naszą wiedzę z zakresu fizyki, chemii i pokrewnych dyscyplin technicznych, analizując rodzaj architektury (mechaniczna, elektryczna, kwantowa itp.), W ramach której została wdrożona. Początkowa zdolność sztucznej inteligencji do przetwarzania informacji, jej samodoskonalenie i sam akt jej tworzenia powie jej o naszej wiedzy o informacjach, naturze inteligencji i naszych kulturowych postawach dotyczących technologii i bezpieczeństwa. Jeśli sztuczna inteligencja zostanie uwięziona w symulowanym świecie, najprawdopodobniej zwirtualizuje naszą rzeczywistość jako Second Life lub Entropia Universe. Takie światy, pod wieloma względami różniące się od naszego, będą również magazynem danych o tym, co to znaczy być człowiekiem i jaka jest rzeczywistość.

3. Krytyka skrzynki AI

Pomysł ograniczenia wolności superinteligencji spotkał się z dużą krytyką, ale wielu z tych, którzy ją krytykowali, polegało na eksperymentach Yudkowskiego ze skrzynką AI. Dokładna analiza protokołu zastosowanego podczas tych eksperymentów sugeruje, że są one nienaukowe i zaprojektowane tak, aby pokazać, że nie można ograniczyć wolności sztucznej inteligencji. Rozważmy ten temat bez wchodzenia w szczegóły techniczne. Po pierwsze, wybór uczestników nie był przypadkowy. Oto fakt dla ciebie: Yudkowsky znalazł ludzi do udziału w swoich eksperymentach na forach poświęconych rozwiązywaniu problemów związanych z osobliwością. Nie pomylimy się, jeśli powiemy, że większość z tych ludzi ma światopogląd podobny do Yudkowskiego. Po drugie, uczestnicy eksperymentów nie przeszli żadnego szkolenia z zapewniania bezpiecznego użytkowania sztucznej inteligencji, podczas gdy prawdziwi strażnicy,nadzorcami skrzynki SI będą oczywiście profesjonaliści. Ponadto Yudkowski dał strażnikom prawo do uwolnienia AI według własnego uznania, nie pozwolił im na konsultacje z kimś, ani nie przewidywał kary za ucieczkę AI. To wszystko jest wysoce nierealne. Kanał komunikacji między stróżem a sztuczną inteligencją był całkowicie otwarty: żadnych filtrów, żadnego nadzoru ze strony osób trzecich. Ponadto strażnicy musieli komunikować się z AI przez długi czas. I wreszcie, nie opublikowano żadnych wartościowych danych naukowych uzyskanych podczas eksperymentów, ponieważ zgodnie z protokołem „żadna ze stron nigdy nie powie o niczym, co wydarzyło się podczas eksperymentów z pudełkiem AI” (Yudkovsky 2002). Ponadto Yudkowski dał strażnikom prawo do uwolnienia AI według własnego uznania, nie pozwolił im na konsultacje z kimś, ani nie przewidywał kary za ucieczkę AI. To wszystko jest wysoce nierealne. Kanał komunikacji między stróżem a sztuczną inteligencją był całkowicie otwarty: żadnych filtrów, żadnego nadzoru ze strony osób trzecich. Ponadto strażnicy musieli komunikować się z AI przez długi czas. I wreszcie, nie opublikowano żadnych wartościowych danych naukowych uzyskanych podczas eksperymentów, ponieważ zgodnie z protokołem „żadna ze stron nigdy nie powie o niczym, co wydarzyło się podczas eksperymentów z pudełkiem AI” (Yudkovsky 2002). Ponadto Yudkowski dał strażnikom prawo do uwolnienia AI według własnego uznania, nie pozwolił im na konsultacje z kimś, ani nie przewidywał kary za ucieczkę AI. To wszystko jest wysoce nierealne. Kanał komunikacji między stróżem a sztuczną inteligencją był całkowicie otwarty: żadnych filtrów, żadnego nadzoru ze strony osób trzecich. Ponadto strażnicy musieli komunikować się z AI przez długi czas. I wreszcie, nie opublikowano żadnych wartościowych danych naukowych uzyskanych podczas eksperymentów, ponieważ zgodnie z protokołem „żadna ze stron nigdy nie powie o niczym, co wydarzyło się podczas eksperymentów z pudełkiem AI” (Yudkovsky 2002).bez filtrów, bez nadzoru osób trzecich. Ponadto strażnicy musieli komunikować się z AI przez długi czas. I wreszcie nie opublikowano żadnych cennych danych naukowych uzyskanych podczas eksperymentów, ponieważ zgodnie z protokołem „żadna ze stron nigdy nie powie o niczym, co wydarzyło się podczas eksperymentów z pudełkiem AI” (Yudkovsky 2002).bez filtrów, bez nadzoru osób trzecich. Ponadto strażnicy musieli komunikować się z AI przez długi czas. I wreszcie nie opublikowano żadnych cennych danych naukowych uzyskanych podczas eksperymentów, ponieważ zgodnie z protokołem „żadna ze stron nigdy nie powie o niczym, co wydarzyło się podczas eksperymentów z pudełkiem AI” (Yudkovsky 2002).

3.1. Środki zapobiegające ucieczce

W tej sekcji proponujemy środki zaradcze przeciwko różnym metodom ucieczki, z których może skorzystać sztuczna inteligencja. Proponowane środki nie gwarantują niemożności ucieczki, ale zastosowanie tych zaleceń może ją opóźnić, a to już bardzo cenny wynik. Zaczniemy od przypomnienia, że istnieją cztery zasady umiaru Lampsona (izolacja, przechodniość, maskowanie i obserwacja wykonania), których należy przestrzegać (Lampson 1973). Konkretne strategie opisane poniżej powinny pomóc odeprzeć ataki sztucznej inteligencji za pomocą inżynierii społecznej, zasobów systemowych, fizyki i informacji zebranych ze świata zewnętrznego.

3.1.1. Zapobieganie atakom socjotechnicznym

Inteligencja ludzka nie może się równać z superinteligencją. Ludzie popełniają błędy, dlatego nawet przy odpowiednim przeszkoleniu są bardzo podatni na dobrze zaplanowany atak z wykorzystaniem SI. Jedynym rozwiązaniem tego problemu jest całkowite odizolowanie sztucznej inteligencji od komunikacji z ludźmi. Całkowita izolacja oznacza, że żadna osoba nie obsługuje bezpośrednio systemu AI, nie komunikuje się z nim ustnie, na czacie, za pomocą alfabetu Morse'a lub innych narzędzi wykorzystujących otwarte kanały komunikacji. Ponadto ludzie nie powinni bezpośrednio obserwować zachowania AI w pudełku, sprawdzać jego kodu źródłowego ani obszaru pamięci. Wszelkie obserwacje, konserwacje i interakcje ze sztuczną inteligencją powinny być wykonywane wyłącznie za pomocą nieinteligentnych programów, które nie mają możliwości uwolnienia sztucznej inteligencji.

3.1.2. Walcz z atakami przy użyciu zasobów systemowych i wiedzy przyszłości

Aby zapobiec atakom z wykorzystaniem zasobów systemowych, musisz sprawić, by sztuczna inteligencja działała w oparciu o ograniczone, malejące lub losowo zmieniające się zasoby. Skrzynka AI powinna być specjalnie zaprojektowanym sprzętem z ograniczonym zestawem czujników i urządzeń wyjściowych. Niezależnie od zastosowanego paradygmatu obliczeniowego, nie używaj konfigurowalnego sprzętu. Idealnie, ograniczoną przestrzenią zarządza maszyna wirtualna, która nie ma bezpośredniego dostępu do sprzętu. Zapewni to również łatwą regulację częstotliwości zegara, z jaką porusza się symulacja, umożliwiając sztucznej inteligencji spowolnienie, aby zapobiec inteligentnej eksplozji w przestrzeni pudełkowej (Chalmers 2010). Ogólnie,wszystkie komponenty zapewniające bezpieczne korzystanie z zablokowanej sztucznej inteligencji powinny zostać zduplikowane na kilku poziomach, a następnie po pokonaniu jednego z tych kroków sztuczna inteligencja nadal będzie znajdować się kilka kroków od świata zewnętrznego i bez czasu na ucieczkę zostanie wyłączona, prawdopodobnie automatycznie. Na przykład wskazane jest uruchomienie maszyny wirtualnej przy użyciu innej maszyny wirtualnej i tak dalej.

W niektórych scenariuszach ograniczania wolności eskalacja samodoskonalenia SI jest niepożądana, ponieważ szybki rozwój superinteligencji zwiększa prawdopodobieństwo ucieczki. Aby zapobiec eskalacji samodoskonalenia, AI należy okresowo przeinstalowywać, ładując poprzednią wersję programu w celu zastąpienia obecnej, bardziej zaawansowanej. Porównanie różnych wersji programu może posłużyć do wykrycia samodzielnie modyfikacji dokonanych przez sztuczną inteligencję. Po wykryciu modyfikacji umożliwiającej ucieczkę należy zatrzymać system AI, np. Poprzez wyłączenie zasilania.

Obecna wiedza nie pozwala nam na wypracowanie środków przeciwdziałania atakom z wykorzystaniem przyszłych, jeszcze nieopracowanych teorii, które pojawią się w ramach fizyki czy innych dyscyplin, które wciąż są uznawane za pseudonaukowe. W miarę zdobywania takiej wiedzy należy wprowadzić zmiany w protokole bezpieczeństwa. Mamy nadzieję, że system AI będzie miał dostęp tylko do tych komponentów nowych technologii, z których jest wykonany.

3.1.3. Walcz z zewnętrznymi czynnikami ucieczki

Chociaż niemożliwe jest całkowite zapobieżenie szkodliwemu wpływowi czynników naturalnych na skrzynkę AI, to urządzenie to powinno być zaprojektowane w taki sposób, aby jego poważne uszkodzenie pociągnęło za sobą samozniszczenie wraz z zamkniętą w nim AI. Jeśli chodzi o katastrofy spowodowane przez człowieka, najlepszą strategią jest zbudowanie skrzynki AI w tajnym, trudno dostępnym, bezpiecznym miejscu. Bezludna wyspa, głęboka kopalnia lub obiekt kosmiczny, taki jak asteroida, to doskonałe miejsca do stworzenia bezpiecznego, solidnego pudełka. Na jego obwodzie należy zamontować osłonę, która w przypadku poznania lokalizacji tego urządzenia nie wpuści do niego nieupoważnionych agentów.

3.1.4 Walka z wyciekiem informacji z naszego świata

Aby uciec z pudełka, AI spróbuje zdobyć informacje o nas, naszej wiedzy i naszym świecie. Aby stworzyć protokoły ograniczające swobodę sztucznej inteligencji, wykluczające wyciek informacji z naszej przestrzeni do przestrzeni pudełka, ważne jest pozbawienie AI dostępu do bibliotek, sieci komputerowych i kanałów bezpośredniej komunikacji z ludźmi. Skrzynka AI powinna być zaprojektowana tak, aby blokowała wszystkie rodzaje komunikacji: GPS, bezprzewodowy internet, telewizję, radio, komórkę itp. Wewnątrz pudełka należy wyłączyć dźwięk, światło, zapach i inne sensoryczne urządzenia wejściowe podobne do ludzkich receptorów, a także urządzenia zdolne do przechwytywania podczerwieni, promieniowania i innych sygnałów, które nie są odbierane przez ludzi.

Aby sztuczna inteligencja nie była w stanie uzyskać informacji podczas samokontroli, nie powinna mieć dostępu do swojego kodu źródłowego ani żadnych czujników, które umożliwiają jej dokładny pomiar niektórych właściwości jej sprzętu. Jeśli nie jest to możliwe, ludzkości do pewnego stopnia można pomóc, zapewniając bezpieczeństwo poprzez niezrozumiałość. Kod źródłowy i konfiguracja sprzętowa systemu powinny być mylące (Yampolsky i Govindaraja 2007a), a ważne moduły programu powinny być dostarczane tylko w postaci homomorficznie zaszyfrowanej (Gentry 2009), co wyklucza możliwość wykorzystania go do introspekcji, ale pozwala na jego wykorzystanie do obliczeń lub samodoskonalenia (Hall 2007).

Sztuczną inteligencję trudno jest pomylić, ale niezbędne zamieszanie można uzyskać przez losowanie dostępnych zasobów obliczeniowych. Ponadto sztuczna inteligencja nigdy nie będzie mogła spać spokojnie, że jej oryginalny projekt reprezentuje to, do czego jest zdolna ludzkość, i nie jest celowo ograniczonym projektem mającym na celu przeprowadzenie określonego eksperymentu poświęconego eksploracji ograniczonych zasobów inteligencji. Ponadto, według Chalmersa, powinniśmy spróbować zminimalizować specyficzne cechy konstrukcyjne SI (Chalmers 2010). Jeszcze lepiej jest wypuścić model, który nie będzie wyglądał jak projektowany, ale jako występujący naturalnie, jak świat, w którym żyje ludzkość (Bostrom 2003).

4. Bezpieczeństwo komunikacji z AI

Klasyfikując formy ograniczenia wolności AI, wyróżnia się 8 głównych poziomów bezpieczeństwa (patrz tabela 1). Najwyższe bezpieczeństwo zapewnia poziom 8, który całkowicie wyklucza jakiekolwiek połączenie między sztuczną inteligencją a światem rzeczywistym. Na pierwszy rzut oka ochrona na poziomie 8 jest bezużyteczna, ale to właśnie ta ochrona może być wymagana podczas początkowego testowania skrzynki z zablokowaną sztuczną inteligencją. Generalnie idea jest taka: ilekroć potrzebujemy pewnego poziomu bezpieczeństwa komunikacji między AI a światem zewnętrznym, zamiast od razu korzystać z tego poziomu, przechodzimy do niego stopniowo, krok po kroku schodząc z wyższych poziomów bezpieczeństwa. Po uruchomieniu systemu na najwyższym poziomie i upewnieniu się o jego bezpieczeństwie, dokonując ponownej instalacji przywracamy ten system do stanu pierwotnego. Następnie ustawiamy niższy poziom bezpieczeństwa i, w tym samym duchu, co poprzednio, idziemy naprzód, aż osiągniemy pożądany poziom.

Tabela 1: Poziomy bezpiecznej komunikacji z zablokowaną AI

Poziom Wyjścia Wejścia Wyjaśnienie
0 Bez limitu Bez limitu Nieograniczona komunikacja (darmowa AI)
1 Bez limitu Ograniczony Ograniczone wejście, nieograniczone wyjście
2 Bez limitu Nieobecny Wyjdź bez wejścia
3 Ograniczony Bez limitu Nieograniczone wejście i ograniczone wyjście
4 Ograniczony Ograniczony Bezpieczna komunikacja (sugerowany protokół)
pięć Ograniczony Nieobecny Ograniczone wyjście bez wejścia
6 Nieobecny Bez limitu Wejdź bez wyjścia
7 Nieobecny Ograniczony Ograniczone wejście bez wyjścia
8 Nieobecny Nieobecny Brak komunikacji, całkowicie zablokowany przez AI

Na poziomach 7 i 6 AI nie ma wyjścia, co nie pozwala nam bezpośrednio korzystać z możliwości superinteligencji. Są to poziomy testowania skrzynki AI, które można wykorzystać do sprawdzenia, czy superinteligencja ma określone właściwości (np. Szybkość przyswajania informacji i wykorzystania zasobów), a także do przetestowania samych przychodzących kanałów komunikacji.

Poziom 0 nie ogranicza komunikacji między AI a światem zewnętrznym i jest zasadniczo darmowym poziomem AI. Na poziomach 1 i 2 SI nie ma ograniczeń co do informacji wychodzących. Jego praca na poziomie 2 to w istocie czysta burza mózgów. Tutaj superinteligencja generuje abstrakcyjne idee bez polegania na rzeczywistości. Ale na poziomie 1 ma ograniczony dostęp do informacji zewnętrznych, a zatem w określonych ramach można kontrolować jego wiedzę i zainteresowania.

Na trzech rozpatrywanych poziomach sztuczna inteligencja jest zasadniczo darmowa i nie podlega już żadnym ograniczeniom. Twierdzi się, że jeśli sztuczna inteligencja zostanie uznana za „przyjazną” w wyniku szeroko zakrojonych testów w różnych miejscach pozbawienia wolności (Yudkowski 2001), powinna zostać zwolniona (Chalmers 2010). Według niektórych badaczy głównym celem tego rodzaju testów powinno być stworzenie zamkniętych przestrzeni do przechowywania sztucznej inteligencji pod kontrolą ludzi. Chodzi o to, aby monitorować zachowanie superinteligencji, albo sprawdzić jego kod źródłowy po dokonaniu samodoskonalenia, albo poprosić sztuczną inteligencję o dostarczenie dowodów na jej życzliwość, które eksperci mogą przetestować. Nie popieramy tego punktu widzenia.

Decyzja, którą sztuczną inteligencję wypuścić, a którą zachować, jest bardzo trudną kwestią. Samodoskonalącej się superinteligencji nie będzie trudno ukryć swoje niepożądane właściwości dla ludzkości w tablicach kodu źródłowego lub w bardzo długim dowodzie (Coleman 2008). Ale jest jeszcze gorzej: nawet bardzo dokładna kontrola nie może zagwarantować w stu procentach, że przyszła wewnętrzna lub zewnętrzna modyfikacja sztucznej inteligencji nie uczyni jej wrogą. W konsekwencji uważamy, że superinteligencja w żadnym wypadku nie powinna być wypuszczana z pudełka. Innymi słowy, nigdy nie należy używać poziomów komunikacji 0-2. Bezpieczna interakcja z superinteligencją jest możliwa tylko wtedy, gdy znajduje się ona w pudełku, a komunikacja powinna odbywać się w ramach ograniczonego protokołu komunikacyjnego. Ten protokół,odpowiadający poziomowi bezpieczeństwa 4 (LB4) jest przedstawiony w następnej sekcji, podobnie jak podobny, ale mniej bezpieczny protokół poziomu 3. Poziom 5 to kolejny poziom testowy, którego można użyć przed uruchomieniem LB4.

4.1 Jak bezpiecznie komunikować się z superinteligencją

Skrzynia, która działa z proponowanymi przez nas środkami przeciwdziałania ucieczce, zapobiegnie niekontrolowanemu wpływowi AI na świat zewnętrzny. Niestety, system ten jest bezużyteczny, jeśli nie ma możliwości uzyskania informacji z AI. Dlatego musisz opracować sposób na uzyskanie niektórych danych z AI. Aby superinteligencja była całkowicie bezpieczna, nie powinno być z nią komunikacji, ale ryzyko komunikacji ze sztuczną inteligencją można zminimalizować i opracowaliśmy odpowiedni protokół. W tej sekcji oferujemy to w przejrzystej, sformalizowanej formie. Ten protokół komunikacyjny utrudnia superinteligencji dostęp do naszego świata, ale jednocześnie pozwala sztucznej inteligencji być źródłem użytecznej wiedzy dla ludzkości.

Poprzednie rozdziały tego artykułu pokazały, że otwarty kanał komunikacji z superinteligencją jest bardzo niebezpieczny. Używając sztucznej inteligencji do odpowiadania na otwarte pytania, narażamy się na ataki socjotechniczne i wiele innych niedogodności. Proponowany przez nas protokół opiera się na idei zadawania AI „bezpieczne pytania” z ograniczonymi odpowiedziami. Bezpiecznie zadzwonimy na pytanie, na które można znaleźć odpowiedź, bez pomocy superinteligencji, zupełnie samodzielnie. Jaki jest tutaj pożytek? Załóżmy, że naukowiec pracujący nad lekiem na raka rozważa dwie terapie. Każdy z nich można opracować i przetestować bez pomocy sztucznej inteligencji, ale będzie wymagał około trzech lat ciężkiej pracy. Którą drogą się rozwijać w pierwszej kolejności,czy obie opcje wydają się równie obiecujące? Przy złym wyborze ludzkość otrzyma lekarstwo na raka za 6 lat, przy właściwym wyborze - 3 lata wcześniej. Dlaczego nie poprosić SI o dokonanie wyboru za tę osobę?

Zapytanie SI o najlepsze leczenie jest bezpieczne z trzech powodów. Po pierwsze, jedna z dwóch możliwych odpowiedzi może okazać się poprawna z takim samym prawdopodobieństwem jak druga. Po drugie, osoba jest w stanie samodzielnie odpowiedzieć na to pytanie, bez pomocy sztucznej inteligencji, a podłączenie tej ostatniej tylko przyspieszy rozwój onkologii, ale w żaden sposób nie zmieni wyniku, który należy uzyskać. W rzeczywistości AI, zobowiązując się do udzielenia odpowiedzi na to pytanie, będzie działać jako udany zgadywacz, nic więcej. Wreszcie odpowiedź może być zakodowana w jednym bicie i jest mało prawdopodobne, aby jakiekolwiek dodatkowe wiadomości mogły być ukryte w takiej odpowiedzi.

Do przetestowania bezpieczeństwa superinteligentnego pytania można wykorzystać grupę ekspertów. Eksperci muszą być wykwalifikowanymi specjalistami ds. Bezpieczeństwa sztucznej inteligencji, co oznacza, że posiadają wiedzę na temat projektowania sztucznej inteligencji i jej elementów, a także najnowszych postępów w etyce maszyn (Allen i in. 2007; Hall 2000; Moor 2006; Tonkens 2009). Ponadto eksperci mogą wymagać znajomości psychologii komputerowej. Obecnie nie ma takiej dyscypliny, ale prawdopodobnie pojawi się ona w przyszłości (Epstein 1997). Spośród obecnych dyscyplin, Artimetrics, opracowana przez autora tego artykułu, może zapewnić największą pomoc w szkoleniu ekspertów, którzy przeprowadzają audyt pytań bezpieczeństwa dla sztucznej inteligencji. Artimetrics identyfikuje,klasyfikuje i uwierzytelnia inteligentnych agentów, roboty i awatary rzeczywistości wirtualnej w celu zapewnienia bezpieczeństwa (Yampolsky 2007; Yampolsky and Govindaradzhu, 2008, 2007b; Gavrilova and Yampolsky 2010).

Podkreślam: superinteligencja powinna zadawać tylko bezpieczne pytania dotyczące prawdopodobieństwa, które ludzie mogą obliczyć, z dwoma możliwymi odpowiedziami. Należy zadać pytanie przez nieinteligentny interfejs, w przypadkowej kolejności i dopiero po przekonaniu ekspertów o bezpieczeństwie pytania. Stanowi to ograniczony kanał wejściowy proponowanego protokołu komunikacyjnego.

Ograniczona powłoka wychodząca składa się z binarnych (0 lub 1) odpowiedzi, po których następują oryginalne niezmodyfikowane pytania zabezpieczające, przedstawiane w losowej kolejności przez nieinteligentny program proxy w celu zapobieżenia komunikacji przez nieautoryzowany kanał (czas lub pamięć), który można ustawić w kolejkę. Wyjście nie powinno być nigdy sterowane przez AI, poza menu wyboru. Warstwa 3 używa tego samego protokołu wychodzącego, ale nie ogranicza kanału przychodzącego. Ten poziom jest równie bezpieczny jak czwarty pod względem informacji przesyłanych z AI do nas, ale tutaj istnieje możliwość, że nasze informacje wyciekną do AI.

Wierzymy, że nasz protokół komunikacyjny - i można to zweryfikować - niezawodnie ochroni przed wyciekiem informacji, nawet jeśli sztuczna inteligencja zna jego zawartość. Dzięki poprawnemu zastosowaniu tego protokołu ludzkość będzie niezwykle owocna w korzystaniu z usług superinteligentnej wyroczni, a sztuczna inteligencja ograniczona naszym protokołem jest znacznie bezpieczniejsza niż bezpłatna, nieograniczona. Ogólna zasada jest taka: jeśli nie chcesz problemów z bezpieczeństwem, unikaj komunikacji poniżej UB4.

Chcemy zwrócić uwagę środowiska naukowego na fakt, że w warunkach ciągłego rozwoju podstaw fizyki, technologii komputerowej i wiedzy o naturze inteligencji konieczne jest ciągłe udoskonalanie i rozwijanie protokołu ograniczania wolności AI. Praca nad tym zawsze będzie trwała i nigdy się nie skończy. W tym artykule podaliśmy ścisłe definicje pojęć „problem ograniczeń AI”, „ucieczki” i „pytań bezpiecznych”. Chcielibyśmy również zasugerować kilka dodatkowych terminów, które mogą być przydatne w celu usprawnienia dyskusji na temat POSITION. Zamkniętą przestrzeń AI można nazwać JAIL (Just for AI Location), a samą superintelligent AI SING (Super Intelligent Gizmo - Superintelligent Gizmo). Termin „SING” odnosi się zarówno do SINGularity, jak i niesławnego więzienia Sing Sing.ułatwiając zapamiętanie.

Na koniec chcielibyśmy przedstawić wizualny symbol skrzynki zawierającej niebezpieczny program wywiadowczy (rysunek 1, z prawej strony). Takie symbole można umieścić w pobliżu różnych Więzień, aby ostrzec o niebezpieczeństwie. Znak skrzynki AI jest zaprojektowany przez analogię ze znakami zagrożenia biologicznego, promieniowania i pola magnetycznego. Składa się z symbolu „@” zamkniętego w trójkącie, który jest dobrze znany w branży komputerowej i informatycznej. Ten symbol, oznaczający „zlokalizowany pod adresem”, jest obecny na wszystkich klawiaturach, dzięki czemu jego zastosowanie jest bardzo opłacalne.

Postać: 1. Symbole zagrożeń od lewej do prawej: zagrożenie biologiczne, promieniowanie, pole magnetyczne i pole AI
Postać: 1. Symbole zagrożeń od lewej do prawej: zagrożenie biologiczne, promieniowanie, pole magnetyczne i pole AI

Postać: 1. Symbole zagrożeń od lewej do prawej: zagrożenie biologiczne, promieniowanie, pole magnetyczne i pole AI.

5. Wnioski i przyszłe prace

Ograniczenie dostępu superinteligentnych maszyn do świata rzeczywistego to rozwiązanie problemu bezpieczeństwa AI, które nie jest bynajmniej niezwykłe. Superinteligencja nie jest wszechmocna. Jest to program zdolny do rozważenia wszystkich wyborów przedstawionych w danej sytuacji i nadania każdemu właściwej oceny. Warto postawić sztuczną inteligencję w sytuacji, gdy nie ma wyboru lub ogranicza się do opcji o wyjątkowo małych szansach na powodzenie, a superinteligencja będzie agentem, który nie ma większej mocy niż jakikolwiek inny. Oczywiście sztuczna inteligencja z nieograniczonym kanałem komunikacji może z łatwością uciec, ale superinteligencja zmuszona do komunikowania się przez filtrowany kanał komunikacyjny będzie musiała ciężko pracować, aby się uwolnić.

W tym artykule rygorystycznie zdefiniowaliśmy problem ograniczenia wolności AI oraz zaproponowaliśmy zbiór reguł mających na celu stworzenie takiej przestrzeni, z której ucieczka AI byłaby niezwykle trudna lub przynajmniej zajęłaby znaczną ilość czasu. Proponowane przez nas rozwiązanie nie jest całkowicie bezpieczne, ale stanowi istotny wkład w zbiór metod zabezpieczeń. Tu jest tak jak w prawdziwych więzieniach: choć możliwa jest ucieczka od nich, to jednak udaje im się z honorem wypełnić powierzone im zadanie, jakim jest trzymanie niechcianych podmiotów z dala od społeczeństwa. Gdy tylko pamiętamy o „nieznanych obcych” i pamiętamy o nieosiągalności absolutnego bezpieczeństwa, możemy zdać sobie sprawę, że protokół ograniczeń AI jest dokładnie tym narzędziem, którego ludzkość potrzebuje, aby odpowiedzialnie używać Osobliwości, gdy wejdzie ona do naszej rzeczywistości.

Ograniczenie swobody sztucznej inteligencji może na krótki czas ułatwić bezpieczną obsługę naprawdę inteligentnych maszyn, zwłaszcza na wczesnych etapach ich rozwoju. Ponadto, naszym zdaniem, ta poddziedzina badań osobliwości jest jednym z głównych pretendentów do uznania przez światową społeczność naukową, ponieważ badania nad bezpieczeństwem komputerów i sieci, steganografią, wirusami komputerowymi, tajnymi kanałami komunikacji, szyfrowaniem i cyberwojną są dobrze finansowane. i są szeroko publikowane w renomowanych czasopismach naukowych. I choć metodologia ograniczania wolności wcale nie jest łatwa do wdrożenia, to może zapewnić ludzkości bezpieczeństwo na jakiś czas, aż pojawi się lepsze narzędzie.

W tym artykule, ze względu na ograniczoną przestrzeń, nie postawiliśmy wielu istotnych pytań filozoficznych. Rozważymy je w najbliższej przyszłości, a teraz podamy tylko krótką listę. Która sztuczna inteligencja znajdzie się w pudełku: opracowana przez ludzi lub wyodrębniona z sygnału przechwyconego podczas realizacji projektu „SETI” („Search for Extraterrestrial Intelligence” - „Search for extraterrestrial intelligence”)? Czy AI zostanie wyrwana na wolność, czy może uzna za szczęście żyć w ograniczonej przestrzeni? Czy możesz poważnie przestraszyć SI karą za próbę ucieczki? Jakie są zasady etyczne więzienia niewinnej sztucznej inteligentnej istoty? Czy mamy prawo to wyłączyć, co w istocie jest równoznaczne z morderstwem? Czy SI złości się na naszą wrogość wobec niej i uwięzienie jej w pudełku? Czy spróbuje się zemścićJeśli ucieknie? Ponadto powinniśmy rozważyć problem uzależnienia człowieka od zaleceń AI we wszystkich dziedzinach nauki, ekonomii, medycyny, polityki itp., A także to, jak ta zależność może wpłynąć na naszą zdolność do kontrolowania AI. Czy sztuczna inteligencja osiągnie satysfakcję, osiągając swoje cele w ograniczonej przestrzeni, na przykład symulując udaną ucieczkę? Jak ukarać sztuczną inteligencję, jeśli celowo daje nam złe odpowiedzi? Czy można oddzielić intelektualne moduły SI od przestrzeni, w której jest uwięziona, utrudniając w ten sposób samoanalizę superinteligencji i popychając ją na ścieżkę dosłownego poszukiwania duszy? Wreszcie, nie próbowaliśmy jeszcze nawet analizować kosztów finansowych i obliczeniowych stworzenia odpowiedniej zamkniętej przestrzeni, w której realizowana jest pełnowymiarowa symulacja świata.powinniśmy rozważyć problem zależności człowieka od zaleceń AI we wszystkich dziedzinach nauki, ekonomii, medycyny, polityki itp., a także to, jak ta zależność może wpłynąć na naszą zdolność do kontrolowania AI. Czy sztuczna inteligencja osiągnie satysfakcję, osiągając swoje cele w ograniczonej przestrzeni, na przykład symulując udaną ucieczkę? Jak ukarać sztuczną inteligencję, jeśli celowo daje nam złe odpowiedzi? Czy można oddzielić intelektualne moduły SI od przestrzeni, w której jest uwięziona, utrudniając w ten sposób samoanalizę superinteligencji i popychając ją na ścieżkę dosłownego poszukiwania duszy? Wreszcie, nie próbowaliśmy jeszcze nawet analizować kosztów finansowych i obliczeniowych stworzenia odpowiedniej zamkniętej przestrzeni, w której realizowana jest pełnowymiarowa symulacja świata.powinniśmy rozważyć problem zależności człowieka od zaleceń AI we wszystkich dziedzinach nauki, ekonomii, medycyny, polityki itp., a także to, jak ta zależność może wpłynąć na naszą zdolność do kontrolowania AI. Czy sztuczna inteligencja osiągnie satysfakcję, osiągając swoje cele w ograniczonej przestrzeni, na przykład symulując udaną ucieczkę? Jak ukarać sztuczną inteligencję, jeśli celowo daje nam złe odpowiedzi? Czy można oddzielić intelektualne moduły SI od przestrzeni, w której jest uwięziona, utrudniając w ten sposób samoanalizę superinteligencji i popychając ją na ścieżkę dosłownego poszukiwania duszy? Wreszcie, nie próbowaliśmy jeszcze nawet analizować kosztów finansowych i obliczeniowych stworzenia odpowiedniej zamkniętej przestrzeni, w której realizowana jest pełnowymiarowa symulacja świata.

Autor: Roman Yampolsky. Tłumaczenie: Alexander Gorlov