Aby Uniknąć śmierci, Ludzkość Musi Zablokować Sztuczną Inteligencję - Alternatywny Widok

Spisu treści:

Aby Uniknąć śmierci, Ludzkość Musi Zablokować Sztuczną Inteligencję - Alternatywny Widok
Aby Uniknąć śmierci, Ludzkość Musi Zablokować Sztuczną Inteligencję - Alternatywny Widok

Wideo: Aby Uniknąć śmierci, Ludzkość Musi Zablokować Sztuczną Inteligencję - Alternatywny Widok

Wideo: Aby Uniknąć śmierci, Ludzkość Musi Zablokować Sztuczną Inteligencję - Alternatywny Widok
Wideo: Jeśli zobaczysz to na niebie, masz kilka sekund na ukrycie 2024, Może
Anonim

Superinteligentne komputery lub roboty, które zagrażają istnieniu rasy ludzkiej, to ulubiona fabuła science fiction. W rzeczywistości, zdaniem naukowców, można zapobiec temu scenariuszowi zagłady jedynie poprzez stworzenie wirtualnego „więzienia” za powstrzymywanie sztucznej inteligencji (AI). I trzeba to zrobić, zanim nauczy się być świadomym siebie i doskonalić się.

Jeśli wypuścisz tego dżina z butelki, to z wyroczni, która rozwiązuje nasze problemy, może się on zmienić w apokaliptyczne zagrożenie - mówi Roman Yampolsky, naukowiec z University of Louisville w Kentucky, który pracuje w dziedzinie informatyki. Środowisko, w którym zostanie zawarta sztuczna inteligencja, musi być starannie zaplanowane, aby nie mogło się uwolnić od zagrożeń, przekupstwa, pokus lub włamań komputerowych.

„Potrafi wymyślić wiele sposobów wywierania wpływu, tworzenia złożonej kombinacji socjotechnicznej i wykorzystywania istniejących komponentów sprzętowych do celów, których nawet nie potrafimy sobie wyobrazić” - uważa Yampolsky. - Takie oprogramowanie ma nieograniczone możliwości infekowania komputerów i sieci. Sztuczna inteligencja może znaleźć sposób na wpłynięcie na psychikę człowieka, przekupienie lub szantażowanie osób, które mają z nią kontakt”.

Pojawienie się nowego obszaru badań naukowych zajmujących się problemem stworzenia „więzienia” dla sztucznej inteligencji niesie za sobą dodatkowe korzyści. Te badania są bardzo przydatne dla poprawy bezpieczeństwa komputerowego i kryptografii, jest pewien Yampolsky. Jego propozycje zostały szczegółowo opisane w marcowym wydaniu czasopisma akademickiego Journal of Consciousness Studies.

Jak ustawić pułapkę na Skynet

Na początek możesz umieścić sztuczną inteligencję wewnątrz „maszyny wirtualnej”. Pozwól mu działać w normalnym systemie operacyjnym - ograniczenie dostępu sztucznej inteligencji do oprogramowania i sprzętu komputera-hosta sprawi, że będzie znacznie bardziej nieszkodliwy. W każdym razie inteligentna sztuczna inteligencja nie będzie w stanie wysyłać tajnych wiadomości do swoich ludzkich zwolenników, pokonując alfabet Morse'a za pomocą wentylatorów chłodzących.

Umieszczenie sztucznej inteligencji w komputerze bez dostępu do Internetu to dobry sposób na pokrzyżowanie podstępnych planów sztucznej inteligencji, aby chronić Ziemię przed tobą i mną. W przypadku jakiejkolwiek innej awarii badacze zawsze mogą spowolnić proces myślowy AI poprzez spowolnienie szybkości przetwarzania komputera, regularne wciskanie przycisku „reset” lub odłączanie AI od zasilania.

Film promocyjny:

Te środki bezpieczeństwa mają na celu radzenie sobie z wysoce inteligentnymi i niebezpiecznymi wirusami komputerowymi, ale nikt nie wie, jak skuteczne okazują się.

Punkt 22 (powieść amerykańskiego pisarza J. Hellera; ok. Mixednews) mówi, że nie możemy przeprowadzić testów naszych pomysłów na pełną skalę, dopóki nie zostanie zakończony rozwój sztucznej inteligencji. Aby sztuczna inteligencja była jednak bezpieczna, konieczne jest opracowanie zestawu odpowiednich środków - mówi Yampolsky. „Najlepszym rozwiązaniem jest nałożenie ograniczeń na korzystanie z systemów SI, a następnie, w razie potrzeby, zmiana tych ograniczeń zgodnie z rosnącymi możliwościami SI”.

Image
Image

Naukowiec Roman Yampolsky zasugerował użycie znaku „@” lub innych znaków, które są dziś używane do oznaczenia zagrożenia radiacyjnego lub biologicznego, aby wskazać na zagrożenie związane ze sztuczną inteligencją.

Nigdy nie umieszczaj w pojeździe ochroniarza

Podczas pozornie niewinnej rozmowy z ochroniarzem nic nie powstrzyma SI przed użyciem technik psychologicznych, takich jak przyjaźń czy szantaż. Człowieka można przekupić, obiecując mu doskonałe zdrowie, nieśmiertelność, a nawet obietnicę powrotu krewnych i przyjaciół z innego świata. Lub osiągnąć cokolwiek za pomocą zagrożeń.

Najbezpieczniejszym sposobem komunikowania się ze sztuczną inteligencją jest sprawienie, aby podczas rozwiązywania konkretnego problemu naukowego lub technicznego wybrał odpowiedź z wielu dostępnych opcji - wyjaśnia Yampolsky. Pomoże to utrzymać super inteligentną wyrocznię na krótkiej smyczy.

Wielu badaczy uważa, że pomimo wszystkich środków ostrożności, trzymanie inteligentnej sztucznej inteligencji w zamknięciu na czas nieokreślony nie zadziała. Najnowszy eksperyment Eliezera Yudkowsky'ego, badacza z Instytutu Osobliwości nad stworzeniem sztucznej inteligencji, pokazał, że nawet inteligencja na poziomie ludzkim może oszukać człowieka i „uciec” z więzienia.

Niemniej jednak Yampolsky nalega na trzymanie sztucznej inteligencji w ścisłej izolacji - nadal jest to lepsze niż rezygnacja i zapewnienie jej całkowitej wolności. Ale jeśli rozwój sztucznej inteligencji osiągnie punkt, w którym może ona manipulować osobą za pomocą podświadomości (przewidywania przyszłości), telepatii lub telekinezy, konsekwencje będą nieprzewidywalne.

„Jeśli taka sztuczna inteligencja ulegnie samodoskonaleniu i osiągnie poziom znacznie przekraczający możliwości ludzkiej inteligencji, nie można sobie nawet wyobrazić konsekwencji” - ostrzega Yampolsky.