Google Nie Chce Pewnego Dnia Tworzyć Skyneta, Więc Tworzy Przełącznik Dla Sztucznej Inteligencji - Alternatywny Widok

Google Nie Chce Pewnego Dnia Tworzyć Skyneta, Więc Tworzy Przełącznik Dla Sztucznej Inteligencji - Alternatywny Widok
Google Nie Chce Pewnego Dnia Tworzyć Skyneta, Więc Tworzy Przełącznik Dla Sztucznej Inteligencji - Alternatywny Widok

Wideo: Google Nie Chce Pewnego Dnia Tworzyć Skyneta, Więc Tworzy Przełącznik Dla Sztucznej Inteligencji - Alternatywny Widok

Wideo: Google Nie Chce Pewnego Dnia Tworzyć Skyneta, Więc Tworzy Przełącznik Dla Sztucznej Inteligencji - Alternatywny Widok
Wideo: Jak zwiększyć sprzedaż dzięki sztucznej inteligencji i Google Cloud Platform? 2024, Lipiec
Anonim

W pytaniach i dyskusjach na temat przyszłości sztucznej inteligencji są dwie główne przeciwne strony. W jednym rogu znajdują się firmy takie jak Google, Facebook, Amazon i Microsoft, które agresywnie inwestują w technologie, aby uczynić systemy AI bardziej inteligentnymi; w drugim są wielcy myśliciele naszych czasów, tacy jak Elon Musk i Stephen Hawking, którzy wierzą że rozwój sztucznej inteligencji jest podobny do „zaklęcia demona”.

Jedna z najbardziej zaawansowanych firm AI, DeepMind, należąca do Google, stworzyła środki bezpieczeństwa na wypadek, gdyby dana osoba musiała „przejąć kontrolę nad robotem, którego awaria może mieć nieodwracalne konsekwencje”. Możemy założyć, że mówimy o… „zabij wszystkich ludzi”. Oczywiście w rzeczywistości podjęty środek nie jest zapowiedzią możliwej apokalipsy, chodzi raczej o środki bezpieczeństwa związane z inteligentnymi robotami, które działają i będą działać w przyszłości w różnych fabrykach i zakładach.

Opublikowany dokument z receptami jest wspólnym dziełem DeepMind i Oxford Institute for the Future of Humanity, który, jak nazwa wskazuje, zajmuje się sprawami, które pozwolą tej samej ludzkości wejść w przyszłość. Przez dziesięciolecia założyciel Instytutu, Nick Bostrom, bardzo żywo wypowiadał się o możliwych zagrożeniach związanych z rozwojem sztucznej inteligencji i napisał na ten temat niejedną książkę, w której omówił konsekwencje stworzenia superinteligentnych robotów.

Przewodnik, o którym dzisiaj mówimy, zatytułowany „Bezpiecznie wyłączeni agenci”, bada, jak wyłączyć sztuczną inteligencję, jeśli robi coś, czego człowiek nie chce robić. Praca składa się z różnych obliczeń i formuł, których 99 procent z nas najprawdopodobniej nie zrozumie. Dlatego, mówiąc prościej, mówimy o „czerwonym przycisku”, który może wyłączyć AI.

Możesz się śmiać i zastanawiać, ale pionierzy robotyki i sztucznej inteligencji oglądają te same filmy science fiction, co my. Te, w których kiedyś roboty wymyśliły, jak zignorować polecenie wyłączenia. Więc teraz będziemy na to gotowi. W opublikowanym dokumencie opisano metody i rozwiązania zapewniające, że „możliwy do szkolenia agent” (czytaj AI) nie może nauczyć się ignorować lub zapobiegać wpływowi środowiska zewnętrznego lub człowieka.

Może się to wydawać przesadą, zwłaszcza jeśli weźmiesz pod uwagę, że obecnie najbardziej zaawansowana sztuczna inteligencja jest dobra tylko w grach planszowych. Jednak Bostrom uważa, że zanim zaczniemy tworzyć sztuczną inteligencję na poziomie ludzkiego mózgu, należy podjąć odpowiednie kroki:

„Gdy tylko sztuczna inteligencja osiągnie poziom ludzki, spodziewany jest gwałtowny skok rozwoju w wielu obszarach. Niedługo potem same SI będą tworzyć nowe AI. Wystarczy ocenić te perspektywy i jednocześnie możliwe zagrożenia. Dlatego lepiej jest przesadzić, niż przegapić."

NIKOLAY KHIZHNYAK

Film promocyjny:

Zalecane: