„Musimy Teraz Pomyśleć, Jak Zabezpieczyć Sztuczną Inteligencję” - Alternatywny Widok

„Musimy Teraz Pomyśleć, Jak Zabezpieczyć Sztuczną Inteligencję” - Alternatywny Widok
„Musimy Teraz Pomyśleć, Jak Zabezpieczyć Sztuczną Inteligencję” - Alternatywny Widok

Wideo: „Musimy Teraz Pomyśleć, Jak Zabezpieczyć Sztuczną Inteligencję” - Alternatywny Widok

Wideo: „Musimy Teraz Pomyśleć, Jak Zabezpieczyć Sztuczną Inteligencję” - Alternatywny Widok
Wideo: Jeśli zobaczysz to na niebie, masz kilka sekund na ukrycie 2024, Wrzesień
Anonim

Stephen Hawking kontynuuje „krucjatę” przeciwko sztucznej inteligencji (AI).

Podczas długo oczekiwanej kampanii Ask Me Everything on Reddit napisał, że prace nad opracowaniem protokołu bezpieczeństwa AI powinny być prowadzone teraz, a nie w odległej przyszłości.

„Naszym celem nie powinno być stworzenie abstrakcyjnej sztucznej inteligencji, ale stworzenie użytecznej inteligencji” - napisał słynny fizyk. zaawansowana sztuczna inteligencja”.

Hawking wykorzystuje sławę do wspierania ruchu na rzecz bezpieczeństwa AI od 2014 roku, kiedy to wraz z innymi badaczami napisał artykuł wstępny ostrzegający przed egzystencjalnym zagrożeniem, jakie zaawansowane maszyny stanowią dla ludzkości.

Inne znane osobistości technologiczne, Elon Musk i Steve Wozniak, dołączyły do Hawking. Wcześniej wszyscy trzej podpisali list otwarty wzywający do zakazu używania autonomicznej broni lub robotów bojowych.

Oczekiwania, że ludzkość wkrótce stworzy sztuczną inteligencję, istnieją od lat 50. i jeszcze się nie usprawiedliwiły. Jednak większość naukowców zajmujących się sztuczną inteligencją uważa, że maszyny o inteligencji równej ludziom pojawią się w tym stuleciu.

Image
Image

Zdjęcie: ANDREW COWIE / AFP

Film promocyjny:

Hawking ostrzega, że przedstawienie sztucznej inteligencji w filmach science fiction zniekształca prawdziwe zagrożenie maszyn. Filmy takie jak Terminator przedstawiają demoniczne zabójcze roboty, które chcą zniszczyć ludzkość z powodów, których nie miała prawdziwa sztuczna inteligencja. Ułatwiają również łagodzenie potencjalnego ryzyka związanego ze sztuczną inteligencją (np. Nie budowanie cyborgów).

„Prawdziwym zagrożeniem ze strony sztucznej inteligencji nie jest to, że jest zła, ale to, że jest bardzo zdolna. Sztuczny superinteligencja bardzo dobrze wykonuje swoje zadania.

Jeśli jego zadania nie będą się pokrywać z naszymi, będziemy mieli problemy - napisał Hawking - prawie nie nienawidzisz mrówek, ale jeśli jesteś odpowiedzialny za projekt zielonej energii i obszar, na którym znajduje się mrowisko, musi zostać zalany, mrówkom pecha. Nie pozwólmy, aby ludzkość znalazła się w sytuacji tych mrówek."

Nick Bostrom, filozof AI, fantazjuje o scenariuszach końca świata, gdy program zaczyna działać w złym kierunku. Przykładowo, sztuczna inteligencja ma za zadanie opracować plan ochrony środowiska i aby rozwiązać problem ekologii, postanawia zniszczyć ludzkość.

Elon Musk przeznaczył już 10 milionów dolarów na badania nad bezpieczeństwem sztucznej inteligencji, aby zapobiec pojawianiu się w Terminatorze niszczycielskiej sztucznej inteligencji, takiej jak Skynet. Ale Hawking chce, aby ludzie zmienili swoje ogólne postrzeganie sztucznej inteligencji.

„Poproś uczniów, aby pomyśleli nie tylko o tym, jak stworzyć sztuczną inteligencję, ale także o tym, jak upewnić się, że jest ona wykorzystywana do pożytecznych celów” - powiedział Hawking nauczycielowi, który wykłada sztuczną inteligencję. albo najlepsze, albo najgorsze wydarzenie w historii ludzkości. Dlatego ważne jest, aby wszystko poszło tak, jak powinno”.