Hawking I Musk Bronili Ludzi Przed Superinteligencją - Alternatywny Widok

Hawking I Musk Bronili Ludzi Przed Superinteligencją - Alternatywny Widok
Hawking I Musk Bronili Ludzi Przed Superinteligencją - Alternatywny Widok

Wideo: Hawking I Musk Bronili Ludzi Przed Superinteligencją - Alternatywny Widok

Wideo: Hawking I Musk Bronili Ludzi Przed Superinteligencją - Alternatywny Widok
Wideo: Ostatnie słowa Stephena Hawkinga █▬█ █ ▀█▀ 2024, Lipiec
Anonim

Fizyk teoretyczny Stephen Hawking i założyciel Tesla Motors, Elon Musk, przyjęli szereg zasad, które powinny zapewnić, że sztuczna inteligencja (AI) nie szkodzi ludziom i służy tylko dobru. Raporty Silicon Valley Business Journal.

Pakt ten jest niezbędny, aby zapewnić bezpieczeństwo ludziom, a także odpowiedzieć na wiele pytań dotyczących sztucznej inteligencji. Musk jest przekonany, że sztuczna inteligencja może być potencjalnie bardziej niebezpieczna niż broń jądrowa. Podobnego zdania jest Hawking, który twierdzi, że sztuczna inteligencja może zniszczyć ludzkość. Jednak oboje uznają, że sztuczna inteligencja pomoże ludziom rozwiązać wiele problemów - na przykład wyleczyć raka lub spowolnić globalne ocieplenie.

Przestrzeganie wszystkich 23 zasad powinno zapewnić, że sztuczna inteligencja służy wyłącznie dobrym celom. Są one podzielone na trzy kategorie: pytania badawcze, pytania dotyczące etyki i wartości oraz problemy długoterminowe. Pierwsza kategoria zawiera odpowiedzi na pytania, jakie stają przed twórcami AI, w tym jak powinno przebiegać finansowanie. Druga kategoria dotyczy kwestii bezpieczeństwa i sposobów neutralizacji zagrożenia. Trzeci opisuje możliwe zagrożenia, na jakie może stać ludzkość, gdy sztuczna inteligencja osiągnie swój szczyt i pojawi się tzw. Superinteligencja.

Zasady te zostały opracowane na konferencji poświęconej dyskusji na temat SI na początku stycznia 2017 r. CEO DeepMind, Demis Hassabis, przyczynił się do powstania tekstu.