Stephen Hawking Nazwał Sztuczną Inteligencję Największym Błędem W Historii - Alternatywny Widok

Stephen Hawking Nazwał Sztuczną Inteligencję Największym Błędem W Historii - Alternatywny Widok
Stephen Hawking Nazwał Sztuczną Inteligencję Największym Błędem W Historii - Alternatywny Widok

Wideo: Stephen Hawking Nazwał Sztuczną Inteligencję Największym Błędem W Historii - Alternatywny Widok

Wideo: Stephen Hawking Nazwał Sztuczną Inteligencję Największym Błędem W Historii - Alternatywny Widok
Wideo: Stephen Hawking ostrzega przed SI 2024, Wrzesień
Anonim

Słynny brytyjski fizyk Stephen Hawking w artykule zainspirowanym filmem science fiction „Transcendencja” z Johnnym Deppem w roli głównej powiedział, że niedocenianie zagrożenia ze strony sztucznej inteligencji może być największym błędem w historii ludzkości.

W artykule, którego współautorem jest profesor informatyki Stuart Russell z Uniwersytetu Kalifornijskiego w Berkeley oraz profesorowie fizyki Maxa Tegmarka i Franka Wilczka z MIT, Hawking wskazuje na pewne postępy w dziedzinie sztucznej inteligencji, zwracając uwagę na samojezdne samochody, asystenta głosowego Siri i superkomputer. Zwycięzca człowieka w quizie Jeopardy TV.

„Wszystkie te osiągnięcia bledną na tle tego, co nas czeka w nadchodzących dziesięcioleciach. Udane stworzenie sztucznej inteligencji będzie największym wydarzeniem w historii ludzkości. Niestety, może się on okazać ostatni, jeśli nie nauczymy się unikać zagrożeń”- cytuje Hawkinga brytyjska gazeta The Independent.

Profesorowie piszą, że w przyszłości może się zdarzyć, że nikt i nic nie powstrzyma maszyn o nieludzkiej inteligencji przed samodoskonaleniem. A to zapoczątkuje proces tzw. Osobliwości technologicznej, co oznacza niezwykle szybki rozwój technologiczny. W filmie z udziałem Deppa w tym sensie używa się słowa „transcendencja”.

Wyobraź sobie, że taka technologia przewyższa ludzi i napędza rynki finansowe, badania naukowe, ludzi i rozwój broni poza naszym zrozumieniem. Jeśli krótkoterminowy efekt sztucznej inteligencji zależy od tego, kto ją kontroluje, to długoterminowy efekt zależy od tego, czy w ogóle da się ją kontrolować.

Trudno powiedzieć, jakie konsekwencje może mieć sztuczna inteligencja na ludzi. Hawking uważa, że niewiele jest poważnych badań poświęconych tym zagadnieniom poza takimi organizacjami non-profit, jak Cambridge Center for the Study of Existential Risks, Institute for the Future of Humanity oraz instytuty badawcze zajmujące się inteligencją maszynową i przyszłym życiem.

Według niego każdy z nas powinien zadać sobie pytanie, co możemy teraz zrobić, aby uniknąć najgorszego scenariusza w przyszłości.