Do 2040 R. Sztuczna Inteligencja Może Zrewolucjonizować Zasady Bezpieczeństwa Jądrowego - Alternatywny Widok

Do 2040 R. Sztuczna Inteligencja Może Zrewolucjonizować Zasady Bezpieczeństwa Jądrowego - Alternatywny Widok
Do 2040 R. Sztuczna Inteligencja Może Zrewolucjonizować Zasady Bezpieczeństwa Jądrowego - Alternatywny Widok

Wideo: Do 2040 R. Sztuczna Inteligencja Może Zrewolucjonizować Zasady Bezpieczeństwa Jądrowego - Alternatywny Widok

Wideo: Do 2040 R. Sztuczna Inteligencja Może Zrewolucjonizować Zasady Bezpieczeństwa Jądrowego - Alternatywny Widok
Wideo: Jak sztuczna inteligencja oszukała człowieka 2024, Może
Anonim

Niedawno opublikowane badanie przeprowadzone przez RAND Corporation wykazało, że do 2040 r. Sztuczna inteligencja (AI) może radykalnie zmienić koncepcję odstraszania nuklearnego.

Sterowana przez sztuczną inteligencję „maszyna zagłady” wydaje się mało prawdopodobna, ale rzeczywiste ryzyko związane ze sztuczną inteligencją dla bezpieczeństwa jądrowego polega na zdolności sztucznej inteligencji do skłaniania ludzi do podejmowania nieuzasadnionych, potencjalnie apokaliptycznych decyzji.

W okresie zimnej wojny koncepcja gwarantowanego wzajemnego zniszczenia utrzymywała chwiejny pokój między supermocarstwami, argumentując, że każdy atak doprowadziłby do niszczycielskiego odwetu. W rezultacie koncepcja HLG zapewniła stabilność strategiczną, działając trzeźwo po obu stronach w gotowości do działań, które faktycznie mogą przekształcić się w wojnę atomową.

Publikacja RAND mówi, że w nadchodzących dziesięcioleciach sztuczna inteligencja może całkowicie zniszczyć koncepcję gwarantowanego wzajemnego niszczenia, a tym samym podważyć strategiczną stabilność naszego świata. Bardziej wyrafinowane czujniki wskazują, że „broń odwetu” - na przykład atomowe okręty podwodne i mobilne pociski rakietowe - może zostać zidentyfikowana i zniszczona.

Narody mogą odczuwać pokusę poszukiwania atutów w pierwszym uderzeniu, jakby to była przewaga nad ich rywalami, nawet jeśli nie mają zamiaru uderzyć pierwszy. Podważa to stabilność, ponieważ nawet jeśli strona zdolna do ataku jako pierwsza nie wykorzysta tej okazji, jej przeciwnik nie może być tego pewien.

„Związek między wojną nuklearną a sztuczną inteligencją nie jest nowy, w rzeczywistości historie są ze sobą powiązane” - mówi Edward Geist, współautor artykułu z RAND. „Początkowo wiele badań nad sztuczną inteligencją było prowadzonych przy wsparciu wojska w dążeniu do ich celów”.

Jako przykład podał „eksperyment przystosowawczo planowanego przetrwania” przeprowadzony w latach 80. XX wieku, którego celem było wykorzystanie sztucznej inteligencji do połączenia inteligencji z celowaniem w broń jądrową.

W przypadku niepewności sztuczna inteligencja mogłaby zwiększyć stabilność sytuacji strategicznej poprzez poprawę dokładności gromadzonych danych wywiadowczych i ich analiz.

Film promocyjny:

Naukowcy uważają, że w procesie rozwoju sztuczna inteligencja będzie mniej podatna na błędy w porównaniu z człowiekiem, co oznacza, że będzie czynnikiem stabilności w dłuższej perspektywie.

Vadim Tarabarko