Naukowcy Wyjaśnili, W Jaki Sposób Wyścig Zbrojeń Doprowadzi Do „wojny W Stylu Terminatora” - Alternatywny Widok

Naukowcy Wyjaśnili, W Jaki Sposób Wyścig Zbrojeń Doprowadzi Do „wojny W Stylu Terminatora” - Alternatywny Widok
Naukowcy Wyjaśnili, W Jaki Sposób Wyścig Zbrojeń Doprowadzi Do „wojny W Stylu Terminatora” - Alternatywny Widok

Wideo: Naukowcy Wyjaśnili, W Jaki Sposób Wyścig Zbrojeń Doprowadzi Do „wojny W Stylu Terminatora” - Alternatywny Widok

Wideo: Naukowcy Wyjaśnili, W Jaki Sposób Wyścig Zbrojeń Doprowadzi Do „wojny W Stylu Terminatora” - Alternatywny Widok
Wideo: Jeśli zobaczysz to na niebie, masz kilka sekund na ukrycie 2024, Kwiecień
Anonim

W swoim nowym raporcie eksperci z Cornell University mówili o zagrożeniach związanych z coraz aktywniejszym wprowadzaniem sztucznej inteligencji do broni jądrowej, jak podaje Daily Mail. Zdaniem naukowców maszyny mogą „wymknąć się spod kontroli” i sprowokować „wojnę apokaliptyczną”, więc główne decyzje dotyczące użycia broni jądrowej nadal lepiej pozostawić człowiekowi.

Naukowcy ostrzegają, że przekazanie kontroli nad bronią jądrową sztucznej inteligencji może zakończyć się apokaliptyczną wojną w stylu „Terminatora”.

W swoim nowym raporcie eksperci z American Ivy League Cornell University argumentują, że coraz większa zmiana w kierunku automatyzacji i robotyzacji może doprowadzić do tego, że maszyny „wymkną się spod kontroli” i wypowiedzą wojnę ludzkości - tak jak w serii science fiction filmy "Terminator" z Arnoldem Schwarzeneggerem.

Zdaniem ekspertów, starając się „dogonić Stany Zjednoczone pod względem potencjału militarnego”, Rosja i Chiny coraz częściej zaczynają polegać na technologiach sztucznej inteligencji, które w przyszłości mogą stanowić zagrożenia nawet nieznane światu. W ten sposób Moskwa rozpoczęła już prace nad bezzałogową podwodną torpedą atomową Posejdon, znaną wcześniej jako Status-6.

Ponadto kraje mogą zdecydować się na aktywniejsze wykorzystywanie sztucznej inteligencji w systemach wczesnego ostrzegania. I tutaj, jak przypominają naukowcy, historia pokazuje nam, że ryzyko też może być duże. Wiele osób zna incydent z 1983 r., Kiedy radziecki oficer Stanisław Pietrow zignorował sygnał systemu, by odpalić amerykańskie pociski. Pietrow zdał sobie sprawę, że sygnał był fałszywy i tym samym uratował świat przed możliwą wojną nuklearną między Stanami Zjednoczonymi a Rosją.

Eksperci przyznają, że w pewnej formie komputeryzacja broni jądrowej może poprawić niezawodność i stabilność takich systemów. Sztuczna inteligencja może zbierać dane i przeprowadzać analizy, które mogą następnie zostać wykorzystane przez dowódców wojskowych.

„Modernizując arsenały jądrowe, przywódcy powinni dążyć do wykorzystania systemów komputerowych w celu zmniejszenia ryzyka przypadkowych wypadków, fałszywych alarmów oraz zwiększenia kontroli człowieka nad operacjami broni jądrowej” - zalecają naukowcy.