Czy Chiny I Rosja Mogą Wygrać Wyścig Zbrojeń Sztucznej Inteligencji? - Alternatywny Widok

Czy Chiny I Rosja Mogą Wygrać Wyścig Zbrojeń Sztucznej Inteligencji? - Alternatywny Widok
Czy Chiny I Rosja Mogą Wygrać Wyścig Zbrojeń Sztucznej Inteligencji? - Alternatywny Widok

Wideo: Czy Chiny I Rosja Mogą Wygrać Wyścig Zbrojeń Sztucznej Inteligencji? - Alternatywny Widok

Wideo: Czy Chiny I Rosja Mogą Wygrać Wyścig Zbrojeń Sztucznej Inteligencji? - Alternatywny Widok
Wideo: Rosja na skraju upadku? Chiny doprowadzą do upadku mocarstwa? dr Leszek Sykulski 4MensTV 2024, Może
Anonim

W październiku Beijing Institute of Technology, jedna z wiodących wojskowych instytucji badawczych w kraju, wybrał 31 nastolatków spośród ponad 5000 kandydatów. Według chińskich władz ci młodzi ludzie opracują nową generację broni wyposażonej w sztuczną inteligencję (AI) - mogą to być mikroskopijne roboty, wirusy komputerowe, okręty podwodne, drony, czołgi.

Plany takie jak ten są mocnym przypomnieniem kierunku, w którym może rozwinąć się główny wyścig zbrojeń. Zwiększenie mocy obliczeniowej i udoskonalenie programów za pomocą samouczących się algorytmów stwarza nowe możliwości zarówno dla wojny, jak i dla rządu.

Firma konsultingowa PwC szacuje, że wkład systemów opartych na sztucznej inteligencji w globalnej gospodarce może osiągnąć 15,7 biliona dolarów do 2030 r., A czołowymi graczami będą Chiny i Stany Zjednoczone. Jednak największym zmartwieniem rządów są potencjalne konsekwencje militarne. Z jednej strony istnieje strach przed pozostaniem w tyle, z drugiej istnieje obawa, że niesprawdzone technologie mogą przynieść nowe zagrożenia.

Przedstawiciele Pentagonu poprosili Radę ds. Innowacji w Obronie - zgromadzenie wyższych urzędników z Doliny Krzemowej, którzy udzielają porad technicznych siłom zbrojnym Stanów Zjednoczonych - o opracowanie zestawu wskazówek etycznych dotyczących wykorzystywania sztucznej inteligencji podczas wojny. W zeszłym miesiącu Francja i Kanada ogłosiły utworzenie międzynarodowej grupy ekspertów w celu omówienia podobnych kwestii. Do tej pory państwa zachodnie uważały, że kluczowe decyzje w konflikcie zawsze muszą podejmować ludzie, a komputery i algorytmy po prostu ułatwiają ich realizację. Jednak niektóre kraje - zwłaszcza Rosja i Chiny - rozważają inną drogę.

W zeszłym roku Rosja podwoiła swoje inwestycje w AI. Wcześniej w tym miesiącu ogłoszono, że Moskwa opublikuje nową krajową mapę drogową strategii AI do połowy 2019 roku, która jest postrzegana przez rosyjskich urzędników jako klucz do zdominowania cyberprzestrzeni i operacji informacyjnych. Uważa się, że już rzekome rosyjskie „farmy trolli” wykorzystują zautomatyzowane kanały mediów społecznościowych do promowania dezinformacji.

Eksperci twierdzą, że zbudowanie zaawansowanego systemu sztucznej inteligencji wymaga odpowiedniej mocy obliczeniowej, wystarczających danych szkoleniowych i zdolnych wykonawców. Jako najpotężniejsze autorytarne państwa na świecie, Rosja i Chiny mają podobne możliwości i zamierzają wykorzystywać sztuczną inteligencję zarówno do utrzymywania pozycji rządowych na swoim terytorium, jak i do pokonywania wrogów poza nim.

Pekin już teraz używa masowego zautomatyzowanego nadzoru, w tym oprogramowania do rozpoznawania twarzy, aby stłumić sprzeciw, zwłaszcza w ujgurskich muzułmanach na północnym zachodzie. Jest prawdopodobne, że takie systemy staną się potężniejsze wraz z rozwojem technologii. Jeśli chodzi o monitorowanie komunikacji swoich obywateli, Chiny (podobnie jak Rosja) mają znacznie mniej wątpliwości i mechanizmów regulacyjnych niż państwa zachodnie.

Zachodnie demokracje, a zwłaszcza Ameryka, tradycyjnie były bardziej zdolne niż dyktatury do korzystania z nowych technologii. Jednak jeśli chodzi o sztuczną inteligencję, wysiłki Waszyngtonu mające na celu wypełnienie luki między Doliną Krzemową a wojskiem napotkały szereg wyzwań. W czerwcu pracownicy Google zmusili firmę do wycofania się z odnowienia umowy z Pentagonem. Wielu naukowców niechętnie pracuje nad projektami obronnymi z obawy, że ostatecznie stworzą niekontrolowane roboty-zabójce.

Film promocyjny:

Jednak Stany Zjednoczone i ich sojusznicy opracowują własną autonomiczną broń. Dlatego w październiku Microsoft po cichu ogłosił, że zamierza sprzedać Pentagonowi wszelkie zaawansowane systemy sztucznej inteligencji, które są potrzebne do „stworzenia silnej obrony”. Kierownictwo Sił Powietrznych USA twierdzi, że ich tajne samoloty szturmowe dalekiego zasięgu, zaprojektowane w celu zastąpienia niewykrywalnego bombowca B-2, będą mogły operować z załogą lub bez. Zachodnie wojsko coraz więcej inwestuje w samojezdne ciężarówki i inne pojazdy zaopatrzeniowe, starając się przydzielać im bardziej „brudne, nudne i niebezpieczne” zadania na polu bitwy bez narażania życia ludzkiego.

Ma korzystać z „rojów” dronów, kiedy kontroluje się wiele bezzałogowych statków powietrznych. Jeśli chodzi o bitwy dronów i dronów, zachodni przywódcy nie mają problemu z tym, aby systemy bezzałogowe podejmowały własne decyzje. Ale jeśli ludzie biorą udział w walce, polityka Departamentu Obrony Stanów Zjednoczonych wymaga, aby decyzje były podejmowane przez ludzi. Taka kontrola może jednak stawać się coraz trudniejsza, zwłaszcza jeśli zautomatyzowane systemy wroga podejmują decyzje znacznie szybciej niż ludzie.

Oczekuje się, że na początku lat 20. XX wieku duże chińskie bezzałogowe okręty podwodne, które mogą przenosić broń, znajdą się w oceanach świata. Ich celem będą siły wroga w spornych obszarach, takich jak Morze Południowochińskie. Takie statki mogą podróżować na duże odległości, nie będąc zauważonymi przez długi czas. W tej chwili chińscy naukowcy argumentują, że decyzja o ataku będzie należała do ludzi, ale być może nie jest to do końca prawdą. Pentagon poinformował w styczniu zeszłego roku, że Rosja buduje również duże bezzałogowe atomowe okręty podwodne, prawdopodobnie zdolne do przenoszenia broni jądrowej.

Ponadto zarówno Moskwa, jak i Pekin preferują bezzałogowe roboty-czołgi, a Rosja już testuje swoje najnowsze osiągnięcia w Syrii. Takie systemy mogą znacznie komplikować zachodnim dowódcom podejmowanie decyzji o określaniu celów na polu bitwy ze względu na brak zrozumienia, czy ludzie znajdują się w sprzęcie bojowym. Błędy mogą doprowadzić do wybuchu konfliktu lub jego gwałtownego zaostrzenia.

Podobno do określonego programu Pekińskiego Instytutu Technologicznego wybrano tych nastolatków, którzy wyrazili „gotowość do walki”. Takie ustalanie priorytetów może być bardzo niebezpieczne, biorąc pod uwagę, że technologia jest niedostatecznie przetestowana i destrukcyjna.

Natalia Golovakha