„Sztuczna Inteligencja Jako Terrorysta”: Nowe Zagrożenia Bezpieczeństwa - Alternatywny Widok

Spisu treści:

„Sztuczna Inteligencja Jako Terrorysta”: Nowe Zagrożenia Bezpieczeństwa - Alternatywny Widok
„Sztuczna Inteligencja Jako Terrorysta”: Nowe Zagrożenia Bezpieczeństwa - Alternatywny Widok

Wideo: „Sztuczna Inteligencja Jako Terrorysta”: Nowe Zagrożenia Bezpieczeństwa - Alternatywny Widok

Wideo: „Sztuczna Inteligencja Jako Terrorysta”: Nowe Zagrożenia Bezpieczeństwa - Alternatywny Widok
Wideo: Sztuczna inteligencja: szansa czy zagrożenie? 2024, Październik
Anonim

Rosyjscy naukowcy zbadali i sklasyfikowali zagrożenia związane ze sztuczną inteligencją (AI) z punktu widzenia międzynarodowego bezpieczeństwa informacyjnego i psychologicznego. Szczególną uwagę zwrócono na przeciwdziałanie złośliwemu wykorzystywaniu sztucznej inteligencji przez terrorystów. Wyniki badań zostały opublikowane w czasopiśmie Russia in Global Affairs.

Niebezpieczeństwa złośliwego wykorzystania AI

Potencjalne zagrożenie ze strony sztucznej inteligencji dla ludzkości wielokrotnie stawało się tematem dzieł sztuki i dziś jest jednym z najczęściej dyskutowanych zagadnień rozwoju naukowo-technicznego. Chociaż silna sztuczna inteligencja, zdolna do samodzielnego myślenia systemowego i prawdopodobnie posiadająca samoświadomość i wolę, wciąż jest daleka od stworzenia, różne zaawansowane wersje słabej sztucznej inteligencji wykonują wyspecjalizowane zadania, które wydawały się science fiction 10 lat temu. Wykorzystanie sztucznej inteligencji do dobrych celów (np. W medycynie) już teraz przynosi niewątpliwe korzyści. Jednak w rękach terrorystów i innych organizacji przestępczych, stopniowo tańsze i bardziej zaawansowane technologie sztucznej inteligencji mogą stać się straszliwszą bronią niż broń jądrowa.

Naukowcy z różnych krajów aktywnie badają zagrożenia, jakie złośliwe wykorzystanie sztucznej inteligencji stwarza dla całego społeczeństwa i dla niektórych sfer ludzkiej działalności, czy to polityki, ekonomii, spraw wojskowych itp. Jednak zagrożenia bezpośrednio dla międzynarodowej informacji i bezpieczeństwa psychologicznego nie zostały jeszcze zidentyfikowane jako niezależne. zakres rozważań. Tymczasem wykorzystanie sztucznej inteligencji do destabilizacji stosunków międzynarodowych poprzez ukierunkowane zaawansowane technologicznie informacje i wpływ psychologiczny na ludzi jest oczywistym wielkim niebezpieczeństwem.

Autorzy badania zaproponowali klasyfikację zagrożeń dla złośliwego wykorzystania sztucznej inteligencji na podstawie szeregu kryteriów, w tym zasięgu terytorialnego, szybkości i formy propagacji. Zastosowanie klasyfikacji pomoże Ci znaleźć sposoby na przeciwdziałanie i opracowanie narzędzi reagowania.

„Przyszła redukcja kosztów technologii sztucznej inteligencji może stworzyć zagrożenia związane z całkowicie nowymi atakami terrorystycznymi. Możliwe, że chatbot może posłużyć do skonstruowania wiadomości o fałszywym wydarzeniu i przekonania potencjalnych ofiar do odwiedzenia go. W celu przeciwdziałania wskazane jest zapoznanie społeczeństwa z nowymi zagrożeniami, pouczenie obywateli, aby wystrzegali się zdalnych kontaktów z osobami, z którymi nie są zaznajomieni. Wyjściem może być certyfikacja wydarzeń publicznych, potwierdzająca prawdziwość zamieszczanych na ich temat informacji. Oczywiście zadaniem specjalistów technicznych w tym przypadku będzie ochrona baz danych o zdarzeniach i mechanizm ich certyfikacji - powiedziała RIA Novosti Daria Bazarkina, profesor Katedry Bezpieczeństwa Międzynarodowego i Polityki Zagranicznej Rosji RANEPA.

Współczesny poziom technologii i możliwości sztucznej inteligencji pozwala nam zidentyfikować szereg zasadniczo nowych zagrożeń dla bezpieczeństwa informacyjnego i psychicznego człowieka.

Film promocyjny:

Wykorzystywanie technologii „fałszywych ludzi” i „deepfake” do międzynarodowych prowokacji

Amerykańska firma technologiczna NVIDIA udostępniła niedawno wyniki sieci generatywno-konkurencyjnej, przeszkolonej do generowania własnych obrazów ludzi („fałszywych ludzi”). Sieć neuronowa w ciągu kilku sekund tworzy wysokiej rozdzielczości obrazy twarzy nieistniejących ludzi, może dodać dowolne cechy kulturowe i etniczne, emocje, nastrój i jest oparta na nieskończonej kolekcji obrazów prawdziwych twarzy. W przyszłości możliwe, że to doświadczenie zostanie powtórzone przez innych deweloperów. Jednocześnie takie obrazy mogą być wykorzystywane przez przestępców do wszelkiego rodzaju prowokacji, które mogą być rozpoznane tylko przez społeczeństwo posiadające systemową wiedzę politechniczną.

„Technologia Deepfake może zsyntetyzować obraz i głos osoby. Zaczęto już używać go do tworzenia obrazów wideo światowych przywódców, w tym prezydenta USA Donalda Trumpa i prezydenta Rosji Władimira Putina. Filmy Deepfake mogą manipulować zachowaniem dużych grup docelowych i mogą być wykorzystywane w informacjach i konfrontacji psychologicznej (IPP) w celu wywołania paniki finansowej lub wojny”- powiedział Evgeny Pashentsev, czołowy badacz z Instytutu Współczesnych Zagadnień Międzynarodowych Akademii Dyplomatycznej Rosyjskiego Ministerstwa Spraw Zagranicznych, profesor na Moskiewskim Uniwersytecie Państwowym.

Analiza nastrojów to klasa metod analizy treści w lingwistyce komputerowej, przeznaczona do automatycznego wykrywania słownictwa o zabarwieniu emocjonalnym i oceny emocjonalnej autorów tekstów. Analiza nastrojów jest dostarczana z szerokiego wachlarza źródeł, takich jak blogi, artykuły, fora, ankiety itp. Może to być bardzo efektywne narzędzie w API, co potwierdza np. Duże zainteresowanie takimi wydarzeniami ze strony kierownictwa US Special Operations Command. (Dowództwo Operacji Specjalnych Stanów Zjednoczonych (SOCOM).

„Predictive Weapons”: Przewidywanie ludzkiego zachowania na podstawie danych z mediów społecznościowych

W 2012 roku amerykańska Agencja Badań Zaawansowanej Inteligencji (IARPA) uruchomiła program wczesnego rozpoznawania zdarzeń w oparciu o modele przy użyciu surogatów (EMBERS). Celem opracowania jest prognozowanie niepokojów społecznych w oparciu o wykorzystanie sztucznej inteligencji z określeniem daty, miejsca, protestującej grupy ludności.

System przetwarza dane z mediów i portali społecznościowych, a także źródła wyższej jakości, np. Wskaźniki ekonomiczne. Oczywiście wpadnięcie takich programów w ręce terrorystów jest również niezwykle niebezpieczne. W takim przypadku prawdopodobnym zagrożeniem mogą stać się poważne ataki terrorystyczne podczas najbardziej masowych demonstracji społecznych. Dodatkowym kryterium wyboru celów ataku terrorystycznego może być stopień napięć społecznych i psychologicznych w niektórych obszarach.

Zdaniem autorów opracowania, jako środek zaradczy, analityka predykcyjna może być wykorzystywana przez państwo i same władze ponadnarodowe do zapobiegania napięciom społecznym (terminowe podejmowanie działań społecznych, ekonomicznych i politycznych mających na celu osiągnięcie stabilności w długim okresie).

Ponadto grupy terrorystyczne mogą szkodzić reputacji poprzez używanie botów podczas kampanii politycznych, a także przyciągać nowych zwolenników lub organizować zabójstwa polityków.

Przechwytywanie dronów i infrastruktury robotycznej

Samouczące się systemy transportowe ze sterowaniem AI mogą być wygodnymi celami dla zaawansowanych technologicznie ataków terrorystycznych. Przejęcie przez terrorystów kontroli nad systemem kontroli transportu w dużym mieście może doprowadzić do wielu ofiar, wywołać panikę i stworzyć klimat psychologiczny, który ułatwi inne działania przestępcze.

Systemy komercyjne mogą być wykorzystywane do rozmieszczania bezzałogowych statków powietrznych lub pojazdów autonomicznych w celu dostarczania materiałów wybuchowych i powodowania wypadków. Seria poważnych katastrof może wywołać poruszenie w międzynarodowych mediach i spowodować znaczne szkody w bezpieczeństwie informacyjnym i psychologicznym.

Badacze z Rosyjskiej Prezydenckiej Akademii Gospodarki Narodowej i Administracji Publicznej oraz Akademii Dyplomatycznej Ministerstwa Spraw Zagranicznych Federacji Rosyjskiej oparli swoje badania na systematycznej analizie roli AI w dziedzinie bezpieczeństwa, metodzie analizy scenariuszowej, analogiach historycznych oraz analizie przypadków. Wraz z kolegą z Uniwersytetu w Uppsali (Szwecja), Gregiem Simonsem, autorzy badania zostali współredaktorami nadchodzącej książki „Terroryzm i zaawansowane technologie w konfrontacji informacyjno-psychologicznej: nowe ryzyko, nowe możliwości przeciwdziałania zagrożeniom terrorystycznym” z udziałem naukowców z 11 krajów.

Z inicjatywy rosyjskich badaczy problem roli sztucznej inteligencji w kontekście zagrożeń dla międzynarodowej informacji i bezpieczeństwa psychologicznego jest aktywnie dyskutowany i będzie omawiany na międzynarodowych konferencjach i niezależnych międzynarodowych seminariach badawczych. Wśród nich jest konferencja pod auspicjami Komisji Federacji Rosyjskiej ds. UNESCO oraz szeregu innych struktur rosyjskich i międzynarodowych w Chanty-Mansyjsku w dniach 9-12 czerwca. Gubernator Okręgu Autonomicznego Chanty-Mansyjsk Natalya Vladimirovna Komarova wzięła aktywny udział w posiedzeniu sekcji dotyczącej problemu złośliwego wykorzystania sztucznej inteligencji, utworzonej przy wsparciu Europejskiej-Rosyjskiej Sieci Ekspertów ds. Zarządzania Komunikacją (ERESKM). W przyszłości jest to IV Forum Iberoamerykańskie w Sankt Petersburgu w dniach 1-3 października 2019 r.,Europejska konferencja nt. Wpływu sztucznej inteligencji i robotyki 31 października - 1 listopada 2019. Autorzy badań przedstawili doniesienia naukowe w Argentynie, Urugwaju, Brazylii, RPA i we Włoszech.

Zdaniem specjalistów z RANEPA i Akademii Dyplomatycznej niezmiernie ważne jest w skali Rosji ustalenie formowania długoterminowych programów celowych, gdyż problem AI oraz międzynarodowego bezpieczeństwa informacyjnego i psychologicznego jest problemem na najbliższą przyszłość.