Jak Sieci Neuronowe Zostały Nauczone Fałszować Obraz Wiadomości - Alternatywny Widok

Spisu treści:

Jak Sieci Neuronowe Zostały Nauczone Fałszować Obraz Wiadomości - Alternatywny Widok
Jak Sieci Neuronowe Zostały Nauczone Fałszować Obraz Wiadomości - Alternatywny Widok

Wideo: Jak Sieci Neuronowe Zostały Nauczone Fałszować Obraz Wiadomości - Alternatywny Widok

Wideo: Jak Sieci Neuronowe Zostały Nauczone Fałszować Obraz Wiadomości - Alternatywny Widok
Wideo: Kaczyński STRACI WŁADZĘ! Tusk: Jest PLAN na OBALENIE RZĄDU | WIADOMOŚCI 2024, Kwiecień
Anonim

Do tworzenia podróbek wykorzystuje systemy sztucznej inteligencji i technologie do generowania podróbek wideo i audio.

Aby stworzyć „indywidualny” obraz wiadomości dla każdego z nas i sfałszować wybrane w nim doniesienia medialne, wystarczy dziś wysiłek jednego programisty. Powiedzieli o tym Izwiestii specjaliści od sztucznej inteligencji i cyberbezpieczeństwa. Niedawno oszacowali, że wymagało to pracy wielu zespołów. Takie przyspieszenie stało się możliwe wraz z rozwojem technologii ataków na sieci neuronowe oraz generowania fałszywych dźwięków i wideo przy użyciu programów do tworzenia „głębokich podróbek”. Gazeta Izwiestia przeszła ostatnio podobny atak, kiedy trzy libijskie portale informacyjne natychmiast opublikowały wiadomość, która rzekomo pojawiła się w jednym z numerów. Zdaniem ekspertów w ciągu 3-5 lat można spodziewać się inwazji robotycznych manipulatorów, które automatycznie będą w stanie wytworzyć wiele podróbek.

Odważny nowy świat

Powstało coraz więcej projektów dostosowujących obraz informacyjny do percepcji konkretnych użytkowników. Przykładem ich pracy była niedawna akcja trzech libijskich portali, które publikowały wiadomości rzekomo drukowane w numerze Izwiestii z 20 listopada. Twórcy podróbki zmodyfikowali pierwszą stronę gazety, umieszczając na niej wiadomość o negocjacjach między feldmarszałkiem Khalifą Haftarem a premierem rządu porozumienia narodowego (PNS) Fayezem Sarradżem. Fałszywie, czcionką Izwiestii, towarzyszyło zdjęcie dwóch liderów zrobione w maju 2017 roku. Etykieta z logo publikacji została wycięta z aktualnego wydania z 20 listopada oraz wszystkich innych tekstów na stronie z numeru 23 października.

Z punktu widzenia specjalistów w dającej się przewidzieć przyszłości takie fałszerstwa mogą być dokonywane automatycznie.

Image
Image

„Technologie sztucznej inteligencji są teraz całkowicie otwarte, a urządzenia do otrzymywania i przetwarzania danych miniaturyzują się i stają się tańsze” - powiedział Izwiestii Jurij Vilsiter, doktor nauk fizycznych i matematycznych, profesor Rosyjskiej Akademii Nauk, kierownik wydziału FSUE „GosNIIAS”. - Dlatego jest bardzo prawdopodobne, że w najbliższym czasie nawet państwo i wielkie korporacje, a po prostu osoby prywatne będą w stanie nas podsłuchiwać i szpiegować, a także manipulować rzeczywistością. W nadchodzących latach będzie można, analizując preferencje użytkownika, wpływać na niego poprzez kanały informacyjne i bardzo sprytne podróbki.

Film promocyjny:

Według Jurija Vilsitera technologie, które można wykorzystać do takiej ingerencji w środowisko psychiczne, już istnieją. Teoretycznie, inwazji robotów manipulatorów można się spodziewać za kilka lat, powiedział. Momentem ograniczającym może być tutaj potrzeba zgromadzenia dużych baz danych z przykładami reakcji prawdziwych ludzi na sztuczne bodźce wraz ze śledzeniem ich długofalowych konsekwencji. Takie śledzenie prawdopodobnie będzie wymagało jeszcze kilku lat badań, zanim ataki ukierunkowane będą konsekwentnie uzyskiwane.

Atak wizji

Alexei Parfentiev, szef działu analiz w SearchInform, zgadza się z Yuri Vilsiterem. Według niego eksperci już przewidują ataki na sieci neuronowe, chociaż obecnie praktycznie nie ma takich przykładów.

- Naukowcy z Gartner uważają, że do 2022 r. 30% wszystkich cyberataków będzie miało na celu uszkodzenie danych, na których trenuje sieć neuronowa i kradzież gotowych modeli uczenia maszynowego. Wówczas np. Bezzałogowe pojazdy mogą nagle zacząć mylić pieszych z innymi obiektami. Ekspert uważa, że nie będziemy rozmawiać o ryzyku finansowym czy reputacyjnym, ale o życiu i zdrowiu zwykłych ludzi.

Obecnie w ramach badań przeprowadzane są ataki na komputerowe systemy wizyjne. Celem takich ataków jest wymuszenie na sieci neuronowej wykrycia na obrazie tego, czego nie ma. Lub odwrotnie, nie widzieć, co zostało zaplanowane.

Image
Image

„Jednym z aktywnie rozwijających się tematów w dziedzinie szkolenia sieci neuronowych są tak zwane ataki kontradyktoryjne („ ataki kontradyktoryjne”- Izwiestia)” - wyjaśnił Vladislav Tushkanov, analityk sieciowy z Kaspersky Lab. - W większości przypadków dotyczą komputerowych systemów wizyjnych. Aby przeprowadzić taki atak, w większości przypadków potrzebny jest pełny dostęp do sieci neuronowej (tzw. Ataki białej skrzynki) lub wyników jej działania (ataki czarnoskrzynkowe). Nie ma metod, które w 100% przypadków mogą oszukać jakikolwiek system wizyjny. Ponadto stworzono już narzędzia, które pozwalają testować sieci neuronowe pod kątem odporności na ataki kontradyktoryjne i zwiększać ich odporność.

W trakcie takiego ataku osoba atakująca próbuje w jakiś sposób zmienić rozpoznany obraz tak, aby sieć neuronowa nie działała. Często na zdjęcie nakłada się szum podobny do tego, który występuje podczas fotografowania w słabo oświetlonym pomieszczeniu. Osoba zwykle nie zauważa dobrze takich zakłóceń, ale sieć neuronowa zaczyna działać nieprawidłowo. Aby jednak przeprowadzić taki atak, atakujący musi mieć dostęp do algorytmu.

Według Stanisława Ashmanova, dyrektora generalnego Neuroset Ashmanov, obecnie nie ma metod rozwiązania tego problemu. Ponadto technologia ta jest dostępna dla każdego: przeciętny programista może z niej korzystać, pobierając niezbędne oprogramowanie open source z serwisu Github.

Image
Image

- Atak na sieć neuronową to technika i algorytmy oszukiwania sieci neuronowej, które powodują, że daje ona fałszywe wyniki, a właściwie wyłamuje ją jak zamek do drzwi - uważa Ashmanov. - Np. Teraz dość łatwo jest sprawić, by system rozpoznawania twarzy pomyślał, że to nie ty, a przed nim Arnold Schwarzenegger - odbywa się to poprzez wmieszanie niedostrzegalnych dla ludzkiego oka dodatków do danych wchodzących do sieci neuronowej. Te same ataki są możliwe w przypadku systemów rozpoznawania i analizy mowy.

Ekspert jest pewien, że będzie tylko gorzej - te technologie trafiły do mas, oszuści już z nich korzystają i nie ma możliwości ochrony przed nimi. Ponieważ nie ma ochrony przed automatycznym tworzeniem fałszerstw wideo i audio.

Głębokie podróbki

Technologie Deepfake oparte na Deep Learning (technologie głębokiego uczenia sieci neuronowych - Izwiestia) już teraz stanowią realne zagrożenie. Fałszerstwa wideo lub audio powstają poprzez edycję lub nałożenie twarzy znanych osób, które rzekomo wymawiają niezbędny tekst i odgrywają niezbędną rolę w fabule.

„Deepfake pozwala zastąpić ruchy ust i ludzką mowę wideo, co daje poczucie realizmu tego, co się dzieje” - mówi Andrey Busargin, dyrektor działu ochrony innowacyjnej marki i własności intelektualnej w Group-IB. - Fałszywe gwiazdy „oferują” użytkownikom sieci społecznościowych udział w losowaniu wartościowych nagród (smartfony, samochody, sumy pieniędzy) itp. Linki z tych filmów często prowadzą do fałszywych i phishingowych witryn, w których użytkownicy są proszeni o podanie danych osobowych, w tym danych karty bankowej. Takie schematy stanowią zagrożenie zarówno dla zwykłych użytkowników, jak i osób publicznych, o których wspomina się w reklamach. Z powodu tego rodzaju oszustw obrazy celebrytów kojarzą się z oszustwami lub reklamowanymi towarami.i tu właśnie dochodzi do uszkodzenia marki osobistej”- mówi.

Image
Image

Kolejne zagrożenie wiąże się z wykorzystaniem „fałszywych głosów” do oszustw telefonicznych. Na przykład w Niemczech cyberprzestępcy wykorzystali technologię voice deepfake, aby szef brytyjskiej spółki zależnej w trybie pilnym przelał w rozmowie telefonicznej 220 000 euro na konto węgierskiego dostawcy, podając się za menedżera firmy. Szef brytyjskiej firmy podejrzewał podstęp, gdy jego „szef” poprosił o drugi przekaz pieniężny, ale zadzwonił z austriackiego numeru. W tym czasie pierwsza transza została już przelana na konto na Węgrzech, skąd pieniądze zostały wypłacone do Meksyku.

Okazuje się, że obecne technologie pozwalają na stworzenie indywidualnego obrazu wiadomości wypełnionego fałszywymi wiadomościami. Co więcej, wkrótce będzie można odróżnić podróbki od prawdziwego obrazu i dźwięku tylko sprzętowo. Zdaniem ekspertów jest mało prawdopodobne, aby środki zakazujące rozwoju sieci neuronowych były skuteczne. Dlatego wkrótce będziemy żyć w świecie, w którym konieczne będzie ciągłe sprawdzanie wszystkiego.

„Musimy się do tego przygotować i musimy to zaakceptować” - podkreślił Yuri Vilsiter. - Ludzkość nie jest pierwszym przejściem z jednej rzeczywistości do drugiej. Nasz świat, sposób życia i wartości radykalnie różnią się od świata, w którym żyli nasi przodkowie 60 000 lat temu, 5 000 lat temu, 2 000 lat temu, a nawet 200-100 lat temu. W najbliższej przyszłości osoba zostanie w dużej mierze pozbawiona prywatności, a zatem zmuszona będzie do niczego nie ukrywania i uczciwego postępowania. Jednocześnie niczego w otaczającej rzeczywistości i we własnej osobowości nie można uwierzyć, wszystko będzie musiało być kwestionowane i nieustannie sprawdzane. Ale czy ta przyszła rzeczywistość będzie tragiczna? Nie. Po prostu będzie zupełnie inaczej.

Anna Urmantseva