Jakie Niebezpieczeństwa Związane Z Sieciami Neuronowymi Nie Doceniamy? - Alternatywny Widok

Spisu treści:

Jakie Niebezpieczeństwa Związane Z Sieciami Neuronowymi Nie Doceniamy? - Alternatywny Widok
Jakie Niebezpieczeństwa Związane Z Sieciami Neuronowymi Nie Doceniamy? - Alternatywny Widok

Wideo: Jakie Niebezpieczeństwa Związane Z Sieciami Neuronowymi Nie Doceniamy? - Alternatywny Widok

Wideo: Jakie Niebezpieczeństwa Związane Z Sieciami Neuronowymi Nie Doceniamy? - Alternatywny Widok
Wideo: Fundusze Unii Europejskiej + Nauka = Innowacyjny transport - konferencja 1 cz. 12 maja 2024, Może
Anonim

Czy kiedykolwiek spotkałeś na ulicy osobę, która byłaby taka jak Ty? Ubranie, twarz, chód, sposób komunikowania się, nawyki są całkowicie identyczne z Twoimi. To jak skanowanie i drukowanie na drukarce. Brzmi trochę przerażająco, prawda? Teraz wyobraź sobie, że widziałeś film, w którym taka osoba opowiada coś o sobie. W najlepszym razie postarasz się zapamiętać, kiedy szedłeś w taki sposób, że nic nie pamiętałeś, ale możesz to powiedzieć przed kamerą. Chociaż wszystko to brzmi jak proste rozumowanie, technologia jest już bardzo bliska stworzenia takich ludzi. Już istnieją, ale wkrótce będzie ich znacznie więcej.

Skąd się bierze podróbka?

Teraz jest już zbyt wiele rzeczy, które są powszechnie nazywane podróbkami. Są wszędzie. Można je znaleźć na zdjęciach, w wiadomościach, przy produkcji towarów i usługach informacyjnych. Łatwiej powiedzieć, gdzie nie ma zjawisk, którym towarzyszy to słowo. Chociaż możesz z nimi walczyć. Możesz zbadać pochodzenie zdjęcia, sprawdzić charakterystyczne cechy markowego produktu od podróbki i dwukrotnie sprawdzić wiadomości. Chociaż wiadomości to osobny temat.

W dzisiejszych czasach konsument treści nie chce czekać i wymaga od twórcy błyskawicznej produkcji, czasem nawet nie dba o jakość, najważniejsze jest to, żeby szybko. To wtedy zdarzają się sytuacje, gdy ktoś coś powiedział, a pozostali, nie sprawdzając tego, usuwali to ze swoich stron internetowych i gazet. W niektórych przypadkach obrócenie tej piłki z powrotem i udowodnienie, że wszystko było nie tak, zajmuje dużo czasu.

Nie ma sensu wyjaśniać, dlaczego to wszystko się dzieje. Z jednej strony są tacy, którzy po prostu chcą się pośmiać z sytuacji, z drugiej tacy, którzy naprawdę nie wiedzieli, że się mylili. Oddzielne miejsce, mniej więcej pośrodku, zajmują ci, dla których banalne jest czerpanie korzyści. Mogą to być interesy wpływu na różnych poziomach, w tym politycznym. Czasami jest to celem osiągnięcia zysku. Na przykład siejąc panikę na giełdzie i przeprowadzając zyskowne transakcje papierami wartościowymi. Ale często jest to spowodowane wrogością wobec osoby (firmy, produktu itp.), Aby ją umniejszyć. Prostym przykładem jest „spadanie” w rankingach filmu lub instytucji, która jest dla kogoś niepożądana. Oczywiście wymaga to armii tych, którzy pójdą i nie lubią (czasem nawet botów), ale to już inna historia.

Co to jest uczenie głębokie?

Film promocyjny:

Ostatnio to określenie brzmi coraz częściej. Czasami nawet nie jest związany ze sprawą i jest mylony z czymś innym. Oprogramowanie wygląda więc bardziej imponująco.

Nie myśl, że koncepcja i podstawowe zasady uczenia maszynowego pojawiły się dopiero kilka lat temu. W rzeczywistości mają tyle lat, że wielu z nas nawet wtedy się nie urodziło. Podstawowe zasady systemów głębokiego uczenia się i modele matematyczne ich pracy znane były już w latach 80-tych ubiegłego wieku.

W tamtym czasie nie miały one większego sensu ze względu na brak jednego ważnego elementu. To była duża moc obliczeniowa. Dopiero w połowie XXI wieku pojawiły się systemy, które mogą pomóc w pracy w tym kierunku i pozwalają obliczyć wszystkie niezbędne informacje. Teraz maszyny ewoluowały jeszcze bardziej, a niektóre systemy widzenia maszynowego, percepcji głosu i inne działają tak wydajnie, że czasami nawet przewyższają możliwości człowieka. Chociaż nie są jeszcze „uwięzieni” w odpowiedzialnych kierunkach, co czyni ich uzupełnieniem ludzkich możliwości, zachowując nad nimi kontrolę.

Image
Image

Co to jest Deepfake? Kiedy pojawił się Deepfake?

Łatwo zgadnąć, że Deepfake to mała gra słów związanych z Deep Learning i samymi podróbkami, o których mówiłem powyżej. Oznacza to, że Deepfake powinien przenieść podróbkę na nowy poziom i wyładować osobę w tym trudnym biznesie, umożliwiając jej tworzenie fałszywych treści bez marnowania energii.

Przede wszystkim takie podróbki dotyczą wideo. Oznacza to, że każda osoba może usiąść przed kamerą, coś powiedzieć, a jego twarz zostanie zastąpiona inną osobą. Wygląda to przerażająco, ponieważ w rzeczywistości wystarczy złapać podstawowe ruchy osoby, a odróżnienie podróbki będzie po prostu niemożliwe. Zobaczmy, jak to się wszystko zaczęło.

Pierwsza generatywna przeciwstawna sieć została stworzona przez studenta Uniwersytetu Stanforda. Stało się to w 2014 roku, a student nazywał się Ian Goodfellow. W rzeczywistości zestawił ze sobą dwie sieci neuronowe, z których jedna była zaangażowana w tworzenie ludzkich twarzy, a druga analizowała je i mówiła podobnie lub nie. Więc trenowali się nawzajem i pewnego dnia druga sieć neuronowa zaczęła się mylić i traktować wygenerowane obrazy w rzeczywistości. To właśnie ten coraz bardziej złożony system daje początek Deepfake.

Obecnie jednym z głównych promotorów idei Deepfake jest Hao Li. Robi nie tylko to, ale także wiele innych. Za to był wielokrotnie nagradzany różnymi nagrodami, w tym nieoficjalnymi. Nawiasem mówiąc, jest jednym z tych, którym należy podziękować za pojawienie się animoji w iPhonie X. Jeśli jesteś zainteresowany, możesz zapoznać się z nim bardziej szczegółowo na jego stronie internetowej. Dziś nie jest głównym tematem dyskusji.

Zapamiętaliśmy go tylko dlatego, że na Światowym Forum Ekonomicznym w Davos pokazał swoją aplikację, która pozwoli Ci zastąpić twarz osoby siedzącej przed kamerą dowolną inną twarzą. W szczególności pokazał, jak działa system na przykładzie twarzy Leonarda DiCaprio, Willa Smitha i innych znanych osób.

Wygląda trochę przerażająco. Z jednej strony podziwiać można tylko nowoczesne technologie, które pozwalają na zeskanowanie twarzy, zmianę jej na inną w biegu i stworzenie nowego obrazu. Wszystko to zajmuje ułamek sekundy, a system nawet nie zwalnia. Oznacza to, że pozwala nie tylko przetwarzać gotowe wideo i zastępować twarz, ale także uczestniczyć w takiej postaci w jakiejś komunikacji wideo na żywo.

Niebezpieczeństwo Deepfake. Jak zmienić twarz w filmie?

Możesz mówić tyle, ile chcesz, że ta technologia jest potrzebna, jest bardzo fajna i nie musisz oczerniać. Można nawet posunąć się do skrajności i zacząć mówić, że jest to pozycja zaciekłego staruszka, który po prostu boi się wszystkiego, co nowe, ale tak naprawdę jest więcej niebezpieczeństw niż korzyści.

Dzięki takiej technologii, zwłaszcza jeśli jest to oprogramowanie typu open source, każdy będzie mógł surfować i nagrywać dowolne wideo. Nie jest źle, jeśli to tylko zniesławia czyjś honor i godność, a znacznie gorzej, jeśli jest to oświadczenie złożone w imieniu ważnej osoby. Na przykład, nagrywając tylko 30-40 sekundowe wideo w imieniu Tima Cooka, możesz obalić prawie całą sferę IT w Stanach Zjednoczonych, na czele której stoi Apple. Giełda zostanie uderzona tak mocno, że zasiać panikę wśród inwestorów. W rezultacie tysiące ludzi stracą miliardy dolarów.

Każdy, kto nie lubi tego sposobu zarabiania, powie, że tego właśnie potrzebuje, niech pójdzie do zakładu. Ale w najsmutniejszym scenariuszu po tym nie będzie żadnej rośliny. Poza tym banalne jest to, że trafiamy na osobę, która oszukuje na wahaniach wartości papierów wartościowych. Wystarczy je kupić i sprzedać na czas.

Sytuacja mogłaby być jeszcze gorsza, gdyby „żartowniś” zabrał głos w imieniu przywódcy dużego państwa. Oczywiście wtedy wszystko zostanie ujawnione, ale w tym czasie możesz zrobić wiele nieprzyjemnych rzeczy. Na tym tle zastąpienie aktora w filmie dla dorosłych twarzą gwiazdy byłoby niewinnym żartem.

Przy takich technologiach najważniejsze jest skanowanie, a potem kwestia technologii. W najprawdziwszym tego słowa znaczeniu
Przy takich technologiach najważniejsze jest skanowanie, a potem kwestia technologii. W najprawdziwszym tego słowa znaczeniu

Przy takich technologiach najważniejsze jest skanowanie, a potem kwestia technologii. W najprawdziwszym tego słowa znaczeniu.

Możesz sobie wyobrazić sytuację odwrotną, gdy prawdziwa osoba coś mówi, a potem zapewnia wszystkich, że został wrobiony. Nie jest też jasne, jak znaleźć się w tej sytuacji. Spowoduje to takie zamieszanie w kanałach informacyjnych, że po prostu nie będzie możliwe dwukrotne sprawdzenie ich w innym źródle. W rezultacie ogólnie będzie niejasne, co jest prawdą, a co fałszem na tym świecie. Z filmów o ponurej przyszłości, takich jak Surrogates czy Terminator, wyłania się obraz, w którym T-1000 przedstawił się jako inni ludzie i między innymi w imieniu swojej przybranej matki nazwał Johna Conora.

Teraz nie mówię nawet o kolejnym nadużyciu, które pozwoli na zebranie fałszywych dowodów. Na tym tle cała frajda z zabawki staje się zbyt wątpliwa.

Jak wykryć Deepfake?

Problem nie polega nawet na tym, że takie systemy powinny być zakazane, ale że nie jest to już możliwe. Już tam są, a rozwój technologii, w tym odczytywanie twarzy, doprowadził do ich pojawienia się i rozpowszechnienia otwartego oprogramowania. Nawet jeśli wyobrażamy sobie, że system w swojej obecnej formie przestanie istnieć, musimy zrozumieć, że powstanie na nowo. Jeszcze raz nauczą sieci neuronowe współpracy i to wszystko.

Jak dotąd nie wszystko jest takie straszne, a podróbkę można dosłownie rozpoznać gołym okiem. Obraz jest podobny, ale raczej szorstki. Ponadto czasami ma pewne problemy z blendowaniem, zwłaszcza wokół krawędzi twarzy. Ale nic nie stoi w miejscu i wcale nie jest trudno go jeszcze bardziej rozwinąć. Ten sam Hao Li jest pewien, że zajmie to nie więcej niż kilka miesięcy, a stworzenie „masek”, których nawet komputer nie jest w stanie rozróżnić, zajmie jeszcze kilka lat. Potem już nie będzie odwrotu.

Z jednej strony algorytm, który tworzą już YouTube i Facebook, może przed tym uchronić. Nawiasem mówiąc, ten ostatni otworzył nawet konkurs na rozwój technologii rozpoznawania - Deepfake Detection Challenge („Zadanie wykrywania deepfake'ów”). Pula nagród w tym konkursie wynosi 10 milionów dolarów. Konkurs już trwa i zakończy się w marcu 2020 roku. Nadal możesz mieć czas na udział.

Zastępowanie twarzy w filmie nie jest już problemem
Zastępowanie twarzy w filmie nie jest już problemem

Zastępowanie twarzy w filmie nie jest już problemem.

Być może ta hojność wynika z fałszywego wideo z samym Markiem Zuckerbergiem. Jeśli te dwie rzeczy są ze sobą powiązane, to pojawienie się takiej konkurencji nie jest zaskakujące.

Jeśli zastąpiona ściana w pełni pasuje do oryginału, siła przeciwdziałająca reprezentowana przez specjalną sieć neuronową będzie bezsilna. W takim przypadku będzie musiała wychwycić minimalne różnice w wyrazie twarzy, ruchach i sposobie mówienia. W przypadku znanych osób taki problem zostanie rozwiązany na poziomie serwisu wideo, skoro ten sam YouTube wie, jak porusza się konwencjonalny Donald Trump. Z mniej znaną osobą sprawa staje się trudniejsza. Chociaż można to również udowodnić, ustawiając go przed kamerą i prowadząc swobodną rozmowę, podczas gdy sieć neuronowa analizuje jego ruchy. Okaże się, że będzie to coś w rodzaju badania odcisku palca, ale, jak widać, ponownie doprowadzi to do niepotrzebnych trudności.

Można również obejść wbudowanie systemów uwierzytelniania wideo do kamer. Możesz sprawić, by kamera oznaczyła przechwycone wideo i wyraźnie wskazywała, że nie została nagrana za pomocą oddzielnej aplikacji ani przetworzona w specjalnym programie. Ale co z filmami, które właśnie zostały przetworzone? Na przykład zredagowany wywiad. W rezultacie otrzymamy wideo, w którym nie będzie już oryginalnego klucza.

Na koniec kilka memów
Na koniec kilka memów

Na koniec kilka memów.

Czy możemy powiedzieć, że naszkicowaliśmy teraz jeden ze scenariuszy mrocznej przyszłości? Ogólnie tak. Jeśli technologie, które zostały stworzone, aby osiągnąć dobre cele, wymkną się spod kontroli, mogą pogrążyć się w żalu. W rzeczywistości istnieje wiele opcji dla takich niebezpiecznych technologii, ale większość z nich jest chroniona. Na przykład fuzja jądrowa. Tutaj mamy do czynienia z kodem, który każdy może zdobyć.

Napisz w komentarzach, jak widzisz ochronę przed podrabianiem, biorąc pod uwagę, że system maskowania był w stanie sprawić, że maski będą całkowicie identyczne z oryginalnymi twarzami. A ponieważ są na wideo, nie możesz nawet zastosować do nich rozpoznawania głębi i głośności. Ponadto załóżmy, że każdy kod i klucz osadzony w obrazie może zostać zhakowany. Jak mówią, to po co. Teraz możemy omówić, jest tam całe wprowadzenie.

Artem Sutyagin