Sztuczna Inteligencja Pomaga W Tworzeniu Realistycznych Podróbek Wideo - Alternatywny Widok

Sztuczna Inteligencja Pomaga W Tworzeniu Realistycznych Podróbek Wideo - Alternatywny Widok
Sztuczna Inteligencja Pomaga W Tworzeniu Realistycznych Podróbek Wideo - Alternatywny Widok

Wideo: Sztuczna Inteligencja Pomaga W Tworzeniu Realistycznych Podróbek Wideo - Alternatywny Widok

Wideo: Sztuczna Inteligencja Pomaga W Tworzeniu Realistycznych Podróbek Wideo - Alternatywny Widok
Wideo: REALISTYCZNE OBRAZY?! GRAFIK vs SZTUCZNA INTELIGENCJA 2024, Może
Anonim

W Internecie pojawiają się zmontowane filmy, w których ludzie wypowiadają określone słowa (chociaż w rzeczywistości ich nie powiedzieli) lub wykonują pewne czynności (chociaż w rzeczywistości ich nie zrobili). Dzięki nowym opracowaniom opartym na sztucznej inteligencji jakość takich podróbek wideo znacznie wzrośnie.

Dziś technologie tworzenia fałszywych filmów nie ograniczają się do ruchów ust i twarzy osoby w oryginalnych klatkach - system oparty na sztucznej inteligencji jest w stanie przygotować realistyczne wideo, w którym zmontowany cyfrowy obraz osoby może poruszać głową w różnych kierunkach, mrugać i pokazywać emocje. Wszystkie działania i słowa aktora, który jest nakręcony w oryginalnym filmie, zostaną przeniesione do fałszywego wideo.

Zespół programistów porównał nowy algorytm z istniejącymi systemami obróbki wideo i zdjęć, z którymi współpracują Facebook i Google. Nowy algorytm przewyższył istniejące techniki, a uczestnicy eksperymentu z trudem mogli określić autentyczność filmów.

Naukowcy byli częściowo finansowani przez Google. Twórcy systemu mają nadzieję, że nowa technologia usprawni wirtualną rzeczywistość. AI potrzebuje tylko przestudiować kilka minut materiału źródłowego, aby rozpocząć tworzenie zmodyfikowanego wideo. Dlatego naukowcy twierdzą, że wysokiej jakości oprogramowanie do edycji wideo stanie się tańsze.

Twórcy rozumieją, że ich wynalazek może budzić pewne obawy społeczności.

Badacz Justus Tees powiedział The Register, że martwi się o etyczną stronę problemu. Wyniki badania zostały opublikowane, aby ostrzec ludzi o postępach w technikach manipulacji, powiedział Tees.

Naukowcy po raz kolejny „ostrzegli przed niebezpieczeństwem”, ale nadal udoskonalali podejrzaną technologię. W tekście badania kwestia etyczna została poruszona tylko mimochodem: twórcy uważają, że ktoś powinien ulepszyć system znaków wodnych lub wymyślić inny sposób wykrywania fałszerstw wideo.

Sami badacze nie chcą zajmować się tym problemem, ponieważ pracują nad ulepszeniem narzędzia do tworzenia fałszywych filmów.

Film promocyjny:

Anton Komarov