Roboty Stworzą Najbardziej Wiarygodne Fałszywe Informacje - Alternatywny Widok

Roboty Stworzą Najbardziej Wiarygodne Fałszywe Informacje - Alternatywny Widok
Roboty Stworzą Najbardziej Wiarygodne Fałszywe Informacje - Alternatywny Widok

Wideo: Roboty Stworzą Najbardziej Wiarygodne Fałszywe Informacje - Alternatywny Widok

Wideo: Roboty Stworzą Najbardziej Wiarygodne Fałszywe Informacje - Alternatywny Widok
Wideo: 121. Fałszywe Światło 2024, Może
Anonim

Wyobraź sobie, że któregoś dnia cudowne dziecko wymyśli technologię, która pozwala ludziom lub przedmiotom materialnym przechodzić przez ściany i zamieści w Internecie instrukcje, jak tanio zbudować taką cudowną maszynę z powszechnie dostępnych materiałów gospodarstwa domowego. Jak zmieniłby się świat?

Wiele branż może stać się znacznie bardziej produktywnych. Możliwość przechodzenia przez ściany zamiast korzystania z drzwi ułatwiłaby ludziom poruszanie się po biurach, przenoszenie towarów w magazynach i wykonywanie niezliczonych codziennych czynności domowych. Jednak negatywne konsekwencje mogą znacznie przeważyć nad pozytywnymi. Trzymanie kosztowności pod kluczem straciłoby sens. Każdy mógł łatwo wejść do magazynu, dostać się do sejfu w banku czy domu.

Większość metod, których używamy do ochrony własności prywatnej, w taki czy inny sposób obejmuje ściany, więc wszystkie z dnia na dzień byłyby bezużyteczne. Złodzieje działali bezkarnie, dopóki społeczeństwo nie wymyśli alternatywnych sposobów zapobiegania takim przestępstwom. Skutkiem takiego rozwoju wydarzeń może być załamanie gospodarcze lub chaos społeczny.

Powyższe ilustruje ogólną zasadę: innowacje technologiczne nie zawsze są korzystne dla społeczeństwa, przynajmniej w krótkim okresie. Technologie mogą tworzyć negatywne efekty zewnętrzne, efekty zewnętrzne. Ten termin ekonomiczny oznacza szkodę wyrządzoną osobom trzecim lub osobom trzecim. Jeśli te negatywne efekty zewnętrzne przeważają nad użytecznością samej technologii, wynalazek faktycznie czyni świat gorszym, a nie lepszym, przynajmniej na jakiś czas.

Uczenie maszynowe, zwłaszcza odmiana znana jako głębokie uczenie się, jest prawdopodobnie najgorętszym przełomem technologicznym na naszej planecie. Umożliwia komputerom wykonywanie wielu zadań, które wcześniej mogły być wykonywane tylko przez ludzi: rozpoznawanie obrazów, prowadzenie samochodów, handel na giełdzie i nie tylko. To wywołało u niektórych ludzi niepokój, że uczenie maszynowe może sprawić, że ludzie będą niepotrzebni i bezużyteczni w miejscu pracy. Jest to rzeczywiście możliwe, ale istnieje znacznie poważniejsze zagrożenie ze strony uczenia maszynowego, któremu jak dotąd nie poświęcono wystarczającej uwagi. Chodzi o to, że jeśli maszyny są w stanie się uczyć, to mogą również nauczyć się kłamać.

Dzisiaj ludzie mogą fałszować obrazy, takie jak fotografie, ale jest to pracochłonny i złożony proces. Fałszowanie głosu lub obrazu wideo jest generalnie poza możliwościami zwykłego człowieka. Ale wkrótce, dzięki uczeniu maszynowemu, prawdopodobnie będzie można łatwo tworzyć wiarygodne fałszywe obrazy wideo czyjejś twarzy i sprawiać wrażenie, że dana osoba mówi własnym głosem. Już teraz istnieje technologia synchronizacji ruchów warg, która pozwala dosłownie umieścić dowolne słowa w ustach. To tylko wierzchołek góry lodowej. Wkrótce dwunastolatki będą mogły tworzyć fotorealistyczne i realistycznie brzmiące fałszywe obrazy polityków, liderów biznesu, ich krewnych lub przyjaciół w swoich sypialniach, mówiąc wszystko, co tylko mogą sobie wyobrazić.

To samo w sobie wywołuje oczywiste nadużycia. Polityczne oszustwa, tak zwane „fałszywe wiadomości” lub „wypychanie informacji”, będą się rozprzestrzeniać jak pożary. Oczywiście oszustwo zostanie wykryte tak szybko, jak to możliwe - żadna technologia cyfrowa nie może być tak dobra, że inna technologia nie będzie w stanie wykryć podróbki. Ale stanie się to dopiero wtedy, gdy szkodliwa idea przeniknie już do umysłów ludzi, którzy w nią wierzą. Wyobraź sobie doskonale sfabrykowany fałszywy film przedstawiający kandydatów na prezydenta wykrzykujących rasistowskie obelgi lub przyznających się do poważnych przestępstw.

Jednak to dopiero początek. Wyobraź sobie potencjał do manipulowania giełdą. Załóżmy, że ktoś rozpowszechnił fałszywe wideo, w którym dyrektor generalny Tesli, Elon Musk, przyznaje, że samochody Tesli nie są bezpieczne. Wideo rozprzestrzeni się w Internecie, a akcje firmy upadną. Niedługo po odkryciu podróbki ich cena wróci do normy, jednak w tym czasie manipulatorzy będą mogli zarobić ogromne pieniądze, grając na zmniejszeniu akcji Tesli.

Film promocyjny:

A to dalekie od najbardziej ekstremalnego scenariusza. Wyobraź sobie takiego dowcipnisia, który tworzy realistyczne, fałszywe wideo, na którym prezydent Donald Trump twierdzi, że strajk na cele w Korei Północnej jest nieuchronny, a następnie umieszcza to nagranie w miejscu, w którym Koreańczycy mogą go zobaczyć. Jakie są szanse, że przywódcy Korei Północnej zdadzą sobie sprawę, że to fałsz, zanim będą musieli zdecydować się na rozpoczęcie wojny?

Ci, którzy mają tendencję do postrzegania tak ekstremalnych scenariuszy jako alarmistów, słusznie wskażą, że można wykryć wszelkie podróbki, ponieważ do ich wykrycia zostaną wykorzystane te same technologie uczenia maszynowego, co przy tworzeniu. Nie oznacza to jednak, że nie grozi nam zakończenie świata pełnego wszechobecnych podróbek. Kiedy podróbki staną się na tyle wiarygodne, że ludzie nie będą mogli ich wykryć samodzielnie, na zawsze stracimy wiarę w to, co widzimy i słyszymy. Zamiast ufać własnym zmysłom, będziemy zmuszeni polegać na algorytmach używanych do wykrywania fałszerstw i uwierzytelniania informacji. W trakcie ewolucji nauczyliśmy się ufać własnym uczuciom,a przeniesienie tych funkcji do inteligencji maszynowej może być dla większości ludzi zbyt gwałtowne.

To może być zła wiadomość dla gospodarki. Sieci biznesowe i handlowe opierają się na zaufaniu i komunikacji. Jeśli uczenie maszynowe rzuci pewnego dnia niekończący się huragan iluzji i fałszerstw w sferę informacji publicznej, mury stworzone przez ewolucję w celu odróżnienia rzeczywistości od fikcji runą. W takim przypadku poziom zaufania w społeczeństwie może gwałtownie spaść, co nie spowolni i nie wpłynie negatywnie na globalny dobrobyt ludzkości.

Z tego powodu rząd powinien prawdopodobnie podjąć pewne kroki, aby zapewnić surowe karanie za fałszowanie cyfrowe. Niestety obecna administracja raczej nie zrobi takiego kroku z zamiłowania do wąskich wiadomości. A rządy takie jak Rosja będą prawdopodobnie jeszcze mniej skłonne do ograniczania takich praktyk. Ostatecznie połączenie słabego zarządzania z potężnymi nowymi technologiami stanowi o wiele większe zagrożenie dla społeczeństwa ludzkiego niż same technologie.

Autor: Noah Smith - felietonista Bloomberg News

Igor Abramov