Polowanie Na Negatywność. Sztuczna Inteligencja Będzie Miała Zaufanie Do Kontrolowania Sieci Społecznościowych - Alternatywny Widok

Polowanie Na Negatywność. Sztuczna Inteligencja Będzie Miała Zaufanie Do Kontrolowania Sieci Społecznościowych - Alternatywny Widok
Polowanie Na Negatywność. Sztuczna Inteligencja Będzie Miała Zaufanie Do Kontrolowania Sieci Społecznościowych - Alternatywny Widok

Wideo: Polowanie Na Negatywność. Sztuczna Inteligencja Będzie Miała Zaufanie Do Kontrolowania Sieci Społecznościowych - Alternatywny Widok

Wideo: Polowanie Na Negatywność. Sztuczna Inteligencja Będzie Miała Zaufanie Do Kontrolowania Sieci Społecznościowych - Alternatywny Widok
Wideo: Uratuje nas Sztuczna Inteligencja – Wiesław Bartkowski (X Festiwal Przemiany) 2024, Październik
Anonim

Jeśli nie mieszkasz w mediach społecznościowych, najprawdopodobniej w ogóle nie żyjesz. Połowa światowej populacji może postawić tak rozczarowującą diagnozę. W każdym razie, według statystyk, dziś są zarejestrowane w sieciach społecznościowych. W Rosji liczba networkerów wynosi około 30 milionów.

Psychologowie napisali już tomy o uzależnieniu od sieci, które porównuje się do narkotyku. A autor terminu „rzeczywistość wirtualna”, jeden z jego twórców, przedstawiciel cyberelity z Doliny Krzemowej, Jaron Lanier, napisał nawet książkę o tym, dlaczego trzeba uciec z sieci społecznościowej. Chociaż telefon ten stał się bestsellerem, jest mało prawdopodobne, aby rozmowy te przekonały szerokie rzesze użytkowników. Obecnie populacja sieci społecznościowych szybko rośnie. Zdaniem ekspertów, do połowy stulecia wplątają się w prawie całą populację planety. Chyba że, oczywiście, ludzkość zmieni zdanie.

I jest o czym pomyśleć. W sieciach działają dziś kluby działające nie tylko na interesy filatelistów i widzów teatralnych, ale także samobójców i narkomanów, tutaj można znaleźć instrukcje dla początkujących terrorystów, współpracowników w walce z obecnym rządem i wiele więcej, szczerze mówiąc, negatywnych. Na przykład możesz pomyśleć o fali samobójstw, kiedy nastąpił boom w jednej popularnej grze online, której ostatecznym celem jest samobójstwo. Użytkownicy portali społecznościowych (przeważnie nastolatkowie) kontaktują się z „kuratorem”, który używa fałszywych kont, nie można ich zidentyfikować. Najpierw wyjaśniają zasady: „nie mów nikomu o tej grze”, „zawsze wykonuj zadania, cokolwiek by to nie było”, „za niewykonanie zadania jesteś na zawsze wykluczony z gry i poniesiesz złe konsekwencje”.

A politycy już mówią o fenomenie sieci: obalają rządy, a nawet wybierają prezydentów. Techniki są zaskakująco proste. Do sieci wrzucane są podróbki o pewnych skandalicznych działaniach władz i wzywa się do wyjścia na ulice w celu wyrażenia oburzenia. Znanych jest wiele przykładów, na przykład w Egipcie, Sudanie Południowym, Birmie.

Jak chronić społeczeństwo przed destrukcyjnym wpływem sieci społecznościowych? Dotyczy to zwłaszcza młodego pokolenia, które stanowi przytłaczającą większość w sieciach.

W zasadzie dla specjalistów, w szczególności psychologów, nie stanowi to problemu. Ale ilość najbardziej różnorodnych informacji, w tym negatywnych, w sieciach jest ogromna, nawet najlepsi profesjonaliści nie radzą sobie z ich „ręcznym” przetwarzaniem. Tylko technologia może to zrobić. A przede wszystkim sztuczna inteligencja (AI), zbudowana w oparciu o sieci neuronowe, które naśladują budowę i funkcjonowanie mózgu. Zespół psychologów z Pierwszego Państwowego Uniwersytetu Medycznego w Petersburgu im. I. I. Pavlov i specjaliści w dziedzinie technologii informatycznych z Instytutu Informatyki i Automatyki Rosyjskiej Akademii Nauk w Petersburgu.

„Mówimy o identyfikacji za pomocą sztucznej inteligencji różnych grup ludzi skłonnych do destrukcyjnych zachowań” - powiedział korespondentowi RG profesor Igor Kotenko, który kieruje tą grupą naukowców. - Psychologowie zaproponowali nam siedem opcji takiego zachowania, w szczególności jest to negatywny stosunek do życia, który może prowadzić do samobójstwa, to skłonność do agresji lub protestów, są to groźby pod adresem konkretnej osoby lub grupy osób itp. Naszym zadaniem jest stworzenie sztucznej inteligencji, która może pracować z tymi znakami, mówiąc w przenośni, „wbijać” je w sztuczną inteligencję, tak aby mogła stale analizować ogromne informacje, które krążą w sieci i wychwytywać różne niepokojące opcje.

Na pierwszy rzut oka zadanie nie jest bardzo trudne. W końcu każdy mieszkaniec sieci społecznościowej, jak mówią, jest na widoku. Na jego stronie możesz zobaczyć, czym się interesuje, co myśli, z kim się komunikuje, jakie działania podejmuje i do czego woła innych. Wszystko na pierwszy rzut oka. Obserwuj i podejmuj działania. Ale gdyby wszystko było takie oczywiste … Faktem jest, że myśli i zachowanie osoby w większości przypadków nie są tak proste i jednoznaczne, jak mogłoby się wydawać. Ogólnie diabeł tkwi w szczegółach. A tam, gdzie dla specjalisty wszystko jest oczywiste, sztuczna inteligencja może się pomylić. Na przykład kanadyjscy naukowcy nauczyli sztuczną inteligencję rozróżniania niegrzecznych dowcipów lub „mowy nienawiści” od zwykłych obraźliwych. System okazał się raczej niedoskonały, na przykład pomijał wiele oczywistych wypowiedzi rasistowskich.

Film promocyjny:

Krótko mówiąc, wszystko zależy od sposobu uczenia sztucznej inteligencji. System uczy się na przykładach, tak jak uczy się dziecko. Przecież nie tłumaczą mu, że kot ma takie wąsy, takie uszy, taki ogon. Wielokrotnie pokazują mu zwierzę i mówią, że to kot. A potem on sam wielokrotnie powtarza tę lekcję, patrząc na innego kota.

Sieci neuronowe stworzone przez naukowców z Petersburga będą badać w ten sam sposób. Zostaną im przedstawione różne opcje destrukcyjnego zachowania ludzi. Trzymając w swoich „mózgach” znaki opracowane przez psychologów, sztuczna inteligencja zapamięta je, aby następnie wyłapać je w ogromnych strumieniach informacji w sieciach społecznościowych. Profesor Kotenko podkreśla, że zadaniem sztucznej inteligencji jest tylko napiwek dla destrukcyjnych, a ostatnie słowo należy do specjalistów. Tylko oni będą w stanie powiedzieć, czy sytuacja jest naprawdę niepokojąca i czy istnieje pilna potrzeba działania, czy też alarm jest fałszywy.

Projekt był wspierany przez Rosyjską Fundację Badań Podstawowych.

Jurij Miedwiediew