Sztuczna Inteligencja Emocjonalna Będzie Mogła Powiedzieć: „Nie Mam Nastroju Do Pracy” - Alternatywny Widok

Spisu treści:

Sztuczna Inteligencja Emocjonalna Będzie Mogła Powiedzieć: „Nie Mam Nastroju Do Pracy” - Alternatywny Widok
Sztuczna Inteligencja Emocjonalna Będzie Mogła Powiedzieć: „Nie Mam Nastroju Do Pracy” - Alternatywny Widok

Wideo: Sztuczna Inteligencja Emocjonalna Będzie Mogła Powiedzieć: „Nie Mam Nastroju Do Pracy” - Alternatywny Widok

Wideo: Sztuczna Inteligencja Emocjonalna Będzie Mogła Powiedzieć: „Nie Mam Nastroju Do Pracy” - Alternatywny Widok
Wideo: 5 cech osób o DUŻEJ INTELIGENCJI EMOCJONALNEJ 2024, Może
Anonim

Badania w dziedzinie sztucznej inteligencji znajdują się dziś w czołówce nauki i zajmują jedno z ważnych miejsc w pracy naukowców z National Research Nuclear University MEPhI (NRNU MEPhI). Jakie zmiany zachodzą obecnie w tej dziedzinie? Co kryje się za pragnieniem naukowców, aby nauczyć maszynę, jak tworzyć? Profesor Instytutu Inteligentnych Systemów Cybernetycznych (NRNU MEPhI) Aleksey Samsonovich powiedział korespondentowi projektu Social Navigator organizacji Russia Today MIA podczas XX Międzynarodowej Konferencji Naukowo-Technicznej „Neuroinformatyka-2018”.

Alexey Vladimirovich, jakiś czas temu mówiłeś o stworzeniu wirtualnego asystenta kompozytora. Czy pociąga Cię modelowanie kreatywnego myślenia?

- Generalnie pociąga mnie zadanie stworzenia sztucznej inteligencji na poziomie ludzkim, w szczególności inteligencji emocjonalnej. Jest to konieczne, aby przyszłe agenty wirtualne były kompatybilne z ludźmi. Ludzie nie postrzegają czegoś jako żywego, jeśli nie jest w stanie zrozumieć emocji i wyrazić emocji.

Aby sztuczna inteligencja ogólnie odniosła sukces, musi być kompatybilna z ludźmi. Powinni postrzegać go jako równego partnera, a nie jako środek do osiągnięcia celów. Jest to możliwe tylko na zasadzie wzajemnego zrozumienia.

A to, że w tej chwili skupiam się na kreatywności, jest raczej krokiem pośrednim. Ostatecznym celem nie jest dla mnie kreatywność czy sztuczna inteligencja zajmująca się sztuką (choć jest to z pewnością ważne i interesujące zadanie). To tylko ogniwo w łańcuchu kroków prowadzących do sztucznej inteligencji na poziomie ludzkim.

Roboty Qrio tańczą tango argentyńskie w Tokio w Japonii. 2005 rok
Roboty Qrio tańczą tango argentyńskie w Tokio w Japonii. 2005 rok

Roboty Qrio tańczą tango argentyńskie w Tokio w Japonii. 2005 rok.

Po pierwsze, musieliśmy wykazać niemożność odróżnienia sztucznej inteligencji od ludzi w ograniczonym środowisku, co zrobiliśmy półtora do dwóch lat temu. Następnie trzeba było iść dalej, pozostając w ramach „zabawkowych” zadań. Postawiliśmy sobie za cel nie tylko zdanie testu Turinga (test określający „inteligencję” maszyny - przyp. Red.), Ale stworzenie jakiegoś kreatywnego produktu - na przykład dzieła sztuki - wspólnie przez człowieka i sztuczną inteligencję.

W dzisiejszym świecie zrobiono już w tym kierunku wiele i trudno byłoby przekroczyć te osiągnięcia. Ale nie próbujemy tego robić, ponieważ nasze podejście jest zupełnie inne, opiera się na architekturze poznawczej, a nie na sieciach neuronowych, jak większość innych badaczy. Tam cele są osiągane praktycznie bez zrozumienia mechanizmów ludzkiego procesu twórczego, co nie pozwala stworzonej sztucznej inteligencji wyjść poza to, do czego została stworzona. Nasze podejście opiera się na fakcie, że rozwiązując konkretny problem, poznajemy ogólne zasady i rozwijamy zrozumienie, które pozwala nam rozwiązać następujące problemy.

Film promocyjny:

- Czy planujesz stworzyć wirtualnego artystę?

- Takie zadanie zleciłem kilku studentom. Nasz pomysł był prosty. Na początku XX wieku pracował słynny artysta, jeden z twórców sztuki abstrakcyjnej, Piet Mondrian. Wiele z jego wysoko cenionych obrazów to prostokąty podzielone na wiele mniejszych prostokątów o różnych kolorach.

Zaproponowałem, co następuje: stworzyć sztuczną inteligencję, która ponownie pokoloruje reprodukcje obrazów Mondriana, „nie wiedząc” nic o kolorystyce oryginałów. I zaoferuj badanym dwa zestawy zdjęć, aby nie wiedzieli, gdzie jest, i porównują, co jest lepsze. Kto wie, może wygra nasza sztuczna inteligencja? Wcześniej stworzyliśmy semantyczną mapę kolorów, aby odróżnić kolory przyjemne od nieprzyjemnych.

- Kiedy uczysz sztucznej inteligencji wszystkiego i wchodzi ona w emocjonalny i intelektualny kontakt z człowiekiem, jak można ją wykorzystać?

- Myślę, że będzie używany wszędzie. Za trzy lata, a nawet wcześniej, wszystkie środki intelektualne, nawet system operacyjny komputera czy smartfona, będą miały elementy inteligencji emocjonalnej. Już teraz smartfony pozwalają nam przekazywać emocje w wiadomościach, a nawet rozpoznawać je na twarzy osoby. Nie wiem, jakie to przydatne, ale może ludziom się to podoba.

Jestem nawet trochę szczęśliwy, że wszyscy mają obsesję na punkcie głębokich sieci neuronowych, ponieważ gdyby tak jak ja dali się porwać architekturom poznawczym, musiałbym zrobić coś innego.

- Nie boisz się, że wyszkolona emocjonalnie maszyna w pewnym momencie zacznie okazywać niewłaściwe emocje, jakich się od niej oczekuje, i powie: „Nie mam nastroju do pracy”?

- Wierzcie lub nie, ale na Zachodzie naukowcy postawili sobie właśnie taki cel - stworzyć inteligentnych agentów, którzy są w stanie zbuntować się przeciwko swojemu panu. Uważa się, że jest to korzystne, ponieważ w przeciwnym razie nie będą w stanie odmówić głupich zadań.

Kiedy po raz pierwszy usłyszałem o tym od mojego szefa cztery lata temu, zapytałem: „Czym to się różni od windy, która nie porusza się po naciśnięciu przycisku?” Zaśmiał się i powiedział: „Mam nadzieję, że tak się nie stanie w naszym budynku”.

- Czy jest tu jakieś niebezpieczeństwo?

- Nie, przynajmniej niezwiązane ze sztuczną inteligencją. Niebezpieczeństwo leży gdzie indziej - wszyscy ci giganci, tacy jak Google i Microsoft, zmuszą nas do myślenia tak, jak myślą ich sieci neuronowe, a my stracimy zdolność myślenia jak ludzie. Ale będzie to dzieło ludzi, a nie sztucznej inteligencji.

- Czy w najbliższych latach spodziewasz się jakichś przyjemnych dla ludzkości odkryć w tej dziedzinie?

- Tak oczywiście. Myślę, że wielu czeka teraz na „wielką przerwę” w sztucznej inteligencji. Moim zdaniem do tego przede wszystkim musi się zmienić stosunek człowieka do sztucznej inteligencji. Niedawno na wykładzie zapytano mnie: „Dlaczego sztuczna inteligencja potrzebuje emocji, skoro potrzebujemy ich tylko do najlepszego rozwiązania postawionego przed nią zadania?” Uważam, że właśnie w takim sformułowaniu pytania tkwi błąd: sztuczna inteligencja sama musi znaleźć problem do rozwiązania i sama go postawić. Jednocześnie powinien być przez nas postrzegany jako partner równorzędny intelektualnie, z którym można współdziałać jak równy sobie, na zasadach zaufania i wzajemnego zrozumienia.

Sztuczna inteligencja, będąc pod kontrolą człowieka, nadal musi działać w dużej mierze niezależnie. Albo musi to być rodzaj ludzkiego suplementu, jego pomocnika lub przedłużenia ludzkiego mózgu.