Czy Roboty Będą W Stanie Znaleźć Duszę: Sztuczna Inteligencja Emocjonalna - Alternatywny Widok

Spisu treści:

Czy Roboty Będą W Stanie Znaleźć Duszę: Sztuczna Inteligencja Emocjonalna - Alternatywny Widok
Czy Roboty Będą W Stanie Znaleźć Duszę: Sztuczna Inteligencja Emocjonalna - Alternatywny Widok

Wideo: Czy Roboty Będą W Stanie Znaleźć Duszę: Sztuczna Inteligencja Emocjonalna - Alternatywny Widok

Wideo: Czy Roboty Będą W Stanie Znaleźć Duszę: Sztuczna Inteligencja Emocjonalna - Alternatywny Widok
Wideo: Czym jest Bogini Obcych Ksenomorfów? 2024, Może
Anonim

Z każdym rokiem postępy w dziedzinie sztucznej inteligencji stają się coraz doskonalsze - technologia rozpoznawania twarzy, inteligentni asystenci głosowi, a nawet sztuka tworzona przez algorytmy stają się częścią naszego życia. Ale czy AI będzie w stanie pokonać ostatnią granicę ludzkich możliwości i nauczyć się przeżywać emocje? Wraz z platformą Teoria i praktyka zapraszamy do poznania przyszłości człowieka i maszyny.

Święte kontra wiedza

W zwykłym ujęciu sztuczna inteligencja nigdy nie będzie w stanie zbliżyć się do ludzkiej emocjonalności z powodu naszej specjalnej organizacji mentalnej, której nie można przenieść do maszyny. Z drugiej strony wyzwanie związane z tworzeniem emocjonalnej sztucznej inteligencji wynika z faktu, że ludzie nie są aż tak dobrzy w empatii. Wcale nie przypominamy idealnych maszyn emocjonalnych, które z łatwością potrafią rozszyfrować uczucia innych. Nasza empatia jest poważnie ograniczona przez wyjątkowe doświadczenia, wyuczone stereotypy i indywidualne reakcje psycho-emocjonalne. Tak więc Europejczyk z klasy średniej raczej nie zrozumie, jakie uczucia wyraża przywódca afrykańskiego plemienia i na odwrót.

Image
Image

Z jednej strony wierzymy, że emocjonalność jest świętym darem, wyłącznym przywilejem ludzi. Z drugiej strony wiemy o tym za mało - mówi Sergey Markov, specjalista od sztucznej inteligencji i uczenia maszynowego oraz założyciel portalu 22century.ru. Jego zdaniem odejście od postrzegania emocjonalności jako czegoś świętego pozwoli na znalezienie nowych metod badania empatii. Z pomocą inżynierii odwrotnej (badanie gotowego urządzenia lub programu w celu zrozumienia jego działania i odkrywania nieoczywistych możliwości), badania sieci neuronowych i uczenia maszynowego, możesz dowiedzieć się czegoś zasadniczo nowego o ludzkiej emocjonalności. „Uczenie maszynowe pozwala w wielu przypadkach, jak mówią, wierzyć w harmonię z algebrą - bardziej wiarygodna wiedza oparta na statystykach dużych zbiorów danych zastępuje domysły i hipotezy” - uważa Markov.

Nawiąż komunikację

Film promocyjny:

Możemy nie próbować uczyć samochodów empatii tylko z ciekawości, ale rosnąca liczba zautomatyzowanych systemów (od asystentów głosowych po samojezdne samochody) sprawia, że emocjonalna sztuczna inteligencja jest koniecznością. Głównym wyzwaniem stojącym przed specjalistami od uczenia maszynowego jest uproszczenie pracy z różnymi interfejsami zarówno na poziomie wejściowym, jak i w procesie wyprowadzania informacji. Częstotliwość komunikacji z komputerami oczywiście rośnie, ale same usługi i systemy nie rozumieją jeszcze, po co trzęsą się telefonem: ze złości czy ze śmiechu.

Inteligencja emocjonalna jest już potrzebna w wielu projektach biznesowych. Od reklamy, która dostosowując się do stanu emocjonalnego potencjalnego klienta, zwiększa sprzedaż, po technologie rozpoznawcze, które po wykryciu w tłumie najbardziej nerwowej osoby pomogą złapać przestępcę.

Badacze będą musieli zająć się inteligencją emocjonalną i obawami dotyczącymi bezpieczeństwa. „Decyzje podejmowane przez komputery nie powinny wydawać się psychopatyczne. Jeśli maszyna działa w świecie, w którym żyją ludzie, musi być w stanie uwzględniać „ludzkie okoliczności”, czyli być zdolna do empatii. Typowy przykład: diagnosta robota wysyłający starszą osobę do skomplikowanej operacji musi liczyć się z ryzykiem związanym ze stresem. Bezzałogowy pojazd, całkowicie pozbawiony empatii, w pewnym kontekście również może przysporzyć kłopotów”- mówi filozof Kirill Martynov.

Martynov zauważa, że alarmiści, tacy jak filozof i antropocenista Nick Bostrom, argumentują, że problem „utraty wrażliwości” w superinteligencji, który ostro wyróżnia się na tle poziomu ludzkiego, jest całkiem realny. Już teraz próbują zapobiec temu problemowi za pomocą ograniczeń prawnych. Przy takim podejściu twórcy AI będą prawnie zobowiązani do wyposażenia rozwoju w elementy inteligencji emocjonalnej niezbędne do empatii.

Naucz emocji

Nietrywialne zadanie tworzenia emocjonalnej sztucznej inteligencji staje się łatwiejsze wraz z pojawieniem się nowych narzędzi, takich jak uczenie maszynowe. Sergey Markov opisuje ten proces w następujący sposób: „Możesz zrobić kilkaset tysięcy nagrań dźwiękowych ludzkich wypowiedzi i poprosić grupę ludzi-znaczników o dopasowanie zestawu znaczników„ emocjonalnego alfabetu”do każdej z tych fraz. Następnie losowo wybiera się 80% fraz - na tej próbce sieć neuronowa jest uczona odgadywania markerów emocji. Pozostałe 20% można wykorzystać, aby upewnić się, że sztuczna inteligencja działa prawidłowo”. W innym modelu uczenia się, opisanym przez Markowa, sieć neuronowa zyskuje większą niezależność. W nim sama sztuczna inteligencja kategoryzuje frazy według podobnego zabarwienia emocjonalnego, tempa mowy i intonacji, a później uczy się syntetyzować swoje wypowiedzi na podstawie otrzymanych kategorii. Tak czy siak,Big data staje się głównym źródłem szkolenia sztucznej inteligencji.

Rasa ewolucyjna

„Fakt, że doświadczamy własnych emocji jako„ realnych”, wynika tylko z tego, że nasz system poznawczy, który powstał podczas ewolucji, jest tak dostrojony. Osobom zdolnym do przeżywania emocji i kontrolowania swojego zachowania dano przewagę w wyścigu ewolucyjnym. Jest mało prawdopodobne, aby komputery były w stanie zbliżyć się do modelowania prawdziwej ewolucji naczelnych - w tym sensie ich emocje nie będą „prawdziwe” - uważa Martynov.

Image
Image

Martynov mówi, że kluczowe pytanie: czy można modelować subiektywne przeżycia emocji, co Arystoteles nazwał duszą, a Kartezjusz cogito? Nauka nadal nie daje bezpośredniej odpowiedzi na to pytanie, a filozofowie gromadzą konferencje na temat natury qualiów (nieredukowalnych elementów subiektywnego doświadczenia). Są jednak optymiści, tacy jak filozof i kognitywisty Daniel Dennett, którzy twierdzą, że ostatecznie subiektywne doświadczenie to zdolność mówienia sobie i innym o swoim samopoczuciu. Oczywiście w najbliższej przyszłości otrzymamy przekonujące słowne raporty o emocjach z maszyn, myśli Martynov.

Siergiej Markow uważa jednak, że z dużym prawdopodobieństwem nasza wspólna przyszłość ze sztuczną inteligencją emocjonalną przybierze formy, których dziś nie można sobie wyobrazić, przy stereotypowej opozycji ludzi i maszyn: „Raczej w przyszłości ludzie i maszyny połączą się w heterogeniczne systemy syntetyczne, w których nie można już dłużej narysować nawet warunkową linię oddzielającą osobę od produktu jej technologii. Inteligencja emocjonalna ma do odegrania dużą rolę w tym scenariuszu”.