Naukowiec: Nie Ma Fundamentalnych Ograniczeń W Tworzeniu Inteligentnej Maszyny - Alternatywny Widok

Spisu treści:

Naukowiec: Nie Ma Fundamentalnych Ograniczeń W Tworzeniu Inteligentnej Maszyny - Alternatywny Widok
Naukowiec: Nie Ma Fundamentalnych Ograniczeń W Tworzeniu Inteligentnej Maszyny - Alternatywny Widok

Wideo: Naukowiec: Nie Ma Fundamentalnych Ograniczeń W Tworzeniu Inteligentnej Maszyny - Alternatywny Widok

Wideo: Naukowiec: Nie Ma Fundamentalnych Ograniczeń W Tworzeniu Inteligentnej Maszyny - Alternatywny Widok
Wideo: To plemię nigdy nie śpi – najszczęśliwsi ludzie na świecie! Też tak chcę! 2024, Czerwiec
Anonim

Michaił Burtsev, szef laboratorium systemów neuronowych i głębokiego uczenia się w Moskiewskim Instytucie Fizyki i Technologii, opowiada o tym, czy możliwe jest stworzenie pełnoprawnego komputerowego analogu ludzkiego umysłu i wyjaśnia, dlaczego naukowcy go rozwijają i jak chronić go przed atakami trolli.

Pod koniec lipca naukowcy z MIPT ogłosili międzynarodowy konkurs na „mówione” systemy sztucznej inteligencji zdolne do naśladowania żywej osoby i zaprosili wszystkich, którzy chcieli się z nimi komunikować i oceniać wynikające z nich dialogi. Naukowcy mają nadzieję, że z pomocą wolontariuszy stworzą w ciągu najbliższych trzech lat asystenta głosowego, który będzie w stanie porozumiewać się z osobą niemal równie dobrze, jak z żyjącym rozmówcą.

Konkurs był współorganizowany przez naukowców z uniwersytetów w Montrealu, McGill i Carnegie Mellon. Możesz wziąć udział w testowaniu systemów dialogowych, klikając link.

W rzeczywistości te pomysły nie zostały wynalezione dzisiaj - współcześni asystenci głosowi z Google, Apple, Amazon i innych firm IT są zakorzenione w głębokiej przeszłości, na samym początku ery komputerów. Pierwsza taka gadająca maszyna, nazwana ELIZA, powstała w 1966 roku i była właściwie żartem, parodią psychoterapeuty udzielającego pacjentowi bezużytecznych rad.

W kolejnych latach i dziesięcioleciach programiści tworzyli coraz bardziej złożone i „żywe” systemy do komunikacji z komputerem. Najbardziej zaawansowany z tych systemów potrafi rozpoznać nastrój właściciela, zapamiętać jego dawne pragnienia i upodobania oraz rozwiązać za niego niektóre rutynowe i domowe zadania, zamawiając żywność lub towary w sklepie czy pełniąc rolę operatora w call center.

Michaił, od powstania ELIZA minęło prawie 50 lat. Co się w ogóle zmieniło w tym czasie i czy można w zasadzie oczekiwać, że w przyszłości naukowcy będą w stanie stworzyć taki system, którego ludzie nie będą w stanie odróżnić od żywego rozmówcy?

- Myślę, że w najbliższej przyszłości możliwe będzie stworzenie technologii wywiadu mówionego, która pozwoli maszynie zbliżyć się do poziomu ludzkiego dialogu. Pracujemy nad tym zadaniem w ramach projektu iPavlov, będącego częścią National Technology Initiative.

Użytkownik powinien czuć się równie komfortowo w komunikacji za pomocą automatycznego systemu dialogowego, jak z żywą osobą. Umożliwi to stworzenie systemów informatycznych, które będą w stanie lepiej zrozumieć, czego dana osoba od nich chce, i odpowiadać na nią w języku naturalnym.

Film promocyjny:

Inteligencję konwersacyjną można wykorzystać do zautomatyzowania wielu interfejsów głosowych i tekstowych, w tym komunikatorów, takich jak Telegram. Jak pokazują statystyki, komunikatory są dziś wykorzystywane aktywniej niż sieci społecznościowe, a bardzo duża ilość informacji przechodzi przez kanały komunikacji tekstowej.

Na przykład są wygodne w użyciu w transporcie, a dodanie interaktywnego asystenta - bota chatowego - pozwoli użytkownikom nie tylko komunikować się ze sobą, ale także otrzymywać niezbędne informacje, dokonywać zakupów i robić wiele innych rzeczy. Doprowadzi to do tego, że komunikatory internetowe i asystenci głosowi będą stopniowo zastępować zwykłe strony internetowe i aplikacje, a także pełnić rolę konsultantów online i specjalistów call center.

Biorąc pod uwagę obecność Apple, Google i Amazon na tym rynku, czy Rosja może tu konkurować? Czy jest jakaś specyfika w języku rosyjskim, która mogłaby przeszkodzić potencjalnym konkurentom rosyjskich firm i naukowców?

- Oczywiście język rosyjski jest bardziej złożony, a niektórych metod, które są dziś stosowane w rozwoju systemów dialogowych i asystentów głosowych na świecie, nie da się zastosować bez dopracowania i znacznych modyfikacji, które pozwoliłyby im pracować z bogatszą gramatyką.

Z drugiej strony, podstawowych algorytmów wykorzystywanych w pracy Siri, Cortany, Google i innych asystentów cyfrowych nikt nie ukrywa - są nam dostępne przynajmniej na poziomie badań i koncepcji. Artykuły naukowe i kod programu są często dostępne publicznie - w zasadzie można je dostosować do języka rosyjskiego.

Mikhail Burtsev, Kierownik Laboratorium Systemów Neuronowych i Głębokiego Uczenia, MIPT
Mikhail Burtsev, Kierownik Laboratorium Systemów Neuronowych i Głębokiego Uczenia, MIPT

Mikhail Burtsev, Kierownik Laboratorium Systemów Neuronowych i Głębokiego Uczenia, MIPT

Co więcej, nie ma wielu prób wdrożenia tego na poziomie „przemysłowym”. Jedyny duży projekt prowadzony jest przez Yandex, który rozwija asystenta projektu Alice.

W naszym projekcie staramy się stworzyć narzędzia, które uprościłyby i przyspieszyły tworzenie takich „przemysłowych” systemów dialogowych o różnym przeznaczeniu. Ale stworzenie uniwersalnego asystenta głosowego, który potrafi rozwiązać każdy problem, jest zadaniem niezwykle trudnym nawet dla dużych firm.

Z drugiej strony automatyzacja małej firmy, która będzie korzystała ze specjalistycznego systemu dialogowego, jest znacznie łatwiejsza do wdrożenia. Mamy nadzieję, że narzędzia, które stworzymy, pomogą przedsiębiorcom i programistom w dość szybkim rozwiązywaniu takich problemów, bez posiadania głębokiej wiedzy i bez nadmiernego wysiłku.

Wielu naukowców, takich jak Roger Penrose czy Stuart Hameroff, uważa, że ludzki umysł ma naturę kwantową i w zasadzie niemożliwe jest zbudowanie analogu maszyny. Zgadzasz się z nimi czy nie?

- Moim zdaniem, jeśli spojrzeć na to, co wiemy dzisiaj o budowie mózgu i naturze ludzkiej świadomości, to do tej pory nie mamy fundamentalnych przeszkód, aby odtworzyć jego pracę za pomocą komputera.

Penrose i Hameroff mają zestaw hipotez, które ich zdaniem wyjaśniają, dlaczego nie można tego zrobić. Jak dotąd neurofizjolodzy nie znaleźli żadnych eksperymentalnych dowodów na to, że te hipotezy są poprawne, a nasza obecna baza wiedzy przemawia za czymś przeciwnym.

Inną rzeczą jest to, że ramy czasowe, w których taka maszyna zostanie utworzona, nie są w pełni określone. Wydaje mi się, że może to nastąpić za co najmniej 50, a nawet 100 lat.

Czy będzie to wymagało zasadniczo nowych technologii i komputerów, które w zasadach działania są bliższe neuronom niż logice cyfrowej?

- Jeśli wierzymy, że ludzka inteligencja opiera się na jakiejś formie obliczeniowej, to każdy uniwersalny system obliczeniowy odpowiadający maszynie Turinga może teoretycznie naśladować pracę ludzkiego mózgu.

Inną rzeczą jest to, że ta maszyna może działać bardzo wolno, co czyni ją bezużyteczną z praktycznego punktu widzenia. Dziś trudno zgadnąć, jakich technologii do budowy komputerów będziemy tu potrzebować.

Jakie inne zadania mogą rozwiązać asystenci cyfrowi oprócz tych, które robią dzisiaj? Czy można ich użyć do odszyfrowania tekstów w martwych językach lub szyfrowania, jak rękopis Wojnicza?

- W tej chwili, o ile wiem, nikt nie próbował odkrywać tajemnic martwych języków i rozszyfrować tekstów za pomocą sieci neuronowych, ale wydaje mi się, że ktoś spróbuje to zrobić w najbliższej przyszłości. My z kolei nie byliśmy jeszcze zainteresowani takimi rzeczami.

„Pomocnik” to w rzeczywistości bardzo szerokie pojęcie, które może obejmować wiele bardzo różnych rzeczy. Jeśli weźmiemy na przykład tę samą ELIZĘ, wirtualną „psychoterapeutkę”, powstaje pytanie: czy jest asystentką, czy nie?

Systemy konwersacyjne mogą być wykorzystywane nie tylko do rozwiązywania praktycznych problemów, ale także do rozrywki czy nastroju. Pytanie brzmi właściwie, co rozumiemy przez pojęcie osobistego asystenta i jak szerokie lub wąskie jest ono. W najszerszym sensie takie systemy mogą rozwiązać wszystkie problemy związane z komunikacją, aczkolwiek z różnym skutkiem.

Interfejsy konwersacyjne, oprócz bezpośredniej komunikacji z ludźmi, mogą być również wykorzystywane do uczenia maszyn szybkiego znajdowania wspólnego języka i przesyłania informacji z jednego systemu do drugiego.

Pozwoli to obejść problem ustanawiania łączy i przesyłania danych między istniejącymi i utworzonymi usługami, ponieważ nie będą one musiały znać nawzajem specyfikacji API, aby się ze sobą komunikować. Będą mogli wymieniać dane za pomocą języków naturalnych lub własnego sztucznego języka, który zostanie wynaleziony przez maszyny lub ludzi do takich celów.

Z grubsza mówiąc, nawet systemy „nieznane” sobie nawzajem będą w stanie porozumieć się za pomocą wspólnego dla nich języka komunikacji, a nie ustalonych reguł wymiany informacji. Jeśli coś nie jest dla nich jasne, to mogą zapytać się nawzajem o nieznane rzeczy, co sprawi, że cała infrastruktura do świadczenia usług i usług w Internecie będzie niezwykle elastyczna i pozwoli na szybką integrację nowych usług bez pomocy ludzi.

W związku z tym nasuwa się pytanie - kto powinien odpowiadać za zalecenia „psychoterapeuty” ELIZY, lekarzy informatyków i innych asystentów głosowych, których rady mogą znacząco wpłynąć na samopoczucie i zdrowie człowieka?

- To bardzo trudne pytanie, bo dziś nie ma jasnych kryteriów, które pomogłyby nam zrozumieć, jak postępować w takich przypadkach. Wiele usług i usług internetowych, które wydają zalecenia użytkownikom, zaczyna działać dopiero po zaakceptowaniu przez użytkownika warunków korzystania z usługi i konsekwencji, jakie mogą wyniknąć w wyniku pracy z nimi.

Wydaje mi się, że pracę chatbotów i asystentów głosowych - przynajmniej na wczesnych etapach ich istnienia - można by regulować w podobny sposób. Na przykład, jeśli bot po prostu wyszukuje i analizuje informacje, działając podobnie jak wyszukiwarka, wówczas można zastosować do niego te same reguły. W przypadku, gdy udzieli porady medycznej lub prawnej, forma odpowiedzialności powinna być inna.

Przykładowo, takie systemy powinny wyraźnie informować użytkownika o konsekwencjach wyboru między sztuczną inteligencją a zwykłym lekarzem. Człowiek będzie miał wybór - zaufać lekarzowi, który np. Pomyli się w 10% przypadków, albo postawi na maszynę, która w 3% poda złą odpowiedź. W pierwszym przypadku za błąd będzie odpowiedzialny lekarz, w drugim sam użytkownik.

W zeszłym roku Microsoft uruchomił chatbota Tay. AI, którego musiał wyłączyć dosłownie dzień później, ponieważ internauci zmienili „nastoletnią dziewczynę” w prawdziwego rasistę. Czy można chronić takie systemy dialogowe przed trollami i dowcipnisiami?

- Wydaje mi się, że można się bronić, ale to, czy warto to robić, zależy od przeznaczenia systemu. Oczywiste jest, że jeśli system nie powinien wydawać żadnych konkretnych uwag - niegrzecznych lub ekstremistycznych, możemy filtrować jego odpowiedzi. To filtrowanie może nastąpić na etapie uczenia systemu lub już podczas generowania odpowiedzi.

Nawiasem mówiąc, podobne zadanie oceny jakości dialogu rozwiązały zespoły w ramach hackathonu szkoły naukowej DeepHack Turing, który odbył się w MIPT kilka tygodni temu. Jego uczestnicy opracowali algorytmy, które na podstawie wskazówek zawartych w dialogu mogły przewidzieć, jaką ocenę dana osoba nada systemowi dialogu.

Kolejnym krokiem w rozwoju tego podejścia jest stworzenie programu, który oceniałby akceptowalność fraz lub wiarygodność źródeł wykorzystywanych do generowania odpowiedzi na zapytania użytkowników. Wydaje mi się, że pomogłoby to rozwiązać ten problem.