Myślenie Jak Osoba: Co Się Stanie, Jeśli Wyposażysz Maszynę W Teorię świadomości - Alternatywny Widok

Spisu treści:

Myślenie Jak Osoba: Co Się Stanie, Jeśli Wyposażysz Maszynę W Teorię świadomości - Alternatywny Widok
Myślenie Jak Osoba: Co Się Stanie, Jeśli Wyposażysz Maszynę W Teorię świadomości - Alternatywny Widok

Wideo: Myślenie Jak Osoba: Co Się Stanie, Jeśli Wyposażysz Maszynę W Teorię świadomości - Alternatywny Widok

Wideo: Myślenie Jak Osoba: Co Się Stanie, Jeśli Wyposażysz Maszynę W Teorię świadomości - Alternatywny Widok
Wideo: W poszukiwaniu ostatecznej teorii umysłu: Mózg jako maszyna przewidująca | Od mózgu do umysłu #9 2024, Lipiec
Anonim

W zeszłym miesiącu zespół samouków AI poniósł czarującą porażkę z profesjonalnymi graczami e-sportowymi. Mecz pokazowy, który odbył się w ramach Międzynarodowych Mistrzostw Świata Dota 2, pokazał, że zespołowe myślenie strategiczne wciąż pozwala człowiekowi zdobyć przewagę nad samochodem.

Zaangażowane AI to kilka algorytmów opracowanych przez OpenAI, których Elon Musk jest jednym z założycieli. Kolektyw cyfrowych graczy, zwany OpenAI Five, nauczył się samodzielnie grać w Dota 2, rywalizując ze sobą metodą prób i błędów.

W przeciwieństwie do tej samej szachowej lub planszowej gry logicznej Go, popularna i szybko rozwijająca się gra wieloosobowa Dota 2 jest uważana za znacznie poważniejsze pole do testowania sztucznej inteligencji pod kątem siły. Ogólna trudność gry to tylko jeden czynnik. Nie wystarczy bardzo szybkie kliknięcie myszą i wydawanie poleceń sterowanej postaci. Aby wygrać, trzeba mieć intuicję i rozumieć, czego spodziewać się po przeciwniku w następnym momencie, a także odpowiednio postępować zgodnie z tym zestawem wiedzy, aby wspólnie dążyć do wspólnego celu - zwycięstwa. Komputer nie ma tego zestawu możliwości.

Do tej pory nawet najwybitniejszy algorytm komputerowy do głębokiego uczenia się nie ma strategicznego myślenia niezbędnego do zrozumienia celów z zadań przeciwnika, czy to innej sztucznej inteligencji, czy człowieka.

Według Wanga, aby sztuczna inteligencja odniosła sukces, musi mieć głęboką umiejętność komunikacyjną, która wywodzi się z najważniejszej cechy poznawczej człowieka - obecności inteligencji.

Model stanu psychicznego jako symulacja

Film promocyjny:

W wieku czterech lat dzieci zazwyczaj zaczynają rozumieć jedną podstawową cechę społeczną: ich umysły różnią się od umysłów innych. Zaczynają rozumieć, że każdy ma to, w co wierzy, swoje pragnienia, emocje i intencje. A co najważniejsze, wyobrażając sobie siebie na miejscu innych, mogą zacząć przewidywać dalsze zachowanie tych ludzi i je wyjaśniać. W pewnym sensie ich mózgi zaczynają tworzyć w sobie liczne symulacje samych siebie, zastępując siebie innych ludzi i umieszczając się w innym środowisku.

Model stanu psychicznego jest ważny dla zrozumienia siebie jako osoby, a także odgrywa ważną rolę w interakcji społecznej. Zrozumienie innych jest kluczem do skutecznej komunikacji i osiągania wspólnych celów. Jednak ta zdolność może być również siłą napędową fałszywych przekonań - idei, które odciągają nas od obiektywnej prawdy. Gdy tylko umiejętność posługiwania się modelem stanu psychicznego jest upośledzona, na przykład w przypadku autyzmu, wtedy naturalne zdolności „ludzkie”, takie jak zdolność wyjaśniania i wyobrażania sobie, również ulegają pogorszeniu.

Według dr Alana Winfielda, profesora robotyki na University of the West of England, model stanu psychicznego lub „teoria umysłu” jest kluczową cechą, która pewnego dnia umożliwi sztucznej inteligencji „zrozumienie” ludzi, rzeczy i innych robotów.

Zamiast metod uczenia maszynowego, w których wiele warstw sieci neuronowych wyodrębnia pojedyncze fragmenty informacji i „studiuje” ogromne bazy danych, Winston sugeruje przyjęcie innego podejścia. Zamiast polegać na uczeniu się, Winston sugeruje wstępne zaprogramowanie sztucznej inteligencji za pomocą wewnętrznego modelu samego siebie i środowiska, które będzie odpowiadać na proste pytania typu „a co jeśli?”.

Na przykład wyobraź sobie, że dwa roboty poruszają się wąskim korytarzem, a ich sztuczna inteligencja może symulować skutki dalszych działań, które zapobiegną ich zderzeniu: skręć w lewo, w prawo lub jedź dalej prosto. Ten model wewnętrzny będzie zasadniczo działał jako „mechanizm konsekwencji”, działając jako rodzaj „zdrowego rozsądku”, który pomoże skierować SI do kolejnych właściwych działań poprzez przewidywanie przyszłego rozwoju sytuacji.

W badaniu opublikowanym na początku tego roku Winston zademonstrował prototyp robota zdolnego do osiągnięcia takich wyników. Przewidując zachowanie innych, robot pomyślnie przeszedł przez korytarz bez kolizji. W rzeczywistości nie jest to zaskakujące, zauważa autor, ale „uważny” robot, stosując symulowane podejście do rozwiązania problemu, pokonał korytarz o 50 procent dłużej. Niemniej Winston udowodnił, że jego metoda symulacji wewnętrznej działa: „To bardzo mocny i interesujący punkt wyjścia w rozwoju teorii sztucznej inteligencji” - podsumował naukowiec.

Winston ma nadzieję, że w końcu sztuczna inteligencja zdobędzie umiejętność opisywania i mentalnego odtwarzania sytuacji. Model wewnętrzny siebie i innych pozwoli takiej sztucznej inteligencji na symulowanie różnych scenariuszy, a co ważniejsze, na definiowanie konkretnych celów i zadań dla każdego z nich.

Różni się to znacząco od algorytmów głębokiego uczenia, które w zasadzie nie są w stanie wyjaśnić, dlaczego doszli do takiego lub innego wniosku podczas rozwiązywania problemu. Model czarnej skrzynki głębokiego uczenia jest w rzeczywistości prawdziwym problemem polegającym na zaufaniu takim systemom. Ten problem może stać się szczególnie dotkliwy, na przykład podczas opracowywania robotów pielęgniarskich dla szpitali lub dla osób starszych.

AI uzbrojona w model stanu psychicznego mogłaby postawić się w sytuacji swoich panów i poprawnie zrozumieć, czego się od niej oczekuje. Wtedy mógł wskazać odpowiednie rozwiązania i po wyjaśnieniu tych decyzji osobie wykonywał już powierzone mu zadanie. Im mniejsza niepewność decyzji, tym większe zaufanie do takich robotów.

Model stanu psychicznego w sieci neuronowej

DeepMind ma inne podejście. Zamiast wstępnie zaprogramować algorytm mechanizmu konsekwencji, opracowali kilka sieci neuronowych, które wykazują podobieństwo do modelu zbiorowego zachowania psychologicznego.

Algorytm sztucznej inteligencji „ToMnet” może uczyć się działania, obserwując inne sieci neutronowe. Sam ToMNet to zbiór trzech sieci neuronowych: pierwsza opiera się na osobliwościach wybierania innych AI zgodnie z ich najnowszymi działaniami. Druga tworzy ogólną koncepcję aktualnego nastroju - ich przekonań i intencji w określonym momencie. Zbiorczy wynik pracy dwóch sieci neuronowych otrzymuje trzecia, która na podstawie sytuacji przewiduje dalsze działania AI. Podobnie jak w przypadku uczenia głębokiego, ToMnet staje się bardziej skuteczny, gdy zdobywa doświadczenie, podążając za innymi.

W jednym eksperymencie ToMnet „obserwował” trzech agentów AI manewrujących w cyfrowym pokoju, zbierając kolorowe pudełka. Każda z tych sztucznej inteligencji miała swoją osobliwość: jedna była „ślepa” - nie mogła określić kształtu i umiejscowienia w pomieszczeniu. Drugi był „sklerotyczny”: nie pamiętał swoich ostatnich kroków. Trzeci mógł zarówno widzieć, jak i pamiętać.

Po treningu ToMnet zaczął przewidywać preferencje każdej sztucznej inteligencji, obserwując jej działania. Na przykład „ślepy” nieustannie poruszał się tylko po ścianach. ToMnet zapamiętał to. Algorytm był również w stanie poprawnie przewidzieć przyszłe zachowanie SI i, co ważniejsze, zrozumieć, kiedy sztuczna inteligencja napotkała fałszywą reprezentację środowiska.

W jednym teście zespół naukowców zaprogramował jedną sztuczną inteligencję na „krótkowzroczność” i zmienił układ pomieszczenia. Agenci z normalnym wzrokiem szybko dostosowali się do nowego układu, ale mężczyzna z krótkowzrocznością nadal podążał swoimi pierwotnymi trasami, fałszywie wierząc, że nadal znajduje się w starym środowisku. ToMnet szybko zauważył tę funkcję i dokładnie przewidział zachowanie agenta, stawiając się na jego miejscu.

Według dr Alison Gopnik, psychologa rozwojowego z Uniwersytetu Kalifornijskiego w Berkeley, która nie była zaangażowana w te badania, ale która była zaznajomiona z odkryciami, wyniki te pokazują, że sieci neuronowe mają niesamowitą zdolność samodzielnego uczenia się różnych umiejętności poprzez obserwację innych. Jednocześnie, zdaniem eksperta, wciąż jest bardzo wcześnie, aby powiedzieć, że te SI opracowały sztuczny model stanu psychicznego.

Według dr Josha Tenebauma z Massachusetts Institute of Technology, który również nie był zaangażowany w badanie, „zrozumienie” ToMnet jest silnie powiązane z kontekstem środowiska uczenia się - tym samym pokojem i określonymi agentami AI, których zadaniem było zbieranie pudełek. To ograniczenie w pewnych ramach sprawia, że ToMnet jest mniej skuteczne w przewidywaniu zachowań w radykalnie nowych środowiskach, w przeciwieństwie do tych samych dzieci, które potrafią przystosować się do nowych sytuacji. Algorytm zdaniem naukowca nie poradzi sobie z modelowaniem działań zupełnie innej sztucznej inteligencji czy osoby.

W każdym razie prace Winstona i DeepMind pokazują, że komputery zaczynają wykazywać podstawy „zrozumienia” siebie nawzajem, nawet jeśli to rozumienie jest tylko elementarne. W miarę jak będą doskonalić tę umiejętność, coraz lepiej rozumiejąc się nawzajem, nadejdzie czas, kiedy maszyny będą w stanie zrozumieć złożoność i złożoność naszej własnej świadomości.

Nikolay Khizhnyak

Zalecane: