Cztery Rodzaje Sztucznej Inteligencji: Od Robotów Odrzutowych Do świadomych Stworzeń - Alternatywny Widok

Spisu treści:

Cztery Rodzaje Sztucznej Inteligencji: Od Robotów Odrzutowych Do świadomych Stworzeń - Alternatywny Widok
Cztery Rodzaje Sztucznej Inteligencji: Od Robotów Odrzutowych Do świadomych Stworzeń - Alternatywny Widok

Wideo: Cztery Rodzaje Sztucznej Inteligencji: Od Robotów Odrzutowych Do świadomych Stworzeń - Alternatywny Widok

Wideo: Cztery Rodzaje Sztucznej Inteligencji: Od Robotów Odrzutowych Do świadomych Stworzeń - Alternatywny Widok
Wideo: Uratuje nas Sztuczna Inteligencja – Wiesław Bartkowski (X Festiwal Przemiany) 2024, Może
Anonim

Powszechnie uważa się, że wraz z najnowszymi osiągnięciami w badaniach nad sztuczną inteligencją żywe i inteligentne maszyny wkrótce pojawią się na horyzoncie. Samochody lepiej niż my rozumieją polecenia głosowe, rozróżniają obrazy, prowadzą samochody i grają w gry. Jak długo trzeba czekać, aż zaczną chodzić między nami?

Niedawno opublikowany raport Białego Domu na temat sztucznej inteligencji zajmuje stanowisko sceptyczne. Mówi się, że w ciągu następnych 20 lat raczej nie zobaczymy maszyn „wykazujących zdolności intelektualne porównywalne lub przewyższające zdolności ludzkie”, ale w nadchodzących latach „maszyny osiągną ludzkie zdolności do coraz większej liczby zadań”. Jednak w tym sprawozdaniu brakuje kilku ważnych rzeczy.

Arend Hintze, badacz sztucznej inteligencji, twierdzi, że raport skupia się wyłącznie na „nudnym typie sztucznej inteligencji”. Ucina gigantyczną gałąź badań nad sztuczną inteligencją w połowie zdania, jak ewolucja pomaga nam opracowywać coraz lepsze systemy sztucznej inteligencji i jak modele obliczeniowe pomagają nam zrozumieć ewolucję naszej własnej ludzkiej inteligencji.

Raport skupia się, jak twierdzi naukowiec, na głównych narzędziach sztucznej inteligencji: uczeniu maszynowym i uczeniu głębokim. Ten rodzaj technologii pozwolił robotom dobrze grać w quizy i ogrywać mistrzów gry w go. Systemy te mogą obsługiwać ogromne ilości danych i bardzo szybko wykonywać złożone obliczenia. Brakuje im jednak elementu, który będzie kluczowy w tworzeniu inteligentnych maszyn, które chcielibyśmy mieć w przyszłości.

Do nauki potrzebujemy czegoś więcej niż tylko uczenia maszyn. Musimy pokonać granice, które definiują cztery różne typy sztucznej inteligencji. Bariery oddzielające maszyny od nas - a nas od nich.

AI typu I: maszyny odrzutowe

Najbardziej podstawowe typy systemów SI są wysoce reaktywne i nie mogą tworzyć wspomnień ani wykorzystywać przeszłych doświadczeń do podejmowania bieżących decyzji. Deep Blue, superkomputer IBM grający w szachy, który pod koniec lat 90. pokonał Wielkiego Mistrza Garry'ego Kasparowa, jest doskonałym przykładem tego typu maszyny.

Film promocyjny:

Deep Blue potrafi rozpoznać figury na szachownicy i wie, jak się poruszają. Potrafi przewidywać ruchy, zarówno własne, jak i przeciwnika. I wybiera najbardziej optymalne możliwe ruchy.

Nie ma jednak pojęcia o przeszłości i pamięci tego, co się wydarzyło. Oprócz rzadko stosowanej, specyficznej dla szachów zasady nie powtarzania tego samego ruchu trzykrotnie, Deep Blue do tej pory ignoruje wszystko. Po prostu patrzy na figury na szachownicy i wybiera następny ruch.

Ten rodzaj inteligencji obejmuje komputer, który bezpośrednio postrzega świat i działa na podstawie tego, co widzi. Nie polega na wewnętrznej koncepcji świata. W swojej pracy badacz AI Rodney Brooks przekonywał, że powinniśmy budować tylko takie maszyny. Jego zdaniem, ludzie nie są zbyt dobrzy w programowaniu precyzyjnych symulowanych światów dla komputerów, jak mówią, w tworzeniu „reprezentacji”, reprezentacji świata.

Współczesne inteligentne maszyny, które podziwiamy albo nie mają takiej koncepcji świata, albo są bardzo ograniczone i wykonują określone zadania. Innowacja w projekcie Deep Blue nie polegała na zwiększeniu liczby możliwych ruchów, które rozważa komputer. Zamiast tego twórcy znaleźli sposób na zawężenie swojej wizji, odrzucenie niektórych możliwych ruchów w przyszłości, w zależności od tego, jak zostaną ocenione.

Podobnie AlphaGo Google, które pokonało mistrza świata w Go, nie ma możliwości oceny możliwych przyszłych ruchów. Jego metoda analizy jest bardziej wyrafinowana niż w Deep Blue: wykorzystuje sieć neuronową do oceny rozwoju gry.

Techniki te zwiększają możliwości systemów sztucznej inteligencji, sprawiają, że niektóre gry działają lepiej, ale nie są łatwe do modyfikacji lub zastosowania w innych sytuacjach. Te komputerowe typy wyobraźni nie mają pojęcia o świecie jako całości - co oznacza, że nie mogą wykraczać poza wykonywanie określonych zadań, do których zostały stworzone, i łatwo je oszukać.

Nie mogą interaktywnie uczestniczyć w świecie i chcielibyśmy kiedyś zobaczyć właśnie takie systemy AI. Zamiast tego maszyny będą zachowywać się dokładnie tak, jak zawsze w takiej samej sytuacji. Jeśli chcemy, aby system AI był niezawodny i godny zaufania, to dobrze: chciałbyś, aby Twój pojazd autonomiczny był niezawodny. Ale jeśli chcemy, aby maszyny współdziałały z nami i ze światem, to źle. Najprostsze systemy AI nigdy się nie nudzą, nie mogą być zainteresowane ani zdenerwowane.

AI typu II: ograniczona pamięć

Typ II obejmuje maszyny, które mogą spojrzeć w przeszłość. Samojezdne samochody są już do tego trochę zdolne. Na przykład obserwują prędkość i kierunek innych pojazdów. Nie można tego zrobić od razu, w tym celu musisz zidentyfikować określone obiekty i obserwować je w czasie.

Obserwacje te są dodawane do wstępnie zaprogramowanych reprezentacji świata przez samojezdne samochody, które obejmują oznakowanie dróg, sygnalizację świetlną i inne krytyczne elementy. Są łączone, gdy samochód zdecyduje się zmienić pas ruchu i nie zderza się z innym.

Ale te proste informacje o przeszłości są tylko tymczasowe. Nie zostaną one zapisane jako część biblioteki doświadczeń pojazdów, w której może uczyć się, tak jak ludzie, gromadząc doświadczenie podczas jazdy.

Jak tworzymy systemy AI, które tworzą kompletne reprezentacje, pamiętają nasze doświadczenia i uczą się radzić sobie w nowych sytuacjach? Brooke miała rację, że jest to bardzo trudne. Może warto szukać inspiracji w ewolucji darwinowskiej?

AI typu III: teoria umysłu

Tutaj musimy zrobić krótki przystanek i nazwać ten moment ważną luką między maszynami, które mamy, a maszynami, które chcielibyśmy zbudować w przyszłości. Jednak pierwszym krokiem jest bardziej szczegółowe określenie widoków, które będą musiały tworzyć maszyny.

Maszyny kolejnej, bardziej zaawansowanej klasy tworzą nie tylko reprezentacje świata, ale także innych agentów czy bytów świata. W psychologii nazywa się to „teorią umysłu” - rozumieniem, że ludzie, stworzenia i przedmioty na świecie mogą mieć myśli i emocje, które wpływają na ich zachowanie.

Jest to ważne dla tego, jak my, ludzie, kształtujemy społeczeństwo, ponieważ zapewnia nam interakcje społeczne. Bez zrozumienia nawzajem motywów i intencji oraz bez uwzględnienia tego, co ktoś wie o mnie lub o środowisku, wspólna praca jest w najlepszym przypadku trudna, aw najgorszym niemożliwa.

Jeśli systemy sztucznej inteligencji naprawdę kiedykolwiek będą wędrować między nami, będą musiały zrozumieć, co myślimy i czujemy, przynajmniej na poziomie założeń. I odpowiednio dostosuj swoje zachowanie.

IV typ SI: samoświadomość

Ostatecznym celem rozwoju sztucznej inteligencji jest stworzenie systemów, które mogą kształtować własny obraz. Ostatecznie badacze sztucznej inteligencji muszą nie tylko rozumieć świadomość, ale także tworzyć maszyny ze świadomością.

Jest to w pewnym sensie rozszerzenie „teorii umysłu”, o której była mowa w poprzednim typie sztucznej inteligencji. Kiedy mówimy o świadomości, mamy na myśli również samoświadomość. „Chcę tego” różni się od „Wiem, że tego chcę”. Świadome istoty są samoświadome, świadome swoich stanów wewnętrznych i mogą przewidywać zachowanie lub uczucia innych. Wychodzimy z założenia, że ktoś sygnalizujący nam w korku jest zły lub niecierpliwy, bo tak możemy się czuć na jego miejscu. Bez teorii umysłu nie moglibyśmy wyciągać takich wniosków.

Chociaż prawdopodobnie jesteśmy daleko od budowania samoświadomych maszyn, musimy skoncentrować nasze wysiłki na ścieżce zrozumienia pamięci, uczenia się i zdolności do podejmowania decyzji dotyczących przeszłych doświadczeń. To ważny krok w kierunku zrozumienia samego ludzkiego umysłu. Jest to bardzo ważne, jeśli chcemy projektować lub rozwijać maszyny, które potrafią nie tylko klasyfikować to, co widzą przed nami, ale także znacznie więcej.

ILYA KHEL