Czy Maszyny Mogą Mieć świadomość, Według Neuronaukowców? Wygląda Na To, że Tak - Alternatywny Widok

Spisu treści:

Czy Maszyny Mogą Mieć świadomość, Według Neuronaukowców? Wygląda Na To, że Tak - Alternatywny Widok
Czy Maszyny Mogą Mieć świadomość, Według Neuronaukowców? Wygląda Na To, że Tak - Alternatywny Widok

Wideo: Czy Maszyny Mogą Mieć świadomość, Według Neuronaukowców? Wygląda Na To, że Tak - Alternatywny Widok

Wideo: Czy Maszyny Mogą Mieć świadomość, Według Neuronaukowców? Wygląda Na To, że Tak - Alternatywny Widok
Wideo: You Bet Your Life: Secret Word - Door / Foot / Tree 2024, Może
Anonim

O ile reżyser chce ci w to uwierzyć, bohaterem filmu Andrew Garlanda Out of the Machine z 2015 roku nie jest Caleb - młody programista, którego zadaniem jest ocena świadomości maszyn. Nie, głównym bohaterem jest Ava, niesamowita humanoidalna sztuczna inteligencja, naiwna z wyglądu i tajemnicza w środku. Jak większość tego typu filmów, Out of the Machine pozostawia widzowi odpowiedź na pytanie: czy Ava była naprawdę świadoma? Jednocześnie w filmie umiejętnie unika się drażliwego pytania, na które głośne filmy na temat AI próbowały odpowiedzieć: czym jest świadomość i czy może ją mieć komputer?

Nie tylko hollywoodzcy producenci próbują odpowiedzieć na to pytanie. Ponieważ inteligencja maszyn ewoluuje z zawrotną prędkością - nie tylko przewyższając możliwości ludzi w grach takich jak DOTA 2 i Go, ale robiąc to bez pomocy człowieka - to pytanie jest ponownie podnoszone w szerszych i węższych kręgach.

Czy świadomość przebije się w samochodach?

W tym tygodniu prestiżowe czasopismo Science opublikowało recenzję kognitywistów dr. Stanislasa Dehane'a, Hokwana Lau i Sida Quidera z French College na UCLA i PSL Research University. W nim naukowcy powiedzieli: jeszcze nie, ale istnieje wyraźna ścieżka naprzód.

Przyczyna? Świadomość jest „absolutnie obliczalna”, twierdzą autorzy, ponieważ wynika z określonych typów przetwarzania informacji, które są możliwe dzięki sprzętowi mózgowemu.

Nie ma magicznego bulionu, żadnej boskiej iskry - ani nawet składnika empirycznego („jak to jest mieć świadomość?”), Aby osadzić świadomość.

Jeśli świadomość pochodzi wyłącznie z obliczeń w naszym półtorogramowym narządzie, to wyposażenie maszyn o podobną właściwość jest tylko kwestią przełożenia biologii na kod.

Film promocyjny:

Tak jak dzisiejsze potężne metody uczenia maszynowego są w dużej mierze zapożyczone z neuronauki, możemy również osiągnąć sztuczną świadomość, badając struktury w naszym własnym mózgu, które generują świadomość, i wdrażając te pomysły jako algorytmy komputerowe.

Od mózgu do robota

Nie ma wątpliwości, że dziedzina sztucznej inteligencji otrzymała ogromny impuls dzięki badaniu naszych własnych mózgów, zarówno pod względem kształtu, jak i funkcji.

Na przykład głębokie sieci neuronowe, algorytmy architektury, na których opiera się AlphaGo, są wzorowane na wielowarstwowych biologicznych sieciach neuronowych zorganizowanych w naszych mózgach.

Uczenie się ze wzmocnieniem, rodzaj „uczenia się”, w którym sztuczna inteligencja uczy się z milionów przykładów, jest zakorzeniona w stuleciach techniki tresury psów: jeśli pies zrobi coś dobrze, otrzymuje nagrodę; w przeciwnym razie będzie musiała powtórzyć.

W tym sensie przełożenie architektury ludzkiej świadomości na maszyny wydaje się prostym krokiem w kierunku sztucznej świadomości. Jest tylko jeden duży problem.

„Nikt w AI nie pracuje nad budowaniem świadomych maszyn, ponieważ po prostu nie mamy się czym zająć. Po prostu nie wiemy, co robić”- mówi dr Stuart Russell.

Świadomość wielowarstwowa

Najtrudniejszą częścią do pokonania, zanim zaczniesz budować myślące maszyny, jest zrozumienie, czym jest świadomość.

Dla Dehene i współpracowników świadomość jest wielowarstwowym konstruktem z dwoma „wymiarami”: C1 - informacja przechowywana w postaci gotowej w umyśle i C2 - zdolność otrzymywania i śledzenia informacji o sobie. Obie są ważne dla świadomości i nie mogą istnieć bez siebie.

Załóżmy, że prowadzisz samochód i włącza się lampa ostrzegawcza ostrzegająca o niskim pozostałym poziomie benzyny. Percepcja wskaźnika to C1, reprezentacja mentalna, z którą możemy wchodzić w interakcje: zauważamy to, działamy (tankowanie) i rozmawiamy o tym później („Benzyna zabrakła przy zejściu, szczęście - potoczyło się”).

„Pierwszym znaczeniem, które chcemy oddzielić od świadomości, jest pojęcie globalnej dostępności” - wyjaśnia Dehané. Kiedy stajesz się świadomy jakiegoś słowa, cały mózg je rozumie, to znaczy możesz przekazywać te informacje różnymi sposobami.

Ale C1 to nie tylko „album mentalny”. Wymiar ten to cała architektura, która pozwala mózgowi przyciągać różne modalności informacji z naszych zmysłów lub, na przykład, ze wspomnień związanych z wydarzeniami.

W przeciwieństwie do podświadomego przetwarzania, które często opiera się na pewnych „modułach”, które są kompetentne do rozwiązywania określonego zestawu zadań, C1 jest globalną przestrzenią roboczą, która pozwala mózgowi integrować informacje, podejmować decyzje dotyczące działań i realizować je.

Przez „świadomość” rozumiemy pewną reprezentację w pewnym momencie, która walczy o dostęp do mentalnej przestrzeni roboczej i wygrywa. Zwycięzcy są dzieleni w różnych obwodach obliczeniowych mózgu i pozostają w centrum uwagi podczas procesu podejmowania decyzji, który determinuje zachowanie.

Świadomość C1 jest stabilna i globalna - wszystkie połączone obwody mózgowe są zaangażowane, wyjaśniają autorzy.

Dla wyrafinowanego samochodu, takiego jak inteligentny samochód C1, jest to pierwszy krok w kierunku rozwiązania zbliżającego się problemu, takiego jak niski poziom paliwa. W tym przykładzie sam wskaźnik jest podświadomym sygnałem: kiedy się zapala, wszystkie inne procesy w samochodzie pozostają niedoinformowane, a samochód - nawet wyposażony w najnowsze narzędzia do przetwarzania wizualnego - bez wahania mija stację benzynową.

Za pomocą C1 zbiornik paliwa powiadomi komputer samochodu (umożliwiając wskaźnikowi wejście do „świadomego umysłu” samochodu), aby z kolei aktywował GPS w celu znalezienia najbliższej stacji.

„Wierzymy, że maszyna przełoży to na system, który wyodrębni informacje ze wszystkich dostępnych modułów i udostępni je każdemu innemu modułowi przetwarzającemu, który może wykorzystać te informacje” - mówi Dehane. „To jest pierwszy zmysł świadomości”.

Metapoznanie

W pewnym sensie C1 odzwierciedla zdolność umysłu do wydobywania informacji z zewnątrz. C2 wchodzi w introspekcję.

Autorzy określają drugą sieć świadomości, C2, jako „metapoznanie”: odzwierciedla ona, kiedy się czegoś uczysz, postrzegasz lub po prostu popełnisz błąd. („Myślę, że powinienem zatankować na ostatniej stacji, ale zapomniałem”). Wymiar ten odzwierciedla związek między świadomością a poczuciem siebie.

C2 to poziom świadomości, który pozwala czuć się mniej lub bardziej pewnie w podejmowaniu decyzji. Mówiąc obliczeniowo, jest to algorytm, który wnioskuje o prawdopodobieństwie, że decyzja (lub obliczenie) będzie poprawna, nawet jeśli często jest postrzegana jako „szósty zmysł”.

C2 również zapuszcza korzenie w pamięci i ciekawości. Te algorytmy samokontroli pozwalają nam wiedzieć, co wiemy, a czego nie - to „metapamięć”, która pomaga znaleźć właściwe słowo „na końcu języka”. Obserwowanie tego, co wiemy (lub czego nie wiemy), jest szczególnie ważne dla dzieci, mówi Dehané.

„Dla małych dzieci absolutnie niezbędne jest śledzenie tego, co wiedzą, aby się uczyć i być ciekawym” - mówi.

Te dwa aspekty świadomości współpracują ze sobą: C1 wciąga istotne informacje do naszej roboczej przestrzeni mentalnej (odrzucając inne „możliwe” pomysły lub rozwiązania), a C2 pomaga w długoterminowej refleksji nad tym, czy świadome myślenie doprowadziło do użytecznego wyniku lub odpowiedzi.

Wracając do przykładu wskaźnika niskiego poziomu paliwa, C1 umożliwia samochodowi natychmiastowe rozwiązanie problemu - algorytmy te globalizują informacje, a samochód dowiaduje się o problemie.

Ale aby rozwiązać ten problem, samochód będzie potrzebował katalogu „zdolności poznawczych” - samoświadomości, które zasoby są łatwo dostępne, na przykład mapa GPS stacji benzynowych.

„Ten rodzaj samochodu umożliwiającego samoocenę nazywamy pracą z C2” - mówi Dehane. Ponieważ sygnał jest dostępny globalnie i jest monitorowany tak, jakby samochód patrzył na siebie z boku, samochód będzie obsługiwał wskaźnik niskiego poziomu paliwa i zachowywał się tak samo jak człowiek - zmniejszy zużycie paliwa i znajdzie stację benzynową.

„Większość nowoczesnych systemów uczenia maszynowego nie ma samokontroli” - zauważają autorzy.

Ale wydaje się, że ich teoria jest na dobrej drodze. W tych przykładach, w których zaimplementowano system samoobserwacji - w postaci struktury algorytmów lub oddzielnej sieci - SI opracowały „modele wewnętrzne o charakterze metakognitywnym, które pozwoliły agentowi rozwinąć (ograniczone, ukryte, praktyczne) zrozumienie siebie”.

Do świadomych maszyn

Czy samochód z modelami C1 i C2 będzie zachowywał się tak, jakby miał świadomość? Jest bardzo prawdopodobne, że inteligentny samochód „będzie wiedział”, że coś widzi, wyrazi do tego zaufanie, przekaże to innym i znajdzie najlepsze rozwiązanie problemu. Jeśli jego mechanizmy introspekcji ulegną awarii, może również doświadczyć „halucynacji” lub złudzeń wzrokowych, które są typowe dla ludzi.

Dzięki C1 może wykorzystywać posiadane informacje i elastycznie z nich korzystać, a dzięki C2 pozna granice tego, co wie - mówi Dehane. „Myślę, że ta maszyna będzie miała świadomość”, a nie tylko ludziom się tak wydaje.

Jeśli masz poczucie, że świadomość to coś więcej niż globalna wymiana informacji i samoobserwacja, nie jesteś sam.

„Ta czysto funkcjonalna definicja świadomości może pozostawić niektórych czytelników niezadowolonych” - przyznają autorzy. „Ale staramy się zrobić radykalny krok, być może upraszczając problem. Świadomość jest właściwością funkcjonalną i ponieważ nadal dodajemy funkcje do maszyn, w pewnym momencie te właściwości będą charakteryzować to, co rozumiemy przez świadomość”- podsumowuje Dehane.

Ilya Khel