Pragnienie Przetrwania Sprawi, że Roboty Będą Inteligentne - Alternatywny Widok

Pragnienie Przetrwania Sprawi, że Roboty Będą Inteligentne - Alternatywny Widok
Pragnienie Przetrwania Sprawi, że Roboty Będą Inteligentne - Alternatywny Widok

Wideo: Pragnienie Przetrwania Sprawi, że Roboty Będą Inteligentne - Alternatywny Widok

Wideo: Pragnienie Przetrwania Sprawi, że Roboty Będą Inteligentne - Alternatywny Widok
Wideo: polskie inteligentne roboty 2024, Może
Anonim

Neurolodzy twierdzą, że biologiczna zasada homeostazy stworzy inteligentne roboty z uczuciami i myślami.

We współczesnym świecie roboty nie doświadczają więcej uczuć niż kamień zanurzony w nowokainie. Jednak może istnieć sposób, aby nauczyć roboty czuć, mówią neuronaukowcy Kingson Man i Antonio Damasio. Aby to zrobić, wystarczy stworzyć robota, który wyczuwa niebezpieczeństwo i rozumie zagrożenia dla własnego istnienia. Wtedy będzie musiał tylko rozwinąć uczucia, które będą determinować jego zachowanie, które jest niezbędne do zapewnienia przetrwania. „Współczesnym robotom brakuje zmysłów” - piszą Meng i Damasio w artykule w Nature Machine Intelligence. „Nie potrafią określić stanu swoich wewnętrznych procesów w przestrzeni mentalnej”.

Naukowcy zaproponowali sposób wyposażenia maszyn (takich jak roboty czy humanoidalne androidy) w „sztuczne odpowiedniki zmysłów”. W rzeczywistości roboty powinny być zmuszone do przestrzegania biologicznej zasady homeostazy - zaszczepienia w nich chęci przetrwania. Świadomość przez sztuczną inteligencję jej wewnętrznych procesów w ramach przetrwania jest równoznaczna z robotyczną wersją uczuć.

Kingson Man i Antonio Damasio są przekonani, że zmysły nie tylko dadzą robotom pozory instynktu samozachowawczego, ale także umożliwią sztucznej inteligencji dokładniejsze naśladowanie ludzkiej inteligencji.

Ta nowa inteligencja będzie odpowiednia do wielu różnych zadań. Meng i Damasio wierzą, że uczynienie robotów naprawdę inteligentnymi jest możliwe tylko poprzez uczucia, a uczucia są nieodłączne tylko dla tych, którzy chcą przeżyć. Kiedy ludzie utrzymują robota w dobrym stanie (wszystkie jego przewody są podłączone, otrzymuje wystarczającą ilość energii, nie przegrzewa się ani nie zamraża), nie musi martwić się o samozachowawczość. Dlatego nie potrzebuje uczuć, a jedynie spokojnie informuje o błędach.

Uczucia motywują żyjące istoty do poszukiwania optymalnych warunków i warunków niezbędnych do przetrwania. Sztuczna inteligencja, świadoma swojej wrażliwości, powinna zrobić to samo.

Możliwość tworzenia maszyn z uczuciami wynika z ostatnich osiągnięć w dwóch kluczowych obszarach badawczych: miękkiej robotyce i głębokim uczeniu. Postępy w miękkiej robotyce mogą przynosić uczucia, a nowe techniki głębokiego uczenia umożliwią wyrafinowane obliczenia potrzebne do przełożenia tych uczuć na zachowania umożliwiające przetrwanie.

Uczenie głębokie jest współczesnym następcą starej idei sztucznych sieci neuronowych - zestawów połączonych ze sobą elementów obliczeniowych, które naśladują komórki nerwowe żywego mózgu. Wzory w jednej warstwie są przekazywane do następnego poziomu, a następnie do następnego, co pozwala maszynie rozpoznać wzory we wzorach. Głębokie uczenie umożliwia robotom klasyfikowanie wzorców w kategorie, identyfikowanie obiektów (takich jak koty) lub określanie, czy skaner CT wykrywa oznaki raka lub innej choroby.

Film promocyjny:

Reprezentując komputerowo stan środowiska, maszyna do głębokiego uczenia się może przekształcić dane wejściowe w obraz sytuacji. Taka inteligentna maszyna, jak zauważają Meng i Damasio, może „łączyć modalności sensoryczne”: na przykład rozpoznawać, jak ruchy warg (modalność wizualna) odpowiadają dźwiękom głosu (modalność słuchowa).

Jednak zdolność odczuwania stanów wewnętrznych jest bezużyteczna bez zagrożenia dla istnienia. Jeśli robot jest wykonany z miękkich materiałów i ma wbudowane czujniki, może obawiać się skaleczenia lub zranienia i zaangażuje się w program unikania obrażeń. Ponadto robot zdolny do oceny zagrożeń egzystencjalnych może nauczyć się opracowywać nowe metody ochrony zamiast polegać na istniejących programach działania. Opracowanie nowych metod samoobrony może również prowadzić do poprawy umiejętności myślenia.

Dlatego samoobrona może motywować roboty w taki sam sposób, jak słynne trzy prawa robotyki Izaaka Asimowa: „Robot nie może skrzywdzić człowieka ani przez swoją bezczynność pozwolić na zranienie człowieka. Robot musi wykonywać wszystkie polecenia wydawane przez człowieka, z wyjątkiem tych, które są sprzeczne z pierwszym prawem. Robot musi dbać o swoje bezpieczeństwo w takim zakresie, w jakim nie jest to sprzeczne z pierwszym lub drugim prawem”.

Autor: Kirill Panov