Jak Stworzyć Robota, Który Chce Zmieniać świat? - Alternatywny Widok

Spisu treści:

Jak Stworzyć Robota, Który Chce Zmieniać świat? - Alternatywny Widok
Jak Stworzyć Robota, Który Chce Zmieniać świat? - Alternatywny Widok

Wideo: Jak Stworzyć Robota, Który Chce Zmieniać świat? - Alternatywny Widok

Wideo: Jak Stworzyć Robota, Który Chce Zmieniać świat? - Alternatywny Widok
Wideo: Oto 5 niezwykłych robotów, które zmienią nasz świat 2024, Wrzesień
Anonim

Informatyk Christoph Solge próbuje wyeliminować potrzebę reguł rządzących zachowaniem robotów. Jego strategia polega na wyznaczeniu im celu: uczynić nas potężniejszymi. Christophe pracuje w Game Innovation Lab na Uniwersytecie w Nowym Jorku. Sasha Maslov przeprowadził wywiad z Sold dla Quanta Magazine, z którego dowiadujemy się, że być może nie warto próbować powstrzymywać niepowstrzymanego przepływu technologicznej osobliwości.

Słynne Trzy prawa robotyki Isaaca Asimova - ograniczające zachowanie androidów i automatów w celu zapewnienia ludzkości bezpieczeństwa - również nie zostały ukończone. Prawa te pojawiły się po raz pierwszy w historii Asimova w 1942 roku, a następnie w klasycznych dziełach, takich jak „Ja, Robot” i brzmią mniej więcej tak:

1. Robot nie może skrzywdzić osoby lub przez swoją bezczynność pozwolić na wyrządzenie krzywdy osobie.

2. Robot musi wykonywać rozkazy wydawane przez ludzi, jeśli nie są one sprzeczne z pierwszym prawem.

3. Robot musi bronić swojego istnienia, jeśli ochrona ta nie jest sprzeczna z pierwszą lub drugą zasadą.

Oczywiście w tych prawach można znaleźć wiele sprzeczności i luk (z których w rzeczywistości korzystał sam Azimov). W naszej obecnej dobie zaawansowanego oprogramowania z uczeniem maszynowym i autonomiczną robotą, zdefiniowanie i wdrożenie żelaznej etyki sztucznej inteligencji stało się pilnym wyzwaniem dla organizacji takich jak Machine Intelligence Research Institute i OpenAI.

Christoph Salge przyjął inne podejście. Zamiast narzucać odgórne filozoficzne definicje tego, jak sztuczne agenty powinny lub nie powinny się zachowywać, Salge i jego kolega Daniel Polani badają ścieżkę oddolną, czyli „co robot powinien zrobić najpierw”, jak napisali w artykule „Empowerment as a zamiennik trzech praw robotyki”. Empowerment, koncepcja zrodzona na przecięciu cybernetyki i psychologii, opisuje wewnętrzną motywację agenta do stawiania oporu i jednoczesnej pracy w środowisku. „Jako organizm chce przetrwać. Chce zostawić ślad na świecie”, wyjaśnia Salge. Odkurzacz Roomba, zaprogramowany do wyszukiwania stacji ładującej, gdy jego akumulatory są słabe, jest podstawowym przykładem „silnego”: dalszego funkcjonowania na świecie,musi otrzymać oskarżenie i kontynuować własną egzystencję, czyli przeżyć.

Upodmiotowienie może brzmieć jak przepis na ten sam rezultat, którego obawiają się zwolennicy bezpiecznej sztucznej inteligencji, tacy jak Nick Bostrom: potężny system autonomiczny, skupiający się tylko na własnym interesie i oszalał w tym procesie. Ale Salge, który bada społeczne interakcje człowiek-maszyna, pyta: co by było, gdyby upoważniony agent „również wzmacniał pozycję innego? Robot musi nie tylko chcieć pozostać sprawnym, ale także wspierać swojego ludzkiego partnera”.

Film promocyjny:

Solge i Polanyi zdali sobie sprawę, że teoria informacji stanowi sposób na przełożenie tej wzajemnej ekspansji na ramy matematyczne dla niefilozofizującego sztucznego agenta. „Jedną z wad tych trzech praw robotyki jest to, że są one oparte na języku, a język jest wysoce niejednoznaczny” - mówi Salge. „Próbujemy znaleźć coś, co można zrobić”.

Niektórzy technolodzy uważają, że sztuczna inteligencja jest poważnym, wręcz katastrofalnym zagrożeniem dla egzystencji człowieka. A ty?

Powstrzymam się. Dlatego naprawdę wierzę, że teraz istnieje strach przed robotami i rosnącym wpływem sztucznej inteligencji. Ale myślę, że w perspektywie krótkoterminowej prawdopodobnie będziemy bardziej zaniepokojeni możliwą zmianą pracy, procesem decyzyjnym, utratą demokracji, utratą prywatności. Nie wiem, jakie jest prawdopodobieństwo, że niepowstrzymana sztuczna inteligencja pojawi się w najbliższym czasie. Ale nawet jeśli sztuczna inteligencja ma nadzorować system opieki zdrowotnej i wydawać recepty, musimy pomyśleć o kwestiach etycznych, które się z tym wiążą.

W jaki sposób koncepcja empowerment może pomóc nam sprostać tym wyzwaniom?

Myślę, że idea wzmocnienia praw wypełnia niszę. Nie pozwoli agentowi pozwolić tej osobie umrzeć, ale kiedy już będziesz w stanie utrzymać ten próg, będzie wspierać zamiar stworzenia dodatkowych możliwości wyrażania się i wpływania na świat. W jednej z książek Asimova roboty po prostu skończą umieszczać wszystkich ludzi w bezpiecznych pojemnikach. Byłoby to niepożądane. Jeśli nasza zdolność wpływania na świat będzie się nadal poprawiać, myślę, że będzie to znacznie ciekawszy cel do osiągnięcia.

Przetestowałeś pomysły wirtualnego agenta w środowisku gier wideo. Co się stało?

Agent, zmotywowany własnymi rozszerzonymi uprawnieniami, uniknie pocisku i generalnie nie wpadnie do wykopu, uniknie sytuacji, która mogłaby doprowadzić do utraty mobilności, śmierci lub uszkodzenia w sposób, który zmniejszyłby jego efektywność operacyjną. Po prostu wytrzyma.

We współpracy z graczem będącym człowiekiem, który jest również wyposażony w zwiększone prawa, widzieliśmy, że wirtualny robot będzie utrzymywał pewną odległość, aby nie utrudniać ruchu człowieka. Nie zablokuje cię, nie stanie w przejściu, żebyś nie mógł przejść. Będzie trzymał się jak najbliżej ciebie, aby ci pomóc. Prowadzi to do zachowań, w których może zarówno przejąć inicjatywę, jak i podążać za cudzymi.

Na przykład stworzyliśmy scenariusz, w którym mieliśmy barierę laserową niebezpieczną dla ludzi, ale bezpieczną dla robota. Jeśli osoba w tej grze zbliży się do laserów, robot ma większą motywację do zablokowania lasera. Bodziec nasila się, gdy osoba stoi bezpośrednio przed barierą, jakby zamierzając ją przekroczyć. A robot faktycznie blokuje laser, stojąc przed osobą.

Czy ci agenci wykazywali jakiekolwiek niezamierzone zachowanie podobne do trzech praw z książki Asimova?

Na początku zachowanie było dobre. Na przykład wirtualny robot przechwycił przeciwników, którzy próbowali cię zabić. Od czasu do czasu wskakiwał pod kulę, gdyby to był jedyny sposób, by cię uratować. Ale tym, co nas zaskoczyło szczególnie od samego początku, było to, że on również bardzo bał się tej osoby.

Przyczyną tego jest jego „krótkowzroczny” model: w rzeczywistości analizuje, jak sekwencje pewnych działań w dwóch lub trzech krokach mogą wpływać na świat, zarówno dla Ciebie, jak i dla niego. Dlatego w pierwszym kroku zaprogramowaliśmy, że gracz działa losowo. W praktyce jednak skutkowało to tym, że agent traktował osobę jako swego rodzaju psychopatę, który mógł np. Zastrzelić agenta w dowolnym momencie. Dlatego agent musiał bardzo, bardzo ostrożnie wybrać pozycję, w której osoba nie może go zabić.

Musieliśmy to naprawić, więc modelowaliśmy tak zwane założenie zaufania. Zasadniczo agent towarzyszący działa w oparciu o założenie, że osoba wybierze tylko te działania, które nie będą ograniczać rozszerzonych uprawnień samego agenta - być może jest to bardziej odpowiedni model dla towarzysza.

Zauważyliśmy również, że gdybyś miał, powiedzmy, 10 punktów zdrowia w grze, towarzyszowi nie obchodziło, czy straciłeś osiem czy dziewięć z tych punktów - mógł nawet raz do ciebie strzelić, dla zabawy. I wtedy zdaliśmy sobie sprawę, że istnieje przepaść między światem, w którym żyjemy, a modelem z gry komputerowej. Gdy tylko wymodelowaliśmy ograniczenia wydajności spowodowane utratą zdrowia, problem zniknął. Można to również rozwiązać, tworząc model, który nie był tak krótkowzroczny, który mógłby obliczyć działania o kilka kroków w przyszłość. Gdyby agent mógł spojrzeć dalej w przyszłość, zauważyłby, że posiadanie większej liczby punktów zdrowia może być korzystne dla przyszłych wydarzeń.

Biorąc pod uwagę, że zmiana ilości punktów zdrowia nie wpływa w żaden sposób na moje rozszerzone uprawnienia, agent decyduje: „strzelam do niego, nie strzelam - jaka jest różnica?”. A czasami strzela. Co oczywiście jest problemem. Nie chcę przypadkowych strzałów w graczy. Dodaliśmy poprawkę, dzięki której wirtualny robot bardziej martwi się twoim stanem niż własnym.

Jak sprawiasz, że te koncepcje są dokładne?

Jeśli uznamy agentów za systemy kontroli, można je rozłożyć na komponenty informacyjne: na świecie coś się dzieje iw taki czy inny sposób Cię niepokoi. Mówimy o informacji nie jako o rzeczach, które postrzegasz, ale jako o wszelkiego rodzaju wpływach - może to być substancja, coś, co płynie między światem a tobą. W twoim ciele może występować temperatura lub składniki odżywcze. Wszystko, co przekracza granicę między światem a agentem, niesie w sobie informację. W ten sam sposób agent może wpływać na świat zewnętrzny na różne sposoby, również wysyłając do niego informacje.

Możesz uznać ten strumień za szerokość pasma kanału, jest to koncepcja z teorii informacji. Możesz mieć szerokie uprawnienia, rozszerzone uprawnienia, jeśli jesteś w stanie podejmować różne działania, które prowadzą do różnych rezultatów. Jeśli coś pójdzie nie tak, stracisz władzę, ponieważ utrata przepustowości odpowiada ilościowemu zmniejszeniu przepustowości kanału między tobą a otoczeniem. To jest główna idea.

Ile musi wiedzieć agent, aby jego rozszerzone uprawnienia przyniosły pełny efekt?

Rozszerzone prawa mają tę zaletę, że mogą być stosowane nawet wtedy, gdy nie masz pełnej wiedzy. Agent naprawdę potrzebuje modelu tego, jak jego działania wpłyną na świat, ale nie potrzebuje pełnego zrozumienia świata i wszystkich jego subtelności. W przeciwieństwie do niektórych podejść, które próbują modelować wszystko na świecie w jak największym stopniu, w naszym przypadku wystarczy dowiedzieć się, jak Twoje działania wpływają na Twoją własną percepcję. Nie musisz uczyć się wszystkiego o wszystkim; potrzebujesz tylko agenta, który eksploruje świat. Robi coś i próbuje zrozumieć, jak jego działania wpływają na świat. Model rośnie, a agent coraz lepiej rozumie, gdzie rozciągają się granice jego władzy.

Przetestowałeś to w wirtualnym środowisku. Dlaczego nie w prawdziwym świecie?

Główną przeszkodą w skalowaniu tego modelu i umieszczeniu go w prawdziwym robocie jest trudność w obliczeniu przepustowości agenta i osoby w tak bogatym środowisku, jak świat rzeczywisty przez długi czas. Wszystkie te procesy jeszcze nie przyniosły efektów. Jestem optymistą, ale jak dotąd problem ten pozostaje czysto obliczeniowy. Dlatego sprawdzamy działanie systemu w grze komputerowej w uproszczonej formie.

Wygląda na to, że idealna siła sprawi, że nasze maszyny będą potężnymi psami służbowymi

Znam nawet techników robotów, którzy celowo modelują zachowanie psa towarzyszącego. Myślę, że jeśli roboty traktują nas jak nasze psy, w tej przyszłości wszyscy będziemy mogli się dogadać.

Ilya Khel