Prawa Robota: Kiedy Inteligentną Maszynę Można Uznać Za „osobę”? - Alternatywny Widok

Spisu treści:

Prawa Robota: Kiedy Inteligentną Maszynę Można Uznać Za „osobę”? - Alternatywny Widok
Prawa Robota: Kiedy Inteligentną Maszynę Można Uznać Za „osobę”? - Alternatywny Widok

Wideo: Prawa Robota: Kiedy Inteligentną Maszynę Można Uznać Za „osobę”? - Alternatywny Widok

Wideo: Prawa Robota: Kiedy Inteligentną Maszynę Można Uznać Za „osobę”? - Alternatywny Widok
Wideo: Webinar - Rękojmia i gwarancja - kiedy i komu przysługuje? 2024, Może
Anonim

Sci-fi uwielbia przedstawiać roboty jako autonomiczne maszyny zdolne do podejmowania własnych decyzji, a nawet przejawiające osobowości. Jednak nie sposób pozbyć się myśli, że roboty należą do nas jako nasza własność i nie mają takich praw, jakie zwykle mają ludzie. Ale jeśli maszyna może myśleć, podejmować decyzje i działać z własnej woli, jeśli może zostać skrzywdzona lub pociągnięta do odpowiedzialności za swoje działania, czy powinniśmy przestać traktować ją jak własność i zacząć traktować ją jako osobę posiadającą prawa?

A jeśli robot nagle stanie się w pełni świadomy? Czy będzie miał takie same prawa jak my i taką samą ochronę na mocy prawa, czy przynajmniej coś podobnego?

Te i inne kwestie są już omawiane przez Komisję Prawną Parlamentu Europejskiego. W zeszłym roku opublikował dokument projektowy i propozycję stworzenia zestawu przepisów prawa cywilnego dla robotyki, które regulują jej produkcję, użytkowanie, autonomię i wpływ na społeczeństwo.

Spośród proponowanych rozwiązań prawnych najciekawsza była propozycja stworzenia statusu prawnego „osób elektronicznych” dla najbardziej skomplikowanych robotów.

Uwaga: osobowość

Raport przyznaje, że poprawa autonomicznych i poznawczych zdolności robotów sprawia, że są one czymś więcej niż tylko narzędziami, a zwykłe zasady odpowiedzialności, takie jak odpowiedzialność kontraktowa i deliktowa, nie wystarczą, aby z nimi pracować.

Na przykład obecna dyrektywa UE w sprawie odpowiedzialności za szkody wyrządzone przez roboty obejmuje tylko przewidywalne szkody spowodowane wadami produkcyjnymi. W takich przypadkach odpowiedzialność ponosi producent. Jednak gdy roboty będą mogły uczyć się i dostosowywać w swoim środowisku w całkowicie nieprzewidywalny sposób, producentowi trudniej będzie przewidzieć problemy, które mogą spowodować szkody.

Film promocyjny:

Pojawiły się również obawy co do tego, w jaki sposób roboty należy uważać za dostatecznie lub niewystarczająco złożone: jako zwykli ludzie, osoby prawne (na przykład korporacje), zwierzęta lub przedmioty. Zamiast wciskać je do istniejącej kategorii, proponuje się utworzenie nowej kategorii „osób elektronicznych”, jako bardziej odpowiedniej.

Raport nie zaleca jednak natychmiastowych działań legislacyjnych. Zamiast tego sugerują aktualizację przepisów, jeśli roboty stają się bardziej złożone i nabywają subtelności behawioralne. Jeśli tak się stanie, jednym z zaleceń jest zmniejszenie odpowiedzialności „twórców” proporcjonalnie do autonomii robota, a także uwzględnienie obowiązkowego ubezpieczenia.

Ale po co posuwać się aż do stworzenia nowej kategorii „elektronicznych twarzy”? Przecież komputery wkrótce nie będą bliskie ludzkiej inteligencji, jeśli w ogóle.

Roboty - a dokładniej, oprogramowanie będące ich podstawą - stają się coraz bardziej złożone. Maszyny autonomiczne (lub „wyłaniające się”) stają się coraz bardziej powszechne. Nadal trwają kontrowersje dotyczące prawnych możliwości urządzeń autonomicznych. Czy mogą wykonać operację? Czy można pozwać chirurga-robota?

Robot jest uczony „czuć” ból

O ile odpowiedzialność spoczywa na barkach producenta, nie są to szczególnie trudne problemy. Ale co, jeśli producenta nie da się łatwo zidentyfikować, na przykład w przypadku korzystania z oprogramowania open source? Kogo pozwać, jeśli na świecie są miliony programistów?

Sztuczna inteligencja również zaczyna zasługiwać na swoją nazwę. Alan Turing, ojciec współczesnych komputerów, zaproponował test, na podstawie którego komputer mógłby uważać się za inteligentny, jeśli uda mu się oszukać, oszukać osobę, podszyć się pod żywą istotę. Maszyny są już bliskie przejścia tego testu.

Lista sukcesów robotów jest dość długa: komputer pisze ścieżki dźwiękowe do filmów, które są nie do odróżnienia od tych napisanych przez ludzi, omija "captcha", pisze słowami i bije najlepszych pokerzystów na świecie.

Ostatecznie roboty mogą dorównać ludziom zdolnościami poznawczymi, a nawet być nadmiernie ludzkimi, na przykład, jeśli „odczuwają” ból. Jeśli ten postęp będzie trwał, samoświadome roboty przestaną być wytworem fantazji.

Sprawozdanie UE jest jednym z pierwszych, które odnosi się do tych kwestii, ale inne kraje również są aktywnie zaangażowane. Yue-Xuan Weng z Uniwersytetu w Pekinie pisze, że Japonia i Korea Południowa wierzą, że do 2030 roku będziemy współistnieć z robotami. Japońskie Ministerstwo Gospodarki, Handlu i Przemysłu opracowało szereg wytycznych dotyczących biznesu i bezpieczeństwa dla robotów nowej generacji.

Elektroniczne twarze

Jeśli zdecydujemy się nadać robotom status prawny, co to będzie? Gdyby zachowywali się jak ludzie, moglibyśmy traktować ich jako osoby prawne, a nie przedmioty, lub umieszczać je gdzieś pomiędzy. Podmioty mają prawa i obowiązki, co nadaje im osobowość prawną. Nie muszą to być osoby fizyczne; korporacja nie jest osobą prawną, ale jest uważana za osobę prawną. Z drugiej strony osoby prawne nie mają praw i obowiązków, chociaż mogą mieć wartość ekonomiczną.

Cesja praw i obowiązków na przedmiot nieożywiony lub program niezależny od jego twórców może wydawać się … dziwna. Ale już teraz widzimy, jak korporacje tworzą fikcyjne osoby prawne z własnymi prawami i obowiązkami.

Może podejście do robotów powinno być podobne? Jeśli robot (lub program) jest wystarczająco złożony, aby spełnić określone wymagania, można mu nadać status korporacji. Pozwoli mu to zarabiać pieniądze, płacić podatki, posiadać majątek lub podejmować działania prawne, niezależnie od jego twórców. Twórcy robota będą jak prezesi korporacji.

Roboty będą wtedy uważane za osoby prawne, ale w przeciwieństwie do korporacji będą miały ciała fizyczne. „Osoba elektroniczna” może więc być połączeniem podmiotu i przedmiotu prawa.

ILYA KHEL