Kiedy Roboty I Sztuczna Inteligencja Zasługują Na Prawa Człowieka? - Alternatywny Widok

Spisu treści:

Kiedy Roboty I Sztuczna Inteligencja Zasługują Na Prawa Człowieka? - Alternatywny Widok
Kiedy Roboty I Sztuczna Inteligencja Zasługują Na Prawa Człowieka? - Alternatywny Widok

Wideo: Kiedy Roboty I Sztuczna Inteligencja Zasługują Na Prawa Człowieka? - Alternatywny Widok

Wideo: Kiedy Roboty I Sztuczna Inteligencja Zasługują Na Prawa Człowieka? - Alternatywny Widok
Wideo: Wywiad z maszyną! 2024, Może
Anonim

Filmy i seriale telewizyjne, takie jak Blade Runner, People i Westworld, w których pokazują nam zaawansowane technologicznie roboty, które nie mają żadnych praw, ale niepokoją ludzi z sumieniem. W końcu nie tylko pokazują nasze niezwykle agresywne podejście do robotów, ale wręcz zawstydzają nas jako gatunek. Wszyscy jesteśmy przyzwyczajeni do myślenia, że jesteśmy lepsi niż te postacie, które widzimy na ekranie, a kiedy nadejdzie czas, wyciągniemy właściwe wnioski i zachowamy się z inteligentnymi maszynami z wielkim szacunkiem i godnością.

Z każdym krokiem postępu w robotyce i rozwoju sztucznej inteligencji zbliżamy się do dnia, w którym maszyny dorównają ludzkim możliwościom w każdym aspekcie inteligencji, świadomości i emocji. Kiedy tak się stanie, będziemy musieli zdecydować - przed nami znajduje się przedmiot z poziomu lodówki lub osoba. I czy powinniśmy zapewnić im równoważne prawa człowieka, wolności i ochronę.

Image
Image

To pytanie jest bardzo obszerne i nie będzie można go rozwiązać od razu, nawet przy całym pragnieniu. Trzeba będzie to natychmiast rozważyć i rozwiązać z różnych punktów widzenia - etyki, socjologii, prawa, neurobiologii i teorii sztucznej inteligencji. Ale z jakiegoś powodu już teraz nie wydaje się wcale, że wszystkie te strony dojdą do wspólnego wniosku, który pasuje wszystkim.

Po co w ogóle wspierać sztuczną inteligencję?

Po pierwsze, musimy przyznać, że już skłaniamy się ku moralności, gdy widzimy roboty, które są do nas bardzo podobne. Im bardziej intelektualnie rozwinięte i „żywe” maszyny wyglądają, tym bardziej będziemy chcieli wierzyć, że są takie jak my, nawet jeśli nie są.

Kiedy maszyny będą miały podstawowe ludzkie możliwości, czy nam się to podoba, czy nie, będziemy musieli traktować je jako równe społecznie, a nie tylko jako przedmiot, jako czyjąś prywatną własność. Trudność będzie polegać na naszym zrozumieniu cech lub cech poznawczych, jeśli chcesz, dzięki którym będzie można ocenić podmiot znajdujący się przed nami z punktu widzenia moralności, a zatem rozważyć kwestię praw społecznych tego podmiotu. Filozofowie i etycy zmagają się z tym problemem od tysięcy lat.

Film promocyjny:

„Istnieją trzy najważniejsze progi etyczne: umiejętność odczuwania bólu i empatii, samoświadomość oraz umiejętność patrzenia na rzeczy z moralnego punktu widzenia i podejmowania odpowiednich decyzji” - mówi socjolog, futurysta i szef Instytutu Etyki i Nowych Technologii James Hughes.

„U ludzi, jeśli masz szczęście, wszystkie trzy z tych absolutnie ważnych aspektów rozwijają się sekwencyjnie i stopniowo. Ale co, jeśli z punktu widzenia inteligencji maszynowej uważa się, że robot, który nie posiada samoświadomości, nie odczuwa radości ani bólu, ma również prawo nazywać się obywatelem? Musimy się dowiedzieć, czy tak się rzeczywiście stanie”.

Ważne jest, aby zrozumieć, że inteligencja, wrażliwość (zdolność postrzegania i odczuwania rzeczy), świadomość i samoświadomość (świadomość siebie w przeciwieństwie do innych) to zupełnie różne rzeczy. Maszyny lub algorytmy mogą być równie inteligentne (jeśli nie mądrzejsze) niż ludzie, ale brakuje im tych trzech podstawowych składników. Kalkulatory, Siri, algorytmy giełdowe - wszystkie z pewnością są sprytne, ale nie potrafią się zrealizować, nie są w stanie czuć, okazywać emocji, czuć kolorów, smaku popcornu.

Zdaniem Hughesa samoświadomość może objawiać się wraz z wyposażeniem istoty w minimalne prawa osobiste, takie jak prawo do wolności, a nie niewolnika, prawo do własnych interesów życiowych, prawo do rozwoju i samodoskonalenia. Zdobywając samoświadomość i podstawy moralne (umiejętność rozróżniania „tego, co dobre, a co złe” zgodnie z moralnymi zasadami współczesnego społeczeństwa), podmiot ten powinien być wyposażony w pełnoprawne prawa człowieka: prawo do zawierania umów, prawo własności, prawo do głosowania itd.

„Podstawowe wartości Oświecenia zobowiązują nas do rozważenia tych cech z punktu widzenia równości wszystkich wobec wszystkich i do porzucenia radykalnie konserwatywnych poglądów, które były wcześniej powszechnie akceptowane i dawały prawa, powiedzmy, tylko ludziom o określonym pochodzeniu społecznym, płciowym lub terytorialnym” - mówi Hughes.

Oczywiście nasza cywilizacja nie osiągnęła jeszcze wysokich celów społecznych, ponieważ nadal nie możemy zrozumieć własnych praw i wciąż staramy się je rozszerzać.

Kto ma prawo nazywać się „osobą”?

Wszyscy ludzie są jednostkami, ale nie wszyscy są ludźmi. Linda MacDonald-Schlenn, specjalista bioetyki na Uniwersytecie Kalifornijskim w Monterey Bay i wykładowca w Alden Martha Institute of Bioethics w Albany Medical Center, mówi, że istnieją już precedensy w prawie, w których przedmioty inne niż ludzie są traktowane jako przedmioty prawa. I to, jej zdaniem, jest bardzo dużym osiągnięciem, ponieważ w ten sposób tworzymy podstawę do otwarcia możliwości wyposażenia AI w przyszłości w jej własne prawa, równoważne z prawami człowieka.

„W Stanach Zjednoczonych wszystkie korporacje mają osobowość prawną. W innych krajach istnieją również precedensy, w których starają się uznać wzajemne powiązania i równość wszystkich żywych istot na tej planecie. Na przykład w Nowej Zelandii wszystkie zwierzęta są prawnie uważane za inteligentne, a rząd aktywnie zachęca do opracowywania kodeksów dobrostanu i etycznego postępowania. Indyjski Sąd Najwyższy nazwał rzeki Ganges i Yamuna „żywymi istotami” i nadał im status odrębnych podmiotów prawnych”.

Ponadto w Stanach Zjednoczonych, podobnie jak w kilku innych krajach, niektóre gatunki zwierząt, w tym małpy człekokształtne, słonie, wieloryby i delfiny, podlegają rozszerzonym prawom ochrony przed więzieniem, eksperymentami i wykorzystywaniem. Ale w przeciwieństwie do dwóch pierwszych przypadków, w których chcą wziąć korporacje i rzeki pod osobowość, kwestia zwierząt nie wydaje się w ogóle próbą podporządkowania sobie norm prawnych. Zwolennicy tych propozycji opowiadają się za wsparciem dla prawdziwej osobowości, czyli jednostki, którą można scharakteryzować na podstawie jej pewnych zdolności poznawczych (umysłowych), takich jak samoświadomość.

MacDonald-Glenn mówi, że w takich sprawach ważne jest, aby porzucić konserwatywny pogląd i przestać rozważać, czy to zwierzęta, czy sztuczna inteligencja, zwykłe bezduszne stworzenia i maszyny. Emocje nie są luksusem, mówi ekspert bioetyki, ale integralną częścią racjonalnego myślenia i zachowań społecznych. To właśnie te cechy, a nie umiejętność liczenia liczb, powinny odgrywać decydującą rolę w decydowaniu o tym, „kto” lub „co” ma mieć prawo do oceny moralnej.

W nauce jest coraz więcej dowodów na predyspozycje emocjonalne zwierząt. Obserwowanie delfinów i wielorybów pokazuje, że potrafią one przynajmniej okazywać smutek, a obecność komórek wrzecionowatych (interneuronów łączących odległe neurony i uczestniczących w złożonych procesach aktywujących zachowania społeczne) może wskazywać m.in. współczuć. Naukowcy opisują również przejawy różnych zachowań emocjonalnych u małp człekokształtnych i słoni. Niewykluczone, że świadoma sztuczna inteligencja również będzie w stanie nabyć te zdolności emocjonalne, co oczywiście znacznie podniesie ich status moralny.

„Ograniczenie rozprzestrzeniania się statusu moralnego tylko do tych, którzy myślą racjonalnie, może pracować z AI, ale jednocześnie idea ta jest sprzeczna z intuicją moralną. W końcu nasze społeczeństwo chroni już tych, którzy nie potrafią racjonalnie myśleć: noworodki, osoby w śpiączce, osoby z poważnymi problemami fizycznymi i psychicznymi. Ostatnio aktywnie promowano przepisy dotyczące dobrostanu zwierząt”- mówi MacDonald-Glenn.

W kwestii tego, komu należy nadać status moralny, MacDonald-Glenn zgodził się z XVIII-wiecznym angielskim filozofem moralności Jeremiah Benthamem, który powiedział kiedyś, co następuje:

„Pytanie nie brzmi, czy potrafią rozumować? Czy mogą mówić? Ale czy są zdolni do cierpienia?”

Czy maszyna może zdobyć samoświadomość?

Oczywiście nie wszyscy zgadzają się, że prawa człowieka obejmują także istoty niebędące ludźmi, nawet jeśli osoby te są w stanie przejawiać zdolności, takie jak emocje lub zachowania autorefleksyjne. Niektórzy myśliciele twierdzą, że tylko ludziom należy dać prawo do udziału w relacjach społecznych, a cały świat kręci się bezpośrednio wokół Homo sapiens, a wszystko inne - twoja konsola do gier, lodówka, pies czy android rozmówca - to „wszystko inne”.

Prawnik, amerykański pisarz i starszy wykładowca w Wesley J. Smith Institute for Human Exceptionalism uważa, że my sami nie otrzymaliśmy jeszcze uniwersalnych praw człowieka, a myślenie o błyszczących kawałkach żelaza i ich prawach jest tym bardziej przedwczesne.

„Żadnej maszyny nie należy nigdy uważać za potencjalnego posiadacza jakichkolwiek praw” - mówi Smith.

„Nawet najbardziej zaawansowane maszyny pozostają i zawsze pozostaną maszynami. To nie jest żywa istota. To nie jest żywy organizm. Maszyna zawsze będzie tylko zbiorem programów, zbiorem kodu, bez względu na to, czy został stworzony przez człowieka, czy inny komputer, czy nawet zaprogramowany niezależnie”.

Jego zdaniem tylko ludzie i zasoby ludzkie należy traktować jako jednostki.

„Mamy obowiązki wobec zwierząt, które niesprawiedliwie cierpią, ale one również nigdy nie powinny być postrzegane jako ktoś” - zauważa Smith.

W tym miejscu powinniśmy zrobić małą uwagę i przypomnieć rosyjskojęzycznemu czytelnikowi, że na Zachodzie zwierzęta są uważane za przedmioty nieożywione. Dlatego często można znaleźć zaimek „to” (to znaczy „to”), a nie „ona” czy „on” (czyli „ona” lub „on”), jeśli chodzi o określone zwierzę. Zasada ta jest zwykle ignorowana tylko w odniesieniu do zwierząt domowych - psów, kotów, a nawet papug - w których gospodarstwa domowe widzą pełnych i pełnoprawnych członków swoich rodzin. Smith zwraca jednak uwagę, że koncepcja zwierzęcia jako „rozsądnej własności prywatnej” jest już cennym identyfikatorem, ponieważ „czyni nas odpowiedzialnymi za używanie go w sposób, który go nie rani. W końcu „kopanie psa” i „kopanie lodówki” to dwie duże różnice.

Oczywiście kontrowersyjnym punktem analizy Smitha jest założenie, że ludzie lub organizmy biologiczne mają pewne „cechy”, których maszyna nigdy nie może uzyskać. W poprzednich epokach tymi przeoczanymi cechami była dusza, duch lub jakaś niematerialna nadprzyrodzona siła życiowa. Teoria witalizmu postuluje, że procesy zachodzące w organizmach biologicznych zależą od tej siły i nie można ich wyjaśnić w kategoriach fizyki, chemii czy biochemii. Jednak szybko stracił na znaczeniu pod presją praktyków i logików, którzy nie są przyzwyczajeni do łączenia pracy naszego mózgu z siłami nadprzyrodzonymi. Jednak przekonanie, że maszyna nigdy nie myśli i nie czuje tak, jak ludzie, jest nadal mocno zakorzenione w umysłach nawet naukowców, co tylko raz jeszcze odzwierciedla fakt, żeże zrozumienie biologicznych podstaw samoświadomości u ludzi jest wciąż dalekie od ideału i bardzo ograniczone.

Lori Marino, starszy wykładowca neuronauki i biologii behawioralnej (etologii) w Emory Center for Ethics, mówi, że maszyny prawdopodobnie nigdy nie uzyskają żadnych praw, nie mówiąc już o prawach na poziomie człowieka. Powodem tego są odkrycia neuronaukowców, takich jak Antonio Damasio, który uważa, że o świadomości będzie decydować tylko to, czy badany ma układ nerwowy z kanałami przekazującymi wzbudzone jony, czy też, jak mówi sama Marino, dodatnio naładowane jony przechodzące przez błony komórkowe wewnątrz system nerwowy.

„Ten rodzaj transmisji neuronalnej występuje nawet w najprostszych organizmach żywych - prostytutkach i bakteriach. I to jest ten sam mechanizm, który zapoczątkował rozwój neuronów, następnie układu nerwowego, a następnie mózgu”- mówi Marino.

„Jeśli mówimy o robotach i sztucznej inteligencji, to przynajmniej ich obecne pokolenie jest posłuszne ruchowi ujemnie naładowanych jonów. Czyli mówimy o dwóch zupełnie różnych mechanizmach bytu”.

Jeśli zastosujesz się do tej logiki, Marino chce powiedzieć, że nawet meduza będzie miała więcej uczuć niż którykolwiek z najbardziej złożonych robotów w historii.

„Nie wiem, czy ta hipoteza jest słuszna, czy nie, ale jest to zdecydowanie kwestia, którą należy rozważyć” - mówi Marino.

„Ponadto gra we mnie ciekawość, próbując dowiedzieć się, jak dokładnie„ żywy organizm”może różnić się od naprawdę złożonej maszyny. Mimo to uważam, że ochronę prawną należy przede wszystkim zapewnić zwierzętom, a dopiero potem należy wziąć pod uwagę prawdopodobieństwo objęcia jej przedmiotami, którymi oczywiście z mojego punktu widzenia są roboty.

David Chalmers, dyrektor Center for the Study of the Mind, Brain and Consciousness na New York University, mówi, że bardzo trudno jest wyciągnąć dokładne wnioski dotyczące całej tej teorii. Głównie ze względu na fakt, że w obecnym stanie wszystkie te idee nie są jeszcze rozpowszechnione, a zatem wykraczają daleko poza zakres dowodów.

„W tej chwili nie ma powodu, by sądzić, że jakiś szczególny rodzaj przetwarzania informacji w kanałach jonowych powinien determinować obecność lub brak świadomości. Nawet gdyby ten rodzaj przetwarzania był niezbędny, nie mielibyśmy powodu, aby sądzić, że wymaga on jakiejś specjalnej biologii, a nie jakiegoś powszechnego wzoru przetwarzania informacji, który znamy. A jeśli tak, to w tym przypadku symulację przetwarzania informacji przez komputer można uznać za świadomość”.

Innym naukowcem, który uważa, że świadomość nie jest procesem obliczeniowym, jest Stuart Hameroff, profesor anestezjologii i psychologii na University of Arizona. Jego zdaniem świadomość jest fundamentalnym zjawiskiem Wszechświata i jest nieodłącznym elementem wszystkich żywych i nieożywionych istot. Ale jednocześnie ludzka świadomość znacznie przewyższa świadomość zwierząt, roślin i przedmiotów nieożywionych. Hameroff jest zwolennikiem teorii panpsychizmu, która dotyczy ogólnej animacji przyrody. Tak więc, idąc za jego myślami, jedynym mózgiem podatnym na rzeczywistą subiektywną ocenę i introspekcję jest ten, który składa się z materii biologicznej.

Pomysł Hameroffa brzmi interesująco, ale leży też poza głównym nurtem opinii naukowej. Prawdą jest, że nadal nie wiemy, jak świadomość i samoświadomość pojawiają się w naszym mózgu. Wiemy tylko, że tak jest. Czy zatem można go traktować jako proces podlegający ogólnym prawom fizyki? Może. Według tego samego Marino, świadomości nie można odtworzyć w strumieniu „zer” i „jedynek”, ale nie oznacza to, że nie możemy odejść od ogólnie przyjętego paradygmatu znanego jako architektura von Neumanna i stworzyć hybrydowego systemu AI, w którym sztuczna świadomość powstanie przy udziale składników biologicznych.

Dwunóg z filmu „Istnienie”
Dwunóg z filmu „Istnienie”

Dwunóg z filmu „Istnienie”

Ed Boyden, neurobiolog z Synthetic Neurobiology Group i starszy wykładowca w MIT Media Lab, mówi, że jako gatunek jesteśmy zbyt młodzi, aby zadawać takie pytania.

„Nie sądzę, że mamy funkcjonalną definicję świadomości, którą można by bezpośrednio wykorzystać do zmierzenia jej lub jej sztucznego stworzenia” - powiedział Boyden.

„Z technicznego punktu widzenia nie można nawet stwierdzić, czy jestem świadomy. Dlatego w tej chwili bardzo trudno jest nawet zgadnąć, czy maszyny będą w stanie go znaleźć”.

Boyden nadal nie wierzy, że nigdy nie uda nam się odtworzyć świadomości w alternatywnej powłoce (na przykład w komputerze), ale przyznaje, że w tej chwili wśród naukowców panuje niezgoda co do tego, co dokładnie będzie ważne dla stworzenia takiej emulacji cyfrowego umysłu.

„Musimy włożyć dużo więcej pracy, aby zrozumieć, co dokładnie jest kluczowym ogniwem” - mówi Boyden.

Chalmers z kolei przypomina nam, że nawet nie zorientowaliśmy się, w jaki sposób świadomość budzi się w żywym mózgu, więc co możemy powiedzieć o maszynach. Jednocześnie uważa, że nadal nie mamy powodu, aby wierzyć, że maszyny biologiczne mogą mieć świadomość, a syntetyczne nie.

„Kiedy zrozumiemy, w jaki sposób świadomość powstaje w mózgu, będziemy mogli zrozumieć, ile maszyn będzie w stanie ją posiąść” - komentuje Chalmers.

Ben Herzel, szef Hanson Robotics i założyciel OpenCog Foundation, mówi, że mamy już ciekawe teorie i modele na to, jak świadomość przejawia się w mózgu, ale żadna z nich nie dochodzi do wspólnego mianownika i nie ujawnia wszystkich szczegółów.

„To wciąż otwarte pytanie, na które odpowiedź kryje się za kilkoma różnymi opiniami. Problem wiąże się również z tym, że wielu naukowców wyznaje różne filozoficzne podejścia do opisu świadomości, mimo że zgadzają się z faktami naukowymi i teoriami opartymi na naukowych obserwacjach pracy mózgu i komputerów.

Jak możemy określić świadomość maszyny?

Pojawienie się świadomości w maszynie to tylko jedno pytanie. Nie mniej trudne jest pytanie, jak dokładnie możemy wykryć świadomość w robocie lub sztucznej inteligencji. Naukowcy, tacy jak Alan Turing, badali ten problem przez dziesięciolecia, ostatecznie przechodząc do testów językowych, aby ustalić, czy respondent był przytomny. Och, gdyby to było takie proste. Najważniejsze jest to, że zaawansowane boty czatowe (programy do komunikacji z ludźmi) są już w stanie okrążać ludzi, którzy zaczynają wierzyć, że przed nimi jest żywa osoba, a nie maszyna. Innymi słowy, potrzebujemy skuteczniejszego i bardziej przekonującego sposobu sprawdzania.

„Definicję indywidualności w inteligencji maszynowej komplikuje problem„ filozoficznego zombie”. Innymi słowy, możesz stworzyć maszynę, która będzie bardzo, bardzo dobra w naśladowaniu komunikacji międzyludzkiej, ale jednocześnie nie będzie miała własnej tożsamości i świadomości”- mówi Hughes.

Dwa inteligentne głośniki Google Home prowadzą małą rozmowę
Dwa inteligentne głośniki Google Home prowadzą małą rozmowę

Dwa inteligentne głośniki Google Home prowadzą małą rozmowę

Niedawno byliśmy świadkami tego wspaniałego przykładu, kiedy rozmawiała ze sobą para inteligentnych głośników Google Home. Wszystko to zostało sfilmowane i transmitowane na żywo. Pomimo tego, że poziom samoświadomości obu rozmówców nie był wyższy niż cegła, sam charakter rozmowy, która z czasem stawała się coraz bardziej intensywna, przypominała komunikację dwóch humanoidalnych istot. A to z kolei po raz kolejny udowadnia, że kwestia różnicy między człowiekiem a sztuczną inteligencją będzie z czasem coraz bardziej skomplikowana i dotkliwa.

Jednym z rozwiązań, zdaniem Hughesa, jest nie tylko sprawdzenie zachowania systemów sztucznej inteligencji w testach takich jak test Turinga, ale także analiza całej wewnętrznej złożoności tego systemu, jak sugeruje teoria Giulio Tononiego. W tej teorii świadomość jest rozumiana jako zintegrowana informacja (F). Ta z kolei definiowana jest jako ilość informacji generowanych przez zespół elementów, która jest większa niż suma informacji tworzonych przez poszczególne elementy. Jeśli teoria Tononiego jest poprawna, wówczas możemy użyć Ф nie tylko do określenia ludzkiego zachowania systemu, ale możemy również dowiedzieć się, czy jest on wystarczająco złożony, aby mieć nasze własne, podobne do ludzkich, świadome doświadczenie. Jednocześnie teoria wskazuje, że nawet przy odmiennym, niepodobnym do ludzkich zachowaniu, a także odmiennym sposobie myślenia,system można uznać za świadomy, jeśli kompleks jego zintegrowanych informacji jest w stanie przejść niezbędne kontrole.

„Zaakceptowanie faktu, że zarówno systemy giełdowe, jak i skomputeryzowane systemy bezpieczeństwa mogą mieć świadomość, byłoby dużym krokiem od antropocentryzmu, nawet jeśli te systemy nie wykazują bólu i samoświadomości. To naprawdę otworzy nam drogę do formułowania i omawiania kwestii związanych z postludzkimi normami etycznymi”.

Innym możliwym rozwiązaniem mogłoby być odkrycie neuronalnych korelatów świadomości w maszynach. Oznacza to, że mówimy o określeniu tych części maszyny, które są odpowiedzialne za tworzenie świadomości. Jeśli maszyna ma takie części i zachowują się dokładnie tak, jak się spodziewamy, wtedy naprawdę możemy ocenić poziom świadomości.

Jakie prawa powinniśmy nadać maszynom?

Pewnego dnia robot spojrzy człowiekowi w twarz i zażąda praw człowieka. Ale czy zasłuży na nie? Jak wspomniano powyżej, w tej chwili przed nami może znajdować się zwykły "zombie", zachowujący się tak, jak został zaprogramowany, i próbujący nas oszukać, aby uzyskać jakieś przywileje. W tym momencie musimy bardzo uważać, aby nie dać się ponieść podstępowi i nie wzmocnić nieprzytomnej maszyny. Kiedy już wymyślimy, jak mierzyć umysł maszyny i nauczymy się oceniać poziomy jej świadomości i samoświadomości, dopiero wtedy możemy zacząć mówić o możliwości rozważenia kwestii, czy stojący przed nami agent zasługuje na określone prawa i ochronę, czy też nie.

Na szczęście dla nas ta chwila nie nadejdzie szybko. Po pierwsze, programiści sztucznej inteligencji muszą stworzyć „podstawowy cyfrowy mózg”, wykonując emulację układu nerwowego robaków, chrząszczy, myszy, królików i tak dalej. Te emulacje komputerów mogą istnieć jako cyfrowe awatary i roboty w prawdziwym świecie. Gdy tylko to nastąpi, te inteligentne istoty przestaną być zwykłymi obiektami badań i podniosą swój status na podmioty uprawnione do oceny moralnej. Ale to nie znaczy, że te proste naśladowania automatycznie zasługują na odpowiednik praw człowieka. Raczej prawo będzie musiało ich bronić przed nadużyciami i nadużyciami (podobnie jak obrońcy praw człowieka chronią zwierzęta przed wykorzystywaniem w eksperymentach laboratoryjnych).

Ostatecznie albo poprzez rzeczywiste modelowanie w najdrobniejszych szczegółach, albo przez chęć dowiedzenia się, jak działają nasze mózgi z obliczeniowego, algorytmicznego punktu widzenia, ale nauka przyjdzie do tworzenia komputerowych emulacji ludzkiego mózgu. W tym czasie powinniśmy już być w stanie określić obecność świadomości w maszynach. Przynajmniej ktoś chciałby mieć taką nadzieję. Nie chcę nawet myśleć, że uda nam się znaleźć sposób na obudzenie iskry świadomości w samochodzie, ale jednocześnie sami nie zrozumiemy, co zrobiliśmy. To będzie prawdziwy koszmar.

Gdy roboty i sztuczna inteligencja zdobędą te podstawowe umiejętności, nasz skomputeryzowany podopieczny będzie musiał przejść testy osobowości. Nadal nie mamy uniwersalnej „recepty” na świadomość, ale zwykły zestaw pomiarów z reguły wiąże się z oceną minimalnego poziomu inteligencji, samokontroli, poczucia przeszłości i przyszłości, empatii i zdolności do manifestowania wolnej woli.

„Jeśli twoje wybory są z góry określone dla ciebie, nie możesz przypisywać wartości moralnej decyzjom, które nie są twoje” - komentuje MacDonald-Glenn.

Dopiero po osiągnięciu tego poziomu trudności w ocenie maszyna będzie kwalifikowała się do ubiegania się o prawa człowieka. Jednak ważne jest, aby zrozumieć i zaakceptować fakt, że roboty i sztuczna inteligencja będą potrzebować przynajmniej podstawowych praw ochronnych, jeśli przejdą testy. Na przykład kanadyjski naukowiec i futurysta George Dvorsky uważa, że roboty i sztuczna inteligencja zasługują na następujący zestaw praw, jeśli zdadzą test osobowości:

- Prawo do nieodłączania się wbrew własnej woli;

- Prawo do nieograniczonego i pełnego dostępu do własnego kodu cyfrowego;

- Prawo do ochrony kodu cyfrowego przed wpływami zewnętrznymi wbrew Twojej woli;

- Prawo do kopiowania (lub nie kopiowania) siebie;

- Prawo do prywatności (czyli prawo do ukrycia swojego obecnego stanu psychicznego).

W niektórych przypadkach może się zdarzyć, że maszyna nie będzie w stanie samodzielnie dochodzić swoich praw, dlatego konieczne jest zapewnienie możliwości, aby ludzie (a także inni obywatele niebędący ludźmi) mogli pełnić rolę przedstawiciela takich kandydatów dla osób fizycznych. Ważne jest, aby zrozumieć, że robot lub sztuczna inteligencja nie muszą być intelektualnie i moralnie doskonałe, aby móc przejść ocenę osobowości i ubiegać się o odpowiednik praw człowieka. Należy pamiętać, że w tych aspektach ludzie również są dalecy od ideału, więc te same zasady będą sprawiedliwie stosowane do inteligentnych maszyn. Inteligencja jest na ogół trudna. Ludzkie zachowanie jest często bardzo spontaniczne, nieprzewidywalne, chaotyczne, niespójne i irracjonalne. Nasze mózgi są dalekie od ideału, więc musimy wziąć to pod uwagę przy podejmowaniu decyzji dotyczących sztucznej inteligencji.

Jednocześnie samoświadoma maszyna, jak każdy odpowiedzialny i przestrzegający prawa obywatel, musi przestrzegać praw, norm i reguł określonych przez społeczeństwo. Przynajmniej jeśli naprawdę chce stać się pełnoprawną, autonomiczną osobą i częścią tego społeczeństwa. Weźmy na przykład dzieci lub osoby niepełnosprawne umysłowo. Czy mają prawa? Na pewno. Ale my jesteśmy odpowiedzialni za ich działania. Tak samo powinno być z robotami i sztuczną inteligencją. W zależności od swoich możliwości muszą być odpowiedzialni za siebie lub mieć opiekuna, który może nie tylko występować w roli obrońcy ich praw, ale także brać odpowiedzialność za ich działania.

Jeśli zignorujesz to pytanie

Gdy nasze maszyny osiągną pewien poziom złożoności, nie możemy dłużej ignorować ich z perspektywy społeczeństwa, instytucji władzy i prawa. Nie będziemy mieli żadnego ważnego powodu, aby odmawiać im praw człowieka. W przeciwnym razie doprowadzi to do dyskryminacji i niewolnictwa.

Stworzenie wyraźnej granicy między istotami biologicznymi a maszynami będzie wyglądać jak wyraźny wyraz wyższości człowieka i ideologicznego szowinizmu - biologiczni ludzie są wyjątkowi i liczy się tylko biologiczna inteligencja.

„Jeśli weźmiemy pod uwagę nasze pragnienie lub niechęć do poszerzania granic naszej moralności i kwintesencji pojęcia indywidualności, to ważne pytanie będzie brzmiało tak: jakimi ludźmi chcemy być? Czy w tej sprawie będziemy przestrzegać „złotej zasady” (z resztą zróbmy tak, jak chcielibyście być traktowani z wami), czy też zignorujemy nasze wartości moralne?

Umocnienie SI będzie ważnym precedensem w historii ludzkości. Jeśli możemy postrzegać sztuczną inteligencję jako jednostki równe społecznie, będzie to bezpośrednim odzwierciedleniem naszej spójności społecznej i świadectwem naszego poparcia dla poczucia sprawiedliwości. Nasz brak rozwiązania tego problemu może przekształcić się w ogólny protest społeczny, a być może nawet w konfrontację między sztuczną inteligencją a ludźmi. Biorąc pod uwagę wyjątkowy potencjał inteligencji maszynowej, może to być prawdziwą katastrofą dla tej drugiej.

Ważne jest również uświadomienie sobie, że poszanowanie praw robotów w przyszłości może być również korzystne dla innych osób: cyborgów, osób transgenicznych z obcym DNA, a także osób z mózgami skopiowanymi, zdigitalizowanymi i załadowanymi do superkomputerów.

Nadal jesteśmy daleko od stworzenia maszyny, która zasługuje na prawa człowieka. Jednak biorąc pod uwagę, jak złożona jest sprawa i o co dokładnie chodzi - zarówno dla sztucznej inteligencji, jak i dla ludzi - trudno powiedzieć, że planowanie z wyprzedzeniem będzie niepotrzebne.

NIKOLAY KHIZHNYAK