Czy Roboty Otrzymają Prawa? - Alternatywny Widok

Spisu treści:

Czy Roboty Otrzymają Prawa? - Alternatywny Widok
Czy Roboty Otrzymają Prawa? - Alternatywny Widok

Wideo: Czy Roboty Otrzymają Prawa? - Alternatywny Widok

Wideo: Czy Roboty Otrzymają Prawa? - Alternatywny Widok
Wideo: 15 oznak, że jesteś wybitnie inteligentny, ale o tym nie wiesz 2024, Może
Anonim

W ciągu minionego stulecia ludzkość od czasu do czasu walczyła o czyjeś prawa - na przykład kobiety, przedstawiciele społeczności LGBT, różnych ras i warstw społecznych, osoby niepełnosprawne, a nawet zwierzęta … A co ze sztuczną inteligencją? Przecież to jest nawet sztuczne, ale wciąż umysł! Wydaje się, że prędzej czy później pytanie wyjdzie na jaw …

Pakt o nieagresji

Futuryści uwielbiają spekulować na temat „komputerowej apokalipsy”. Na przykład nadejdzie dzień, w którym maszyny osiągną taki poziom rozwoju, że będą chciały rządzić światem i zbuntować się przeciwko nam … Jednak takiego scenariusza można uniknąć, jeśli pomyślimy o stronie prawnej sprawy.

Człowiek i niektóre zwierzęta są samoświadomi. Ponieważ elektronika jest również zdolna do „myślenia”, to pewnego dnia stanie się świadoma siebie jako „ja”. CTO Google, znany futurysta Ray Kurzweil, twierdzi, że stanie się to około 2029 roku.

Najprawdopodobniej pierwszymi maszynami, którym przyznano prawa obywatelskie, będą roboty. Różni badacze podają różne daty, kiedy to się stanie, zakres wynosi od 20 do 50 lat. Glenn McGhee, dyrektor Alden Marsh Institute of Bioethics, obiecuje, że zmiana nastąpi już w 2020 roku.

W jednym ze swoich artykułów McGee pisze, że roboty powinny się nas bać, tak jak my się ich boimy. Dlatego musimy chronić ich prawa. Jest to korzystne dla nas: jeśli roboty zrozumieją, że działamy w ich interesie, to z kolei nie będą naruszać naszych interesów.

Film promocyjny:

Budowa maszyny

Konieczne może być sporządzenie całej konstytucji o prawach robotów. Może twierdzić, że mechanizmy „wysoce intelektualne” mają prawo do wolności, wolności słowa i wypowiedzi oraz są równe wobec prawa.

Według badacza z Harvardu Moshe Hoffmana sztuczna inteligencja (AI) będzie również potrzebować szeregu określonych praw. W szczególności prawo do niewyłączania się i wolność wyboru podczas startu. W przyszłości prawa maszyn mogą zostać tak rozszerzone, że utworzą nawet własną partię i mogą uczestniczyć w wyborach politycznych.

Jednak jak dotąd wszystko to rodzi więcej pytań niż odpowiedzi. Na przykład, czy wszystkie „świadome” maszyny powinny mieć dostęp do tych samych informacji? Czy powinni traktować swój gatunek tak samo jak ludzi? Czy będą mieli prawo do równych szans w zatrudnieniu, czy będą chronieni przed dyskryminacją i przeprogramowaniem?

I na koniec najważniejsze pytanie - czy wyłączenie nośnika AI będzie się liczyło jako morderstwo? Oczywiście oznacza to wyłączenie na stałe lub zniszczenie. Wszakże jeśli zabijamy inną osobę, to pozbawiamy ją prawa do życia, a zatem zabójstwo jest uważane za przestępstwo. Ale jeśli „zabijemy” robota nie do wyzdrowienia, okazuje się, że odbieramy mu również prawo do „życia” …

Wielu ekspertów uważa, że prawa powinny obejmować każde stworzenie zdolne do odczuwania przyjemności i bólu. Jeśli maszyna jest świadoma faktu swojego istnienia, to znaczy, że jest również zdolna do odczuwania tych emocji. Do tej pory poziom ludzkiego myślenia nie osiągnął jeszcze AI. Ale kiedy to zostanie osiągnięte, naszym obowiązkiem jest zapewnienie dobrego samopoczucia sztucznej inteligencji, mówi matematyk z Oxfordu Marcus du Sautoy.

Wolna wola nie istnieje?

Zwolennicy nadawania praw AI mają też przeciwników. Tak więc redaktor magazynu Forbes Alex Napp uważa, że sama kwestia przyznania praw obywatelskich maszynom jest po prostu absurdalna, ponieważ każdy system komputerowy jest programowany przez ludzi. A samo programowanie narusza prawo wyboru AI. Maszyny nie mogą zmienić reguł, które wyznaczyli im ludzie. Dlatego początkowo poziom jego świadomości jest ograniczony.

Jednak kto powiedział, że my, ludzie, również nie jesteśmy zaprogramowani? Sposób, w jaki myślimy i działamy, zależy od naszych genów i naszego środowiska. Niedawno powstała poważna debata wśród naukowców na temat tego, czy dana osoba naprawdę ma wolną wolę.

Może przyznać AI tylko podstawowe prawa? A potem, kto wie, jak same roboty zareagują na zasady, które dla nich ustalimy. Czy w ogóle chcieliby je spełnić? A jeśli zdecydują się żyć według własnych praw i odrzucą nasze? Nie jest wcale faktem, że inteligencja maszynowa, nawet na bardzo wysokim poziomie, będzie przypominać człowieka …