„Tworzenie Zabójczych Robotów To Bardzo, Bardzo Zły Pomysł” - Alternatywny Widok

Spisu treści:

„Tworzenie Zabójczych Robotów To Bardzo, Bardzo Zły Pomysł” - Alternatywny Widok
„Tworzenie Zabójczych Robotów To Bardzo, Bardzo Zły Pomysł” - Alternatywny Widok
Anonim

Firma Clearpath Robotics została założona sześć lat temu przez trzech przyjaciół ze studiów, których łączy pasja tworzenia różnych rzeczy. 80 specjalistów z firmy testuje roboty terenowe, takie jak Husky, czterokołowy robot używany przez Departament Obrony USA.

Ochrypły

Image
Image

Robią też drony, a nawet zbudowali robotyczną łódź Kingfisher. Jednak nigdy nie zbudują jednego: robota, który może zabić.

Clearpath jest pierwszą i jak dotąd jedyną firmą zajmującą się robotami, która zobowiązała się nie budować robotów-zabójców. Decyzja została podjęta w zeszłym roku przez współzałożyciela i dyrektora ds. Technicznych Ryana Garipaya, a nawet sprowadzili ekspertów, którym podobała się wyjątkowa etyczna pozycja firmy Clearpath.

Ostatnio na pierwszy plan wysunęła się etyka firm zajmujących się robotami. Widzisz, stoimy jedną nogą w przyszłości, w której będą istnieć zabójcze roboty. A my nie jesteśmy jeszcze na to całkowicie gotowi.

Oczywiście przed nami jeszcze długa droga. Na przykład koreański Dodam Systems buduje autonomiczną wieżyczkę robotyczną o nazwie Super aEgis II. Wykorzystuje kamery termowizyjne i dalmierze laserowe do identyfikacji i atakowania celów w odległości do 3 kilometrów. Stany Zjednoczone podobno eksperymentują również z autonomicznymi systemami rakietowymi.

Film promocyjny:

Dwa kroki od „terminatorów”

Wojskowe drony, takie jak Predator, są obecnie obsługiwane przez człowieka, ale Garipai twierdzi, że wkrótce będą w pełni automatyczne i autonomiczne. I to go martwi. Bardzo. „Śmiertelne autonomiczne systemy uzbrojenia mogą teraz zjechać z linii montażowej. Ale śmiercionośne systemy broni, które zostaną wykonane zgodnie z normami etycznymi, nie są nawet w planach”.

Image
Image

Dla Garipay problem tkwi w prawach międzynarodowych. Na wojnie zawsze zdarzają się sytuacje, w których użycie siły wydaje się konieczne, ale może też zagrozić niewinnym osobom postronnym. Jak tworzysz zabójcze roboty, które podejmą właściwe decyzje w każdej sytuacji? Jak możemy sami ustalić, jaka powinna być właściwa decyzja?

Podobne problemy widzimy już na przykładzie transportu autonomicznego. Powiedzmy, że przez ulicę przebiega pies. Czy samochód-robot powinien skręcić, aby uniknąć uderzenia psa, ale narazić pasażerów na ryzyko? A jeśli to nie jest pies, ale dziecko? Albo autobus? Teraz wyobraź sobie strefę wojny.

„Nie możemy uzgodnić, jak napisać instrukcję dla takiego samochodu” - mówi Garipay. „A teraz chcemy również przejść do systemu, który musi samodzielnie decydować, czy użyć śmiercionośnej siły, czy nie”.

Rób fajne rzeczy, nie broń

Peter Asaro spędził ostatnie kilka lat na lobbowaniu za zakazem zabójczych robotów w społeczności międzynarodowej jako założyciel Międzynarodowego Komitetu Kontroli Armii Robotów. Uważa, że nadszedł czas na „wyraźny międzynarodowy zakaz ich opracowywania i stosowania”. Pozwoli to firmom takim jak Clearpath na dalsze robienie fajnych rzeczy, powiedział, „bez obawy, że ich produkty mogą zostać wykorzystane do naruszania praw człowieka i zagrażania cywilom”.

Pociski autonomiczne są interesujące dla wojska, ponieważ rozwiązują problem taktyczny. Na przykład, gdy zdalnie sterowane drony działają w warunkach bojowych, nierzadko wróg zacina czujniki lub połączenie sieciowe, aby operator nie mógł zobaczyć, co się dzieje, ani sterować dronem.

Garipai mówi, że zamiast opracowywać pociski lub drony, które mogą samodzielnie decydować, który cel zaatakować, wojsko musi wydać pieniądze na ulepszenie czujników i technologii zagłuszania.

„Dlaczego nie zainwestujemy w budowę autonomicznych robotów zabójców, których ludzie chcieliby dokonać, i nie zainwestujemy w zwiększenie wydajności istniejącej technologii? on mówi. „Jeśli postawimy wyzwanie i pokonamy tę barierę, możemy sprawić, by ta technologia przyniosła korzyści ludziom, a nie tylko wojsku”.

Ostatnio mówi się też więcej o zagrożeniach związanych ze sztuczną inteligencją. Elon Musk martwi się, że wymykająca się spod kontroli sztuczna inteligencja może zniszczyć życie, jakie znamy. Musk przekazał w zeszłym miesiącu 10 milionów dolarów na badania nad sztuczną inteligencją.

Jednym z ważnych pytań dotyczących tego, jak sztuczna inteligencja wpłynie na nasz świat, jest to, jak połączy się ona z robotyką. Niektórzy, jak Andrew Ng, badacz Baidu, obawiają się, że nadchodząca rewolucja w dziedzinie sztucznej inteligencji zajmie ludziom pracę. Inni, jak Garipay, obawiają się, że może to odebrać życie.

Garipay ma nadzieję, że jego koledzy, naukowcy i konstruktorzy maszyn przemyślą to, co robią. Dlatego firma Clearpath Robotics stanęła po stronie ludzi. „Chociaż jako firma nie możemy postawić na to 10 milionów dolarów, możemy postawić na naszą reputację”.