Nadchodzą Roboty Bojowe! - Alternatywny Widok

Nadchodzą Roboty Bojowe! - Alternatywny Widok
Nadchodzą Roboty Bojowe! - Alternatywny Widok

Wideo: Nadchodzą Roboty Bojowe! - Alternatywny Widok

Wideo: Nadchodzą Roboty Bojowe! - Alternatywny Widok
Wideo: Видео про игрушки роботы поезда. У Робота поезда Кея отказали тормоза -он падает! @Игрушки Gulliver 2024, Może
Anonim

Prawdziwe roboty zabójcze, nieustannie wykonujące swoje zadanie i niewymagające nadzoru człowieka, mogą pojawić się na służbie w armiach świata za rok - mówią eksperci. Przewidując niebezpieczeństwo, eksperci dyskutują, czy zabójcze roboty i ich użycie na polu bitwy powinny być z góry zakazane.

Image
Image

Roboty-zabójcy mogą być w służbie żołnierzy za rok, jeśli ONZ nie podejmie z wyprzedzeniem środków w celu ograniczenia ich użycia, mówi Noel Sharkey, profesor z Sheffield University. Jego zdaniem te maszyny nieuchronnie spowodują masową śmierć niewinnych ludzi, ponieważ nie mogą odróżnić wojskowego od cywilnego niewalczącego. Jego oświadczenie pojawiło się właśnie w czasie, gdy społeczność ekspertów ze 120 krajów dyskutuje w Genewie na temat potencjalnych zagrożeń związanych z działaniem autonomicznych systemów uzbrojenia. Profesor Sharkey uważa: jest mało dyskusji, pilne jest przyjęcie dokumentu o ograniczeniu produkcji robotów! W przeciwnym razie rok później roboty dosłownie zaleją armie krajów rozwiniętych.

Image
Image

Obecnie w Genewie przedstawiciele ponad 90 krajów świata dyskutują o niebezpieczeństwie wynikającym z „śmiercionośnych autonomicznych systemów uzbrojenia”. Jedną z ważnych kwestii do dyskusji jest to, jak zapewnić bezpieczeństwo ich użycia w sytuacji bojowej? Wielu ekspertów, w tym profesor Sharkey, upiera się przy tym, że pomimo autonomii systemów, człowiek musi stale mieć możliwość „zasadniczej kontroli” nad nimi - dla bezpieczeństwa ludzkości. „Robot nadal nie jest w stanie podejmować decyzji jak człowiek” - mówi profesor Sharkey. - Nie jest do końca zdolny. rozumieć logikę działań wojennych, może nie odróżniać sojusznika od wroga i decydować o dopuszczalności pewnych działań. „Nie możemy pozwolić robotowi zdecydować, czy na przykład życie Osamy bin Ladena jest tego warte, tak aby 50 starych kobiet i 20 dzieci umarło razem z nim,Mówi Sharkey. - Robota to nie obchodzi. Podstawowe decyzje, na przykład o wyborze celu, musi podjąć osoba”. Zdaniem profesora Sharkeya, jeśli takie decyzje pozostawią robotom, „konsekwencje ich użycia będą nie mniej druzgocące niż użycie broni chemicznej”.

Image
Image

Profesor Sharkey jest jednym z 57 ekspertów, którzy podpisali list otwarty skierowany do Uniwersytetu Korei Południowej, w którym eksperci protestują przeciwko programowi rozwoju inteligentnej broni. Koreański Instytut Nauki i Zaawansowanych Technologii Kaist uruchamia obecnie ten program wraz z producentem sprzętu wojskowego Hanwa Systems, a wiadomość ta wstrząsnęła społecznością naukową. „Uniwersytet, instytucja naukowa, nie może tego zrobić z moralnego punktu widzenia” - mówi profesor Sharkey, z którym w pełni zgadzają się pozostali sygnatariusze.

Według ekspertów automatyczne roboty-zabójcy otworzą Puszkę Pandory, zrewolucjonizując sposób prowadzenia wojny.

Film promocyjny:

Przedstawiciele Instytutu Kaist odpowiedzieli już na list otwarty, zapewniając kolegów, że nie planują tworzenia droidów w stylu Skynet.

Image
Image

Przedstawiciele Keist Institute zapewniali kolegów, że jako instytucja akademicka „wysoko cenią sobie uniwersalne standardy etyki i moralności” i nie zamierzają rozwijać robotycznych żołnierzy działających poza ludzką kontrolą. Do tej pory Kaist Institute prowadzi badania tylko w tej dziedzinie. W tej sprawie autorzy listu otwartego uspokoili się i nie bojkotowali swoich kolegów. Jednak kwestia, czy ludzkość będzie w stanie uzgodnić ogólne zasady całkowitej kontroli nad działaniami robotów bojowych, pozostaje otwarta. Tymczasem dzisiaj w teorii nie ma to bynajmniej znaczenia. Dziś wysoce funkcjonalne roboty to już tak złożone mechanizmy, że nawet specjaliści nie do końca rozumieją, jak działa ich sztuczna inteligencja. Bez pełnego zrozumienia tego nie są w stanie przewidziećkiedy dokładnie może zawieść. „Jeśli ludzkość ma zostać zniszczona, to najprawdopodobniej sztuczna inteligencja odegra w tym procesie znaczącą rolę” - mówi jeden z uczestników konferencji w Genewie. Według Elona Muska sztuczna inteligencja niesie dziś ze sobą więcej zagrożeń dla ludzkości niż Korea Północna. Musk jest przekonany, że roboty muszą znajdować się pod stałą, ścisłą kontrolą ludzi i wielokrotnie apelował do rządów różnych krajów o opracowanie jasnych zasad kontroli systemów ze sztuczną inteligencją.niż Korea Północna. Musk jest przekonany, że roboty powinny znajdować się pod stałą ścisłą kontrolą ludzi i wielokrotnie apelował do rządów różnych krajów o opracowanie jasnych zasad kontroli systemów ze sztuczną inteligencją.niż Korea Północna. Musk jest przekonany, że roboty muszą znajdować się pod stałą, ścisłą kontrolą ludzi i wielokrotnie apelował do rządów różnych krajów o opracowanie jasnych zasad kontroli systemów ze sztuczną inteligencją.

Varvara Lyutova