Wojsko USA Sformułowało Zasady Etyczne Dotyczące Korzystania Ze Sztucznej Inteligencji - Alternatywny Widok

Wojsko USA Sformułowało Zasady Etyczne Dotyczące Korzystania Ze Sztucznej Inteligencji - Alternatywny Widok
Wojsko USA Sformułowało Zasady Etyczne Dotyczące Korzystania Ze Sztucznej Inteligencji - Alternatywny Widok

Wideo: Wojsko USA Sformułowało Zasady Etyczne Dotyczące Korzystania Ze Sztucznej Inteligencji - Alternatywny Widok

Wideo: Wojsko USA Sformułowało Zasady Etyczne Dotyczące Korzystania Ze Sztucznej Inteligencji - Alternatywny Widok
Wideo: Sztuczna inteligencja a etyka – czy da się je pogodzić? Agata Foryciarz, A. Kołodziej 2024, Może
Anonim

Departament Obrony USA sformułował i przyjął zasady etyczne, kierując się, jakimi będą opracowywane i stosowane wojskowe systemy sztucznej inteligencji w kraju. Według Pentagonu, przy formułowaniu zasad wojsko kierowało się Konstytucją Stanów Zjednoczonych, dziesiątym rozdziałem Kodeksu Stanów Zjednoczonych (opisuje rolę sił zbrojnych), prawami i zwyczajami wojennymi, a także traktatami międzynarodowymi oraz „ugruntowanymi normami i wartościami”.

Aktywny rozwój w dziedzinie tworzenia systemów sztucznej inteligencji doprowadził do tego, że systemy te stopniowo zaczynają być wprowadzane do uzbrojenia i sprzętu wojskowego. W szczególności opracowywane są systemy, które umożliwiają dronom automatyczne wykrywanie celów i nadawanie im priorytetów, lub dronom pełnienie funkcji niewolników załogowych statków powietrznych. Opracowywane są również systemy sztucznej inteligencji zdolne do deszyfrowania transmisji radiowych. Sztuczna inteligencja będzie zyskiwać na znaczeniu w przyszłym rozwoju wojskowym.

Aktywne wprowadzanie systemów sztucznej inteligencji do broni i sprzętu wojskowego rodzi wiele pytań etycznych. W szczególności nie jest jeszcze jasne, na ile zasadne jest użycie autonomicznych systemów uzbrojenia podczas wojny i jakie zagrożenie stanowią one dla ludności cywilnej uwięzionej w strefie walk.

W sumie Pentagon sformułował pięć zasad etycznych wykorzystania systemów sztucznej inteligencji do celów wojskowych:

  • Odpowiedzialność. Personel wojskowy musi oceniać działania sztucznej inteligencji z należytą starannością, pozostając w pełni odpowiedzialnym za projektowanie, rozmieszczanie i użytkowanie systemów sztucznej inteligencji.
  • Bezstronność. Departament Obrony USA musi podjąć kroki, aby zminimalizować niepożądane odchylenia w możliwościach systemów sztucznej inteligencji.
  • Identyfikowalność. Wojskowe systemy sztucznej inteligencji i ich możliwości muszą być zaprojektowane i rozmieszczone w taki sposób, aby personel miał odpowiedni poziom zrozumienia technologii, procesów rozwojowych i zastosowań. Metodologie, dane i dokumentacja związane z wykorzystywanymi systemami sztucznej inteligencji powinny być dostępne dla personelu wojskowego.
  • Niezawodność. Możliwości wojskowych systemów sztucznej inteligencji muszą być jednoznaczne i jasno sformułowane. Bezpieczeństwo i skuteczność takich możliwości należy zweryfikować poprzez testy i walidację przez cały okres ich użytkowania.
  • Podporządkowanie. Wojskowe systemy SI muszą w pełni wykonywać swoje zamierzone zadania, ale wojsko musi być w stanie wykrywać i zapobiegać niepożądanym skutkom sztucznej inteligencji. Wojsko powinno również mieć możliwość wyłączania lub wyłączania systemów sztucznej inteligencji, w których występują nieprawidłowości.

Pentagon wyznaczył również Wspólne Centrum Sztucznej Inteligencji, które będzie odpowiedzialne za wdrażanie zasad wykorzystania systemów sztucznej inteligencji. Łącznie Departament Obrony USA spędził 15 miesięcy na konsultacjach z programistami i organizacjami naukowymi oraz formułowaniu zasad korzystania z systemów sztucznej inteligencji. Jednocześnie niektórzy eksperci zwracali uwagę na niejasność przyjętych sformułowań i brak jasnego zbioru reguł, co wojsko powinno, a czego nie powinno robić przy opracowywaniu i stosowaniu systemów sztucznej inteligencji.

Wasilij Sychev