Prezes firmy Microsoft, Brad Smith, powiedział, że użycie autonomicznych systemów broni bojowej stwarza szereg problemów etycznych, którymi rządy muszą jak najszybciej zająć się.
Powiedział, że szybko rozwijające się technologie, w których latające, pływające lub chodzące drony mogą być wyposażone w śmiercionośną broń - pociski, bomby lub broń strzelecką i są zaprogramowane do działania w pełni lub częściowo autonomicznie, „skończą się… w wielu krajach”.
Stany Zjednoczone, Chiny, Izrael, Korea Południowa, Rosja i Wielka Brytania opracowują systemy uzbrojenia o znacznym stopniu autonomii, z kluczową funkcją polegającą na wyborze celu ataku.
Nie jest jasne, kto jest odpowiedzialny za śmierć lub obrażenia spowodowane przez maszynę - programista, producent, dowódca lub sama maszyna.
Smith mówi, że roboty „nie powinny same decydować, czy zaangażować się w walkę, a kogo zniszczyć” i argumentuje, że należy opracować międzynarodową konwencję regulującą użycie technologii autonomicznej walki.
Rozwój technologii autonomicznych systemów walki jest coraz bardziej przeciwny rosnącej niechęci społecznej. Tysiące pracowników Google podpisało zobowiązanie, że nie będą opracowywać sztucznej inteligencji do wykorzystania w systemach uzbrojenia.
W ciągu ostatniego roku globalna kampania Stop Killer Robots podwoiła się i obejmuje obecnie 113 organizacji pozarządowych w 57 krajach.