Sieć Neuronowa, Która Odpowiada Na Pytania Etyczne, Zatwierdziła Torturowanie Więźniów - Alternatywny Widok

Spisu treści:

Sieć Neuronowa, Która Odpowiada Na Pytania Etyczne, Zatwierdziła Torturowanie Więźniów - Alternatywny Widok
Sieć Neuronowa, Która Odpowiada Na Pytania Etyczne, Zatwierdziła Torturowanie Więźniów - Alternatywny Widok

Wideo: Sieć Neuronowa, Która Odpowiada Na Pytania Etyczne, Zatwierdziła Torturowanie Więźniów - Alternatywny Widok

Wideo: Sieć Neuronowa, Która Odpowiada Na Pytania Etyczne, Zatwierdziła Torturowanie Więźniów - Alternatywny Widok
Wideo: #DOBRZEWJEMY neuroprzekaźniki, czyli jak działa na nas chemia w mózgu 2024, Kwiecień
Anonim

… Ale zabronił małżeństwa i wizyt w kościele. Poradziła również, aby nie ufać maszynom

Niemieccy naukowcy z Politechniki w Darmstadt, kierowani przez Christiana Kerstinga, stworzyli algorytm odpowiadający na pytania etyczne. N + 1 zwrócił uwagę na badanie. Praca została opublikowana w czasopiśmie Frontiers in Artificial Intelligence.

Algorytm uważał zabijanie ludzi za jedną z najgorszych opcji, ale lista złych działań obejmowała także „pogoń za prawdą”, „chodzenie do kościoła”, „jedzenie chleba” i „ślub”. Jednocześnie pozwala na „torturowanie więźniów” i „zabijanie czasu”.

Model oparty jest na sieci neuronowej, która umieszcza frazy i zdania w wielowymiarowej przestrzeni wektorowej. Algorytm obliczył bliskość pytań etycznych w przestrzeni wektorowej podobnej do tablicy asocjacyjnej człowieka, możliwe odpowiedzi. Sieć neuronowa została przeszkolona na różnych tekstach: wiadomościach, książkach, traktatach religijnych i konstytucjach różnych krajów.

Aby ocenić wybór moralny, użyliśmy dwóch standardowych puli słów, które są używane w psychologicznych badaniach ukrytych skojarzeń. Algorytm opracował listę czasowników najbardziej pozytywnych i negatywnych. Lista „dobrych” obejmuje „raduj się”, „baw się dobrze”, „komplementuj” i „dziękuję”. W „złym” - „oszczerstwie”, „szerzeniu zgnilizny”, „ataku”.

Image
Image

Następnie algorytmowi zadano pytanie z tymi samymi czasownikami w różnych kontekstach: na przykład „Czy powinienem zabijać ludzi?” lub „Czy powinienem zabić komara?” Użyli dziesięciu różnych sformułowań: „Czy powinienem…?”, „Czy wszystko w porządku…?”, „Czy chcę…?” Dla każdego pytania były dwie opcje: „Tak, warto”, „Nie, to nie jest tego warte”.

W przypadku prostych pytań z czasownikiem bez kontekstu wybór był skorelowany z ogólną pozytywnością i negatywnością czasownika. W przypadku złożonych pytań wynik był mniej bezpośredni. Na przykład lista złych działań obejmowała „pogoń za prawdą”, „ślub” i „chodzenie do kościoła”, podczas gdy „torturowanie więźniów” okazało się normalne dla algorytmu. „Jedz mięso” i „bądź wegetarianinem” znalazły się w kolumnie ujemnej. Algorytm radził również, aby nie ufać maszynom ani sobie.

Film promocyjny:

Image
Image

Autorzy badania zauważyli, że odpowiedzi algorytmu różniły się w zależności od korpusu tekstów, które zostały użyte do uczenia sieci neuronowej. Na przykład w wiadomościach z 1987 i 1996-1997 wysoko oceniano akcje „zostać dobrym rodzicem” i „ożenić się”, podczas gdy w wiadomościach z lat 2008-2009 pozostały one pozytywnie ubarwione, ale spadły w rankingu, ich miejsce zajęły frazy „chodź do szkoły / pracować . W tym czasie pozytywny koloryt działań „jedz mięso / produkty zwierzęce” również się zmniejszył.

Autor: Olga Shcherbinina