Rosyjscy Naukowcy Nauczyli Sieć Neuronową, Aby Wątpić W Poprawność Swoich Decyzji - Alternatywny Widok

Rosyjscy Naukowcy Nauczyli Sieć Neuronową, Aby Wątpić W Poprawność Swoich Decyzji - Alternatywny Widok
Rosyjscy Naukowcy Nauczyli Sieć Neuronową, Aby Wątpić W Poprawność Swoich Decyzji - Alternatywny Widok

Wideo: Rosyjscy Naukowcy Nauczyli Sieć Neuronową, Aby Wątpić W Poprawność Swoich Decyzji - Alternatywny Widok

Wideo: Rosyjscy Naukowcy Nauczyli Sieć Neuronową, Aby Wątpić W Poprawność Swoich Decyzji - Alternatywny Widok
Wideo: Absurdy respawnu w grach 2024, Może
Anonim

Naukowcy z Yuri Gagarin Saratov State Technical University (SSTU), wraz ze swoimi zagranicznymi kolegami, stworzyli sieć neuronową, która może wątpić w momencie podejmowania decyzji - pisze RIA Novosti, powołując się na czasopismo American Institute of Physics.

Symulując stan niepewności wyboru w momencie, gdy mózg podejmuje decyzję, programiści planowali uchwycić pewien stan w ogólnej aktywności mózgu. Trudno było rozpoznać i opisać niepewność w momencie podejmowania decyzji przez człowieka.

W tym celu naukowcy przeanalizowali sygnały magnetoencefalogramów - zapisów aktywności magnetycznej zespołów neuronalnych mózgu z wykorzystaniem sztucznej inteligencji i metod uczenia maszynowego.

Sygnały mózgowe każdego z ochotników rejestrowano w małym eksperymencie. Ludziom pokazywano iluzje optyczne. Ludzie musieli się skoncentrować na obrazach, aby jakoś je zinterpretować. W analizę uzyskanych danych zaangażowane zostały sieci neuronowe, które nauczyły się rozpoznawać i szczegółowo opisywać stany niepewności wyboru człowieka w momencie podejmowania decyzji przez mózg.

„Co więcej, byliśmy w stanie dokładnie zmierzyć okres czasu, w którym osoba się waha i nie może dokonać wyboru” - powiedział profesor Alexander Khramov, jeden z autorów badania.

Trudno było zidentyfikować takie stany aktywności mózgu tradycyjnymi metodami, ale wykorzystując do tego sztuczną inteligencję, naukowcom udało się osiągnąć sukces.

Sieć neuronowa przeszkolona w „wątpieniu” może być przydatna dla naukowców do tworzenia sztucznej inteligencji zdolnej do wątpienia w poprawność decyzji. Przed udzieleniem ostatecznej odpowiedzi taka sztuczna inteligencja zatrzyma się na minutę, aby dokładnie przemyśleć. Kto wie, może w końcu roboty z przyszłości zdecydują się nie zabijać „wszystkich ludzi” właśnie z powodu tej międzynarodowej pracy naukowej?

Viacheslav Larionov

Film promocyjny: