Japońscy Naukowcy Sprawili, że Robot „poczuł” Ból - Alternatywny Widok

Japońscy Naukowcy Sprawili, że Robot „poczuł” Ból - Alternatywny Widok
Japońscy Naukowcy Sprawili, że Robot „poczuł” Ból - Alternatywny Widok

Wideo: Japońscy Naukowcy Sprawili, że Robot „poczuł” Ból - Alternatywny Widok

Wideo: Japońscy Naukowcy Sprawili, że Robot „poczuł” Ból - Alternatywny Widok
Wideo: You Bet Your Life: Secret Word - Chair / Floor / Tree 2024, Może
Anonim

Dziecko robota było wyposażone w tzw. Bolesny układ nerwowy - potrafił nie tylko odróżnić delikatne dotknięcia od szorstkich, ale także zademonstrować odpowiednią reakcję.

Inżynierowie z Uniwersytetu Osaka w Japonii opracowali nowe czujniki dotykowe i wbudowali je w podobnego do dziecka robota Affetto. Stwierdził to jeden z autorów technologii, Minoru Asada, na dorocznym spotkaniu American Association for the Advancement of Science, które odbyło się w Seattle od 13 do 16 lutego.

Po raz pierwszy japońscy naukowcy donieśli o Affetto w 2011 roku i od tego czasu stale go ulepszają. Wcześniej naukowcy aktywnie angażowali się w jego mimikę - i to nie tylko przy prostych ruchach oczu, brwi i ust. W ten sposób Affetto nauczył się bardziej złożonych „emocji”: uśmiechać się, marszczyć nos, marszczyć brwi i przewracać oczami, iw zasadzie zaczął bardziej przypominać człowieka (choć nie sprawiało to, że jego wygląd był mniej przerażający).

Wideo z 2018 roku:

Mechanizm ruchu szyi:

Affetto ma realistyczny szkielet twarzy i ciała pokryty sztuczną skórą: wrażliwy miękki materiał, w przeciwieństwie do powierzchni z twardego metalu, zapewnia pełniejszą interakcję robota ze światem zewnętrznym. Dzięki wszczepionym czujnikom Affetto był teraz w stanie wyczuwać dotyk, odróżniać delikatne, schludne od szorstkich i silnych, a także wykazywać czułe emocje.

Film promocyjny:

Tak wyglądał Affetto na samym początku
Tak wyglądał Affetto na samym początku

Tak wyglądał Affetto na samym początku.

Celem eksperymentu jest nauczenie humanoidalnego robota empatii wobec osoby i rozpoznawania jej uczuć, w tym negatywnych. Takie umiejętności mogą przydać się na przykład robotom, które mają pomagać osobom starszym.

Jednak według Anthony'ego Damasio, neuronaukowca z University of Southern California, istnieje różnica między maszyną, która w przewidywalny sposób reaguje na bolesne uderzenie, a robotem, który potrafi rozróżnić ludzkie uczucia: badacz podkreśla, że będzie to możliwe tylko wtedy, gdy robot jest zaprogramowany do doświadczania czegoś takiego jak stan psychiczny i mieć rodzaj wewnętrznego doświadczenia, czyli świadomości. Ale nowoczesne technologie wciąż są dalekie od czegoś takiego, zauważył specjalista.