Neurofizjolodzy Z USA Nauczyli Się „podsłuchiwać” Ludzkie Myśli - Alternatywny Widok

Neurofizjolodzy Z USA Nauczyli Się „podsłuchiwać” Ludzkie Myśli - Alternatywny Widok
Neurofizjolodzy Z USA Nauczyli Się „podsłuchiwać” Ludzkie Myśli - Alternatywny Widok

Wideo: Neurofizjolodzy Z USA Nauczyli Się „podsłuchiwać” Ludzkie Myśli - Alternatywny Widok

Wideo: Neurofizjolodzy Z USA Nauczyli Się „podsłuchiwać” Ludzkie Myśli - Alternatywny Widok
Wideo: Trump: Z tego, co wiem, już wygraliśmy 2024, Może
Anonim

Amerykańscy biolodzy stworzyli neurochip zdolny do odczytywania sygnałów z ośrodka słuchowego mózgu w czasie rzeczywistym i rozszyfrowywania tego, co słyszy lub mówi jego właściciel. Ta technologia przywróci siłę mowy sparaliżowanym i głupim ludziom - piszą naukowcy w czasopiśmie Nature Communications.

W ciągu ostatnich 10 lat neurofizjologom udało się dokonać prawdziwego przełomu w dziedzinie tworzenia neurointerfejsów - zestawu mikroczipów, specjalnych elektrod i programów komputerowych umożliwiających łączenie cyber kończyn, sztucznych oczu, a nawet tych narządów zmysłów, które nie mają w przyrodzie odpowiedników - termowizorów i Aparaty rentgenowskie.

Na przykład w marcu 2013 r. Brazylijscy i amerykańscy naukowcy byli w stanie połączyć mózgi dwóch szczurów żyjących tysiące kilometrów od siebie w swego rodzaju „lokalną sieć” lub, jak sami naukowcy nazwali tę konstrukcję, „organiczny komputer” i nauczyć je wymiany Informacja.

Później stworzyli podobny „zbiorowy umysł”, łącząc mózgi trzech małp, a dwa lata temu innym badaczom udało się zastąpić uszkodzoną część hipokampu, centrum pamięci w mózgach myszy, i uwolnić je od „syndromu świstaka”, niezdolności do zapamiętywania nowych informacji.

Takie sukcesy, jak zauważa Chartier, skłoniły wielu naukowców do zastanowienia się, czy można bezpośrednio odczytywać myśli z ośrodków mowy w mózgu i je artykułować. Praktyka pokazała, że rozwiązanie tego problemu okazało się dużo trudniejszym przedsięwzięciem niż podłączenie nowych rąk i nóg do ciała sparaliżowanego pacjenta.

Wiosną tego roku Chartier i jego koledzy byli w stanie go rozwiązać ze względu na to, że nie próbowali rozszyfrować sygnałów mózgowych i bezpośrednio „czytać” słowa i litery, ale zasugerowali, że nasze ośrodki mowy nie kodują określonych dźwięków, ale zestawy instrukcji dla mięśni ust, krtani języka i struny głosowe. To pozwoliło im po raz pierwszy „uczciwie” odczytać myśli z mózgów kilku epileptyków.

Osiągając podobne sukcesy, kalifornijscy neurofizjolodzy próbowali zastosować tę samą technikę, aby odczytać nie tylko myśli z ośrodka mowy ochotników, ale także z tych obszarów mózgu, które są odpowiedzialne za przetwarzanie informacji z narządów słuchu.

Przy wsparciu trzech pacjentów, u których wszczepiono elektrody aparatu słuchowego, naukowcy zaczęli monitorować aktywność tej części kory mózgowej, gdy ochotnicy słyszeli lub odpowiadali na pytania Chartiera i jego współpracowników.

Film promocyjny:

Zapisując te sygnały i porównując je ze sobą, neurofizjolodzy stworzyli algorytm, który „odszyfrowuje” polecenia mózgu na język zrozumiały dla komputera. W przeciwieństwie do poprzedniej wersji tego programu, nowy pomysł kalifornijskich neurofizjologów może nie tylko wyrazić „podsłuchane” myśli ochotników, ale także przekształcić je w tekst, porównując pytania i odpowiedzi.

Wprawdzie system ten ma dość małe „słownictwo”, ale jednocześnie może działać w czasie rzeczywistym i popełnia błędy znacznie rzadziej niż inne systemy tego typu. Średnio czyta poprawnie około trzech z czterech słów, sylab i dźwięków w zdaniu, co wystarcza do komunikacji.

Dalsze „szkolenie” algorytmu, jak ma nadzieję Chartier, pozwoli na wykorzystanie tego neurointerfejsu do swobodnej komunikacji z paralitykami, ofiarami udarów mózgu lub głupimi ludźmi, którzy utracili zdolność mówienia z powodu urazów czaszki lub strun głosowych.

Zalecane: