Amerykańscy biolodzy stworzyli neurochip zdolny do odczytywania sygnałów z ośrodka słuchowego mózgu w czasie rzeczywistym i rozszyfrowywania tego, co słyszy lub mówi jego właściciel. Ta technologia przywróci siłę mowy sparaliżowanym i głupim ludziom - piszą naukowcy w czasopiśmie Nature Communications.
W ciągu ostatnich 10 lat neurofizjologom udało się dokonać prawdziwego przełomu w dziedzinie tworzenia neurointerfejsów - zestawu mikroczipów, specjalnych elektrod i programów komputerowych umożliwiających łączenie cyber kończyn, sztucznych oczu, a nawet tych narządów zmysłów, które nie mają w przyrodzie odpowiedników - termowizorów i Aparaty rentgenowskie.
Na przykład w marcu 2013 r. Brazylijscy i amerykańscy naukowcy byli w stanie połączyć mózgi dwóch szczurów żyjących tysiące kilometrów od siebie w swego rodzaju „lokalną sieć” lub, jak sami naukowcy nazwali tę konstrukcję, „organiczny komputer” i nauczyć je wymiany Informacja.
Później stworzyli podobny „zbiorowy umysł”, łącząc mózgi trzech małp, a dwa lata temu innym badaczom udało się zastąpić uszkodzoną część hipokampu, centrum pamięci w mózgach myszy, i uwolnić je od „syndromu świstaka”, niezdolności do zapamiętywania nowych informacji.
Takie sukcesy, jak zauważa Chartier, skłoniły wielu naukowców do zastanowienia się, czy można bezpośrednio odczytywać myśli z ośrodków mowy w mózgu i je artykułować. Praktyka pokazała, że rozwiązanie tego problemu okazało się dużo trudniejszym przedsięwzięciem niż podłączenie nowych rąk i nóg do ciała sparaliżowanego pacjenta.
Wiosną tego roku Chartier i jego koledzy byli w stanie go rozwiązać ze względu na to, że nie próbowali rozszyfrować sygnałów mózgowych i bezpośrednio „czytać” słowa i litery, ale zasugerowali, że nasze ośrodki mowy nie kodują określonych dźwięków, ale zestawy instrukcji dla mięśni ust, krtani języka i struny głosowe. To pozwoliło im po raz pierwszy „uczciwie” odczytać myśli z mózgów kilku epileptyków.
Osiągając podobne sukcesy, kalifornijscy neurofizjolodzy próbowali zastosować tę samą technikę, aby odczytać nie tylko myśli z ośrodka mowy ochotników, ale także z tych obszarów mózgu, które są odpowiedzialne za przetwarzanie informacji z narządów słuchu.
Przy wsparciu trzech pacjentów, u których wszczepiono elektrody aparatu słuchowego, naukowcy zaczęli monitorować aktywność tej części kory mózgowej, gdy ochotnicy słyszeli lub odpowiadali na pytania Chartiera i jego współpracowników.
Film promocyjny:
Zapisując te sygnały i porównując je ze sobą, neurofizjolodzy stworzyli algorytm, który „odszyfrowuje” polecenia mózgu na język zrozumiały dla komputera. W przeciwieństwie do poprzedniej wersji tego programu, nowy pomysł kalifornijskich neurofizjologów może nie tylko wyrazić „podsłuchane” myśli ochotników, ale także przekształcić je w tekst, porównując pytania i odpowiedzi.
Wprawdzie system ten ma dość małe „słownictwo”, ale jednocześnie może działać w czasie rzeczywistym i popełnia błędy znacznie rzadziej niż inne systemy tego typu. Średnio czyta poprawnie około trzech z czterech słów, sylab i dźwięków w zdaniu, co wystarcza do komunikacji.
Dalsze „szkolenie” algorytmu, jak ma nadzieję Chartier, pozwoli na wykorzystanie tego neurointerfejsu do swobodnej komunikacji z paralitykami, ofiarami udarów mózgu lub głupimi ludźmi, którzy utracili zdolność mówienia z powodu urazów czaszki lub strun głosowych.