Neurointerfaces - technologie, które łączą mózg i komputer - stają się stopniowo rutyną: widzieliśmy już, jak za pomocą poleceń mentalnych człowiek może sterować protezą lub pisać tekst na komputerze. Czy to oznacza, że obietnice pisarzy science fiction, którzy pisali o pełnoprawnym czytaniu myśli za pomocą komputera, a nawet o przenoszeniu ludzkiej świadomości do komputera, wkrótce staną się rzeczywistością? Ten sam temat - „Rozszerzona osobowość” - w 2019 roku jest poświęcony konkursowi opowiadań science fiction „Future Time”, organizowanemu przez fundację charytatywną Sistema. Wraz z organizatorami konkursu redaktorzy N + 1 zorientowali się, do czego są zdolne współczesne interfejsy neuronowe i czy naprawdę możemy stworzyć pełnoprawne połączenie mózg-komputer. Pomógł nam w tym Alexander Kaplan,założyciel pierwszego rosyjskiego laboratorium interfejsów na Moskiewskim Uniwersytecie Łomonosowa.
Zhakuj ciało
Neil Harbisson ma wrodzoną achromatopsję, która pozbawiła go widzenia barwnego. Brytyjczyk, decydując się oszukać naturę, wszczepił specjalną kamerę, która zamienia kolor na informację dźwiękową i przesyła ją do ucha wewnętrznego. Neil uważa się za pierwszego cyborga oficjalnie uznanego przez państwo.
W 2012 roku w Stanach Zjednoczonych Andrew Schwartz z University of Pittsburgh zademonstrował sparaliżowaną 53-letnią pacjentkę, która za pomocą elektrod wszczepionych do jej mózgu wysyłała sygnały do robota. Nauczyła się sterować robotem tak bardzo, że była w stanie podać sobie tabliczkę czekolady.
W 2016 roku w tym samym laboratorium 28-letni pacjent z ciężkim urazem kręgosłupa wyciągnął kontrolowaną mózgiem sztuczną rękę do odwiedzającego go Baracka Obamy. Czujniki na dłoni pozwoliły pacjentowi poczuć uścisk dłoni 44. Prezydenta Stanów Zjednoczonych.
Nowoczesna biotechnologia umożliwia ludziom „przełamywanie” ograniczeń ich ciała, tworząc symbiozę między ludzkim mózgiem a komputerem. Wydaje się, że wszystko zmierza ku temu, że bioinżynieria wkrótce stanie się częścią codziennego życia.
Film promocyjny:
Co się później stanie? Filozof i futurysta Max More, wyznawca idei transhumanizmu, od końca ubiegłego wieku rozwija ideę przejścia człowieka na nowy etap ewolucji, wykorzystując m.in. technologie komputerowe. W literaturze i kinie ostatnich dwóch stuleci prześlizguje się podobna gra futurystycznej wyobraźni.
W świecie powieści science fiction Williama Gibbsona Neuromancer, opublikowanej w 1984 r., Opracowano implanty, które pozwalają użytkownikowi połączyć się z Internetem, poszerzyć możliwości intelektualne i ponownie przeżyć wspomnienia. Masamune Shiro, autor kultowej japońskiej mangi science-fiction „Ghost in the Shell”, nakręconej niedawno w USA, opisuje przyszłość, w której każdy organ można zastąpić bioniką, aż do całkowitego przeniesienia świadomości do ciała robota.
Jak daleko mogą zajść interfejsy neuronowe w świecie, w którym z jednej strony ignorancja mnoży fantazje, az drugiej strony fantazje często okazują się opatrznością?
Potencjalna różnica
Centralny układ nerwowy (OUN) to złożona sieć komunikacyjna. W samym mózgu znajduje się ponad 80 miliardów neuronów i istnieją między nimi biliony połączeń. Co milisekundę wewnątrz i na zewnątrz dowolnej komórki nerwowej zmienia się rozkład jonów dodatnich i ujemnych, określając, jak i kiedy zareaguje na nowy sygnał. W stanie spoczynku neuron ma ujemny potencjał w stosunku do otoczenia (średnio -70 miliwoltów), czyli „potencjał spoczynkowy”. Innymi słowy, jest spolaryzowany. Jeśli neuron otrzymuje sygnał elektryczny od innego neuronu, to aby mógł być dalej przesyłany, jony dodatnie muszą dostać się do komórki nerwowej. Następuje depolaryzacja. Gdy depolaryzacja osiągnie wartość progową (około -55 miliwoltów, jednak wartość ta może się zmieniać),komórka jest podekscytowana i wpuszcza coraz bardziej dodatnio naładowane jony, co tworzy dodatni potencjał lub „potencjał czynnościowy”.
Potencjał czynnościowy.
Ponadto potencjał czynnościowy wzdłuż aksonu (kanał komunikacji komórki) jest przekazywany do dendrytu - kanału odbiorczego następnej komórki. Jednak akson i dendryt nie są bezpośrednio połączone, a impuls elektryczny nie może po prostu przejść od jednego do drugiego. Miejsce kontaktu między nimi nazywane jest synapsą. Synapsy wytwarzają, przekazują i odbierają neuroprzekaźniki - związki chemiczne, które bezpośrednio „przekazują” sygnał z aksonu jednej komórki do dendrytu drugiej.
Kiedy impuls dociera do końca aksonu, uwalnia neuroprzekaźniki do szczeliny synaptycznej, przecinając przestrzeń między komórkami i przyczepiając się do końca dendrytu. Zmuszają dendryt do wpuszczenia dodatnio naładowanych jonów, przejścia od potencjału spoczynkowego do potencjału czynnościowego i przekazania sygnału do ciała komórki.
Rodzaj neuroprzekaźnika określa również, który sygnał będzie przesyłany dalej. Na przykład glutaminian prowadzi do odpalenia neuronów, kwas gamma-aminomasłowy (GABA) jest ważnym mediatorem hamującym, a acetylocholina może pełnić obie te funkcje w zależności od sytuacji.
Tak schematycznie wygląda neuron:
Diagram neuronu.
A tak to wygląda w rzeczywistości:
Neuron pod mikroskopem.
Ponadto odpowiedź komórki biorcy zależy od liczby i rytmu przychodzących impulsów, informacji pochodzących z innych komórek, a także od obszaru mózgu, z którego wysłano sygnał. Różne komórki pomocnicze, układ hormonalny i odpornościowy, środowisko zewnętrzne i wcześniejsze doświadczenia - wszystko to determinuje w danej chwili stan ośrodkowego układu nerwowego, a tym samym wpływa na zachowanie człowieka.
I chociaż, jak to rozumiemy, ośrodkowy układ nerwowy nie jest zbiorem „drutów”, to praca neurointerfejsów opiera się właśnie na aktywności elektrycznej układu nerwowego.
Pozytywny skok
Głównym zadaniem neurointerfejsu jest dekodowanie sygnału elektrycznego pochodzącego z mózgu. Program posiada zestaw „szablonów” lub „zdarzeń” składających się z różnych charakterystyk sygnału: częstotliwości drgań, szczytów (szczytów aktywności), lokalizacji w korze i tak dalej. Program analizuje napływające dane i próbuje wykryć w nich te zdarzenia.
Wysyłane polecenia zależą ponadto od uzyskanego wyniku, a także od funkcjonalności systemu jako całości.
Przykładem takiego wzorca jest potencjał wywołany P300 (Positive 300), często używany w tzw. Spellerach - mechanizmach pisania tekstu za pomocą sygnałów mózgowych.
Kiedy osoba widzi potrzebny symbol na ekranie, po 300 milisekundach można wykryć dodatni skok potencjału elektrycznego na zapisie aktywności mózgu. Po wykryciu P300 system wysyła polecenie wydrukowania odpowiedniego znaku.
W takim przypadku algorytm nie może jednorazowo wykryć potencjału ze względu na poziom szumów sygnału przez przypadkową aktywność elektryczną. Dlatego symbol należy przedstawić kilkakrotnie, a uzyskane dane uśrednić.
Oprócz jednoetapowej zmiany potencjału, neurointerface może szukać zmian w rytmicznej (tj. Oscylacyjnej) aktywności mózgu spowodowanej określonym zdarzeniem. Kiedy dostatecznie duża grupa neuronów wchodzi w synchroniczny rytm wahań aktywności, można to wykryć na spektrogramie sygnału w postaci ERS (synchronizacja związana ze zdarzeniami). Jeśli, przeciwnie, występuje desynchronizacja oscylacji, to spektrogram zawiera ERD (desynchronizacja związana ze zdarzeniami).
W momencie, gdy osoba wykonuje lub po prostu wyobraża sobie ruch ręki, w korze ruchowej przeciwnej półkuli obserwuje się ERD z częstotliwością oscylacji około 10–20 Hz.
Ten i inne szablony można przypisać do programu ręcznie, ale często są one tworzone podczas pracy z każdą konkretną osobą. Nasz mózg, podobnie jak cechy jego działania, jest indywidualny i wymaga dostosowania do niego systemu.
Rejestrowanie elektrod
Większość neurointerfejsów wykorzystuje elektroencefalografię (EEG) do rejestrowania aktywności, czyli nieinwazyjną metodę neuroobrazowania, ze względu na jej względną prostotę i bezpieczeństwo. Elektrody przyczepione do powierzchni głowy rejestrują zmianę pola elektrycznego wywołaną zmianą potencjału dendrytów po „przekroczeniu” synapsy przez potencjał czynnościowy.
W momencie, gdy jony dodatnie przenikają do dendrytu, w otaczającym środowisku powstaje potencjał ujemny. Na drugim końcu neuronu jony o tym samym ładunku zaczynają opuszczać komórkę, tworząc dodatni potencjał na zewnątrz, a przestrzeń otaczająca neuron zamienia się w dipol. Pole elektryczne rozchodzące się z dipola jest rejestrowane przez elektrodę.
Niestety metoda ma kilka ograniczeń. Czaszka, skóra i inne warstwy oddzielające komórki nerwowe od elektrod, mimo że są przewodnikami, nie są wystarczająco dobre, aby nie zniekształcać informacji o sygnale.
Elektrody są w stanie rejestrować tylko całkowitą aktywność wielu sąsiednich neuronów. Główny wkład w wynik pomiaru mają neurony zlokalizowane w górnych warstwach kory, których procesy przebiegają prostopadle do jej powierzchni, ponieważ to one tworzą dipol, którego pole elektryczne czujnik najlepiej wychwycić.
Wszystko to prowadzi do utraty informacji z głębokich struktur i spadku dokładności, przez co system jest zmuszony pracować z niekompletnymi danymi.
Elektrody inwazyjne, wszczepiane na powierzchni lub bezpośrednio do mózgu, pozwalają na znacznie większą dokładność.
Jeśli pożądana funkcja jest związana z powierzchniowymi warstwami mózgu (na przykład aktywnością motoryczną lub sensoryczną), wówczas implantacja ogranicza się do trepanacji i mocowania elektrod do powierzchni kory. Czujniki odczytują całkowitą aktywność elektryczną wielu komórek, ale sygnał ten nie jest tak zniekształcony, jak w EEG.
Jeśli ważna jest aktywność zlokalizowana głębiej, elektrody są wprowadzane do kory. Możliwe jest nawet rejestrowanie aktywności pojedynczych neuronów za pomocą specjalnych mikroelektrod. Niestety technika inwazyjna stwarza potencjalne zagrożenie dla ludzi i jest stosowana w praktyce medycznej tylko w skrajnych przypadkach.
Istnieje jednak nadzieja, że technika ta w przyszłości stanie się mniej traumatyczna. Amerykańska firma Neuralink planuje zrealizować pomysł bezpiecznego wprowadzenia tysięcy cienkich elastycznych elektrod bez wiercenia w czaszkę za pomocą wiązki laserowej.
Kilka innych laboratoriów pracuje nad biodegradowalnymi czujnikami, które usuwają elektrody z mózgu.
Banan czy pomarańcza?
Rejestracja sygnału to dopiero pierwszy krok. Następnie musisz go „przeczytać”, aby określić intencje za nim stojące. Istnieją dwa możliwe sposoby dekodowania aktywności mózgu: pozwól algorytmowi wyodrębnić odpowiednie cechy z samego zbioru danych lub przedstaw systemowi opis parametrów, których należy szukać.
W pierwszym przypadku algorytm, nie ograniczając się parametrami wyszukiwania, sam klasyfikuje „surowy” sygnał i znajduje elementy przewidujące intencje z największym prawdopodobieństwem. Jeśli np. Badany na przemian myśli o ruchu prawą i lewą ręką, to program jest w stanie znaleźć parametry sygnału, które maksymalnie odróżniają jedną opcję od drugiej.
Problem z tym podejściem polega na tym, że parametry opisujące aktywność elektryczną mózgu są zbyt wielowymiarowe, a dane są zbyt hałaśliwe i zawierają różne szumy.
W przypadku drugiego algorytmu dekodowania należy z wyprzedzeniem wiedzieć, gdzie i czego szukać. Na przykład na przykładzie pisowni P300 opisanej powyżej wiemy, że gdy osoba widzi symbol, potencjał elektryczny zmienia się w określony sposób. Uczymy system szukać tych zmian.
W takiej sytuacji zdolność rozszyfrowania intencji osoby jest związana z naszą wiedzą o tym, jak funkcje mózgu są zakodowane w aktywności neuronalnej. Jak ta lub inna intencja lub stan manifestuje się w sygnale? Niestety w większości przypadków nie mamy odpowiedzi na to pytanie.
Trwają badania neurobiologiczne nad funkcjami poznawczymi, ale mimo to możemy rozszyfrować bardzo niewielki ułamek sygnałów. Na razie mózg i świadomość pozostają dla nas „czarną skrzynką”.
Alexander Kaplan, neurofizjolog, doktor nauk biologicznych i założyciel Laboratorium Neurofizjologii i Neurointerfaces na Moskiewskim Uniwersytecie Łomonosowa, który otrzymał pierwszy grant w Rosji na opracowanie neurointerfejsu do komunikacji między mózgiem a komputerem, mówi, że naukowcy są w stanie automatycznie rozszyfrować niektóre ludzkie intencje lub wyobrażone przez siebie obrazy na podstawie znaków EEG …
Jednak w tej chwili takich intencji i obrazów jest nie więcej niż kilkanaście. Są to z reguły stany związane z relaksacją i napięciem psychicznym lub z reprezentacją ruchów części ciała. I nawet ich rozpoznanie odbywa się z błędami: na przykład ustalenie przez EEG, że dana osoba zamierza zacisnąć prawą rękę w pięść, nawet w najlepszych laboratoriach jest to możliwe w nie więcej niż 80-85 procent ogólnej liczby prób.
A jeśli spróbujesz zrozumieć na podstawie EEG, czy dana osoba wyobraża sobie banana czy pomarańczę, to liczba poprawnych odpowiedzi tylko nieznacznie przekroczy poziom przypadkowego zgadywania.
Najsmutniejsze jest to, że przez ponad 15 lat nie udało się poprawić niezawodności systemów neurointerface w rozpoznawaniu ludzkich intencji przez EEG i poszerzyć listy takich zamiarów, pomimo znacznego postępu w rozwoju algorytmów i technologii obliczeniowej osiągniętego w tym samym czasie.
Najwyraźniej EEG odzwierciedla tylko niewielką część aktywności umysłowej osoby. Dlatego do systemów neurointerfejsów należy podchodzić z umiarkowanymi oczekiwaniami i jasno określać obszary ich rzeczywistego zastosowania.
Utracony sens po tłumaczeniu
Dlaczego nie możemy stworzyć systemu, który robi to, co mózg z łatwością potrafi? Krótko mówiąc, sposób działania mózgu jest zbyt złożony dla naszych możliwości analitycznych i obliczeniowych.
Po pierwsze, nie znamy „języka”, w którym komunikuje się układ nerwowy. Oprócz serii impulsów charakteryzuje się wieloma zmiennymi: cechami szlaków i samych komórek, reakcjami chemicznymi zachodzącymi w czasie przesyłania informacji, pracą sąsiednich sieci neuronowych i innych układów ciała.
Oprócz tego, że „gramatyka” tego „języka” jest sama w sobie złożona, może się on różnić w różnych parach komórek nerwowych. Sytuację pogarsza fakt, że zasady komunikacji, a także funkcje komórek i relacje między nimi są bardzo dynamiczne i nieustannie zmieniają się pod wpływem nowych wydarzeń i warunków. To wykładniczo zwiększa ilość informacji, które należy wziąć pod uwagę.
Dane, które w pełni opisują aktywność mózgu, po prostu utopią każdy algorytm, który podejmie się jej analizy. Dlatego rozszyfrowanie intencji, wspomnień, ruchów jest praktycznie nierozwiązywalnym zadaniem.
Drugą przeszkodą jest to, że nie wiemy zbyt wiele o funkcjach mózgu, które próbujemy wykryć. Czym jest pamięć lub obraz wizualny, z czego są zrobione? Neurofizjologia i psychologia od dawna próbują odpowiedzieć na te pytania, ale jak dotąd postęp w badaniach jest niewielki.
Najprostsze funkcje, takie jak funkcje motoryczne i czuciowe, mają w tym sensie przewagę, ponieważ są lepiej rozumiane. Dlatego obecnie dostępne interfejsy neuronowe oddziałują głównie z nimi.
Potrafią rozpoznawać wrażenia dotykowe, wyimaginowany ruch kończyny, reakcję na stymulację wzrokową oraz proste reakcje na zdarzenia środowiskowe, takie jak reakcja na błąd lub niedopasowanie oczekiwanego bodźca do rzeczywistego. Ale wyższa aktywność nerwowa pozostaje dla nas dzisiaj wielką tajemnicą.
Dwukierunkowa komunikacja
Do tej pory omawialiśmy tylko sytuację jednokierunkowego odczytywania informacji bez wpływu wstecznego. Jednak dzisiaj istnieje już technologia przesyłania sygnałów z komputera do mózgu - CBI (interfejs komputer-mózg). Tworzy dwukierunkowy kanał komunikacyjny neurointerfejsu.
Informacje (na przykład dźwięk, wrażenia dotykowe, a nawet dane dotyczące funkcjonowania mózgu) docierają do komputera, są analizowane i poprzez stymulację komórek ośrodkowego lub obwodowego układu nerwowego są przekazywane do mózgu. Wszystko to może nastąpić całkowicie z pominięciem naturalnych narządów percepcji i jest z powodzeniem stosowane do ich zastąpienia.
Według Alexandra Kaplana obecnie nie ma już żadnych teoretycznych ograniczeń w wyposażaniu osoby w sztuczne „narządy” zmysłów połączone bezpośrednio ze strukturami mózgu. Co więcej, są aktywnie wprowadzane do codziennego życia człowieka, na przykład w celu zastąpienia zaburzonych naturalnych narządów zmysłów.
Dla osób z wadami słuchu dostępne są już tzw. Implanty ślimakowe: mikroczipy, które łączą mikrofon z receptorami słuchu. Rozpoczęto testy implantów siatkówkowych w celu przywrócenia wzroku.
Według Kaplana nie ma ograniczeń technicznych w podłączaniu do mózgu jakichkolwiek innych czujników reagujących na ultradźwięki, zmiany radioaktywności, prędkości lub ciśnienia.
Problem w tym, że te technologie muszą całkowicie opierać się na naszej wiedzy o tym, jak działa mózg. Które, jak już się dowiedzieliśmy, są raczej ograniczone.
Według Kaplana jedynym sposobem na obejście tego problemu jest stworzenie całkowicie nowego kanału komunikacyjnego z własnym językiem komunikacji i nauczenie nie tylko komputera, ale także mózgu rozpoznawania nowych sygnałów.
Takie zmiany już się rozpoczęły. Na przykład kilka lat temu w laboratorium fizyki stosowanej na Uniwersytecie Johnsa Hopkinsa przetestowali bioniczną rękę zdolną do przekazywania informacji dotykowych do mózgu.
Dotykając czujników sztucznej dłoni, elektrody stymulują ścieżki obwodowego układu nerwowego, który następnie przekazuje sygnał do obszarów czuciowych mózgu. Osoba uczy się rozpoznawać przychodzące sygnały jako różne rodzaje dotyku. W ten sposób zamiast próbować odtworzyć dotykowy system sygnałów, który jest naturalny dla człowieka, tworzony jest nowy kanał i język komunikacji.
Jednak ta ścieżka rozwoju jest ograniczona liczbą nowych kanałów, które możemy stworzyć, oraz ich informacją dla mózgu - mówi Alexander Kaplan.
Czas przyszły
Kaplan uważa, że w tej chwili nie ma nowego sposobu na rozwój technologii neurointerfejsów. Według niego sama możliwość interfejsu do komunikacji między mózgiem a komputerem została odkryta w latach 70. ubiegłego wieku, a zasady funkcjonowania mózgu, na których opierają się dzisiejsze osiągnięcia, zostały opisane około trzydzieści lat temu i od tego czasu nowe pomysły praktycznie się nie pojawiły.
Na przykład szeroko stosowany obecnie potencjał P300 został odkryty w latach sześćdziesiątych XX wieku, obrazy motoryczne - w latach osiemdziesiątych i dziewięćdziesiątych XX wieku, a niedopasowanie negatywne - w latach siedemdziesiątych).
Naukowcy żyli kiedyś nadzieją, że uda im się nawiązać bliższy kontakt informacyjny między mózgiem a technologią procesorową, ale dziś stało się jasne, że się nie spełniły.
Jednak, mówi Kaplan, stało się jasne, że neurointerfejsy można wdrożyć do użytku medycznego. Zdaniem naukowca, obecnie rozwój neurointerfejsów odbywa się w największym stopniu poprzez wprowadzenie technologii do sfery klinicznej.
Naukowcy żyli kiedyś nadzieją, że uda im się nawiązać bliższy kontakt informacyjny między mózgiem a technologią procesorową, ale dziś stało się jasne, że się nie spełniły.
Jednak, mówi Kaplan, stało się jasne, że neurointerfejsy można wdrożyć do użytku medycznego. Zdaniem naukowca, obecnie rozwój neurointerfejsów odbywa się w największym stopniu poprzez wprowadzenie technologii do sfery klinicznej.
Jednak dzięki badaniom mózgu i postępom technologicznym dzisiejsze neurointerfejsy są zdolne do tego, co kiedyś wydawało się niewykonalne. Nie wiemy na pewno, co wydarzy się za 30, 50 czy 100 lat. Historyk nauki Thomas Kuhn wysunął pogląd, że rozwój nauki jest cyklem: okresy stagnacji zastępowane są paradygmatycznymi zmianami i następującymi po nich rewolucjami naukowymi. Całkiem możliwe, że w przyszłości dojdzie do rewolucji, która wyciągnie mózg z czarnej skrzynki. I przyjdzie z najbardziej nieoczekiwanej strony.
Maria Ermolova