W 2005 r. Ann Johnson doznała udaru pnia mózgu, w wyniku którego została sparaliżowana. Natychmiastowo straciła kontrolę nad wszystkimi mięśniami w swoim ciele i nie była w stanie nawet samodzielnie oddychać. Najdziwniejsze jest to, że do zdarzenia doszło pewnego spokojnego popołudnia, a przyczyna do dzisiaj pozostaje nieznana. 18 lat później, dzięki zastosowaniu innowacyjnego implantu mózgowego i cyfrowemu awatarowi, Ann przemówiła.
Życie w zamknięciu
Potrzebne były całe lata fizjoterapii, aby wróciła możliwość poruszania mięśniami twarzy na tyle, by śmiać się lub płakać. Kobieta w najlepszym razie potrafiła wydawać dźwięki typu “och” i “ach”, ale mięśnie pozwalające na mowę, wciąż pozostawały nieruchome. Kluczowe jest jednak to, że mózg Ann działał bez zarzutu. Można było się z nią komunikować dzięki urządzeniu przetwarzającemu nieznaczne ruchy głowy na tekst pojawiający się na ekranie komputera, ale był to tylko substytut prawdziwego kontaktu.
Czytaj też: Tajemnicze sygnały w ludzkim mózgu. Uczeni nie mają pojęcia, skąd się biorą
Przed udarem, Ann była nauczycielką matematyki w szkole średniej w Kanadzie. W 2020 r. opisała swoje życie od tego czasu w specjalnym artykule, który napisała, skrupulatnie pisząc litera po literze:
Zespół zamknięcia jest dokładnie taki, jak brzmi. Jesteś w pełni świadomy, masz pełne czucie, wszystkie pięć zmysłów działa, ale jesteś zamknięty w ciele, w którym nie działają żadne mięśnie. Nauczyłam się ponownie samodzielnie oddychać, mam teraz pełny ruch szyi, mój śmiech powrócił, mogę płakać i czytać, a z biegiem lat mój uśmiech powrócił, a ja jestem w stanie mrugnąć i powiedzieć kilka słów.
Technologia opracowana przez naukowców z UC San Francisco i UC Berkeley wykorzystuje zawierający 253 elektrody implant, który przechwytuje sygnały mózgowe pochodzące z tysięcy neuronów. Jest on połączony z komputerem, a specjalne algorytmy sztucznej inteligencji do tłumaczenia fal mózgowych na zdania są wypowiadane przez cyfrowo animowaną postać. Kiedy Ann próbuje przekazać zdanie typu “Wspaniale cię znowu widzieć”, awatar na ekranie wypowiada te słowa na głos.
Badacze wykorzystali ślubne nagranie Ann Johnson, aby spersonalizować głos awatara. System przekształcił także sygnały mózgowe kobiety w ruchy twarzy awatara, takie jak zaciśnięte usta czy wyrazy emocjonalne (smutek, zaskoczenie), aby zachowywał się on w miarę naturalnie. Kobieta przekazała, że wzruszyła się, gdy usłyszała, jak awatar przemawia głosem podobnym do jej własnego.
Sparaliżowana kobieta poznaje swojego awatara
To pierwszy raz, kiedy mowa lub mimika twarzy zostały zsyntetyzowane na podstawie fal mózgowych. System może również dekodować te sygnały na tekst z prędkością prawie 80 słów na minutę, co stanowi znaczną poprawę w stosunku do 14 słów na minutę, na które pozwalało dotychczasowe urządzenie komunikacyjne. Warto dodać, że naturalne tempo mowy wynosi ok. 150-200 słów na minutę.
Prof. Edward Chang z UCSF, który tworzył innowacyjny BCI, mówi:
Naszym celem jest przywrócenie pełnego, ucieleśnionego sposobu komunikacji, który jest dla nas najbardziej naturalnym sposobem rozmowy z innymi. Te postępy znacznie przybliżają nas do opracowania funkcjonalnego rozwiązania dla pacjentów.
W miarę powrotu do zdrowia zdała sobie sprawę, że może wykorzystać własne doświadczenia, aby pomóc innym, a teraz aspiruje, by zostać doradcą w ośrodku rehabilitacji ruchowej. Ann Johnson uważa, że takie podejście może dawać nadzieję tym, którzy już ją stracili:
Chcę, aby pacjenci widzieli mnie i wiedzieli, że ich życie jeszcze się nie skończyło. Chcę im pokazać, że niepełnosprawność nie musi nas powstrzymywać ani spowalniać.
Badania opisane w Nature wskazują, że ten interfejs mózg-komputer (BCI) jest blisko zatwierdzenia przez FDA. Technologia nie jest jednak bezprzewodowa, więc nie jest na tyle zaawansowana, aby można ją było zintegrować z codziennym życiem Ann.
Implanty mózgu coraz lepsze
Eksperymenty z użyciem elektrod do odczytu sygnałów mózgowych prowadzono od końca lat 90. XX wieku, ale w ostatnich latach poczyniono ogromne postępy w tej materii. W 2021 r. uczeni z University of Stanford wykorzystali implant mózgowy i oprogramowanie sztucznej inteligencji do przetłumaczenia sygnałów mózgowych związanych z pismem odręcznym sparaliżowanego mężczyzny na tekst wyświetlany na ekranie komputera. W tym samym roku grupa badawcza prof. Changa z UCSF po raz pierwszy wykazała, że może skutecznie przełożyć na słowa sygnały mózgowe mężczyzny z poważnym paraliżem.
Czytaj też: Dosłownie jak czytanie w myślach! Oto pierwsza taka metoda, która pozwoli zajrzeć do naszych umysłów
Ale są pewne ograniczenia, które trzeba pokonać przed powszechnym udostępnieniem nowych BCI. Po pierwsze, konieczna jest możliwość choć szczątkowego ruchu mięśniami twarzy, więc nie jest jasne, czy system będzie działał u ludzi pozbawionych tej zdolności. Po drugie, jest wątpliwe, by na ten moment technologia była możliwa do obsługi przez kogokolwiek innego niż wykwalifikowanych specjalistów. Po prostu te interfejsy są “nieobsługiwalne” przez opiekunów i partnerów osób sparaliżowanych w warunkach domowych, bez specjalnego szkolenia. Jest wiele do poprawy, ale to oznacza przestrzeń na ewolucję BCI. Z kolei Ann nadaje cel życia:
Kiedy byłam w szpitalu rehabilitacyjnym, logopeda nie wiedział, co ze mną zrobić. Udział w tym badaniu dał mi poczucie celu, czuję, że wnoszę wkład w społeczeństwo. Czuję się, jakbym znów miała pracę. To niesamowite, że żyję tak długo – to badanie pozwoliło mi naprawdę żyć, póki jeszcze żyję!