Korzystając z bardzo szczegółowych urządzeń do skanowania pracy mózgu badacze z kalifornijskiego uniwersytetu UC w Berkeley stworzyli interaktywne semantyczne mapy 3D (tak, wiemy jak to brzmi, za chwilkę wytłumaczymy), które potrafią przewidzieć które obszary mózgu odpowiedzą aktywnością na konkretne kategorie słów.
Po porównaniu takich map dla słuchania i czytania okazało się, że wyniki są praktycznie takie same. Wygląda na to, że mózg odpowiada na sens wyrazów bardziej niż na sposób jego dostarczenia. Wyniki badań opublikowano w Journal of Neuroscience.
Do stworzenia semantycznych map 3D mózgu naukowcy poprosili ochotników do wysłuchania i przeczytania tych samych historii. W tym czasie rejestrowano aktywność ich mózgów za pomocą bardzo dokładnego rezonansu magnetycznego. Pozwoliło to sprawdzić, które obszary są aktywne na podstawie przepływu krwi. Następnie zestawiono te dane z samymi historiami i ustalono jak mózg człowieka reagował na poszczególne słowa. Dodatkowo badacze zaprzęgli do pracy program komputerowy do posegregowania słów historii w kategorie semantyczne.
Następnym etapem było „kodowanie wokselowe”. Woksele to najmniejsze składniki obrazu trójwymiarowego, w uproszczeniu można je porównać do pikseli na monitorze komputera wyświetlającego dwuwymiarową grafikę. Za pomocą takich trójwymiarowych klocków zbudowali mapę kory mózgowej. W tej zewnętrznej części mózgu przetwarzane są informacje dotyczące zmysłów i motoryki.
To właśnie te mapy pokazały identyczną aktywność podczas czytania i słuchania tej samej opowieści. Zaskoczenie było spore, bo badacze spodziewali się istotnych różnic w reakcjach.
W przyszłości tego typu metody mapowania i monitorowania mózgu mogą pomóc w wielu innych sytuacjach, na przykład w poszukiwaniu rozwiązań ułatwiających życie osobom z dysleksją. Oprócz tego na pewno przydadzą się w pracy z ludźmi po wylewach, z epilepsją lub obrażeniami utrudniającymi posługiwanie się mową.