Si può leggere nel pensiero?

 

Si può leggere nel pensiero? Per quanto sembri incredibile e possa preoccupare molti, la risposta ormai è: sì, abbastanza!

Ci sono riusciti ricercatori di Berkeley e dell’università del Texas a Austin. Lo raccontano nell’ultimo numero di Nature Neuroscience.  Alexander Huth, Jerry Tang e altri colleghi  hanno realizzato un decodificatore che, utilizzando solo i dati di una risonanza magnetica funzionale, un sistema cioè non invasivo, riesce a ricostruire con una certa precisione le parole che ascoltiamo, quelle che immaginiamo quando descriviamo nella nostra testa ciò che vediamo e addirittura è capace di ricostruire il contenuto di un film silenzioso che abbiamo guardato!

E’ la prima volta che i ricercatori riescono ad arrivare a un simile risultato senza usare metodi invasivi, come la neurochirurgia. Il limite incontrato finora, che non aveva permesso di andare oltre il semplice riconoscimento di una parola o di cortissime frasi, è che la risonanza magnetica funzionale, che permette individuare quali aree del cervello entrano in funzione in un determinato momento misurando le variazioni del flusso sanguigno nel cervello, è uno strumento indiretto e non molto preciso: non ha una buona risoluzione temporale. Il flusso sanguigno impiega, infatti, una decina di secondi a tornare al livello base e quindi non si riesce a osservare la reazione del cervello a una singola parola, ma a un insieme di parole pronunciate durante alcuni secondi (per l’inglese una ventina), tutte mischiate.

Per superare questo problema Huth, che è professore associato di neuroscienze e informatica, e i suoi colleghi, hanno deciso di servirsi di un software di intelligenza artificiale: GPT-1, un precursore dell’ormai celebre ChatGPT, software ad apprendimento automatico capace di simulare una conversazione con una persona che nelle ultime settimane molti si sono divertiti a interrogare.

Presi tre volontari, per 16 ore i neuroscienziati hanno registrato con la risonanza magnetica funzionale l’attività del loro cervello mentre ascoltavano storie. In questo modo hanno fatto apprendere al software di intelligenza artificiale a collegare tipo di attività cerebrale e funzione semantica. In altre parole questi programmi possono capire quali significati producono certe mappe di attivazione neuronale, che idee rappresentano, anche senza dover afferrare precisamente ogni singola parola. Dopo, lo stesso modello, che è unico per ciascuna persona, è stato messo alla prova facendo ascoltare ai volontari nuove storie.

Quel che è emerso ha stupito gli stessi ricercatori, che pensavano si sarebbe potuti arrivare a un risultato simile solo tra alcuni anni. A partire dall’attività cerebrale registrata, infatti, il software generava delle sequenze di parole che erano in grado di catturare grossomodo il significato delle nuove storie ascoltate, in sostanza le parafrasava. Per esempio, la “macchina leggipensiero” guardando le immagini del cervello di un volontario, ha tradotto “non ha ancora iniziato a imparare a guidare”  quando questo ha sentito dire “non ho ancora la patente”.  In alcuni casi il programma è riuscito a indovinare addirittura le frasi esatte.

Il decodificatore non funzionava solo quando i partecipanti ascoltavano una storia (un podcast per la precisione), ma anche quando a questi veniva chiesto di descrivere nella loro mente una storia raccontata attraverso delle immagini, o addirittura era capace di tradurre in parole quel che vedevano quando guardavano filmati silenziosi, come il film Sintel (© copyright Blender Foundation) che vedete in questa pagina, accanto alle descrizioni inferite dal decodificatore (Credit: Jerry Tang and Alexander Huth), suggerendo la possibilità che entrambi questi processi usino le medesime rappresentazioni.

Inoltre, quando un partecipante si concentrava su una storia, e ne ignorava un’altra che veniva raccontata nello stesso momento, il decodificatore era in grado di identificare il significato della storia che il volontario aveva intenzionalmente seguito.

Hurt e gli altri ricercatori hanno provato a vedere se la “macchina leggipensiero”, istruita a interpretare l’attività cerebrale di un certo partecipante, poteva funzionare anche su un altro, ma  questo non accadeva: il decodificatore funziona solo sulla persona con cui è stata fatta la fase di addestramento iniziale e, almeno per ora, non può decodificare i pensieri di chiunque. In futuro tuttavia, hanno osservato gli studiosi, l’avanzamento di queste tecnologie potrebbe essere tale da rendere necessarie politiche di protezione della “privacy mentale”.

Nel frattempo gli studiosi si agurano che questa macchina possa permettere di dialogare con persone che non riescono più a comunicare, come chi ha avuto un ictus o chi soffre di atrofie muscolari o della sindrome del chiavistello. E progettano di verificare se questa tecnica funziona ugualmente se al posto della risonanza magnetica funzionale si osserva il cervello attraverso sistemi di neuroimaging  più facili da trasportare, come la spettroscopia funzionale nel vicino infrarosso (fNIRS).