Sincronizziamo i cervelli

27 Apr 2019

Un gruppo sempre più numeroso di neuroscienziati utilizza una tecnologia sofisticata e una matematica molto complessa per catturare ciò che accade in uno, due o anche 12 o 15 cervello, nel momento in cui le persone sono impegnate nel contatto visivo, nella narrazione, nell'attenzione congiunta focalizzata su un argomento o su un oggetto, o qualsiasi altra attività che richieda uno scambio sociale di dare e avere.

Anche se il campo delle neuroscienze sociali interattive è ancora agli inizi, la speranza è che l'identificazione delle basi neuronali del vero scambio sociale possa cambiare la nostra comprensione di base della comunicazione, e in definitiva migliorare l'educazione o influenzare il trattamento dei molti disturbi psichiatrici che coinvolgono disabilità sociali.

In precedenza, i limiti della tecnologia hanno rappresentato un grosso ostacolo allo studio dell'interazione umana reale. L'imaging cerebrale richiede l’immobilità del soggetto e il rigore scientifico richiede un livello di controllo sperimentale tutt'altro che naturale. Di conseguenza, è difficile ottenere dati di alta qualità da un cervello; farlo con due cervelli "vuol dire più che raddoppiare", spiega il neuroscienziato David Poeppel della New York University. "Devi sincronizzare i macchinari, i dati e l'acquisizione dei dati".

Tuttavia, il primo studio che ha monitorato con successo due cervelli contemporaneamente risale a circa 20 anni fa. Il fisico Read Montague, ora al Virginia Tech, e i suoi colleghi, hanno messo due persone dentro macchine per la risonanza magnetica funzionale (fMRI) separate e hanno osservato la loro attività cerebrale mentre erano impegnate in un semplice gioco competitivo in cui un giocatore (il mittente) doveva trasmettere un segnale non appena avesse visto il colore rosso o verde e l'altro giocatore (il ricevente) doveva decidere se il mittente stesse dicendo la verità o mentendo. Le ipotesi corrette determinavano l'attribuzione di una ricompensa. Montague ha chiamato la tecnica "iperscanning", e il suo lavoro ha dimostrato la possibilità di osservare due cervelli contemporaneamente.

L’iperscanning ora viene applicato a qualsiasi ricerca di imaging cerebrale che coinvolge più di una persona. Attualmente, le tecniche che vi si adattano includono l'elettroencefalografia (EEG), la magnetoencefalografia e la spettroscopia funzionale nel vicino infrarosso. L'uso di queste varie tecniche, molte delle quali piuttosto nuove, ha ampliato la gamma di possibili esperimenti e ha reso l'iperscanning meno ingombrante e, di conseguenza, molto più popolare.

Al di là delle sfide pratiche delle neuroscienze interattive, è emersa una domanda più filosofica, vale a dire se le informazioni neurali raccolte monitorando le persone durante l'interazione sociale sono significativamente diverse dalle scansioni effettuate quando i soggetti sono soli o agiscono solo come osservatori. È importante che la persona che stiamo guardando ci guardi a sua volta? C'è differenza tra pronunciare una frase e rivolgerla a qualcuno che sta ascoltando?

Sì, a quanto pare una differenza c'è. Stanno aumentando, spiega lo psichiatra e neuroscienziato sociale Leonhard Schilbach del Max-Planck-Institut per la Psichiatria di Monaco di Baviera, che "la cognizione sociale differisce fondamentalmente quando si è  coinvolti direttamente con un'altra persona rispetto a quando si osserva un'altra persona".

Nei cervelli dei bambini, le regioni coinvolte nel pensare agli stati mentali degli altri – nel “mentalizzare”, in altri termini – sono più attive quando credono di interagire con un coetaneo rispetto a quando non lo sono. In studi di attenzione congiunta, una componente critica dell'interazione sociale, Redcay ha scoperto che le regioni coinvolte nella mentalizzazione cerebrale, come la giunzione parietale temporale, rispondevano in modo diverso quando i soggetti condividevano l'attenzione rispetto a quando guardavano qualcosa in modo indipendente.

Schilbach è stato uno dei principali fautori di quella che definisce la neuroscienza in seconda persona. I suoi studi hanno incluso personaggi virtuali che sembrano rispondere allo sguardo di un partecipante. In quelle situazioni, "i cosiddetti network di mentalizzazione e network di osservazione dell'azione sembrano connessi molto più strettamente di quanto pensassimo", afferma. "Si influenzano a vicenda, a volte in modo complementare e talvolta in modo inibitorio”. Schilbach ha scoperto inoltre che anche azioni molto semplici, come guardare un'altra persona e credere che questa stia ricambiando lo sguardo – un'interazione in cui percepisci che il tuo comportamento ha un effetto su un'altra persona – stimolano l'attività nel circuito di ricompensa del cervello, in particolare nello striato ventrale. E quanto più gratificante troviamo un comportamento, tanto più è probabile che lo ripeteremo.

Che cosa sta succedendo nel cervello dell'altra persona? Il contatto visivo era il posto più logico dove cercare.
Avere un contatto visivo attiva il cervello sociale e segnala a un'altra persona che stiamo prestando attenzione. È un modo con cui condividiamo intenzioni ed emozioni. All'inizio del 2019, Norihiro Sadato dell'Istituto nazionale di scienze fisiologiche in Giappone, e i suoi colleghi, hanno usato l'iperscanning per mostrare che il contatto visivo prepara il cervello sociale a entrare in empatia attivando contemporaneamente le stesse aree del cervello di ogni persona: il cervelletto, che aiuta a predire il conseguenze sensoriali delle azioni, e il sistema limbico dei neuroni a specchio, un insieme di aree cerebrali che si attivano sia quando muoviamo qualsiasi parte del corpo (inclusi gli occhi) sia quando osserviamo i movimenti di qualcun altro.

Guardarsi negli occhi prepara il cervello all'interazione sociale (© iStock)Il sistema limbico, in generale, è alla base della nostra capacità di riconoscere e condividere le emozioni. In altre parole, è fondamentale per regolare la nostra capacità di empatia.

Le storie che ci raccontiamo sono il mezzo ideale per esplorare il collante sociale che ci lega. Il neuroscienziato Uri Hasson della Princeton University ha condotto esperimenti pionieristici sull'accoppiamento dei cervelli usando la narrazione.

In uno di questi studi, ha posto un soggetto in uno scanner e gli ha chiesto di raccontare una storia. In seguito ha inserito un'altra persona nello scanner e gli ha fatto ascoltare una registrazione della storia raccontata dalla prima persona. Hasson ha confrontato l’elaborazione del cervello di chi parlava con quella di chi ascoltava nel corso del test, abbinando la loro attività cerebrale momento per momento e ha trovato la prova dell'accoppiamento dei due cervelli. "Il cervello dell'ascoltatore diventa simile al cervello di chi parla", dice Hasson. E più i cervelli erano allineati, maggiore era la comprensione riferita dall'ascoltatore. Afferma Hasson, "Il tuo cervello come individuo è determinato dal cervello a cui sei connesso."

Di recente Hasson ha unito le forze con Wheatley di Dartmouth per vedere se riuscivano a misurare l'accoppiamento dei cervelli durante la conversazione.

Una buona conversazione, dice Wheatley, significa "creare nuove idee insieme ed esperienze che non avresti potuto avere da solo". Vuole vedere quell'esperienza nel cervello. Il loro studio prevede l’uso di scanner in diverse università collegati online. (La maggior parte dei dipartimenti di psicologia ha solo uno scanner.) Con una persona in ogni scanner, i soggetti completano una storia a turno: un partecipante pronuncia alcune frasi e l'altro riprende da dove il compagno si è interrotto. Se gli scienziati possono catturare gli stati cerebrali durante questa interazione, dice Wheatley, potrebbero essere in grado di vedere come due cervelli si avvicinano e poi si allontanano l'uno dall'altro durante la conversazione.

Forse inevitabilmente, i neuroscienziati sono passati a studiare non solo due, ma molti cervelli contemporaneamente. Questi esperimenti richiedono l'uso dell'EEG perché è portatile.

I primi studi hanno dimostrato che quando ci impegniamo in attività di gruppo come concerti o film, le nostre onde cerebrali si sincronizzano: l'attenzione rapita del pubblico significa che gli spettatori elaborano allo stesso modo il finale sinfonico o una scena d'amore o di lotta. Ciò non è poi così sorprendente, ma ora gli scienziati stanno applicando lo stesso approccio nelle aule scolastiche, dove i risultati potrebbero aggiungere ciò che sappiamo su come gli studenti possono apprendono meglio.

In una serie di studi nelle scuole superiori di New York, un gruppo di ricercatori dell'Università di New York tra cui Poeppel, Suzanne Dikker e Ido Davidesco ha fatto ripetute registrazioni EEG di ogni studente in una classe di biologia nel corso di un semestre. Hanno scoperto che le onde cerebrali degli studenti erano più in sintonia tra loro quando erano più impegnati in classe. La sincronia da cervello a cervello riflette anche quanto gli studenti si piacciono tra loro e quanto apprezzano l'insegnante: relazioni più strette portano a una maggiore sincronizzazione. Il loro studio attuale sta esaminando se i livelli di sincronia cerebrale durante la lezione predicono la conservazione dei contenuti appresi. "Penso che quello che stiamo facendo è molto utile", dice Poeppel. "Ma come usare queste tecniche in modo mirato per l'apprendimento STEM?”.

"Schilbach crede che le neuroscienze interattive abbiano anche applicazioni nella vita reale in psichiatria. Potrebbero rendere possibile prevedere quale terapeuta funzionerà meglio con quale paziente, per esempio. E l'attenzione alle situazioni della vita reale aiuta a garantire che ogni scoperta abbia un valore per i pazienti. "Come psichiatra", dice Schilbach, "non sono interessato ad aiutare una persona a migliorare in un particolare compito sociale cognitivo. Sto cercando di aiutare quella persona a condurre una vita felice e soddisfacente”.

(L'originale di questo articolo è stato pubblicato su Scientific American il 10 aprile 2019. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.)