Sperimentato un nuovo chip impiantato nel cervello e che, sperano gli scienziati, in futuro ci aiuterà per poter leggere il pensiero e magari aiutare chi soffre di alcuni disturbi che limitano, per esempio, la facoltà di parlare. Il chip decodifica i segnali provenienti dall’area cerebrale che controlla i muscoli usati per parlare e prevede i suoni che si sta cercando di pronunciare. Per ora il metodo descritto su Nature Communications e sviluppato da Gregory Cogan e Jonathan Viventi, dell’Università Duke negli Stati Uniti, si è dimostrato efficiente solo per pochi suoni e parole senza senso ma è un primo importante passo per aiutare in futuro chi ha disturbi del linguaggio.
Chip impiantato nel cervello, l’esperimento per provare a leggere il pensiero. La ricerca
Ci sono molti disturbi, tra cui la Sindrome Laterale Amiotrofica, che colpiscono i neuroni per il controllo motorio e limitano tra le altre cose la capacità di parlare, e gli attuali sistemi per aiutare chi ne è colpito sono ancora molto lenti poco efficaci. Per cercare di aiutarli i ricercatori americani hanno sviluppato una nuova tipologia di chip impiantabile nel cervello capace di riconoscere i segnali prodotti dai neuroni coinvolti nel coordinamento motorio per il linguaggio, circa un centinaio di muscoli che controllano ad esempio il movimento della lingua e delle labbra. Per testarne il funzionamento i ricercatori hanno chiesto l’autorizzazione a pazienti che dovevano sottoporsi a interventi chirurgici senza sedazione profonda per altri motivi, ad esempio per rimuovere tumori, e approfittato dell’intervento per testare il dispositivo anche solo pochi minuti: come una sorta di pit-stop nelle gare automobilistiche, hanno detto gli stessi autori. Pochi minuti durante i quali l’impianto è stato poggiato sopra la zona di corteccia cerebrale interessata e chiesto ai pazienti di ascoltare e ripetere alcuni suoni e parole senza senso. I dati ottenuti, impulsi elettrici relativi al controllo dei muscoli del linguaggio, sono poi stati inseriti in un algoritmo di apprendimento automatico per vedere con quanta precisione poteva prevedere quale suono il paziente avrebbe voluto produrre. Il metodo ha dimostrato una precisione dell’84% per alcune tipologie di suoni fino a un minimo del 40% con altri suoni: un primo passo incoraggiante, anche se ancora lontano da una reale applicabilità, per futuri chip impiantabili capaci di dare nuovamente la parola leggendo semplicemente il pensiero.