La tecnologia nel cervello

Gli attuali progetti di Big Science dedicati allo studio del cervello sono stati lanciati a distanza di pochi mesi l’uno dall’altro nel 2013 da due grandi potenze del mondo occidentale. In Europa è nato Human Brain Project1, per il quale sono stati stanziati 1,2 miliardi di euro per dieci anni, mentre negli Stati Uniti d’America è nato il progetto BRAIN (Brain Research through Advancing Innovative Neurotechnologies) Initiative2, per il quale sono stati stanziati tre miliardi di dollari per dieci anni. I due progetti sono risultati essere complementari, tant’è vero che a poco più di un anno dal loro avvio e iniziata una collaborazione, in quanto il progetto europeo mira a creare una simulazione in silico (ossia una simulazione matematica al computer) del cervello, mentre quello statunitense mira a ottenere una mappatura completa di tutte le connessioni cerebrali. La complementarietà risiede nel fatto che i dati ottenuti dal progetto statunitense rappresenterebbero, per i ricercatori europei, la possibilità di validare i modelli neurali da essi creati e, per contro, questi stessi modelli permetterebbero ai ricercatori statunitensi di effettuare in silico esperimenti non realizzabili sul tessuto biologico [1]. Sembra dunque che ciascun progetto abbia bisogno del successo dell’altro per poter realizzare i propri obiettivi.
Gli obiettivi comuni ai due progetti sono sostanzialmente tre: uno di tipo conoscitivo per le Neuroscienze (il cervello è l’organo più complesso e meno conosciuto del nostro organismo); uno applicativo che si proietta sul settore biomedico (infatti tali progetti potrebbero rappresentare una svolta nella cura delle malattie neurodegenerative come Parkinson e Alzheimer, al punto tale da poter ottenere una diagnosi precoce e attuare un trattamento ad personam); infine, si pone anche un obiettivo applicativo che si proietta sul settore tecnologico, che spazia dall’Ingegneria all’Informatica, alla Robotica, in quanto è necessario sviluppare tecnologie adatte allo studio del cervello per poter ottenere una comprensione sistemica di come esso funzioni. Dunque, creare un ponte tra i due progetti significherà evitare ridondanza nella ricerca e accelerare il progresso [2].
Questi progetti non nascono dal nulla. Già nel 1993 nasceva negli Stati Uniti d’America il progetto Human Brain Project [3] con lo scopo di creare una rete di lavoro fra diversi gruppi di ricerca, per condividere e scambiare dati, e di favorire le tecnologie computazionali; nel 2005 in Europa e nato il progetto Blue Brain Project [4] che scaturiva da una collaborazione fra l’École Polytechinque federale di Losanna e l’IBM, avente come obiettivo la realizzazione di modelli neurali in silico; tornando negli Stati Uniti d’America, nel 2011, un gruppo indipendente di ricercatori, sponsorizzato da organizzazioni filantropiche, ha sviluppato il progetto Brain Activity Map [5] al fine di generare una mappa dinamica delle connessioni cerebrali, quello che è stato definito il “connettoma” funzionale. Il progetto europeo del 2013 incorpora il Blue Brain Project del 2005 (mantenendo anche lo stesso direttore Henry Markram), analogamente, il progetto statunitense del 2013 ingloba il Brain Activity Map del 2011, ampliandolo e sostenendolo anche con fondi pubblici.Benvenuti nel secolo del cervello.
I progetti dei decenni scorsi hanno permesso di creare le basi, non solo teoriche ma anche tecniche, per gli attuali progetti. Grazie ai modelli animali – che permettono un’elaborazione dei modelli funzionali semplificata da cui partire per studiare il cervello umano – sono già state acquisite conoscenze su come il cervello elabori le informazioni senso-motorie. Inoltre, si hanno conoscenze sempre più approfondite sulle basi neurobiologiche dell’apprendimento, della memoria, delle emozioni e della presa di decisione. In aggiunta a ciò, lo sviluppo tecnologico, molecolare e computazionale degli ultimi anni ha permesso uno studio accurato del cervello, grazie alla registrazione simultanea dell’attività di molti neuroni per definire le connessioni e correlare la struttura alla funzione. In questo senso le tecniche di neuroimaging, come per esempio la risonanza magnetica funzionale (fMRI) e l’elettroencefalogramma (EEG), hanno rappresentato una svolta nelle Neuroscienze. Tali tecniche, fornendo immagini a bassa risoluzione di ampie aree cerebrali, hanno permesso di “fotografare” l’intero cervello e di ampliare, cosi, le conoscenze derivate dallo studio incentrato su singoli geni, molecole, sinapsi e neuroni. Questi due livelli di studio continuano a essere necessari, ma non bastano più: si cerca un livello intermedio, se cosi possiamo dire, dato da migliaia e milioni di neuroni che formino un circuito funzionale. La sfida per le Neuroscienze di oggi sta nel mappare i circuiti neurali, misurare le variazioni dell’attività elettrica e chimica lungo questi circuiti e comprendere come essi interagiscano tra loro per creare le risposte cognitive e comportamentali [6].
La funzione cerebrale e un processo dinamico che cambia su una scala di millisecondi, ma molte delle tecniche di oggi sono invece statiche. I circuiti neurali coinvolgono in una rete complessa almeno 106 cellule, ma le tecniche di Neurofisiologia sono in grado di registrare l’attività di una singola cellula o, al massimo, di poche cellule. Per quanto riguarda le tecniche di neuroimaging, queste forniscono l’immagine dell’intero cervello in azione, ma ciascun elemento di immagine, il voxel, include almeno 80.000 neuroni e 4.5 milioni di sinapsi. Per cui un’immagine di fMRI composta da 680.000 voxels risulta inadatta a individuare i circuiti coinvolti, anche perché tale tecnica non registra l’attività neuronale direttamente, ma i cambiamenti del flusso sanguigno e del consumo di ossigeno [2]. Analogamente, l’EEG risulta essere una tecnica inadeguata ad affrontare le nuove sfide neuroscientifiche in quanto misura l’attività elettrica di oltre 100.000 neuroni ma senza distinguere quale neurone sia attivo, oltretutto registra l’attività solo dei neuroni degli strati più superficiali, ovvero la corteccia cerebrale se si parla dei primati. Per analizzare strutture più profonde, in passato e stata ampiamente utilizzata l’elettrofisiologia, una tecnica invasiva che permette di misurare l’attività elettrica in quantità di corrente attraverso un filamento metallico inserito in una zona prescelta. Teoricamente in questo modo e possibile misurare l’attività di una singola cellula, ma più spesso ciò che viene registrato e il cambiamento di potenziale elettrico di un gruppo di cellule adiacenti. Inoltre bisogna considerare che, anche qualora si riesca a monitorare l’attività di una singola cellula, per avere un’idea di come e quando viene attivata una regione cerebrale occorre ripetere l’esperimento per ogni cellula, il che comporta un impiego di tempo enorme e non permette la contemporaneità della misurazione. Per queste ragioni, da un’analisi della corrente si e passati a un’analisi ottica, ovvero a un’analisi che si avvale dell’utilizzo di marcatori fluorescenti per riuscire finalmente a “vedere” l’attività cerebrale. Un enorme passo avanti nella ricerca neuroscientifica e stato fatto con lo sviluppo della tecnica del calcium imaging [7]. Non essendo possibile avere un’immagine visibile della corrente, con questa tecnica si va a guardare la quantità di ioni calcio (Ca2+) presente nei neuroni, indicatori della loro attività. Grazie a molecole fluorescenti che legano il Ca2+, e possibile vedere l’attività dei singoli neuroni come aumento e diminuzione del segnale fluorescente. Al contrario dell’elettrofisiologia, con il calcium imaging e possibile analizzare contemporaneamente l’attività di intere aree cerebrali, con una risoluzione di singole cellule. Quindi e possibile sapere esattamente quali cellule si stanno osservando e analizzando, il che rende più facile un confronto nel tempo e fra diversi individui. Una tecnica ottica alternativa e rappresentata dal voltage imaging [9] che si basa sull’uso di molecole in grado di modificare le proprie caratteristiche ottiche, ossia l’emissione di fluorescenza, come risposta delle variazioni del potenziale di membrana. Le molecole utilizzate in queste tecniche vengono continuamente migliorate: stiamo parlando di variazioni che avvengono nell’arco di pochi millisecondi, perciò le molecole che segnalano queste variazioni mediante l’emissione di fluorescenza devono essere altrettanto veloci. Questo, se non altro, a livello teorico e ideale. Nella realtà esistono ancora dei limiti, dati proprio dalla lentezza della tecnica rispetto alla rapida scarica di impulsi dei neuroni. Ma le innovazioni tecnologiche si susseguono in continuazione.
Lo sviluppo di nuove tecnologie e avvenuto sfruttando le conoscenze raggiunte in altri campi di ricerca, come la Fisica e l’Ingegneria genetica. La ricerca biotecnologica sta puntando molto sullo studio di proteine fotoattivabili, ovvero, nel caso del sistema nervoso, molecole responsabili dell’attività neuronale, in grado di attivarsi o spegnersi se stimolate con laser di diverse lunghezze d’onda. L’optogenetica[9] è forse la più celebre e innovativa di queste recenti tecniche. Nata circa dieci anni fa dalla fusione di conoscenze di Fisica quantistica e di Ottica fisica con l’Ingegneria genetica e la Neurofisiologia, l’optogenetica consiste nella mutazione di canali presenti sui neuroni a livello delle sinapsi, responsabili del trasferimento del segnale nervoso. Questa mutazione permette l’attivazione di questi canali solo se illuminati da una luce di una determinata lunghezza d’onda. Fibre ottiche molto sottili possono permettere quindi l’attivazione di regioni selettive e definite del cervello.
Il grande vantaggio di questa tecnica, cosi come del calcium imaging, e che puo essere utilizzata in vivo, ossia su animali svegli e attivi, permettendo quindi di correlare l’attivazione (o l’inibizione) di una regione cerebrale con il comportamento. Nonostante non sia una tecnica invasiva, lo svantaggio e rappresentato dal fatto che richiede l’esposizione diretta del cervello, il che rende animali trasparenti quali le larve di Zebrafish e Xenopus o C. elegans modelli animali estremamente favoriti. Nel caso della Drosophila o del topo, la rimozione di una parte di cuticola o cranio, rispettivamente, e necessaria.
Un’altra grande innovazione tecnologica è avvenuta nell’ambito della microscopia, in particolare con lo sviluppo e la diffusione del microscopio a due fotoni. Tale tecnica offre immagini ad alta risoluzione e ad alto contrasto di fluorescenza del cervello, permettendo di penetrare nel tessuto a una profondità di circa un millimetro (per ottenere immagini ancora più profonde sarebbe necessario rimuovere le strutture di rivestimento oppure inserire le fibre ottiche nel tessuto, ma in entrambi i casi si arrecherebbe un danno alla struttura) [10]. Il principio alla base risiede nella possibilità di combinare due fotoni a bassa energia per causare una transizione elettronica a energia maggiore in una molecola fluorescente. I fotoni a bassa energia vengono focalizzati su un singolo piano e vi eccitano solo le molecole che li ricevono a coppie (cosa che non avviene fuori dal piano di focalizzazione). Il vantaggio di tale tecnica, rispetto alla microscopia a un fotone, consiste nel fatto che le lunghezze d’onda utilizzate nell’eccitazione, il rosso profondo e l’infrarosso vicino, penetrano nel tessuto in modo migliore (e senza danneggiarlo) rispetto alle lunghezze d’onda del visibile usate nella microscopia a un fotone. L’associazione di questo metodo di analisi di microscopia ottica con tecniche di marcatura a fluorescenza conducibili in vivo, come il calcium imaging, ha ampliato la strada verso l’acquisizione di immagini di tessuti intatti di animali vivi.
Alcune tecniche anatomiche che sfruttano la microscopia ottica, come per esempio Brainbow e Clari ty, stanno fornendo nuove opportunità per tracciare l’interconnessione tra diverse regioni cerebrali e singoli neuroni, rivelando immagini dell’architettura neurale cosi dettagliate mai viste prima. Il metodo Brainbow [11] consiste nel marcare geneticamente i neuroni con proteine fluorescenti di colori diversi. La strategia si basa sul processo di ricombinazione genica per poter far esprimere, da un singolo promotore, una delle tre proteine fluorescenti (rosso, blu, verde) in una popolazione cellulare; integrando, poi, copie multiple geneticamente modificate all’interno di una cellula, i tre colori primari possono mescolarsi, aumentando le combinazioni di colore possibili. La diversità dei colori fornisce la possibilità di studiare la morfologia neurale, permettendo di distinguere tra neuroni vicini, o tra neuroni e glia, e di poter verificare l’identità del processo neuronale all’interno di un circuito tracciato. Il metodo Clarity [13] (Clear Lipid-exchanged Acrylamide-hybridized Rigid Imaging Immunostaining In situ hybridization-compatible Tissue-hYdrogel), permette di ottenere dettagli strutturali e molecolari da sistemi biologici intatti. L’acronimo si riferisce ai processi di trasformazione a cui vengono sottoposti i tessuti biologici (cervelli di topi sacrificati o cervelli umani post-mortem) per ottenere un costrutto visivamente trasparente e permeabile alle macromolecole, preservando nello stesso tempo la struttura e l’informazione molecolare originarie. Questo e possibile grazie alla rimozione non distruttiva del doppio strato fosfolipidico il che permette alla luce e alle macromolecole di penetrare profondamente nel tessuto. Inoltre, il tessuto viene dotato di un’impalcatura di gel idratato necessaria dal momento che con la rimozione del doppio strato fosfolipidico la cellula perderebbe la sua integrità e le molecole verrebbero danneggiate. In questo modo, quindi, e possibile ottenere immagini tridimensionali e analisi immunoistologiche senza aver intaccato la trama cellulare. I vantaggi di Clarity, rispetto alle precedenti tecniche, consistono nel poter preservare le molecole cellulari originarie, nella rapida diffusione delle sonde molecolari all’interno delle cellule e nella loro rimozione senza danneggiare il tessuto.
Ma la strada che sembra davvero promettente nello studio del cervello e rappresentata dalle nanotecnologie, ovverosia dall’utilizzo di piccole particelle (i punti quantici) di semiconduttore che permettono la costruzione di materiali innovativi non biologici. Le nanoparticelle sono piccoli composti inorganici resistenti a una prolungata esposizione alla luce e sensibili al campo elettromagnetico esterno [5] (quest’ultima caratteristica e valida soprattutto per i nanodiamanti). Essendo caratterizzate da grande assorbimento ed efficiente emissione della luce, le nanoparticelle agiscono come delle antenne per la luce, potenziando l’emissione dei segnali ottici rispetto alle altre tecniche di cui abbiamo gia discusso. Le possibilità poi si ampliano se le nanoparticelle vengono combinate con i coloranti tradizionali, siano essi organici o geneticamente modificati.
Molte delle tecniche che abbiamo definito “nuove” in realtà, come abbiamo visto, risalgono a una decina di anni fa. Solo ora pero si sono diffuse, poichè da un lato i costi delle apparecchiature si sono abbassati e dall’altro le tecniche sono state perfezionate, attraendo un maggior numero di ricercatori. Inoltre, e servito del tempo per accumulare una quantità tale di risultati da uscire dal campo prettamente tecnico e poter entrare nel campo applicativo. Lo sviluppo di nuove tecniche e un processo continuo. Oggi sono in corso sviluppi tecnologici di cui forse sentiremo parlare fra dieci anni, ma il passaggio alle tecniche di tipo ottico, ossia al visibile, ha senz’altro rappresentato un radicale cambiamento che ha incoraggiato il finanziamento degli attuali grandi progetti in ambito neuro-scientifico. Per raggiungere gli obiettivi che il mondo scientifico si sta prefissando e necessario creare la prossima generazione strumentale, complessa e integrata come richiesto dall’oggetto di studio: consideriamo che la scala spaziale di interesse dei ricercatori va dalle singole sinapsi (∼1 μm) ai circuiti neurali (centimetri) e che la scala temporale va dalla rapida attivazione dei canali (meno di un millisecondo) al consolidamento della memoria a lungo termine (anni). Un arco di spazio e tempo molto ampio che richiede l’integrazione dei successi raggiunti in diversi ambiti scientifici.
Al contrario di quanto accaduto nei progetti di ricerca del passato, oggi, l’oggetto di studio della ricerca scientifica e anche il soggetto della ricerca stessa. Potremmo dire che il cervello sta indagando se stesso, il che probabilmente rende la sfida ancora più ardua.

 

Bibliografia
[1] Kandel E.R., Markram H., Matthews P.M., Yuste R., Koch C., “Neuroscience thinks big (and collaboratively)”, Nature Reviews Neuroscience, 2013, vol. 14, no. 9, pp. 659-664.
[2] Insel T.R., Landis S.C., Collins F.S., “Research priorities. The NIH BRAIN Initiative”, Science, 2013, vol. 340, no. 6133, pp. 687-688.
[3] “The Human Brain Project: phase I feasibility studies”, NIH Guide, 1993, vol. 22, no. 13.
[4] Markram H., “The Blue Brain Project”, Nature Reviews Neuroscience, 2006, vol. 7, no. 2, pp. 153-160.
[5] Alivisatos A.P., Chun M., Church G.M., Greenspan R.J., Roukes M.L., Yuste R., “The Brain Activity Map Project and the Challenge of Functional Connectomics”, Neuron, 2012, vol. 74, no. 6, pp. 970-974.
[6] BRAIN 2025, A Scientific Vision, Brain Research through Advancing Innovative Neurotechnologies (BRAIN), Working Group Report to the Advisory Committee to the Director, NIH, 2014.
[7] Stosiek C., Garaschuk O., Holthoff K., Konnerth A., “In vivo two-photon calcium imaging of neuronal networks”, Proceedings of the National Academy of Sciences, 2003, vol. 100, no. 12, pp. 7319-7324.
[8] Peterka D.S., Takahashi H., Yuste R., “Imaging Voltage in Neurons”, Neuron, 2011, vol. 69, no. 1, pp. 9-21.
[9] Deisseroth K., Feng G., Majewska A. K., Miesenbock G., Ting A., Schnitzer M.J., “Next-generation optical technologies for illuminating genetically targeted brain circuits”, Journal of Neuroscience, 2006, vol. 26, no. 41, pp. 10380-10386.
[10] Svoboda K., Yasuda R., “Principles of two-photon excitation microscopy and its applications to neuroscience”, Neuron, 2006, vol. 50, no. 6, pp. 823-839.
[11] Livet J., Weissman T.A., Kang H., Draft R.W., Lu J., Bennis R.A., Sanes J.R., Lichtman J.W., “Transgenic strategies for combinatorial expression of fluorescent proteins in the nervous system”, Nature, 2007, vol. 450, no. 7166, pp. 56-62.
[12] Chung K., Wallace J., Kim S., Kalyanasundaram S., Andalman A.S., Davidson T.J., Mirzabekov J.J., Zalocusky K.A., Mattis J., Denisin A.K., Pak S., Bernstein H., Ramakrishnan C., Grosenick L., Gradinaru V., Deisseroth K., “Structural and molecular interrogation of intact biological systems”, Nature, 2013, vol. 497, no. 7449, pp. 332-337.