neuroni e sinapsi, modelli teorici di
Le straordinarie capacità di elaborazione del cervello sono rese possibili dalla complessità della rete nervosa. Alcuni approcci teorici allo studio degli elementi base di tale rete, i neuroni e le sinapsi, mettono in luce la gerarchia di semplificazioni che consentono, a partire da descrizioni matematiche relativamente realistiche, di astrarre modelli abbastanza semplici da consentirne l’utilizzo in un contesto di rete. «Avevo sistemato gli elettrodi sul nervo ottico di un rospo, in relazione ad alcuni esperimenti sulla retina. La stanza era quasi buia e rimasi perplesso nel sentire ripetutamente dei rumori emessi dall’altoparlante collegato all’amplificatore, rumori che indicavano una gran quantità di impulsi emessi. Solo quando confrontai quei rumori con i miei movimenti nella stanza mi resi conto che ero nel campo visivo del rospo, il quale stava segnalando quello che stavo facendo». Edgar D. Adrian, considerato il fondatore della elettrofisiologia, nel 1928 racconta con queste parole l’affacciarsi dell’idea che il cervello codificasse informazioni sul mondo esterno attraverso sequenze di impulsi elettrici generati dai neuroni. I classici lavori di Adrian, della fine degli anni Venti del secolo scorso, stabilirono che la frequenza media di emissione di impulsi codifica in modo affidabile l’intensità di uno stimolo, e gli valsero pochi anni dopo (1932) il premio Nobel per la medicina o la fisiologia insieme a un altro dei padri delle neuroscienze, Sir Charles S. Sherrington. L’idea che la frequenza di scarica neuronale sia il veicolo fondamentale di trasmissione dell’informazione nel cervello ha accompagnato lo sviluppo delle neuroscienze per quasi un secolo, anche se è stata messa in discussione a partire dagli anni Ottanta con la proposta che giocasse un ruolo importante anche la struttura temporale dettagliata e coordinata delle sequenze di impulsi emessi da diversi neuroni. [➔ depressione a lungo termine; neurone; plasticità neurale; potenziamento a lungo termine; sinapsi]
Dato il ruolo dell’impulso neuronale (spike) come principale veicolo di trasmissione delle informazioni, sensoriali e non, nel sistema nervoso, non sorprende che molti sforzi, già dalla metà del secolo scorso, siano stati rivolti alla comprensione dei meccanismi di generazione di tali impulsi. Tuttavia, lo sviluppo di modelli teorici della cellula nervosa, oltre alla comprensione dei principi biofisici della sua attività elettrica, ha seguito anche un altro percorso di estrema sintesi in cui i neuroni sono ridotti a entità formali, trascurando completamente la biofisica del fenomeno. Una pietra miliare in questa direzione è stato il lavoro di Warren S. McCulloch e Walter Pitts del 1943, in cui la natura ‘tutto-o-niente’ dell’attività elettrica costituita dalla presenza o assenza di spike nelle fibre nervose veniva rimpiazzata da una sequenza di risposte binarie, riducendo l’elaborazione del singolo neurone all’equivalente di una funzione logica dell’input. L’obiettivo principale di questo tipo di approcci consiste nel capire come l’informazione codificata nelle frequenze di neuroni possa comporsi in una rete fino a portare allo sviluppo di capacità computazionali di interesse, di cui alcuni esempi sono la classificazione di stimoli o l’apprendimento di relazioni tra gli stimoli e le risposte comportamentali.
Registrando con un microelettrodo inserito all’interno di un neurone del calamaro, a partire dalla fine degli anni Trenta, Alan L. Hodgkin e Andrew Huxley dimostrarono che gli spike registrati nel mezzo extracellulare da Adrian erano dovuti a una rapida variazione della polarizzazione elettrica della membrana neuronale originata dal soma, il corpo centrale della cellula, che si propagava mantenendo praticamente invariata la sua forma attraverso l’assone, il filamento cellulare di output dalla tipica forma ramificata. Negli anni successivi a questa scoperta, Hodgkin e Huxley, con un lavoro che guadagnò loro il premio Nobel per la medicina o la fisiologia nel 1963, riuscirono a spiegare quali erano i meccanismi biofisici alla base dell’insorgenza e della propagazione di questi potenziali d’azione, sviluppando un modello matematico basato su dati incompleti e risolvendo numericamente equazioni non lineari alle derivate parziali con un calcolatore a mano molto primitivo. Il modello parte dalla descrizione del potenziale di membrana V associato al campo elettrico generato dalle diverse concentrazioni, all’interno e all’esterno della cellula, di alcune specie ioniche come potassio (K+) e sodio (Na+). Il flusso di corrente attraverso la membrana è determinato, oltre che dal gradiente di concentrazioni ioniche, anche dalla permeabilità (conduttanza) con cui i canali lasciano filtrare le diverse specie ioniche. L’elemento innovativo introdotto dal modello riguarda la natura attiva di queste conduttanze, dovuta alla loro dipendenza non lineare da V e ottenuta da una complessa inferenza a partire dai dati allora disponibili. Il potenziale d’azione insorge quando il neurone viene eccitato a un valore di soglia di V, per il quale i canali del sodio si attivano. Il rapido flusso di ioni che ne consegue porta la cellula in uno stato di forte depolarizzazione. Dopo circa 1 ms, durata tipica di uno spike, i canali del sodio si disattivano chiudendosi, lasciando che un flusso uscente di ioni potassio porti la membrana cellulare a essere altrettanto fortemente iperpolarizzata. Questo determina la fase conclusiva del potenziale d’azione, anche se solo al termine di un lento ripristino delle concentrazioni ioniche originarie il neurone torna a uno stato tale da permettere l’emissione di un nuovo spike. È questo il cosiddetto periodo refrattario assoluto, che limita la frequenza massima di impulsi che un neurone può emettere. Estendendo il modello a una porzione più ampia di assone e provocando l’inizio del potenziale in prossimità del soma, Hodgkin e Huxley integrarono nelle loro equazioni la cosiddetta ‘teoria del cavo’ per tener conto della diffusione di cariche tra segmenti adiacenti di assone e descrissero la propagazione dell’impulso lungo la membrana cellulare fino a raggiungere le terminazioni sinaptiche, riproducendo con impressionante accuratezza quanto osservato sperimentalmente.
Un altro passaggio determinante verso un modello dettagliato del neurone è quello della caratterizzazione dell’input ricevuto da una cellula nervosa attraverso il suo albero dendritico, l’appendice neuronale di input a monte del soma su cui si trovano i bottoni sinaptici. In questo caso l’attenzione si concentra sui meccanismi che determinano come l’attività presinaptica influenza la polarizzazione della membrana e si propaga attraverso il dendrite verso il soma. I lavori di Wilfrid Rall, a cavallo tra gli anni Cinquanta e Sessanta, posero le basi di un modello di dendrite passivo in cui le diverse ramificazioni cellulari presomatiche venivano descritte come segmenti di un assone alla Hodgkin-Huxley di sezione diversa, ma con conduttanze passive, cioè indipendenti dal potenziale di membrana. Secondo questa ipotesi il dendrite, contrariamente al soma e all’assone, non può generare e sostenere impulsi. Ciononostante, Rall dimostrò come le variazioni di polarizzazione indotte dall’attività presinaptica potevano propagarsi efficacemente attraverso il dendrite fino al soma e quindi essere adeguatamente integrate. Infatti, l’arrivo di un impulso da una terminazione assonale determina il rilascio di neurotrasmettitori che rapidamente si legano ai recettori ionotropici sulla membrana postsinaptica, inducendo una variazione temporanea della conduttanza. A seconda che il neurone presinaptico sia eccitatorio o inibitorio, la corrente ionica indotta depolarizzerà o iperpolarizzerà la membrana postsinaptica. La variazione del potenziale PSP (Post-Synaptic Potential) risultante può durare da pochi millisecondi a frazioni di secondo, a seconda del tipo di recettore.
A cavallo tra gli anni Sessanta e Settanta, una serie di studi dimostrò come modelli di neuroni ‘puntiformi’ (contrapposti ai neuroni ‘dettagliati’, che tengono conto del dettaglio della struttura dendritica), in cui la struttura cellulare veniva completamente trascurata, erano comunque in grado di riprodurre con grande precisione la statistica dei treni d’impulsi registrati sperimentalmente. In questi modelli l’intera membrana cellulare è equipotenziale: assone, dendrite e soma cambiano polarizzazione insieme. I PSP si compongono linearmente nel tempo determinando la corrente sinaptica che guida il potenziale di membrana. Tra i modelli puntiformi che meglio aderiscono alla realtà biologica c’è il neurone LIF (Leaky Integrate-and-Fire, integra-e-spara con perdita) in cui la corrente sinaptica, se presente, si accumula come in un circuito con una conduttanza e una capacità in parallelo, mentre in sua assenza la membrana si scarica con tempo tipico dell’ordine delle decine di millisecondi. Nel LIF le non linearità introdotte dal modello di Hodgkin-Huxley per generare un impulso sono incorporate attraverso un meccanismo per il quale se il potenziale supera un valore di soglia uno spike viene emesso, con la conseguente iperpolarizzazione della membrana che riporta il LIF a poter proseguire l’integrazione della corrente sinaptica. La ridotta complessità del LIF ne ha determinato l’ampia diffusione nelle neuroscienze computazionali, soprattutto per il suo impiego nello studio delle reti neuronali su larga scala come modello di tessuto cerebrale.
La natura elettrica o chimica della comunicazione sinaptica fu incerta e dibattuta a lungo; si è chiarito in seguito che nel sistema nervoso effettivamente esistono entrambi i tipi di sinapsi. Qui ci occuperemo solo della sinapsi chimica, rappresentata da un insieme di strutture attraverso le quali ha luogo la comunicazione direzionale tra un neurone presinaptico e uno postsinaptico. La modellistica teorica della sinapsi considera essenzialmente due aspetti tra loro connessi: l’effetto prodotto dalla trasmissione di uno spike dal neurone presinaptico sul neurone postsinaptico, e la modificazione nel tempo di tale effetto (plasticità sinaptica), a causa del ripetersi di specifiche relazioni tra le attività dei neuroni pre- e postsinaptici.
Un neurone forma tipicamente sinapsi con molti neuroni postsinaptici, e di regola queste sono tutte eccitatorie o tutte inibitorie, come specificato dalla legge di Dale (ciò consente di schematizzare i modelli in termini di ‘neuroni eccitatori’ e ‘neuroni inibitori’). La trasmissione sinaptica ha una natura probabilistica: come fu scoperto da Bernard Katz negli anni Sessanta, ogni ‘quanto’ di neurotrasmettitore, corrispondente allo svuotamento di una vescicola sinaptica, viene rilasciato probabilisticamente e in modo indipendente dagli altri. Tale natura probabilistica gioca un ruolo importante nelle sinapsi del sistema nervoso centrale (al contrario, per es., della giunzione neuromuscolare), di cui i modelli teorici tengono conto. La complessità della trasmissione sinaptica può essere trasferita in varia misura nei modelli teorici, e si intuisce che il grado appropriato e utile di aderenza del modello sinaptico alla realtà biologica dipende dal contesto: per es., se un modello vuole descrivere popolazioni neuronali di grande numerosità è chiaro che è necessaria una drastica semplificazione del modello sinaptico per assicurarne la trattabilità matematica o la possibilità di simulazione numerica.
Abbiamo visto che un elemento fondamentale nella formulazione dei modelli neuronali di diversa complessità è la definizione dell’input al neurone, che descrive l’effetto combinato del flusso di spike a esso afferenti. L’evento di trasmissione sinaptica equivale a una variazione della conduttanza per una o più specie ioniche sulla membrana del neurone postsinaptico, a causa dell’apertura e chiusura dei canali ionici corrispondenti. La corrente sinaptica è il prodotto di tale conduttanza variabile e della variazione istantanea di potenziale rispetto a un valore di riferimento che dipende dalla specie ionica considerata. Data la natura probabilistica del rilascio di neurotrasmettitori che causano tali variazioni, è naturale esprimere la conduttanza (per unità di superficie) a un certo istante per una data specie ionica come il prodotto della conduttanza del singolo canale aperto, della densità di canali sulla membrana e della frazione di canali aperti (ovvero la probabilità che il singolo canale sia aperto) a quell’istante. A sua volta, la probabilità di apertura di un canale si può pensare come il prodotto della probabilità di rilascio del neurotrasmettitore e della probabilità che, dato il rilascio, il canale venga aperto. Le variazioni di conduttanza possono dipendere dal valore del potenziale di membrana (come per il sodio e il potassio nella generazione dello spike) o dal legame di un neurotrasmettitore con il recettore. Il modello di Hodgkin-Huxley si basa su conduttanze variabili in funzione del potenziale di membrana, e ne descrive la dinamica in modo fenomenologico come l’effetto mediato su molti canali ionici per ogni specie ionica.
Studio delle cinetiche dei singoli canali ionici. Gli studi in patch clamp, che consente l’accesso alla dinamica del singolo canale ionico, hanno motivato una serie di modelli teorici per dedurre la dinamica delle conduttanze nella trasmissione sinaptica a partire da quella dei singoli canali. Questi modelli si basano sul formalismo dei processi stocastici di Markov, in cui le transizioni tra gli stati conformazionali dei canali (‘aperto’ o ‘chiuso’ nel caso più semplice) sono governate dalle probabilità di cui sopra, e hanno forma simile alle equazioni della cinetica di reazione in chimica. Essi stabiliscono sotto certe approssimazioni un andamento temporale semplice della frazione di canali aperti a partire dall’istante dell’apertura delle vescicole sinaptiche dopo l’arrivo del potenziale d’azione; i dettagli dipendono dal neurotrasmettitore rilasciato, ma la forma generale prevede una crescita rapida della conduttanza, il raggiungimento di un valore massimo e un decadimento più lento. Questi modelli cinetici sono stati estesi anche alla dinamica dei recettori metabotropici. I modelli cinetici dettano dunque l’andamento temporale della corrente sinaptica dovuta a un evento di attivazione di un certo recettore, che può essere incorporato nelle equazioni di evoluzione temporale del potenziale di membrana del neurone postsinaptico. Un neurone riceve in generale un complesso flusso di spike e le correnti sinaptiche che ne risultano possono in generale essere descritte dalla sovrapposizione nello spazio e nel tempo di tali input. L’ipotesi più semplice è che si possano semplicemente sommare, come contributi indipendenti, le correnti sinaptiche dovute all’attivazione dei recettori su diverse sinapsi, e quelle che si succedono nel tempo per ripetute attivazioni degli stessi recettori sulla stessa sinapsi.
Le approssimazioni sopra riportate hanno validità limitata, in partic. in riferimento a importanti effetti sinaptici che rendono poco appropriati i contributi indipendenti delle correnti sinaptiche. Risulta infatti che la corrente sinaptica dovuta a un evento di rilascio di neurotrasmettitore dipende dalla storia precedente di eventi sinaptici (plasticità sinaptica a breve termine). Si distinguono, in partic., effetti di facilitazione e depressione sinaptica a breve termine. Alcuni autori hanno suggerito che la plasticità sinaptica a breve termine, accoppiata alla natura stocastica della trasmissione sinaptica, possa dotare la sinapsi di proprietà computazionali interessanti, per es. la possibilità di filtrare sequenze di spike con particolari proprietà temporali o la capacità di rendere il neurone postsinaptico ugualmente sensibile alle variazione dell’input, indipendentemente dalla frequenza con cui arrivano gli spike afferenti.
Il cervello adatta le sue capacità di elaborazione sulla base dell’esperienza, e si ritiene che il substrato di tale adattamento sia costituito da modificazioni sinaptiche a lungo termine. In generale, ricordiamo facilmente cose viste molte volte, e per imparare una poesia la dobbiamo leggere ripetutamente: il cervello si adatta a un insieme complesso di regolarità statistiche del mondo esterno e degli stati mentali indotti dall’esperienza, e questo si riflette in schemi di attività neuronale ricorrenti nel tempo. Non sorprende quindi che alla base delle modificazioni sinaptiche a lungo termine vi siano profili sincronizzati di attività dei neuroni pre- e postsinaptici che si ripetono nel tempo. Anche se uno schema teorico basato su questa ipotesi fu proposto già negli anni Quaranta, si dovette aspettare il 1973 per la scoperta di un fenomeno che sembrava fornirne un supporto biologico: il potenziamento a lungo termine (➔) o LTP (Long Term Potentiation), grazie al quale l’effetto di uno spike sul neurone postsinaptico (efficacia sinaptica) viene aumentato, e tale modificazione rimane stabile anche per giorni. Malgrado la varietà dei protocolli sperimentali che possono provocare LTP (induzione di attività presinaptica e depolarizzazione postsinaptica, induzione di spike presinaptici e postsinaptici con brevi differenze di tempo, ecc.), una caratteristica comune è che il potenziamento sinaptico ha luogo quando i neuroni pre- e postsinaptici hanno entrambi un livello elevato di attività in una certa finestra temporale. I dati sperimentali suggeriscono inoltre che l’efficacia sinaptica possa variare in modo discreto tra pochi possibili valori. Dopo l’LTP è stato scoperto un fenomeno di depressione a lungo termine (➔) o LTD (Long Term Depression), che corrisponde a una diminuzione dell’efficacia sinaptica. Nella maggior parte dei modelli si assume che la condizione per l’LTD sia la presenza di attività presinaptica elevata e bassa attività postsinaptica. Che un fenomeno di depressione sinaptica sia necessario appare chiaro da considerazioni generali: se vi fosse solo potenziamento sinaptico, nelle diverse condizioni di attività neuronale che si avvicendano nel corso dell’esperienza si finirebbe facilmente in uno stato di saturazione che precluderebbe ulteriori modificazioni. Nella costruzione dei modelli di plasticità sinaptica a lungo termine gioca un ruolo fondamentale il modo in cui vengono descritte le attività dei neuroni pre- e postsinaptici che, come abbiamo visto, determinano la possibilità che si esprima LTP o LTD (o che la sinapsi rimanga invariata). Una categoria di modelli si basa sulla frequenza media di spike emessi da due neuroni, prescindendo dal ruolo delle loro relazioni temporali. Per es., un modello che ha avuto un ruolo storico importante è quello proposto nel 1982 da Elie Bienenstock, Leon Cooper e Paul W. Munro, e detto perciò BCM. In questo modello, la modificazione della efficacia sinaptica è determinata dal prodotto della frequenza media degli spike presinaptici e di una funzione non lineare della attività postsinaptica; tale funzione è negativa (LTD) per valori di frequenza postsinaptica inferiori a una soglia, e positiva (LTP) al di sopra della soglia. In questo modo il modello BCM tiene simultaneamente conto delle condizioni per LTP e LTD. In seguito a una serie di risultati sperimentali ottenuti negli anni Novanta, un’altra categoria di modelli ha assegnato un ruolo fondamentale alle relazioni temporali tra spike pre- e postsinaptici (STDP, Spike Timing Dependent Plasticity). Questi modelli traggono ispirazione dalla osservazione che, in alcuni protocolli sperimentali, si ha LTP se lo spike presinaptico indotto precede lo spike postsinaptico (essendo quindi in relazione causale con questo), mentre si ha LTD se la relazione temporale è invertita. Entrambe le relazioni temporali tra spike pre- e postsinaptici sono efficaci nell’indurre LTP e LTD solo all’interno di una finestra temporale (asimmetrica, e più breve per LTP). Dal punto di vista biologico, si pensa che il fenomeno di retropropagazione dello spike postsinaptico sull’albero dendritico possa rendere disponibile sul sito sinaptico l’informazione sulla avvenuta emissione dello spike postsinaptico, necessaria per l’STDP. Paolo Del Giudice, Maurizio Mattia