Capitolo 1 : Neuroscienze computazionali
La neuroscienza computazionale, nota anche come neuroscienza teorica o neuroscienza matematica, è un sottocampo delle neuroscienze che cerca di comprendere i principi fondamentali che governano la crescita, la struttura, la fisiologia e le capacità cognitive del sistema nervoso attraverso l'uso di modelli matematici, simulazioni al computer, analisi teoriche e astrazioni del cervello. Questo sottocampo delle neuroscienze è anche noto come neuroscienza computazionale. A seconda dell'ambito dello studio e del livello di granularità con cui vengono indagate le cose biologiche, l'astrazione del modello nelle neuroscienze computazionali potrebbe variare.
L'obiettivo dei modelli utilizzati nelle neuroscienze teoriche è quello di catturare le proprietà essenziali del sistema biologico a una serie di diverse scale spazio-temporali. Queste scale vanno dalle correnti di membrana e dall'accoppiamento chimico alle oscillazioni della rete, all'architettura colonnare e topografica, ai nuclei e alle capacità psicologiche come la memoria, l'apprendimento e il comportamento. Questi modelli computerizzati forniscono un quadro per la formulazione di ipotesi suscettibili di test diretti attraverso la ricerca biologica o psicologica.
Eric L. Schwartz è colui che ha coniato il termine "neuroscienza computazionale". Fu lui a organizzare una conferenza che si tenne nel 1985 a Carmel, in California, su richiesta della Systems Development Foundation. Lo scopo della conferenza era quello di fornire un riassunto dello stato attuale di un campo che fino a quel momento era conosciuto con una varietà di nomi, tra cui modellazione neurale, teoria del cervello e reti neurali. Gli atti di questo simposio definitorio sono stati pubblicati come libro con lo stesso nome nell'anno 1990 con il titolo Computational Neuroscience. Il programma di dottorato in Computational and Neural Systems presso il California Institute of Technology è stato il primo programma di formazione universitaria mai istituito nel campo delle neuroscienze computazionali. È stata fondata nell'anno 1985.
È possibile far risalire le prime radici storiche della disciplina al lavoro di individui come Louis Lapicque, Hodgkin & Huxley, Hubel & Wiesel e David Marr, tra gli altri. In un lavoro cruciale pubblicato nel 1907, Lapicque presentò il modello di integrazione e fuoco del neurone.
Circa quarant'anni dopo, Hodgkin e Huxley inventarono il voltage clamp e costruirono il primo modello biofisico del potenziale d'azione. Entrambi questi risultati sono stati resi possibili dalla scoperta del potenziale d'azione. I ricercatori Hubel e Wiesel hanno scoperto che i neuroni nella corteccia visiva primaria, che è la prima sezione del cervello a ricevere informazioni provenienti dalla retina, hanno campi recettivi diretti e sono disposti in colonne. La ricerca condotta da David Marr si è concentrata sulle interazioni che avvengono tra i neuroni. Ha proposto metodi computazionali per analizzare il modo in cui i gruppi funzionali di neuroni all'interno dell'ippocampo e della neocorteccia comunicano tra loro, nonché il modo in cui memorizzano, elaborano e trasmettono informazioni. Il lavoro di Wilfrid Rall è stato l'impulso per l'inizio della modellazione computazionale di neuroni e dendriti biofisicamente realistici. Il suo modello è stato il primo modello multicompartimentale ad utilizzare la teoria dei cavi.
Lo studio delle neuroscienze computazionali può essere generalmente suddiviso in diverse scuole di pensiero, o percorsi di indagine. La maggior parte dei neuroscienziati computazionali lavora a stretto contatto con i neuroscienziati sperimentali per analizzare nuovi dati e sviluppare nuovi modelli di eventi biologici.
Anche un singolo neurone ha intricate proprietà biofisiche e ha la capacità di fare calcoli (ad esempio,.
Alcuni modelli sono anche in grado di seguire processi metabolici di dimensioni estremamente ridotte, come spine o fessure sinaptiche.
C'è un'ampia varietà di software disponibili, esempi sono GENESIS e NEURON, che consentono la modellazione di neuroni realistici in silico in modo rapido e organizzato.
Blue Brain, un progetto fondato da Henry Markram dell'École Polytechnique Fédérale de Lausanne, cerca di creare una simulazione di una colonna corticale che sia biofisicamente accurata utilizzando il supercomputer Blue Gene.
La modellizzazione della diversità delle caratteristiche biofisiche sulla scala di un singolo neurone può fornire metodi che possono fungere da elementi costitutivi fondamentali per la dinamica delle reti.
Il campo delle neuroscienze computazionali cerca di fornire risposte a una vasta gamma di preoccupazioni. Durante lo sviluppo, come nascono gli assoni e i dendriti? In che modo gli assoni scelgono dove indirizzare i loro impulsi e come arrivare a destinazione? La migrazione dei neuroni verso le loro posizioni corrette in tutto il sistema nervoso centrale e periferico pone la domanda: come avviene questo? Come nascono le sinapsi? Sappiamo dalla biologia molecolare che diverse regioni del sistema nervoso emettono diversi segnali chimici, che vanno dai fattori di crescita agli ormoni, che modificano e influenzano la creazione e lo sviluppo delle connessioni funzionali tra i neuroni. Tra questi segnali chimici ci sono i neurotrasmettitori.
Le indagini teoriche sulla creazione e la modellazione della connessione sinaptica e della morfologia sono in fase iniziale a questo punto. L'ipotesi del cablaggio minimo è una teoria che ultimamente ha ricevuto molta attenzione. Questa teoria postula che la creazione di assoni e dendriti riduce con successo l'allocazione delle risorse preservando la massima memorizzazione delle informazioni.
Horace Barlow è accreditato di aver sviluppato alcuni dei primi modelli su come l'elaborazione sensoriale potrebbe essere compresa all'interno di un quadro teorico. Barlow credeva che l'elaborazione dei primi sistemi sensoriali fosse una forma di codifica efficiente. Ciò significava che i neuroni codificavano le informazioni in modo da ridurre al minimo il numero di picchi prodotti dai neuroni. Questa ipotesi è in qualche modo simile all'ipotesi del cablaggio minimo descritta nella sezione precedente a questa. Da allora, sia gli esperimenti che gli studi computazionali hanno dimostrato il sostegno a questo concetto, anche se in misura diversa. Quando si tratta di elaborazione visiva, ad esempio, una codifica efficiente può assumere la forma di codifica spaziale efficiente, codifica a colori, codifica temporale/di movimento, codifica stereo e molte combinazioni di questi tipi di codifica.
Ci sono stati molti modelli diversi tentati per spiegare come il cervello governa il movimento. Questo copre le teorie dell'elaborazione nel cervello, come la funzione che il cervelletto svolge nella correzione degli errori, lo sviluppo delle abilità nella corteccia motoria e nei gangli della base o la regolazione del riflesso vestibolo-oculare. Questo contiene anche un gran numero di modelli normativi, come quelli con un sapore bayesiano o di controllo ottimale, che sono costruiti sulla premessa che il cervello è in grado di risolvere i suoi problemi in modo efficace.
I postulati dell'apprendimento hebbiano sono le principali basi concettuali delle precedenti teorie della memoria. Al fine di affrontare le qualità della forma associativa (nota anche come "indirizzabile al contenuto") di memoria che si vede nei sistemi biologici, sono stati costruiti modelli biologicamente appropriati come la rete di Hopfield. Questi sforzi stanno concentrando la loro attenzione in particolare sulla creazione di memorie a medio e lungo termine, che avviene nell'ippocampo. E' stato possibile, attraverso l'uso di modelli di memoria di lavoro che dipendono dalle teorie delle oscillazioni di rete e dell'attività persistente, simulare alcune delle funzioni della corteccia prefrontale in relazione alla memoria legata al contesto. Nei prossimi decenni, è molto probabile che le tecniche computazionali daranno un contributo significativo alla nostra comprensione di come le sinapsi operano e si trasformano in risposta alla stimolazione ambientale.
I neuroni negli organismi viventi sono interconnessi tra loro in uno schema contorto e ripetitivo. A differenza della stragrande maggioranza delle reti neurali artificiali, queste connessioni sono spesso piuttosto specializzate e relativamente poche. Sebbene alcune regioni del cervello, come la corteccia visiva, siano studiate in modo approfondito, non si sa come le informazioni vengano trasportate attraverso reti che hanno un numero così limitato di connessioni tra loro. Oltre a questo, non si capisce quali siano le funzioni computazionali di questi particolari modelli di connessione, ammesso che esistano del tutto.
Le complesse interazioni che avvengono tra i neuroni in una rete relativamente piccola possono spesso essere semplificate utilizzando modelli come il modello di Ising. La caratterizzazione teorica della meccanica statistica di tali sistemi di base è piuttosto completa. Recenti scoperte implicano che le dinamiche delle reti neurali arbitrarie possono essere condensate in interazioni a coppie. [ Citazione necessaria ] [ Citazione necessaria ] Tuttavia, non è noto se tali dinamiche descrittive trasmettano una funzione computazionale significativa. Ora disponiamo di sofisticati strumenti sperimentali, tra cui la microscopia a due fotoni e l'imaging del calcio, con cui testare le nuove ipotesi sulle reti neurali come risultato dello sviluppo di queste tecnologie.
Le complicate interazioni che avvengono tra neuroni inibitori ed eccitatori possono, in alcune circostanze, essere semplificate con l'uso della teoria del campo medio, che è ciò che dà vita al modello di...