Capítulo 1 : Neurociencia computacional
La neurociencia computacional, también conocida como neurociencia teórica o neurociencia matemática, es un subcampo de la neurociencia que busca comprender los principios fundamentales que rigen el crecimiento, la estructura, la fisiología y las capacidades cognitivas del sistema nervioso mediante el uso de modelos matemáticos, simulaciones por computadora, análisis teóricos y abstracciones del cerebro. Este subcampo de la neurociencia también se conoce como neurociencia computacional. Dependiendo del alcance del estudio y del nivel de granularidad con el que se investigan las cosas biológicas, la abstracción del modelo en neurociencia computacional puede variar.
El objetivo de los modelos utilizados en la neurociencia teórica es capturar las propiedades esenciales del sistema biológico en una serie de escalas espacio-temporales diferentes. Estas escalas van desde las corrientes de membrana y el acoplamiento químico hasta las oscilaciones de la red, la arquitectura columnar y topográfica, los núcleos y las capacidades psicológicas como la memoria, el aprendizaje y el comportamiento. Estos modelos informáticos proporcionan un marco para formular hipótesis que son susceptibles de ser probadas directamente a través de la investigación biológica o psicológica.
Eric L. Schwartz es a quien se le ocurrió el término "neurociencia computacional". Fue él quien organizó una conferencia que se realizó en 1985 en Carmel, California, a pedido de la Fundación para el Desarrollo de Sistemas. El propósito de la conferencia fue proporcionar un resumen del estado actual de un campo que hasta ese momento era conocido por una variedad de nombres, incluyendo modelado neuronal, teoría del cerebro y redes neuronales. Las actas de este simposio de definiciones se publicaron como un libro con el mismo nombre en el año 1990 bajo el título de Neurociencia Computacional. El programa de doctorado en Sistemas Computacionales y Neuronales del Instituto de Tecnología de California fue el primer programa de formación de posgrado establecido en el campo de la neurociencia computacional. Fue fundada en el año 1985.
Es posible rastrear las primeras raíces históricas de la disciplina hasta el trabajo de individuos como Louis Lapicque, Hodgkin y Huxley, Hubel y Wiesel y David Marr, entre otros. En un trabajo crucial que se publicó en 1907, Lapicque presentó el modelo de integración y disparo de la neurona.
Unos cuarenta años más tarde, Hodgkin y Huxley inventaron la pinza de voltaje y construyeron el primer modelo biofísico del potencial de acción. Ambos logros fueron posibles gracias al descubrimiento del potencial de acción. Los investigadores Hubel y Wiesel descubrieron que las neuronas de la corteza visual primaria, que es la primera sección del cerebro en recibir la información que llega de la retina, tienen campos receptivos dirigidos y están dispuestas en columnas. La investigación llevada a cabo por David Marr se centró en las interacciones que se producen entre las neuronas. Propuso métodos computacionales para analizar cómo los grupos funcionales de neuronas dentro del hipocampo y el neocórtex se comunican entre sí, así como cómo almacenan, procesan y transmiten información. El trabajo de Wilfrid Rall fue el impulso para el comienzo del modelado computacional de neuronas y dendritas biofísicamente realistas. Su modelo fue el primer modelo multicompartimental en utilizar la teoría de cables.
El estudio de la neurociencia computacional puede dividirse generalmente en unas pocas escuelas diferentes de pensamiento, o caminos de investigación. La mayoría de los neurocientíficos computacionales trabajan en estrecha colaboración con neurocientíficos experimentales para analizar datos frescos y desarrollar nuevos modelos de eventos biológicos.
Incluso una sola neurona tiene propiedades biofísicas intrincadas y tiene la capacidad de hacer cálculos (por ejemplo,.
Algunos modelos también son capaces de seguir procesos metabólicos en tamaños extremadamente pequeños, como espinas o hendiduras sinápticas.
Existe una gran variedad de software disponible, ejemplos son GENESIS y NEURON, que permiten el modelado de neuronas realistas in silico de una manera rápida y organizada.
Blue Brain, un proyecto fundado por Henry Markram de la École Polytechnique Fédérale de Lausanne, busca crear una simulación de una columna cortical que sea biofísicamente precisa utilizando la supercomputadora Blue Gene.
El modelado de la diversidad de características biofísicas a escala de una sola neurona puede proporcionar métodos que pueden actuar como bloques de construcción fundamentales para la dinámica de las redes.
El campo de la neurociencia computacional busca dar respuestas a una amplia gama de inquietudes. Durante el desarrollo, ¿cómo surgen los axones y las dendritas? ¿Cómo eligen los axones hacia dónde dirigir sus impulsos y cómo llegar a sus destinos? La migración de las neuronas a sus ubicaciones correctas en los sistemas nerviosos central y periférico plantea la pregunta: ¿cómo sucede esto? ¿Cómo se forman las sinapsis? Sabemos por la biología molecular que diferentes regiones del sistema nervioso emiten diferentes señales químicas, que van desde factores de crecimiento hasta hormonas, que modifican e impactan en la creación y desarrollo de conexiones funcionales entre neuronas. Entre estas señales químicas se encuentran los neurotransmisores.
Las investigaciones teóricas sobre la creación y el patrón de la conexión sináptica y la morfología se encuentran en su etapa inicial en este punto. La hipótesis del cableado mínimo es una teoría que últimamente ha recibido mucha atención. Esta teoría postula que la creación de axones y dendritas reduce con éxito la asignación de recursos al tiempo que preserva el máximo almacenamiento de información.
A Horace Barlow se le atribuye el desarrollo de algunos de los primeros modelos sobre cómo se podría entender el procesamiento sensorial dentro de un marco teórico. Barlow creía que el procesamiento de los primeros sistemas sensoriales era una forma de codificación eficiente. Esto significaba que las neuronas codificaban la información de una manera que minimizaba el número de picos producidos por las neuronas. Esta hipótesis es algo similar a la hipótesis del cableado mínimo que se describió en la sección anterior a esta. Desde entonces, tanto los experimentos como los estudios computacionales han mostrado apoyo a este concepto, aunque en diferentes grados. Cuando se trata de procesamiento visual, por ejemplo, la codificación eficiente puede tomar la forma de codificación espacial eficiente, codificación de colores, codificación temporal/de movimiento, codificación estéreo y muchas combinaciones de estos tipos de codificación.
Ha habido muchos modelos diferentes que han intentado explicar cómo el cerebro gobierna el movimiento. Se trata de teorías del procesamiento en el cerebro, como la función que desempeña el cerebelo en la corrección de errores, el desarrollo de habilidades en la corteza motora y los ganglios basales, o la regulación del reflejo vestíbulo-ocular. Esto también contiene una gran cantidad de modelos normativos, como aquellos con un sabor bayesiano o de control óptimo, que se construyen sobre la premisa de que el cerebro es capaz de resolver sus problemas de manera efectiva.
Los postulados del aprendizaje hebbiano son los principales fundamentos conceptuales de las teorías anteriores de la memoria. Con el fin de abordar las cualidades de la forma asociativa (también conocida como "direccionable por contenido") de la memoria que se observa en los sistemas biológicos, se han construido modelos biológicamente apropiados como la red de Hopfield. Estos esfuerzos están centrando su atención especialmente en la creación de recuerdos a medio y largo plazo, que tiene lugar en el hipocampo. Ha sido posible, mediante el uso de modelos de memoria de trabajo que dependen de las teorías de las oscilaciones de la red y la actividad persistente, simular algunas de las funciones de la corteza prefrontal en relación con la memoria relacionada con el contexto. En las próximas décadas, es muy probable que las técnicas computacionales hagan una contribución significativa a nuestra comprensión de cómo operan y se transforman las sinapsis en respuesta a la estimulación ambiental.
Las neuronas de los organismos vivos están interconectadas entre sí en un patrón enrevesado y repetitivo. A diferencia de la gran mayoría de las redes neuronales artificiales, estas conexiones suelen ser bastante especializadas y relativamente pocas en número. Aunque algunas regiones del cerebro, como la corteza visual, se estudian con cierta profundidad, aún se desconoce cómo se transporta la información a través de redes que tienen un número tan limitado de conexiones entre sí. Además de esto, no se entiende cuáles son las funciones computacionales de estos patrones de conexión particulares, suponiendo que existan.
Las complejas interacciones que tienen lugar entre neuronas en una red relativamente pequeña a menudo pueden simplificarse utilizando modelos como el modelo de Ising. La caracterización teórica de la mecánica estadística de estos sistemas básicos es bastante completa. Hallazgos recientes implican que la dinámica de las redes neuronales arbitrarias puede condensarse en interacciones por pares. [Cita requerida] [Cita requerida] Sin embargo, se desconoce si tales dinámicas descriptivas transmiten alguna función computacional significativa. Ahora disponemos de sofisticadas herramientas experimentales, como la microscopía de dos fotones y la obtención de imágenes de...