Capítulo 1 : Neurociência computacional
A neurociência computacional, também conhecida como neurociência teórica ou neurociência matemática, é um subcampo da neurociência que procura compreender os princípios fundamentais que regem o crescimento, estrutura, fisiologia e capacidades cognitivas do sistema nervoso através do uso de modelos matemáticos, simulações computacionais, análise teórica e abstrações do cérebro. Este subcampo da neurociência também é conhecido como neurociência computacional. Dependendo do escopo do estudo e do nível de granularidade em que as coisas biológicas são investigadas, a abstração de modelos em neurociência computacional pode variar.
O objetivo dos modelos utilizados na neurociência teórica é capturar as propriedades essenciais do sistema biológico em várias escalas espaço-temporais diferentes. Essas escalas variam de correntes de membrana e acoplamento químico a oscilações de rede, arquitetura colunar e topográfica, núcleos e capacidades psicológicas, como memória, aprendizagem e comportamento. Estes modelos computacionais fornecem um quadro para a formulação de hipóteses passíveis de testes diretos através de investigação biológica ou psicológica.
Eric L. Schwartz foi quem criou o termo "neurociência computacional". Foi ele quem organizou uma conferência que foi realizada em 1985 em Carmel, Califórnia, a pedido da Systems Development Foundation. O objetivo da conferência era fornecer um resumo do status atual de um campo que até então era conhecido por uma variedade de nomes, incluindo modelagem neural, teoria do cérebro e redes neurais. As atas deste simpósio de definição foram lançadas como um livro com o mesmo nome no ano de 1990 sob o título Computational Neuroscience. O programa de Ph.D. em Sistemas Computacionais e Neurais do Instituto de Tecnologia da Califórnia foi o primeiro programa de treinamento de pós-graduação já estabelecido no campo da neurociência computacional. Foi criada no ano de 1985.
É possível traçar as raízes históricas iniciais da disciplina até o trabalho de indivíduos como Louis Lapicque, Hodgkin ou Huxley, Hubel e Wiesel e David Marr, entre outros. Em um trabalho crucial que foi publicado em 1907, Lapicque apresentou o modelo de integração e fogo do neurônio.
Cerca de quarenta anos depois, Hodgkin e Huxley inventaram o grampo de tensão e construíram o primeiro modelo biofísico do potencial de ação. Ambas as conquistas foram possíveis graças à descoberta do potencial de ação. Os pesquisadores Hubel e Wiesel descobriram que os neurônios do córtex visual primário, que é a primeira seção do cérebro a receber informações que chegam da retina, têm campos recetivos direcionados e estão dispostos em colunas. A investigação conduzida por David Marr centrou-se nas interações que ocorrem entre os neurónios. Ele propôs métodos computacionais para analisar como grupos funcionais de neurônios dentro do hipocampo e neocórtex se comunicam entre si, bem como como eles armazenam, processam e transmitem informações. O trabalho de Wilfrid Rall foi o impulso para o início da modelagem computacional de neurônios e dendritos biofisicamente realistas. Seu modelo foi o primeiro modelo multicompartimental a usar a teoria dos cabos.
O estudo da neurociência computacional pode ser geralmente dividido em algumas escolas diferentes de pensamento, ou caminhos de investigação. A maioria dos neurocientistas computacionais trabalha em estreita colaboração com neurocientistas experimentais para analisar dados novos e desenvolver novos modelos de eventos biológicos.
Mesmo um único neurônio tem propriedades biofísicas intrincadas e tem a capacidade de fazer cálculos (por exemplo,.
Alguns modelos também são capazes de seguir processos metabólicos em tamanhos extremamente pequenos, como espinhos ou fendas sinápticas.
Existe uma grande variedade de softwares disponíveis, exemplos são GENESIS e NEURON, que permitem a modelagem de neurônios realistas in silico de forma rápida e organizada.
Blue Brain, um projeto fundado por Henry Markram da École Polytechnique Fédérale de Lausanne, procura criar uma simulação de uma coluna cortical que seja biofisicamente precisa usando o supercomputador Blue Gene.
A modelagem da diversidade de características biofísicas na escala de um único neurônio pode fornecer métodos que podem atuar como os blocos de construção fundamentais para a dinâmica de redes.
O campo da neurociência computacional procura fornecer respostas a uma gama diversificada de preocupações. Durante o desenvolvimento, como os axônios e dendritos passam a existir? Como é que os axónios escolhem para onde apontar os seus impulsos e como chegar aos seus destinos? A migração dos neurónios para as suas localizações corretas através do sistema nervoso central e periférico levanta a questão: como é que isto acontece? Como surgem as sinapses? Sabemos pela biologia molecular que diferentes regiões do sistema nervoso emitem diferentes pistas químicas, que vão desde fatores de crescimento a hormônios, que modificam e impactam a criação e o desenvolvimento de conexões funcionais entre os neurônios. Entre essas pistas químicas estão os neurotransmissores.
As investigações teóricas sobre a criação e padronização da conexão sináptica e morfologia estão em seu estágio inicial neste momento. A hipótese da fiação mínima é uma teoria que ultimamente tem recebido muita atenção. Esta teoria postula que a criação de axônios e dendritos reduz com sucesso a alocação de recursos, preservando o máximo armazenamento de informações.
Horace Barlow é creditado por desenvolver alguns dos primeiros modelos sobre como o processamento sensorial pode ser entendido dentro de um quadro teórico. Barlow acreditava que o processamento dos primeiros sistemas sensoriais era uma forma de codificação eficiente. Isto significava que os neurónios codificavam a informação de uma forma que minimizava o número de picos produzidos pelos neurónios. Esta hipótese é um pouco semelhante à hipótese de fiação mínima que foi descrita na seção anterior a esta. Desde então, tanto os experimentos quanto os estudos computacionais têm mostrado apoio a esse conceito, embora em graus variados. Quando se trata de processamento visual, por exemplo, a codificação eficiente pode assumir a forma de codificação espacial eficiente, codificação de cores, codificação temporal/movimento, codificação estéreo e muitas combinações desses tipos de codificação.
Houve muitos modelos diferentes tentando explicar como o cérebro governa o movimento. Isso abrange teorias de processamento no cérebro, como a função que o cerebelo desempenha na correção de erros, desenvolvimento de habilidades no córtex motor e nos gânglios da base, ou a regulação do reflexo vestíbulo-ocular. Isso também contém um grande número de modelos normativos, como aqueles com um sabor Bayesiano ou de controle ideal, que são construídos com base na premissa de que o cérebro é capaz de resolver seus problemas de maneira eficaz.
Os postulados da aprendizagem hebbiana são os principais fundamentos conceituais das teorias anteriores da memória. A fim de abordar as qualidades da forma associativa (também conhecida como "endereçável ao conteúdo") da memória que é vista em sistemas biológicos, modelos biologicamente apropriados, como a rede de Hopfield, foram construídos. Estes esforços estão a centrar a sua atenção particularmente na criação de memórias de médio e longo prazo, que tem lugar no hipocampo. Tem sido possível, através do uso de modelos de memória de trabalho que dependem de teorias de oscilações de rede e atividade persistente, simular algumas das funções do córtex pré-frontal em relação à memória relacionada ao contexto. Nas próximas décadas, é bastante provável que as técnicas computacionais contribuam significativamente para a nossa compreensão de como as sinapses operam e se transformam em resposta à estimulação ambiental.
Os neurónios dos organismos vivos estão interligados entre si num padrão complicado e repetitivo. Em contraste com a grande maioria das redes neurais artificiais, essas conexões são muitas vezes bastante especializadas e relativamente poucas em número. Embora algumas regiões do cérebro, como o córtex visual, sejam estudadas com alguma profundidade, ainda não se sabe como a informação é transportada através de redes que têm um número tão limitado de conexões entre si. Além disso, não se entende quais são as funções computacionais desses padrões de conexão particulares, supondo que eles existam.
As interações complexas que ocorrem entre neurónios numa rede relativamente pequena podem muitas vezes ser simplificadas usando modelos como o modelo de Ising. A caracterização teórica da mecânica estatística de tais sistemas básicos é bastante completa. Descobertas recentes implicam que a dinâmica de redes neurais arbitrárias pode ser condensada em interações pareadas. [Carece de fontes?] [Carece de fontes?] No entanto, não se sabe se essa dinâmica descritiva transmite alguma função computacional significativa. Agora temos ferramentas experimentais sofisticadas, incluindo microscopia de dois fótons e imagem de cálcio, com as quais testar as novas hipóteses sobre redes neurais como resultado do desenvolvimento dessas tecnologias.
As interações complicadas que ocorrem entre neurônios inibitórios e excitatórios podem, em algumas circunstâncias, ser simplificadas com o uso da teoria do campo médio, que é o que dá origem ao modelo populacional de redes neurais.
Uma maneira de...