Neurociência computacional - Computational neuroscience

A neurociência computacional (também conhecida como neurociência teórica ou neurociência matemática ) é um ramo da  neurociência  que emprega modelos matemáticos, análises teóricas e abstrações do cérebro para compreender os princípios que governam o desenvolvimento , estrutura , fisiologia e habilidades cognitivas do sistema nervoso .

A neurociência computacional emprega simulações computacionais para validar e resolver modelos matemáticos e, portanto, pode ser vista como um subcampo da neurociência teórica; no entanto, os dois campos costumam ser sinônimos. O termo neurociência matemática também é usado às vezes, para enfatizar a natureza quantitativa do campo.

A neurociência computacional se concentra na descrição de neurônios biologicamente plausíveis (e sistemas neurais ) e sua fisiologia e dinâmica e, portanto, não está diretamente preocupada com modelos biologicamente irrealistas usados ​​em conexionismo , teoria de controle , cibernética , psicologia quantitativa , aprendizado de máquina , redes neurais artificiais , inteligência artificial e teoria da aprendizagem computacional ; embora a inspiração mútua exista e às vezes não haja um limite estrito entre os campos, com abstração de modelo em neurociência computacional dependendo do escopo da pesquisa e da granularidade em que as entidades biológicas são analisadas.

Modelos em neurociência teórica visam capturar as características essenciais do sistema biológico em múltiplas escalas espaço-temporais, desde correntes de membrana e acoplamento químico por meio de oscilações de rede , arquitetura colunar e topográfica, núcleos, até faculdades psicológicas como a memória, aprendizagem e comportamento. Esses modelos computacionais estruturam hipóteses que podem ser testadas diretamente por experimentos biológicos ou psicológicos.

História

O termo 'neurociência computacional' foi introduzido por Eric L. Schwartz , que organizou uma conferência, realizada em 1985 em Carmel, Califórnia , a pedido da Systems Development Foundation para fornecer um resumo do status atual de um campo que até aquele ponto foi referido por uma variedade de nomes, como modelagem neural, teoria do cérebro e redes neurais. Os procedimentos desta reunião de definição foram publicados em 1990 como o livro Computational Neuroscience . O primeiro dos encontros internacionais abertos anuais com foco em Neurociência Computacional foi organizado por James M. Bower e John Miller em San Francisco, Califórnia em 1989. O primeiro programa educacional de pós-graduação em neurociência computacional foi organizado como o Ph.D. em Sistemas Computacionais e Neurais. no California Institute of Technology em 1985.

As primeiras raízes históricas do campo podem ser rastreadas até o trabalho de pessoas como Louis Lapicque , Hodgkin & Huxley , Hubel e Wiesel e David Marr . Lapicque introduziu o modelo de integração e disparo do neurônio em um artigo seminal publicado em 1907, um modelo ainda popular para estudos de redes neurais artificiais devido à sua simplicidade (veja uma revisão recente).

Cerca de 40 anos depois, Hodgkin & Huxley desenvolveram o grampo de tensão e criaram o primeiro modelo biofísico do potencial de ação . Hubel e Wiesel descobriram que os neurônios no córtex visual primário , a primeira área cortical a processar informações vindas da retina , têm campos receptivos orientados e são organizados em colunas. O trabalho de David Marr se concentrou nas interações entre neurônios, sugerindo abordagens computacionais para o estudo de como grupos funcionais de neurônios dentro do hipocampo e do neocórtex interagem, armazenam, processam e transmitem informações. A modelagem computacional de neurônios e dendritos biofisicamente realistas começou com o trabalho de Wilfrid Rall , com o primeiro modelo multicompartimental usando a teoria dos cabos .

Tópicos principais

A pesquisa em neurociência computacional pode ser categorizada em várias linhas de investigação. A maioria dos neurocientistas computacionais colabora estreitamente com experimentalistas na análise de novos dados e na síntese de novos modelos de fenômenos biológicos.

Modelagem de neurônio único

Mesmo um único neurônio tem características biofísicas complexas e pode realizar cálculos (por exemplo). O modelo original de Hodgkin e Huxley empregou apenas duas correntes sensíveis à voltagem (canais iônicos sensíveis à voltagem são moléculas de glicoproteína que se estendem através da bicamada lipídica, permitindo que os íons atravessem sob certas condições através do axolema), o sódio de ação rápida e o potássio retificador interno . Embora tenha sido bem-sucedido em prever o tempo e as características qualitativas do potencial de ação, ele falhou em prever uma série de características importantes, como adaptação e manobra . Os cientistas agora acreditam que há uma grande variedade de correntes sensíveis à voltagem, e as implicações das diferentes dinâmicas, modulações e sensibilidade dessas correntes é um tópico importante da neurociência computacional.

As funções computacionais de dendritos complexos também estão sob intensa investigação. Existe uma vasta literatura sobre como diferentes correntes interagem com as propriedades geométricas dos neurônios.

Alguns modelos também rastreiam vias bioquímicas em escalas muito pequenas, como espinhos ou fendas sinápticas.

Existem muitos pacotes de software, como GENESIS e NEURON , que permitem uma modelagem in silico rápida e sistemática de neurônios realistas. Blue Brain , um projeto fundado por Henry Markram da École Polytechnique Fédérale de Lausanne , visa construir uma simulação biofisicamente detalhada de uma coluna cortical no supercomputador Blue Gene .

Modelar a riqueza das propriedades biofísicas na escala de um único neurônio pode fornecer mecanismos que servem como blocos de construção para a dinâmica da rede. No entanto, descrições detalhadas de neurônios são computacionalmente caras e isso pode dificultar a busca por investigações de rede realistas, onde muitos neurônios precisam ser simulados. Como resultado, os pesquisadores que estudam grandes circuitos neurais normalmente representam cada neurônio e fazem sinapses com um modelo artificialmente simples, ignorando muitos dos detalhes biológicos. Portanto, há um impulso para a produção de modelos de neurônios simplificados que podem reter uma fidelidade biológica significativa com uma baixa sobrecarga computacional. Algoritmos foram desenvolvidos para produzir modelos de neurônios substitutos simplificados e fiéis, de execução mais rápida, a partir de modelos de neurônios detalhados e computacionalmente caros.

Desenvolvimento, padronização axonal e orientação

A neurociência computacional visa abordar uma ampla gama de questões. Como os axônios e dendritos se formam durante o desenvolvimento? Como os axônios sabem onde almejar e como atingir esses alvos? Como os neurônios migram para a posição adequada nos sistemas central e periférico? Como as sinapses se formam? Sabemos pela biologia molecular que partes distintas do sistema nervoso liberam pistas químicas distintas, de fatores de crescimento a hormônios que modulam e influenciam o crescimento e o desenvolvimento de conexões funcionais entre os neurônios.

Investigações teóricas sobre a formação e padronização da conexão sináptica e morfologia ainda estão incipientes. Uma hipótese que recentemente atraiu alguma atenção é a hipótese da fiação mínima , que postula que a formação de axônios e dendritos minimiza efetivamente a alocação de recursos enquanto mantém o armazenamento máximo de informações.

Processamento sensorial

Os primeiros modelos de processamento sensorial compreendidos dentro de uma estrutura teórica são creditados a Horace Barlow . Um tanto semelhante à hipótese de conexão mínima descrita na seção anterior, Barlow entendeu o processamento dos primeiros sistemas sensoriais como uma forma de codificação eficiente , em que os neurônios codificavam informações que minimizavam o número de picos. Desde então, trabalhos experimentais e computacionais têm apoiado essa hipótese de uma forma ou de outra. Para o exemplo do processamento visual, a codificação eficiente se manifesta nas formas de codificação espacial eficiente, codificação por cores, codificação temporal / de movimento, codificação estéreo e suas combinações.

Mais adiante no caminho visual, até mesmo a informação visual codificada de forma eficiente é demais para a capacidade do gargalo da informação, o gargalo da atenção visual. Uma teoria subsequente, V1 Saliency Hypothesis (V1SH) , foi desenvolvida na seleção de atenção exógena de uma fração de entrada visual para processamento posterior, guiada por um mapa de saliência de baixo para cima no córtex visual primário.

A pesquisa atual em processamento sensorial está dividida entre uma modelagem biofísica de diferentes subsistemas e uma modelagem mais teórica da percepção. Modelos atuais de percepção sugeriram que o cérebro realiza alguma forma de inferência bayesiana e integração de diferentes informações sensoriais na geração de nossa percepção do mundo físico.

Controle motor

Muitos modelos da maneira como o cérebro controla os movimentos foram desenvolvidos. Isso inclui modelos de processamento no cérebro, como o papel do cerebelo na correção de erros, o aprendizado de habilidades no córtex motor e nos gânglios da base ou o controle do reflexo vestíbulo-ocular. Isso também inclui muitos modelos normativos, como os do tipo bayesiano ou de controle ideal, que se baseiam na ideia de que o cérebro resolve seus problemas de maneira eficiente.

Memória e plasticidade sináptica

Modelos anteriores de memória baseiam-se principalmente nos postulados do aprendizado Hebbian . Modelos biologicamente relevantes, como a rede de Hopfield , foram desenvolvidos para abordar as propriedades do estilo de memória associativo (também conhecido como "endereçável por conteúdo") que ocorre em sistemas biológicos. Essas tentativas têm como foco principal a formação da memória de médio e longo prazo , localizada no hipocampo . Modelos de memória de trabalho , baseados em teorias de oscilações de rede e atividade persistente, foram construídos para capturar algumas características do córtex pré-frontal na memória relacionada ao contexto. Modelos adicionais examinam a estreita relação entre os gânglios da base e o córtex pré-frontal e como isso contribui para a memória de trabalho.

Um dos principais problemas da memória neurofisiológica é como ela é mantida e alterada em várias escalas de tempo. Instáveis sinapses são fáceis de treinar, mas também propenso a perturbação estocástica. Sinapses estáveis esquecem com menos facilidade, mas também são mais difíceis de consolidar. Uma hipótese computacional recente envolve cascatas de plasticidade que permitem que as sinapses funcionem em múltiplas escalas de tempo. Modelos estereoquimicamente detalhados da sinapse baseada no receptor de acetilcolina com o método Monte Carlo , trabalhando na escala de tempo de microssegundos, foram construídos. É provável que as ferramentas computacionais contribuam muito para o nosso entendimento de como as sinapses funcionam e mudam em relação a estímulos externos nas próximas décadas.

Comportamentos das redes

Os neurônios biológicos estão conectados uns aos outros de uma maneira complexa e recorrente. Essas conexões são, ao contrário da maioria das redes neurais artificiais , esparsas e geralmente específicas. Não se sabe como as informações são transmitidas por meio dessas redes escassamente conectadas, embora áreas específicas do cérebro, como o córtex visual , sejam compreendidas com alguns detalhes. Também não se sabe quais são as funções computacionais desses padrões de conectividade específicos, se houver.

As interações de neurônios em uma pequena rede podem ser frequentemente reduzidas a modelos simples, como o modelo de Ising . A mecânica estatística de tais sistemas simples é bem caracterizada teoricamente. Algumas evidências recentes sugerem que a dinâmica de redes neuronais arbitrárias pode ser reduzida a interações de pares. Não se sabe, entretanto, se essa dinâmica descritiva confere alguma função computacional importante. Com o surgimento da microscopia de dois fótons e da imagem de cálcio , agora temos métodos experimentais poderosos para testar as novas teorias sobre redes neuronais.

Em alguns casos, as complexas interações entre os neurônios inibitórios e excitatórios podem ser simplificadas usando a teoria do campo médio , que dá origem ao modelo populacional de redes neurais. Enquanto muitos neuroteóricos preferem tais modelos com complexidade reduzida, outros argumentam que descobrir as relações estruturais-funcionais depende da inclusão de tantas estruturas neuronais e de rede quanto possível. Modelos desse tipo são normalmente construídos em grandes plataformas de simulação como GENESIS ou NEURON. Houve algumas tentativas de fornecer métodos unificados que conectem e integrem esses níveis de complexidade.

Atenção visual, identificação e categorização

A atenção visual pode ser descrita como um conjunto de mecanismos que limitam algum processamento a um subconjunto de estímulos recebidos. Mecanismos de atenção moldam o que vemos e sobre o que podemos agir. Eles permitem a seleção simultânea de algumas informações (de preferência relevantes) e a inibição de outras informações. A fim de se ter uma especificação mais concreta do mecanismo subjacente à atenção visual e à ligação de recursos, uma série de modelos computacionais foram propostos com o objetivo de explicar os achados psicofísicos. Em geral, todos os modelos postulam a existência de um mapa de saliência ou prioridade para registrar as áreas potencialmente interessantes da entrada da retina e um mecanismo de passagem para reduzir a quantidade de informações visuais recebidas, de modo que os recursos computacionais limitados do cérebro possam manipulá-las. . Um exemplo de teoria que está sendo amplamente testado comportamental e fisiologicamente é a hipótese de saliência V1 de que um mapa de saliência de baixo para cima é criado no córtex visual primário para orientar a atenção exogenamente. A neurociência computacional fornece uma estrutura matemática para estudar os mecanismos envolvidos na função cerebral e permite simulação e previsão completas de síndromes neuropsicológicas.

Cognição, discriminação e aprendizagem

A modelagem computacional de funções cognitivas superiores só começou recentemente. Os dados experimentais vêm principalmente de registros de uma única unidade em primatas . O lobo frontal e o lobo parietal funcionam como integradores de informações de várias modalidades sensoriais. Existem algumas idéias provisórias sobre como circuitos funcionais mutuamente inibitórios simples nessas áreas podem realizar cálculos biologicamente relevantes.

O cérebro parece ser capaz de discriminar e se adaptar muito bem em certos contextos. Por exemplo, os seres humanos parecem ter uma enorme capacidade de memorizar e reconhecer rostos . Um dos principais objetivos da neurociência computacional é dissecar como os sistemas biológicos realizam essas computações complexas de forma eficiente e potencialmente replicam esses processos na construção de máquinas inteligentes.

Os princípios organizacionais em larga escala do cérebro são iluminados por muitos campos, incluindo biologia, psicologia e prática clínica. A neurociência integrativa tenta consolidar essas observações por meio de modelos descritivos unificados e bancos de dados de medidas e registros comportamentais. Essas são as bases para alguns modelos quantitativos da atividade cerebral em larga escala.

A Compreensão Representacional Computacional da Mente ( CRUM ) é outra tentativa de modelar a cognição humana por meio de processos simulados, como sistemas baseados em regras adquiridas na tomada de decisão e a manipulação de representações visuais na tomada de decisão.

Consciência

Um dos objetivos finais da psicologia / neurociência é ser capaz de explicar a experiência cotidiana da vida consciente. Francis Crick , Giulio Tononi e Christof Koch fizeram algumas tentativas para formular estruturas consistentes para trabalhos futuros em correlatos neurais da consciência (NCC), embora muito do trabalho neste campo permaneça especulativo. Especificamente, Crick alertou o campo da neurociência para não abordar tópicos que tradicionalmente são deixados para a filosofia e a religião.

Neurociência clínica computacional

A neurociência clínica computacional é um campo que reúne especialistas em neurociência, neurologia , psiquiatria , ciências da decisão e modelagem computacional para definir quantitativamente e investigar problemas em doenças neurológicas e psiquiátricas e para treinar cientistas e médicos que desejam aplicar esses modelos para diagnóstico e tratamento .

Tecnologia

Computação neuromórfica

Um computador / chip neuromórfico é qualquer dispositivo que usa neurônios artificiais físicos (feitos de silício) para fazer cálculos (consulte: computação neuromórfica , rede neural física ). Uma das vantagens de usar um computador de modelo físico como este é que ele leva a carga computacional do processador (no sentido de que os elementos estruturais e alguns dos funcionais não precisam ser programados, pois estão em hardware). Recentemente, a tecnologia neuromórfica foi usada para construir supercomputadores que são usados ​​em colaborações internacionais de neurociência. Os exemplos incluem o supercomputador SpiNNaker do Human Brain Project e o computador BrainScaleS.

Veja também

Notas e referências

Bibliografia

Veja também

Programas

  • BRIAN , um simulador baseado em Python
  • Budapest Reference Connectome , ferramenta de visualização 3D baseada na web para navegar por conexões no cérebro humano
  • Software emergente de simulação neural.
  • GENESIS , um sistema geral de simulação neural.
  • O NEST é um simulador de modelos de redes neurais que se concentra na dinâmica, tamanho e estrutura dos sistemas neurais, e não na morfologia exata de neurônios individuais.

links externos

Diários

Conferências

Sites