Stephen Grossberg - Stephen Grossberg

Stephen Grossberg
Grossberg em julho de 2016.jpg
Grossberg em julho de 2016.
Nascer ( 31/12/1939 )31 de dezembro de 1939 (81 anos)
Nova York , Nova York

Stephen Grossberg (nascido em 31 de dezembro de 1939) é um cientista cognitivo , psicólogo teórico e computacional , neurocientista , matemático , engenheiro biomédico e tecnólogo neuromórfico. Ele é o Professor Wang de Sistemas Cognitivos e Neurais e Professor Emérito de Matemática e Estatística, Ciências Psicológicas e do Cérebro e Engenharia Biomédica na Universidade de Boston .

Carreira

Infância e educação

Grossberg morou primeiro em Woodside, Queens , na cidade de Nova York . Seu pai morreu de linfoma de Hodgkin quando ele tinha um ano de idade. Ele se mudou com sua mãe e irmão mais velho, Mitchell, para Jackson Heights , Queens. Em seguida, ele estudou na Stuyvesant High School, em Manhattan, depois de passar no concurso de admissão. Ele se formou primeiro em sua classe em Stuyvesant em 1957.

Ele começou os estudos de graduação no Dartmouth College em 1957, onde concebeu pela primeira vez o paradigma do uso de equações diferenciais não lineares para descrever redes neurais que modelam a dinâmica do cérebro, bem como as equações básicas que muitos cientistas usam para esse propósito hoje. Ele então continuou a estudar psicologia e neurociência. Ele recebeu um BA em 1961 de Dartmouth como sua primeira especialização conjunta em matemática e psicologia .

Grossberg então foi para a Universidade de Stanford , onde se formou em 1964 com um mestrado em matemática e se transferiu para o Instituto Rockefeller de Pesquisa Médica (agora Universidade Rockefeller ) em Manhattan. Grossberg recebeu um PhD em matemática de Rockefeller em 1967 com uma tese que provou os primeiros teoremas de memória endereçável de conteúdo global sobre os modelos de aprendizagem neural que ele descobriu em Dartmouth. Seu orientador de tese de doutorado foi Gian-Carlo Rota .

Entrando na academia

Grossberg foi contratado como professor assistente de matemática aplicada no MIT, seguindo fortes recomendações de Kac e Rota. Em 1969, Grossberg foi promovido a professor associado após publicar uma série de resultados conceituais e matemáticos sobre muitos aspectos das redes neurais.

Ao não conseguir um cargo no MIT, Grossberg foi contratado como professor titular na Universidade de Boston em 1975, onde ainda hoje é professor. Enquanto estava na Boston University, ele fundou o Departamento de Sistemas Cognitivos e Neurais, vários centros de pesquisa interdisciplinares e várias instituições internacionais.

Pesquisar

Grossberg é um fundador dos campos da neurociência computacional , ciência cognitiva conexionista e tecnologia neuromórfica. Seu trabalho se concentra nos princípios e mecanismos de design que permitem que o comportamento de indivíduos, ou máquinas, se adapte de forma autônoma em tempo real a desafios ambientais inesperados. Esta pesquisa incluiu modelos neurais de visão e processamento de imagens ; objeto, cena e aprendizagem de evento, reconhecimento de padrão e pesquisa; audição, fala e linguagem; processamento e planejamento de informações cognitivas; aprendizagem por reforço e interações cognitivo-emocionais; navegação autônoma; controle sensório-motor adaptativo e robótica ; neurodinâmica auto-organizada ; e transtornos mentais . Grossberg também colabora com experimentalistas para projetar experimentos que testam previsões teóricas e preenchem lacunas conceitualmente importantes na literatura experimental, realiza análises da dinâmica matemática de sistemas neurais e transfere modelos neurais biológicos para aplicações em engenharia e tecnologia. Ele publicou dezessete livros ou edições especiais de periódicos, mais de 500 artigos de pesquisa e tem sete patentes.

Grossberg estudou como os cérebros dão origem às mentes desde que fez o curso introdutório de psicologia quando era calouro no Dartmouth College em 1957. Naquela época, Grossberg introduziu o paradigma do uso de sistemas não lineares de equações diferenciais para mostrar como os mecanismos cerebrais podem dar origem a problemas comportamentais funções. Este paradigma está ajudando a resolver o problema clássico mente / corpo e é o formalismo matemático básico que é usado na pesquisa de redes neurais biológicas hoje. Em particular, em 1957-1958, n descobriu equações amplamente utilizadas para (1) memória de curto prazo (STM), ou ativação neuronal (muitas vezes chamada de modelos aditivos e desvios, ou o modelo Hopfield após a aplicação do modelo aditivo de John Hopfield em 1984 equação); (2) memória de médio prazo (MTM), ou habituação dependente de atividade (freqüentemente chamada de portas transmissoras habituativas, ou sinapses depressivas após a introdução deste termo por Larry Abbott em 1997); e (3) memória de longo prazo (LTM), ou aprendizado neuronal (freqüentemente chamado de aprendizado de descida mais íngreme com acesso). Uma variante dessas equações de aprendizagem, chamada Instar Learning, foi introduzida por Grossberg em 1976 na Teoria da Ressonância Adaptativa e Mapas Auto-Organizáveis ​​para a aprendizagem de filtros adaptativos nesses modelos. Essa equação de aprendizado também foi usada por Kohonen em suas aplicações de Mapas Auto-Organizáveis ​​a partir de 1984. Outra variante dessas equações de aprendizado, chamada Outstar Learning, foi usada por Grossberg a partir de 1967 para aprendizado de padrões espaciais. O aprendizado Outstar e Instar foram combinados por Grossberg em 1976 em uma rede de três camadas para o aprendizado de mapas multidimensionais de qualquer espaço de entrada m-dimensional para qualquer espaço de saída n-dimensional. Este aplicativo foi chamado de Contra-propagação por Hecht-Nielsen em 1987.

Com base em sua tese de PhD em Rockefeller de 1964, nas décadas de 1960 e 1970, Grossberg generalizou os modelos de aditivo e desvio para uma classe de sistemas dinâmicos que incluía esses modelos, bem como modelos biológicos não neurais, e provou teoremas de memória endereçáveis ​​de conteúdo para isso mais geral classe de modelos. Como parte dessa análise, ele introduziu um método funcional de Liapunov para ajudar a classificar as dinâmicas limitantes e oscilatórias dos sistemas competitivos, mantendo o controle de qual população está ganhando ao longo do tempo. Este método de Liapunov levou ele e Michael Cohen a descobrir em 1981 e publicar em 1982 e 1983 uma função de Liapunov que eles usaram para provar que existem limites globais em uma classe de sistemas dinâmicos com coeficientes de interação simétricos que incluem os modelos de aditivo e de manobra. John Hopfield publicou esta função de Liapunov para o modelo Aditivo em 1984. A maioria dos cientistas começou a chamar a contribuição de Hopfield de modelo Hopfield. Em 1987, Bart Kosko adaptou o modelo de Cohen-Grossberg e a função de Liapunov, que provou convergência global de STM, para definir uma Memória Associativa Bidirecional Adaptativa que combina STM e LTM e que também converge globalmente para um limite.

Grossberg introduziu e desenvolveu com seus colegas conceitos, mecanismos, modelos e arquiteturas fundamentais em um amplo espectro de tópicos sobre cérebro e comportamento. Ele colaborou com mais de 100 alunos de doutorado e bolsistas de pós-doutorado.

Os modelos que Grossberg introduziu e ajudou a desenvolver incluem:

  • os fundamentos da pesquisa de rede neural: aprendizagem competitiva , mapas auto-organizáveis , instares e campos de mascaramento (para classificação), outstars (para aprendizado de padrão espacial), avalanches (para aprendizado e desempenho de ordem serial), dipolos bloqueados (para processamento de oponente) ;
  • desenvolvimento perceptivo e cognitivo, cognição social, memória de trabalho, processamento de informação cognitiva, planejamento, estimativa numérica e atenção: Teoria de Ressonância Adaptativa (ART), ARTMAP, STORE, CORT-X, SpaN, LIST PARSE, lisTELOS, SMART, CRIB;
  • percepção visual, atenção, aprendizagem de objeto e cena, reconhecimento, remapeamento preditivo e pesquisa: BCS / FCS, FACADE, 3D LAMINART, aFILM, LIGHTSHAFT, Motion BCS, 3D FORMOTION, MODE, VIEWNET, dARTEX, ARTSCAN, pARTSCAN, dARTSCAN, 3D ARTSCAN, ARTSCAN Search, ARTSCENE, ARTSCENE Search;
  • streaming auditivo, percepção, fala e processamento de linguagem: SPINET, ARTSTREAM, NormNet, PHONET, ARTPHONE, ARTWORD;
  • dinâmica cognitivo-emocional, aprendizagem por reforço, atenção motivada e comportamento adaptativo cronometrado: CogEM, START, MOTIVATOR; Sincronização espectral;
  • navegação visual e espacial: SOVEREIGN, STARS, ViSTARS, GRIDSmap, GridPlaceMap, Spectral Spacing;
  • controle sensório-motor adaptativo dos movimentos dos olhos, braços e pernas: VITE, FLETE, VITEWRITE, DIRECT, VAM, CPG, SACCART, TELOS, SAC-SPEM;
  • autismo: iSTART

Carreira e desenvolvimento de infraestrutura

Dado que havia pouca ou nenhuma infraestrutura para apoiar os campos que ele e outros pioneiros da modelagem estavam avançando, Grossberg fundou várias instituições com o objetivo de fornecer treinamento interdisciplinar, pesquisa e publicações nos campos da neurociência computacional, ciência cognitiva conexionista e tecnologia neuromórfica . Em 1981, ele fundou o Center for Adaptive Systems na Boston University e continua sendo seu diretor. Em 1991, ele fundou o Departamento de Sistemas Cognitivos e Neurais da Universidade de Boston e atuou como seu presidente até 2007. Em 2004, ele fundou o Centro de Excelência para Aprendizagem em Educação, Ciência e Tecnologia (CELEST) da NSF e atuou como seu Diretor até 2009.

Todas essas instituições tinham como objetivo responder a duas questões relacionadas: i) Como o cérebro controla o comportamento? ii) Como a tecnologia pode emular a inteligência biológica?

Além disso, Grossberg fundou e foi o primeiro presidente da International Neural Network Society (INNS), que cresceu para 3700 membros de 49 estados dos Estados Unidos e 38 países durante os quatorze meses de sua presidência. A formação do INNS logo levou à formação da European Neural Network Society (ENNS) e da Japanese Neural Network Society (JNNS). Grossberg também fundou o jornal oficial do INNS e foi seu editor-chefe de 1988 a 2010. Neural Networks também é o jornal de arquivo do ENNS e do JNNS.

A série de palestras de Grossberg no MIT Lincoln Laboratory desencadeou o estudo nacional de redes neurais DARPA em 1987-88, que aumentou o interesse do governo na pesquisa de redes neurais. Ele foi Presidente Geral da primeira Conferência Internacional IEEE sobre Redes Neurais (ICNN) em 1987 e desempenhou um papel fundamental na organização da primeira reunião anual do INNS em 1988, cuja fusão em 1989 levou à Conferência Conjunta Internacional sobre Redes Neurais (IJCNN), que continua sendo a maior reunião anual dedicada à pesquisa de redes neurais. Grossberg também organizou e presidiu a Conferência Internacional anual sobre Sistemas Cognitivos e Neurais (ICCNS) desde 1997, bem como muitas outras conferências no campo das redes neurais.

Grossberg atuou no conselho editorial de 30 periódicos, incluindo Journal of Cognitive Neuroscience , Behavioral and Brain Sciences , Cognitive Brain Research , Cognitive Science , Neural Computation , IEEE Transactions on Neural Networks , IEEE Expert e International Journal of Humanoid Robotics .

Prêmios

Prêmios concedidos a Grossberg:

  • Prêmio IEEE Neural Network Pioneer de 1991
  • Prêmio INNS de Liderança 1992
  • Prêmio Tecnologia do Pensamento da Boston Computer Society de 1992
  • Prêmio Ciência da Informação de 2000 da Association for Intelligent Machinery
  • Prêmio Charles River Laboratories de 2002 da Society for Behavioral Toxicology
  • Prêmio INNS Helmholtz de 2003.

Associações:

  • 1990 membro da Memory Disorders Research Society
  • 1994 Fellow da American Psychological Association
  • 1996 Fellow da Society of Experimental Psychologists
  • 2002 Fellow da American Psychological Society
  • Bolsista IEEE de 2005
  • Bolsista inaugural de 2008 da American Educational Research Association
  • Membro INNS 2011

Grossberg recebeu o prêmio Norman Anderson Lifetime Achievement 2015 da Society of Experimental Psychologists "por sua pesquisa teórica pioneira sobre como os cérebros dão origem às mentes e suas contribuições fundamentais para a neurociência computacional e a ciência cognitiva conexionista". Seu discurso de aceitação pode ser encontrado aqui.

Ele recebeu o prêmio Frank Rosenblatt do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) 2017 com a seguinte citação: "Por contribuições para a compreensão da cognição e do comportamento do cérebro e sua emulação pela tecnologia".

Ele ganhou o prêmio Donald O. Hebb de 2019 da International Neural Network Society, que é concedido "por realizações notáveis ​​no aprendizado biológico".

Teoria ART

Com Gail Carpenter , Grossberg desenvolveu a teoria de ressonância adaptativa (ART). ART é uma teoria cognitiva e neural de como o cérebro pode aprender rapidamente, e lembrar e reconhecer de forma estável, objetos e eventos em um mundo em mudança. A ART propôs uma solução para o dilema estabilidade-plasticidade; a saber, como um cérebro ou máquina pode aprender rapidamente sobre novos objetos e eventos sem ser forçado a esquecer memórias previamente aprendidas, mas ainda úteis.

O ART prevê como as expectativas de cima para baixo aprendidas focalizam a atenção nas combinações esperadas de recursos, levando a uma ressonância síncrona que pode impulsionar o aprendizado rápido. O ART também prevê como incompatibilidades grandes o suficiente entre padrões de recursos de baixo para cima e expectativas de cima para baixo podem levar a uma busca de memória, ou teste de hipótese, para categorias de reconhecimento com as quais aprender melhor a classificar o mundo. O ART, portanto, define um tipo de sistema de produção auto-organizado.

ART foi praticamente demonstrado por meio da família de classificadores ART (por exemplo, ART 1, ART 2, ART 2A, ART 3, ARTMAP, fuzzy ARTMAP, ART eMAP, ARTMAP distribuído), desenvolvido com Gail Carpenter, que tem sido usado em grande escala aplicações em engenharia e tecnologia onde são necessárias classificações e previsões rápidas, mas estáveis ​​e incrementalmente aprendidas.

Novos paradigmas computacionais

Grossberg introduziu e liderou o desenvolvimento de dois paradigmas computacionais que são relevantes para a inteligência biológica e suas aplicações:

Computação Complementar

Qual é a natureza da especialização do cérebro? Muitos cientistas propuseram que nossos cérebros possuem módulos independentes, como em um computador digital. A organização do cérebro em áreas anatômicas distintas e fluxos de processamento mostra que o processamento do cérebro é realmente especializado. No entanto, os módulos independentes devem ser capazes de computar totalmente seus processos específicos por conta própria. Muitos dados comportamentais argumentam contra essa possibilidade.

Complementary Computing (Grossberg, 2000, 2012) diz respeito à descoberta de que pares de fluxos de processamento cortical paralelos computam propriedades complementares no cérebro. Cada fluxo tem forças e fraquezas computacionais complementares, tanto quanto em princípios físicos como o Princípio da Incerteza de Heisenberg. Cada fluxo cortical também pode possuir vários estágios de processamento. Esses estágios realizam uma resolução hierárquica da incerteza . "Incerteza" aqui significa que o cálculo de um conjunto de propriedades em um determinado estágio impede o cálculo de um conjunto complementar de propriedades nesse estágio.

A Computação Complementar propõe que a unidade computacional de processamento cerebral que tem significado comportamental consiste em interações paralelas entre fluxos de processamento cortical complementar com múltiplos estágios de processamento para computar informações completas sobre um tipo particular de inteligência biológica.

Computação Laminar

O córtex cerebral, a sede da inteligência superior em todas as modalidades, é organizado em circuitos em camadas (geralmente seis camadas principais) que sofrem interações horizontais e de baixo para cima características. Como as especializações desse design laminar compartilhado incorporam diferentes tipos de inteligência biológica, incluindo visão, fala e linguagem e cognição? Laminar Computing propõe como isso pode acontecer (Grossberg, 1999, 2012).

Laminar Computing explica como o projeto laminar do neocórtex pode realizar as melhores propriedades de feedforward e processamento de feedback, processamento digital e analógico e processamento baseado em dados de baixo para cima e processamento baseado em hipóteses atencioso de cima para baixo. A incorporação de tais designs em chips VLSI promete permitir o desenvolvimento de algoritmos autônomos adaptativos cada vez mais gerais para vários aplicativos.

Veja também

Referências

links externos