AI inverno - AI winter

Na história da inteligência artificial , um inverno de IA é um período de financiamento e interesse reduzidos na pesquisa de inteligência artificial . O termo foi cunhado por analogia à ideia de um inverno nuclear . O campo passou por vários ciclos de hype , seguidos de decepção e crítica, seguidos por cortes de financiamento, seguidos por juros renovados anos ou décadas depois.

O termo apareceu pela primeira vez em 1984 como o tópico de um debate público na reunião anual da AAAI (então chamada de "American Association of Artificial Intelligence"). É uma reação em cadeia que começa com pessimismo na comunidade de IA, seguido por pessimismo na imprensa, seguido por um corte severo no financiamento, seguido pelo fim de pesquisas sérias. Na reunião, Roger Schank e Marvin Minsky - dois importantes pesquisadores de IA que sobreviveram ao "inverno" da década de 1970 - alertaram a comunidade empresarial de que o entusiasmo pela IA havia saído do controle na década de 1980 e que certamente haveria decepção. Três anos depois, a indústria de IA de um bilhão de dólares começou a entrar em colapso.

O hype é comum em muitas tecnologias emergentes, como a mania das ferrovias ou a bolha das pontocom . O inverno AI foi o resultado de tal exagero, devido a promessas exageradas dos desenvolvedores, expectativas anormalmente altas dos usuários finais e ampla promoção na mídia. Apesar da ascensão e queda da reputação da IA, ela continuou a desenvolver tecnologias novas e bem-sucedidas. O pesquisador de IA Rodney Brooks reclamaria em 2002 que "existe um mito estúpido por aí de que a IA falhou, mas a IA está ao seu redor a cada segundo do dia." Em 2005, Ray Kurzweil concordou: "Muitos observadores ainda pensam que o inverno da IA ​​foi o fim da história e que nada mais surgiu do campo da IA. No entanto, hoje muitos milhares de aplicativos de IA estão profundamente embutidos na infraestrutura de todos os setores. "

O entusiasmo e o otimismo em relação à IA geralmente aumentaram desde seu ponto mais baixo no início dos anos 1990. A partir de 2012, o interesse em inteligência artificial (e especialmente no subcampo de aprendizado de máquina ) por parte das comunidades de pesquisa e corporativas levou a um aumento dramático no financiamento e investimento.

Visão geral

Houve dois grandes invernos em 1974-1980 e 1987-1993 e vários episódios menores, incluindo o seguinte:

Episódios iniciais

Tradução automática e o relatório ALPAC de 1966

Durante a Guerra Fria , o governo dos Estados Unidos estava particularmente interessado na tradução automática e instantânea de documentos e relatórios científicos russos. O governo apoiou agressivamente os esforços de tradução automática a partir de 1954. No início, os pesquisadores estavam otimistas. O novo trabalho de Noam Chomsky em gramática estava agilizando o processo de tradução e havia "muitas previsões de 'descobertas' iminentes".

Briefing para o vice-presidente dos Estados Unidos Gerald Ford em 1973 sobre o modelo de tradução por computador baseado em gramática de junção

No entanto, os pesquisadores subestimaram a profunda dificuldade de desambiguação do sentido das palavras . Para traduzir uma frase, uma máquina precisava ter alguma ideia do que se tratava a frase, caso contrário, cometeria erros. Um exemplo apócrifo é "o espírito está pronto, mas a carne é fraca". Traduzido para o russo e para trás, tornou-se "a vodka é boa, mas a carne está estragada". Pesquisadores posteriores chamariam isso de problema do conhecimento do senso comum .

Em 1964, o Conselho Nacional de Pesquisa ficou preocupado com a falta de progresso e formou o Comitê Consultivo de Processamento Automático de Linguagem ( ALPAC ) para examinar o problema. Eles concluíram, em um famoso relatório de 1966, que a tradução automática era mais cara, menos precisa e mais lenta do que a tradução humana. Depois de gastar cerca de 20 milhões de dólares, o NRC encerrou todo o apoio. Carreiras foram destruídas e a pesquisa encerrada.

A tradução automática ainda é um problema de pesquisa em aberto no século 21, que teve algum sucesso ( Google Translate , Yahoo Babel Fish ).

O abandono do conexionismo em 1969

Alguns dos primeiros trabalhos em IA usaram redes ou circuitos de unidades conectadas para simular o comportamento inteligente. Exemplos desse tipo de trabalho, chamado "conexionismo", incluem a primeira descrição de Walter Pitts e Warren McCulloch de uma rede neural para lógica e o trabalho de Marvin Minsky no sistema SNARC . No final dos anos 1950, a maioria dessas abordagens foi abandonada quando os pesquisadores começaram a explorar o raciocínio simbólico como a essência da inteligência, seguindo o sucesso de programas como o Logic Theorist e o General Problem Solver .

No entanto, um tipo de trabalho conexionista continuou: o estudo dos perceptrons , inventado por Frank Rosenblatt, que manteve o campo vivo com sua habilidade de vendedor e a força absoluta de sua personalidade. Ele previu com otimismo que o perceptron "pode ​​eventualmente ser capaz de aprender, tomar decisões e traduzir idiomas". A principal pesquisa sobre perceptrons chegou a um fim abrupto em 1969, quando Marvin Minsky e Seymour Papert publicaram o livro Perceptrons , que foi percebido como delineando os limites do que os perceptrons podiam fazer.

As abordagens conexionistas foram abandonadas pela próxima década ou assim. Embora trabalhos importantes, como a descoberta de retropropagação de Paul Werbos , continuassem de forma limitada, era difícil encontrar fundos importantes para projetos conexionistas nos anos 1970 e no início dos anos 1980. O "inverno" da pesquisa conexionista chegou ao fim em meados dos anos 1980, quando o trabalho de John Hopfield , David Rumelhart e outros ressuscitou o interesse em larga escala pelas redes neurais. Rosenblatt não viveu para ver isso, no entanto, porque morreu em um acidente de barco logo após a publicação de Perceptrons .

Os reveses de 1974

O relatório Lighthill

Em 1973, o professor Sir James Lighthill foi solicitado pelo Parlamento do Reino Unido para avaliar o estado da pesquisa de IA no Reino Unido. Seu relatório, agora chamado de relatório Lighthill, criticou o fracasso total da IA ​​em atingir seus "objetivos grandiosos". Ele concluiu que nada que está sendo feito em IA não poderia ser feito em outras ciências. Ele mencionou especificamente o problema de " explosão combinatória " ou " intratabilidade ", o que implicava que muitos dos algoritmos mais bem-sucedidos da IA ​​seriam paralisados ​​em problemas do mundo real e só eram adequados para resolver versões de "brinquedos".

O relatório foi contestado em um debate transmitido na série "Controvérsia" da BBC em 1973. O debate "O robô de uso geral é uma miragem" da Royal Institution foi Lighthill contra a equipe de Donald Michie , John McCarthy e Richard Gregory . McCarthy escreveu mais tarde que "o problema da explosão combinatória foi reconhecido na IA desde o início".

O relatório levou ao desmantelamento completo da pesquisa de IA na Inglaterra. A pesquisa de IA continuou em apenas algumas universidades (Edimburgo, Essex e Sussex). A pesquisa não iria reviver em grande escala até 1983, quando Alvey (um projeto de pesquisa do governo britânico) começou a financiar a IA novamente de um baú de guerra de £ 350 milhões em resposta ao Projeto Japonês de Quinta Geração (veja abaixo). Alvey tinha uma série de requisitos exclusivos do Reino Unido que não se enquadravam bem internacionalmente, especialmente com parceiros dos EUA, e perdeu o financiamento da Fase 2.

Cortes de financiamento da DARPA no início dos anos 1970

Durante a década de 1960, a Agência de Projetos de Pesquisa Avançada de Defesa (então conhecida como "ARPA", agora conhecida como "DARPA") forneceu milhões de dólares para pesquisas de IA com poucas restrições. JCR Licklider , o diretor fundador da divisão de computação da DARPA, acreditava em "financiar pessoas, não projetos" e ele e vários sucessores permitiram que os líderes da AI (como Marvin Minsky , John McCarthy, Herbert A. Simon ou Allen Newell ) gastassem quase qualquer maneira que eles gostaram.

Esta atitude mudou após a aprovação da Emenda Mansfield em 1969, que exigia que a DARPA financiasse "pesquisa direta orientada para a missão, ao invés de pesquisa básica não dirigida". A pesquisa pura não direcionada do tipo que ocorrera na década de 1960 não seria mais financiada pela DARPA. Os pesquisadores agora precisavam mostrar que seu trabalho logo produziria alguma tecnologia militar útil. As propostas de pesquisa de IA foram mantidas em um padrão muito alto. A situação não foi melhorada quando o relatório Lighthill e o próprio estudo da DARPA (o American Study Group ) sugeriram que a maioria das pesquisas de IA provavelmente não produziria algo realmente útil em um futuro previsível. O dinheiro da DARPA foi direcionado para projetos específicos com objetivos identificáveis, como tanques autônomos e sistemas de gerenciamento de batalha. Em 1974, era difícil encontrar financiamento para projetos de IA.

O pesquisador de IA Hans Moravec atribuiu a crise às previsões irrealistas de seus colegas: "Muitos pesquisadores foram apanhados em uma teia de exageros crescentes. Suas promessas iniciais à DARPA foram otimistas demais. Claro, o que eles entregaram parou muito antes disso . Mas eles sentiram que não poderiam em sua próxima proposta prometer menos do que na primeira, então eles prometeram mais. " O resultado, afirma Moravec, é que parte da equipe da DARPA havia perdido a paciência com a pesquisa de IA. "Foi literalmente dito na DARPA que 'algumas dessas pessoas aprenderiam uma lição [por] ter seus contratos de dois milhões de dólares por ano reduzidos a quase nada!'" Moravec disse a Daniel Crevier .

Enquanto o projeto do tanque autônomo foi um fracasso, o sistema de gerenciamento de batalha (a Ferramenta de Análise Dinâmica e Replanagem ) provou ser um enorme sucesso, economizando bilhões na primeira Guerra do Golfo , reembolsando todo o investimento da DARPA em IA e justificando a política pragmática da DARPA.

O desastre SUR

A DARPA ficou profundamente desapontada com os pesquisadores que trabalharam no programa Speech Understanding Research na Carnegie Mellon University. A DARPA esperava, e sentiu que havia sido prometido, um sistema que pudesse responder aos comandos de voz de um piloto. A equipe SUR desenvolveu um sistema que pode reconhecer o inglês falado, mas apenas se as palavras forem faladas em uma ordem específica . A DARPA sentiu que havia sido enganada e, em 1974, cancelou um contrato de três milhões de dólares por ano.

Muitos anos depois, vários sistemas de reconhecimento de voz comerciais bem-sucedidos usariam a tecnologia desenvolvida pela equipe da Carnegie Mellon (como os modelos ocultos de Markov ) e o mercado de sistemas de reconhecimento de voz alcançaria US $ 4 bilhões em 2001.

Os reveses do final dos anos 1980 e início dos anos 1990

O colapso do mercado de máquinas LISP

Na década de 1980, uma forma de programa de IA chamada " sistema especialista " foi adotada por corporações em todo o mundo. O primeiro sistema especialista comercial foi o XCON , desenvolvido na Carnegie Mellon para a Digital Equipment Corporation , e foi um enorme sucesso: estima-se que a empresa tenha economizado 40 milhões de dólares em apenas seis anos de operação. Corporações em todo o mundo começaram a desenvolver e implantar sistemas especialistas e, em 1985, estavam gastando mais de um bilhão de dólares em IA, a maior parte em departamentos internos de IA. Uma indústria cresceu para apoiá-los, incluindo empresas de software como Teknowledge and Intellicorp (KEE) , e empresas de hardware como Symbolics e LISP Machines Inc., que construíram computadores especializados, chamados de máquinas LISP , que eram otimizados para processar a linguagem de programação LISP , a preferida linguagem para IA.

Em 1987, três anos após a previsão de Minsky e Schank , o mercado de hardware especializado de IA baseado em LISP entrou em colapso. As estações de trabalho de empresas como a Sun Microsystems ofereceram uma alternativa poderosa às máquinas LISP e empresas como a Lucid ofereceram um ambiente LISP para essa nova classe de estações de trabalho. O desempenho dessas estações de trabalho gerais tornou-se um desafio cada vez mais difícil para as máquinas LISP. Empresas como Lucid e Franz LISP ofereceram versões cada vez mais poderosas do LISP que eram portáveis ​​para todos os sistemas UNIX. Por exemplo, benchmarks foram publicados mostrando estações de trabalho mantendo uma vantagem de desempenho em relação às máquinas LISP. Mais tarde, os computadores desktop construídos pela Apple e pela IBM também ofereceriam uma arquitetura mais simples e popular para a execução de aplicativos LISP. Em 1987, alguns deles se tornaram tão poderosos quanto as máquinas LISP mais caras. Os computadores desktop tinham mecanismos baseados em regras, como CLIPS, disponíveis. Essas alternativas deixaram os consumidores sem motivo para comprar uma máquina cara especializada para executar o LISP. Uma indústria inteira no valor de meio bilhão de dólares foi substituída em um único ano.

No início dos anos 1990, a maioria das empresas comerciais LISP faliram, incluindo Symbolics, LISP Machines Inc., Lucid Inc., etc. Outras empresas, como Texas Instruments e Xerox , abandonaram o campo. Um pequeno número de empresas clientes (ou seja, empresas que usam sistemas escritos em LISP e desenvolvidos em plataformas de máquina LISP) continuaram a manter os sistemas. Em alguns casos, essa manutenção envolveu a assunção do trabalho de suporte resultante.

Lentidão na implantação de sistemas especialistas

No início da década de 1990, os primeiros sistemas especialistas bem-sucedidos, como o XCON, mostraram-se caros demais para manter. Eles eram difíceis de atualizar, não podiam aprender, eram "frágeis" (ou seja, podiam cometer erros grotescos quando recebiam dados incomuns) e eram vítimas de problemas (como o problema de qualificação ) que haviam sido identificados anos antes em pesquisa em lógica não monotônica . Os sistemas especialistas provaram ser úteis, mas apenas em alguns contextos especiais. Outro problema lidava com a dureza computacional dos esforços de manutenção da verdade para o conhecimento geral. O KEE usou uma abordagem baseada em suposições (consulte NASA, TEXSYS ), suportando cenários de múltiplos mundos que eram difíceis de entender e aplicar.

As poucas empresas de fachada de sistemas especialistas restantes foram eventualmente forçadas a reduzir o tamanho e buscar novos mercados e paradigmas de software, como raciocínio baseado em casos ou acesso universal a banco de dados . O amadurecimento do Common Lisp salvou muitos sistemas como o ICAD, que encontrou aplicação na engenharia baseada no conhecimento . Outros sistemas, como o KEE da Intellicorp, mudaram de LISP para C ++ (variante) no PC e ajudaram a estabelecer a tecnologia orientada a objetos (incluindo o fornecimento de suporte principal para o desenvolvimento de UML (consulte Parceiros UML ).

O fim do projeto de quinta geração

Em 1981, o Ministério do Comércio e Indústria Internacional do Japão reservou US $ 850 milhões para o projeto de computador da Quinta Geração . Seus objetivos eram escrever programas e construir máquinas que pudessem conversar, traduzir idiomas, interpretar imagens e raciocinar como seres humanos. Em 1991, a impressionante lista de gols marcados em 1981 não havia sido cumprida. De acordo com HP Newquist em The Brain Makers , "Em 1 ° de junho de 1992, o projeto de quinta geração terminou não com um rugido de sucesso, mas com um gemido." Como em outros projetos de IA, as expectativas eram muito maiores do que era realmente possível.

Cortes da Iniciativa de Computação Estratégica

Em 1983, em resposta ao projeto de quinta geração, a DARPA começou novamente a financiar pesquisas em IA por meio da Strategic Computing Initiative. Como originalmente proposto, o projeto começaria com objetivos práticos e alcançáveis, que até incluíam a inteligência artificial geral como objetivo de longo prazo. O programa estava sob a direção do Escritório de Tecnologia de Processamento da Informação (IPTO) e também era voltado para supercomputação e microeletrônica . Em 1985, havia gasto US $ 100 milhões e 92 projetos estavam em andamento em 60 instituições, metade na indústria, metade em universidades e laboratórios do governo. A pesquisa sobre IA foi generosamente financiada pelo SCI.

Jack Schwarz, que ascendeu à liderança do IPTO em 1987, descartou os sistemas especialistas como "programação inteligente" e cortou o financiamento para a IA "profunda e brutalmente", "eviscerando" SCI. Schwarz achava que a DARPA deveria focar seu financiamento apenas nas tecnologias que se mostrassem mais promissoras, em suas palavras, a DARPA deveria "surfar", ao invés de "remo de cachorro", e ele sentiu fortemente que a IA não era "a próxima onda". Integrantes do programa citaram problemas de comunicação, organização e integração. Alguns projetos sobreviveram aos cortes de financiamento, incluindo o assistente do piloto e um veículo terrestre autônomo (que nunca foram entregues) e o sistema de gerenciamento de batalha DART, que (conforme observado acima) foi bem-sucedido.

Desenvolvimentos pós-inverno IA

Uma pesquisa de relatórios do início de 2000 sugere que a reputação da AI ainda era menos do que estelar:

  • Alex Castro, citado em The Economist , 7 de junho de 2007: "[Investidores] foram desencorajados pelo termo 'reconhecimento de voz' que, como 'inteligência artificial', está associado a sistemas que muitas vezes não cumpriram suas promessas . "
  • Patty Tascarella em Pittsburgh Business Times , 2006: "Alguns acreditam que a palavra 'robótica' realmente carrega um estigma que prejudica as chances de financiamento de uma empresa."
  • John Markoff no New York Times , 2005: "Em seu ponto baixo, alguns cientistas da computação e engenheiros de software evitaram o termo inteligência artificial por medo de serem vistos como sonhadores de olhos arregalados."

Muitos pesquisadores em IA em meados dos anos 2000 denominaram deliberadamente seu trabalho por outros nomes , como informática , aprendizado de máquina, análise, sistemas baseados em conhecimento , gerenciamento de regras de negócios , sistemas cognitivos , sistemas inteligentes , agentes inteligentes ou inteligência computacional , para indicar que seus o trabalho enfatiza ferramentas específicas ou é direcionado a um subproblema específico. Embora isso possa ser em parte porque eles consideram seu campo fundamentalmente diferente de IA, também é verdade que os novos nomes ajudam a obter financiamento, evitando o estigma de falsas promessas associadas ao nome "inteligência artificial".

Integração de IA

No final da década de 1990 e no início do século 21, a tecnologia de IA tornou-se amplamente usada como elementos de sistemas maiores, mas o campo raramente é creditado por esses sucessos. Em 2006, Nick Bostrom explicou que "um monte de IA de ponta foi filtrado para aplicações gerais, muitas vezes sem ser chamado de IA porque uma vez que algo se torna útil e comum o suficiente não é mais rotulado de IA." Rodney Brooks afirmou mais ou menos na mesma época que "existe um mito estúpido por aí de que a IA falhou, mas a IA está ao seu redor a cada segundo do dia".

As tecnologias desenvolvidas por pesquisadores de IA alcançaram sucesso comercial em vários domínios, como tradução automática, mineração de dados , robótica industrial , logística, reconhecimento de voz, software bancário, diagnóstico médico e mecanismo de busca do Google .

Os controladores lógicos difusos foram desenvolvidos para caixas de câmbio automáticas em automóveis (o Audi TT de 2006, VW Touareg e VW Caravelle apresentam a transmissão DSP que utiliza lógica difusa, uma série de variantes do Škoda ( Škoda Fabia ) também incluem atualmente um controlador baseado em lógica difusa) . Os sensores da câmera utilizam amplamente a lógica difusa para habilitar o foco.

Pesquisa heurística e análise de dados são tecnologias que se desenvolveram a partir da computação evolutiva e da subdivisão do aprendizado de máquina da comunidade de pesquisa de IA. Novamente, essas técnicas foram aplicadas a uma ampla gama de problemas do mundo real com considerável sucesso comercial.

A tecnologia de análise de dados que utiliza algoritmos para a formação automatizada de classificadores que foram desenvolvidos na comunidade de aprendizado de máquina supervisionada na década de 1990 (por exemplo, TDIDT, Support Vector Machines, Neural Nets, IBL) agora é amplamente usada por empresas para direcionamento e descoberta de pesquisas de marketing de tendências e recursos em conjuntos de dados.

Financiamento de IA

Pesquisadores e economistas freqüentemente julgavam a situação de um inverno de IA revisando quais projetos de IA estavam sendo financiados, quanto e por quem. As tendências de financiamento são frequentemente definidas pelas principais agências de financiamento do mundo desenvolvido. Atualmente, o DARPA e um programa de financiamento civil chamado EU-FP7 fornecem grande parte do financiamento para pesquisas em IA nos Estados Unidos e na União Europeia .

Em 2007, a DARPA estava solicitando propostas de pesquisa de IA em uma série de programas, incluindo o Programa Grande Desafio , Sistema de Alerta de Ameaça de Tecnologia Cognitiva (CT2WS), " Dispositivos Neurais Assistidos por Humanos (SN07-43) ", " Autonomous Real-Time Ground Ubiquitous Surveillance -Sistema de imagem (ARGUS-IS ) "e" Raciocínio Urbano e Tecnologia de Exploração Geoespacial (URGENTE) "

Talvez o mais conhecido seja o Programa Grande Desafio da DARPA, que desenvolveu veículos rodoviários totalmente automatizados que podem navegar com sucesso em terrenos do mundo real de uma forma totalmente autônoma.

A DARPA também apoiou programas na Web Semântica com grande ênfase no gerenciamento inteligente de conteúdo e compreensão automatizada. No entanto, James Hendler , o gerente do programa DARPA na época, expressou certo desapontamento com a capacidade do governo de criar mudanças rápidas e passou a trabalhar com o World Wide Web Consortium para fazer a transição das tecnologias para o setor privado.

O programa de financiamento EU-FP7 fornece apoio financeiro a pesquisadores na União Europeia. Em 2007–2008, financiava investigação em IA no âmbito do Programa de Sistemas Cognitivos: Interacção e Robótica (€ 193 milhões), o Programa de Bibliotecas Digitais e Conteúdo (€ 203 milhões) e o programa FET (€ 185 milhões).

Atual "primavera AI"

Um aumento acentuado no financiamento, desenvolvimento, implantação e uso comercial da IA ​​levou à ideia de que o inverno da IA ​​acabou há muito tempo. Ocasionalmente, surgem preocupações de que um novo inverno de IA possa ser desencadeado por promessas excessivamente ambiciosas ou irrealistas de cientistas proeminentes de IA ou promessas exageradas por parte de fornecedores comerciais.

Os sucessos da atual "primavera de IA" são avanços na tradução de idiomas (em particular, Google Translate ), reconhecimento de imagem (estimulado pelo banco de dados de treinamento ImageNet ) comercializado pela Pesquisa de Imagens do Google e em sistemas de jogo como AlphaZero (xadrez campeão) e AlphaGo (campeão go) e Watson ( campeão Jeopardy ). A maior parte desses avanços ocorreu desde 2010.

Causas subjacentes aos invernos de IA

Várias explicações foram apresentadas para a causa dos invernos de IA em geral. À medida que a IA progrediu de aplicativos financiados pelo governo para aplicativos comerciais, uma nova dinâmica entrou em jogo. Embora o hype seja a causa mais comumente citada, as explicações não são necessariamente mutuamente exclusivas.

Moda

Os invernos de IA podem ser parcialmente entendidos como uma sequência de expectativas excessivamente inflacionadas e subsequente colapso visto nos mercados de ações e exemplificado pela mania ferroviária e bolha pontocom . Em um padrão comum no desenvolvimento de novas tecnologias (conhecido como ciclo de hype), um evento, tipicamente um avanço tecnológico, cria publicidade que se auto-alimenta para criar um "pico de expectativas infladas" seguido por um "vale da desilusão". Uma vez que o progresso científico e tecnológico não consegue acompanhar o aumento das expectativas alimentadas pela publicidade entre os investidores e outras partes interessadas, deve ocorrer um crash. A tecnologia de IA parece não ser uma exceção a essa regra.

Por exemplo, na década de 1960, a constatação de que os computadores podiam simular redes neurais de 1 camada levou a um ciclo de hype da rede neural que durou até a publicação de 1969 do livro Perceptrons, que limitou severamente o conjunto de problemas que poderiam ser resolvidos de forma otimizada por 1- redes de camadas. Em 1985, a descoberta de que as redes neurais poderiam ser usadas para resolver problemas de otimização, como resultado de artigos famosos de Hopfield e Tank, juntamente com a ameaça do projeto de 5ª geração do Japão, gerou um interesse e aplicação renovados.

Fatores institucionais

Outro fator é o lugar da AI na organização das universidades. A pesquisa em IA geralmente assume a forma de pesquisa interdisciplinar . A IA está, portanto, sujeita aos mesmos problemas que outros tipos de pesquisa interdisciplinar enfrentam. O financiamento é canalizado através dos departamentos estabelecidos e durante os cortes orçamentais, haverá uma tendência de blindar os "conteúdos essenciais" de cada departamento, em detrimento de projectos de investigação interdisciplinares e menos tradicionais.

Fatores ECONOMICOS

A desaceleração da economia nacional de um país causa cortes no orçamento das universidades. A tendência de "conteúdos essenciais" piora o efeito sobre a pesquisa de IA e os investidores no mercado tendem a colocar seu dinheiro em empreendimentos menos arriscados durante uma crise. Juntos, isso pode amplificar uma desaceleração econômica em um inverno de IA. É importante notar que o relatório Lighthill surgiu em um momento de crise econômica no Reino Unido, quando as universidades tiveram que fazer cortes e a questão era apenas quais programas deveriam ser abandonados.

Capacidade de computação insuficiente

No início da história da computação, o potencial das redes neurais foi compreendido, mas nunca foi realizado. Redes razoavelmente simples exigem capacidade de computação significativa, mesmo para os padrões atuais.

Pipeline vazio

É comum ver a relação entre pesquisa básica e tecnologia como um duto. Os avanços na pesquisa básica dão origem a avanços na pesquisa aplicada, que por sua vez leva a novas aplicações comerciais. A partir disso, costuma-se argumentar que a falta de pesquisa básica levará a uma queda na tecnologia comercializável alguns anos depois. Essa visão foi avançada por James Hendler em 2008, quando ele afirmou que a queda dos sistemas especialistas no final dos anos 80 não foi devido a uma fragilidade inerente e inevitável dos sistemas especialistas, mas aos cortes de financiamento na pesquisa básica na década de 1970. Esses sistemas especialistas avançaram na década de 1980 por meio da pesquisa aplicada e do desenvolvimento de produtos, mas, no final da década, o pipeline secou e os sistemas especialistas não foram capazes de produzir melhorias que poderiam ter superado essa fragilidade e garantido mais financiamento.

Falha de adaptação

A queda do mercado de máquinas LISP e o fracasso dos computadores de quinta geração foram casos em que produtos avançados caros foram substituídos por alternativas mais simples e mais baratas. Isso se encaixa na definição de uma tecnologia disruptiva de baixo custo , com os fabricantes de máquinas LISP sendo marginalizados. Os sistemas especialistas foram transferidos para os novos computadores desktop, por exemplo , por CLIPS , de modo que a queda do mercado de máquinas LISP e a queda dos sistemas especialistas são, estritamente falando, dois eventos separados. Ainda assim, o fracasso em se adaptar a tal mudança no meio externo da computação é citado como uma das razões para o inverno da IA ​​dos anos 1980.

Argumentos e debates sobre passado e futuro da IA

Vários filósofos, cientistas cognitivos e cientistas da computação especularam onde a IA poderia ter falhado e o que está em seu futuro. Hubert Dreyfus destacou suposições errôneas de pesquisas em IA no passado e, já em 1966, previu corretamente que a primeira onda de pesquisas em IA deixaria de cumprir as promessas públicas que estava fazendo. Outros críticos como Noam Chomsky argumentaram que a IA está indo na direção errada, em parte por causa de sua forte dependência de técnicas estatísticas. Os comentários de Chomsky se encaixam em um debate mais amplo com Peter Norvig , centrado em torno do papel dos métodos estatísticos na IA. A troca entre os dois começou com comentários feitos por Chomsky em um simpósio no MIT para o qual Norvig escreveu uma resposta.

Veja também

Notas

Referências

Leitura adicional

  • Marcus, Gary , "Am I Human ?: Os pesquisadores precisam de novas maneiras de distinguir a inteligência artificial da natural", Scientific American , vol. 316, no. 3 (março de 2017), pp. 58–63. Vários testes de eficácia da inteligência artificial são necessários porque, "assim como não existe um único teste de destreza atlética , não pode haver um teste definitivo de inteligência ". Um desses testes, um "Desafio de Construção", testaria a percepção e a ação física - "dois elementos importantes de comportamento inteligente que estavam inteiramente ausentes do teste de Turing original ". Outra proposta foi dar às máquinas os mesmos testes padronizados de ciências e outras disciplinas que os alunos fazem. Um obstáculo até agora insuperável para a inteligência artificial é a incapacidade de desambiguação confiável . "[V] virtualmente cada frase [que as pessoas geram] é ambígua , muitas vezes de várias maneiras." Um exemplo importante é conhecido como "problema de desambiguação de pronomes": uma máquina não tem como determinar a quem ou a que um pronome em uma frase - como "ele", "ela" ou "isso" - se refere.
  • Luke Muehlhauser (setembro de 2016). "O que devemos aprender com as previsões anteriores de IA?" . Projeto de filantropia aberta.

links externos