Inteligência artificial - Artificial intelligence


Da Wikipédia, a enciclopédia livre

Inteligência Artificial ( AI ), às vezes chamado de máquina de inteligência , é a inteligência demonstrada por máquinas , em contraste com a inteligência natural apresentada por seres humanos e outros animais. Em ciência da computação pesquisa AI é definida como o estudo dos " agentes inteligentes ": qualquer dispositivo que percebe seu ambiente e realiza ações que maximizam a sua chance de alcançar com sucesso suas metas. Coloquialmente, o termo "inteligência artificial" é aplicado quando uma máquina imita funções "cognitivas" que os seres humanos associado com outras mentes humanas , tais como a "aprendizagem" e "resolução de problemas".

O escopo da AI é disputado: como as máquinas se tornam cada vez mais capazes, tarefas consideradas como necessitando de "inteligência" são muitas vezes removidos da definição, um fenômeno conhecido como efeito AI , levando à piada no Teorema de Tesler, "AI é tudo o que não tem sido feito ainda." Por exemplo, reconhecimento óptico de caracteres é frequentemente excluídos da "inteligência artificial", tendo-se tornado uma tecnologia de rotina. Capacidades modernas máquinas geralmente classificados como AI incluem êxito entender a fala humana , competindo ao mais alto nível no jogo estratégicos sistemas (como xadrez e Go ), carros autonomamente operacionais e roteamento inteligente em redes de distribuição de conteúdo e simulações militares .

Contracção da gestão de literatura, Kaplan e Haenlein classificar inteligência artificial em três tipos diferentes de sistemas de inteligência artificial: analítico, humano de inspiração, e humanizado inteligência artificial. Analytical AI tem apenas características consistentes com inteligência cognitiva gerando representação cognitiva do mundo e utilizando a aprendizagem baseada na experiência passada para informar as decisões futuras. Human-inspirada AI tem elementos de cognitiva, bem como inteligência emocional , compreensão, além de elementos cognitivos, também as emoções humanas, considerando-los na sua tomada de decisão . Humanizado AI mostra características de todos os tipos de competências (ie, cognitivo, emocional e social, de inteligência ), capaz de ser auto-consciente e auto-consciente em interações com os outros.

A inteligência artificial foi fundada como uma disciplina acadêmica em 1956, e nos anos que passou por várias ondas de otimismo, seguida pela decepção ea perda de financiamento (conhecida como " inverno AI "), seguido por novas abordagens, sucesso e renovada financiamento . Para a maioria de sua história, a pesquisa AI foi dividida em subáreas, que muitas vezes não conseguem se comunicar uns com os outros. Estes sub-campos são baseadas em considerações técnicas, tais como determinados objetivos (por exemplo, " robótica " ou "aprendizagem máquina"), o uso de ferramentas específicas ( "lógica" ou redes neurais artificiais ), ou diferenças filosóficas profundas. Subcampos também foram baseadas em fatores sociais (instituições particulares ou o trabalho de determinados pesquisadores).

Os problemas tradicionais (ou metas) de pesquisa AI incluem raciocínio , representação do conhecimento , planejamento , aprendizagem , processamento de linguagem natural , a percepção ea capacidade de mover e manipular objetos. Inteligência geral está entre metas de longo prazo do campo. As abordagens incluem métodos estatísticos , inteligência computacional e tradicional AI simbólico . Muitas ferramentas são usadas em AI, incluindo versões de busca e otimização matemática , redes neurais artificiais e métodos baseados em estatísticas, probabilidades e economia . O campo AI se baseia em ciência da computação , engenharia da informação , matemática , psicologia , lingüística , filosofia , e muitos outros.

O campo foi fundada na alegação de que a inteligência humana "pode ser tão precisamente descrito que uma máquina pode ser feita para simulá-lo". Isto levanta argumentos filosóficos sobre a natureza da mente e a ética da criação de seres artificiais dotados de inteligência semelhante à humana que são questões que têm sido exploradas por mito , ficção e filosofia desde a antiguidade . Algumas pessoas também consideram AI para ser um perigo para a humanidade se progride sem esmorecer. Outros acreditam que a AI, ao contrário de revoluções tecnológicas anteriores, irá criar um risco de desemprego em massa .

No século XXI, técnicas de IA têm experimentado um ressurgimento após os avanços simultâneos na alimentação do computador , grandes quantidades de dados e conhecimento teórico; e técnicas de IA tornaram-se uma parte essencial da indústria de tecnologia , ajudando a resolver muitos problemas difíceis em ciência da computação, engenharia de software e operações de investigação .

Conteúdo

História

Talos , um mítico antigo autômato com a inteligência artificial

Pensamento-capable seres artificiais apareceu como dispositivos de contar histórias na antiguidade, e têm sido comuns na ficção, como em Mary Shelley 's Frankenstein ou Karel Capek ' s RUR (Robôs Universais de Rossum) . Estes personagens e seus destinos levantou muitas das mesmas questões já discutidas nos ética da inteligência artificial .

O estudo da mecânica ou raciocínio "formal" começou com os filósofos e matemáticos na antiguidade. O estudo da lógica matemática levou diretamente para Alan Turing 's teoria da computação , que sugeriu que uma máquina, por baralhar símbolos tão simples como '0' e '1', poderia simular qualquer ato concebível de dedução matemática. Essa percepção, que os computadores digitais podem simular qualquer processo de raciocínio formal, é conhecida como a tese de Church-Turing . Junto com descobertas simultâneas em neurobiologia , teoria da informação e cibernética , o que levou os pesquisadores a considerar a possibilidade de construir um cérebro eletrônico. Turing propôs que "se um ser humano não pode distinguir entre as respostas de uma máquina e um ser humano, a máquina poderia ser considerado 'inteligente'. O primeiro trabalho que agora é geralmente reconhecido como AI foi McCullouch e Pitts concepção formal '1943 por Turing-complete "neurónios artificiais".

O campo de pesquisa AI nasceu em uma oficina no Dartmouth College em 1956. Os participantes Allen Newell ( CMU ), Herbert Simon ( CMU ), John McCarthy ( MIT ), Marvin Minsky ( MIT ) e Arthur Samuel ( IBM ) se tornaram os fundadores e Os líderes da pesquisa AI. Eles e seus alunos produziram programas que a imprensa descreveu como "surpreendente": computadores estavam aprendendo damas estratégias (e em 1959 foram supostamente jogando melhor do que o ser humano médio), resolvendo problemas de palavras em álgebra, provando teoremas lógicos ((c 1,954.) Logic teórico , primeira execução c. 1956) e fala Inglês. Em meados da década de 1960, a pesquisa nos EUA foi fortemente financiada pelo Departamento de Defesa e laboratórios tinha sido estabelecido ao redor do mundo. Os fundadores da AI estavam otimistas sobre o futuro: Herbert Simon previsto, "máquinas serão capazes, dentro de vinte anos, de fazer qualquer trabalho que um homem pode fazer". Marvin Minsky concordou, escrevendo, "dentro de uma geração ... o problema da criação de 'inteligência artificial' será substancialmente ser resolvido".

Eles não conseguiram reconhecer a dificuldade de algumas das tarefas restantes. Progress diminuiu e em 1974, em resposta à crítica de Sir James Lighthill e pressão contínua do Congresso dos EUA para financiar projectos mais produtivos, tanto os EUA e governos britânico cortou pesquisa exploratória no AI. Os próximos anos mais tarde seria chamado de " inverno AI ", um período em que a obtenção de financiamento para projetos de IA foi difícil.

No início de 1980, a pesquisa AI foi reavivado pelo sucesso comercial de sistemas especialistas , uma forma de programa de AI que simulava o conhecimento e as habilidades analíticas de especialistas humanos. Em 1985, o mercado de AI tinha atingido mais de um bilhão de dólares. Ao mesmo tempo, do Japão quinta computador geração projeto inspirado os EUA e os governos britânicos para restaurar o financiamento para a pesquisa acadêmica. No entanto, começando com o colapso da máquina Lisp mercado em 1987, AI, mais uma vez caiu em descrédito, e um segundo hiato, mais duradouro começou.

No final de 1990 e início do século 21, AI começou a ser usado para a logística, mineração de dados , diagnósticos médicos e outras áreas. O sucesso foi devido ao aumento do poder computacional (ver a lei de Moore ), maior ênfase na resolução de problemas específicos, novos laços entre AI e outras áreas (como a estatística , economia e matemática ), e um compromisso por pesquisadores para métodos matemáticos e padrões científicos. Deep Blue se tornou o primeiro sistema de computador que joga xadrez para bater um campeão mundial de xadrez reinante, Garry Kasparov , em 11 de Maio de 1997.

Em 2011, um Jeopardy! quiz show partida de exibição, IBM 's sistema de atendimento pergunta , Watson , derrotou os dois maiores Jeopardy! campeões, Brad Rutter e Ken Jennings , por uma margem significativa. Computadores mais rápidos , melhorias algorítmicas, e acesso a grandes quantidades de dados avanços na habilitados aprendizado de máquina e percepção; dados-com fome de aprendizagem profundas métodos começou a dominar benchmarks de precisão por volta de 2012 . O Kinect , que fornece uma interface corpo-motion 3D para o Xbox 360 eo Xbox One , utiliza algoritmos que emergiram da pesquisa AI longa como fazer assistentes pessoais inteligentes em smartphones . Em março de 2016, AlphaGo venceu em 4 de 5 jogos de Go em uma partida com Go campeão Lee SEDOL , tornando-se o primeiro computador do sistema Go-jogo para bater um jogador Go profissional sem limitações . Em 2017 Future of Go Summit , AlphaGo ganhou um jogo de três jogos com Ke Jie , que na época continuamente realizado o mundo No. 1 do ranking por dois anos. Isto marcou a conclusão de um marco significativo no desenvolvimento da inteligência artificial como Go é um jogo extremamente complexa, mais do que de xadrez.

De acordo com a Bloomberg Jack Clark, 2015 foi um ano marcante para a inteligência artificial, com o número de projetos de software que usam AI dentro do Google aumentou de um "uso esporádico" em 2012 para mais de 2.700 projetos. Clark também apresenta dados factuais, indicando que as taxas de erro em tarefas de processamento de imagem têm diminuído significativamente desde 2011. Ele atribui isso a um aumento acessíveis redes neurais , devido a um aumento na infraestrutura de computação em nuvem e a um aumento na ferramentas de pesquisa e conjuntos de dados. Outros citaram exemplos incluem o desenvolvimento de um sistema de Skype que pode traduzir automaticamente de uma linguagem para outra e sistema do Facebook que pode descrever imagens para cegar as pessoas da Microsoft. Em uma pesquisa 2017, um em cada cinco empresas relataram ter "incorporados AI em algumas ofertas ou processos". Por volta de 2016, a China acelerou muito o seu financiamento do governo; dada a sua grande oferta de dados e sua crescente produção de pesquisa, alguns observadores acreditam que ele pode estar a caminho de se tornar um "AI superpotência".

Basics

A AI típico percebe seu ambiente e realiza ações que maximizam a sua chance de alcançar com sucesso suas metas. Destina-se de um AI função objetivo pode ser simples ( "1 se o AI ganha um jogo de Go , 0 caso contrário") ou complexo ( "Faça ações matematicamente semelhante às ações que você tem recompensas no passado"). Objectivos podem ser explicitamente definido, ou pode ser induzida. Se a AI está programado para " reforço de aprendizagem ", as metas podem ser induzidas implicitamente, recompensando alguns tipos de comportamento e punir outros. Alternativamente, um sistema evolutivo pode induzir metas usando uma " função de adaptação " de mutação e de preferência replicar sistemas de alta pontuação AI; este é semelhante à forma como os animais evoluíram ao desejo inato determinadas metas, tais como encontrar comida, ou como os cães podem ser criados através de seleção artificial de possuir características desejadas. Alguns sistemas de inteligência artificial, como o vizinho mais próximo, em vez razão por analogia; estes sistemas não são geralmente dada objetivos, exceto na medida em que as metas são de alguma forma implícita em seus dados de treinamento. Tais sistemas podem ainda ser aferido se o sistema não-objetivo é enquadrado como um sistema cujo "objetivo" é realizar com êxito a sua tarefa de classificação estreita.

AI muitas vezes gira em torno do uso de algoritmos . Um algoritmo é um conjunto de instruções inequívocas de que um computador mecânico pode executar. Um algoritmo complexo é muitas vezes construída em cima de outras, mais simples, algoritmos. Um exemplo simples de um algoritmo é a seguinte receita para o jogo óptimo na tic-tac-toe :

  1. Se alguém tem uma "ameaça" (isto é, duas seguidas), tomar a praça restante. De outra forma,
  2. se um movimento "garfos" para criar duas ameaças de uma vez, jogar esse movimento. De outra forma,
  3. tomar a praça central se é gratuito. De outra forma,
  4. se o seu adversário tem jogado em um canto, pegue o canto oposto. De outra forma,
  5. ter um canto vazio, se existir alguma. De outra forma,
  6. tomar qualquer quadrado vazio.

Muitos algoritmos de inteligência artificial são capazes de aprender a partir de dados; eles podem melhorar a si mesmos, aprendendo novas heurísticas (estratégias, ou "regras de ouro", que funcionaram bem no passado), ou a si próprios pode escrever outros algoritmos. Alguns dos "aprendizes" descritos abaixo, incluindo redes bayesianas, árvores de decisão, e vizinho mais próximo, poderia, teoricamente, se for dado dados infinitos, tempo e memória, aprender a aproximar qualquer função , incluindo qualquer combinação de funções matemáticas que melhor descrevem o mundo inteiro. Estes alunos poderia, portanto, em teoria, derivam todo o conhecimento possível, considerando todas as hipóteses possíveis e comparando-a com os dados. Na prática, quase nunca é possível considerar todas as possibilidades, por causa do fenômeno da " explosão combinatória ", onde a quantidade de tempo necessário para resolver um problema cresce exponencialmente. Grande parte da pesquisa AI envolve descobrir como identificar e evitar considerando amplas faixas de possibilidades que não são susceptíveis de ser frutífera. Por exemplo, ao visualizar um mapa e procurando o caminho mais curto de carro de Denver para Nova Iorque no Oriente, uma lata na maioria dos casos pular olhando para qualquer caminho através de San Francisco ou de outras áreas longe para o oeste; Assim, um AI empunhando um algoritmo pathfinding como A * pode evitar a explosão combinatória que, se fossem todas as rotas possíveis teve que ser pesadamente considerados em separado.

A abordagem mais antiga (e mais fácil de entender) a AI foi simbolismo (como a lógica formal): "Se um adulto de outra forma saudável tem uma febre, então eles podem ter a gripe ". A segunda abordagem, mais geral é inferência Bayesiana : "Se o paciente atual tem uma febre, ajustar a probabilidade eles têm a gripe em tal e tal maneira". A terceira abordagem importante, extremamente popular em aplicações de rotina AI negócios, são analogizers como SVM e vizinho mais próximo : "Depois de examinar os registros de pacientes conhecidos últimos cuja temperatura, sintomas, idade e outros factores principalmente corresponder ao paciente atual, X% desses pacientes acabou por ter a gripe". A quarta abordagem é mais difícil de compreender intuitivamente, mas é inspirado como máquinas do cérebro funciona: a rede neural artificial abordagem usa "artificiais neurônios " que podem aprender, comparando-se à saída desejada e alterando os pontos fortes das conexões entre seus neurônios internos "reforçar" conexões que pareciam ser útil. Estes quatro abordagens principais podem sobrepor-se uns com os outros e com os sistemas evolutivos; por exemplo, as redes neurais podem aprender a fazer inferências, generalizar e fazer analogias. Alguns sistemas usam implícita ou explicitamente múltiplos destas abordagens, ao lado de muitos outros AI e algoritmos não-AI; a melhor abordagem é muitas vezes diferente, dependendo do problema.

A linha azul poderia ser um exemplo de overfitting uma função linear, devido ao ruído aleatório.

Algoritmos de aprendizagem trabalhar com base de que as estratégias, algoritmos e inferências que funcionaram bem no passado são susceptíveis de continuar a trabalhar bem no futuro. Essas inferências podem ser óbvias, como "uma vez que o sol se levantou todas as manhãs para os últimos 10.000 dias, ele provavelmente irá subir amanhã de manhã bem". Eles podem ser matizada, tais como "X% das famílias têm espécies geograficamente separados com variantes de cor, para que haja uma possibilidade% Y, que ainda não descobertas cisnes existe". Alunos também trabalham com base na " navalha de Occam ": A teoria mais simples que explica os dados é o mais provável. Portanto, para ser bem sucedido, um aluno deve ser concebido de tal forma que ele prefere teorias mais simples às teorias complexas, exceto nos casos em que a teoria complexo é comprovada substancialmente melhor. Estabelecendo-se em uma má teoria, excessivamente complexa gerrymandered para caber todos os dados de treinamento passado é conhecido como overfitting . Muitos sistemas tentam reduzir overfitting premiando uma teoria de acordo com o quão bem ele se ajusta aos dados, mas penalizando a teoria de acordo com a complexidade da teoria é. Além overfitting clássico, os alunos também podem decepcionar por "aprender a lição errada". Um exemplo brinquedo é que um classificador imagem treinados apenas em imagens de cavalos marrons e gatos pretos pode-se concluir que todas as manchas marrons são susceptíveis de ser cavalos. Um exemplo do mundo real é que, ao contrário dos humanos, classificadores de imagens atuais não determinam a relação espacial entre os componentes da imagem; em vez disso, eles aprendem padrões abstratos de pixels que os seres humanos são esquecidos, mas que linearmente correlacionados com imagens de certos tipos de objetos reais. Fracamente sobrepondo tal padrão em um legítimo resultados de imagem em uma imagem "contraditório" que os misclassifies sistema.

Um carro sistema de auto-condução pode usar uma rede neural para determinar quais partes da imagem parecem coincidir com imagens de treinamento anteriores de pedestres, e depois modelar essas áreas tão lento, mas um tanto imprevisível prismas retangulares que devem ser evitados.

Comparado com os humanos, AI existente carece de várias características do "humano raciocínio do senso comum "; Mais notavelmente, os seres humanos têm mecanismos poderosos para raciocinar sobre " física ingênuos ", tais como espaço, tempo e interações físicas. Isso permite que até mesmo crianças facilmente fazer inferências como "Se eu rolar esta caneta de uma mesa, ele vai cair no chão". Os seres humanos também têm um poderoso mecanismo de " psicologia popular " que os ajuda a interpretar sentenças de linguagem natural, tais como "Os vereadores recusaram os manifestantes de uma autorização porque eles defendiam a violência". (A AI genérico tem dificuldade em inferir se os vereadores ou os manifestantes são os alegados para ser defender a violência.) Esta falta de "conhecimento comum" significa que AI muitas vezes torna diferentes erros do que os seres humanos fazem, de uma maneira que pode parecer incompreensível. Por exemplo, carros de auto-condução existentes não podem raciocinar sobre o local nem as intenções de pedestres na forma exata que os seres humanos, e em vez disso deve usar modos não-humanos de raciocínio para evitar acidentes.

problemas

O objetivo global de investigação da inteligência artificial é criar tecnologia que permite que os computadores e máquinas para funcionar de forma inteligente. O problema geral de simular (ou criar) a inteligência foi dividido em sub-problemas. Estes consistem em determinadas características ou capacidades que os pesquisadores esperam um sistema inteligente para exibir. Os traços descritos a seguir têm recebido mais atenção.

Raciocínio, resolução de problemas

Os primeiros pesquisadores desenvolveram algoritmos que imitavam raciocínio passo-a-passo que os seres humanos usam quando resolver quebra-cabeças ou fazer deduções lógicas. No final dos anos 1980 e 1990, a pesquisa AI tinha desenvolvido métodos para lidar com incerteza informação ou incompleta, empregando conceitos de probabilidade e economia .

Esses algoritmos demonstrou ser insuficiente para resolver os grandes problemas de raciocínio, porque eles experimentaram uma "explosão combinatória": eles se tornaram exponencialmente mais lentos como os problemas ficaram maiores. Na verdade, até mesmo os seres humanos raramente usam a dedução passo-a-passo que as primeiras pesquisas AI foi capaz de modelar. Eles resolver a maioria dos seus problemas usando rápidas, julgamentos intuitivos.

representação do conhecimento

Uma ontologia representa o conhecimento como um conjunto de conceitos dentro de um domínio e as relações entre esses conceitos.

Representação de conhecimento e engenharia de conhecimento são fundamentais para a pesquisa de IA clássica. Alguns "sistemas especialistas" tentativa de reunir o conhecimento explícito possuído por especialistas em algum domínio estreito. Além disso, alguns projectos tentar recolher o "conhecimento do senso comum" conhecido para a pessoa média em um banco de dados contendo amplo conhecimento sobre o mundo. Entre as coisas uma base abrangente conhecimento do senso comum seria contêm são: objetos, propriedades, categorias e relações entre objetos; situações, eventos, estados e do tempo; causas e efeitos; conhecimento sobre conhecimento (o que sabemos sobre o que outras pessoas saibam); e muitos outros, domínios menos bem estudadas. Uma representação de "o que existe" é uma ontologia : o conjunto de objetos, relações, conceitos e propriedades descritas formalmente para que os agentes de software podem interpretá-los. Os semântica destes são capturados como descrição lógica conceitos, funções e indivíduos, e tipicamente implementados como classes, propriedades e indivíduos na Web Ontology Language . Os ontologias mais gerais são chamados ontologias superiores , que tentam fornecer uma base para todos os outros conhecimentos, agindo como mediadores entre ontologias de domínio que cobrem conhecimento específico sobre um domínio de conhecimento particular (campo de interesse ou área de interesse). Tais representações conhecimento formal pode ser usado em indexação baseada em conteúdo e recuperação, interpretação cena, apoio à decisão clínica, descoberta de conhecimento (mineração "interessantes" e acionáveis inferências a partir de grandes bases de dados), e outras áreas.

Entre os problemas mais difíceis na representação do conhecimento são:

Raciocínio padrão e o problema de qualificação
Muitas das coisas que as pessoas saibam assumir a forma de "pressupostos de trabalho". Por exemplo, se uma ave surge na conversa, as pessoas normalmente imaginar um animal que é punho tamanho, canta, e moscas. Nenhuma dessas coisas são verdadeiras sobre todas as aves. John McCarthy identificou este problema em 1969 como o problema de qualificação: para qualquer regra de senso comum que os pesquisadores AI cuidar para representar, tende a haver um grande número de exceções. Quase nada é simplesmente verdadeiro ou falso na maneira que a lógica abstrata exige. Pesquisa AI tem explorado uma série de soluções para este problema.
A amplitude de conhecimento do senso comum
O número de fatos atômicos que a pessoa média sabe que é muito grande. Projetos de pesquisa que tentam construir uma base de conhecimento completo do conhecimento do senso comum (por exemplo, Cyc ) exigem enormes quantidades de trabalhoso engenharia ontológica -eles devem ser construídas, à mão, um conceito complicado de cada vez.
A forma subsymbolic de algum conhecimento do senso comum
Muito do que as pessoas não sabem é representado como "fatos" ou "declarações" que eles podiam expressar verbalmente. Por exemplo, um mestre de xadrez vai evitar uma posição de xadrez particular porque "sente muito exposto" ou um crítico de arte pode ter um olhar para a estátua e perceber que é uma farsa. Estes são intuição não conscientes e sub-simbólica ou tendências no cérebro humano. Conhecimento como este informa, apóia e fornece um contexto para o conhecimento simbólico, consciente. Tal como acontece com o problema relacionado de sub-simbólico raciocínio, espera-se que situado AI , inteligência computacional , ou AI estatística irá fornecer maneiras de representar este tipo de conhecimento.

Planejamento

Um sistema de controlo hierárquico é uma forma de sistema de controlo em que um conjunto de dispositivos e software de governo está disposto numa hierarquia.

Os agentes inteligentes deve ser capaz de definir metas e alcançá-los. Eles precisam de uma forma de visualizar o futuro, uma representação do estado do mundo e ser capaz de fazer previsões sobre como suas ações vão mudá-lo e ser capaz de fazer escolhas que maximizam a utilidade (ou "value") de opções disponíveis .

Em problemas de planejamento clássicos, o agente pode assumir que é o único sistema de agir no mundo, permitindo que o agente para ter certeza das conseqüências de suas ações. No entanto, se o agente não é o único ator, então ele exige que o agente pode raciocinar sob incerteza. Isto exige um agente que pode não só avaliar seu ambiente e fazer previsões, mas também avaliar suas previsões e adaptar-se com base na sua avaliação.

Planejamento multi-agente usa a cooperação ea competição de muitos agentes para atingir um determinado objetivo. Comportamento emergente como esta é usada por algoritmos evolucionários e inteligência coletiva .

Aprendendo

aprendizagem de máquina, um conceito fundamental da pesquisa AI desde o início do campo, é o estudo de algoritmos de computador que melhoram automaticamente através da experiência.

Aprendizagem não supervisionada é a capacidade de encontrar padrões em um fluxo de entrada, sem a necessidade de um ser humano para identificar as entradas em primeiro lugar. Aprendizagem supervisionada inclui tanto classificação e numérica de regressão , o que exige um ser humano para rotular os dados de entrada em primeiro lugar. A classificação é usada para determinar o que algo categoria pertence, depois de ver uma série de exemplos de coisas de várias categorias. Regressão é a tentativa de produzir uma função que descreve a relação entre entradas e saídas e prevê como as saídas devem mudar à medida que a mudança entradas. Ambos os classificadores e alunos de regressão pode ser visto como "aproximadores função" tentando aprender um desconhecido função (possivelmente implícita); por exemplo, um classificador de spam pode ser visto como a aprendizagem de uma função que mapeia a partir do texto de um e-mail para uma das duas categorias, "spam" ou "não-spam". Teoria da aprendizagem computacional pode avaliar os alunos de complexidade computacional , por complexidade da amostra (a quantidade de dados é necessária), ou por outras noções de otimização . Em reforço aprender o agente é recompensado por boas respostas e punido por más. O agente usa essa seqüência de recompensas e punições para formar uma estratégia para operar no seu espaço de problema.

Processamento de linguagem natural

Uma árvore de análise representa o sintática estrutura de uma sentença de acordo com alguma gramática formal .

Natural processamento de linguagem (PNL) oferece máquinas a capacidade de ler e compreender a linguagem humana. Um sistema de processamento de linguagem natural suficientemente poderosa permitiria interfaces de linguagem natural e a aquisição de conhecimentos diretamente de fontes humanas escrito, como textos Newswire. Algumas aplicações simples de processamento de linguagem natural incluem a recuperação da informação , mineração de texto , pergunta eletrônica e tradução automática . Muitas abordagens atuais usam palavra freqüências de co-ocorrência de construir representações sintáticas de texto. "Palavra-chave manchar" as estratégias para a pesquisa são populares e escalável, mas mudo; uma consulta de pesquisa para "cão" só poderia corresponder documentos com a palavra literal "cão" e perca um documento com a palavra "poodle". Estratégias de "afinidade lexical" usar a ocorrência de palavras tais como "acidente" para avaliar o sentimento de um documento. Abordagens da PNL estatísticos modernos pode combinar todas estas estratégias, bem como outros, e muitas vezes atingir precisão aceitável na página ou parágrafo nível, mas continuam a faltar a compreensão semântica necessário para classificar frases isoladas bem. Além das habituais dificuldades com a codificação do conhecimento do senso comum semântica, semântica PNL existente vezes escalas muito mal para ser viável em aplicações de negócios. Além PNL semântica, o objetivo final da PNL "narrativa" é incorporar uma compreensão completa do raciocínio do senso comum.

Percepção

Detecção de características (foto: detecção de borda ) ajuda AI compor estruturas resumo informativo de dados brutos.

Percepção da máquina é a capacidade de usar a entrada a partir dos sensores (tais como câmaras (espectro visível ou de infravermelhos), microfones, sinais sem fios, e activa LIDAR , sonar, radar, e sensores tácteis ) para deduzir aspectos do mundo. As aplicações incluem o reconhecimento de voz , reconhecimento facial e reconhecimento de objetos . Visão por computador é a capacidade de analisar a informação visual. Tal entrada é geralmente ambígua; um gigante, pedestre cinqüenta metros de altura longe pode produzir exatamente os mesmos pixels como um pedestre de tamanho normal nas proximidades, exigindo que o AI para julgar a probabilidade relativa e razoabilidade das diferentes interpretações, por exemplo, utilizando o seu "modelo de objeto" para avaliar que os pedestres cinquenta metros não existem.

Movimento e manipulação

AI é muito utilizada em robótica . Avançados braços robóticos e outros robôs industriais , amplamente utilizado em fábricas modernas, pode aprender com a experiência como mover de forma eficiente apesar da presença de atrito e deslizamento engrenagem. Um robô móvel moderna, quando dado um ambiente pequeno, estático, e visível, pode facilmente determinar a sua localização e mapear seu ambiente; no entanto, ambientes dinâmicos, tais como (em endoscopia ) ao interior do corpo de respiração de um paciente, representa um desafio maior. Planejamento de movimento é o processo de quebrar uma tarefa movimento em "primitivos", como movimentos articulares individuais. Tal movimento muitas vezes envolve movimento compatível, um processo em que o movimento exige a manutenção de contacto físico com um objecto. Paradoxo de Moravec generaliza que as habilidades sensório-motoras de baixo nível que os seres humanos tomam para concedido são, contraintuitivamente, difícil de programar em um robô; o paradoxo é nomeado após Hans Moravec , que afirmou em 1988 que "é relativamente fácil de tornar os computadores apresentam desempenho do nível de adultos nos testes de inteligência ou jogando damas e difíceis ou impossíveis de dar-lhes as habilidades de um one-year-old quando trata de percepção e mobilidade". Isto é atribuído ao fato de que, ao contrário de damas, destreza física tem sido um alvo direto da seleção natural por milhões de anos.

Inteligência social

Kismet , um robô com habilidades sociais rudimentares

Paradoxo de Moravec pode ser estendido para muitas formas de inteligência social. Distribuído coordenação multi-agente de veículos autônomos continua a ser um problema difícil. Computação afectiva é um guarda-chuva que compreende interdisciplinar sistemas que reconhecem, interpretam, processo, ou simulam humano afecta . Sucessos moderados relacionadas com computação afectiva incluem textuais análise de sentimentos e, mais recentemente, multimodal afectar análise (ver análise sentimento multimodal ), caracterizado por AI classifica o afecta exibida por um sujeito gravado em vídeo.

No longo prazo, habilidades sociais e uma compreensão da emoção humana e teoria dos jogos seria valioso para um agente social. Ser capaz de prever as ações dos outros por entender seus motivos e estados emocionais permitiria que um agente para tomar melhores decisões. Alguns sistemas de computador imitar as emoções humanas e expressões apareçam mais sensível à dinâmica emocional da interação humana, ou para facilitar o contrário interação humano-computador . Da mesma forma, alguns assistentes virtuais são programados para falar em tom de conversa ou mesmo para brincadeiras com humor; isso tende a dar aos usuários ingênuos uma concepção realista de como os agentes de computadores existentes inteligentes realmente são.

Inteligência geral

Historicamente, projetos como a base Cyc conhecimento (1984-) eo japonês maciça Computer Systems quinta geração iniciativa (1982-1992) tentou cobrir a amplitude da cognição humana. Estes projectos iniciais não conseguiu escapar das limitações de modelos lógicos simbólicos não-quantitativos e, em retrospecto, subestimou muito a dificuldade de cross-domain AI. Hoje em dia, a grande maioria dos pesquisadores de IA atuais trabalhar em vez de aplicações tratáveis "estreitas AI" (como diagnóstico médico ou a navegação automóvel). Muitos pesquisadores prevêem que esse trabalho "estreita AI" em diferentes domínios individuais será eventualmente integrada numa máquina com inteligência geral artificial (AGI), combinando a maioria das habilidades estreitas mencionados neste artigo e em algum momento, mesmo superior a capacidade humana na maioria ou em todas estas áreas. Muitos avanços têm, importância geral cross-domain. Um exemplo de alto perfil é que DeepMind na década de 2010 desenvolveu uma "inteligência artificial generalizada" que poderia aprender mais diversas Atari jogos por conta própria, e mais tarde desenvolveu uma variante do sistema que sucede no aprendizado sequencial . Além aprendizagem transferência , avanços AGI hipotéticos poderiam incluir o desenvolvimento de arquiteturas reflexivas que podem se envolver em metareasoning teórico-decisão, e descobrir como "sorver" uma base de conhecimento abrangente de todo o desestruturado Web . Alguns argumentam que algum tipo de (atualmente desconhecida) conceitualmente simples, mas matematicamente difícil, "Algoritmo Master" poderia levar a AGI. Finalmente, algumas abordagens "emergentes" olhar para simular a inteligência humana extremamente de perto, e acredito que antropomórficas recursos como um cérebro artificial ou simulado desenvolvimento da criança pode um dia chegar a um ponto crítico em que a inteligência geral emerge.

Muitos dos problemas neste artigo também podem exigir a inteligência geral, se as máquinas são para resolver os problemas, bem como as pessoas fazem. Por exemplo, tarefas simples mesmo específicos, como a tradução automática , exigem que uma máquina de ler e escrever em duas línguas ( PNL ), siga o argumento do autor ( razão ), sabe o que está sendo falado ( conhecimento ), e reproduzem fielmente original do autor intenção ( inteligência social ). Um problema como tradução automática é considerado " AI-completo ", porque todos esses problemas precisam ser resolvidos simultaneamente, a fim de alcançar o desempenho da máquina de nível humano.

abordagens

Não há como estabelecido teoria unificadora ou paradigma que orienta a pesquisa em AI. Pesquisadores discordam sobre muitas questões. Alguns dos a maioria das perguntas de longa data que permaneceram sem resposta são estes: deve inteligência artificial simular inteligência natural por estudar psicologia ou neurobiologia ? Ou é a biologia humana como irrelevante para a investigação AI como a biologia pássaro é a engenharia aeronáutica ? Pode comportamento inteligente ser descrito usando, princípios elegantes simples (como a lógica ou otimização )? Ou será que requerem necessariamente resolver um grande número de problemas completamente alheios?

Cibernética e simulação do cérebro

Em 1940 e 1950, um número de investigadores exploraram a ligação entre a neurobiologia , teoria da informação e cibernética . Alguns deles máquinas que utilizaram redes electrónicas para expor inteligência rudimentar, como construída W. Grey Walter 's tartarugas eo Johns Hopkins Besta . Muitos desses pesquisadores se reuniram para reuniões da Sociedade teleológica na Universidade de Princeton e o Rácio Clube na Inglaterra. Em 1960, esta abordagem foi abandonada, embora elementos do que seria revivido na década de 1980.

Simbólico

Quando o acesso a computadores digitais tornou-se possível no meio dos anos 1950, a pesquisa AI começou a explorar a possibilidade de que a inteligência humana poderia ser reduzido para manipulação de símbolos. A pesquisa foi centrada em três instituições: Carnegie Mellon University , Stanford e MIT , e como descrito a seguir, cada um desenvolveu seu próprio estilo de pesquisa. John Haugeland chamado estas abordagens simbólicas para AI "boa antiquado AI" ou " GOFAI ". Durante os anos 1960, as abordagens simbólicas tinha alcançado grande sucesso na simulação de pensamento de alto nível em programas de demonstração pequenas. Abordagens baseadas em cibernética ou redes neurais artificiais foram abandonadas ou empurrada para o fundo. Pesquisadores nos anos 1960 e os anos 1970 estavam convencidos de que as abordagens simbólicas acabaria por ter sucesso na criação de uma máquina com inteligência geral artificial e considerou este o objetivo do seu campo.

simulação cognitiva

Economista Herbert Simon e Allen Newell estudou habilidades para resolver problemas humanos e tentou formalizar eles, e seu trabalho lançou as bases do campo da inteligência artificial, bem como a ciência cognitiva , pesquisa operacional e ciência de gestão . Sua equipe de pesquisa utilizou os resultados de psicológicos experimentos para desenvolver programas que simularam as técnicas que as pessoas usadas para resolver problemas. Esta tradição, centrado na Carnegie Mellon University acabaria por culminar com o desenvolvimento do Soar arquitetura no meio dos anos 1980.

Lógica baseada em

Ao contrário de Simon e Newell, John McCarthy sentiu que as máquinas não precisa para simular o pensamento humano, mas deve em vez de tentar encontrar a essência do raciocínio abstrato e resolução de problemas, independentemente das pessoas usavam os mesmos algoritmos. Seu laboratório em Stanford ( SAIL ) centrou-se sobre a utilização formal de lógica para resolver uma grande variedade de problemas, incluindo a representação do conhecimento , planejamento e aprendizado . Logic também foi o foco do trabalho na Universidade de Edimburgo e em outros lugares na Europa, que levou ao desenvolvimento da linguagem de programação Prolog e a ciência da lógica de programação .

Anti-lógica ou desalinhado

Pesquisadores do MIT (como Marvin Minsky e Seymour Papert ) constatou que resolver problemas difíceis na visão e processamento de linguagem natural ad-hoc necessárias soluções que argumentou que não houve princípio simples e geral (como lógica ) que captura todos os aspectos da comportamento inteligente. Roger Schank descreveram suas abordagens "anti-lógica" como " desalinhado " (em oposição aos " puros paradigmas" na CMU e Stanford). Bases de conhecimento de senso comum (tais como Doug Lenat 's Cyc ) são um exemplo de 'desalinhado' IA, uma vez que elas devem ser construídas à mão, um conceito complicado de cada vez.

Baseada no conhecimento

Quando os computadores com grandes memórias tornaram-se disponíveis por volta de 1970, os pesquisadores de todas as três tradições começou a construir o conhecimento em aplicações de IA. Esta "revolução do conhecimento" levou ao desenvolvimento e implantação de sistemas especialistas (introduzidas por Edward Feigenbaum ), a primeira forma verdadeiramente bem sucedido de software AI. Componente chave na arhitecute sistema para todos os sistemas especialistas é da base de conhecimento, que armazena fatos e regras que ilustra AI. A revolução do conhecimento também foi impulsionado pela percepção de que enormes quantidades de conhecimento seria exigido por muitas aplicações simples AI.

Sub-simbólica

Na década de 1980, o progresso na IA simbólica parecia parar e muitos acreditavam que os sistemas simbólicos nunca seria capaz de imitar todos os processos da cognição humana, especialmente a percepção , robótica , aprendizagem e reconhecimento de padrões . Um número de pesquisadores começaram a olhar para abordagens "sub-simbólica" para problemas específicos AI. Métodos sub-simbólicos conseguem aproximar inteligência sem representações específicas do conhecimento.

inteligência incorporada

Isso inclui encarnada , situada , baseado em comportamento , e nouvelle AI . Pesquisadores da área relacionada de robótica , como Rodney Brooks , rejeitou AI simbólico e focada nos problemas de engenharia básicos que permitiriam robôs para mover-se e sobreviver. Seu trabalho reviveu o ponto de vista não-simbólica dos primeiros cibernética pesquisadores da década de 1950 e reintroduziu o uso da teoria de controle no AI. Isso coincidiu com o desenvolvimento da tese mente incorporada no campo relacionado de ciência cognitiva : a ideia de que são necessários aspectos do corpo (tais como movimento, percepção e visualização) para inteligência superior.

Dentro robótica epigenética , abordagens de aprendizagem de desenvolvimento são elaborados para permitir que os robôs para acumular repertórios de novas competências através de auto-exploração autônoma, interação social com os professores humanos, e o uso de mecanismos de orientação (aprendizagem activa, maturação, sinergias motoras, etc.).

inteligência computacional e computação suave

Interesse em redes neurais e " conexionismo " foi revivido por David Rumelhart e outros no meio da década de 1980. As redes neurais artificiais são um exemplo de computação suave -eles são soluções para os problemas que não podem ser resolvidos com certeza lógica completa, e onde uma solução aproximada é muitas vezes suficiente. Outros computação suave abordagens para AI incluem sistemas fuzzy , computação evolutiva e muitas ferramentas estatísticas. A aplicação de computação suave ao AI é estudada em conjunto pela disciplina emergente de inteligência computacional .

aprendizagem estatística

Grande parte GOFAI tradicional ficaram atolados em ad hoc patches para computação simbólica que trabalharam em seus próprios modelos de brinquedos, mas não conseguiram generalizar os resultados no mundo real. No entanto, por volta da década de 1990, pesquisadores de IA adotou ferramentas matemáticas sofisticadas, como modelos ocultos de Markov (HMM), teoria da informação e Bayesian normativa teoria da decisão para comparar ou para unificar arquiteturas concorrentes. A linguagem matemática compartilhada permitido um alto nível de colaboração com campos mais estabelecidos (como matemática , economia ou operações de pesquisa ). Em comparação com GOFAI, novas técnicas de "aprendizagem estatística", como HMM e redes neurais foram ganhando níveis mais elevados de precisão em muitos domínios práticos, tais como mineração de dados , sem adquirir necessariamente compreensão semântica dos conjuntos de dados. O aumento dos sucessos com dados do mundo real levou a uma ênfase crescente na comparação abordagens diferentes em relação aos dados de teste compartilhados para ver qual abordagem realizada melhor em um contexto mais amplo do que o previsto por modelos de brinquedos idiossincráticas; Pesquisa AI estava se tornando mais científica . Hoje resultados das experiências são muitas vezes rigorosamente mensuráveis e são, por vezes (com dificuldade) reprodutível. Diferentes técnicas de aprendizado estatísticos têm diferentes limitações; por exemplo, HMM básica não pode modelar as infinitas combinações possíveis de idioma natural. Críticos apontam que a mudança de GOFAI à aprendizagem estatística é muitas vezes também uma mudança da Explicável AI . Na pesquisa AGI, alguns estudiosos alertam contra excesso de confiança na aprendizagem estatística, e argumentam que continua investigação sobre GOFAI ainda será necessário para atingir a inteligência geral.

Integração das abordagens

paradigma agente inteligente
Um agente inteligente é um sistema que percebe seu ambiente e realiza ações que maximizam suas chances de sucesso. Os agentes inteligentes mais simples são programas que resolvem problemas específicos. Agentes mais complicados incluem seres humanos e organizações de seres humanos (como empresas ). O paradigma permite aos pesquisadores comparar diretamente ou até mesmo combinar diferentes abordagens para problemas isolados, perguntando qual o agente é melhor para a maximização de um determinado "função objetivo". Um agente que resolve um problema específico pode usar qualquer abordagem que trabalha a alguns agentes são simbólicos e lógico, alguns são sub-simbólico de redes neurais artificiais e outros podem usar novas abordagens. O paradigma também dá aos pesquisadores uma linguagem comum para se comunicar com outros campos, tais como a teoria da decisão e economia-que também usam conceitos de agentes abstratos. Construindo um agente completo requer pesquisadores para resolver problemas reais de integração; por exemplo, porque os sistemas sensoriais dar informações incerto sobre o meio ambiente, sistemas de planejamento deve ser capaz de funcionar na presença de incerteza. O paradigma agente inteligente tornou-se amplamente aceito na década de 1990.
Arquiteturas de agentes e arquiteturas cognitivas
Pesquisadores têm projetado sistemas para construir sistemas inteligentes fora de interagir agentes inteligentes em um sistema multi-agente . Um sistema de controlo hierárquico fornece uma ponte entre AI sub-simbólica no seu mais baixo, os níveis reactivos e tradicional IA simbólica em seus níveis mais elevados, onde limitações de tempo relaxado permitem modelar planeamento e mundo. Algumas arquiteturas cognitivas são custom-built para resolver um problema estreito; outros, como o Soar , são projetados para imitar a cognição humana e para fornecer informações sobre a inteligência geral. Extensões modernas de Soar são sistemas inteligentes híbridos que incluem ambos os componentes simbólicas e sub-simbólicas.

Ferramentas

AI desenvolveu um grande número de ferramentas para resolver os problemas mais difíceis na ciência da computação . Alguns dos mais geral destes métodos são discutidos abaixo.

Busca e otimização

Muitos problemas em AI pode ser resolvido, em teoria, de forma inteligente à procura através de muitas soluções possíveis: Raciocínio pode ser reduzido para realizar uma pesquisa. Por exemplo, prova lógica pode ser visto como a procura de um caminho que conduz a partir de premissas para conclusões , onde cada passo é a aplicação de uma regra de inferência . Planejamento algoritmos de busca em árvores de metas e submetas, tentando encontrar um caminho para um objetivo alvo, um processo chamado de meios-fins de análise . Robotics algoritmos para mover membros e agarrar objetos usar pesquisas locais no espaço de configuração . Muitos aprendizagem algoritmos usam algoritmos de busca baseados em otimização .

Pesquisas exaustivas simples raramente são suficientes para a maioria dos problemas do mundo real: o espaço de busca (o número de lugares para procurar) cresce rapidamente a números astronômicos . O resultado é uma busca que é muito lento ou nunca completa. A solução, para muitos problemas, é usar " heurística " ou "regras de ouro" que priorizem escolhas em favor daqueles que são mais propensos a alcançar um objetivo e fazê-lo em um número menor de etapas. Em algumas metodologias de busca heurística também pode servir para eliminar completamente algumas escolhas que não são susceptíveis de conduzir a um objetivo (chamado de " podar a árvore de busca "). Heurísticas fornecer o programa com uma "melhor estimativa" para o caminho em que a solução reside. Heurísticas limitar a busca de soluções em um menor tamanho da amostra.

Um tipo muito diferente de busca ganhou destaque na década de 1990, com base na teoria matemática da otimização . Para muitos problemas, é possível iniciar a pesquisa com alguma forma de uma suposição e, em seguida, refinar a suposição de forma incremental até que não mais refinamentos podem ser feitas. Esses algoritmos pode ser visualizado como cegos subidas : começamos a busca em um ponto aleatório na paisagem, e, em seguida, por saltos ou passos, continuamos a mover nossa suposição para cima, até chegar ao topo. Outros algoritmos de otimização são recozimento simulado , busca feixe e otimização aleatório .

Computação evolutiva usa uma forma de pesquisa otimização. Por exemplo, eles podem começar com uma população de organismos (as suposições) e, em seguida, permitir que a mutação e recombinar, seleccionando apenas o mais forte para sobreviver cada geração (refinando as suposições). Clássicos algoritmos evolutivos incluem algoritmos genéticos , programação a expressão do gene , e programação genética . Alternativamente, os processos de busca distribuídos podem coordenar via enxame inteligência algoritmos. Dois algoritmos enxame populares usados na pesquisa são a otimização por enxame de partículas (inspirado pássaro flocking ) e otimização de colônia de formigas (inspirado por trilhas de formigas ).

Lógica

Lógica é usada para representação do conhecimento e resolução de problemas, mas pode ser aplicado a outros problemas também. Por exemplo, o Satplan algoritmo usa a lógica para o planejamento e programação lógica indutiva é um método para aprendizagem .

Várias formas diferentes de lógica são usados em pesquisas AI. Lógica proposicional envolve funções de verdade , como "ou" e "não". Lógica de primeira ordem acrescenta quantificadores e predicados , e pode expressar fatos sobre objetos, suas propriedades, e suas relações com o outro. Teoria dos conjuntos fuzzy atribui um "grau de verdade" (entre 0 e 1) para declarações vagas como "Alice é velho" (ou rico, ou alto, ou com fome), que são muito linguisticamente imprecisa para ser completamente verdadeira ou falsa. A lógica fuzzy é utilizado com sucesso em sistemas de controle para permitir que peritos para contribuir regras vagos, como "se você está perto da estação de destino e se movendo rápido, aumentar a pressão do freio do trem"; estas regras vagas, em seguida, pode ser numericamente refinado dentro do sistema. Lógica fuzzy não escala bem em bases de conhecimento; muitos pesquisadores de IA questionar a validade de encadeamento inferências Fuzzy-logic.

Lógicas padrão , lógicas não-monotônicas e circunscrição são formas de lógica projetados para ajudar com o raciocínio padrão eo problema de qualificação . Várias extensões de lógica foram concebidos para lidar com domínios específicos de conhecimento , tais como: lógica descritiva ; cálculo situação , cálculo evento e cálculo fluente (para representar eventos e tempo); cálculo causal ; cálculo crença; e lógicas modais .

No geral, a lógica simbólica qualitaitvo é frágil e escalas mal na presença de ruído ou outra incerteza. As excepções às regras são numerosos, e é difícil para sistemas lógicos para funcionar na presença de regras contraditórias.

métodos probabilísticos para o raciocínio incerto

Expectation-maximização agrupamento de Old Faithful dados erupção começa a partir de uma suposição aleatória, mas, em seguida, converge com sucesso em um agrupamento precisa dos dois modos fisicamente distintos de erupção.

Muitos problemas em AI (no raciocínio, planejamento, aprendizagem, percepção e robótica) requerem o agente para operar com informações incompletas ou incerto. Pesquisadores de IA criaram uma série de ferramentas poderosas para resolver esses problemas usando métodos de probabilidade teoria e economia.

Redes Bayesianas são uma ferramenta muito geral que pode ser usado por um grande número de problemas: o raciocínio (usando a inferência Bayesiana algoritmo), aprender (usando o algoritmo de maximização da expectativa ), planejamento (usando redes de decisão ) e percepção (usando redes Bayesianas dinâmicas ). Algoritmos probabilísticos também pode ser usado para filtrar, previsão, alisando e encontrar explicações para fluxos de dados, ajudando percepção sistemas para analisar os processos que ocorrem ao longo do tempo (por exemplo, modelos ocultos de Markov ou filtros de Kalman ). Em comparação com a lógica simbólica, inferência Bayesiana formal é computacionalmente caro. Por inferência a ser tratável, a maioria das observações deve ser condicionalmente independente um do outro. Gráficos complicados com diamantes ou outros "loops" (não dirigidos ciclos ) pode requerer um método sofisticado tal como Cadeias de Markov de Monte Carlo , que se espalha um conjunto de caminhantes aleatórios durante toda a rede Bayesiana e as tentativas para convergir para uma avaliação das probabilidades condicionais. Redes Bayesianas são usados na Xbox Live para jogadores de taxa e combinar; vitórias e derrotas são "evidências" de quão bom um jogador é. AdSense utiliza uma rede Bayesiana com mais de 300 milhões bordas para saber quais anúncios para servir.

Um conceito-chave da ciência da economia é " utilidade ": uma medida de como algo valioso é um agente inteligente. Ferramentas matemáticas precisas foram desenvolvidos que analisar como um agente pode fazer escolhas e plano, utilizando a teoria da decisão , análise de decisão e teoria de valor da informação . Essas ferramentas incluem modelos como Markov processos de decisão , dinâmicas redes de decisão , a teoria dos jogos e do desenho de mecanismos .

Classificadores e métodos de aprendizagem estatística

As aplicações mais simples AI podem ser divididos em dois tipos: os classificadores ( "se brilhante, em seguida, diamante") e controladores ( "se brilhante em seguida, pegar"). Controladores, no entanto, também classificar condições antes acções inferir, e, portanto, a classificação forma uma parte central de muitos sistemas de inteligência artificial. Classificadores são funções que usam correspondência de padrões para determinar a correspondência mais próxima. Eles podem ser ajustadas de acordo com exemplos, o que os torna muito atraente para uso em AI. Estes exemplos são conhecidos como observações ou padrões. No aprendizado supervisionado, cada padrão pertence a uma certa classe predefinida. Uma classe pode ser visto como uma decisão que tem de ser feito. Todas as observações combinadas com as suas etiquetas de classe são conhecidos como um conjunto de dados. Quando uma nova observação é recebido, que a observação é classificada com base na experiência anterior.

Um classificador podem ser treinados de diversas maneiras; há muitos estatísticos e de aprendizado de máquina abordagens. A árvore de decisão é, talvez, o algoritmo de aprendizado de máquina mais utilizado. Outros classificadores amplamente utilizados são a rede neural , k-Nearest algoritmo vizinho , métodos de kernel , tais como a máquina de vetores de suporte (SVM), modelo de mistura Gaussiana , e o extremamente popular classificador de Bayes ingénuo . Desempenho classificador depende muito das características dos dados a serem classificados, tais como o tamanho do conjunto de dados, distribuição de amostras em todas as classes, a dimensionalidade, e do nível de ruído. Classificadores baseados no modelo um bom desempenho se o modelo assumido é extremamente bom ajuste para os dados reais. Caso contrário, se nenhum modelo de harmonização está disponível, e se a precisão (em vez de velocidade ou escalabilidade) é a única preocupação, a sabedoria convencional é que os classificadores discriminativos (especialmente SVM) tendem a ser mais preciso do que os classificadores baseados em modelos como "Naive Bayes" na maioria dos conjuntos de dados práticos.

Redes neurais artificiais

Uma rede neural é um grupo interligado de nodos, semelhante ao da vasta rede de neurónios no cérebro humano .

Redes neurais, ou redes neurais, foram inspirados pela arquitetura de neurônios no cérebro humano. Um "neurónio" simples N aceita a entrada a partir de vários outros neurónios, cada um dos quais, quando activados (ou "fired"), expressos um "voto" ponderado para ou contra se neurónio N -se deve activar. O aprendizado requer um algoritmo para ajustar esses pesos com base nos dados de treinamento; um algoritmo simples (apelidado de " fogo juntos, fio juntos ") é o de aumentar o peso entre dois neurónios ligados quando a activação de um desencadeia a activação bem sucedida de um outro. As formas líquidas "conceitos" que são distribuídos entre uma sub-rede de neurônios compartilhados que tendem a disparar em conjunto; um conceito que significa "perna" pode ser acoplado com uma sub-rede que significa "pé" que inclui o som de "pé". Os neurónios têm um espectro contínuo de activação; Além disso, os neurónios podem processar as entradas de uma forma não-linear em vez de pesagem simples úteis. Redes neurais modernos pode aprender ambas as funções contínuas e, surpreendentemente, operações lógicas digitais. Primeiros sucessos das redes neurais incluído prever o mercado de ações e (em 1995) um carro em sua maioria auto-condução. Na década de 2010, os avanços em redes neurais utilizando o aprendizado profundo impulso AI na consciência pública generalizada e contribuiu para uma enorme troca de marcha nos gastos AI corporativa; por exemplo, a AI-relacionada M & A em 2017 foi mais de 25 vezes maior do que em 2015.

O estudo da não-aprendizagem redes neurais artificiais começou na década anterior domínio da investigação AI foi fundada, na obra de Walter Pitts e Warren McCullouch . Frank Rosenblatt inventou o perceptron , uma rede de aprendizagem com uma única camada, semelhante ao antigo conceito de regressão linear . Pioneiros também incluem alexey grigorevich ivakhnenko , Teuvo Kohonen , Stephen Grossberg , Kunihiko Fukushima , Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari , Bernard Widrow , John Hopfield , EDUARDO R. CAIANIELLO , e outros.

As principais categorias de redes são acíclicos ou redes feedforward neurais (onde passa o sinal em apenas uma direção) e redes neurais recorrentes (que permitem feedback e de curto prazo memórias de eventos de entrada anterior). Entre as redes feedforward mais populares são perceptrons , perceptrons de múltiplas camadas e redes de base radial . As redes neurais podem ser aplicados para o problema do controle inteligente (para robótica) ou de aprendizagem , utilizando técnicas tais como a aprendizagem Hebbian ( "fogo junto, fio junto"), GMDH ou de aprendizado competitivo .

Hoje, as redes neurais são frequentemente treinados pela backpropagation algoritmo, que tinha sido em torno desde 1970 como o modo reverso da diferenciação automática publicada por Seppo LINNAINMAA , e foi introduzida para redes neurais por Paul Werbos .

Memória temporal, hierárquico é uma abordagem que modelos algumas das propriedades estruturais e algorítmicas do neocórtex .

Para resumir, as redes neurais mais usar alguma forma de gradiente descendente em uma topologia neural criado à mão. No entanto, alguns grupos de pesquisa, tais como Uber , argumentam que simples neuroevolution a sofrer mutações novas topologias de redes neurais e os pesos podem ser competitivo com abordagens gradiente de descida sofisticados. Uma vantagem de neuroevolution é que ele pode ser menos propenso a ficar preso em "becos sem saída".

redes neurais profunda feedforward

Aprendizagem profunda é qualquer rede neural artificial que pode aprender uma longa cadeia de relações causais. Por exemplo, uma rede feedforward com seis camadas ocultas pode aprender uma cadeia causal de sete link (seis camadas ocultas + camada de saída) e tem um "caminho de cessão de crédito" (PAC) profundidade de sete. Muitos sistemas de aprendizagem profundas precisam ser capazes de aprender cadeias de dez ou mais ligações causais de comprimento. Aprendizagem profunda transformou muitos subcampos importantes da inteligência artificial, incluindo visão computacional , reconhecimento de voz , processamento de linguagem natural e outros.

De acordo com uma visão geral, a expressão "aprendizagem profunda" foi introduzido para o Aprendizado de Máquina comunidade por Rina Dechter em 1986 e ganhou força após Igor Aizenberg e colegas introduziram-lo para Redes Neurais Artificiais em 2000. As primeiras redes de aprendizagem profunda funcionais foram publicados por Alexey grigorevich Ivakhnenko e VG Lapa em 1965. Estas redes são treinados uma camada de cada vez. O artigo de Ivakhnenko 1971 descreve a aprendizagem de uma perceptron feedforward multicamadas profunda com oito camadas, já muito mais profundas do que muitas redes posteriores. Em 2006, uma publicação por Geoffrey Hinton e Ruslan Salakhutdinov introduziu uma outra forma de pré-formação de muitas camadas de redes neurais feedforward (FNNs) uma camada de cada vez, tratar cada camada, por sua vez como um sem supervisão máquina de Boltzmann restrito , em seguida, usando supervisionado backpropagation para afinação. Semelhante às redes neurais artificiais rasos, redes neurais profundas pode modelar relacionamentos não-lineares complexas. Ao longo dos últimos anos, os avanços em ambos os algoritmos de aprendizado de máquina e hardware de computador têm levado a métodos mais eficientes para a formação de redes neurais profundas que contêm muitas camadas de unidades ocultas não-lineares e uma camada de saída muito grande.

Aprendizagem profunda, muitas vezes usa redes neurais convolucionais (CNNs), cujas origens remontam ao Neocognitron introduzido por Kunihiko Fukushima em 1980. Em 1989, Yann LeCun e colegas aplicaram backpropagation para tal arquitetura. No início da década de 2000, numa aplicação industrial RNCs já processada um valor estimado de 10% a 20% de todos os cheques emitidos nos EUA. Desde 2011, as implementações rápidas de CNNs sobre GPUs ganharam muitas competições de reconhecimento de padrões visuais.

CNNs com 12 camadas convolucionais foram usados em conjunto com a aprendizagem do reforço por do Deepmind " AlphaGo Lee", o programa que bater um top Go campeão em 2016.

redes neurais recorrentes profundas

Logo no início, a aprendizagem profunda também foi aplicado para sequenciar aprendizagem com redes neurais recorrentes (RNNs) que estão em Turing teoria completa e pode executar programas arbitrários para processar seqüências arbitrárias de entradas. A profundidade de um RNN é ilimitada e depende do comprimento da sua sequência de entrada; Assim, um RNN é um exemplo de aprendizagem profunda. RNNs pode ser treinado por gradiente descendente , mas sofrem com o problema gradiente desaparecendo . Em 1992, foi demonstrado que o pré-treinamento sem supervisão de uma pilha de redes neurais recorrentes pode acelerar o aprendizado supervisionado posterior de problemas sequenciais profundas.

Numerosos pesquisadores agora usar variantes de um recorrente aprendizagem profunda NN chamado de memória de longo curto prazo rede (LSTM), publicado pela Hochreiter & Schmidhuber em 1997. LSTM muitas vezes é treinado por Connectionist Temporal Classificação (CTC). No Google, Microsoft e Baidu esta abordagem revolucionou o reconhecimento de voz . Por exemplo, em 2015, o reconhecimento de voz do Google experimentou um dramático salto de desempenho de 49% através de LSTM CTC-treinados, que está agora disponível através do Google Voice para bilhões de usuários de smartphones. O Google também usado LSTM para melhorar a tradução automática, Modeling Language e Multilingual Processamento de Linguagem. LSTM combinado com RNCs também melhorou legendagem automática da imagem e uma variedade de outras aplicações.

avaliar o progresso

AI, como a eletricidade ou a máquina a vapor, é uma tecnologia de uso geral. Não há consenso sobre como caracterizar quais tarefas AI tende a excel. Enquanto projetos como AlphaZero conseguiram gerar os seus próprios conhecimentos a partir do zero, muitos outros projetos de aprendizado de máquina exigem grandes conjuntos de dados de treinamento. Pesquisador Andrew Ng tem sugerido, como uma "regra altamente imperfeita de ouro", que "quase tudo um ser humano normal pode fazer com menos de um segundo de pensamento mental, podemos provavelmente agora ou no futuro próximo automatizar usando AI." Paradoxo de Moravec sugere que AI fica para os seres humanos em muitas tarefas que o cérebro humano evoluiu especificamente para um bom desempenho.

Jogos de fornecer um referencial bem divulgado para avaliar taxas de progresso. AlphaGo cerca de 2016 trouxe a era da benchmarks jogo de tabuleiro clássicos ao fim. Jogos de conhecimento imperfeito proporcionar novos desafios para AI na área da teoria dos jogos . E-sports , como StarCraft continuar a fornecer benchmarks públicos adicionais. Há muitos concursos e prêmios, como o Desafio IMAGEnet , para promover a pesquisa em inteligência artificial. As áreas mais comuns de concorrência incluem a inteligência de máquina geral, o comportamento de conversação, de mineração de dados, carros robóticos , e futebol de robôs, bem como jogos convencionais.

O "jogo da imitação" (uma interpretação de 1950 teste de Turing , que avalia se um computador pode imitar um ser humano) é hoje considerado muito explorável a ser uma referência significativa. Um derivado do teste de Turing é o Completely Automated Public Turing teste para dizer Computadores e Humans Apart ( CAPTCHA ). Como o nome indica, esta ajuda a determinar que um usuário é uma pessoa real e não um levantamento computador como um ser humano. Em contraste com o teste de Turing padrão, CAPTCHA é administrada por uma máquina e apontado a um humano em vez de ser administrada por um humano e orientada para uma máquina. Um computador pede um usuário para completar um teste simples, em seguida, gera uma nota para esse teste. Os computadores são incapazes de resolver o problema, pelo que as soluções corretas são considerados o resultado de uma pessoa fazer o teste. Um tipo comum de CAPTCHA é o teste que exige a digitação de letras distorcidas, números ou símbolos que aparecem em uma imagem indecifrável por um computador.

Propostos testes de "inteligência universal" destinam-se a comparar o quão bem máquinas, seres humanos, e até mesmo os animais não-humanos executar em conjuntos de problemas que são genéricas quanto possível. Em um extremo, o conjunto de teste pode conter todos os problemas possíveis, ponderada pela complexidade de Kolmogorov ; Infelizmente, esses conjuntos de problemas tendem a ser dominadas por exercícios empobrecidas de correspondência de padrões, onde a AI atento pode facilmente exceder os níveis de desempenho humanos.

aplicações

Um assistente on-line automatizado prestação de serviço ao cliente em uma página web - uma das muitas aplicações muito primitivas da inteligência artificial

AI é relevante para qualquer tarefa intelectual. Técnicas de inteligência artificial modernos estão presentes e são muito numerosas para listar aqui. Freqüentemente, quando uma técnica atinge uso mainstream, ele não é mais considerado inteligência artificial; este fenómeno é descrito como o efeito AI .

Exemplos de alto perfil de AI incluem veículos autônomos (como drones e carros que dirigem ), diagnóstico médico, criando arte (como poesia), provando teoremas matemáticos, jogos (como o xadrez ou Go), motores de busca (como Pesquisa Google ), assistentes on-line (como Siri ), reconhecimento de imagem em fotografias, filtragem de spam, prevendo atrasos de vôo, previsão das decisões judiciais e direcionamento anúncios online.

Com sites de mídia social ultrapassagens TV como fonte de notícias para os jovens e organizações de notícias cada vez mais dependentes de plataformas de mídia social para gerar distribuição, grandes editoras agora usar a tecnologia de inteligência artificial (AI) para postar histórias de forma mais eficaz e gerar maiores volumes de tráfego.

Cuidados de saúde

Um braço cirúrgica do lado do paciente do sistema cirúrgico da Vinci

AI está sendo aplicada ao problema elevado custo das questões-onde dosagem descobertas sugerem que a AI poderia economizar US $ 16 bilhões. Em 2016, um inovador estudo na Califórnia descobriram que uma fórmula matemática desenvolvida com a ajuda de AI determinado correctamente a dose exacta de drogas imunossupressoras para dar aos pacientes de órgãos.

Raios-X de uma mão, com cálculo automático da idade óssea pelo software de computador

A inteligência artificial é invadir o setor de saúde, auxiliando os médicos. De acordo com a Bloomberg Tecnologia, a Microsoft desenvolveu AI para ajudar os médicos a encontrar o direito tratamentos para o câncer. Há uma grande quantidade de pesquisa e medicamentos desenvolvidos relativas ao câncer. Em detalhe, existem mais de 800 medicamentos e vacinas para tratar o câncer. Isso afeta negativamente os médicos, porque há muitas opções para escolher, tornando mais difícil para escolher as drogas certas para os pacientes. Microsoft está trabalhando em um projeto para desenvolver uma máquina chamada "Hanover". Seu objetivo é memorizar todos os documentos necessários para o câncer e ajudar a prever quais combinações de drogas será mais eficaz para cada paciente. Um projeto que está sendo trabalhado no momento está lutando contra leucemia mielóide , um câncer fatal em que o tratamento não melhorou em décadas. Outro estudo foi relatado para ter encontrado que a inteligência artificial foi tão bom quanto os médicos treinados na identificação de câncer de pele. Outro estudo é usando a inteligência artificial para tentar monitorar vários pacientes de alto risco, e isso é feito por pedir cada paciente inúmeras perguntas com base em dados adquiridos de médico ao vivo para interações paciente.

De acordo com a CNN , um estudo recente realizado por cirurgiões nos Infantil National Medical Center, em Washington demonstrou com sucesso a cirurgia com um robô autônomo. A equipe supervisionado o robô enquanto ele realizou a cirurgia de tecidos moles, costurando intestino de um porco durante a cirurgia aberta, e fazê-lo melhor do que um cirurgião humano, a equipe reivindicado. IBM criou o seu próprio computador de inteligência artificial, a IBM Watson , que tem batido a inteligência humana (em alguns níveis). Watson não só ganhou no game show Jeopardy! contra o ex-campeões, mas foi declarado um herói depois de diagnosticar com sucesso uma mulher que sofria de leucemia.

Automotivo

Avanços na AI têm contribuído para o crescimento da indústria automobilística através da criação e evolução de veículos auto-condução. A partir de 2016, existem mais de 30 empresas que utilizam AI para a criação de carros sem condutor . Algumas empresas envolvidas com a AI incluem Tesla , Google e da Apple .

Muitos componentes contribuem para o funcionamento dos carros que dirigem. Estes veículos incorporar sistemas, tais como a travagem, mudança de faixa, prevenção de colisões, navegação e mapeamento. Juntos, esses sistemas, bem como computadores de alto desempenho, são integrados em um veículo complexo.

Os recentes desenvolvimentos em automóveis autônomos fizeram a inovação de caminhões auto-condução possíveis, embora eles ainda estão em fase de testes. O governo do Reino Unido aprovou legislação para começar a testar de pelotões caminhão auto-condução em 2018. pelotões caminhão auto-condução são uma frota de caminhões auto-condução seguindo o exemplo de um caminhão não-auto-condução, de modo que os pelotões de caminhão não são ainda totalmente autónoma. Enquanto isso, a Daimler, uma empresa automobilística alemã, está testando a inspiração Freightliner que é um caminhão semi-autônomo que será usado apenas na estrada.

Um factor principal que influencia a capacidade de um automóvel controlador de menos de função é o mapeamento. Em geral, o veículo iria ser pré-programado com um mapa da área a ser conduzido. Este mapa deverá incluir dados sobre as aproximações de luz de rua e alturas freio para que o veículo estar ciente de seus arredores. No entanto, o Google vem trabalhando em um algoritmo com o propósito de eliminar a necessidade de pré-programados mapas e em vez disso, criar um dispositivo que seria capaz de se adaptar a uma variedade de novos ambientes. Alguns carros que dirigem sozinhos não são equipados com volantes ou pedais de freio, por isso também houve pesquisa focado na criação de um algoritmo que é capaz de manter um ambiente seguro para os passageiros do veículo através da consciência de velocidade e as condições de condução.

Outro fator que está influenciando a capacidade de um automóvel driver de menos é a segurança do passageiro. Para fazer com que um automóvel de motorista-menos, os engenheiros devem programá-lo para lidar com situações de alto risco. Estas situações podem incluir uma colisão de frente com os peões. O objectivo principal do carro deve ser para tomar uma decisão que evitar bater os pedestres e salvar os passageiros no carro. Mas existe a possibilidade do carro seria necessário para tomar uma decisão que iria colocar alguém em perigo. Em outras palavras, o carro precisa decidir para salvar os peões ou os passageiros. A programação do carro nestas situações é crucial para um automóvel driver de menos sucesso.

Finanças e economia

As instituições financeiras têm utilizado rede neural artificial sistemas para detectar encargos ou reivindicações fora da norma, sinalizar estes para investigação humana. O uso de AI em serviços bancários pode ser rastreada até 1987, quando Security Pacific National Bank em US set-up uma força Prevenção Fraud Task para combater o uso não autorizado de cartões de débito. Programas como Kasisto e Moneystream estiver usando AI em serviços financeiros.

Os bancos usam sistemas de inteligência artificial hoje para organizar as operações, manter a contabilidade, investir em ações e gerenciar propriedades. AI pode reagir a mudanças durante a noite ou quando o negócio não está ocorrendo. Em agosto de 2001, os robôs bater os seres humanos em um simulado de negociação financeira competição. AI também reduziu fraudes e crimes financeiros, monitorando os padrões de comportamento dos usuários para quaisquer alterações ou anomalias anormais.

O uso de máquinas de IA no mercado em aplicações tais como comércio online e tomada de decisão mudou principais teorias econômicas. Por exemplo, AI compra baseada e plataformas de venda mudaram a lei da oferta e da procura no que agora é possível estimar facilmente demanda individualizado e curvas de oferta e preços, assim individualizada. Além disso, as máquinas AI reduzir a assimetria de informações no mercado e, assim, tornando os mercados mais eficientes, reduzindo o volume de negócios. Além disso, AI nos mercados limita as consequências do comportamento nos mercados novamente fazendo os mercados mais eficientes. Outras teorias onde AI teve impacto incluir na escolha racional , expectativas racionais , a teoria dos jogos , ponto de viragem Lewis , otimização de carteiras e pensamento contrafactual .

Videogames

Em jogos de vídeo, a inteligência artificial é utilizada rotineiramente para gerar comportamento propositado dinâmica em NPCs (NPCs). Além disso, técnicas de IA bem compreendidos são rotineiramente usadas para pathfinding . Alguns pesquisadores consideram NPC AI em jogos para ser um "problema resolvido" para a maioria das tarefas de produção. Jogos com AI mais atípica incluem o diretor AI de Left 4 Dead (2008) ea formação neuroevolutionary de pelotões em Supreme Commander 2 (2010).

Militares

Gastos militares anuais em todo o mundo em robótica subiu de US $ 5,1 bilhões em 2010 para US $ 7,5 bilhões em 2015. Os drones militares capazes de ação autônoma são amplamente considerados um ativo útil. Em 2017, Vladimir Putin declarou que "Quem quer que se torna a líder em (inteligência artificial) vai se tornar o governante do mundo". Muitos pesquisadores de inteligência artificial procuram distanciar-se de aplicações militares da AI.

Auditar

Para auditoria das demonstrações financeiras, AI faz auditoria contínua possível. ferramentas AI poderia analisar vários conjuntos de informações diferentes imediatamente. O benefício potencial seria o risco global de auditoria será reduzido, o nível de garantia será aumentada e o tempo de duração da auditoria será reduzida.

Propaganda

É possível usar o AI para prever ou generalizar o comportamento dos clientes a partir de suas pegadas digitais , a fim de orientá-las com promoções personalizadas ou construir personas clientes automaticamente. Um caso documentado relata que as empresas de apostas online estavam usando AI para melhorar a segmentação de clientes.

Além disso, a aplicação de Personalidade de computação modelos AI podem ajudar a reduzir o custo das campanhas publicitárias, adicionando segmentação psicológica para segmentação sociodemográfico ou comportamental mais tradicional.

Arte

Inteligência Artificial tem inspirado inúmeras aplicações criativas, incluindo a sua utilização para a produção de arte visual. A exposição "Thinking Machines: Arte e Design na era do computador, 1959-1989" no MoMA fornece uma boa visão geral das aplicações históricas da AI para a arte, arquitetura e design. Exposições recentes mostrando o uso de AI para produzir arte incluem o benefício patrocinado pelo Google e leilão na Fundação área cinzenta em San Francisco, onde os artistas experimentaram com o algoritmo deepdream e a exposição "desumano: Art in the Age of AI", que levou lugar em Los Angeles e Frankfurt, no outono de 2017. na primavera de 2018, a Association of Computing Machinery dedicou uma edição especial da revista ao assunto de computadores e arte destacando o papel da aprendizagem de máquina nas artes.

Filosofia e ética

Há três questões filosóficas relacionadas com a AI:

  1. É a inteligência geral artificial possível? Uma máquina pode resolver qualquer problema que um ser humano pode resolver usando a inteligência? Ou existem limites rígidos para que uma máquina pode realizar?
  2. São máquinas inteligentes perigoso? Como podemos garantir que as máquinas se comportar eticamente e que eles são usados ​​de forma ética?
  3. Pode uma máquina tem uma mente , consciência e estados mentais exatamente no mesmo sentido que os seres humanos fazem? Pode uma máquina ser senciente , e, portanto, merecem certos direitos? Pode uma máquina de intencionalmente causar danos?

Os limites da inteligência geral artificial

Pode uma máquina ser inteligente? ele pode "pensar"?

"Convenção educado" de Alan Turing
Não precisamos decidir se uma máquina pode "pensar"; precisamos apenas decidir se uma máquina pode atuar como inteligente como um ser humano. Esta abordagem aos problemas filosóficos associados com inteligência artificial forma a base do teste de Turing .
A proposta Dartmouth
"Cada aspecto da aprendizagem ou qualquer outro recurso de inteligência pode ser descrito com tanta precisão que uma máquina pode ser feita para simular isso." Esta conjectura foi impresso na proposta para a Conferência de Dartmouth de 1956, e representa a posição da maioria dos pesquisadores que trabalham AI.
hipótese sistema de símbolos físicos de Newell e Simon
"Um sistema de símbolos físicos tem os meios necessários e suficientes de ação inteligente em geral." Newell e Simon argumentam que a inteligência consiste em operações formais sobre símbolos. Hubert Dreyfus argumentou que, pelo contrário, a experiência humana depende de instinto inconsciente em vez de manipulação de símbolos consciente e em ter uma "sensação" para a situação em vez de conhecimento simbólico explícito. (Veja crítica da AI Dreyfus' .)
argumentos Gödelian
Gödel si mesmo, John Lucas (em 1961) e Roger Penrose (em uma discussão mais detalhada a partir de 1989) fez argumentos altamente técnicos que os matemáticos humanos pode sempre ver a verdade de suas próprias "declarações Gödel" e, portanto, têm habilidades computacionais além da mecânica máquinas de Turing. No entanto, o consenso moderno na comunidade científica e matemática é que esses "argumentos Gödelian" falhar.
O cérebro artificial argumento
O cérebro pode ser simulada por máquinas e porque os cérebros são inteligente, cérebro simulado também deve ser inteligente; assim, as máquinas podem ser inteligente. Hans Moravec , Ray Kurzweil e outros têm argumentado que é tecnologicamente viável para copiar o cérebro diretamente em hardware e software, e que tal simulação será essencialmente idêntico ao original.
O efeito do AI
As máquinas são inteligente, mas observadores não conseguiram reconhecê-lo. Quando Deep Blue derrotou Garry Kasparov no xadrez, a máquina estava agindo de forma inteligente. No entanto, os espectadores comumente descontar o comportamento de um programa de inteligência artificial, argumentando que não é inteligência "real" depois de tudo; assim inteligência "real" é o que quer inteligentes de comportamento das pessoas pode fazer que as máquinas ainda não pode. Isto é conhecido como Efeito AI: "AI é tudo o que ainda não foi feito."

dano potencial

Uso generalizado de inteligência artificial pode ter consequências não intencionais que são perigosos ou indesejáveis. Cientistas do Instituto Futuro da Vida , entre outros, descreveu alguns objetivos de pesquisa de curto prazo para ver como AI influencia a economia, as leis e ética que estão envolvidos com a AI e como minimizar os riscos de segurança AI. No longo prazo, os cientistas têm proposto para continuar função de aperfeiçoamento, minimizando possíveis riscos de segurança que vêm junto com as novas tecnologias.

risco existencial

O físico Stephen Hawking , Microsoft fundador Bill Gates , e SpaceX fundador Elon Musk têm expressado preocupações sobre a possibilidade de que AI poderia evoluir até o ponto que os seres humanos não poderia controlá-lo, com Hawking teorizar que isso poderia " significar o fim da raça humana ".

O desenvolvimento da inteligência artificial completa pode significar o fim da raça humana. Uma vez que os seres humanos desenvolver a inteligência artificial, que vai decolar por conta própria e redesenhar-se a um ritmo cada vez maior. Os seres humanos, que são limitadas pela evolução biológica lento, não poderia competir e seria substituído.

Em seu livro Superinteligência , Nick Bostrom fornece um argumento de que a inteligência artificial será uma ameaça para a humanidade. Ele argumenta que suficientemente inteligente AI, se escolher ações com base em alcançar algum objetivo, vai expor convergente comportamento, tais como a aquisição de recursos ou proteger-se de ser encerradas. Se as metas deste AI não refletem humanity's e um exemplo é um AI disse para calcular como muitos dígitos do pi possível-it pode prejudicar a humanidade, a fim de adquirir mais recursos ou prevenir-se de ser encerradas, em última análise, para melhor atingir seu objetivo.

A preocupação com o risco de inteligência artificial levou a algumas doações de alto perfil e investimentos. Um grupo de titã da tecnologia de destaque, incluindo Peter Thiel , a Amazon Web Services e Musk ter cometido $ 1 bilhão para OpenAI , uma empresa sem fins lucrativos que visa defender o desenvolvimento AI responsável. A opinião de peritos no campo da inteligência artificial é misturado, com as fracções de tamanho considerável tanto em causa e indiferentes por risco de eventual AI-superhumanly capaz. Em janeiro de 2015, Elon Musk doou dez milhões de dólares para o futuro do Instituto Vida para financiar a investigação sobre a compreensão tomada de decisão AI. O objetivo do instituto é a "crescer sabedoria com que gerimos" o crescente poder da tecnologia. Musk também financia empresas que desenvolvem inteligência artificial, como Google DeepMind e Vicarious "apenas manter um olho sobre o que está acontecendo com a inteligência artificial. Acho que há potencialmente um resultado perigoso lá."

Para este perigo a ser realizado, a AI hipotética teria que dominar ou fora-pensar toda a humanidade, que uma minoria de especialistas argumentam é uma possibilidade distante o suficiente no futuro para não valer a pena pesquisar. Outras contra-argumentos giram em torno de seres humanos sendo ou intrinsecamente ou convergente valiosa a partir da perspectiva de uma inteligência artificial.

A desvalorização da humanidade

Joseph Weizenbaum escreveu que aplicativos de IA não podem, por definição, simular com sucesso genuína empatia humana e que o uso da tecnologia AI em áreas como atendimento ao cliente ou psicoterapia estava profundamente equivocada. Weizenbaum também estava incomodado que pesquisadores de IA (e alguns filósofos) estavam dispostos a ver a mente humana como nada mais do que um programa de computador (a posição é agora conhecido como computacionalismo ). Para Weizenbaum esses pontos sugerem que a pesquisa AI desvaloriza a vida humana.

Diminuição da procura de trabalho humano

A relação entre automação e emprego é complicado. Enquanto automação elimina antigos empregos, ele também cria novos postos de trabalho através de efeitos micro-económico e macro-económicos. Ao contrário de ondas anteriores de automação, muitos empregos de classe média pode ser eliminado pela inteligência artificial; The Economist afirma que "a preocupação de que AI poderia fazer para empregos de colarinho branco que a energia a vapor fez para os operários durante a Revolução Industrial" é "vale a pena tomar a sério". Estimativas subjetivas de risco variam muito; por exemplo, Michael Osborne e Carl Benedikt Frey estimar 47% dos empregos nos EUA estão em "alto risco" do potencial de automação, enquanto um relatório da OCDE classifica apenas 9% dos empregos nos EUA como de "alto risco". Empregos em faixa de risco extremo de paralegals jejuar cozinheiros de comida, enquanto a demanda de trabalho é susceptível de aumentar para profissões relacionadas com cuidados que vão desde a saúde pessoal ao clero. Autor Martin Ford e outros vão além e argumentam que um grande número de postos de trabalho são de rotina, repetitivo e (a um AI) previsível; Ford adverte que estes trabalhos podem ser automatizados no próximo par de décadas, e que muitos dos novos postos de trabalho não pode ser "acessível a pessoas com capacidade média", mesmo com a reciclagem. Economistas apontam que na tecnologia passado tende a aumentar em vez de reduzir o emprego total, mas reconhecem que "estamos em território desconhecido" com AI.

armas Autónomas

Atualmente, mais de 50 países estão pesquisando robôs de batalha, incluindo os Estados Unidos, China, Rússia e Reino Unido. Muitas pessoas preocupadas com o risco de AI superinteligente também quer limitar o uso de soldados artificiais e drones.

máquinas éticas

Máquinas com inteligência têm o potencial para usar sua inteligência para evitar danos e minimizar os riscos; eles podem ter a capacidade de usar raciocínio ético para melhor escolher suas ações no mundo. A pesquisa nesta área inclui a ética da máquina , agentes morais artificiais e amigável AI .

agentes morais artificiais

Wendell Wallach introduziu o conceito de agentes morais artificiais (AMA), em seu livro Machines morais Para Wallach, AMAs tornaram-se uma parte da paisagem da inteligência artificial pesquisa como guiado por suas duas questões centrais que ele identifica como "Será que a humanidade quer que os computadores Fazendo Moral decisões" e "Can (RO) bots realmente ser Moral". Para Wallach, a questão não está centrada na questão de saber se as máquinas podem demonstrar o equivalente do comportamento moral, em contraste com as restrições que a sociedade podem colocar no desenvolvimento de AMAs.

máquina de ética

O campo da ética máquina está preocupado com dando máquinas princípios éticos, ou um procedimento para descobrir uma maneira de resolver os dilemas éticos que podem surgir, o que lhes permite funcionar de forma eticamente responsável através da sua própria tomada de decisão ética. O campo foi delineado no AAAI outono de 2005 Simpósio sobre Ética da máquina: "Pesquisas anteriores sobre a relação entre tecnologia e ética em grande parte focado no uso responsável e irresponsável da tecnologia pelos seres humanos, com algumas pessoas sendo interessados ​​em seres como humanos deveriam tratar máquinas. em todos os casos, apenas os seres humanos se envolveram em raciocínio ético. chegou o tempo para adicionar uma dimensão ética, pelo menos, algumas máquinas. Reconhecimento das ramificações éticos de comportamento envolvendo máquinas, bem como os desenvolvimentos recentes e potenciais em máquina autonomia, exigem isso. em contraste com a pirataria informática, questões de propriedade de software, problemas de privacidade e outros tópicos normalmente atribuídas a ética de computador, a ética máquina está preocupado com o comportamento de máquinas para com os utilizadores humanos e outras máquinas. Investigação em ética da máquina é fundamental para aliviar preocupações com autônomas sistemas pode-se argumentar que a noção de máquinas autônomas sem tal uma dimensão está na raiz de todo o medo sobre a inteligência da máquina. Além disso, a investigação de ética máquina poderia permitir a descoberta de problemas com teorias éticas atuais, avançando nosso pensamento sobre Ética." Máquina de ética é por vezes referido como a moralidade máquina, ética computacionais ou moralidade computacional. Uma variedade de perspectivas deste campo emergente pode ser encontrada na edição coletada "Ética Machine" que decorre da AAAI outono de 2005 Simpósio sobre Ética máquina.

Malevolent e amigável AI

O cientista político Charles T. Rubin acredita que AI pode ser concebido nem a garantia de ser benevolente. Ele argumenta que "qualquer benevolência suficientemente avançada pode ser indistinguível de maldade." Os seres humanos não devem assumir máquinas ou robôs que nos tratam favoravelmente, porque não há a priori razão para acreditar que eles iriam ser solidário com o nosso sistema de moralidade, que evoluiu junto com a nossa biologia particular (que AIs não compartilhar). Software Hyper-inteligente pode não necessariamente decida apoiar a continuação da existência da humanidade e seria extremamente difícil de parar. Este tópico também começou recentemente a ser discutido em publicações acadêmicas como uma verdadeira fonte de riscos para a civilização, os seres humanos, e planeta Terra.

Uma proposta para lidar com isso é para garantir que o primeiro AI geralmente inteligente é ' AI amigável ', e, em seguida, ser capaz de controlar posteriormente desenvolvido AIs. Alguns questionam se esse tipo de verificação poderia realmente permanecer no local.

Liderando AI pesquisador Rodney Brooks escreve: "Eu acho que é um erro que se preocupar sobre nós desenvolver malévolo AI qualquer momento nos próximos cem anos. Eu acho que a preocupação decorre de um erro fundamental em não distinguir a diferença entre os avanços reais recentes em um aspecto particular da AI, e a enormidade ea complexidade de construção de inteligência volitiva consciente ".

consciência Machine, consciência e mente

Se um sistema AI reproduz todos os aspectos-chave da inteligência humana, será que o sistema também ser senciente -Vai que ela tem uma mente que tem experiências conscientes ? Esta questão está intimamente relacionada com o problema filosófico sobre a natureza da consciência humana, geralmente referido como o problema difícil da consciência .

Consciência

David Chalmers identificou dois problemas na compreensão da mente, que ele chamou de as "duras" e problemas "fáceis" de consciência. O problema fácil é entender como o cérebro processa os sinais, faz planos e controles comportamento. O problema mais difícil é explicar como isso se sente ou por que ele deve se sentir como nada. Human processamento de informações é fácil de explicar, no entanto humana experiência subjetiva é difícil de explicar.

Por exemplo, considere o que acontece quando uma pessoa é mostrada uma amostra de cor e identifica-lo, dizendo que "é vermelho". O problema fácil requer apenas compreender o mecanismo no cérebro que torna possível para uma pessoa saber que a amostra de cor é vermelha. O problema difícil é que as pessoas também sabem outra coisa, eles também sabem o que parece vermelho gosta . (Considere que uma pessoa nascida cego pode saber que algo é vermelho, sem saber o que se parece vermelhos como.) Todo mundo sabe que existe experiência subjetiva, porque eles fazem isso todos os dias (por exemplo, todas as pessoas com visão sabe o que parece vermelhas como). O problema mais difícil é explicar como o cérebro cria-lo, por que ela existe, e como ele é diferente do que o conhecimento e outros aspectos do cérebro.

Computacionalismo e funcionalismo

Computacionalismo é a posição na filosofia da mente que a mente humana ou para o cérebro humano (ou ambos) é um sistema de processamento de informações e que o pensamento é uma forma de computação. Computacionalismo argumenta que a relação entre o corpo e mente é similar ou idêntica à relação entre o software e hardware e, portanto, pode ser uma solução para o problema mente-corpo . Esta posição filosófica foi inspirado pelo trabalho de pesquisadores de IA e cientistas cognitivos na década de 1960 e foi originalmente proposto por filósofos Jerry Fodor e Hilary Putnam .

hipótese AI forte

A posição filosófica de que John Searle nomeou "AI forte" afirma: "O computador adequadamente programado com as entradas e saídas corretas seria, assim, ter uma mente exatamente os seres humanos mesmo sentido têm mentes." Searle contraria esta afirmação com o seu quarto chinês argumento, que nos pede para olhar dentro do computador e tentar encontrar onde a "mente" pode ser.

direitos dos robôs

Se uma máquina pode ser criado que tem inteligência, também pode sentir ? Se ele pode sentir, ele tem os mesmos direitos que um ser humano? Esta questão, agora conhecido como " direitos dos robôs ", está sendo considerado, por exemplo, da Califórnia Institute for the Future , embora muitos críticos acreditam que a discussão é prematura. Alguns críticos do transumanismo argumentam que quaisquer direitos robô hipotéticos iria mentir em um espectro com os direitos dos animais e os direitos humanos. O assunto é profundamente discutido no filme de 2010 documentário Plug & Pray .

superinteligência

Há limites para o quão inteligente máquinas ou híbridos-can homem-máquina ser? Uma superinteligência, hiperinteligência, ou inteligência sobre-humana é um agente hipotético que possuem inteligência superando de longe a da mente humana mais brilhante e talentoso. Superintelligence também pode referir-se a forma ou grau de inteligência possuído por um tal agente.

singularidade tecnológica

Se a pesquisa em AI forte produzido software suficientemente inteligente, ele pode ser capaz de reprogramar e melhorar a si mesmo. O software melhorado seria ainda melhor a melhorar em si, levando a auto-aperfeiçoamento recursiva . A nova inteligência poderia, assim, aumentar exponencialmente e superar dramaticamente seres humanos. Escritor de ficção científica Vernor Vinge chamado este cenário " singularidade ". Singularidade tecnológica é quando acelerar o progresso em tecnologias vai causar um efeito runaway onde a inteligência artificial irá exceder a capacidade intelectual humana e controle, assim mudando radicalmente ou até mesmo acabar com a civilização. Porque as capacidades de tal inteligência pode ser impossível de compreender, a singularidade tecnológica é uma ocorrência acima da qual os eventos são imprevisíveis ou mesmo incompreensível.

Ray Kurzweil tem usado a lei de Moore (que descreve a melhoria exponencial implacável em tecnologia digital) para calcular que computadores de mesa terá o mesmo poder de processamento como os cérebros humanos até o ano de 2029, e prevê que a singularidade irá ocorrer em 2045.

Transhumanism

Designer de Robot Hans Moravec , ciberneticista Kevin Warwick e inventor Ray Kurzweil previram que humanos e máquinas irão se fundir no futuro em cyborgs que são mais capazes e poderosos do que qualquer um. Esta idéia, chamada transumanismo , que tem raízes na Aldous Huxley e Robert Ettinger .

Edward Fredkin argumenta que "a inteligência artificial é o próximo estágio na evolução", uma idéia proposta inicialmente por Samuel Butler 's ' Darwin entre os Machines '(1863), e expandiu por George Dyson em seu livro de mesmo nome em 1998.

Em ficção

A palavra "robô" em si foi cunhado por Karel Capek em sua 1,921 jogo RUR , o título de pé para " Robôs Universais de Rossum "

Seres artificiais pensamento com capacidade apareceu como dispositivos de contar histórias desde a Antiguidade, e tem sido um tema persistente na ficção científica .

Um comum trope nestes trabalhos começou com Mary Shelley 's Frankenstein , onde uma criação humana torna-se uma ameaça aos seus mestres. Isso inclui obras como de Arthur C. Clarke e Stanley Kubrick 2001: Uma Odisséia no Espaço (ambos 1968), com HAL 9000 , o computador assassino responsável pela descoberta uma nave espacial, assim como O Exterminador do Futuro (1984) e The Matrix (1999 ). Em contraste, os robôs leais raras como Gort de O Dia em que a Terra Parou (1951) e Bispo de Aliens (1986) são menos proeminente na cultura popular.

Isaac Asimov introduzir as Três Leis da Robótica em muitos livros e histórias, mais notavelmente a série "Multivac" sobre um computador super-inteligente do mesmo nome. As leis de Asimov são frequentemente levantada durante as discussões leigos de ética da máquina; enquanto pesquisadores da inteligência artificial quase todos estão familiarizados com as leis de Asimov através da cultura popular, eles geralmente consideram as leis inúteis para muitas razões, uma das quais é sua ambiguidade.

Transumanismo (a fusão de humanos e máquinas) é explorado no mangá Ghost in the Shell e da série de ficção científica Dune . Na década de 1980, o artista Hajime Sorayama série Sexy Robots 's foram pintadas e publicado no Japão descrevendo a forma humana real orgânica com peles metálicas muscular realistas e posteriores 'os Gynoids' livro seguido que foi usado por ou cineastas influenciaram incluindo George Lucas e outros criativos. Sorayama nunca considerou estes robôs orgânicos para ser real parte da natureza, mas sempre produto não natural da mente humana, uma fantasia existente na mente, mesmo quando realizados de forma real.

Vários trabalhos usar AI para nos forçar a enfrentar o fundamental da questão do que nos torna humanos, mostrando-nos seres artificiais que têm a capacidade de sentir e, portanto, a sofrer. Este aparece em Karel Capek 's " RUR ", os filmes " AI Inteligência Artificial " e " Ex Machina ", bem como o romance Do Androids Dream of Electric Sheep? , Por Philip K. Dick . Dick considera a ideia de que nossa compreensão da subjetividade humana é alterado pela tecnologia criada com a inteligência artificial.

Veja também

Notas explicativas

Referências

livros AI

História da AI

Outras fontes

Outras leituras

links externos