Teoria de aprendizagem computacional - Computational learning theory

Na ciência da computação , a teoria do aprendizado computacional (ou apenas teoria do aprendizado ) é um subcampo da inteligência artificial dedicado ao estudo do projeto e análise de algoritmos de aprendizado de máquina .

Visão geral

Os resultados teóricos em aprendizado de máquina lidam principalmente com um tipo de aprendizado indutivo denominado aprendizado supervisionado . No aprendizado supervisionado, um algoritmo recebe amostras que são rotuladas de alguma forma útil. Por exemplo, as amostras podem ser descrições de cogumelos e os rótulos podem indicar se os cogumelos são ou não comestíveis. O algoritmo pega essas amostras previamente rotuladas e as usa para induzir um classificador. Este classificador é uma função que atribui rótulos a amostras, incluindo amostras que não foram vistas anteriormente pelo algoritmo. O objetivo do algoritmo de aprendizado supervisionado é otimizar algumas medidas de desempenho, como minimizar o número de erros cometidos em novas amostras.

Além dos limites de desempenho, a teoria do aprendizado computacional estuda a complexidade do tempo e a viabilidade do aprendizado. Na teoria de aprendizagem computacional, um cálculo é considerado viável se puder ser feito em tempo polinomial . Existem dois tipos de resultados de complexidade de tempo:

  • Resultados positivos - mostrando que uma determinada classe de funções pode ser aprendida em tempo polinomial.
  • Resultados negativos - Mostrando que certas classes não podem ser aprendidas em tempo polinomial.

Os resultados negativos muitas vezes dependem de suposições geralmente aceitas, mas ainda não comprovadas, como:

Existem várias abordagens diferentes para a teoria de aprendizagem computacional com base em diferentes suposições sobre os princípios de inferência usados ​​para generalizar a partir de dados limitados. Isso inclui diferentes definições de probabilidade (ver probabilidade de frequência , probabilidade bayesiana ) e diferentes suposições sobre a geração de amostras. As diferentes abordagens incluem:

Embora seu objetivo principal seja compreender a aprendizagem de forma abstrata, a teoria da aprendizagem computacional levou ao desenvolvimento de algoritmos práticos. Por exemplo, a teoria do PAC inspirou impulso , a teoria VC levou a máquinas de vetores de suporte e a inferência bayesiana levou a redes de crenças .

Veja também

Referências

pesquisas

  • Angluin, D. 1992. Teoria da aprendizagem computacional: Pesquisa e bibliografia selecionada. Em Proceedings of the Twenty-Fourth Annual ACM Symposium on Theory of Computing (maio de 1992), páginas 351-369. http://portal.acm.org/citation.cfm?id=129712.129746
  • D. Haussler. Aprendizagem provavelmente correta. Em AAAI-90 Proceedings of the Eight National Conference on Artificial Intelligence, Boston, MA, páginas 1101-1108. American Association for Artificial Intelligence, 1990. http://citeseer.ist.psu.edu/haussler90probably.html

Dimensão VC

Seleção de recursos

Inferência indutiva

Aprendizagem de notação O ideal

Resultados negativos

Boosting (aprendizado de máquina)

Occam Learning

Aprendizagem provavelmente correta

Tolerância de erro

Equivalência

Uma descrição de algumas dessas publicações é fornecida em publicações importantes em aprendizado de máquina .

Teoria da Aprendizagem da Distribuição

links externos