História de probabilidade - History of probability

A probabilidade tem um duplo aspecto: por um lado, a probabilidade de hipóteses dadas as evidências que as sustentam e, por outro, o comportamento de processos estocásticos como o lançamento de dados ou moedas. O estudo do primeiro é historicamente mais antigo, por exemplo, na lei da evidência, enquanto o tratamento matemático dos dados começou com os trabalhos de Cardano , Pascal e Fermat entre os séculos XVI e XVII.

A probabilidade se distingue das estatísticas ; veja a história das estatísticas . Enquanto a estatística lida com dados e inferências deles, a probabilidade (estocástica) lida com os processos estocásticos (aleatórios) que estão por trás dos dados ou resultados.

Etimologia

Provável e probabilidade e seus cognatos em outras línguas modernas derivam do latim probabilis medieval aprendido , derivando de Cícero e geralmente aplicado a uma opinião para significar plausível ou geralmente aprovado . A forma de probabilidade vem do francês antigo probabilite (14 c.) E diretamente do latim probabilitatem (nominative probabilitas ) "credibilidade, probabilidade", de probabilis (ver provável). O sentido matemático do termo é de 1718. No século 18, o termo acaso também era usado no sentido matemático de "probabilidade" (e a teoria da probabilidade era chamada de Doutrina das Chances ). Em última análise, esta palavra vem do latim cadentia , ou seja, "uma queda, caso". O adjetivo inglês provavelmente é de origem germânica, provavelmente do nórdico antigo likligr (o inglês antigo tinha geliclic com o mesmo sentido), significando originalmente "ter a aparência de ser forte ou capaz", "ter aparência ou qualidades semelhantes", com um significado de "provavelmente" registrado em meados de 15c. O substantivo derivado verossimilhança tinha um significado de "semelhança, semelhança", mas assumiu um significado de "probabilidade" a partir de meados do século XV. O significado de "algo provável de ser verdade" data de 1570.

Origens

A lei da evidência antiga e medieval desenvolveu uma classificação de graus de prova, credibilidade, presunções e meia-prova para lidar com as incertezas da evidência no tribunal.

Na época da Renascença , as apostas eram discutidas em termos de probabilidades como "dez para um" e os prêmios de seguro marítimo eram estimados com base em riscos intuitivos, mas não havia teoria sobre como calcular tais probabilidades ou prêmios.

Os métodos matemáticos de probabilidade surgiram nas investigações primeiro de Gerolamo Cardano na década de 1560 (não publicado até 100 anos depois), e então na correspondência Pierre de Fermat e Blaise Pascal (1654) sobre questões como a divisão justa da aposta em um jogo de azar interrompido. Christiaan Huygens (1657) deu um tratamento abrangente do assunto.

De Games, Gods and Gambling ISBN  978-0-85264-171-2 por FN David :

Nos tempos antigos, os jogos eram feitos com astrágali, ou osso Talus . A cerâmica da Grécia antiga era uma evidência para mostrar que havia um círculo desenhado no chão e os astrágalos eram jogados neste círculo, como se jogassem bolinhas de gude. No Egito , escavadores de tumbas encontraram um jogo que chamaram de "Hounds and Jackals", que se assemelha muito ao jogo moderno " Snakes and Ladders ". Parece que este é o estágio inicial da criação de dados.
O primeiro jogo de dados mencionado na literatura da era cristã chamava-se Hazard . Jogado com 2 ou 3 dados. Pensa-se que foi trazido para a Europa pelos cavaleiros que regressavam das Cruzadas.
Dante Alighieri (1265-1321) menciona este jogo. Um comentarista de Dante reflete mais sobre este jogo: o pensamento era que com três dados, o menor número que você pode obter é três, um ás para cada dado. Conseguir um quatro pode ser feito com três dados, tendo um dois em um dado e ases nos outros dois dados.
Cardano também pensou na soma de três dados. Pelo valor de face, há o mesmo número de combinações que somam 9 que aquelas que somam 10. Para um 9: (621) (531) (522) (441) (432) (333) e para 10: (631) (622) (541) (532) (442) (433). No entanto, existem mais maneiras de obter algumas dessas combinações do que outras. Por exemplo, se considerarmos a ordem dos resultados existem seis maneiras de obter (621): (1,2,6), (1,6,2), (2,1,6), (2,6,1 ), (6,1,2), (6,2,1), mas há apenas uma maneira de obter (333), onde o primeiro, o segundo e o terceiro dados rolam 3. Há um total de 27 permutações que somam 10, mas apenas 25 somam 9. Disto, Cardano descobriu que a probabilidade de lançar um 9 é menor do que a de lançar um 10. Ele também demonstrou a eficácia de definir probabilidades como a razão de resultados favoráveis ​​a desfavoráveis ​​(que implica que a probabilidade de um evento é dada pela proporção de resultados favoráveis ​​para o número total de resultados possíveis).
Além disso, Galileu escreveu sobre o arremesso de dados em algum momento entre 1613 e 1623. Sem saber, considerando o que é essencialmente o mesmo problema de Cardano, Galileu disse que certos números têm a capacidade de ser jogados porque existem mais maneiras de criar esse número.

Século dezoito

Jacob Bernoulli 's Ars Conjectandi (póstumo, 1713) e Abraham De Moivre ' s A Doutrina do Chances (1718) probabilidade de colocar um som base matemática, mostrando como calcular uma ampla gama de probabilidades complexos. Bernoulli provou uma versão da lei fundamental dos grandes números , que afirma que em um grande número de tentativas, a média dos resultados provavelmente será muito próxima do valor esperado - por exemplo, em 1000 lances de uma moeda justa, é provável que haja perto de 500 caras (e quanto maior o número de arremessos, mais perto da metade a metade a proporção provavelmente estará).

Século dezenove

O poder dos métodos probabilísticos em lidar com a incerteza foi demonstrado pela determinação de Gauss da órbita de Ceres a partir de algumas observações. A teoria dos erros usava o método dos mínimos quadrados para corrigir observações propensas a erros, especialmente em astronomia, com base na suposição de uma distribuição normal de erros para determinar o valor verdadeiro mais provável. Em 1812, Laplace publicou sua Théorie analytique des probabilités, na qual consolidou e estabeleceu muitos resultados fundamentais em probabilidade e estatística, como a função geradora de momento , o método dos mínimos quadrados, a probabilidade indutiva e o teste de hipóteses.

No final do século XIX, um grande sucesso de explicação em termos de probabilidades foi a mecânica estatística de Ludwig Boltzmann e J. Willard Gibbs, que explicou as propriedades dos gases, como a temperatura, em termos dos movimentos aleatórios de um grande número de partículas.

O próprio campo da história da probabilidade foi estabelecido pelo monumental A History of the Mathematical Theory of Probability de Isaac Todhunter , do tempo de Pascal ao de Laplace (1865).

Século vinte

Probabilidade e estatística tornaram-se estreitamente conectadas por meio do trabalho de teste de hipóteses de RA Fisher e Jerzy Neyman , que agora é amplamente aplicado em experimentos biológicos e psicológicos e em testes clínicos de drogas, bem como em economia e em outros lugares. Uma hipótese, por exemplo, de que um medicamento geralmente é eficaz, dá origem a uma distribuição de probabilidade que seria observada se a hipótese fosse verdadeira. Se as observações concordarem aproximadamente com a hipótese, ela é confirmada; caso contrário, a hipótese é rejeitada.

A teoria dos processos estocásticos se ampliou para áreas como os processos de Markov e o movimento browniano , o movimento aleatório de minúsculas partículas suspensas em um fluido. Isso forneceu um modelo para o estudo de flutuações aleatórias nos mercados de ações, levando ao uso de sofisticados modelos de probabilidade em finanças matemáticas , incluindo sucessos como a amplamente usada fórmula de Black-Scholes para a avaliação de opções .

O século XX também viu disputas prolongadas sobre as interpretações de probabilidade . Em meados do século, o frequentismo era dominante, sustentando que a probabilidade significa frequência relativa de longo prazo em um grande número de tentativas. No final do século, houve algum renascimento da visão bayesiana , segundo a qual a noção fundamental de probabilidade é quão bem uma proposição é apoiada pelas evidências a seu favor.

O tratamento matemático das probabilidades, especialmente quando há infinitos resultados possíveis, foi facilitado pelos axiomas de Kolmogorov (1933).

Notas

Referências

links externos