Propriedade de Markov - Markov property
Em teoria de probabilidade e estatística , o termo propriedade de Markov se refere à propriedade sem memória de um processo estocástico . Recebeu o nome do matemático russo Andrey Markov . O termo propriedade de Markov forte é semelhante à propriedade de Markov, exceto que o significado de "presente" é definido em termos de uma variável aleatória conhecida como hora de parada .
O termo suposição de Markov é usado para descrever um modelo em que a propriedade de Markov é considerada válida, como um modelo de Markov oculto .
Um campo aleatório de Markov estende essa propriedade para duas ou mais dimensões ou para variáveis aleatórias definidas para uma rede interconectada de itens. Um exemplo de modelo para tal campo é o modelo de Ising .
Um processo estocástico de tempo discreto que satisfaz a propriedade de Markov é conhecido como cadeia de Markov .
Introdução
Um processo estocástico tem a propriedade de Markov se a distribuição de probabilidade condicional dos estados futuros do processo (condicional aos valores passados e presentes) depende apenas do estado presente; isto é, dado o presente, o futuro não depende do passado. Um processo com essa propriedade é chamado de processo Markoviano ou Markoviano . O processo de Markov mais famoso é uma cadeia de Markov . O movimento browniano é outro processo de Markov bem conhecido.
História
Definição
Let Ser um espaço de probabilidade com uma filtração , para algum ( totalmente ordenado ) conjunto de índices ; e deixe ser um espaço mensurável . Um processo estocástico avaliado adaptado à filtração é dito possuir a propriedade de Markov se, para cada um com ,
No caso em que é um conjunto discreto com a álgebra sigma discreta e , isso pode ser reformulado da seguinte forma:
Formulações alternativas
Alternativamente, a propriedade de Markov pode ser formulada como segue.
para todos e limitado e mensurável.
Propriedade Markov forte
Suponha que seja um processo estocástico em um espaço de probabilidade com filtragem natural . Então, para qualquer tempo de parada em , podemos definir
- .
Em seguida, é dito ter a forte propriedade Markov se, para cada tempo de parada , condicionando a caso , temos que para cada , é independente do dado .
A propriedade de Markov forte implica a propriedade de Markov comum, pois, tomando o tempo de parada , a propriedade de Markov comum pode ser deduzida.
Na previsão
Nos campos de modelagem preditiva e previsão probabilística , a propriedade de Markov é considerada desejável, pois pode permitir o raciocínio e resolução do problema que de outra forma não seria possível ser resolvido devido à sua intratabilidade . Esse modelo é conhecido como modelo de Markov .
Exemplos
Suponha que uma urna contém duas bolas vermelhas e uma bola verde. Uma bola foi sorteada ontem, uma bola foi sorteada hoje e a bola final será sorteada amanhã. Todos os sorteios são "sem reposição".
Suponha que você saiba que a bola de hoje é vermelha, mas não tem informações sobre a bola de ontem. A chance de que a bola de amanhã seja vermelha é de 1/2. Isso porque os dois únicos resultados restantes para este experimento aleatório são:
Dia | Resultado 1 | Resultado 2 |
---|---|---|
Ontem | Vermelho | Verde |
Hoje | Vermelho | Vermelho |
Amanhã | Verde | Vermelho |
Por outro lado, se você sabe que as bolas de hoje e de ontem foram vermelhas, você tem a garantia de receber uma bola verde amanhã.
Essa discrepância mostra que a distribuição de probabilidade para a cor de amanhã depende não apenas do valor presente, mas também é afetada pelas informações sobre o passado. Este processo estocástico de cores observadas não possui a propriedade Markov. Usando o mesmo experimento acima, se a amostragem "sem substituição" for alterada para amostragem "com substituição", o processo de cores observadas terá a propriedade Markov.
Uma aplicação da propriedade de Markov em uma forma generalizada é nos cálculos de Monte Carlo da cadeia de Markov no contexto da estatística Bayesiana .
Veja também
- Condição de Markov causal
- Equação de Chapman-Kolmogorov
- Histerese
- Manta de markov
- Cadeia de Markov
- Processo de decisão Markov
- Modelo de Markov