Propriedade de Markov - Markov property

Uma única realização do movimento browniano tridimensional para tempos 0 ≤ t ≤ 2. O movimento browniano tem a propriedade de Markov, pois o deslocamento da partícula não depende de seus deslocamentos anteriores.

Em teoria de probabilidade e estatística , o termo propriedade de Markov se refere à propriedade sem memória de um processo estocástico . Recebeu o nome do matemático russo Andrey Markov . O termo propriedade de Markov forte é semelhante à propriedade de Markov, exceto que o significado de "presente" é definido em termos de uma variável aleatória conhecida como hora de parada .

O termo suposição de Markov é usado para descrever um modelo em que a propriedade de Markov é considerada válida, como um modelo de Markov oculto .

Um campo aleatório de Markov estende essa propriedade para duas ou mais dimensões ou para variáveis ​​aleatórias definidas para uma rede interconectada de itens. Um exemplo de modelo para tal campo é o modelo de Ising .

Um processo estocástico de tempo discreto que satisfaz a propriedade de Markov é conhecido como cadeia de Markov .

Introdução

Um processo estocástico tem a propriedade de Markov se a distribuição de probabilidade condicional dos estados futuros do processo (condicional aos valores passados ​​e presentes) depende apenas do estado presente; isto é, dado o presente, o futuro não depende do passado. Um processo com essa propriedade é chamado de processo Markoviano ou Markoviano . O processo de Markov mais famoso é uma cadeia de Markov . O movimento browniano é outro processo de Markov bem conhecido.

História

Definição

Let Ser um espaço de probabilidade com uma filtração , para algum ( totalmente ordenado ) conjunto de índices ; e deixe ser um espaço mensurável . Um processo estocástico avaliado adaptado à filtração é dito possuir a propriedade de Markov se, para cada um com ,

No caso em que é um conjunto discreto com a álgebra sigma discreta e , isso pode ser reformulado da seguinte forma:

Formulações alternativas

Alternativamente, a propriedade de Markov pode ser formulada como segue.

para todos e limitado e mensurável.

Propriedade Markov forte

Suponha que seja um processo estocástico em um espaço de probabilidade com filtragem natural . Então, para qualquer tempo de parada em , podemos definir

.

Em seguida, é dito ter a forte propriedade Markov se, para cada tempo de parada , condicionando a caso , temos que para cada , é independente do dado .

A propriedade de Markov forte implica a propriedade de Markov comum, pois, tomando o tempo de parada , a propriedade de Markov comum pode ser deduzida.


Na previsão

Nos campos de modelagem preditiva e previsão probabilística , a propriedade de Markov é considerada desejável, pois pode permitir o raciocínio e resolução do problema que de outra forma não seria possível ser resolvido devido à sua intratabilidade . Esse modelo é conhecido como modelo de Markov .

Exemplos

Suponha que uma urna contém duas bolas vermelhas e uma bola verde. Uma bola foi sorteada ontem, uma bola foi sorteada hoje e a bola final será sorteada amanhã. Todos os sorteios são "sem reposição".

Suponha que você saiba que a bola de hoje é vermelha, mas não tem informações sobre a bola de ontem. A chance de que a bola de amanhã seja vermelha é de 1/2. Isso porque os dois únicos resultados restantes para este experimento aleatório são:

Dia Resultado 1 Resultado 2
Ontem Vermelho Verde
Hoje Vermelho Vermelho
Amanhã Verde Vermelho

Por outro lado, se você sabe que as bolas de hoje e de ontem foram vermelhas, você tem a garantia de receber uma bola verde amanhã.

Essa discrepância mostra que a distribuição de probabilidade para a cor de amanhã depende não apenas do valor presente, mas também é afetada pelas informações sobre o passado. Este processo estocástico de cores observadas não possui a propriedade Markov. Usando o mesmo experimento acima, se a amostragem "sem substituição" for alterada para amostragem "com substituição", o processo de cores observadas terá a propriedade Markov.

Uma aplicação da propriedade de Markov em uma forma generalizada é nos cálculos de Monte Carlo da cadeia de Markov no contexto da estatística Bayesiana .

Veja também

Referências