Soma de variáveis ​​aleatórias normalmente distribuídas - Sum of normally distributed random variables

Na teoria da probabilidade , o cálculo da soma de variáveis ​​aleatórias normalmente distribuídas é uma instância da aritmética de variáveis ​​aleatórias , que pode ser bastante complexa com base nas distribuições de probabilidade das variáveis ​​aleatórias envolvidas e seus relacionamentos.

Isso não deve ser confundido com a soma das distribuições normais que formam uma distribuição de mistura .

Variáveis ​​aleatórias independentes

Deixe que X e Y ser independentes variáveis aleatórias que são normalmente distribuídos (e, portanto, também em conjunto assim), então a sua soma é também normalmente distribuídos. ou seja, se

então

Isso significa que a soma de duas variáveis ​​aleatórias normalmente distribuídas independentes é normal, com sua média sendo a soma das duas médias, e sua variância sendo a soma das duas variâncias (ou seja, o quadrado do desvio padrão é a soma dos quadrados dos desvios padrão).

Para que esse resultado seja válido, a suposição de que X e Y são independentes não pode ser descartada, embora possa ser enfraquecida para a suposição de que X e Y estão juntos , em vez de separadamente, normalmente distribuídos. (Veja aqui um exemplo .)

O resultado sobre a média é válido em todos os casos, enquanto o resultado da variância requer não correlação, mas não independência.

Provas

Prova usando funções características

A função característica

da soma de duas variáveis ​​aleatórias independentes X e Y é apenas o produto das duas funções características separadas:

de X e Y .

A função característica da distribuição normal com valor esperado μ e variância σ 2 é

Então

Esta é a função característica da distribuição normal com valor esperado e variância

Finalmente, lembre-se de que duas distribuições distintas não podem ter a mesma função característica, então a distribuição de X  +  Y deve ser apenas esta distribuição normal.

Provar usando convoluções

Para variáveis ​​aleatórias independentes X e Y , a distribuição f Z de Z = X  +  Y é igual à convolução de f X e f Y :

Dado que f X e f Y são densidades normais,

Substituindo na convolução:

Definindo e completando o quadrado :

A expressão na integral é uma distribuição de densidade normal em x e, portanto, a integral é avaliada como 1. O resultado desejado é o seguinte:

Usando o teorema da convolução

Pode-se mostrar que a transformada de Fourier de uma Gaussiana , é

Pelo teorema da convolução :

Prova geométrica

Considere primeiro o caso normalizado quando X , Y ~ N (0, 1), de modo que seus PDFs sejam

e

Vamos Z = X  +  Y . Então o CDF para Z será

Esta integral está sobre o semiplano que se encontra sob a linha x + y = z .

A principal observação é que a função

é radialmente simétrico. Assim, giramos o plano de coordenadas sobre a origem, escolhendo novas coordenadas de forma que a linha x + y = z seja descrita pela equação onde é determinada geometricamente. Por causa da simetria radial, temos , e o CDF para Z é

Isso é fácil de integrar; descobrimos que o CDF para Z é

Para determinar o valor , observe que giramos o plano de forma que a linha x + y = z agora corre verticalmente com o intercepto x igual a c . Portanto, c é apenas a distância da origem até a linha x + y = z ao longo da bissetriz perpendicular, que encontra a linha em seu ponto mais próximo da origem, neste caso . Portanto, a distância é , e o CDF para Z é , ou seja,

Agora, se a , b são quaisquer constantes reais (não ambos zero), então a probabilidade encontrada pela mesma integral acima, mas com a linha limite . O mesmo método de rotação funciona e, neste caso mais geral, descobrimos que o ponto mais próximo na linha da origem está localizado a uma distância (sinalizada)

longe, para que

O mesmo argumento em dimensões superiores mostra que se

então

Agora estamos essencialmente prontos, porque

Então, em geral, se

então

Variáveis ​​aleatórias correlacionadas

No caso de as variáveis X e Y serem variáveis ​​aleatórias normalmente distribuídas em conjunto, então X  +  Y ainda é normalmente distribuído (consulte Distribuição normal multivariada ) e a média é a soma das médias. No entanto, as variações não são aditivas devido à correlação. De fato,

onde ρ é a correlação . Em particular, sempre que ρ <0, em seguida, a variância é inferior à soma das variações de X e Y .

Extensões desse resultado podem ser feitas para mais de duas variáveis ​​aleatórias, usando a matriz de covariância .

Prova

Neste caso (com X e Y tendo médias zero), é preciso considerar

Como acima, faz-se a substituição

Essa integral é mais complicada de simplificar analiticamente, mas pode ser feita facilmente usando um programa de matemática simbólica. A distribuição de probabilidade f Z ( z ) é dada neste caso por

Onde

Se considerarmos, em vez disso, Z = X  -  Y , então obteremos

que também pode ser reescrito com

Os desvios padrão de cada distribuição são óbvios em comparação com a distribuição normal padrão.

Referências

Veja também