Na teoria da probabilidade , o cálculo da soma de variáveis aleatórias normalmente distribuídas é uma instância da aritmética de variáveis aleatórias , que pode ser bastante complexa com base nas distribuições de probabilidade das variáveis aleatórias envolvidas e seus relacionamentos.
Isso não deve ser confundido com a soma das distribuições normais que formam uma distribuição de mistura .
Variáveis aleatórias independentes
Deixe que X e Y ser independentes variáveis aleatórias que são normalmente distribuídos (e, portanto, também em conjunto assim), então a sua soma é também normalmente distribuídos. ou seja, se
então
Isso significa que a soma de duas variáveis aleatórias normalmente distribuídas independentes é normal, com sua média sendo a soma das duas médias, e sua variância sendo a soma das duas variâncias (ou seja, o quadrado do desvio padrão é a soma dos quadrados dos desvios padrão).
Para que esse resultado seja válido, a suposição de que X e Y são independentes não pode ser descartada, embora possa ser enfraquecida para a suposição de que X e Y estão juntos , em vez de separadamente, normalmente distribuídos. (Veja aqui um exemplo .)
O resultado sobre a média é válido em todos os casos, enquanto o resultado da variância requer não correlação, mas não independência.
Provas
Prova usando funções características
A função característica
da soma de duas variáveis aleatórias independentes X e Y é apenas o produto das duas funções características separadas:
de X e Y .
A função característica da distribuição normal com valor esperado μ e variância σ 2 é
Então
Esta é a função característica da distribuição normal com valor esperado e variância
Finalmente, lembre-se de que duas distribuições distintas não podem ter a mesma função característica, então a distribuição de X + Y deve ser apenas esta distribuição normal.
Provar usando convoluções
Para variáveis aleatórias independentes X e Y , a distribuição f Z de Z = X + Y é igual à convolução de f X e f Y :
Dado que f X e f Y são densidades normais,
Substituindo na convolução:
Definindo e completando o quadrado :
A expressão na integral é uma distribuição de densidade normal em x e, portanto, a integral é avaliada como 1. O resultado desejado é o seguinte:
Pode-se mostrar que a transformada de Fourier de uma Gaussiana , é
Pelo teorema da convolução :
Prova geométrica
Considere primeiro o caso normalizado quando X , Y ~ N (0, 1), de modo que seus PDFs sejam
e
Vamos Z = X + Y . Então o CDF para Z será
Esta integral está sobre o semiplano que se encontra sob a linha x + y = z .
A principal observação é que a função
é radialmente simétrico. Assim, giramos o plano de coordenadas sobre a origem, escolhendo novas coordenadas de forma que a linha x + y = z seja descrita pela equação onde é determinada geometricamente. Por causa da simetria radial, temos , e o CDF para Z é
Isso é fácil de integrar; descobrimos que o CDF para Z é
Para determinar o valor , observe que giramos o plano de forma que a linha x + y = z agora corre verticalmente com o intercepto x igual a c . Portanto, c é apenas a distância da origem até a linha x + y = z ao longo da bissetriz perpendicular, que encontra a linha em seu ponto mais próximo da origem, neste caso . Portanto, a distância é , e o CDF para Z é , ou seja,
Agora, se a , b são quaisquer constantes reais (não ambos zero), então a probabilidade encontrada pela mesma integral acima, mas com a linha limite . O mesmo método de rotação funciona e, neste caso mais geral, descobrimos que o ponto mais próximo na linha da origem está localizado a uma distância (sinalizada)
longe, para que
O mesmo argumento em dimensões superiores mostra que se
então
Agora estamos essencialmente prontos, porque
Então, em geral, se
então
Variáveis aleatórias correlacionadas
No caso de as variáveis X e Y serem variáveis aleatórias normalmente distribuídas em conjunto, então X + Y ainda é normalmente distribuído (consulte Distribuição normal multivariada ) e a média é a soma das médias. No entanto, as variações não são aditivas devido à correlação. De fato,
onde ρ é a correlação . Em particular, sempre que ρ <0, em seguida, a variância é inferior à soma das variações de X e Y .
Extensões desse resultado podem ser feitas para mais de duas variáveis aleatórias, usando a matriz de covariância .
Prova
Neste caso (com X e Y tendo médias zero), é preciso considerar
Como acima, faz-se a substituição
Essa integral é mais complicada de simplificar analiticamente, mas pode ser feita facilmente usando um programa de matemática simbólica. A distribuição de probabilidade f Z ( z ) é dada neste caso por
Onde
Se considerarmos, em vez disso, Z = X - Y , então obteremos
que também pode ser reescrito com
Os desvios padrão de cada distribuição são óbvios em comparação com a distribuição normal padrão.
Referências
Veja também