Covariância - Covariance

O sinal da covariância de duas variáveis ​​aleatórias X e Y

Em teoria de probabilidade e estatística , a covariância é uma medida da variabilidade conjunta de duas variáveis ​​aleatórias . Se os valores maiores de uma variável correspondem principalmente aos valores maiores da outra variável, e o mesmo vale para os valores menores (ou seja, as variáveis ​​tendem a mostrar um comportamento semelhante), a covariância é positiva. No caso oposto, quando os maiores valores de uma variável correspondem principalmente aos menores valores da outra (ou seja, as variáveis ​​tendem a apresentar comportamento oposto), a covariância é negativa. O sinal da covariância mostra, portanto, a tendência na relação linear entre as variáveis. A magnitude da covariância não é fácil de interpretar porque não é normalizada e, portanto, depende das magnitudes das variáveis. A versão normalizada da covariância , o coeficiente de correlação , entretanto, mostra por sua magnitude a força da relação linear.

Uma distinção deve ser feita entre (1) a covariância de duas variáveis ​​aleatórias, que é um parâmetro populacional que pode ser visto como uma propriedade da distribuição de probabilidade conjunta , e (2) a covariância da amostra , que além de servir como um descritor da amostra, também serve como um valor estimado do parâmetro da população.

Definição

Para duas variáveis ​​aleatórias avaliadas em real distribuídas em conjunto e com segundos momentos finitos , a covariância é definida como o valor esperado (ou média) do produto de seus desvios de seus valores esperados individuais:

 

 

 

 

( Eq.1 )

onde é o valor esperado de , também conhecido como a média de . A covariância também é às vezes denotada ou , em analogia à variância . Usando a propriedade de linearidade das expectativas, isso pode ser simplificado para o valor esperado de seu produto menos o produto de seus valores esperados:

mas esta equação é suscetível a um cancelamento catastrófico (veja a seção sobre computação numérica abaixo).

As unidades de medida da covariância são as vezes as de . Em contraste, os coeficientes de correlação , que dependem da covariância, são uma medida adimensional da dependência linear. (Na verdade, os coeficientes de correlação podem ser simplesmente entendidos como uma versão normalizada de covariância.)

Definição para variáveis ​​aleatórias complexas

A covariância entre duas variáveis ​​aleatórias complexas é definida como

Observe a conjugação complexa do segundo fator na definição.

Uma pseudo-covariância relacionada também pode ser definida.

Variáveis ​​aleatórias discretas

Se o par de variáveis ​​aleatórias (reais) pode assumir os valores de , com probabilidades iguais , então a covariância pode ser escrita de forma equivalente em termos de médias e como

Também pode ser expresso de forma equivalente, sem se referir diretamente aos meios, como

Mais geralmente, se houver realizações possíveis de , ou seja, mas com probabilidades possivelmente desiguais para , então a covariância é

Exemplo

Interpretação geométrica do exemplo de covariância. Cada cuboide é a caixa delimitadora de seu ponto ( x , y , f  ( x , y )) e os meios X e Y (ponto magenta). A covariância é a soma dos volumes dos cubóides vermelhos menos os cubóides azuis.

Suponha que e tenha a seguinte função de massa de probabilidade conjunta , em que as seis células centrais fornecem as probabilidades conjuntas discretas das seis realizações hipotéticas :

x
5 6 7
y 8 0 0,4 0,1 0,5
9 0,3 0 0,2 0,5
0,3 0,4 0,3 1

pode assumir três valores (5, 6 e 7), enquanto pode assumir dois (8 e 9). Seus meios são e . Então,

Propriedades

Covariância consigo mesma

A variância é um caso especial de covariância em que as duas variáveis ​​são idênticas (ou seja, em que uma variável sempre assume o mesmo valor que a outra):

Covariância de combinações lineares

Se , , , e são de valor real, variáveis aleatórias e são constantes com valor real, então os seguintes fatos são uma consequência da definição de covariância:

Para uma sequência de variáveis ​​aleatórias em valores reais e constantes , temos

Identidade de covariância de Hoeffding

Uma identidade útil para calcular a covariância entre duas variáveis ​​aleatórias é a identidade de covariância de Hoeffding:

onde é a função de distribuição cumulativa conjunta do vetor aleatório e são os marginais .

Incorrelação e independência

Variáveis ​​aleatórias cuja covariância é zero são chamadas de não correlacionadas . Da mesma forma, os componentes de vetores aleatórios cuja matriz de covariância é zero em cada entrada fora da diagonal principal também são chamados de não correlacionados.

Se e forem variáveis ​​aleatórias independentes , sua covariância será zero. Isso ocorre porque sob a independência,

O inverso, entretanto, geralmente não é verdadeiro. Por exemplo, deixe ser distribuído uniformemente e deixe . Claramente, e não são independentes, mas

Nesse caso, a relação entre e é não linear, enquanto a correlação e a covariância são medidas de dependência linear entre duas variáveis ​​aleatórias. Este exemplo mostra que, se duas variáveis ​​aleatórias não estiverem correlacionadas, isso não significa em geral que sejam independentes. No entanto, se duas variáveis são conjuntamente distribuídos normalmente (mas não se eles são meramente individualmente normalmente distribuído ), uncorrelatedness faz implicam independência.

Relacionamento com produtos internos

Muitas das propriedades de covariância podem ser extraídas elegantemente, observando que ela satisfaz propriedades semelhantes às de um produto interno :

  1. bilinear : para constantes e variáveis ​​aleatórias ,
  2. simétrico:
  3. semi-definida positiva : para todas as variáveis ​​aleatórias , e implica que é constante quase com certeza .

Na verdade, essas propriedades implicam que a covariância define um produto interno sobre o espaço vetorial quociente obtido tomando o subespaço de variáveis ​​aleatórias com segundo momento finito e identificando quaisquer dois que diferem por uma constante. (Essa identificação transforma a semi-definição positiva acima em definição positiva.) Esse espaço vetorial quociente é isomórfico ao subespaço de variáveis ​​aleatórias com segundo momento finito e zero médio; nesse subespaço, a covariância é exatamente o produto interno L 2 das funções de valor real no espaço amostral.

Como resultado, para variáveis ​​aleatórias com variância finita, a desigualdade

vale através da desigualdade de Cauchy-Schwarz .

Prova: se , então é trivial. Caso contrário, deixe a variável aleatória

Então nós temos

Calculando a covariância da amostra

As covariâncias da amostra entre as variáveis ​​com base nas observações de cada uma, extraídas de uma população não observada de outra forma, são fornecidas pela matriz com as entradas

que é uma estimativa da covariância entre a variável e a variável .

A média da amostra e a matriz de covariância da amostra são estimativas imparciais da média e da matriz de covariância do vetor aleatório , um vetor cujo j- ésimo elemento é uma das variáveis ​​aleatórias. A razão pela qual a matriz de covariância da amostra tem no denominador em vez de essencialmente é que a média da população não é conhecida e é substituída pela média da amostra . Se a média da população for conhecida, a estimativa não enviesada análoga é dada por

.

Generalizações

Matriz de autocovariância de vetores aleatórios reais

Para um vetor de variáveis ​​aleatórias distribuídas em conjunto com segundos momentos finitos, sua matriz de autocovariância (também conhecida como matriz de variância-covariância ou simplesmente a matriz de covariância ) (também denotada por ou ) é definida como

Seja um vetor aleatório com matriz de covariância Σ , e seja A uma matriz que pode atuar à esquerda. A matriz de covariância do produto matriz-vetor AX é:

Isso é um resultado direto da linearidade da expectativa e é útil ao aplicar uma transformação linear , como uma transformação de clareamento , a um vetor.

Matriz de covariância cruzada de vetores aleatórios reais

Para vetores aleatórios reais e , a matriz de covariância cruzada é igual a

 

 

 

 

( Eq.2 )

onde é a transposta do vetor (ou matriz) .

O -ésimo elemento desta matriz é igual à covariância entre o i -ésimo componente escalar de e o j -ésimo componente escalar de . Em particular, é a transposição de .

Computação numérica

Quando , a equação está sujeita ao cancelamento catastrófico se e não for calculada com exatidão e, portanto, deve ser evitada em programas de computador quando os dados não foram centralizados antes. Algoritmos numericamente estáveis devem ser preferidos neste caso.

Comentários

A covariância às vezes é chamada de medida de "dependência linear" entre as duas variáveis ​​aleatórias. Isso não significa a mesma coisa que no contexto da álgebra linear (ver dependência linear ). Quando a covariância é normalizada, obtém-se o coeficiente de correlação de Pearson , que dá a bondade do ajuste para a melhor função linear possível que descreve a relação entre as variáveis. Nesse sentido, a covariância é um indicador linear de dependência.

Formulários

Em genética e biologia molecular

A covariância é uma medida importante em biologia . Certas sequências de DNA são conservadas mais do que outras entre as espécies e, portanto, para estudar estruturas secundárias e terciárias de proteínas , ou de estruturas de RNA , as sequências são comparadas em espécies intimamente relacionadas. Se forem encontradas alterações de sequência ou nenhuma alteração for encontrada no RNA não codificador (como microRNA ), as sequências são consideradas necessárias para motivos estruturais comuns, como uma alça de RNA. Em genética, a covariância serve de base para o cálculo da Matriz de Relacionamento Genético (GRM) (também conhecida como matriz de parentesco), permitindo inferência na estrutura da população da amostra sem parentes próximos conhecidos, bem como inferência na estimativa da herdabilidade de características complexas.

Na teoria da evolução e seleção natural , a equação de Price descreve como uma característica genética muda em frequência ao longo do tempo. A equação usa uma covariância entre uma característica e aptidão , para dar uma descrição matemática da evolução e seleção natural. Ele fornece uma maneira de compreender os efeitos que a transmissão gênica e a seleção natural têm na proporção de genes em cada nova geração de uma população. A equação de Price foi derivada por George R. Price , para derivar novamente o trabalho de WD Hamilton sobre seleção de parentesco . Exemplos da equação de preço foram construídos para vários casos evolutivos.

Em economia financeira

As covariâncias desempenham um papel fundamental na economia financeira , especialmente na moderna teoria de portfólio e no modelo de precificação de ativos de capital . As covariâncias entre os retornos de vários ativos são usadas para determinar, sob certas premissas, os valores relativos de diferentes ativos que os investidores devem (em uma análise normativa ) ou estão previstos (em uma análise positiva ) escolher manter em um contexto de diversificação .

Na assimilação de dados meteorológicos e oceanográficos

A matriz de covariância é importante para estimar as condições iniciais necessárias para a execução de modelos de previsão do tempo, um procedimento conhecido como assimilação de dados . A 'matriz de covariância de erro de previsão' é normalmente construída entre perturbações em torno de um estado médio (uma média climatológica ou de conjunto). A 'matriz de covariância do erro de observação' é construída para representar a magnitude dos erros observacionais combinados (na diagonal) e os erros correlacionados entre as medições (fora da diagonal). Este é um exemplo de sua ampla aplicação à filtragem de Kalman e estimativa de estado mais geral para sistemas que variam no tempo.

Em micrometeorologia

A técnica de covariância turbulenta é uma técnica chave de medição atmosférica onde a covariância entre o desvio instantâneo na velocidade do vento vertical do valor médio e o desvio instantâneo na concentração de gás é a base para o cálculo dos fluxos turbulentos verticais.

Em processamento de sinal

A matriz de covariância é usada para capturar a variabilidade espectral de um sinal.

Em estatísticas e processamento de imagens

A matriz de covariância é usada na análise de componentes principais para reduzir a dimensionalidade do recurso no pré-processamento de dados .

Veja também

Referências