Covariância
Origem: Wikipédia, a enciclopédia livre.
Em teoria da probabilidade e na estatística, a covariância entre duas variáveis aleatórias reais X e Y, com valores esperados E(X) = μ e E(Y) = ν é definida como:
onde E é o operador do valor esperado. Isto equivale à seguinte fórmula, a qual é geralmente usada para fazer os cálculos:
Se X e Y são independentes, então a sua covariância é zero. Isto acontece porque sob independência:
.
O inverso, no entanto, não é verdadeiro: é possível que X e Y não sejam independentes e terem no entanto covariância zero. Variáveis aleatórias cuja covariância é zero são chamadas descorrelacionadas.
Se X e Y são variáveis aleatórias de valor real e c uma constante ("constante", neste contexto significa não aleatória), então os seguintes factos são uma consequência da definição da covariância:
Para variáveis aleatórias em vectores coluna X e Y com respectivos valores esperados μ e ν, e n e m de componentes escalares respectivamente, a covariância é definida como matriz n×m
Para variáveis aleatórias em vector, cov(X, Y) e cov(Y, X) são a transposta de cada um.
A covariância é por vezes chamada de medida de dependência linear entre as duas variáveis aleatórias. A correlação é um conceito relacionado usado para medir o grau de dependência linear entre duas variáveis.