Covarianza
De Wikipedia, la enciclopedia libre
El análisis de la covarianza es una técnica estadística que, utilizando un modelo de regresión lineal múltiple, busca comparar los resultados obtenidos en diferentes grupos de una variable cuantitativa pero corrigiendo las posibles diferencias existentes entre los grupos en otras variables que pudieran afectar también al resultado (covariantes).
En el estudio conjunto de dos variables, lo que interesa principalmente es saber si existe algún tipo de relación entre ellas. Esto se ve gráficamente con el diagrama de dispersión. La covarianza S(X,Y) de dos variables aleatorias X e Y se define como:
- Si Sxy > 0 hay dependencia directa (positiva), es decir, a grandes valores de x corresponden grandes valores de y.
- Si Sxy = 0 Una covarianza 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas.
- Si Sxy < 0 hay dependencia inversa o negativa, es decir, a grandes valores de x corresponden pequeños valores de y.
La matriz de covarianza SXY de dos variables aleatorias n-dimensionales expresadas como vectores columna e se define como:
donde es el operador esperanza.
[editar] Propiedades
- Si a todos los valores de la variable x, les sumamos una constante k y a todos los valores de la variable y, les sumamos una constante k’, la covarianza no varía.
- Si a todos los valores de una variable x los multiplicamos por una constante k y a todos los valores de la variable y, los multiplicamos por una constante k’, su covarianza queda multiplicada por el producto de las constantes.
- A partir de las anteriores: si tenemos dos variables x, y con la covarianza Sxy, y transformaciones lineales de las variables de la forma z=ax+b, y t=cy+d, la nueva covarianza se relaciona con la anterior de la forma: Szt = acSxy.