Théorème de Gauss-Markov
Un article de Wikipédia, l'encyclopédie libre.
![]() |
La forme (style, orthographe…) ou le fond (validité des informations, neutralité…) de cet article est à vérifier. Discutez-en ou améliorez-le ! Si vous venez d'apposer le bandeau, veuillez cliquer sur ce lien pour créer la discussion. |
En statistiques, le théorème de Gauss–Markov, nommé ainsi d'après Carl Friedrich Gauss et Andrei Markov, énonce que dans un modèle linéaire dans lequel les erreurs ont une espérance nulle, sont non corrélées et dont les variances sont égales, le meilleur estimateur linéaire non biaisé des coefficients est l'estimateur des moindres carrés.
Plus généralement, le meilleur estimateur linéaire non biaisé d'une combinaison linéaire de variables aléatoires est son estimateur aux moindres carrés. On ne suppose pas que les erreurs possèdent une loi normale, ni qu'elles sont indépendantes (juste seulement non corrélées), ni qu'elles possèdent la même loi de probabilité.
Plus explicitement, supposons que l'on ait:
Pour i = 1, . . ., n, où β0 et β1 sont des paramètres qui ne sont pas aléatoires mais non-observables, xi sont des observations, εi sont aléatoires, et donc Yi sont des variables aléatoires. Posons x en miniscule, s'agissant d'une observation; et Y en majuscule car il s'agit d'une variable aléatoire. Les variables aléatoires εi sont appelées "erreurs".
Le théorème de Gauss–Markov énonce que:
(c'est-à-dire que toutes les erreurs ont la même variance; et
pour ; ce qui traduit la non-corrélation. Un estimateur linéaire non-biaisé de β1 est une combinaison linéaire:
dans laquelle les coefficients ci ne dépendent pas des précédents coefficients βi, car ceux-ci ne sont pas observables, mais peuvent dépendre de xi, car il s'agit des observations, et dont l'espérance reste β1 même si les valeurs de βi changent. (La dépendance des coefficients en xi est typiquement non-linéaire; l'estimateur est linéaire par rapport à ce qui est aléatoire; ce qui est appelé régression "linéaire").
L' erreur moyenne quadratique d'un tel estimateur c'est-à-dire, l'espérance du carré de la différence entre l'estimateur et les paramètres à estimer. L'erreur moyenne quadratique d'un estimateur coincide avec sa variance si l'estimateur n'est pas biaisé; dans le cas contraire, l'erreur moyenne quadratique est la somme de la variance et du carré du biais. Le meilleur estimateur non-biaisé est l'estimateur de plus faible erreur moyenne quadratique. Les "estimateurs aux moindres carrés" de β0 et β1 sont les fonctions
et
de Ys et xs qui correspondent à la somme des carrés des erreurs de mesure
aussi petit que possible. Ne pas confondre erreur sur des quantités non-observables et erreurs de mesure sur des grandeurs observables.
L'idée principale de la preuve est que les estimateurs aux moindres carrés sont non corrélés par rapport à chaque estimateur linéaire non biaisé de zéro, c'est-à-dire, chaque combinaison linéaire dont les coefficients ne dépendent pas des variables non-observables βi mais dont l'espérance reste nulle lorsque les valeurs de β1 et β2 changent.
En terme de formulation matricielle, le théorème de Gauss–Markov montre que la différence entre la matrice de covariance de n'importe quel estimateur linéaire non biaisé et celle des l'estimateur des moindres carrés est une matrice semi-définie positive.
[modifier] Voir aussi
![]() |
Portail des mathématiques – Accédez aux articles de Wikipédia concernant les mathématiques. |