Loi normale multidimensionnelle
Un article de Wikipédia, l'encyclopédie libre.
![]() |
Cet article est une ébauche à compléter concernant les probabilités et les statistiques, vous pouvez partager vos connaissances en le modifiant. |
On appelle loi normale multidimensionnelle ou loi multinormale une loi de probabilité qui est la généralisation multidimensionnelle de la loi normale.
Contrairement à la loi normale classique, paramétrée par un scalaire μ correspondant à sa moyenne et un second scalaire σ2 correspondant à sa variance, elle est paramétrée par un vecteur de
représentant son centre et une matrice
de
représentant sa matrice de variance-covariance.
Chaque élément de
représente l'espérance de la variable aléatoire Xi. Chaque élément
de
représente la covariance des variables aléatoires Xi, Xj et en particulier, chaque élément diagonal
de
représente la variance
de la variable aléatoire Xi.
Comme toute matrice de variance-covariance, la matrice est symétrique réelle, à valeurs propres positives ou nulles ; lorsque la loi multinormale est non dégénérée (c'est-à-dire qu'il n'existe aucune relation affine presque sûre entre les composantes du vecteur aléatoire), la matrice
est à valeurs propres strictement positives : elle est définie positive ; dans ce cas, la loi multinormale admet une densité sur
.
Sa fonction de densité est définie de dans
de la manière suivante :
Pour un vecteur de
et en notant
On trouvera ci-dessous quelques précisions relatives à cette loi appelée aussi loi de Gauss à plusieurs variables.
Sommaire |
[modifier] Rappel sur la variable de Gauss
Le théorème de la limite centrale fait apparaître une variable de Gauss unitaire (moyenne nulle, variance unité) :
![E[U] = 0 \qquad E[U^2] = 1](../../../math/0/c/e/0ce2d3bc7cd55f58182415105479f9fa.png)

On passe à la variable de Gauss générale par le changement de variable

qui conduit à
![E[X] = \mu \qquad E[(X-\mu)^2] = \sigma^2](../../../math/8/1/a/81a423246fda5e1ad0bafc217b5ed044.png)

Cette loi est caractérisée par une exponentielle comportant un exposant du second degré.
[modifier] Loi unitaire à plusieurs variables
Etant données n variables unitaires et indépendantes, leur densité de probabilité jointe s'écrit :

C'est la loi qui est à la base de la loi du χ².
Elle peut être synthétisée dans des formules matricielles. On définit d'abord le vecteur aléatoire qui a pour composantes les n variables et le vecteur d'état
qui a pour composantes leurs valeurs numériques.
On peut associer au vecteur d'état le vecteur moyenne qui a pour composantes les moyennes des composantes, c'est-à-dire, dans ce cas, le vecteur nul :
![E[\boldsymbol{U}] = \boldsymbol{0}\,](../../../math/5/4/e/54ec09e55712226098dbb741ef27a418.png)
La matrice de covariance possède des éléments diagonaux (les variances) qui sont égaux à 1 tandis que les éléments non diagonaux (les covariances au sens strict) sont nuls : c'est la matrice unité. Elle peut s'écrire en utilisant la transposition :
![E[\boldsymbol{U} \boldsymbol{U}^T] = \boldsymbol{I}\,](../../../math/9/f/a/9fa073e1d1a6700e6e064b8beaef5537.png)
Enfin, la densité de probabilité s'écrit :

[modifier] Loi générale à plusieurs variables
Elle s'obtient à partir d'un changement de variable linéaire

Le problème sera limité au cas d'une matrice carrée (même nombre de variables en sortie) et régulière. L'opérateur espérance vectoriel étant linéaire, on obtient le vecteur moyen
![E[\boldsymbol{X}] = \boldsymbol{a} E[\boldsymbol{U}] + \boldsymbol{\mu} = \boldsymbol{\mu}\,](../../../math/8/e/1/8e1d805fae327ac1bd5245b1f612a699.png)
et la matrice de covariance
![E[\boldsymbol{(X-\mu)} \boldsymbol{(X-\mu)}^T] = E[\boldsymbol{a} \boldsymbol{U} \boldsymbol{U}^T \boldsymbol{a}^T] = \boldsymbol{a}\boldsymbol{a}^T= \boldsymbol{s}\,](../../../math/1/3/9/139627348aca553d8982939fe05c1b33.png)
La densité de probabilité s'écrit

[modifier] Remarques diverses
- Un nouveau changement de variables linéaire appliqué à
aboutit à une densité de probabilité qui a la même forme mathématique :

- Les formules essentielles, obtenues commodément à partir du calcul matriciel, se traduisent en termes scalaires :


les étant les coefficients de l'inverse de la matrice de covariance.
- L'exposant dans la formule qui précède est du second degré par rapport à toutes les variables. On vérifie qu'une intégration par rapport à l'une d'entre elles donne un résultat analogue. (n-1) intégrations successives aboutissent à une loi de probabilité marginale munie d'un exposant quadratique : chaque variable est une variable de Gauss, ce qui n'était pas évident a priori.
- En combinant les remarques précédentes, on aboutit au résultat selon lequel toute combinaison linéaire, en d'autres termes, toute somme de variables de Gauss est une variable de Gauss.
- Dans cette loi de probabilité jointe, à toute paire de variables décorrélées correspond une matrice de covariance diagonale, ce qui assure leur indépendance.