Loi normale
Un article de Wikipédia, l'encyclopédie libre.
Densité de probabilité / Fonction de masse![]() La courbe verte représente la fonction φ |
|
Fonction de répartition![]() |
|
Paramètres | μ moyenne (nombre réel) σ2 > 0 variance (nombre réel) |
Support | ![]() |
Densité de probabilité (fonction de masse) | ![]() |
Fonction de répartition | ![]() |
Espérance | μ |
Médiane (centre) | μ |
Mode | μ |
Variance | σ2 |
Asymétrie (skewness) | 0 |
Kurtosis (non-normalisé) | 3 (0 si normalisé) |
Entropie | ![]() |
Fonction génératrice des moments | ![]() |
Fonction caractéristique | ![]() |
En probabilité, une variable aléatoire suit une loi normale (ou loi normale gaussienne, loi de Laplace-Gauss) d'espérance m et d'écart type σ si sa densité de probabilité est :
Une telle variable aléatoire est dite variable gaussienne.
La loi normale est une des principale distribution de probabilité. Elle a été mise en évidence par Gauss au XIXe siècle et permet de modéliser de nombreuses études biométriques. Sa densité de probabilité dessine une courbe dite courbe en cloche ou courbe de Gauss.
Le Théorème de Moivre-Laplace montre la convergence d'une loi binomiale vers une loi de Gauss quand le nombre d'épreuves augmente.
Sommaire |
[modifier] La loi normale centrée réduite
La fonction définie par :
est une densité de probabilité : elle est continue, et son intégrale sur est égale à 1.
On sait en effet que (intégrale de Gauss).
On démontre (voir plus bas) que la loi définie par cette densité de probabilité admet une espérance nulle et une variance égale à 1.
Remarques :
- la densité
est paire ;
- elle est indéfiniment dérivable et vérifie, pour tout
, l'identité
.
[modifier] Définition
On appelle loi normale (ou gaussienne) centrée réduite la loi définie par la densité de probabilité .
La représentation graphique de cette densité est une courbe en cloche (ou courbe de Gauss).
[modifier] Moments
Les moments de cette loi existent tous. Pour tout , le moment d'ordre n par rapport à l'origine est :
.
- En raison de la parité de l'intégrande, tous les moments d'ordre impair sont nuls :
- Supposons à présent n pair :
, où
.
- Si
, une intégration par parties (non détaillée ici) donne :
- ce qui fournit la relation de récurrence :
.
- De cette relation, on déduit, comme
, que :
- En particulier,
(l'espérance est nulle : la loi est donc dite centrée) et
(la variance vaut
: la loi est donc dite réduite).
- Ceci justifie l'appellation de loi normale centrée réduite.
- Des formules précédentes, on déduit encore :
et
- La loi étant réduite, les moments centrés sont tous égaux aux moments par rapport à l'origine de même rang ; en particulier :
,
et
.
- On en déduit l'asymétrie (skewness) :
et l'aplatissement (kurtosis) :
.
[modifier] Fonction de répartition
On note Φ la fonction de répartition de la loi normale centrée réduite. Elle est définie, pour tout réel x, par :
.
C'est la primitive de qui tend vers 0 en
; elle ne s'exprime pas à l'aide des fonctions usuelles (exponentielle, etc.) mais devient elle-même une fonction usuelle, importante, pour quiconque pratique le calcul des probabilités ou les statistiques.
Citons les propriétés suivantes de la fonction Φ :
- Elle est indéfiniment dérivable, et
- Elle est strictement croissante, tend vers 0 en
et vers 1 en
- (c'est donc une bijection
: pour tout
, il existe
unique, noté
, tel que
)
- Pour tout
(ceci résulte de ce que la densité est paire) ; en particulier,
Remarque : les notations et
pour désigner « la » densité et la fonction de répartition de la loi normale centrée réduite sont usuelles.
[modifier] Approximation de la fonction de répartition
Il n'existe pas d'expression pour Φ mais on peut exploiter avec profit son aspect régulier pour en donner une approximation grâce à un développement en série de Taylor. Par exemple, voici une approximation (à l'ordre 5) autour de 0: . Cette approximation est performante pour | x | < 2.
[modifier] Tables numériques
Il existe des tables de la fonction de répartition, donnant des valeurs approchées de ; on se limite à des x positifs ou nuls : en effet, si par exemple on connaît l'approximation
, on en déduit
.
Au lieu des précédentes, on utilise souvent des tables de la fonction qu'on notera ici , définie sur
par :
Voici une table de cette fonction (où les valeurs de x vont de 0,0 jusqu'à 3,4 par pas de 0,1) :
x | ,0 | ,1 | ,2 | ,3 | ,4 | ,5 | ,6 | ,7 | ,8 | ,9 |
0 | 0 | 0,0398 | 0,0793 | 0,1179 | 0,1554 | 0,1915 | 0,2257 | 0,2580 | 0,2881 | 0,3159 |
1 | 0,3413 | 0,3643 | 0,3849 | 0,4032 | 0,4192 | 0,4332 | 0,4452 | 0,4554 | 0,4641 | 0,4713 |
2 | 0,4772 | 0,4821 | 0,4861 | 0,4893 | 0,4918 | 0,4938 | 0,4953 | 0,4965 | 0,4974 | 0,4981 |
3 | 0,4987 | 0,4990 | 0,4993 | 0,4995 | 0,4997 |
On dispose des relations simples suivantes entre et
(découlant de la formule de Chasles pour les intégrales) :
- si
, alors
- si
, alors
Soit T une variable aléatoire suivant la loi normale centrée réduite :
- pour tout
et pour tout
- pour tout couple
de réels tels que
,
.
[modifier] Exemples numériques
À l'aide de la table ci-dessus, on obtient, pour la variable aléatoire précédente :
[modifier] La loi normale générale
Soient une variable aléatoire suivant la loi normale centrée réduite, et deux réels
, où
.
On définit la variable aléatoire , dont on note
la fonction de répartition.
On a et
puisque
et
.
Cherchons la loi de : pour tout
,
,
- puisque la fonction de répartition de
est
.
Ainsi, est continûment (et même indéfiniment) dérivable :
suit une loi à densité, et la dérivée
de
est une densité de probabilité de cette variable aléatoire ; pour tout
,
.
Ceci légitime la définition suivante :
[modifier] Définition
On appelle loi normale (ou gaussienne, ou de Laplace-Gauss) de paramètres (où
) la loi de probabilité définie par la densité
, telle que pour tout
:
.
Notation: cette loi est notée (on a aussi utilisé
, mais cette dernière tend à céder la place à l'autre, d'autant plus qu'elle n'est pas cohérente avec la notation habituelle de la loi (multi-)normale sur
). La loi normale centrée réduite est
.
On peut énoncer plusieurs propriétés, compte tenu de ce qui précède (le dernier point se démontrant de manière analogue).
[modifier] Propriétés
Soit une variable aléatoire qui suit la loi normale
. Alors :
- la variable aléatoire
, c'est-à-dire
, suit la loi normale centrée réduite
- si
sont deux réels (
), alors la variable aléatoire
suit la loi normale
[modifier] Largeur à mi-hauteur
Lorsque l'on travaille sur une représentation graphique, on estime fréquemment la largeur de la gaussienne par sa largeur à mi-hauteur H (en anglais full width at half maximum, FWHM), qui est la largeur de la courbe à une altitude qui vaut la moitié de l'altitude du sommet. La largeur à mi-hauteur est proportionnelle à l'écart type :
- H ≈ 2·1,18·σ = 2,35·σ
Le facteur 2 tient compte du fait que l'on doit tenir compte de l'extension de la Gaussienne dans les valeurs négatives.
[modifier] Calcul de P(a ≤ X ≤ b)
Les résultats précédents permettent de ramener tout calcul de probabilité relatif à la loi normale à un calcul de probabilité relatif à la loi normale centrée réduite. On a vu qu'on dispose de tables donnant des approximations de valeurs de la fonction
, tables qu'on utilise encore fréquemment, même si certaines calculatrices ou certains tableurs peuvent maintenant les remplacer.
Si la variable aléatoire suit la loi normale
, et si
sont deux réels tels que
, on a :
[modifier] Cas d'un intervalle centré à la moyenne, plages de normalité
- Si t est un réel positif,
- lorsque
, où
,
- ce qui équivaut à
, ou
,
- l'intervalle
est appelé plage de normalité au niveau de confiance α
- (si par exemple, α = 0,95, on dit : "plage de normalité au niveau de confiance 95%" : en statistique, c'est un intervalle dans lequel se trouve 95% de la population lorsque la distribution est gaussienne).
[modifier] Exemples numériques
Grâce à la table précédente, on obtient :
;
- l'intervalle
est la plage de normalité au niveau de confiance 68 %
;
- l'intervalle
(H étant la largeur à mi-hauteur) est la plage de normalité au niveau de confiance 76 %
;
- l'intervalle
est la plage de normalité au niveau de confiance 95 %
;
- l'intervalle
est la plage de normalité au niveau de confiance 99 %
[modifier] Champ d'application
La loi normale s'utilise notamment comme approximation d'une loi binomiale de paramètres (n ; p) pour n grand et p, 1 - p de même ordre de grandeur ; on approche alors cette loi binomiale par la loi normale ayant même espérance np et même variance np(1 − p).
On a dessiné ci-dessous :
- un diagramme en bâtons de la loi binomiale de paramètres (12 ; 1/3) et la loi normale correspondante d'espérance 4 et de variance 8 / 3

- un diagramme en bâtons de la loi binomiale de paramètres (60 ; 1/3), et la loi normale correspondante d'espérance 20 et de variance 40 / 3

Le mathématicien Carl Friedrich Gauss a introduit cette loi pour le calcul d'erreurs.
En statistiques, de nombreux phénomènes suivent des distributions gaussiennes : données biométriques des individus (Adolphe Quételet).
[modifier] Critères de normalité
Le recours à une distribution gaussienne est si fréquent qu'il peut finir par être abusif. Il faut alors rechercher des critères de normalité.
Le premier critère, le plus simple, consiste à tracer l'histogramme ou le diagramme en bâtons de la distribution et à vérifier si le diagramme est en forme de « cloche ». Ce critère, subjectif, permet cependant d'éliminer une partie des distributions jugées alors non gaussiennes.
Le critère suivant consiste à utiliser les plages de normalité ou intervalles de confiance. On a vu que si une distribution est gaussienne :
- 68% de la population est dans l'intervalle
,
- 76% de la population est dans l'intervalle
,
- 95% de la population est dans l'intervalle
,
- 99% de la population est dans l'intervalle
.
Lorsque ces pourcentages ne sont pas respectés, il est fort à parier que la distribution n'est pas gaussienne.
On peut aussi utiliser la droite de Henry, en particulier quand on possède peu de renseignements sur la distribution. La droite de Henry va permettre de porter un diagnostic sur la nature non gaussienne de la distribution, et, dans le cas où celle-ci a des chances d'être gaussienne, elle permet d'en déterminer la moyenne et l'écart type.
Le dernier critère est l'application d'un test d'adéquation, le Test de Jarque Bera, (test du χ²) qui valide ou non l'hypothèse de normalité.
Néanmoins, l'utilisation d'un test automatique est délicate. En effet, dans le cas de petits effectifs, le test manquera de puissance et ne détectera pas la non normalité, même en cas de non normalité évidente. Réciproquement, dans le cas d'effectifs importants, le test sera surpuissant et détectera la moindre petite variation. Il rejettera donc des variables presque normales.
[modifier] Stabilité de la loi normale par la somme
La somme de deux variables gaussiennes indépendantes est elle-même une variable gaussienne. Plus explicitement :
Soient deux variables aléatoires indépendantes suivant respectivement les lois
et
.
Alors, la variable aléatoire suit la loi normale
.
Cette propriété se démontre directement (par convolution), ou indirectement (au moyen des fonctions caractéristiques).
[modifier] Exemple
On prend ici le gramme comme unité de masse. Si la masse du contenu d'une boîte de conserve suit la loi normale d'espérance 400 et de variance 25, et si celle du contenant suit la loi normale d'espérance 60 et de variance 4, alors (avec l'hypothèse, naturelle, d'indépendance) la masse totale de la boîte de conserve suit la loi normale d'espérance 460 et de variance 29 ; son écart type est environ 5,4 grammes.
[modifier] Mélange de populations
Il ne faut pas confondre la somme de deux variables gaussiennes indépendantes, qui reste une variable gaussienne, et le mélange de deux populations gaussiennes, qui n'est pas une population gaussienne (voir aussi modèle de mixture gaussienne).
Un mélange constitué de
- 2/3 d'individus dont la taille suit une loi normale de moyenne 160 cm et d'écart type 15 cm, de densité f
- 1/3 d'individus dont la taille suit une loi normale de moyenne 130 cm et d'écart type 10 cm, de densité g
suit une loi de moyenne (2/3)×160+(1/3)×130 = 150 cm, mais non gaussienne, de densité
- h = (2/3) f + (1/3) g.
Sur la représentation graphique de la densité h, on peut apercevoir une double bosse : la distribution est bimodale.

[modifier] Simulation
Il est possible de simuler, par exemple par ordinateur, un tirage aléatoire dont la loi est normale.
Les logiciels ou les langages de programmation possèdent en général un générateur de nombres pseudo-aléatoires ayant une distribution uniforme sur ]0,1[. On cherche donc une fonction transformant ces nombres. De manière générale, on peut prendre la fonction réciproque de la fonction de répartition : en l'occurrence, si la variable aléatoire U suit la loi uniforme sur ]0,1[, alors la variable aléatoire suit la loi normale centrée réduite ; cependant, cette méthode est tout à fait malcommode, faute d'expressions simples des fonctions
et
. En revanche, on peut facilement utiliser la méthode décrite ci-dessous.
[modifier] Cas de la loi normale à une dimension
Pour simuler la loi normale à une dimension (celle qui a été étudiée jusqu'ici), on peut utiliser la méthode de Box-Muller dont voici le principe :
Si U1 et U2 sont des variables aléatoires indépendantes qui suivent la loi uniforme sur ]0,1[, alors on démontre assez aisément que les variables aléatoires :
suivent toutes deux la loi normale centrée réduite (et sont indépendantes).
Les variables aléatoires et
suivent donc toutes deux la loi normale
, et indépendamment l'une de l'autre.
- Voir ausi
- (fr) Générateur de nombres aléatoires gaussiens, message de news:fr.sci.maths, 27 janvier 2000 ;
- (en) Generating Gaussian Random Numbers
[modifier] Cas de la loi multinormale
La loi multinormale ou loi normale sur étend la loi normale à un vecteur aléatoire
à valeurs dans
.
Elle est caractérisée par deux paramètres : un vecteur m de moyennes, et une matrice de variance-covariance V (carrée d'ordre n).
Pour simuler une loi multinormale non dégénérée de paramètres m et V, on utilise la méthode suivante :
- Soit T un vecteur aléatoire à n composantes gaussiennes centrées réduites et indépendantes (la loi de T, multinormale, a pour moyenne le vecteur nul et pour matrice de variance-covariance la matrice identité).
- Soit L la matrice résultant de la factorisation de Cholesky de la matrice V.
- Alors, le vecteur aléatoire X = m + LT suit la loi multinormale de moyenne m et de variance-covariance V
- (on convient dans cette dernière relation d'identifier chaque élément de
avec la matrice colonne de ses composantes en base canonique).
[modifier] Le calcul de l'intégrale de Gauss
On trouvera ce calcul (utilisant une intégrale double) dans l'article sur l'intégrale de Gauss.
[modifier] Voir aussi
[modifier] Articles connexes
- Loi normale multidimensionnelle
- Erreur (métrologie)
- Statistiques
- Probabilité
- Loi de probabilité
- Loi de Student
![]() |
Portail des mathématiques – Accédez aux articles de Wikipédia concernant les mathématiques. |