Loi de probabilité à plusieurs variables
Un article de Wikipédia, l'encyclopédie libre.
Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables.
La description des notions correspondantes, certaines d'entre elles généralisant les notions relatives à une seule variable, est simplifiée de deux manières.
- Seules les variables continues sont considérées. Il est possible de passer aux variables discrètes en utilisant la fonction de Heaviside et la fonction de Dirac.
- Pour éviter la lourdeur des formules, le problème est limité à deux variables.
Sommaire |
[modifier] Formules de base
La probabilité pour que la variable aléatoire prenne une valeur numérique inférieure à tandis que prend une valeur inférieure à définit la fonction de répartition :
Celle-ci est non décroissante en et en , entre la valeur 0 lorsque les deux variables tendent vers et la valeur 1 lorsqu'elles tendent vers .
La densité de probabilité jointe s'obtient par une double dérivation :
Une intégration par rapport à (resp. ) donne la densité de probabilité marginale de (resp. ) :
Le rapport de la densité de probabilité jointe (relative à une valeur ) à la densité marginale de (concernant toutes les valeurs ) représente la densité de probabilité conditionnelle de sous la condition :
[modifier] Espérances mathématiques
L'espérance mathématique d'une fonction de deux variables généralise la formule donnée pour une seule variable :
L'opérateur espérance est linéaire ; en particulier, l'espérance (la moyenne) d'une somme de deux variables aléatoires est la somme des moyennes :
Parmi ces espérances, une double transformation de Fourier conduit à la fonction caractéristique :
Un développement en série fait alors apparaître les moments que l'on peut centrer par soustraction des moyennes :
Pour une variable seule, le moment d'ordre 1 (la moyenne) et le moment centré d'ordre 2 (la variance) contiennent une grande partie de l'information (la totalité pour une variable normale). A deux variables, il faut rajouter la covariance.
Il est parfois intéressant de regrouper les moyennes dans un vecteur et de bâtir une matrice carrée de covariance comportant une diagonale constituée par les variances.
[modifier] Indépendance
Si la densité de probabilité conditionnelle de par rapport à est identique à la densité marginale :
on dit que les deux variables sont indépendantes. L'égalité se réécrit :
La fonction caractéristique de la somme des variables est alors égale au produit des fonctions caractéristiques individuelles :
Cette remarque est utilisée dans la démonstration du théorème de la limite centrale.
[modifier] Corrélation
Si la covariance est nulle
on dit que les deux variables sont décorrélées. La formule se développe alors en
Si les deux variables sont indépendantes, elles sont décorrélées, l'inverse n'étant pas vrai, car l'indépendance implique tous les moments au lieu d'un seul.
Pour introduire le coefficient de corrélation on considère, étant un nombre et les deux variables étant préalablement centrées, ce qui n'entraîne aucune restriction, la grandeur positive ou nulle
Les propriétés du trinôme du second degré conduisent à définir le coefficient de corrélation compris entre -1 et 1 :
Lorsque ce coefficient est nul, les variables sont décorrélées. Lorsque sa valeur absolue vaut 1, elles sont liées fonctionnellement. Dans le cas intermédiaire, il mesure le degré de liaison entre les deux variables. En fait, cette notion de corrélation est particulièrement utile en statistique descriptive, sans référence aux lois de probabilité.
Articles de mathématiques en rapport avec les probabilités ou les statistiques |
Statistique descriptive • Analyse des données (statistiques) • Visualisation des données • Estimateur (statistique) • Test d'hypothèse • Économétrie • Statistique mathématique • Théorie des probabilités • Variable aléatoire • Inégalités (probabilistes) • Théorèmes limites (probabilités) • Processus stochastique • Mécanique statistique • Les statistiques et l'économie • Les statistiques et la sociologie • Les statistiques et les sciences • Les probabilités et les jeux • Les équations aux dérivées partielles et les probabilités |
Modifier |
Portail des mathématiques – Accédez aux articles de Wikipédia concernant les mathématiques. |