Théorème du rang
Un article de Wikipédia, l'encyclopédie libre.
En mathématiques, le théorème du rang de l'algèbre linéaire, lie le rang et la dimension du noyau d'une application linéaire définie sur un espace vectoriel de dimension finie. Soient E et F deux espaces vectoriels sur un corps K. On suppose E de dimension finie. Soit une application linéaire. Alors l'image de f est de dimension finie et
- ,
où rgf désigne la dimension de l'image de f.
Pour démontrer le théorème, on peut partir d'une base du noyau de f, et la compléter en une base de E. Il n'est alors pas difficile de montrer que f envoie bijectivement cette famille de vecteurs « nouvellement » ajoutés sur une base de l'image de f.
Cas particulier des endomorphismes:
Soit f une application linéaire d'un espace vectoriel de dimension finie E dans lui-même. On a la relation:
- .
Cas des matrices
Le théorème du rang peut s'écrire pour les matrices. Si A est une matrice (m,n) sur un corps , alors
- rgA + dim(KerU) = n
où U est l'application linéaire de canoniquement associée à la matrice A.
Certains définissent le noyau d'une matrice comme étant l'ensemble noté KerA égal à
- ,
qui est un sous-espace vectoriel de de même dimension que KerU.
Le théorème du rang s'écrit alors
- rgA + dim(KerA) = n
[modifier] Autres formulations et généralisations
Ce théorème est une forme du premier théorème d'isomorphisme de l'algèbre dans le cas des espaces vectoriels.
Dans un langage plus moderne, le théorème peut être énoncé de la manière suivante: si
est une courte suite exacte d'espaces vectoriels, alors
- dim(D) + dim(F) = dim(E)
Ici F joue le rôle de Imf et D celui de Kerf.
En dimension finie, cette formulation peut être généralisée : si
est une suite exacte d'espaces vectoriels de dimension dinie, alors
Le théorème du rang pour des espaces vectoriels de dimension finie peut aussi être formulé en termes d'indice d'application linéaire. L'indice d'une application linéaire , où E et F sont des espaces vectoriels de dimension finie, est défini par
- indicef = dim(Kerf) − dim(Cokerf) où Coker désigne le conoyau de f.
Intuitivement, Kerf est le nombre de solutions indépendantes x de l'équation f(x) = 0, et dim(Cokerf) est le nombre de restrictions indépendantes qui doivent être mises à la place de y pour rendre l'équation f(x) = y résoluble. Le théorème du rang pour des espaces vectoriels de dimension finie est équivalent à la proposition
- indicef = dim(E) − dim(F)
Nous voyons que nous pouvons facilement déterminer l'indice d'une application linéaire f à partir des espaces impliqués, sans nul besoin d'étudier f en détail. Cela se remarque également dans un résultat beaucoup plus profond: le théorème de l'indice d'Atiyah-Singer qui affirme que l'indice de certains opérateurs différentiels peut être obtenu à partir de la géométrie des espaces impliqués.
Articles de mathématiques en rapport avec l'algèbre linéaire |
Espace vectoriel | Base | Dimension | Matrice | Application linéaire | Déterminant | Trace | Rang | Théorème des facteurs invariants | Réduction d'endomorphisme | Réduction de Jordan | Décomposition de Dunford | Valeur propre | Polynôme caractéristique | Forme linéaire | Espace dual | Orthogonalité | Produit scalaire | Produit vectoriel | Polynôme d'endomorphisme | Polynôme minimal | Tenseur | Covecteur | Algèbre multilinéaire |
Modifier |
Portail des mathématiques – Accédez aux articles de Wikipédia concernant les mathématiques. |