Rang (algèbre linéaire)

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Rang.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

En algèbre linéaire :

  • le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Par exemple, pour une famille de vecteurs linéairement indépendants, son rang est le nombre de vecteurs ;
  • le rang d'une application linéaire f {\displaystyle f} de E {\displaystyle E} dans F {\displaystyle F} est la dimension de son image, qui est un sous-espace vectoriel de F {\displaystyle F} . Le théorème du rang relie la dimension de E {\displaystyle E} , la dimension du noyau de f {\displaystyle f} et le rang de f {\displaystyle f}  ;
  • le rang d'une matrice est le rang de l'application linéaire qu'elle représente, ou encore le rang de la famille de ses vecteurs colonnes ;
  • le rang d'un système d'équations linéaires est le nombre d'équations que compte tout système échelonné équivalent. Il est égal au rang de la matrice des coefficients du système.

Rang d'une matrice

Le rang d'une matrice A {\displaystyle A} (dont les coefficients appartiennent à un corps commutatif de scalaires, K {\displaystyle \mathbb {K} } ), noté rg ( A ) {\displaystyle {\text{rg}}(A)} , est :

  • le nombre maximal de vecteurs lignes (ou colonnes) linéairement indépendants ;
  • la dimension du sous-espace vectoriel engendré par les vecteurs lignes (ou colonnes) de A {\displaystyle A}  ;
  • le plus grand des ordres des matrices carrées inversibles extraites de A {\displaystyle A}  ;
  • le plus grand des ordres des mineurs non nuls de A {\displaystyle A}  ;
  • la plus petite des tailles des matrices B {\displaystyle B} et C {\displaystyle C} dont le produit est égal à A {\displaystyle A} .

Tous ces nombres sont bien égaux.

On peut déterminer le rang en procédant à une élimination via la méthode de Gauss-Jordan et en examinant la forme échelonnée obtenue de cette manière.

Exemple

Soit la matrice suivante :

A = ( 1 0 2 3 2 0 4 6 0 2 2 0 1 2 4 3 ) {\displaystyle A={\begin{pmatrix}1&0&2&3\\2&0&4&6\\0&2&2&0\\1&2&4&3\\\end{pmatrix}}}

On appelle l 1 , l 2 , l 3 , l 4 {\displaystyle l_{1},l_{2},l_{3},l_{4}} les vecteurs formés par les quatre lignes de A {\displaystyle A} .

On voit que la 2e ligne est le double de la première ligne, donc le rang de A {\displaystyle A} est égal à celui de la famille ( l 1 , l 3 , l 4 ) {\displaystyle (l_{1},l_{3},l_{4})} .

On remarque aussi que la 4e ligne peut être formée en additionnant les lignes 1 et 3 (c'est-à-dire l 4 = l 1 + l 3 {\displaystyle l_{4}=l_{1}+l_{3}} ). Donc le rang de ( l 1 , l 3 , l 4 ) {\displaystyle (l_{1},l_{3},l_{4})} est égal à celui de ( l 1 , l 3 ) {\displaystyle (l_{1},l_{3})} .

Les lignes 1 et 3 sont linéairement indépendantes (c'est-à-dire non proportionnelles). Donc ( l 1 , l 3 ) {\displaystyle (l_{1},l_{3})} est de rang 2.

Finalement, le rang de A {\displaystyle A} est 2.


Une autre manière est de calculer une forme échelonnée de cette matrice. Cette nouvelle matrice a le même rang que la matrice originale, et le rang correspond au nombre de ses lignes qui sont non nulles. Dans ce cas, nous avons deux lignes qui correspondent à ce critère.

A = ( 1 0 2 3 0 1 1 0 0 0 0 0 0 0 0 0 ) {\displaystyle A'={\begin{pmatrix}1&0&2&3\\0&1&1&0\\0&0&0&0\\0&0&0&0\\\end{pmatrix}}}

On remarque que le rang d'une matrice donnée est égal au rang de sa transposée. Pour l'exemple, prenons la transposée de la matrice A ci-dessus :

t A = ( 1 2 0 1 0 0 2 2 2 4 2 4 3 6 0 3 ) {\displaystyle ^{\text{t}}A={\begin{pmatrix}1&2&0&1\\0&0&2&2\\2&4&2&4\\3&6&0&3\\\end{pmatrix}}}

On voit que la 4e ligne est triple de la première, et que la troisième ligne moins la deuxième est double de la première.


Après échelonnement, on obtient donc :

( 1 2 0 1 0 0 1 1 0 0 0 0 0 0 0 0 ) {\displaystyle {\begin{pmatrix}1&2&0&1\\0&0&1&1\\0&0&0&0\\0&0&0&0\\\end{pmatrix}}}

et le rang de cette matrice est bien 2.

Rang d'une forme quadratique

Le rang d'une forme quadratique est le rang de la matrice associée.

Rang d'une application linéaire

Étant donnés deux K {\displaystyle K} -espaces vectoriels E {\displaystyle E} , F {\displaystyle F} , où K {\displaystyle K} est un corps commutatif, et une application linéaire f {\displaystyle f} de E {\displaystyle E} dans F {\displaystyle F} , le rang de f {\displaystyle f} est la dimension de l'image de f {\displaystyle f} .

Si E {\displaystyle E} et F {\displaystyle F} sont de dimensions finies, c'est aussi le rang de la matrice associée à f {\displaystyle f} dans deux bases de E {\displaystyle E} et F {\displaystyle F} . En particulier, le rang de la matrice associée à f {\displaystyle f} ne dépend pas des bases choisies pour représenter f {\displaystyle f} . En effet, la multiplication à droite ou à gauche par une matrice inversible ne modifie pas le rang, ce qui amène rg ( P 1 A Q ) = rg ( A ) {\displaystyle {\text{rg}}\left(P^{-1}AQ\right)={\text{rg}}(A)} , où A {\displaystyle A} est la matrice représentant f {\displaystyle f} dans un premier couple de bases, et P {\displaystyle P} , Q {\displaystyle Q} des matrices de changement de base.

Rang d'une famille de vecteurs

  • Pour une famille, son rang correspond au nombre maximal de vecteurs que peut contenir une sous-famille libre de cette famille.
  • On peut aussi définir le rang d'une famille u {\displaystyle u} par : rg ( u ) = dim ( Vect ( u ) ) {\displaystyle {\text{rg}}(u)=\dim({\text{Vect}}(u))} .

Remarque : si ( u 1 , , u n ) {\displaystyle (u_{1},\dots ,u_{n})} est une famille de vecteurs indexée par les entiers de 1 à n {\displaystyle n} , alors le rang de u {\displaystyle u} est le rang de l'application linéaire K n E : ( r 1 , , r n ) r i u i {\displaystyle \mathbb {K} ^{n}\rightarrow E:(r_{1},\dots ,r_{n})\mapsto \sum r_{i}u_{i}} K {\displaystyle \mathbb {K} } est le corps des scalaires. La raison est la suivante : Vect ( u ) {\displaystyle {\text{Vect}}(u)} est l'image de cette application linéaire.

Propriétés

Soient A, B et C des matrices.

  • Inégalité de Frobenius : rg ( A B ) + rg ( B C ) rg ( A B C ) + rg ( B ) {\displaystyle {\text{rg}}(AB)+{\text{rg}}(BC)\leq {\text{rg}}(ABC)+{\text{rg}}(B)}
Démonstration

Plus généralement, pour trois applications linéaires (entre espaces vectoriels de dimensions non nécessairement finies) c : E F {\displaystyle c:E\rightarrow F} , b : F G {\displaystyle b:F\rightarrow G} et a : G H {\displaystyle a:G\rightarrow H} , on a rg ( a b ) + rg ( b c ) rg ( a b c ) + rg ( b ) {\displaystyle {\text{rg}}(a\circ b)+{\text{rg}}(b\circ c)\leq {\text{rg}}(a\circ b\circ c)+{\text{rg}}(b)} car le morphisme canonique de im ( b ) im ( b c ) {\displaystyle {\frac {{\text{im}}(b)}{{\text{im}}(b\circ c)}}} dans im ( a b ) im ( a b c ) {\displaystyle {\frac {{\text{im}}(a\circ b)}{{\text{im}}(a\circ b\circ c)}}} induit par a {\displaystyle a} est surjectif.

  • (Cas particulier) Inégalité de Sylvester : si A {\displaystyle A} a n {\displaystyle n} colonnes et B {\displaystyle B} a n {\displaystyle n} lignes, alors rg ( A ) + rg ( B ) n rg ( A B ) {\displaystyle {\text{rg}}(A)+{\text{rg}}(B)-n\leq {\text{rg}}(AB)}
  • Théorème du rang : f {\displaystyle f} une application linéaire de E {\displaystyle E} dans F {\displaystyle F} , dim ( E ) = rg ( f ) + dim ( Ker ( f ) ) {\displaystyle \dim(E)={\text{rg}}(f)+\dim({\text{Ker}}(f))}
  • Matrice transposée et application transposée : rg ( t A ) = rg ( A ) {\displaystyle {\text{rg}}(^{\mathrm {t} }A)={\text{rg}}(A)} et rg ( t f ) = rg ( f ) {\displaystyle {\text{rg}}(^{\mathrm {t} }f)={\text{rg}}(f)}
  • Produit de matrices et composition d'applications linéaires : rg ( B A ) min ( rg ( B ) , rg ( A ) ) {\displaystyle {\text{rg}}(BA)\leq \min({\text{rg}}(B),{\text{rg}}(A))} et rg ( g f ) min ( rg ( g ) , rg ( f ) ) {\displaystyle {\text{rg}}(g\circ f)\leq \min({\text{rg}}(g),{\text{rg}}(f))}  ; en particulier — par composition à gauche ou à droite par l'identité — le rang d'une application linéaire de E {\displaystyle E} dans F {\displaystyle F} est inférieur ou égal à dim ( E ) {\displaystyle \dim(E)} et à dim ( F ) {\displaystyle \dim(F)}
  • Sous-additivité : rg ( A + B ) rg ( A ) + rg ( B ) {\displaystyle {\text{rg}}(A+B)\leq {\text{rg}}(A)+{\text{rg}}(B)} , avec égalité si, et seulement si, les images de A {\displaystyle A} et B {\displaystyle B} ne s'intersectent qu'en zéro et les images des transposées t A {\displaystyle ^{\mathrm {t} }A} et t B {\displaystyle ^{\mathrm {t} }B} ne s'intersectent qu'en zéro[1].
  • Le rang d'une famille de vecteurs est invariant par opération élémentaire.
  • Deux matrices sont équivalentes si et seulement si elles ont le même rang.
  • L'application rang, de M m , n ( R ) {\displaystyle M_{m,n}(\mathbb {R} )} dans R {\displaystyle \mathbb {R} } , est semi-continue inférieurement.
  • La plus grande fonction convexe fermée qui minore le rang sur la boule B := { A R m × n A 1 } {\displaystyle {\mathcal {B}}:=\{A\in \mathbb {R} ^{m\times n}\mid \left\|A\right\|\leq 1\}} , où A := max { A x 2 x 2 1 } = σ ( A ) {\displaystyle \left\|A\right\|:=\max\{\left\|Ax\right\|_{2}\mid \left\|x\right\|_{2}\leq 1\}=\|\sigma (A)\|_{\infty }} (on a noté σ ( A ) {\displaystyle \sigma (A)} le vecteur des valeurs singulières de A {\displaystyle A} ) est la restriction à cette boule de la norme nucléaire {\displaystyle \|\cdot \|_{*}} . De manière plus précise, si l'on définit f : R m × n R ¯ {\displaystyle f:\mathbb {R} ^{m\times n}\to {\overline {\mathbb {R} }}} par f = rg + I B {\displaystyle f={\operatorname {rg} }+{\mathcal {I}}_{\mathcal {B}}} , où I B {\displaystyle {\mathcal {I}}_{\mathcal {B}}} est l'indicatrice de B {\displaystyle {\mathcal {B}}} , alors sa biconjuguée s'écrit f = + I B {\displaystyle f^{**}=\left\|\cdot \right\|_{*}+{\mathcal {I}}_{\mathcal {B}}} [2],[3]. Sans restriction du rang à un ensemble, on obtient rg = 0 {\displaystyle \operatorname {rg} ^{**}=0} , une identité de peu d'utilité.

Cas où le corps des scalaires n'est pas commutatif

Dans ce qui précède, on a supposé que le corps des scalaires est commutatif. On peut étendre la notion de rang d'une matrice au cas où le corps des scalaires n'est pas forcément commutatif, mais la définition est un peu plus délicate.

Soient K {\displaystyle K} un corps non forcément commutatif et M {\displaystyle M} une matrice à m lignes et n colonnes à coefficients dans K {\displaystyle \mathbb {K} } . On appelle rang de M {\displaystyle M} (par rapport à K {\displaystyle K} ) la dimension du sous-espace engendré par les colonnes de M {\displaystyle M} dans K m {\displaystyle K^{m}} muni de sa structure de K {\displaystyle K} -espace vectoriel à droite[4]. On prouve que le rang de M {\displaystyle M} est aussi égal à la dimension du sous-espace engendré par les lignes de M {\displaystyle M} dans K n {\displaystyle \mathbb {K} ^{n}} muni de sa structure de K-espace vectoriel à gauche[5].

Considérons par exemple un corps non commutatif K et la matrice A := ( a 1 c a c ) {\displaystyle A:={\begin{pmatrix}a&1\\ca&c\\\end{pmatrix}}} , où a {\displaystyle a} et c {\displaystyle c} sont deux éléments de K {\displaystyle K} qui ne commutent pas (ces éléments sont donc non nuls).

Les deux lignes de cette matrice sont linéairement liées dans l'espace vectoriel à gauche K 2 {\displaystyle K^{2}} , car c ( a , 1 ) ( c a , c ) = ( 0 , 0 ) {\displaystyle c(a,1)-(ca,c)=(0,0)} . De même, les deux colonnes sont liées dans l'espace vectoriel à droite K 2 {\displaystyle K^{2}} , car ( a , c a ) ( 1 , c ) a = ( 0 , 0 ) {\displaystyle (a,ca)-(1,c)a=(0,0)} . Le rang de la matrice est donc égal à 1.

En revanche, les deux colonnes ne sont pas liées dans l'espace vectoriel à gauche K 2 {\displaystyle K^{2}} . En effet, soient d {\displaystyle d} et e {\displaystyle e} des scalaires tels que d ( a , c a ) + e ( 1 , c ) = ( 0 , 0 ) {\displaystyle d(a,ca)+e(1,c)=(0,0)} . Alors (premières composantes) e = d a {\displaystyle e=-da} , d'où (secondes composantes) d c a d a c = 0 {\displaystyle dca-dac=0} . Puisque a {\displaystyle a} et c {\displaystyle c} sont supposés ne pas commuter, ceci entraîne d = 0 {\displaystyle d=0} (multiplier par d 1 {\displaystyle d^{-1}} pour obtenir une contradiction) et notre résultat e = d a {\displaystyle e=-da} donne e = 0 {\displaystyle e=0} . Nous avons ainsi prouvé que les deux colonnes de la matrice sont linéairement indépendantes dans l'espace vectoriel à gauche K 2 {\displaystyle K^{2}} .

Notes et références

  1. (en) G. Marsaglia et G. P. H. Styan, « When does rank(A + B) = rank(A) + rank(B)? », Canadian Mathematical Bulletin, vol. 15,‎ , p. 451-452 (lire en ligne).
  2. (en) M. Fazel, Matrix rank minimization with applications : PhD Thesis. Department of Electrical Engineering, Université Stanford, .
  3. Cette propriété intervient dans les problèmes où l'on cherche à obtenir des objets parcimonieux par minimisation du rang (en compression d'images par exemple). Le rang étant une fonction à valeurs entières, donc difficile à minimiser, on préfère parfois considérer l'approximation convexe du problème qui consiste à y minimiser la norme nucléaire.
  4. Définition conforme à N. Bourbaki, Algèbre, partie I, Paris, Hermann, 1970, p. II.59, définition 7.
  5. Voir N. Bourbaki, Algèbre, partie I, Paris, Hermann, 1970, p. II.59, prop. 10 et alinéa suivant la démonstration de cette proposition.

Articles connexes

v · m
Famille de vecteurs Mathématiques
Sous-espace
Morphisme et
notions relatives
Dimension finie
Enrichissements
de structure
Développements
  • icône décorative Portail de l’algèbre