I. Première partie

Arrow s1

Plan du site

Matrices rectangulaires. Matrice et application linéaire. Produit. Matrices transposées, conjuguées ou adjointes. Matrices inversibles ou régulières. Matrices équivalentes. Technique d'inversion de matrice.

1. Matrices rectangulaires

1.1. Matrice et application linéaire

Soit deux vecteurs \(\overrightarrow{X}\) et \(\overrightarrow{Y}\), respectivement à \(n\) et \(p\) dimensions sur l’ensemble \(\mathcal{E}\) : \[\overrightarrow{X}\in~\mathcal{E}_n\quad;\quad\overrightarrow{Y}\in~\mathcal{E}_p\qquad(p,~n)~~\text{finis}\]

On considère l’application linéaire \(\overrightarrow{Y}=f(\overrightarrow{X})\) :

\[\begin{aligned} &\mathcal{E}_n\quad\underrightarrow f \quad\mathcal{E}_p \\ &\overrightarrow{X}\qquad\quad\overrightarrow{Y}\end{aligned}\]

Une matrice est une représentation de \(f\) quand on a choisi les repères \(\overrightarrow{e_i}\) et \(\overrightarrow{e_k}\), l’un dans \(\mathcal{E}_n\) et l’autre dans \(\mathcal{E}_p\).

On sait que l’on peut écrire pour les \(p\) composantes de \(\overrightarrow{Y}\) : \[y^k=\sum_{i=1}^n~a_i^k~x^i\]

Et symboliquement : \[y=A~x\qquad(x,~y)\]

1.2. Opérations sur les matrices

1.2.1. Théorème

L’ensemble \(\Phi\) des fonctions linéaires de \(\mathcal{E}_n\) dans \(\mathcal{E}_p\) constituent un espace vectoriel à \((n~p)\) dimensions.

Donc l’ensemble \(\Phi'\) des matrices forment elles aussi un espace vectoriel à \((n~p)\) dimensions.

\(\Phi'\) est isomorphe de \(\Phi\).

1.2.2. Propriétés

Les propriétés des matrices résultent des propriétés des applications linéaires : matrices égales, matrice nulle, somme, produit par une constante \(\lambda\).

1.3. Produit de matrices rectangulaires

Il résulte du produit (encore linéaire) des applications linéaires :

\[\begin{aligned} &\overrightarrow{Y}=f(\overrightarrow{X})\\ &\overrightarrow{Z}=g(\overrightarrow{Y})=g\{f(\overrightarrow{X})\}=(g\circ f)(f)\end{aligned}\]

Si l’on associe à {\(f,~g,~g\circ f\)} les matrices respectives {\(A,~B,~C\)}, on aura l’association matricielle produit :

\[\begin{aligned} \{g\circ f\}\quad\rightarrow\quad C&=B\times A \\ \text{parfois notée simplement :}\quad C&= B~A\end{aligned}\]

Se rappeler la restriction pour les matrices rectangulaires : la matrice \(B\) doit avoir autant de colonnes que \(A\) a de lignes.

Opération effectuée comme : \[C_{(p)}^{(m)}~=~B_{(p)}^{(m)}~\times~C_{(m)}^{(p)}\]

Ce que l’on appelle en produit croisé (ligne/colonne), pour les éléments : \[c_{k(col)}^{l(lig)}~=~\sum_i b_i^{l(lig)}~a_{k(col)}^i\]

Cas particulier

En représentant chaque vecteur par une matrice colonne : \[\begin{aligned} \overrightarrow{Y}=A~\overrightarrow{X} \end{aligned} \qquad \Rightarrow \qquad \begin{pmatrix} y^1\\ y^2 \end{pmatrix} = \begin{pmatrix} a_1^1&a_2^1&a_3^1\\ a_1^2&a_2^2&a_3^2 \end{pmatrix} \times \begin{pmatrix} x^1\\ x^2\\ x^3 \end{pmatrix}\]

on retrouve les formules du § 1.1 : \[y^i = \sum_j a_j^i~x^j\]

1.4. Matrices associées à une matrice rectangulaire

1.4.1. Matrice transposée

La matrice \(^t\!A\) transposée de \(A\) est obtenu par échange des lignes et des colonnes : \[[^t\!A]_j^i=[A]_i^j\]

Cas particuliers : matrice ligne  \(\leftrightarrow\)  matrice colonne

Propriété : \[C=B~A\quad\Rightarrow\quad^t\!C=~^t\!A~^t\!B\]

Note

Si l’on s’intéresse aux composantes de vecteurs \((x)\) et \((y)\), on peut montrer que : \[^t\!x~y=~^t\!y~x\]

En particulier : \[^t\!x~x=(x^1)^2+(x^2)^2+\dots+(x^n)^2\]

1.4.2. Matrice conjuguée

Sur l’espace \(\mathbb C\) des complexes, la matrice \(\overline{A}\) conjuguée de \(A\) est définie en prenant la conjugués de chacune des ses composante : \[[\overline{A}]_j^i=\overline{[A_j^i]}\]

Propriété : \[C=B~A\quad\Rightarrow\quad\overline{C}=\overline{B}~\overline{A}\]

1.4.3. Matrice adjointe

La matrice \(A^*\) adjointe de \(A\) est la conjuguée de sa transposée ou la transposée de sa conjuguée : \[A^*=~^t\!\big(\overline{A}\big)=\overline{^t\!A}\]

Propriété : \[C=B~A\quad\Rightarrow\quad C^*=A^*~B^*\]

Cas particuliers (vecteurs) : \[x= \begin{pmatrix} x^1\\ x^2\\ x^3 \end{pmatrix} \quad\Rightarrow\quad x^*=(\overline{x_1},~\overline{x_2},~\overline{x_3})\]

\((x^*x)\) est le carré de la norme hermitique du vecteur \((x)\).

À noter : \[x^*y\neq y^*x=\overline{y^*x}\]

2. Matrices carrées

Une matrice carrée est la représentation d’une application linéaire quand choisit une base dans \(\mathcal{E}_n\).

L’ensemble des matrices \(A(n\times n)\) forment un espace vectoriel à \(n^2\) dimensions (base des \(f_j^i\)). Cet espace est doté d’une loi de composition, la multiplication, non commutative mais distributive par rapport à l’addition. L’ensemble des matrices \((n\times n)\) forme donc un anneau non commutatif.

La matrice unité est la matrice diagonale ne comportant que des 0, sauf sur la diagonale principale ne comportant que des 1.

Il existe cependant des matrices commutables :

  • les matrices diagonales : \[\Lambda\times\Lambda'=\Lambda'\times\Lambda\]

  • les matrices telles que (\(I\) matrice unité) : \[A-\lambda~I\qquad\text{et}\qquad A-\mu~I\]

2.1. Matrices inversibles (ou régulières)

Les matrices inversibles, appelées aussi régulières, correspondent à des opérateurs linéaires inversibles (ou réguliers) : \[f\circ f^{-1}=f^{-1}\circ f=u\qquad\text{ou}\ A~A^{-1}=A^{-1}~A=I\]

Toute matrice régulière commute avec son inverse (le produit étant \(I\)).

Inversion d’une matrice

On part de : \[y^i=a_k^i~x^k\]

Condition d’inversibilité : \[a=\det(A)\neq 0\]

Formule des transformations : \[x^k=\frac{A_i^k~y^i}{|A|}\]

\(A_i^k\) : comatrice de \(A\), matrice des cofacteurs transposée, obtenue en supprimant la ligne et la colonne de cet élément de la matrice à inverser.

Remarque sur les déterminants : \[C=B~A\quad\Rightarrow\quad|C|=|B|~|A|=|A|~|B|\]

Donc, comme \(A~A^{-1}=I\) : \[\det(A^{-1})=\frac{1}{\det(A)}\]

2.2. Matrices équivalentes

Soit un espace vectoriel \(\mathcal{E}_n\) et un opérateur linéaire \(f\). Dans une base \(\overrightarrow{e}_i\) (ou repère), cet opérateur serait représenté par la matrice \(A\). Dans une autre base \(\overrightarrow{e'}_j\), il serait représenté par la matrice \(B\). Les deux matrices \(A\) et \(B\) représentent le même opérateur par rapport à deux bases différentes.

On recherche la relation entre les deux matrices équivalentes dans ces deux bases : \[\overrightarrow{Y}=f(\overrightarrow{X})\]

Représentation 1 : \[\begin{aligned} &\overrightarrow{e}_i~: &\overrightarrow{X}~~\text{matrice colonne}~~(x)\\ & &\overrightarrow{Y}~~\text{matrice colonne}~~(y) \end{aligned} \qquad~y=A~x\]

Représentation 2 : \[\begin{aligned} &\overrightarrow{e'}_j~: &\overrightarrow{X}~~\text{matrice colonne}~~(x')\\ & &\overrightarrow{Y}~~\text{matrice colonne}~~(y') \end{aligned} \qquad~y'=B~x'\]

Quand on change de base, il existe \(H\) telle que : \[x'=H~x\quad;\quad y'=H~y\]

\(H\) : matrice de changement de base (qui doit être inversible)

En exploitant les relations entre composantes et matrices, on démontre que : \[H~A=B~H\qquad\text{ou encore :}\quad B=H~A~H^{-1}\]

multiplication à droite par \(H^{-1}\), ce qui implique \(H\) est inversible.

On peut vérifier :

  • qu’il existe une relation d’équivalence (réflexivité, symétrie et transitivité) ;

  • que les déterminants de deux matrices équivalentes sont égaux ;

  • que les traces des matrices (somme des éléments diagonaux) sont égales : \[{\rm trace}(B)=\sum B_i^i=\sum H_k^i~A_j^k~(H^{-1})_i^j=\sum \delta_k^j~A_j^k=\sum A_j^j\]

2.3. Inversion de matrice : technique de calcul

On se propose de calculer l’inverse de la matrice : \[A= \begin{pmatrix} 0&0&1\\ 1&0&0\\ 7&-6&0 \end{pmatrix}\]

1) Calcul du déterminant (choix judicieux de la première ligne qui comporte \(0,~0,~1\)) : \[D=1\times \begin{vmatrix} 1&0\\ 7&-6 \end{vmatrix} =-6\]

2) Transposition de la matrice \(A\) : \[A= \begin{pmatrix} 0&0&1\\ 1&0&0\\ 7&-6&0 \end{pmatrix} \quad\Rightarrow\quad^t\!A= \begin{pmatrix} 0&1&7\\ 0&0&-6\\ 1&0&0 \end{pmatrix}\]

3) Calcul des mineurs :

\[\begin{aligned} &m_1^1= \begin{vmatrix} 0&-6\\ 0&0 \end{vmatrix} =0 &&m_1^2= \begin{vmatrix} 0&-6\\ 1&0 \end{vmatrix} =+6 &&m_1^3= \begin{vmatrix} 0&0\\ 1&0 \end{vmatrix} =0 \\ &m_2^1= \begin{vmatrix} 1&7\\ 0&0 \end{vmatrix} =0 &&m_2^2= \begin{vmatrix} 0&7\\ 1&0 \end{vmatrix} =-7 &&m_2^3= \begin{vmatrix} 0&1\\ 1&0 \end{vmatrix} =-1 \\ &m_3^1= \begin{vmatrix} 1&7\\ 0&-6 \end{vmatrix} =-6 &&m_3^2= \begin{vmatrix} 0&7\\0&-6 \end{vmatrix} =0 &&m_3^3= \begin{vmatrix} 0&1\\ 0&0 \end{vmatrix} =0\end{aligned}\]

4) Matrice des cofacteurs : \[M=(m_{ij})= \begin{pmatrix} 0&+6&0\\ 0&-7&-1\\ -6&0&0 \end{pmatrix}\]

5) Introduction de la signature d’un déterminant (\(3\times 3\)) : \[\begin{vmatrix} +&-&+\\ -&+&-\\ +&-&+ \end{vmatrix} \qquad\Rightarrow\qquad \begin{pmatrix} 0&-6&0\\ 0&-7&1\\ -6&0&0 \end{pmatrix}\]

6) Expression de la matrice inversée : \[A^{-1}=\frac{1}{D}\times~M= \begin{pmatrix} 0&1&0\\ 0&\cfrac{7}{6}&-\cfrac{1}{6}\\ 1&0&0 \end{pmatrix}\]

7) Vérification : \[A^{-1}\times~A= \begin{pmatrix} 0&1&0\\ 0&\cfrac{7}{6}&-\cfrac{1}{6}\\ 1&0&0 \end{pmatrix} \times \begin{pmatrix} 0&0&1\\ 1&0&0\\ 7&-6&0 \end{pmatrix} = \begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix} =I\]

↑ Haut