1. Décomposition d’une matrice régulière
Le principe de la décomposition d’une matrice régulière repose sur le processus d’orthogonalisation de Schmidt.
Considérons un système libre de vecteur {\(\overrightarrow{x}_1,\overrightarrow{x}_2,...,\overrightarrow{x}_n\)}. Noter que de ce fait, la matrice \((X)\) est régulière. On peut alors passer à un système {\(\overrightarrow{u}_1,~\overrightarrow{u}_2,~\dots,~\overrightarrow{u}_n\)} par la transformation : \[\left\{ \begin{aligned} &\overrightarrow{x}_1=t_1^1~\overrightarrow{u}_1\\ &\overrightarrow{x}_2=t_2^1~\overrightarrow{u}_1+t_2^2~\overrightarrow{u}_2\\ &\cdots\cdots\cdots\\ &\overrightarrow{x}_n=t_n^1~\overrightarrow{u}_1+t_n^2~\overrightarrow{u}_2+\dots+t_n^n~\overrightarrow{u}_n \end{aligned} \right.\]
Au système \(\{u_n\}\), on peut associer la matrice unitaire \(U\) : \[U= \begin{pmatrix} u_1^1\\ u_2^2\\ \cdots\\ u_1^n \end{pmatrix}\]
Considérons à présent la matrice triangulaire \(T\) : \[T= \begin{pmatrix} t_1^1&t_2^1&\cdots&t_n^1\\ 0&t_2^2&\cdots&t_n^2\\ \cdots&\cdots&\cdots&\cdots\\ 0&0&\cdots&t_n^n \end{pmatrix}\]
Le calcul montre que : \[(X)_j^i=(U)_k^i~(T)_i^k\qquad\text{ou}\qquad X=U\times T\]
Théorème
Toute matrice régulière peut être considérée comme le produit d’une matrice triangulaire par une matrice unitaire.
2. Diagonalisation : premier groupe de théorèmes
2.1. Théorème 1
Toute matrice (régulière ou non) a au moins un vecteur propre non nul : \[A~x=\lambda~x\quad\Rightarrow\quad\det(A-\lambda~I)=0\]
Les \(n\) équations ont alors au moins une solution non nulle :
-
on calcule tous les \(\lambda_i\) distincts ;
-
à chaque \(\lambda_i\) correspond un vecteur \(\overrightarrow{x}_i\) ;
-
on considère la matrice diagonale \(\Lambda\) : \[\Lambda= \begin{pmatrix} \lambda_1&0&0&0\\ 0&\lambda_2&0&0\\ \cdots&\cdots&\cdots&\cdots\\ \cdots&\cdots&\cdots&\lambda_n \end{pmatrix}\]
-
on considère la matrice \((X)\) formée par les colonnes propres.
On peut alors démontrer que : \[\Lambda=X^{-1}~A~X\qquad\text{équivalence}\]
Conséquences de l’équivalence : \[\begin{aligned} \det \Lambda&=\det A=\lambda_1~\lambda_2~\dots~\lambda_n\\ {\rm trace}~A&=\rm trace~\Lambda \end{aligned}\]
La somme des valeurs propres d’une matrice est égale à la trace de la matrice.
2.2. Théorème 2
La condition nécessaire et suffisante pour que deux matrices à valeurs propres distinctes commutent est qu’elles aient les mêmes directions propres.
a) Condition nécessaire
On fait l’hypothèse que \(A\times B=B\times A\) :
\[\begin{aligned} A~x&=\lambda~x\\ B\times A~x&=B\times(\lambda~x)=\lambda~B~x= A\times B~x\end{aligned}\]
Cette écriture montre que \(B~x\) peut être interprété comme un vecteur propre de \(A\) associé à la valeur propre \(\lambda\).
Comme \(\lambda\) est non dégénérée, il lui correspond une seule direction propre. On aura donc \(B~x=\mu~x\).
\(x\) est vecteur propre de \(A\) et de \(B\) qui ont alors mêmes directions propres.
b) Condition suffisante
On fait l’hypothèse que \(A\) et \(B\) ont mêmes directions propres.
Si on réduit \(A~\rightarrow~\Lambda\), on aura la réduction analogue \(B~\rightarrow~\Lambda'\).
On aura parallèlement : \[\Lambda=X^{-1}~A~X\quad;\quad\Lambda'=X^{-1}~B~X\]
Or, les deux matrices diagonales commutent (\(\Lambda~\Lambda'=\Lambda'~\Lambda\)).
On peut donc écrire successivement : \[\begin{aligned} &(X^{-1}~B~X)(X^{-1}~A~X)=(X^{-1}~A~X)(X^{-1}~B~X)\\ &X^{-1}~(B~A)~X=X^{-1}~(A~B)~X \end{aligned}\]
On a donc : \(B~A=A~B\).
3. Diagonalisation : deuxième groupe de théorèmes
3.1. Théorème 1 (de Schur)
Toute matrice \(A\) peut être transformée en une matrice unitaire \(U\) en une matrice triangulaire : \[T=U^{-1}~A~U\]
La démonstration classique (par récurrence) ne sera pas reprise ici.
3.2. Théorème 2
Une matrice triangulaire est une matrice diagonale si elle commute avec son adjointe : \[T~T^*=T^*~T\]
Rappelons que l’adjointe est la conjuguée de la transposée.
Démonstration sur une matrice (\(3\times 3\)) : \[T= \begin{pmatrix} t_1^1&t_1^2&t_1^3\\ 0&t_2^2&t_2^3\\ 0&0&t_3^3 \end{pmatrix} \quad;\quad T^*= \begin{pmatrix} \overline{t_1^1}&0&0\\ \overline{t_1^2}&\overline{t_2^2}&0\\ \overline{t_1^3}&\overline{t_2^3}&\overline{t_3^3} \end{pmatrix}\]
On effectue les deux produits en faisant apparaître les termes diagonaux respectifs : \[T~T^* \left\{ \begin{aligned} &|t_1^1|^2+|t_1^2|^2+|t_1^3|^2\\ &|t_2^2|^2+|t_2^3|^2\\ &|t_3^3|^2 \end{aligned} \right. \quad;\quad T^*~T \left\{ \begin{aligned} &|t_1^1|^2\\ &|t_1^2|^2+|t_2^2|^2\\ &|t_1^3|^2+|t_2^3|^2+|t_3^3|^2 \end{aligned} \right.\]
Pour que ces deux résultats soient semblables, il faut que : \[\begin{aligned} |t_1^2|^2+|t_1^3|^2&=0\qquad &&(1)\\ t_2^3=t_1^2&=0 &&(2)\\ |t_1^3|^2+|t_2^3|^2&=0 &&(3) \end{aligned}\]
Il s’ensuit que : \[t_i^j=0\qquad\forall i\neq j\]
Ce qui prouve bien que la matrice \(T\) doit être diagonale.
3.3. Théorème 3 : matrice normale
Une matrice normale \(A\) est une matrice telle que sa transformée par une matrice unitaire \(U\) donne une matrice diagonale.
On sait que : \[T=U^{-1}~A~U\quad;\quad T^*=U^*~A^*~U\qquad\text{car :}\quad U^*=U^{-1}\]
Effectuons les deux calculs suivants :
\[\begin{aligned} T~T^*&=(U^{-1}~A~U)~(U^*A^*U)~~=U^{-1}~A~A^*~U\\ T^*~T&=(U^*~A^*~U)~(U^{-1}~A~U)=U^{-1}~A^*~A~U\end{aligned}\]
On peut en conclure que : \[T~T^*=T^*T\quad\Rightarrow\quad A~A^*=A^*~A\]
et que toute matrice qui commute avec son adjointe est diagonale.
4. Polynômes de matrices
4.1. Définitions
Matrice puissance de \(A\) : \[A\times A=A^2\quad;\quad A\times A\times A=A^3\quad;\quad A\times A\times\dots\times A=A^n\]
On peut écrire : \[A^p~A^q=A^q~A^p=A^{p+q}\]
De même : \[A^{-1}~A^{-1}=A^{-2}\]
Considérons le polynôme classique : \[P(z)=z_0~z^n+z_1~z^{n-1}+\dots+z_n\]
Et pour les matrices, par analogie : \[P(A)=a_0~A^n+a_1~A^{n-1}+\dots+a_n~I\]
Exprimons le polynôme classique sous la forme : \[P(z)=z_0~(z-z_1)~(z-z_2)~\dots~(z-z_n)\]
On aura pour les matrices, par analogie : \[P(A)=a_0~(A-a_1~I)~(A-a_2~I)~\dots~(A-a_n~I)\]
On peut également considérer des séries entières de matrices, comme par exemple : \[S=I+\frac{A}{1!}+\frac{A^2}{2}+\dots+\frac{A^n}{n!}\]
Si tous les termes de \(A\) sont finis, il y a convergence et on peut écrire : \[S=e^A\]
Et, par développement : \[\sin A\quad;\quad \cos A\quad;\quad \cosh A\quad;\quad \dots\]
4.2. Polynôme caractéristique de A
Par définition : \[P(\lambda)=\det(A-\lambda~I)\]
D’où l’équation caractéristique : \[P(\lambda)=0\qquad\text{(de degré n)}\]
4.2.1. Théorème de Cayley-Hamilton
Si \(P(\lambda)\) est le polynôme caractéristique de \(A\), on aura le polynôme matriciel \(P(A)=0\).
Démonstration
On considère la matrice : \[C(\lambda)=A-\lambda~I\]
On désigne par \(C^{\Gamma}(\lambda)\) la matrice dont les termes sont les cofacteurs de \(C(\lambda)\).
On a alors : \[C^{-1}(\lambda)=\frac{C^{\Gamma}(\lambda)}{\det C(\lambda)}\]
Or, on sait que : \[\det\{C(\lambda)\}=P(\lambda)\]
On a donc la relation : \[C(\lambda)\times~C^{\Gamma}(\lambda)=P(\lambda)~I\]
Revenant à la première relation de \(C\) et remplaçant \(\lambda\) par \(A\) : \[C(A)=A-A~I=0~~~~\Rightarrow~~~~P(A)=0\]
4.2.2. Utilité du théorème sur un exemple
L’équation caractéristique associée à une matrice \(A\) a pour expression : \[\lambda^2-7~\lambda+6=0\]
En déduire les éléments de \(A^{-1}\) sans avoir recours au calcul classique.
On peut écrire : \[A^2-7~A+6=0\]
En effectuant une multiplication à gauche par \(A^{-1}\) : \[A-7~I+6~A^{-1}=0\quad\Rightarrow\quad A^{-1}=\frac{1}{6}~(7~I-A)\]
Calcul trivial.
5. Retour sur une question de valeur propre multiple
Il s’agissait de l’application linéaire : \[\left\{ \begin{aligned} x'&=-x+y+z\\ y'&=x-y+z\\ z'&=x+y-z \end{aligned} \right. \qquad \Rightarrow \qquad A= \begin{pmatrix} -1&1&1\\ 1&-1&1\\ 1&1&-1 \end{pmatrix}\]
Nous avions obtenu deux valeurs propres : \(\lambda=1\) simple et \(\lambda=-2\) double.
À la valeur propre simple \(\lambda=1\) était associé le vecteur propre \(\overrightarrow{V}_1(1,~1,~1)\).
Pour la valeur propre double \(\lambda=-2\), nous avions dit que tout vecteur de composantes (\(x,~y,~z\)) tel que \(x+y+z=0\) est vecteur propre. En particulier les deux vecteurs \(\overrightarrow{V}_2(-1\) , 1\(~,~0)\) et \(\overrightarrow{V}_3(1,~1,~-2)\) qui sont de plus orthogonaux (\(\overrightarrow{V}_2\cdot\overrightarrow{V}_3=0\)) et peuvent former une base avec \(\overrightarrow{V}_1\).
On peut donc prévoir que, dans cette base, l’application linéaire (\(\overrightarrow{X}~\rightarrow~\overrightarrow{X'}\)) sera représentée par une matrice diagonale.