II. Deuxième partie

Arrow s1

Plan du site

Valeurs propres. Vecteurs propres. Matrices hermitiques. Matrices orthogonales. Matrices unitaires. Valeurs propres multiples. Partition d'une matrice (matrices blocs).

1. Valeurs propres. Vecteurs propres

1.1. Définitions

\(\overrightarrow{v}\) est un vecteur propre de l’opérateur \(f\) associé à la valeur propre \(\rho\) si l’on peut écrire : \[f(\overrightarrow{v})=\rho~\overrightarrow{v}\quad;\quad\overrightarrow{v}\neq\overrightarrow{0}\]

Dans la direction d’un vecteur propre, l’application \(f\) se comporte comme une dilatation.

Dans une certaine base, \(f\) est représenté par une matrice \(A\) et un vecteur \(\overrightarrow{x}\) par la matrice colonne \(x\) (composantes).

On écrira alors : \[A~x=\rho~x\]

1.2. Recherche des valeurs propres et vecteurs propres

La relation précédente peut s’écrire (\(I\) étant la matrice unité) : \[A~x=(\rho~I)~x~~~\text{ou}~~~(A-\rho~I)=0\]

Or, la matrice (\(A-\rho~I)\) appliquée à \(\overrightarrow{x}\) non nul donne toujours le vecteur \(\overrightarrow{0}\).

Cette matrice est non inversible, donc de déterminant nul : \[\text{det}(A-\rho~I)=0\]

C’est l’équation déterminante de \(A\), polynôme d’ordre \(n\) dont les racines, supposées distinctes, correspondent aux valeurs propres recherchées.

À chaque valeur propre \(\rho\) correspond un vecteur propre \(\overrightarrow{x}\) défini à une constante près. En réalité, il s’agit d’une direction propre.

Exemple

Avec une matrice d’ordre 3 : \[\begin{pmatrix} a_1^1~x^1&a_2^1~x^2&a_3^1~x^3\\ a_1^2~x^1&a_2^2~x^2&a_3^2~x^3\\ a_1^3~x^1&a_2^3~x^2&a_3^3~x^3 \end{pmatrix} = \begin{pmatrix} \rho~x^1\\ \rho~x^2\\ \rho~x^3 \end{pmatrix}\]

On doit donc résoudre l’équation du déterminant : \[P(\rho)= \begin{vmatrix} a_1^1-\rho &a_2^1-\rho &a_3^1-\rho\\ a_1^2 &a_2^2-\rho &a_3^3\\ a_1^3 &a_2^3 &a_3^3-\rho \end{vmatrix} =0\]

Le polynôme \(P(\rho)\) est appelé polynôme caractéristique de \(A\).

L’équation \(P(\rho)=0\) a généralement trois racines distinctes \(\rho_1,~\rho_2,~\rho_3\).

Théorème 1

Si une matrice donnée \(A\) possède \(n\) valeurs propres distinctes \(\rho_i\), les \(n\) vecteurs propres \(v_i\) correspondants forment une base dans \(\mathcal{E}_n\).

Théorème 2

Les polynômes caractéristiques de deux matrices équivalentes sont identiques : \[P(\lambda)=\text{det}(A-\lambda~I)=\text{det}(A-\mu~I)=Q(\mu)\]

1.3. Technique de calcul

Nous raisonnerons sur un exemple type (matrice \(3\times 3\) à valeurs propres distinctes.

Matrice choisie : \[A= \begin{pmatrix} 0&0&1\\ 1&0&0\\ 7&-6&0 \end{pmatrix}\]

Système linéaire (déterminant) associé aux trois valeurs propres \(\lambda_i\) : \[\begin{vmatrix} 0-\lambda &0 &1\\ 1 &0-\lambda &0\\ 7 &-6 &0-\lambda \end{vmatrix} =0 \quad\Rightarrow\quad \left\{ \begin{aligned} -\lambda~x^1\qquad\quad+x^3&=0\\ x^1-\lambda~x^2\qquad\quad&=0\\ 7~x^1-6~x^2-\lambda~x^3&=0 \end{aligned} \right.\]

Expression de l’équation caractéristique : \[\begin{vmatrix} -\lambda &0&1\\ 1&-\lambda &0\\ 7&-6&-\lambda \end{vmatrix} =-\lambda^3+7~\lambda-6=0\quad\Rightarrow\quad\lambda_1=1,~\lambda_2=2,~\lambda_3=3\]

En introduisant ces valeurs respectivement dans chacune des relations du système d’équations précédent, on obtient un nouvel ensemble de relations : \[\left\{ \begin{aligned} &\frac{x^1}{1}=\frac{x^2}{1}=\frac{x^3}{1}\\ &\frac{x^1}{2}=\frac{x^2}{1}=\frac{x^3}{4}\\ &\frac{x^1}{3}=\frac{x^2}{-1}=\frac{x^3}{-9} \end{aligned} \right.\]

D’où les vecteurs propres \(\overrightarrow{V}_i\) associés aux valeurs \(\lambda_i\) : \[\overrightarrow{V}_1(1,~1,~1)~;~\overrightarrow{V}_2(2,~1,~4)~;~\overrightarrow{V}_3(-3,~-1,~-9)\]

Pour mémoire, la forme de la matrice diagonale équivalente : \[A'= \begin{pmatrix} 1&0&0\\ 0&2&0\\ 0&0&3 \end{pmatrix}\]

2. Matrices hermitiques

Rappelons que la matrice \(A\) est hermitique si elle est sa propre adjointe : \(A=A^*\).

2.1. Propriété 1

Les valeurs propres d’une matrice hermitique sont réelles.

Démonstration

On part de la relation : \[A~x=\lambda~x\qquad(1)\]

On prend les adjoints des deux membres : \[x^*A^*=x^*\overline{\lambda}=\overline{\lambda}~x^*\]

Comme \(A=A^*\), on a : \[x^*A=\overline{\lambda}~x^*\qquad(2)\]

On effectue successivement les opérations suivantes :

\[\begin{aligned} &(1)~\times~x^*~\text{à gauche}~: &x^*~A~x=\lambda~x^*~x\\ &(2)~\times~x~~~\text{à droite}~: &x^*~A~x=\overline{\lambda}~x^*~x\end{aligned}\]

Il s’ensuit que : \[(\lambda-\overline{\lambda})~x^*~x=0\]

Or, \(x\) est non nulle et \((x^*~x)\) également (norme hermitique). On a donc : \[\lambda=\overline{\lambda}\quad\Rightarrow\quad\lambda\in~\mathbb{R}\]

2.2. Propriété 2

Les vecteurs propres d’une matrice hermitique associés à des valeurs propres distinctes sont orthogonales.

Démonstration \[A~x=\lambda~x~~~(1)~~~~\text{et}~~~~A~y=\mu~y~~~(2)\quad;\quad\mu\neq\lambda\in~\mathbb{R}\]

On veut montrer que : \(x^*~y=0\).

Prenons l’adjointe de (1) :

\[\begin{aligned} &x^*A^*=\lambda~x^*\qquad(\lambda\in~\mathbb{R})\\ &A^*=A~~\Rightarrow~~x^*A=\lambda~x^*\qquad(3)\end{aligned}\]

On effectue successivement les opérations suivantes :

\[\begin{aligned} &(3)~\times~y~~~~\text{à droite}~: &x^*A~y=\lambda~x^*y\qquad(4)\\ &(2)~\times~x^*~~~\text{à gauche}~: &x^*A~y=\mu~x^*y\qquad(5)\end{aligned}\]

Et on trouve bien que : \[x^*~y~(\lambda-\mu)=0\quad\Rightarrow\quad x^*~y=0\qquad\text{car :}\quad\mu\neq\lambda\]

3. Matrices orthogonales

Plaçons-nous d’un espace euclidien.

Rappelons que, pour la norme : \[||x||^2=~^t\!x~x\]

Si, dans un tels espace, on définit une matrice qui conserve le carré de la norme d’un vecteur, cette matrice \(\Theta\) sera dite orthogonale : \[y=\Theta~x\qquad\text{alors~:}\quad||y||^2=||x||^2\]

Lemme : (\(^t\!x~A~x\)) est un scalaire, ce que le calcul permet de vérifier.

3.1. Propriétés fondamentales

Nous avons : \[y=\Theta~x\qquad\text{avec :}\quad^t\!y~y=~^t\!x~x\]

On peut encore écrire (transpositions) : \[^t\!y~y=~^t\!x~^t\!\Theta~\Theta~x=~^t\!x~x\]

Et écrit autrement (regroupement de termes) : \[^t\!x~(^t\!\Theta~\Theta-I)~x=0\qquad\forall~x\]

On en tire successivement : \[^t\!\Theta~\Theta=I\quad\text{et, en conséquence :}\quad^t\!\Theta=\Theta^{-1}\qquad(\times~\text{à droite par}~\Theta^{-1})\]

De plus : \[\det~^t\!\Theta\times\det\Theta=(\text{det}~\Theta)^2=1\quad\Rightarrow\quad\det\Theta=\pm 1\]

Il y a donc deux sortes de matrices orthogonales suivant le signe du déterminant :

\(+1\) : matrices directes ; \(-1\) : matrices indirectes.

Dans \(\mathbb{R}^3\), les \(\Theta\) directes sont les rotations.

Remarque

Une rotation indirectes est une rotation suivie d’une inversion : \[\left\{ \begin{aligned} x'=-x~;~y'=-y~;~z'=-z\\ \\ x'^2+y'^2+z'^2=x^2+y^2+z^2 \end{aligned} \right. \qquad \Theta= \begin{pmatrix} -1&0&0\\ 0&-1&0\\ 0&0&-1 \end{pmatrix}\]

4. Matrices unitaires

Considérons un espace hermitique. Un matrice \(U\) est dite unitaire si le carré de la norme hermitique est conservée.

Propriété fondamentale

Posons \(y=U~x\). Prenons les adjoints et effectuons une suite d’opérations :

\[\begin{aligned} y^*&=x^*~U^*\\ y^*~y&=x^*~U^*~U~x=x^*~x\end{aligned}\]

On a donc : \[U^*~U=I\qquad\text{soit :}\quad U^*=U^{-1}\]

Le carré du module du déterminant est égal à 1.

Réalisons à présent les opérations suivantes :

\[\begin{aligned} U~x&=\lambda~x\quad;\quad x^*~U^*=\overline{\lambda}~x^*\\ x^*~(U^*U)~x &=\overline{\lambda}~\lambda~x^*~x\end{aligned}\]

On a donc : \[x^*~x=\lambda~\overline{\lambda}~x^*~x\quad\Rightarrow\quad\lambda~\overline{\lambda}=1\]

On voit donc que \(|\lambda|^2=1\), c’est-à-dire que les valeurs propres sont de la forme \(\lambda=\exp(i~\theta)\).

Les matrices orthogonales réelles sont un cas particulier des matrices unitaires. La forme de leur valeur propre est : \[\lambda=\exp(i~\theta)\]

5. Cas des valeurs propres multiples

Pour fixer plus rapidement les idées, nous raisonnerons sur un exemple. Nous prenons pour cela la matrice \(A\) représentant l’application linéaire : \[\left\{ \begin{aligned} &x'=-x+y+z\\ &y'=x-y+z\\ &z'=x+y-z \end{aligned} \right. \qquad \Rightarrow \qquad A= \begin{pmatrix} -1&1&1\\ 1&-1&1\\ 1&1&-1 \end{pmatrix}\]

Pour les équations définissant les vecteurs propres : \[\left\{ \begin{aligned} &x~(-1-\lambda)+y+z=0\\ &x+y~(-1-\lambda)+z=0\\ &x+y+z~(-1-\lambda)=0 \end{aligned} \right. \qquad \text{ou} \qquad \left\{ \begin{aligned} -(1+\lambda)~x+y+z&=0\\ x-(1+\lambda)~y+z&=0\\ x+y-(1+\lambda)~z&=0 \end{aligned} \right.\]

Et l’équation caractéristique : \[\begin{vmatrix} -(1+\lambda)&1&1\\ 1&-(1+\lambda)&1\\ 1&1&-(1+\lambda) \end{vmatrix} =0 \qquad \Rightarrow \qquad -(\lambda-1)~(\lambda+2)^2=0\]

Donc, deux valeurs propres : \(\lambda=1\) simple,\(\quad\lambda=-2\) double.

À la valeur propre simple \(\lambda=1\), et par retour au système, on peut associer le vecteur propre : \[\overrightarrow{V}_1(1~,~1~,~1)\]

Pour la valeur propre double, le système est réduit au rang 1 et tout vecteur de composantes (\(x,~y,~z\)) tel que \(x+y+z=0\) est vecteur propre.

D’un point de vue purement géométrique l’équation \(x+y+z=0\) est celle d’un plan appelé plan propre associé à la valeur propre double.

En particulier, les deux vecteurs : \[\overrightarrow{V}_2(-1~,~1~,~0)\qquad\text{et}\qquad\overrightarrow{V}_3(1~,~1~-2)\]

qui sont de plus orthogonaux (\(\overrightarrow{V}_2\cdot\overrightarrow{V}_3=0\)) et peuvent former une base avec \(\overrightarrow{V}_1\).

6. Partition d’une matrice (matrices blocs)

La partition d’une matrice en sous-matrices (matrices blocs) peut faciliter parfois les opérations de produits de matrices.

Soient les matrices \(A=[a_{ij}]\) d’ordre \((m\times p)\) et \(B=[b_{ij}]\) d’ordre \((p\times n)\).

\(A\) peut être considérée comme \(m\) matrices d’ordre \((1\times p)\) et \(B\) comme \(n\) matrices d’ordre \((p\times 1)\).

D’autres subdivisions peuvent naturellement être utilisées. On peut ainsi subdiviser \(A\) et \(B\) de la manière suivante : \[A= \begin{pmatrix} (m_1\times p_1)&(m_1\times p_2)&(m_1\times p_3)\\ (m_2\times p_1)&(m_2\times p_2)&(m_2\times p_3) \end{pmatrix} \qquad B= \begin{pmatrix} (p_1\times n_1)&(p_1\times n_2)\\ (p_2\times n_1)&(p_2\times n_2)\\ (p_3\times n_1)&(p_3\times n_2) \end{pmatrix}\]

Ou encore, présenté autrement : \[A= \begin{pmatrix} A_{11}&A_{12}&A_{13}\\ A_{21}&A_{22}&A_{23} \end{pmatrix} \qquad B= \begin{pmatrix} B_{11}&B_{12}\\ B_{21}&B_{22}\\ B_{31}&B_{32} \end{pmatrix}\]

Ceci s’appelle une partition ou subdivision en blocs des matrices \(A\) et \(B\). On peut effectuer le produit de ces deux matrices par blocs, mais il est nécessaire que les colonnes de \(A\) soient subdivisées exactement de la même façon que les lignes de \(B\).

Par contre, \(m_1,~m_2,~n_1,~n_2\) peuvent être des entiers positifs ou nuls quelconques, mais à la condition que : \[m_1+m_2=m\qquad\text{et}\qquad n_1+n_2=n\]

Le résultat du calcul est classique : \[A\times B= \begin{pmatrix} A_{11}B_{11}+A_{12}B_{21}+A_{13}B_{31}&A_{11}B_{12}+A_{12}B_{22}+A_{13}B_{32}\\ A_{21}B_{11}+A_{22}B_{21}+A_{23}B_{31}&A_{21}B_{12}+A_{22}B_{22}+A_{23}B_{32} \end{pmatrix}\]

↑ Haut