1. Préliminaire
Une introduction au tenseur et à l’algèbre tensorielle ne saurait être sans un bref retour aux notions élémentaires d’espace vectoriel affine et d’espace métrique.
Considérons un espace \(E_n\) à \(n\) dimensions. On lui associe une base (ou repère) \(\{\overrightarrow{e_1},~\overrightarrow{e_2},~\dots,~\overrightarrow{e_n}\}\)
Un vecteur \(\overrightarrow{V}\) pourra être exprimé au moyen de la somme géométrique : \[\overrightarrow{V}=V_1~\overrightarrow{e_1}+\dots+V_n~\overrightarrow{e_n}=\sum_i V_i~\overrightarrow{e_i}\qquad i=(1,~2,~\dots,~n)\]
Nous supposons que la base est constituée par un système quelconque de \(n\) vecteurs linéairement indépendants. Ces vecteurs, unitaires pour la base considérée, ne le sont plus pour une autre base.
Si on suppose que, dans l’espace considéré, il n’est pas possible de comparer les longueurs \(|e_1|,~|e_2|,~\dots,~|e_n|\), on dira qu’il s’agit d’un espace vectoriel affine.
Si par contre il est possible de trouver un étalon qui soit comparable à toutes les longueurs \(|e_1|,~|e_2|,~\dots,~|e_n|\), on dira qu’il s’agit d’un espace métrique.
En algèbre tensorielle, il ne sera question que d’espace vectoriel affine.
2. Changement de repère
On considère à présent un nouveau repère \(\{\overrightarrow{E_1},~\overrightarrow{E_2},~\dots,~\overrightarrow{E_n}\}\).
Si nous désignons par \(\{a_M^k\}\) la projection par rapport à l’hyperplan défini par les autres axes, du vecteur \(\overrightarrow{E_M}\) (nouveau système) sur le vecteur de base \(\overrightarrow{e}_k\) (ancien système), nous avons \(n\) équations :
\[\begin{aligned} &\overrightarrow{E_1}=a_1^1~\overrightarrow{e_1}+\dots+a_1^n~\overrightarrow{e_n}=\sum_k a_1^k~\overrightarrow{e_k}\\ &\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\\ &\overrightarrow{E_n}=a_n^1~\overrightarrow{e_1}+\dots+a_n^n~\overrightarrow{e_n}=\sum_k a_n^k~\overrightarrow{e_k}\end{aligned}\]
De manière condensée,on écrira : \[\overrightarrow{E_j}=\sum_{i=1}^{i=n}a_j^i\overrightarrow{e_i}\]
L’indice supérieur des nombres \(a\) correspond à un ancien axe et l’indice inférieur à un nouvel axe.
On définit ainsi une matrice de la transformation linéaire \([A]\) telle que : \[[A]= \begin{pmatrix} a_1^1&a_1^2&\dots&a_1^n\\ a_2^1&a_2^2&\dots&a_2^n\\ \dots&\dots&\dots&\dots\\ a_n^1&a_n^2&\dots&a_n^n \end{pmatrix}\]
La matrice \([A]=[a_i^j]\) est supposée régulière, donc inversible en une matrice \([B]=[b_i^j]\) : \[\overrightarrow{e_i}=\sum_{j=1}^{j=n}b_i^j~\overrightarrow{E_j}\qquad i=(1,~2,~\dots,~n)\]
Les composantes \(b_i^j\) étant données par la relation : \[b_i^j=\frac{A_j^i}{A}\]
\(A_j^i\) est le coefficient (ou mineur) de \(a_i^j\) dans le développement du déterminant \(|A|\).
D’après la théorie des déterminants adjoints : \[|B|=\frac{1}{|A|}\quad;\quad a_k^l=\frac{B_l^k}{B}\]
Nous poserons : \[g_k^j=\sum_{i=1}^{i=n} a_i^j~b_k^i\]
Les relations suivantes sont vérifiées :
\[\begin{aligned} &g_i^j=1\quad\text{si}\quad i=j\\ &g_i^j=0\quad\text{si}\quad i\neq j\end{aligned}\]
On écrira donc, en introduisant le symbole de Kronecker \(\delta_i^j\) :
\[\begin{aligned} &\sum_m a_m^k~b_j^m=\delta_j^k\\ &\sum_k a_m^k~b_k^l=\delta_m^l \end{aligned}\]
3. Vecteurs covariants. Vecteurs contravariants
Rappelons les formules de transformation des vecteurs de base d’un repère dans l’autre et réciproquement \(\{i,~j=1,~2,~\dots,~n\}\) : \[\overrightarrow{E}_j=\sum_{i=1}^{i=n} a_j^i~\overrightarrow{e_i}\quad\Longleftrightarrow\quad\overrightarrow{e}_i=\sum_{j=1}^{j=n} b_i^j~\overrightarrow{E_j}\]
Tout vecteur qui, lors d’un changement du système de base, se transforme suivant les règles de transformation des vecteurs de base est dit vecteur covariant : l’indice des coordonnées est placé en position basse.
En général, les vecteurs usuels ne suivent pas cette règle de transformation. Ils sont dits contravariants : l’indice des coordonnées est placé en position haute.
Soit en effet un vecteur dont les composantes sont respectivement (dans l’ancien et le nouveau système): \[(x^1,~x^2~\dots,~x^n)\quad;\quad(X^1,~X^2,~\dots,~X^n)\]
On peut écrire : \[\sum_k x^k~\overrightarrow{e_k}=\sum_k\sum_l x^k~b_k^l~\overrightarrow{E_l}=\sum_l X^l~\overrightarrow{E_l}\]
On a donc : \[X^l=\sum_k b_k^l~x^k\quad\Longleftrightarrow\quad x^k=\sum_m a_m^k~X^m\]
La loi de transformation des \(x\) est en quelque sorte contraire à celle des vecteurs de base \(\overrightarrow{e}\).
On exprime ce fait en disant que les composantes d’un vecteur constituent un tenseur contravariant du premier ordre.
4. Indices muets. Indices libres
Reprenons la première formule : \[\overrightarrow{E}_j=\sum_{i=1}^{i=n} a_j^i~\overrightarrow{e_i}\qquad j=(1,~2,~\dots,~n)\]
La sommation porte sur un indice \(i=(1,~2,~\dots,~n)\). Cet indice est dit muet, car il figure deux fois dans le monôme en sommation : une fois en haut et une fois en bas.
4.1. Notation d’Einstein
Dans cette notation condensée, on n’affiche qu’un seul terme de la somme et le signe \(\sum\) disparaît, comme sous-entendu, l’indice muet (répété) étant suffisant.
Reprenons les relations précédemment écrites en supprimant le signe \(\sum\)) :
\[\begin{aligned} \overrightarrow{E_j}=a_j^i~\overrightarrow{e_i}\qquad&\Longleftrightarrow\qquad \overrightarrow{e_i}=b_i^j~\overrightarrow{E_j}\\ X^j=b_i^j~x^i\qquad&\Longleftrightarrow\qquad x^i=a_j^i~X^j\end{aligned}\]
D’où pour l’expression d’un vecteur \(\overrightarrow{V}\) : \[\overrightarrow{V}=x^i~\overrightarrow{e_i}=x^i~b_i^j~\overrightarrow{E_j}=X^j~\overrightarrow{E_j}\]
On en déduit, les \(\overrightarrow{E_j}\) étant linéairement indépendants : \[X^j=b_i^j~x^i\]
4.2. Indices libres
Reprenons la relation précédente : \[\overrightarrow{E_j}=a_j^i~\overrightarrow{e_i}\]
L’indice \(j\) figure à la même place dans les deux membres. On ne somme pas par rapport à \(j\) qui est alors un indice libre.
Cette formule résume les \(n\) équations que l’on obtiendrait en attribuant successivement à cet indice \(j\) les valeurs \(1,~2,~\dots,~n\).
5. Formes linéaires.Tenseurs covariants
Rappelons qu’une fonction \(f(\overrightarrow{X})\) de la variable vectorielle de l’espace affine est une forme linéaire si, \(\overrightarrow{X},~\overrightarrow{Y}\) étant deux vecteurs quelconques de cet espace, on a :
\[\begin{aligned} f(\overrightarrow{X}+\overrightarrow{Y})&=f(\overrightarrow{X})+f(\overrightarrow{Y})\\ f(\lambda~\overrightarrow{X})&=\lambda~f(\overrightarrow{X})\qquad\qquad\lambda~\text{quelconque}\end{aligned}\]
Par suite : \[\overrightarrow{X}=x^i~e_i\qquad\Rightarrow\qquad f(\overrightarrow{X})=f(x^i~e_i)=x^i~f(\overrightarrow{e_i})=y_i~x^i\]
Les quantités \(y_i=f(e_i)\) ne dépendent que de la base \((\overrightarrow{e_i})\). Elles définissent complètement \(f(\overrightarrow{X})\). On dit qu’elles en constituent ses coordonnées.
Effectuons le changement de repère : \[x^j=a_i^j~X^i\]
Le scalaire \(f(\overrightarrow{X})\) est évidemment invariant dans cette transformation : \[f(\overrightarrow{X})=x^j~f(\overrightarrow{e_j})=a_i^j~X^i(y_j)=Y_i~X^i\]
Cette relation étant une identité par rapport aux \(X^i\), les coefficients des coordonnées de \(\overrightarrow{X}\) dans \(f(\overrightarrow{X})\) se transforment donc suivant : \[Y_i=a_i^j~y_j\]
En multipliant les deux membres par \(b_k^i\) et en sommant les deux membres par rapport à \(i\) : \[b_k^i~Y_i=b_k^i~a_i^j~y_j=g_k^j~y_j=y_k\]
En rapprochant le premier membre et le dernier membre de cette suite d’égalités : \[y_j=b_j^i~Y_i\]
Par suite, les nouveaux \(Y\) se déduisent des anciens \(y\) au moyen des \(a\) qui déduisaient les nouveaux \(\overrightarrow{E}\) des anciens \(\overrightarrow{e}\).
Inversement, les anciens \(y\) se déduisent des nouveaux \(Y\) au moyen des \(b\). La loi de transformation des \(y\) est donc la même que celle des \(\overrightarrow{e}\).
On exprime ce fait en disant que les coordonnées \(y\) de \(f(\overrightarrow{X})\) constituent un tenseur du premier ordre.
6. Espace dual
La suite \(\{y_1,~y_2,~\dots,~y_n\}\), coordonnées de la fonction \(f(\overrightarrow{X})\), la variable \(\overrightarrow{X}\) étant un vecteur de \(E_n\), peut être considérée comme l’ensemble des coordonnées d’un vecteur \(\overrightarrow{Y}\) d’un autre espace \(E_n^*\) également à \(n\) dimensions.
Nous dirons que \(E_n^*\) est l’espace dual de \(E_n\).
Une transformation de coordonnées définie dans \(E_n\) par : \[X^j=b_i^j~x^i\quad\Longleftrightarrow\quad x^i=a_j^i~X^j\]
détermine automatiquement la transformation de coordonnées définie par les deux relations précédentes : \[Y_i=a_i^j~y^j\quad;\quad y_j=b_j^i~Y_i\]
dans \(E_n^*\) et réciproquement.
Nous dirons, pour ne pas indiquer chaque fois la base de \(E_n\), que les vecteurs de \(E_n^*\) sont covariants. La covariance d’un vecteur est indiquée par des composantes d’indices inférieurs.
Covariance et contravariance expriment des propriétés réciproques des espaces \(E_n\) et \(E_n^*\) et n’ont de sens que si l’on donne la base \((\overrightarrow{e})\) de \(E_n\) ou les formules de changement de repère.
7. Produit contracté de deux vecteurs
On appelle produit contracté de deux vecteurs de variance différente, la forme linéaire : \[\overrightarrow{X}\cdot\overrightarrow{Y}=x^i~y_i\]
D’après sa définition même, un produit contracté est invariant dans un changement de repère.
En effet : \[x^i~y_j~=~a_j^i~X^j~b_i^k~Y_k~=~g_j^k~X^j~Y_k~=~X^j~Y_j\]
De plus, si \(\overrightarrow{X}\) est un vecteur de \(E_n\) (ou de \(E_n^*\)), si \(\overrightarrow{Y}\) et \(\overrightarrow{Z}\) sont deux vecteurs de \(E_n^*\) (ou de \(E_n\)) et si \(\lambda\) est un nombre quelconque :
\[\begin{aligned} &\overrightarrow{X}\cdot\overrightarrow{Y}=\overrightarrow{Y}\cdot\overrightarrow{X} &&\text{commutativité}\\ &\overrightarrow{X}\cdot(\overrightarrow{Y}+\overrightarrow{Z})=\overrightarrow{X}\cdot\overrightarrow{Y}+\overrightarrow{X}\cdot\overrightarrow{Z} &&\text{distributivité}\\ &(\lambda~\overrightarrow{X})\cdot\overrightarrow{Y}=\overrightarrow{X}\cdot(\lambda~\overrightarrow{Y})=\lambda~(\overrightarrow{X}\cdot\overrightarrow{Y}) &&\text{associativité du produit par un nombre}\end{aligned}\]
8. Formes multilinéaires et tenseurs
Considérons un ensemble de vecteurs contravariants de \(E_n\), par exemple 3 :
\[\begin{aligned} &\overrightarrow{X}=\{x^1,~x^2,~\dots,~x^n\}\\ &\overrightarrow{Y}=\{y^1,~y^2,~\dots,~y^n\}\\ &\overrightarrow{Z}=\{z^1,~z^2,~\dots,~z^n\}\end{aligned}\]
et des vecteurs covariants de son espace dual \(E_n^*\), par exemple 2 :
\[\begin{aligned} &\overrightarrow{U}=\{u^1,~u^2,~\dots,~u^n\}\\ &\overrightarrow{V}=\{v^1,~v^2,~\dots,~v^n\}\end{aligned}\]
On appelle forme multilinéaire toute fonction scalaire d’un nombre quelconque de ces vecteurs, linéaire par rapport à chacun d’eux.
8.1. Tenseur covariant
La forme trilinéaire \(f(\overrightarrow{X},~\overrightarrow{Y},~\overrightarrow{Z})\) peut s’écrire : \[f(\overrightarrow{X},~\overrightarrow{Y},~\overrightarrow{Z})=t_{ijk}~x^i~y^j~z^k\]
où les \(t_{ijk}=f(\overrightarrow{e_i},~\overrightarrow{e_j}~,\overrightarrow{e_k})\) sont des coefficients numériques qui ne dépendent que du repère choisi.
La forme trilinéaire \(f(\overrightarrow{X},~\overrightarrow{Y},~\overrightarrow{Z})\), scalaire, est donc invariante dans tout changement de base.
Or, dans le nouveau repère : \[f(\overrightarrow{X},~\overrightarrow{Y},~\overrightarrow{Z})=X^l~Y^m~Z^n~f(\overrightarrow{E_l},~\overrightarrow{E_m},~\overrightarrow{E_n})=X^l~Y^m~Z^n~T_{lmn}\]
Par suite : \[T_{lmn}~X^l~Y^m~Z^n=t_{ijk}~x^i~y^j~z^k=t_{ijk}~a_l^i~a_m^j~a_n^k~X^l~Y^m~Z^n\]
Cette relation étant une identité par rapport aux vecteurs \(\overrightarrow{X},~\overrightarrow{Y},~\overrightarrow{Z}\), on en déduit que : \[T_{lmn}=a_l^i~a_m^j~a_n^k~t_{ijk}\]
Nous dirons que la forme trilinéaire \(f(\overrightarrow{X},~\overrightarrow{Y},~\overrightarrow{Z})\) définit un tenseur covariant du troisième ordre ayant pour composantes (ou coordonnées) les coefficients \(t_{ijk}\) de cette forme.
8.2. Tenseur contravariant
La forme bilinéaire \(f(\overrightarrow{U},~\overrightarrow{V})\) peut s’écrire : \[f(\overrightarrow{U},~\overrightarrow{V})=t^{ij}~u_i~v_j\]
Les \(t^{ij}\) ne dépendant que du repère choisi. Un calcul analogue au précédent et utilisant la covariance des vecteurs \(\overrightarrow{U},~\overrightarrow{V}\) conduit à : \[T^{lm}=b_i^l~b_j^m~~t^{ij}\]
Nous dirons que la forme bilinéaire définit un tenseur contrevariant du deuxième ordre ayant pour composantes (coordonnées) les coefficients \(t^{ij}\) de cette forme.
8.3. Tenseurs mixtes
La forme trilinéaire \(f(\overrightarrow{X},~\overrightarrow{U},~\overrightarrow{V})\) peut s’écrire : \[f(\overrightarrow{X},~\overrightarrow{U},~\overrightarrow{V})=t_i^{jk}~x^i~u_j~v_k\]
où les coefficients numériques \(t_i^{jk}\) ne dépendent que du repère choisi et non des vecteurs \(\overrightarrow{X},~\overrightarrow{U},~\overrightarrow{V}\).
En appliquant à ces vecteurs arbitraires les formules de changement de base : \[T_l^{mn}=a_l^i~b_j^m~b_k^n~~t_i^{ljk}\]
Nous dirons que la forme \(f(\overrightarrow{X},~\overrightarrow{U},~\overrightarrow{V})\) définit un tenseur mixte du troisième ordre une fois covariant et deux fois contravariant, ayant pour composantes (ou coordonnées) les coefficients \(t_i^{jk}\) de cette forme.
L’indice inférieur \((i)\) indique la covariance des composantes et les deux indices supérieurs \((j)\) et \((k)\) indiquent leur double contravariance.
9. Définition général du tenseur
Soit un ensemble de \(n^p\) nombres \(t_i^{jk}\) affectés chacun de \(q\) indices supérieurs et \(r\) indices inférieurs, rattachant, à \(p=q+r\) titres différents, chaque nombre à \(p\) des axes de coordonnées (\(p\leq n\)).
Par définition, ces nombres constituent les composantes d’un tenseur du \(p^{\text{ième}}\) ordre si, par un changement de coordonnées, ils se transforment par la loi : \[T_u^{vw}=a_u^i~b_j^v~b_k^w~~t_i^{jk}\]
faisant intervenir :
-
un \(a\) pour chaque indice inférieur (covariant) ;
-
un \(b\) pour chaque indice supérieur (contravariant).
Le tenseur est autant de fois covariant qu’il y a d’indices inférieurs (ceux de ses composantes) et autant de fois contravariant qu’il y a d’indices supérieurs (ceux de ses composantes).
L’ensemble des \(n^p\) nombres considérés constitue un tenseur qui présente la variance indiquée.
Remarquons que \(a\) et \(b\) ne sont pas des tenseurs, car leurs indices sont relatifs à deux repères différents : ils sont placés pour respecter la loi de sommation.
En vertu de la réciprocité des formules : \[\overrightarrow{E_j}=a_j^i~\overrightarrow{e_i}\quad\Longleftrightarrow\quad\overrightarrow{e_i}=b_i^j~\overrightarrow{E_j}\]
le système précédent, résolu par rapport aux \(t_i^{jk}\), devient : \[t_i^{jk}=b_i^u~a_v^j~a_w^k~~T_u^{vw}\]
Ce système de \(n^p\) équations peut d’ailleurs s’obtenir d’une façon directe très simple. Il suffit de multiplier les deux membres de la relation précédente : \[T_u^{vw}=a_u^i~b_j^v~b_k^w~~t_i^{jk}\]
successivement par : \[a_w^{k'},~a_v^{j'},~b_{i'}^u\]
et de sommer les indices muets \(w,~v,~u\) de ces faux monômes.
– À la première opération, on obtient : \[a_w^{k'}~~T_u^{vw}=a_w^{k'}~(a_u^i~b_j^v~b_k^w~~t_i^{jk})=a_u^i~~t_i^{jk'}\]
en ayant tenu compte de la relation : \[a_w^{k'}~b_k^w=g_k^{k'}\quad\text{nul pour}~~k\neq k'\]
– À la deuxième opération : \[a_v^{j'}~a_w^{k'}~~T_u^{vw}=a_v^{j'}~(a_u^i~b_j^v~~t_i^{jk'})=a_u^i~~t_i^{jk'}\]
en ayant tenu compte de la relation : \[a_v^{j'}~b_j^v=g_j^{j'}\quad\text{nul pour}~~j\neq j'\]
– À la troisième opération : \[b_{i'}^u~a_v^{j'}~a_w^{k'}~~T_u^{vw}=b_{i'}^u~(a_u^i~~t_i^{j'k'})=t_i^{j'k'}\]
en ayant tenu compte de la relation : \[a_u^i~b_{i'}^u=g_{i'}^i\quad\text{nul pour}~i\neq i'\]
10. Déterminant d’un tenseur du second ordre
Un tenseur du second ordre admet \(n^2\) composantes avec lesquelles on peut former un déterminant, le déterminant du tenseur.
Étant donné par exemple un tenseur deux fois covariant \(t_{ij}\) d’un espace affine à trois dimensions, on appelle déterminant de ce tenseur le déterminant : \[d~=~ \begin{vmatrix} t_{11}&t_{12}&t_{13}\\ t_{21}&t_{22}&t_{23}\\ t_{31}&t_{32}&t_{33} \end{vmatrix}\]
Si nous changeons de repère, ses composantes deviennent : \[T_{uv}=a_u^i~a_v^j~~t_{ij}\]
de sorte qu’il admet les composantes intermédiaires : \[\Theta_{iv}=b_i^u~T_{uw}=a_v^j~t_{ij}\]
Par suite : \[T_{uw}=a_u^i~\Theta_{iv}\]
En désignant par \(\delta\) et \(A\) les déterminants respectifs de \(\Theta\) et de \(a\), la théorie des déterminants permet d’écrire que : \[\delta=A~d\]
Par suite, le déterminant \(D\) associé à \(T\) sera : \[D=A^2~d\]
On verrait de même que le déterminant d’un tenseur deux fois contravariant est multiplié par \(B^2\), carré du déterminant des \(b\), et que le déterminant d’un tenseur mixte du second ordre est inchangé si l’on effectue un changement de base.
Dans le cas général d’un espace affine à \(n\) dimensions, le même raisonnement montre que le déterminant d’un tenseur deux fois covariant est multiplié par \(A^{n-1}\), celui d’un tenseur deux fois contravariant par \(B^{n-1}\), et celui d’un tenseur mixte du second ordre inchangé.