1. Moment d’ordre 1 ou espérance mathématique
Considérons pour commencer le cas de la variable discrète, plus facile à appréhender. Supposons qu’au cours de \(N\) expériences la variable aléatoire \(X\) ait pris \(m_1\) fois la valeur \(x_1\), \(m_2\) fois la valeur \(x_2\)..., \(m_n\) fois la valeur \(x_n\).
On a naturellement : \[\sum_{i=1}^{i=N}m_i=N\]
On obtient une moyenne arithmétique : \[M(X)=\frac{m_1x_1+m_2x_2+ \cdots +m_nx_n}{N}\]
Quand \(N\) augmente indéfiniment, on a (voir le chapitre 2) : \[\frac{m_i}{N}\rightarrow p_i\]
L’expression \( M(X)=E(X)=\sum_{i=1}^{i=N}p_ix_i \) est appelée espérance mathématique ou moyenne parfois notée \(\overline{X}\).
Pour une variable continue, il suffit de procéder par analogie : \[E(X)=\int_{-\infty}^{+\infty}x~f(x)~dx\]
Une variable aléatoire \(X\) telle que \(E(X)=\overline{X}=0\) est dite centrée.
1.1. Changement de variable par translation
Remplaçons \(X\) par \(X+a\).
En variable discrète :
\[\begin{aligned} E(X+a)&=\sum_i p_i(x_i+a)=\sum_i p_ix_i +a\sum_i p_i \\ E(X+a)&=E(X)+a\end{aligned}\]
En variable continue :
\[\begin{aligned} E(X+a)&=\int_{-\infty}^{+\infty}(x+a)~f(x)~dx=\int_{-\infty}^{+\infty}x~f(x)~dx+a\int_{-\infty}^{+\infty}f(x)~dx \\ E(X+a)&=E(X)+a\end{aligned}\]
1.2. Changement de variable par homothétie
Cette fois, remplaçons \(X\) par \(aX\).
On démontrerait de même que \(E(aX)=a~E(X)\)
2. Le théorème de la moyenne
Considérons plus généralement une fonction de la variable aléatoire \(Y=g(X)\).
On démontre que la moyenne de cette fonction est : \[E\big\{g(X)\big\}=\int_{-\infty}^{+\infty}g(x)~f(x)~dx\]
L’espérance mathématique (ou moment d’ordre 1) constitue une application de ce théorème sur la fonction élémentaire constituée par la variable elle-même. On peut ainsi définir des moments plus élevés de la variable (ordre 2, ordre 3, etc.).
\[\begin{aligned} &\text{En variable discrète :} &&m_k=E(x^k)=\sum p_i~x_i^k \\ &\text{En variable continue~:} &&m_k=E(x^k)=\int_{-\infty}^{+\infty}x^kf(x)~dx\end{aligned}\]
3. Variance. Écart-type
La variance correspond, par définition, au moment centré d’ordre 2.
Elle est notée : \[\sigma_x^2=E\big\{(X-m_1)^2\big\}\]
On écrira donc suivant les cas :
\[\begin{aligned} &\text{En variable discrète :} &\sigma_x^2&=\sum p_i(x_i-m_1)^2 \\ &\text{En variable continue :} &\sigma_x^2&=\int_{-\infty}^{+\infty}(x_i-m_1)^2f(x)~dx\end{aligned}\]
L’écart-type \(\sigma_x\) est la racine carrée de la variance.
3.1. Théorème
Effectuons un calcul élémentaire de la variance, compte tenu des propriétés établies précédemment :
\[\begin{aligned} \sigma_x^2&=E\{(X-m_1)^2\}=E(X^2-2m_1X+m_1^2) \\ &=E(X^2)-2m_1E(X)+m_1^2=E(X^2)-m_1^2 \\ \sigma_x^2&=m_2^2-m_1^2\end{aligned}\]
Une variable aléatoire \(X\) est normale si \(\sigma_x=1\).
Une variable aléatoire \(X\) est réduite si \(E(X)=0\) et \(\sigma_x=1\).
3.2. Changement de variable
NB : La notation barre qui suit signifie moyenne.
Effet d’une translation :
\[\begin{aligned} \sigma_{x+a}^2&=E\big\{(X+a)-\overline{(X+a)}\big\}^2 \\ &=E\big\{X+a-\overline{X}-a\big\}^2=E\big\{X-\overline{X}\big\}^2 \\ \sigma_{x+a}^2&=\sigma_x^2\end{aligned}\]
La variance est donc conservée dans une transformation par translation.
Effet d’une homothétie :
\[\begin{aligned} \sigma_{ax}^2&=E\big\{(aX)-\overline{(aX)}\big\}^2=a^2E\big\{(X)-E(X)\big\}^2 \\ &=a^2\big\{E(X^2)-[E(X)]^2\big\}=a^2(m^2-m_1^2) \\ \sigma_{ax}^2&=a^2~\sigma_x^2\end{aligned}\]
4. Exercice d’application classique
Une variable aléatoire \(X\) a pour moyenne \(m_x\) et pour écart-type \(\sigma_x\).
On effectue le changement de variable : \[Y=\frac{X-m_x}{\sigma_x}\]
Montrer que \(Y\) est une variable réduite.
Réponse
Il faut montrer que \(m_y=0\) et \(\sigma_y=1\).
Calcul de la moyenne : \[m_y=E(Y)=E\left\{\frac{X-m_x}{\sigma_x}\right\}=\frac{1}{\sigma_x}E(X-m_x)=0\]
La variable est donc bien centrée. Il s’ensuit que \(\sigma_y^2=E(Y^2)\).
Calculons alors \(E(Y^2)\) : \[E(Y^2)=E\left\{\left[\frac{X-m_x}{\sigma_x}\right]^2\right\}=\frac{1}{\sigma_x^2}E(X-m_x)^2=\frac{1}{\sigma_x^2}\cdot\sigma_x^2=1\]