V. Moments d'une variable aléatoire

Arrow s1

Plan du site

Calcul des moments d'une variable aléatoire. Notion d'espérance mathématique, variance (et écart type). Théorème de la moyenne. Changements de variable (translation et homothétie).

1. Moment d’ordre 1 ou espérance mathématique

Considérons pour commencer le cas de la variable discrète, plus facile à appréhender. Supposons qu’au cours de \(N\) expériences la variable aléatoire \(X\) ait pris \(m_1\) fois la valeur \(x_1\), \(m_2\) fois la valeur \(x_2\)..., \(m_n\) fois la valeur \(x_n\).

On a naturellement : \[\sum_{i=1}^{i=N}m_i=N\]

On obtient une moyenne arithmétique : \[M(X)=\frac{m_1x_1+m_2x_2+ \cdots +m_nx_n}{N}\]

Quand \(N\) augmente indéfiniment, on a (voir le chapitre 2) : \[\frac{m_i}{N}\rightarrow p_i\]

L’expression \( M(X)=E(X)=\sum_{i=1}^{i=N}p_ix_i \) est appelée espérance mathématique ou moyenne parfois notée \(\overline{X}\).

Pour une variable continue, il suffit de procéder par analogie : \[E(X)=\int_{-\infty}^{+\infty}x~f(x)~dx\]

Une variable aléatoire \(X\) telle que \(E(X)=\overline{X}=0\) est dite centrée.

1.1. Changement de variable par translation

Remplaçons \(X\) par \(X+a\).

En variable discrète :

\[\begin{aligned} E(X+a)&=\sum_i p_i(x_i+a)=\sum_i p_ix_i +a\sum_i p_i \\ E(X+a)&=E(X)+a\end{aligned}\]

En variable continue :

\[\begin{aligned} E(X+a)&=\int_{-\infty}^{+\infty}(x+a)~f(x)~dx=\int_{-\infty}^{+\infty}x~f(x)~dx+a\int_{-\infty}^{+\infty}f(x)~dx \\ E(X+a)&=E(X)+a\end{aligned}\]

1.2. Changement de variable par homothétie

Cette fois, remplaçons \(X\) par \(aX\).

On démontrerait de même que \(E(aX)=a~E(X)\)

2. Le théorème de la moyenne

Considérons plus généralement une fonction de la variable aléatoire \(Y=g(X)\).

On démontre que la moyenne de cette fonction est : \[E\big\{g(X)\big\}=\int_{-\infty}^{+\infty}g(x)~f(x)~dx\]

L’espérance mathématique (ou moment d’ordre 1) constitue une application de ce théorème sur la fonction élémentaire constituée par la variable elle-même. On peut ainsi définir des moments plus élevés de la variable (ordre 2, ordre 3, etc.).

\[\begin{aligned} &\text{En variable discrète :} &&m_k=E(x^k)=\sum p_i~x_i^k \\ &\text{En variable continue~:} &&m_k=E(x^k)=\int_{-\infty}^{+\infty}x^kf(x)~dx\end{aligned}\]

3. Variance. Écart-type

La variance correspond, par définition, au moment centré d’ordre 2.

Elle est notée : \[\sigma_x^2=E\big\{(X-m_1)^2\big\}\]

On écrira donc suivant les cas :

\[\begin{aligned} &\text{En variable discrète :} &\sigma_x^2&=\sum p_i(x_i-m_1)^2 \\ &\text{En variable continue :} &\sigma_x^2&=\int_{-\infty}^{+\infty}(x_i-m_1)^2f(x)~dx\end{aligned}\]

L’écart-type \(\sigma_x\) est la racine carrée de la variance.

3.1. Théorème

Effectuons un calcul élémentaire de la variance, compte tenu des propriétés établies précédemment :

\[\begin{aligned} \sigma_x^2&=E\{(X-m_1)^2\}=E(X^2-2m_1X+m_1^2) \\ &=E(X^2)-2m_1E(X)+m_1^2=E(X^2)-m_1^2 \\ \sigma_x^2&=m_2^2-m_1^2\end{aligned}\]

Une variable aléatoire \(X\) est normale si \(\sigma_x=1\).

Une variable aléatoire \(X\) est réduite si \(E(X)=0\) et \(\sigma_x=1\).

3.2. Changement de variable

NB : La notation barre qui suit signifie moyenne.

Effet d’une translation :

\[\begin{aligned} \sigma_{x+a}^2&=E\big\{(X+a)-\overline{(X+a)}\big\}^2 \\ &=E\big\{X+a-\overline{X}-a\big\}^2=E\big\{X-\overline{X}\big\}^2 \\ \sigma_{x+a}^2&=\sigma_x^2\end{aligned}\]

La variance est donc conservée dans une transformation par translation.

Effet d’une homothétie :

\[\begin{aligned} \sigma_{ax}^2&=E\big\{(aX)-\overline{(aX)}\big\}^2=a^2E\big\{(X)-E(X)\big\}^2 \\ &=a^2\big\{E(X^2)-[E(X)]^2\big\}=a^2(m^2-m_1^2) \\ \sigma_{ax}^2&=a^2~\sigma_x^2\end{aligned}\]

4. Exercice d’application classique

Une variable aléatoire \(X\) a pour moyenne \(m_x\) et pour écart-type \(\sigma_x\).

On effectue le changement de variable : \[Y=\frac{X-m_x}{\sigma_x}\]

Montrer que \(Y\) est une variable réduite.

Réponse

Il faut montrer que \(m_y=0\) et \(\sigma_y=1\).

Calcul de la moyenne : \[m_y=E(Y)=E\left\{\frac{X-m_x}{\sigma_x}\right\}=\frac{1}{\sigma_x}E(X-m_x)=0\]

La variable est donc bien centrée. Il s’ensuit que \(\sigma_y^2=E(Y^2)\).

Calculons alors \(E(Y^2)\) : \[E(Y^2)=E\left\{\left[\frac{X-m_x}{\sigma_x}\right]^2\right\}=\frac{1}{\sigma_x^2}E(X-m_x)^2=\frac{1}{\sigma_x^2}\cdot\sigma_x^2=1\]

↑ Haut