XI. Couples de variables aléatoires continues

Arrow s1

Plan du site

Définitions. Probabilités marginales et conditionnelles. Fonction de répartition et densité de probabilité. Espérance mathématique de somme et de produit de variables aléatoires. Densité de probabilité d'une somme de variables indépendantes ; produit de convolution.

1. Définitions

Couple de variables aléatoires continuesUn couple de variables aléatoires continues \((X,Y)\) est défini par sa densité de probabilité \(f(x,y)\). Cette densité doit respecter la condition de normalisation, c’est-à-dire que, intégrée à tout l’espace de probabilité, on doit avoir : \[\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}f(x,y)~dx~dy=1\]

L’expression de la probabilité est classique : \[Pr\big\{(x,y)\in A\big\}=\int\int_Af(x,y)~dx~dy\]

2. Probabilités marginales

Par analogie avec le cas des variables discrètes,on peut définir des variables marginales, les probabilités associées ainsi que les espérances mathématiques et les moments.

\[\begin{aligned} f_x(x)=\int_{-\infty}^{+\infty}f(x,y)~dx~dy \qquad x \text{ fixé} \\ f_y(y)=\int_{-\infty}^{+\infty}f(x,y)~dx~dy \qquad y \text{ fixé}\end{aligned}\]

D’où les valeurs moyennes marginales :

\[\begin{aligned} E(X)=\int_{-\infty}^{+\infty}x~f_x(x)~dx=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}x~f(x,y)~dx~dy\\ E(Y)=\int_{-\infty}^{+\infty}y~f_y(y)~dy=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}y~f(x,y)~dx~dy\end{aligned}\]

3. Probabilités conditionnelles

On part de la formule générale : \[Pr(B/A)=\frac{Pr(B\cap A)}{Pr(A)}\]

En se situant toujours sur un intervalle \((dx,dy)\), cela reviendra à écrire : \[Pr(y<Y<y+dy~/~x<X<x+dx)=\frac{Pr(y<Y<y+dy,~x<X<x+dx)}{Pr(x<X<x+dx)}\]

En faisant tendre \(dx\rightarrow 0\), le premier membre peut s’écrire : \[Pr(y<Y<y+dy~/~X=x)=f(y/x)~dx\]

On reconnaît l’expression de la densité de probabilité conditionnelle de \(y\), \(x\) étant réalisée.

On peut alors écrire : \[\frac{Pr(y<Y<y+dy,~x<X<x+dx)}{Pr(x<X<x+dx)}=\frac{f(x,y)~dx~dy}{f_x(x)~dx}=\frac{f(x,y)~dy}{f_x(x)}\]

En définitive, les expressions respectives des densités de probabilité marginales seront : \[f(y/x)=\frac{f(x,y)}{f_x(x)} \quad ; \quad f(x/y)=\frac{f(x,y)}{f_y(y)}\]

4. Variables indépendantes

Dans ce cas, la réalisation de \(X\) n’a aucune influence sur la réalisation de \(Y\). On obtient un résultat analogue à celui du cas discret : \[f(y/x)=f_y(y) \ \ \ \rightarrow f(x,y)=f_x(x)~f_y(y)\]

5. Fonction de répartition

Fonction de répartitionLe raisonnement est celui de la simple extension du cas discret, le déplacement du point courant \(P\) ne s’effectuant plus sur une droite mais sur une surface : \[F(\alpha,\beta)=Pr(X<\alpha,~Y<\beta)=Pr(X,Y)\in (D)\]

avec le respect des conditions suivantes :

\[\begin{aligned} &F(X,Y)>0 \\ &F(+\infty,+\infty)=1 && (X,Y) \text{ est sûrement quelque part} \\ &F(-\infty,y)=0 && X \text{ ne peut être inférieur à } -\infty\\ &F(x,-\infty)=0 && Y \text{ ne peut être inférieur à } -\infty\end{aligned}\]

6. Relations avec la densité de probabilité

Surface élémentaireLe calcul de la probabilité revient toujours à un calcul sur la fonction de répartition. Le recours à la représentation par une surface permet de mieux comprendre la formulation (additions et soustractions de surface) : \[Pr\{(X,Y)\in D\}=F(x_2,y_2)+F(x_1,y_1)-F(x_1,y_2)-F(x_2,y_1)\]

Posons : \[x_2-x_1=\Delta x \quad ; \quad y_2-y_1=\Delta y\]

Et adoptons, pour la commodité des calculs, la convention suivante : \[x_1 \rightarrow x \quad \text{et} \quad y_1 \rightarrow y\]

On a alors : \[Pr\{(X,Y)\in D\}=F(x+\Delta x,~y+\Delta y)-F(x,~y+\Delta y)-F(x+\Delta x,~y)+F(x,y)\]

Divisons les deux membres de cette relation par \(\Delta x\) et \(\Delta y\). Faisant \(\Delta x \rightarrow 0\) et \(\Delta y \rightarrow 0\), on a, (calcul analogue à celui d’une seule variable) : \[\frac{Pr\{(X,Y)\in D\}}{\Delta x\Delta y} \rightarrow f(x,y) \qquad \text{densité de probabilité}\] \[\frac{F(x+\Delta x,~y+\Delta y)-F(x,~y+\Delta y)-F(x+\Delta x,~y)+F(x,y)}{\Delta y\Delta x}\rightarrow \frac{\partial^2F}{\partial x~\partial y}\]

Ce qui revient à dire que : \[f(x,y)=\frac{\partial^2F}{\partial x~\partial y}\]

7. Exemple. Étude complète

On considère le couple de variables aléatoires de densité de probabilité : \[f(x,y)=\frac{1}{\pi^2(x^2+y^2+x^2y^2+1)}\]

On voit immédiatement que l’on peut écrire : \[f(x,y)=\frac{1}{\pi(1+x^2)}\cdot\frac{1}{\pi(1+y^2)}\]

Et en déduire que : \[f(x,y)=f_x(x)~f_y(x)\]

avec : \[f_x(x)=\frac{1}{\pi(1+x^2)} \quad ; \quad f_y(y)=\frac{1}{\pi(1+y^2)}\]

Ce qui signifie que les variables X et Y sont indépendantes.

On peut par ailleurs vérifier (normalisation de la densité) que : \[\int\int_{R2}f(x,y)~dx~dy=1\]

On voit tout de suite que les variables d’intégration sont séparées, l’intégration double revenant au produit de deux intégrales identiques, de sorte que : \[I=\left\{\int_{-\infty}^{+\infty}\frac{du}{\pi(1+u^2)}\right\}^2=\frac{1}{\pi^2}\Bigl[Atan(u)\Bigr]_{-\infty}^{+\infty}=1\]

Enfin, la probabilité pour qu’un point donné tombe dans un carré élémentaire \([0<x<1 , 0<y<1]\) est égale à : \[J=\left\{\int_0^1\frac{du}{\pi(1+u^2)}\right\}^2=\frac{1}{\pi^2}\left(\frac{\pi}{4}\right)^2=\frac{1}{16}\]

8. Espérances mathématiques de sommes et de produits

Ces calculs d’intégration des espérances mathématiques de sommes et de produits sont élémentaires. Ils conduisent, ce qui peut se concevoir intuitivement, à :

\[\begin{aligned} E(X+Y)&=E(X)+E(Y) && \text{dans tous les cas} \\ E(XY)&=E(X)~E(Y) && \text{quand les variables sont indépendantes}\end{aligned}\]

9. Densité de probabilité d’une somme de variables indépendantes

On considère un couple \((X,Y)\) de variables aléatoires indépendantes et leur somme \(S=X+Y\).

On leur associe les densités de probabilité respectives : \[(X,Y) \ \rightarrow \ f(x,y) \quad ; \quad S=X+Y \ \rightarrow ~g(s)\]

On veut connaître l’expression de \(g(s)\) en considérant le domaine \(D\) délimité par les deux droites d’équation \(x+y=s\) et \(x+y=s+ds\)

La probabilité : \[Pr\{M(x,y)\in D\}=\int\int_Df(x,y)~dx~dy\]

s’exprime par : \[g(s)~ds=Pr(s<S<s+ds)=Pr(s<X+Y<s+ds)\]

On a donc : \[g(s)~ds=\int_{-\infty}^{+\infty}dx\int_{s-x}^{s-x+ds}f(x,y)~dy=ds\int_{-\infty}^{+\infty}f(x,s-x)~dx\]

Soit : \[g(s)=\int_{-\infty}^{+\infty}f(x,s-x)~dx\]

Si les variables sont indépendantes : \[f(x,s-x)=f_1(x)~f_2(s-x)\]

On a alors le produit de convolution que l’on recherchait : \[g(s)=\int_{-\infty}^{+\infty}f_1(x)~f_2(s-x)~dx=(f_1\star f_2)(s)\]

↑ Haut