1. Définitions
Soit \((X,Y)\) un couple de variables aléatoires discrètes : \[X=(x_1,~x_2,~\dots,~x_n) \quad ; \quad Y(y_1,~y_2,~\dots,~y_m)\]
À tout couple de valeurs \((x_i,y_i)\), on associe une probabilité : \[p_{ij}=Pr(X=x_i ~ ; ~ Y=y_i) \qquad\quad p_{ij}\geq 0 \quad ; \quad \sum_{ij}p_{ij}=1\]
La fonction de répartition est alors représentée par une surface : \[F(x,y)=Pr(X<x ~ ; ~ Y<y)\]
2. Variables marginales
Les variables \(X\) et \(Y\) prises individuellement sont dites marginales. L’événement aléatoire \((X=x_i)\) doit être considéré dans un ensemble de possibilités s’excluant mutuellement : \[(X=x_i)=(X=x_i~;~Y=y_i)~\cup~\dots~\cup~(X=x_i~;~Y=y_m)\]
Cette forme axiomatique montre immédiatement que : \[Pr(X=x_i)=p_{i1}+p_{i2}+\dots+p_{im}\]
On aura donc pour les deux probabilités marginales du couple : \[Pr(X=x_i)=\sum_{j=1,m}p_{ij} \qquad i \text{ fixe}\] \[Pr(Y=y_j)=\sum_{i=1,n}p_{ij} \qquad j \text{ fixe}\]
Une convention d’écriture (une variable fixée et l’autre courante) permet de s’affranchir du signe de sommation quand il porte sur une seule variable : \[p_{i\bullet} = p_{i1}+p_{i2}+p_{i3}+ . . . . +p_{im}\] \[p_{\bullet j} = p_{1j}+p_{2j}+p_{3j}+ . . . . +p_{nj}\]
3. Tableau de répartition
La construction de la matrice s’obtient à partir des probabilités conditionnelles. Elle correspond aux différentes combinaisons de \((x_i\cap y_j)\). On écrira que (probabilités conditionnelles) : \[p_{ij}=Pr(x_i\cap y_j)=Pr(X=x_i~/~Y=y_j)~ Pr(Y=y_j)\]
Pour expliquer la méthode de construction de la matrice correspondante, nous prendrons un exemple très simple. Celui du tirage des boules dans une urne.
Une urne contient 4 boules noires \(N\) et 8 boules blanches \(B\). On effectue deux tirages d’une boule sans remplacement et on associe à ces deux tirages deux variables aléatoires : \[X=0~\text{ si tirage 1}=N \qquad Y=0~\text{ si tirage 2}=N\] \[X=1~\text{ si tirage 1}=B \qquad Y=1~\text{ si tirage 2}=B\]
Avant le premier tirage (12 boules), les probabilités a priori sont respectivement : \[Pr(X_0)=4/12=1/3 \quad ; \quad Pr(X_1)=8/12=2/3\]
Au moment du deuxième tirage (11 boules), les possibilités restantes sont respectivement : \[Pr(Y_0/X_0)=3/11 \quad ; \quad Pr(Y_0/X_1)=4/11\] \[Pr(Y_1/X_0)=8/11 \quad ; \quad Pr(Y_1/X_1)=7/11\]
D’où les éléments du tableau \(\{a_{ij}\}\) : \[Pr(Y_0\cap X_0)=\frac{3}{11}\times\frac{1}{3}=\frac{1}{11} \qquad \{a_{11}\}\] \[Pr(Y_0\cap X_1)=\frac{4}{11}\times\frac{2}{3}=\frac{8}{33} \qquad \{a_{12}\}\] \[Pr(Y_1\cap X_0)=\frac{8}{11}\times\frac{1}{3}=\frac{8}{33} \qquad \{a_{21}\}\] \[Pr(Y_1\cap X_1)=\frac{7}{11}\times\frac{2}{3}=\frac{14}{33} \qquad \{a_{22}\}\]
4. Variables aléatoires indépendantes
Les deux notations \(p_{i\bullet}\) et \(p_{\bullet j}\) peuvent être utilisées pour compléter les bordures du tableau de répartition, sachant qu’elles représentent la somme des éléments d’une ligne ou d’une colonne. Ainsi, \(p_{\bullet 1}\) représentera la somme des éléments de la première ligne du tableau précédent.
Revenant à l’aspect général, on dit que les variables aléatoires \(X\) et \(Y\) sont indépendantes si, lorsque \(X = x_i\), la probabilité conditionnelle des valeurs de \(Y\) ne dépend pas de \(x_i\). On démontre alors que : \[p_{ij}=p_{i\bullet}~p_{\bullet j}\]
Réciproquement : \[p_{ij}=p_{i\bullet}~p_{\bullet j} \quad \forall i ~~ \forall j \quad \Rightarrow \quad X \text{ et $Y$ indépendantes}\]
Dans le cas du tirage dans l’urne, on obtient des variables indépendantes si, après chaque tirage effectué, la boule tirée est remise dans l’urne pour le tirage suivant. Ce qui est facilement vérifiable sur l’exemple précédent.
5. Opérations élémentaires
5.1. Somme de deux variables
Au couple \((x_i;y_j)\), on associe \((x_i+y_j)\) de probabilité \(p_{ij}\) et on s’intéresse à \(Z=X+Y\), variable aléatoire dont le tableau de répartition est : \[Z= \begin{Bmatrix} x_i+y_j\\ p_{ij} \end{Bmatrix}\]
On voit intuitivement, même si les variables ne sont pas indépendantes, que : \[Z=X+Y \quad \Rightarrow \quad E(Z)=E(X)+E(Y)\]
Ce qui se démontre aisément : \[E(Z)=\sum_i\sum_j p_{ij}(x_i+y_j)=\sum_i\sum_j p_{ij}~x_i+\sum_i\sum_j p_{ij}~y_j\]
Or, on a : \[\sum_i\sum_j p_{ij}~x_i=\sum_i (p_{i1}+p_{i2}+ \dots + p_{im})~x_i=\sum_i p_i~x_i=E(X)\]
De même pour \(Y\).
5.2. Produit de deux variables
On pose : \[Z=X.Y= \begin{Bmatrix} x_i~y_j\\ p_{ij} \end{Bmatrix}\] \[E(Z)=E(X.Y)=\sum_{ij}p_{ij}~x_i~y_j\]
Si les variables sont indépendantes : \[p_{ij}= p_{i\bullet}~ p_{\bullet j}\]
On peut alors écrire :
\[\begin{aligned} E(Z)&=\sum_{i,j}(p_{i\bullet}~ p_{\bullet j})~x_i~y_j\\ E(Z)&=\sum_{i,j}(p_{i\bullet}~x_i)(p_{\bullet j}~y_j)\\ E(Z)&=\biggl(\sum_{i,j}p_{i\bullet}~x_i\biggr)\biggl(\sum_{i,j}p_{\bullet j}~y_j\biggr)\end{aligned}\]
En conclusion : \[X \text{ et $Y$ indépendantes : }\quad Z=X.Y \quad \Rightarrow \quad E(X.Y)=E(X).E(Y)\]
6. Fonction caractéristique d’une somme de variables aléatoires
Par définition : \[\Phi_{X+Y}(t)=\sum_{i,k}e^{jt(X+Y)}\]
Si les variables sont indépendantes :
\[\begin{aligned} \Phi_{X+Y}(t)&=\sum_{i,j}p_{i\bullet}\ p_{\bullet k}\ e^{jtX}e^{jtY}\\ \Phi_{X+Y}(t)&=(\sum_ip_{i\bullet}\ e^{jtX})(\sum_jp_{\bullet j}\ e^{jtY})\end{aligned}\]
On a donc (indépendance) : \[\Phi_{X+Y}(t)=\Phi_{X}(t)~\Phi_{Y}(t)\]
On peut généraliser au cas de n variables indépendantes : \[\Phi_{X1+X2+ \dots +Xn}=\prod_{i=1}^n\Phi_Xi\]
Un exemple intéressant est celui de la variable aléatoire \(X_i\) de Bernoulli : \[X_i= \begin{Bmatrix} 0&1\\ p&q \end{Bmatrix} \qquad \text{avec}\quad p+q=1\]
dont la fonction caractéristique a pour expression : \[\Phi_{Xi}(t)=qe^{j0t}+pe^{jt}=q+pe^{jt}\]
Si on suppose que les \(X_i\) suivent toutes la même loi, la fonction caractéristique de la variable aléatoire \(Z=X_1+X_2+ . . . X_n\) aura pour expression (d’après ce qui précède) : \[\Phi(Z)=(q+pe^{jt})^n\]
dont les résultats sont ceux biens connus de la formule du binôme.
De sorte que le tableau de répartition aura pour expression : \[Z=\\ \begin{Bmatrix} &0& \cdots &k& \cdots &n&\\ &q^n& \cdots &C_n^k~p^k~q^{n-k}& \cdots &p^n& \end{Bmatrix}\]