1) Couples de variables aléatoires discrètes finies

Définitions :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$ à valeurs respectivement dans les ensembles $\rm E$ et $\rm F$.
Le couple de variables aléatoires $\rm Z=(X,Y):\Omega \to E\times F$ vérifie pour tout $w\in \Omega$, $\mathrm Z(w)=(\mathrm X(w),\mathrm Y(w))$.
La loi conjointe des variables aléatoires $\rm X$ et $\rm Y$ est la loi du couple $\rm Z=(X,Y)$.
Les lois des deux variables aléatoires $\rm X$ et $\rm Y$ sont les lois marginales de la variable $\rm Z$.

Définition :

Soit $x\in \rm X(\Omega)$.
La loi conditionnelle de $Y$ sachant $\mathrm X=x$ est la loi de la variable aléatoire $Y$ pour la probabilité conditionnelle $\mathrm{P(\cdot|X}=x)$ : pour tout $\rm B\subset Y(\Omega)$,
$$\mathrm{P(Y\in B|X}=x)= \left\{\begin{array}{ll}\displaystyle\frac{\mathrm{P((Y\in B),(X}=x))}{\mathrm{P(X}=x)} \mbox{ si } \mathrm{P(X}=x)>0 \\
0 \mbox{ sinon } \end{array}\right.$$

Définition :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.

Les variables $\rm X$ et $\rm Y$ sont indépendantes si :

  • Pour tous $\rm A\subset X(\Omega)$ et $\rm B\subset Y(\Omega)$, les événements $\rm (X\in A)$ et $\rm (Y\in B)$ sont indépendants.
  • Ou de façon équivalente :
    Pour tout $(x,y)\in \rm X(\Omega)\times Y(\Omega)$, $\mathrm{P(X}=x,\mathrm Y=y)=\mathrm{P(X}=x)\mathrm{P(Y}=y)$.

Théorème :

Si $\rm X$ et $\rm Y$ sont deux variables indépendantes, alors pour toutes fonctions $f,g$ définies sur les domaines de valeurs de $\rm X$ et $\rm Y$, les variables $f(\mathrm X)$ et $g(\mathrm Y)$ sont indépendantes.

Théorème :

  • Si $X_1$ et $X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\mathcal B(n_1,p)$ et $\mathcal B(n_2,p)$, alors $X_1 + X_2$ suit une loi $\mathcal B(n_1 + n_2,p)$. 
  • Si $X_1$ et $X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\mathcal P(\lambda_1)$ et $\mathcal P(\lambda_2)$, alors $X_1+X_2$ suit une loi $\mathcal P(\lambda_1+\lambda_2)$.

2) Calculs d'espérance, de variance et de covariance

Soient $\rm X,Y$ variables aléatoires réelles discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.
$\rm E(X+Y)=E(X)+E(Y)$
Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm XY$ admet une espérance et $\rm E(XY)=E(X)E(Y)$.

Définition :

La covariance de $\rm X$ et $\rm Y$ est :
$$\rm Cov(X,Y)= E((X-E(X))(Y-E(Y)))= E(XY)-E(X)E(Y)$$
$\rm Cov(X,X)=V(X)$

Théorème :

Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm Cov(X,Y)=0$.
Attention, la réciproque est fausse.

Théorème :

$\rm V(X+Y)=V(X)+2Cov(X,Y)+V(Y)$.

Définition :

Coefficient de corrélation linéaire :

$\rm \rho=\displaystyle\frac{Cov(X,Y)}{\sqrt{Var(X)Var(Y)}}$
Un coefficient de corrélation est un nombre toujours compris entre -1 et 1.
Un coefficient de corrélation nul entre $\rm X$ et $\rm Y$ signifie qu’il n’y a aucune liaison linéaire entre les deux variables.
Plus le coefficient de corrélation est proche de $1$ ou $-1$, plus la liaison linéaire est forte entre les deux variables.

3) Suite de variables aléatoires discrètes finies

Définitions :

Soient $\rm X_1$, …,$\rm X_n$ des variables aléatoires discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.

Les variables $\rm X_1$, …,$\rm X_n$ sont mutuellement indépendantes si :

Pour tout choix de $n$ intervalles réels $\rm I_1$,…, $\rm I_n$, les événements $\rm (X_1\in I_1)$,…,$\rm (X_n\in I_n)$ sont mutuellement indépendants.

Les variables aléatoires de la suite $\rm (X_n)_{n\in \mathbb N*}$ sont dites mutuellement indépendantes si, pour tout entier $\rm n > 1$, les variables aléatoires $\rm X_1$,...,$\rm X_n$ sont mutuellement indépendantes.

Lemme des coalitions :

Si $\rm X_1, X_2 ,..., X_n$, sont mutuellement indépendantes, toute variable aléatoire fonction de $\rm X_1, X_2, ..., X_p$ est indépendante de toute variable aléatoire fonction de $\rm X_{p+1}, X_{p+2},..., X_n$.

Propriété :

Si $\rm X_1, X_2 ,..., X_n$ sont indépendantes deux à deux et admettent toutes une variance, alors la somme $\rm X_1+…+X_n$ admet aussi une variance et $\rm V(X_1+…+X_n)=V(X_1)+…+V(X_n)$.