1. Sommes de variables aléatoires

Propriétés :

Soient $\rm X,Y$ variables aléatoires réelles.

$\rm E(X+Y)=E(X)+E(Y)$

Définition :

La covariance de $\rm X$ et $\rm Y$ est :

$\rm Cov(X,Y)= E((X-E(X))(Y-E(Y)))$ $\rm = E(XY)-E(X)E(Y)$

$\rm Cov(X,X)=V(X)$

Théorème :

Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm Cov(X,Y)=0$.

Attention, la réciproque est fausse.

Théorème :

$\rm V(X+Y)=V(X)+2Cov(X,Y)+V(Y)$.

Théorème :

  • Si $\rm X_1$ et $\rm X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\mathcal B(n_1,p)$ et $\mathcal B(n_2,p)$, alors $\rm X_1 + X_2$ suit une loi $\mathcal B(n_1 + n_2,p)$.
  • Si $\rm X_1$ et $\rm X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\mathcal P(\lambda_1)$ et $\mathcal P(\lambda_2)$, alors $\rm X_1+X_2$ suit une loi $\mathcal P(\lambda_1+\lambda_2)$.

Théorème :

Si $\rm X_1$ et $\rm X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\mathcal{N}(m_1,\sigma_1^2)$ et $\mathcal{N}(m_2,\sigma_2^2)$ alors $\rm X_1 + X_2$ suit une loi $\mathcal{N}(m_1+m_2,\sigma_1^2+\sigma_2^2)$.

2. Suite de variables aléatoires réelles

Définitions :

Soient $\rm X_1, \ldots, X_n$ des variables aléatoires réelles.
Les variables $\rm X_1, \ldots, X_n$ sont mutuellement indépendantes si :

Pour tout choix de $n$ intervalles réels $\rm I_1, \dots, I_{\mathcal n}$, les événements $\rm (X_1\in I_1),\ldots, (X_{\mathcal n}\in I_{\mathcal n})$ sont mutuellement indépendants.

Les variables aléatoires de la suite $(\mathrm X_n)_{n\in \mathbb N*}$ sont dites mutuellement indépendantes si, pour tout entier $n > 1$, les variables aléatoires $\rm X_1, \ldots, X_{\mathcal n}$ sont mutuellement indépendantes.

Lemme des coalitions :

Si $\rm X_1, X_2 , \ldots , X_{\mathcal n}$, sont mutuellement indépendantes, toute variable aléatoire fonction de $\rm X_1, X_2, \ldots , X_{\mathcal p}$ est indépendante de toute variable aléatoire fonction de $\mathrm X_{p+1}, \mathrm X_{p+2}, \dots, \mathrm X_n$

Propriétés :

  • Si $\rm X_1, X_2 , \ldots, X_{\mathcal n}$ sont mutuellement indépendantes et admettent toutes une espérance, alors le produit $\rm X_1\ldots X_{\mathcal n}$ admet aussi une espérance et $\rm E(X_1 \ldots X_{\mathcal n}) = E(X_1)\times \ldots\times E(X_{\mathcal n})$
  • Si $\rm X_1, X_2 , \ldots , X_{\mathcal n}$ sont indépendantes deux à deux et admettent toutes une variance, alors la somme $\rm X_1+ \ldots +X_{\mathcal n}$ admet aussi une variance et $\rm V(X_1+ \ldots +X_{\mathcal n})$ $\rm = V(X_1)+ \ldots + V(X_{\mathcal n})$.

Théorème :

La somme de $n$ variables aléatoires de Bernoulli mutuellement indépendantes et de même espérance $p$ suit la loi binomiale $\mathrm B(n,p)$.

Théorèmes :

  • Soit $\rm X_1, X_2 , \ldots, X_{\mathcal n}$ des variables aléatoires suivant des lois binomiales de paramètres respectifs $(m_1,p)\ldots(m_n,p)$
    Si $\rm X_1, X_2 , \ldots, X_{\mathcal n}$ sont mutuellement indépendantes, la variable somme $\rm X_1+ \ldots +X_{\mathcal n}$ suit une loi binomiale de paramètre $(m_1+ \ldots +m_n,p)$.
  • Soit $\rm X_1, X_2 , \ldots, X_{\mathcal n}$ des variables aléatoires suivant des lois de Poisson de paramètres respectifs $\lambda_1, \ldots,\lambda_n$.
    Si $\rm X_1, X_2 , \ldots, X_{\mathcal n}$ sont mutuellement indépendantes, la variable somme $\rm X_1+ \ldots +X_{\mathcal n}$ suit une loi de Poisson de paramètre $\lambda_1+ \ldots +\lambda_n$.