go-back Retour

Variables aléatoires

📝 Mini-cours GRATUIT

Méthode 1 : Étudier des variables aléatoires

Définition :

Soit E un ensemble.
Une variable aléatoire discrète définie sur Ω est une application X de Ω dans E.

Définition :

Soit X:ΩE variable aléatoire discrète.
La loi de X est l'application PX:P(X(Ω))[0 ;1] telle que pour tout AP(X(Ω)), PX(A)=P(XA) avec (XA)={wΩ/X(w)A}.

La loi PX définit une probabilité.

Définitions :

Soient X et Y deux variables aléatoires discrètes définies sur (Ω) à valeurs respectivement dans les ensembles E et F.

Le couple de variables aléatoires Z=(X,Y):ΩE×F vérifie pour tout wΩ, Z(w)=(X(w),Y(w)).

La loi conjointe des variables aléatoires X et Y est la loi du couple Z=(X,Y).

Les lois des deux variables aléatoires X et Y sont les lois marginales de la variable Z.

Définition :

Soit xX(Ω).

La loi conditionnelle de Y sachant X=x est la loi de la variable aléatoire Y pour la probabilité conditionnelle P(|X=x) : pour tout BY(Ω),

P(YB|X=x)={P((YB),(X=x))P(X=x) si P(X=x)>00 sinon 

Méthode 2 : Calculer des espérances et des variances

Soient $\rm X,Y$ variables aléatoires réelles discrètes.

Définition :

$\mathrm{E(X)}=\displaystyle \sum_{x\in \mathrm X(\Omega)}x\mathrm{P(X}=x)$

Propriétés :

Si $\rm X$ et $\rm Y$ admettent des espérances :

  • Si $\rm E(X)=0$, $\rm X$ est centrée.
  • Pour tout $\alpha \in \mathbb R$, $\rm \alpha X$ et $\rm X+Y$ admettent une espérance :
    $\rm E(\alpha X)=\alpha E(X)$
    $\rm E(X+Y)=E(X)+E(Y)$
  • Soit $\rm a\geq 0$, $\rm aP(X\geq a)\leq E(X)$ (inégalité de Markov).

Formule de transfert :

Soient $\rm X$ variable aléatoire discrète et $f$ fonction définie sur $\rm X(\Omega)$ à valeurs dans $\mathbb R$.

Si $f(\rm X)$ est d'espérance finie :

$\mathrm E(f(\mathrm X))=\displaystyle\sum_{x\in \mathrm X(\Omega)}f(x)\mathrm{P(X}=x)$

Définition :

La variance de $\rm X$ est $\rm V(X)=E((X-E(X))^2)$.
Son écart-type est $\displaystyle \rm \sigma(X)=\sqrt{V(X)}$.

Propriétés :

  • Si $\rm X$ admet un moment d'ordre $2$, alors :
    $\rm V(X)=E(X^2)-E(X)^2$
    $\rm V(aX+b)=a^2V(X)$ pour tous $\rm a,b\in \mathbb R$
  • Si $\rm V(X)=1$, $\rm X$ est dite variable réduite.
  • Si $\rm \sigma(X)>0$, la variable $\rm \dfrac{X-E(X)}{\sigma(X)}$ est centrée réduite.

Inégalité de Bienaymé-Tchebychev : Soit $\rm X$ une variable aléatoire admettant une espérance et une variance.
Alors $\forall \epsilon >0$, $\rm P(|X-E(X)|\geq \epsilon)\leq \dfrac{V(X)}{\epsilon^2}$

Méthode 3 : Étudier des variables aléatoires indépendantes

Définition : Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $\Omega$.

Les variables $\rm X$ et $\rm Y$ sont indépendantes si :

  • Pour tous $\rm A\subset X(\Omega)$ et $\rm B\subset Y(\Omega)$, les événements $\rm (X\in A)$ et $\rm (Y\in B)$ sont indépendants.
  • Ou de façon équivalente :
    Pour tout $(x,y)\in \rm X(\Omega)\times Y(\Omega)$, $\mathrm{P(X}=x,\mathrm Y=y)=\mathrm{P(X}=x)\mathrm{P(Y}=y)$.

Théorème : Si $\rm X$ et $\rm Y$ sont deux variables indépendantes, alors pour toutes fonctions $f,g$ définies sur les domaines de valeurs de $\rm X$ et $\rm Y$, les variables $f(\mathrm X)$ et $g(\mathrm Y)$ sont indépendantes.

Propriété : Soient $\rm X,Y$ variables aléatoires réelles discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.
Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm XY$ admet une espérance et $\rm E(XY)=E(X)E(Y)$.

Lemme des coalitions : Si $\rm X_1, X_2 , \ldots , X_{\mathcal n}$, sont mutuellement indépendantes, toute variable aléatoire fonction de $\rm X_1, X_2, \ldots , X_{\mathcal p}$ est indépendante de toute variable aléatoire fonction de $\mathrm X_{p+1}, \mathrm X_{p+2}, \dots, \mathrm X_n$.

Définition : La covariance de $\rm X$ et $\rm Y$ est :

$\rm Cov(X,Y)= E((X-E(X))(Y-E(Y)))$ $\rm = E(XY)-E(X)E(Y)$

$\rm Cov(X,X)=V(X)$

Théorème : Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm Cov(X,Y)=0$.

Attention, la réciproque est fausse.

Théorème : $\rm V(X+Y)=V(X)+2Cov(X,Y)+V(Y)$.

🎲 Quiz GRATUIT

NOMAD EDUCATION

L’app unique pour réussir !