Retour

Variables aléatoires

Ce programme vous est offert par Efrei

En savoir plus

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

Méthode 1 : Étudier des variables aléatoires

Définition :

Soit $\rm E$ un ensemble.
Une variable aléatoire discrète définie sur $\Omega$ est une application $\rm X$ de $\Omega$ dans $\rm E$.

Définition :

Soit $\rm X:\Omega\to E$ variable aléatoire discrète.
La loi de $\rm X$ est l'application $\rm P_X : \mathcal{P}(X(\Omega))\to [0 ~;1]$ telle que pour tout $\rm A\in \mathcal{P}(X(\Omega))$, $\rm P_X(A)=P(X\in A)$ avec $\mathrm {(X\in A)}=\{w\in \Omega/ \mathrm X(w)\in A\}.$

La loi $\rm P_X$ définit une probabilité.

Définitions :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $(\Omega)$ à valeurs respectivement dans les ensembles $\rm E$ et $\rm F$.

Le couple de variables aléatoires $\rm Z=(X,Y):\Omega \to E\times F$ vérifie pour tout $w\in \Omega$, $\mathrm Z(w)=(\mathrm X(w),\mathrm Y(w))$.

La loi conjointe des variables aléatoires $\rm X$ et $\rm Y$ est la loi du couple $\rm Z=(X,Y)$.

Les lois des deux variables aléatoires $\rm X$ et $\rm Y$ sont les lois marginales de la variable $\rm Z$.

Définition :

Soit $x\in \rm X(\Omega)$.

La loi conditionnelle de $Y$ sachant $\mathrm X=x$ est la loi de la variable aléatoire $Y$ pour la probabilité conditionnelle $\mathrm{P(\cdot|X}=x)$ : pour tout $\rm B\subset Y(\Omega)$,

$\mathrm{P(Y\in B|X}= x)= \left\{\begin{array}{ll}\frac{\mathrm{P((Y\in B),(X} = x))}{\mathrm{P(X}=x)} \text{ si } \mathrm{P(X}=x)>0 \\
0 \text{ sinon } \end{array}\right.$

Méthode 2 : Calculer des espérances et des variances

Soient $\rm X,Y$ variables aléatoires réelles discrètes.

Définition :

$\mathrm{E(X)}=\displaystyle \sum_{x\in \mathrm X(\Omega)}x\mathrm{P(X}=x)$

Propriétés :

Si $\rm X$ et $\rm Y$ admettent des espérances :

  • Si $\rm E(X)=0$, $\rm X$ est centrée.
  • Pour tout $\alpha \in \mathbb R$, $\rm \alpha X$ et $\rm X+Y$ admettent une espérance :
    $\rm E(\alpha X)=\alpha E(X)$
    $\rm E(X+Y)=E(X)+E(Y)$
  • Soit $\rm a\geq 0$, $\rm aP(X\geq a)\leq E(X)$ (inégalité de Markov).

Formule de transfert :

Soient $\rm X$ variable aléatoire discrète et $f$ fonction définie sur $\rm X(\Omega)$ à valeurs dans $\mathbb R$.

Si $f(\rm X)$ est d'espérance finie :

$\mathrm E(f(\mathrm X))=\displaystyle\sum_{x\in \mathrm X(\Omega)}f(x)\mathrm{P(X}=x)$

Définition :

La variance de $\rm X$ est $\rm V(X)=E((X-E(X))^2)$.
Son écart-type est $\displaystyle \rm \sigma(X)=\sqrt{V(X)}$.

Propriétés :

  • Si $\rm X$ admet un moment d'ordre $2$, alors :
    $\rm V(X)=E(X^2)-E(X)^2$
    $\rm V(aX+b)=a^2V(X)$ pour tous $\rm a,b\in \mathbb R$
  • Si $\rm V(X)=1$, $\rm X$ est dite variable réduite.
  • Si $\rm \sigma(X)>0$, la variable $\rm \dfrac{X-E(X)}{\sigma(X)}$ est centrée réduite.

Inégalité de Bienaymé-Tchebychev : Soit $\rm X$ une variable aléatoire admettant une espérance et une variance.
Alors $\forall \epsilon >0$, $\rm P(|X-E(X)|\geq \epsilon)\leq \dfrac{V(X)}{\epsilon^2}$

Méthode 3 : Étudier des variables aléatoires indépendantes

Définition : Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $\Omega$.

Les variables $\rm X$ et $\rm Y$ sont indépendantes si :

  • Pour tous $\rm A\subset X(\Omega)$ et $\rm B\subset Y(\Omega)$, les événements $\rm (X\in A)$ et $\rm (Y\in B)$ sont indépendants.
  • Ou de façon équivalente :
    Pour tout $(x,y)\in \rm X(\Omega)\times Y(\Omega)$, $\mathrm{P(X}=x,\mathrm Y=y)=\mathrm{P(X}=x)\mathrm{P(Y}=y)$.

Théorème : Si $\rm X$ et $\rm Y$ sont deux variables indépendantes, alors pour toutes fonctions $f,g$ définies sur les domaines de valeurs de $\rm X$ et $\rm Y$, les variables $f(\mathrm X)$ et $g(\mathrm Y)$ sont indépendantes.

Propriété : Soient $\rm X,Y$ variables aléatoires réelles discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.
Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm XY$ admet une espérance et $\rm E(XY)=E(X)E(Y)$.

Lemme des coalitions : Si $\rm X_1, X_2 , \ldots , X_{\mathcal n}$, sont mutuellement indépendantes, toute variable aléatoire fonction de $\rm X_1, X_2, \ldots , X_{\mathcal p}$ est indépendante de toute variable aléatoire fonction de $\mathrm X_{p+1}, \mathrm X_{p+2}, \dots, \mathrm X_n$.

Définition : La covariance de $\rm X$ et $\rm Y$ est :

$\rm Cov(X,Y)= E((X-E(X))(Y-E(Y)))$ $\rm = E(XY)-E(X)E(Y)$

$\rm Cov(X,X)=V(X)$

Théorème : Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm Cov(X,Y)=0$.

Attention, la réciproque est fausse.

Théorème : $\rm V(X+Y)=V(X)+2Cov(X,Y)+V(Y)$.

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !