Retour

Variables aléatoires discrètes

Ce programme vous est offert par Efrei

En savoir plus

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

Parcours Méthodologique : Probabilités

Soit $(\Omega, \mathcal{A})$ un espace probabilisable constitué d'un ensemble $\Omega$ (l'univers) et d'une tribu $\mathcal{A}$ sur $\Omega$.

Remarque :

$\mathcal{A}\in\mathcal{P}(\Omega)$ est une tribu si :

  • $\Omega\in\mathcal{A}$
  • Pour tout $\rm A\in\mathcal{A}$, $\rm \bar{A}\in\mathcal{A}$.
  • Pour toute suite $\rm (A_n)_n \in\mathcal{A}^{\mathbb N}$, $\rm \displaystyle\bigcup_{n=0}^{+\infty}A_n\in\mathcal{A}$

Les éléments de la tribu sont des événements de $\Omega$.

Méthode 1 : Etudier une probabilité

Définition :

$P$ est une probabilité sur l'espace probabilisable $(\Omega, \mathcal{A})$ si :

  • $\rm P$ est une application : $\rm P:\mathcal{A}\to [0 ~;1]$
  • $\rm P(\Omega)=1$
  • Pour toute suite $\rm (A_n)_n \in\mathcal{A}^{\mathbb N}$ d'événements deux à deux incompatibles, $\rm P(\bigcup_{n=0}^{+\infty}A_n)=\displaystyle \sum_{n=0}^{+\infty}P(A_n)$
    $(\Omega, \mathcal{A}, \rm P)$ est appelé espace probabilisé.

Propriétés élémentaires :

  • $\rm P(\emptyset)=0$
  • $\rm P(\bar{A})=1-P(A)$ pour tout $\rm A\in\mathcal{A}$
  • Si $\rm (A_n)_n$ est une suite d'événements, $\rm P(\bigcup_{n=0}^{+\infty}A_n)\leq\displaystyle \sum_{n=0}^{+\infty}P(A_n)$ (inégalité de Boole)
  • Si $\rm (A_n)_n$ est une suite croissante d'événements, $\rm \lim_{n\to +\infty}P(A_n)=P(\bigcup_{n=0}^{+\infty}A_n)$
  • Si $\rm (A_n)_n$ est une suite décroissante d'événements, $\rm \lim_{n\to +\infty}P(A_n)=P(\bigcap_{n=0}^{+\infty}A_n)$

Théorème :

Soit $(\Omega, \mathcal{A}, \rm P)$ un espace probabilisé. Soit $\rm A\in\mathcal{A}$.

  • $\rm A$ est négligeable si $\rm P(A)=0$.
  • Une réunion finie ou dénombrable d'événements négligeables est négligeable.
  • $\rm A$ est presque sûr si $\rm P(A)=1$ (c'est-à-dire $\rm \bar{A}$ négligeable).
  • Une intersection finie ou dénombrable d'événements presque sûrs est presque sûre.

Théorème :

Si $\Omega$ est fini ou dénombrable et si $\mathcal{A}=\mathcal{P}(\Omega)$, une probabilité $\rm P$ sur $(\Omega, \mathcal{A})$ peut s'identifier par $\mathrm P(\{w\})=\mathrm p_w$ pour tout $w\in\Omega$ à une famille $(\mathrm p_w)_{w\in\Omega}$ de réels positifs sommable et de somme égale à $1$.

Méthode 2 : Etudier une probabilité conditionnelle

Définition :

Soit $\rm B$ événement de $\Omega$ tel que $\rm P(B)>0$.
Pour tout $\rm A$ événement de $\Omega$, la probabilité de $\rm \underline A$ sachant $\rm \underline B$ est :
$\displaystyle \rm P_B(A)=P(A|B)= \frac{P(A\cap B)}{P(B)}$
Si $\rm P(B)=0$, $\rm P(A|B)=0$.
$\rm P_B$ est une probabilité sur $(\Omega, \mathcal{A})$.

Théorème :

Soient $\rm A, B$ deux événements de $\Omega$.
$\rm P(A\cap B)=P(A|B)\times P(B)$

Théorème :

Si $\rm (A_i)_{i\in I}$ système complet d'événements de $(\Omega, \mathcal{A}, \rm P)$, pour tout événement $\rm B\in \Omega$ : $\rm P(B)=\displaystyle\sum_{i\in I}P(B|A_i)P(A_i)$

Remarque :

$\rm {A_i}_{i\in I}$ ($\rm I$ ensemble fini ou dénombrable) est un système complet d'événements si :

  • Pour tous $\rm i,~j\in I$, $\rm i\neq j$, $\rm A_i\cap A_j =\emptyset$
  • $\rm \displaystyle\bigcup_{i\in I}Ai=\Omega$

Théorème : Formule de Bayes

Si $\rm A$ et $\rm B$ sont deux événements de probabilités non nulle :
$\displaystyle \rm P(A|B)=\frac{P(B|A)\times P(A)}{P(B)}$

Méthode 3 : Etudier l'indépendance d'événements

Définition :

Deux événements $\rm A, B$ de $(\Omega, \mathcal{A}, \rm P)$ sont indépendants si $\rm P(A\cap B)=P(A)P(B)$.

Remarque :

Si $\rm P(B)>0$, $\rm A$ et $\rm B$ sont indépendants si $\rm P(A|B)=P(A)$.

Théorème :

Si $\rm A$ et $\rm B$ sont indépendants :

  • $\rm A$ et $\rm \bar{B}$ sont indépendants.
  • $\rm \bar{A}$ et $\rm B$ sont indépendants.
  • $\rm \bar{A}$ et $\rm \bar{B}$ sont indépendants.

Définition :

Soit $\rm (A_i)_{i\in I}$ famille d'événements de $(\Omega, \mathcal{A}, \rm P)$.
Les $\rm (A_i)_{i\in I}$ sont mutuellement indépendants si pour tout $\rm J$ finie $\rm \subset I$ :
$\rm \displaystyle P\Bigg(\bigcap_{j\in J}A_j\Bigg)=\prod_{j\in J}P(A_j)$.

Parcours Méthodologique : Variables aléatoires

Soit $(\Omega, \mathcal{A}, \rm P)$ un espace probabilisé.

Une distribution de probabilités discrètes sur $\Omega$ est une famille d’éléments de $\mathbb R^+$ indexée par $\Omega$ et de somme 1.

Méthode 1 : Etudier une variable aléatoire discrète

Définition :

Soit $\rm E$ un ensemble.
Une variable aléatoire discrète définie sur $\Omega$ est une application $\rm X$ de $\Omega$ dans $\rm E$ telle que :

  • $\rm X(\Omega)$ soit fini ou dénombrable
  • Pour tout $x\in \rm X(\Omega)$, $\mathrm X^{-1}(\{x\})=\{w\in\Omega/\mathrm X(w)=x\} \in\mathcal{A}$.

Remarques :

Si $\rm E\subset \mathbb R$, on parle de variable aléatoire réelle.

L'événement $\mathrm X^{-1}(\{x\})$ peut se noter $\mathrm X=x$.

Définition :

Soit $\rm X:\Omega\to E$ variable aléatoire discrète.
La loi de $\rm X$ est l'application $\rm P_X : \mathcal{P}(X(\Omega))\to [0 ~;1]$ telle que pour tout $\rm A\in \mathcal{P}(X(\Omega))$, $\rm P_X(A)=P(X\in A)$ avec $\mathrm {(X\in A)}=\{w\in \Omega/ \mathrm X(w)\in A\}.$

La loi $\rm P_X$ définit une probabilité sur l'espace probabilisable $(\rm X(\Omega),\mathcal{P}(X(\Omega)))$.

Définition :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes sur $\Omega$ prenant les mêmes valeurs.
Si $\rm P_X=P_Y$, $\rm X$ et $\rm Y$ suivent la même loi et $\rm X\sim Y.$

Méthode 2 : Etudier des couples de variables aléatoires discrètes

Définitions :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$ à valeurs respectivement dans les ensembles $\rm E$ et $\rm F$.
Le couple de variables aléatoires $\rm Z=(X,Y):\Omega \to E\times F$ vérifie pour tout $w\in \Omega$, $\mathrm Z(w)=(\mathrm X(w),\mathrm Y(w))$.
La loi conjointe des variables aléatoires $\rm X$ et $\rm Y$ est la loi du couple $\rm Z=(X,Y)$.
Les lois des deux variables aléatoires $\rm X$ et $\rm Y$ sont les lois marginales de la variable $\rm Z$.

Définition :

Soit $x\in \rm X(\Omega)$.
La loi conditionnelle de $Y$ sachant $\mathrm X=x$ est la loi de la variable aléatoire $Y$ pour la probabilité conditionnelle $\mathrm{P(\cdot|X}=x)$ : pour tout $\rm B\subset Y(\Omega)$,
$$\mathrm{P(Y\in B|X}=x)= \left\{\begin{array}{ll}\displaystyle\frac{\mathrm{P((Y\in B),(X}=x))}{\mathrm{P(X}=x)} \mbox{ si } \mathrm{P(X}=x)>0 \\
0 \mbox{ sinon } \end{array}\right.$$

Définition :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.
Les variables $\rm X$ et $\rm Y$ sont indépendantes si :

  • Pour tous $\rm A\subset X(\Omega)$ et $\rm B\subset Y(\Omega)$, les événements $\rm (X\in A)$ et $\rm (Y\in B)$ sont indépendants.
  • Ou de façon équivalente :
    Pour tout $(x,y)\in \rm X(\Omega)\times Y(\Omega)$, $\mathrm{P(X}=x,\mathrm Y=y)=\mathrm{P(X}=x)\mathrm{P(Y}=y)$.

Théorème :

Si $\rm X$ et $\rm Y$ sont deux variables indépendantes, alors pour toutes fonctions $f,g$ définies sur les domaines de valeurs de $\rm X$ et $\rm Y$, les variables $f(\mathrm X)$ et $g(\mathrm Y)$ sont indépendantes.

Méthode 3 : Calculs d'espérance

Soient $\rm X,Y$ variables aléatoires réelles discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.

Définition :

$\rm X$ admet une espérance si la famille $(xP(X=x))”_{x\in \rm X(\Omega)}$ est sommable.
$$\mathrm{E(X)}=\displaystyle \sum_{x\in \mathrm X(\Omega)}x\mathrm{P(X}=x)$$

On dit aussi que $X$ est d’espérance finie.

Notation: $X\in L^1$ signifie que $X$ est d’espérance finie.

Propriétés :

Si $\rm X$ et $\rm Y$ admettent des espérances, 

  • Si $\rm E(X)=0$, $\rm X$ est centrée.
  • Pour tout $\alpha \in \mathbb R$, $\rm \alpha X$ et $\rm X+Y$ admettent une espérance :
    $\rm E(\alpha X)=\alpha E(X)$
    $\rm E(X+Y)=E(X)+E(Y)$
  • Soit $\rm a\geq 0$, $\rm aP(X\geq a)\leq E(X)$ (inégalité de Markov)
  • Si $\rm X$ et $\rm Y$ sont indépendants, $\rm XY$ admet une espérance et $\rm E(XY)=E(X)E(Y)$.

Formule de transfert :

Soient $\rm X$ variables aléatoire discrète et $f$ fonction définie sur $\rm X(\Omega)$ à valeurs dans $\mathbb R$. Il y a équivalence entre les propositions suivantes :

  • $f(\rm X)$ est d'espérance finie.
  • La famille $(f(x)\mathrm{P(X}=x))$ est sommable.

Dans ce cas $\mathrm E(f(\mathrm X))=\displaystyle\sum_{x\in \mathrm X(\Omega)}f(x)\mathrm{P(X}=x)$.

Méthode 4 : Calculs de variance

Soient $\rm X,Y$ variables aléatoires réelles discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.

Définition :

$X$ admet un moment $\rm m_k$ d'ordre $\rm k\in\mathbb N$ si la variable $\rm X^k$ admet une espérance :
$$\mathrm{m_k=E(X^k)}= \displaystyle\sum_{x\in \mathrm X(\Omega)}x^\mathrm k \mathrm{P(X}=x).$$

Théorème :

Si la variable $\rm X$ admet un moment d'ordre $2$, $X$ admet une espérance.

On dit aussi que $X^2$ est d’espérance finie.

Notation: $X\in L^2$ signifie que $X^2$ est d’espérance finie.

Théorème :

Si les variables $\rm X$ et $\rm Y$ admettent chacune un moment d'ordre $2$, alors $\rm XY$ est d'espérance finie et $\rm E(XY)^2\leq E(X^2)E(Y^2)$.

Définition :

Si $\rm X$ admet un moment d'ordre $2$, la variance de $\rm X$ est $\rm V(X)=E((X-E(X))^2)$.
Son écart-type est $\displaystyle \rm \sigma(X)=\sqrt{V(X)}$.

Propriétés :

  • Si $\rm X$ admet un moment d'ordre $2$, alors :
    $\rm V(X)=E(X^2)-E(X)^2$
    $\rm V(aX+b)=a^2V(X)$ pour tous $\rm a,b\in \mathbb R$
  • Si $\rm V(X)=1$, $\rm X$ est dite variable réduite.

Définition:

Si $\sigma(X)>0$, la variable aléatoire $\displaystyle\frac{X-E(X)}{\sigma(X)}$ est centrée réduite.

Définition :

Si les variables $\rm X$ et $\rm Y$ admettent des moments d'ordre $2$, la covariance de $\rm X$ et $\rm Y$ est :
$$\rm Cov(X,Y)= E((X-E(X))(Y-E(Y)))= E(XY)-E(X)E(Y)$$

Théorème :

Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm Cov(X,Y)=0$.

Théorème :

Si $\rm X$ et $\rm Y$ admettent un moment d'ordre $2$, $\rm V(X+Y)=V(X)+2Cov(X,Y)+V(Y)$.

Méthode 5 : Utiliser des lois usuelles

  • Loi de Poisson

La variable aléatoire $\rm X$ suit une loi de Poisson de paramètres $\lambda$ ($\lambda>0$) si $\rm X(\Omega)=\mathbb N$ et $\rm P(X=k)=\exp(-\lambda)\frac{\lambda^k}{k !}$.
On note $\rm X\sim \mathcal{P}(\lambda)$.
$\rm E(X)=\lambda$ et $\rm V(X)=\lambda$.

  • Loi géométrique

La variable aléatoire $\rm X$ suit une loi géométrique de paramètre $\rm p$ ($\rm p\in ]0 ~;1[$) si :

    • $\rm X(\Omega)=\mathbb N^*$
    • $\rm P(X=k)=p(1-p)^{k-1}$

On note $\rm X\sim \mathcal{G}(p)$.
$\rm \displaystyle E(X)=\frac{1}{p}$ et $\rm \displaystyle V(X)=\frac{1-p}{p^2}$.

Méthode 6 : Inégalités probabilistes

Inégalité de Markov

Soit $X$ une variable aléatoire réelle à valeurs positives admettant une espérance.

Alors $\forall a>0$, $P(X\geq a)\leq \displaystyle\frac{E(X)}{a}$

Inégalité de Bienaymé-Tchebychev

Soit $X$ une variable aléatoire admettant une espérance et une variance.

Alors $\forall \epsilon >0$, $P(|X-E(X)|\geq \epsilon)\leq \displaystyle\frac{V(X)}{\epsilon^2}$

Loi faible des grands nombres

Soit $(X_n)$ une suite de variables aléatoires deux à deux indépendantes admettant la même espérance $m$ et un même écart-type $\sigma$.

On pose : $\overline{X_n}=\displaystyle\frac{X_1+…+X_n}{n}$.

Alors $\forall \epsilon >0$, $\displaystyle\lim_{n\to +\infty}P(|\overline{X_n}-m|\geq \epsilon)=0$

Méthode 7: Calculer une fonction génératrice

Définition: La fonction génératrice de la variable aléatoire $X$ à valeurs dans $\mathbb N$ est:

$G_X(t)=E(t^X)=\displaystyle\sum_{k=0}^{+\infty}P(X=k)t^k$

Propriétés: $G_X$ est continue sur $[-1;1]$ et de classe $C^{\infty}$ sur $]-1;1[$.

Théorème : Soit $X$ une variable aléatoire à valeurs dans $\mathbb N$.

Alors $X$ admet une espérance finie si et seulement si $G_X$ est dérivable en 1.

Dans ce cas, $G’_X(1)=E(X)$.

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !