Soit $(\Omega, \mathcal{A}, \rm P)$ un espace probabilisé.

Méthode 1 : Etudier une variable aléatoire discrète

Définition :

Soit $\rm E$ un ensemble.
Une variable aléatoire discrète définie sur $\Omega$ est une application $\rm X$ de $\Omega$ dans $\rm E$ telle que :

  • $\rm X(\Omega)$ soit fini ou dénombrable
  • Pour tout $x\in \rm X(\Omega)$, $\mathrm X^{-1}(\{x\})=\{w\in\Omega/\mathrm X(w)=x\} \in\mathcal{A}$.

Remarques :

Si $\rm E\subset \mathbb R$, on parle de variable aléatoire réelle.

L'événement $\mathrm X^{-1}(\{x\})$ peut se noter $\mathrm X=x$.

Définition :

Soit $\rm X:\Omega\to E$ variable aléatoire discrète.
La loi de $\rm X$ est l'application $\rm P_X : \mathcal{P}(X(\Omega))\to [0 ~;1]$ telle que pour tout $\rm A\in \mathcal{P}(X(\Omega))$, $\rm P_X(A)=P(X\in A)$ avec $\mathrm {(X\in A)}=\{w\in \Omega/ \mathrm X(w)\in A\}.$

La loi $\rm P_X$ définit une probabilité sur l'espace probabilisable $(\rm X(\Omega),\mathcal{P}(X(\Omega)))$.

Définition :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes sur $\Omega$ prenant les mêmes valeurs.
Si $\rm P_X=P_Y$, $\rm X$ et $\rm Y$ suivent la même loi et $\rm X\sim Y.$

Méthode 2 : Calculs d'espérance

Soient $\rm X,Y$ variables aléatoires réelles discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.

Définition :

$\rm X$ admet une espérance si la famille $(\mathrm{P(X}=x))_{x\in \rm X(\Omega)}$ est sommable.
$$\mathrm{E(X)}=\displaystyle \sum_{x\in \mathrm X(\Omega)}x\mathrm{P(X}=x)$$

Propriétés :

Si $\rm X$ et $\rm Y$ admettent des espérances, 

  • Si $\rm E(X)=0$, $\rm X$ est centrée.
  • Pour tout $\alpha \in \mathbb R$, $\rm \alpha X$ et $\rm X+Y$ admettent une espérance :
    $\rm E(\alpha X)=\alpha E(X)$
    $\rm E(X+Y)=E(X)+E(Y)$
  • Soit $\rm a\geq 0$, $\rm aP(X\geq a)\leq E(X)$ (inégalité de Markov)
  • Si $\rm X$ et $\rm Y$ sont indépendants, $\rm XY$ admet une espérance et $\rm E(XY)=E(X)E(Y)$.

Formule de transfert :

Soient $\rm X$ variables aléatoire discrète et $f$ fonction définie sur $\rm X(\Omega)$ à valeurs dans $\mathbb R$. Il y a équivalence entre les propositions suivantes :

  • $f(\rm X)$ est d'espérance finie.
  • La famille $(f(x)\mathrm{P(X}=x))$ est sommable.

Dans ce cas $\mathrm E(f(\mathrm X))=\displaystyle\sum_{x\in \mathrm X(\Omega)}f(x)\mathrm{P(X}=x)$.

Méthode 3 : Calculs de variance

Soient $\rm X,Y$ variables aléatoires réelles discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.

Définition :

$X$ admet un moment $\rm m_k$ d'ordre $\rm k\in\mathbb N$ si la variable $\rm X^k$ admet une espérance :
$$\mathrm{m_k=E(X^k)}= \displaystyle\sum_{x\in \mathrm X(\Omega)}x^\mathrm k \mathrm{P(X}=x).$$

Théorème :

Si la variable $\rm X$ admet un moment d'ordre $2$, $X$ admet une espérance.

Théorème :

Si les variables $\rm X$ et $\rm Y$ admettent chacune un moment d'ordre $2$, alors $\rm XY$ est d'espérance finie et $\rm E(XY)^2\leq E(X^2)E(Y^2)$.

Définition :

Si $\rm X$ admet un moment d'ordre $2$, la variance de $\rm X$ est $\rm V(X)=E((X-E(X))^2)$.
Son écart-type est $\displaystyle \rm \sigma(X)=\sqrt{V(X)}$.

Propriétés :

  • Si $\rm X$ admet un moment d'ordre $2$, alors :
    $\rm V(X)=E(X^2)-E(X)^2$
    $\rm V(aX+b)=a^2V(X)$ pour tous $\rm a,b\in \mathbb R$
  • Si $\rm V(X)=1$, $\rm X$ est dite variable réduite.

Définition :

Si les variables $\rm X$ et $\rm Y$ admettent des moments d'ordre $2$, la covariance de $\rm X$ et $\rm Y$ est :
$$\rm Cov(X,Y)= E((X-E(X))(Y-E(Y)))= E(XY)-E(X)E(Y)$$

Théorème :

Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm Cov(X,Y)=0$.

Théorème :

Si $\rm X$ et $\rm Y$ admettent un moment d'ordre $2$, $\rm V(X+Y)=V(X)+2Cov(X,Y)+V(Y)$.

Méthode 4 : Utiliser des lois usuelles

  • Loi uniforme

La variable aléatoire $\rm X$ suit une loi uniforme sur un ensemble fini $\rm E$ si :

    • $\rm X(\Omega)=E$
    • Pour tout $\rm X\in E$, $\displaystyle \mathrm{P(X}=x)=\frac{1}{\rm n}$ avec $\rm n=Card(E)$.

  • Loi de Bernoulli

La variable aléatoire $\rm X$ suit une loi de Bernoulli de paramètre $\rm p$ (avec $\rm p\in ]0~ ;1[$) si :

    • $\rm X(\Omega)=\{0 ~;1\}$
    • $\rm P(X=0)=1-p$ et $\rm P(X=1)=p$

On note $\rm X\sim \mathcal{B}(p)$.
$\rm E(X)=p$ et $\rm V(X)=p(1-p)$.

  • Loi binomiale

La variable aléatoire $\rm X$ suit une loi binomiale de paramètres $\rm n$ et $\rm p$ (avec $\rm n\in\mathbb N^*$ et $\rm p\in ]0 ~;1[$) si :

    • $\rm X(\Omega)=[|0,n|]$
    • Pour tout $\rm k\in [|0,n|]$, $\rm P(X=k)=\Big(\begin{array}{ll}n\\k \end{array}\Big) p^k(1-p)^{n-k}$.

On note $\rm X\sim \mathcal{B}(n,p)$.
$\rm E(X)=np$ et $\rm V(X)=np(1-p)$.

  • Loi de Poisson

La variable aléatoire $\rm X$ suit une loi de Poisson de paramètres $\lambda$ ($\lambda>0$) si $\rm X(\Omega)=\mathbb N$ et $\rm P(X=k)=\exp(-\lambda)\frac{\lambda^k}{k !}$.
On note $\rm X\sim \mathcal{P}(\lambda)$.
$\rm E(X)=\lambda$ et $\rm V(X)=\lambda$.

  • Loi géométrique

La variable aléatoire $\rm X$ suit une loi géométrique de paramètre $\rm p$ ($\rm p\in ]0 ~;1[$) si :

    • $\rm X(\Omega)=\mathbb N^*$
    • $\rm P(X=k)=p(1-p)^{k-1}$

On note $\rm X\sim \mathcal{G}(p)$.
$\rm \displaystyle E(X)=\frac{1}{p}$ et $\rm \displaystyle V(X)=\frac{1-p}{p^2}$.