1) Variables aléatoires à densité
Une variable $\rm X$ est continue (ou à densité) lorsqu’elle peut prendre n’importe quelle valeur dans un intervalle.
Pour une valeur précise de $\rm X$, la probabilité est nulle : $\mathrm{P(X}=a)=0$ pour n’importe quelle valeur de $a$. Par conséquent dans un calcul de probabilité avec une variable continue, les inégalités larges ou strictes ne changent pas la valeur de la probabilité.
On appelle densité de probabilité toute fonction $f$ telle que pour tout $x\in\mathbb R$, $f(x)\geq 0$ et l’aire sous la courbe de $f$ est égale à $1$ c’est-à-dire $\displaystyle\int_{-\infty}^{+\infty}f(x)\mathrm dx=1$.
La probabilité que la valeur de la variable appartienne à un intervalle donné vaut : $\mathrm P(a\leq \mathrm X \leq b)=\displaystyle\int_a^b f(x)\mathrm dx$
Moyenne : $\mathrm{E(X)}=\displaystyle\int_{-\infty}^{+\infty}xf(x)\mathrm dx$
Où $f$ est la densité de probabilité de $\rm X$.
Variance : moyenne des carrés moins carré de la moyenne
2) Loi normale
La loi normale dépend de $2$ paramètres :
- Sa moyenne, notée $m$, qui définit l’axe de symétrie de la densité de probabilité
- Son écart-type $\sigma$ qui définit la dispersion de la courbe : la courbe sera d’autant plus resserrée que $\sigma$ est faible.
On note $\mathrm X\sim \mathcal{N}(m,\sigma^2)$.
Variable normale centrée réduite :
Si $\rm X$ suit une loi normale de moyenne $m$ et d’écart type $\sigma$, alors la variable $\rm Z$ définie par : $\mathrm Z=\dfrac{\mathrm X-m}{\sigma}$
suit une loi normale de moyenne nulle ($\rm Z$ est centrée) et d’écart type égal à $1$ ($\rm Z$ est réduite).
A retenir : le graphique de la densité de probabilité de la loi normale centrée réduite :
Remarque :
$\mathrm P(m-1,96\sigma\leq \mathrm X\leq m+1,96\sigma)=0,95$
Dans la pratique, on souvent $2$ au lieu de $1,96$.
3) Loi exponentielle
La loi exponentielle dépend d’un paramètre $\lambda$, réel strictement positif.
On note $\mathrm X\sim \mathcal{E}(\lambda)$.
Propriétés :
- La fonction densité $f$ est définie sur $[0~ ;+\infty[$ par : $f(x)=\lambda \exp(-\lambda x)$.
- $\rm E(X)=\displaystyle\frac{1}{\lambda}$
- $\rm P(X\leq t)=1-\exp(-\lambda t)$
4) Approximations
Inégalité de Markov
Soit $\rm X$ une variable aléatoire réelle à valeurs positives admettant une espérance.
Alors $\forall a>0$, $\rm P(X\geq \mathcal a)\leq \dfrac{E(X)}{\mathcal a}$
Inégalité de Bienaymé-Tchebychev
Soit $\rm X$ une variable aléatoire admettant une espérance et une variance.
Alors $\forall \epsilon >0$, $\rm P(|X-E(X)|\geq \epsilon)\leq \displaystyle\frac{V(X)}{\epsilon^2}$