Retour

Compléments de probabilités ; couples et n-uplets de variables aléatoires réelles

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

Parcours Méthodologique : Complément de probabilités (Partie 1)

1) Couples de variables aléatoires discrètes finies

Définitions :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$ à valeurs respectivement dans les ensembles $\rm E$ et $\rm F$.
Le couple de variables aléatoires $\rm Z=(X,Y):\Omega \to E\times F$ vérifie pour tout $w\in \Omega$, $\mathrm Z(w)=(\mathrm X(w),\mathrm Y(w))$.

La loi conjointe des variables aléatoires $\rm X$ et $\rm Y$ est la loi du couple $\rm Z=(X,Y)$.

Les lois des deux variables aléatoires $\rm X$ et $\rm Y$ sont les lois marginales de la variable $\rm Z$.

Définition :

Soit $x\in \rm X(\Omega)$.

La loi conditionnelle de $Y$ sachant $\mathrm X=x$ est la loi de la variable aléatoire $Y$ pour la probabilité conditionnelle $\mathrm{P(\cdot|X}=x)$ : pour tout $\rm B\subset Y(\Omega)$,
$$\mathrm{P(Y\in B|X}=x)= \scriptstyle\left\{\begin{array}{ll}\frac{\mathrm{P((Y\in B),(X}=x))}{\mathrm{P(X}=x)} \mbox{ si } \displaystyle\mathrm{P(X}=x)>0 \\
\scriptstyle 0 ~\rm sinon\end{array}\right.$$

Définition :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.

Les variables $\rm X$ et $\rm Y$ sont indépendantes si :

  • Pour tous $\rm A\subset X(\Omega)$ et $\rm B\subset Y(\Omega)$, les événements $\rm (X\in A)$ et $\rm (Y\in B)$ sont indépendants.
  • Ou de façon équivalente :
    Pour tout $(x,y)\in \rm X(\Omega)\times Y(\Omega)$, $\mathrm{P(X}=x,\mathrm Y=y)=\mathrm{P(X}=x)\mathrm{P(Y}=y)$.

Théorème :

Si $\rm X$ et $\rm Y$ sont deux variables indépendantes, alors pour toutes fonctions $f,g$ définies sur les domaines de valeurs de $\rm X$ et $\rm Y$, les variables $f(\mathrm X)$ et $g(\mathrm Y)$ sont indépendantes.

Théorème :

  • Si $X_1$ et $X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\mathcal B(n_1,p)$ et $\mathcal B(n_2,p)$, alors $X_1 + X_2$ suit une loi $\mathcal B(n_1 + n_2,p)$. 
  • Si $X_1$ et $X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\mathcal P(\lambda_1)$ et $\mathcal P(\lambda_2)$, alors $X_1+X_2$ suit une loi $\mathcal P(\lambda_1+\lambda_2)$.

2) Calculs d’espérance, de variance et de corrélation

Propriétés :

Soient $\rm X,Y$ variables aléatoires réelles discrètes définies sur $(\Omega, \mathcal{A}, \rm P)$.
$\rm E(X+Y)=E(X)+E(Y)$

Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm XY$ admet une espérance et $\rm E(XY)=E(X)E(Y)$.

Définition :

La covariance de $\rm X$ et $\rm Y$ est :

$$\rm Cov(X,Y)= E((X-E(X))(Y-E(Y)))= E(XY)-E(X)E(Y)$$

$cov(X,X)=V(X)$

Théorème :

Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm Cov(X,Y)=0$.
Attention, la réciproque est fausse.

Théorème :

$\rm V(X+Y)=V(X)+2Cov(X,Y)+V(Y)$.

Définition :

  • Coefficient de corrélation linéaire :

$\rho=\displaystyle\frac{cov(X,Y)}{\sqrt{Var(X)Var(Y)}}$
Un coefficient de corrélation est un nombre toujours compris entre -1 et 1.

Un coefficient de corrélation nul entre $X$ et $Y$ signifie qu’il n’y a aucune liaison linéaire entre les deux variables.

Plus le coefficient de corrélation est proche de 1 ou -1, plus la liaison linéaire est forte entre les deux variables.

Parcours Méthodologique : Complément de probabilités (Partie 2)

1) Compléments sur les variables aléatoires à densité

Définition :

Soit $\rm X$ variable aléatoire réelle.

Sous réserve d’existence, le moment d’ordre $r$ avec $r\in\mathbb N^*$ est : $m_r(\mathrm X)=\mathrm{E(X}^r)$

Définition :

Soit $\rm X$ variable aléatoire réelle.

$\rm X$ est centrée si $\rm X$ admet une espérance et $\rm E(X)=0$.

$\rm X$ est centrée réduite si $\rm X$ admet un moment d’ordre $2$ et $\rm E(X)=0$ et $\rm V(X)=1$.

Théorème :

Si $\rm X$ admet un moment d’ordre $2$, $\rm X*=\dfrac{X-E(X)}{\sqrt{V(X)}}$ est centrée réduite.

Théorème de transfert :

Si $\rm X$ est une variable aléatoire admettant une densité $f$ nulle en dehors d’un intervalle $]a,b[$ $(-\infty \leq a < b\leq+\infty)$ et si $g$ est une fonction continue sauf éventuellement en un nombre fini de points sur $]a,b[$, $g(\rm X)$ admet une espérance si et seulement si l’intégrale $\displaystyle \int_a^b g(t)f(t)\mathrm dt$ converge absolument et dans ce cas $\mathrm E(g(\mathrm X))= \displaystyle \int_a^b g(t)f(t)\mathrm dt$.

Définition : Loi Gamma

Soit $\rm X$ une variable aléatoire réelle et $\nu>0$.

On dit que $\rm X$ suit une loi $\gamma$ de paramètre $\nu$ ($\rm X\sim \gamma (\nu)$) si elle admet comme densité la fonction :

$f_{\rm X}(x)=\left\{\begin{array}{l} \dfrac{x^{\nu-1}}{\Gamma(\nu)}\mathrm e^{-x} \text{ si } x>0\\ 0\text{ sinon }\end{array}\right.$

Avec $\displaystyle\Gamma(\nu)=\int_0^{+\infty}t^{\nu-1}\mathrm e^{-t}\mathrm dt$.

Propriétés :

Si $\rm X$ suit une loi $\gamma$ de paramètre $\nu$, $\rm E(X)=\nu$ et $\rm V(X)=\nu$

2) Couples de variables aléatoires réelles à densité

Définition :

Soient $\rm X$ et $\rm Y$ deux variables aléatoires réelles à densité définies sur $(\Omega, \mathcal{A}, \rm P)$.

Les variables $\rm X$ et $\rm Y$ sont indépendantes si :

  • Pour tous $\rm A\subset X(\Omega)$ et $\rm B\subset Y(\Omega)$, les événements $\rm (X\in A)$ et $\rm (Y\in B)$ sont indépendants.
    Ou de façon équivalente :
  • Pour tout $(x,y)\in \rm X(\Omega)\times Y(\Omega)$, $\mathrm{P(X}\leq x,\mathrm Y\leq y)$ $=\mathrm{P(X} \leq x)\mathrm{P(Y}\leq y)$.

Définition :

Soit la variable aléatoire somme $\rm Z = X + Y$ avec $\rm X,Y$ deux variables aléatoires à densité (de densité $f_{\rm X}$ et $f_{\rm Y}$) indépendantes.

Soit $h$ définie par $\displaystyle h(x)=\int_{-\infty}^{+\infty}f_{\rm X}(t)f_{\rm Y}(x-t)\mathrm dt$

Si la fonction $h$ est définie et continue sauf peut-être en un nombre fini de points, $h$ est une densité de $\rm Z$.

$h$ est le produit de convolution de $f_{\rm X}$ et $f_{\rm Y}$: $f\star f_{\rm Y}$.

Propriété :

Soit $\rm X$ et $\rm Y$ deux variables aléatoires à densité indépendantes admettant une espérance.

Si $\rm X$ et $\rm Y$ sont indépendantes, $\rm XY$ admet une espérance et $\rm E(XY)=E(X)E(Y)$.

Théorème :

  • Si $\rm X_1$ et $\rm X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\gamma(\nu_1)$et $\gamma(\nu_2)$ alors $\rm X_1 + X_2$
    suit une loi $\gamma(\nu_1+\nu_2)$.
  • Si $\rm X_1$ et $\rm X_2$ sont deux variables aléatoires indépendantes suivant respectivement des lois $\mathcal{N}(m_1,\sigma_1^2)$ et $\mathcal{N}(m_2,\sigma_2^2)$
    alors $\rm X_1 + X_2$ suit une loi $\mathcal{N}(m_1+m_2,\sigma_1^2+\sigma_2^2)$.

3) Suite de variables aléatoires réelles

Définitions :

Soient $\mathrm X_1, \ldots, \mathrm X_n$ des variables aléatoires réelles.
Les variables $\mathrm X_1, \ldots, \mathrm X_n$ sont mutuellement indépendantes si :

Pour tout choix de $n$ intervalles réels $\mathrm I_1, \ldots, \mathrm I_n$, les événements $(\mathrm X_1\in \mathrm I_1),\ldots ,(\mathrm X_n\in \mathrm I_n)$ sont mutuellement indépendants.

Les variables aléatoires de la suite $(\mathrm X_n)_{n\in \mathbb N*}$ sont dites mutuellement indépendantes si, pour tout entier $n > 1$, les variables aléatoires $\mathrm X_1, \ldots, \mathrm X_n$  sont mutuellement indépendantes.

Lemme des coalitions :

Si $\mathrm X_1, \mathrm X_2 , \ldots, \mathrm X_n$, sont mutuellement indépendantes, toute variable aléatoire fonction de $\mathrm X_1, \mathrm X_2, \ldots, \mathrm X_p$ est indépendante de toute variable aléatoire fonction de $\mathrm X_{p+1}, \mathrm X_{p+2}, \ldots, \mathrm X_n$.

Propriétés :

  • Si $\mathrm X_1, \mathrm X_2 , \ldots, \mathrm X_n$ sont mutuellement indépendantes et admettent toutes une espérance, alors le produit $\mathrm X_1 \ldots \mathrm X_n$ admet aussi une espérance et $\mathrm{E(X}_1 \ldots \mathrm X_n)$ $= \mathrm{E(X}_1)\times \ldots \times \mathrm{E(X}_n)$
  • Si $\mathrm X_1, \mathrm X_2 , \ldots, \mathrm X_n$ sont indépendantes deux à deux et admettent toutes une variance, alors la somme $\mathrm X_1+ \ldots + \mathrm X_n$ admet aussi une variance et $\mathrm {V(X}_1+ \ldots + \mathrm X_n)$ $= \mathrm{V(X}_1)+ \ldots +\mathrm{V(X}_n)$.

Théorèmes :

La somme de $n$ variables aléatoires de Bernoulli mutuellement indépendantes et de même espérance $p$ suit la loi binomiale $\mathrm B(n,p)$.

Théorèmes :

  • Soit $\mathrm X_1, \mathrm X_2 , \ldots , \mathrm X_n$ des variables aléatoires suivant des lois binomiales de paramètres respectifs $(m_1,p) \ldots (m_n,p)$
    Si $\mathrm X_1, \mathrm X_2 , \ldots, \mathrm X_n$ sont mutuellement indépendantes, la variable somme $\mathrm X_1+ \ldots + \mathrm X_n$ suit une loi binomiale de paramètre $(m_1+ \ldots +m_n,p)$.
  • Soit $\mathrm X_1, \mathrm X_2 , \ldots, \mathrm X_n$ des variables aléatoires suivant des lois de Poisson de paramètres respectifs $\lambda_1, \ldots ,\lambda_n$.
    Si $\mathrm X_1, \mathrm X_2 , \ldots , \mathrm X_n$ sont mutuellement indépendantes, la variable somme $\mathrm X_1+ \ldots +\mathrm X_n$ suit une loi de Poisson de paramètre $\lambda_1+ \ldots +\lambda_n$.

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !