Soient $X,Y$ des variables aléatoires. 
$E$ désigne l’espérance et $V$ la variance des variables aléatoires.

Propriétés : Soit $a \in \mathbb R$. Si $X$ et $Y$ admettent des espérances, 
$a X$ et $X+Y$ admettent une espérance :
$E(a X)=a E(X)$
$E(X+Y)=E(X)+E(Y)$

Propriétés : Si $X$ admet une variance : $V(aX+b)=a^2V(X)$  pour tous $a,b\in \mathbb R$.

Théorème : Si $X$ et $Y$ admettent des variances et si $X$ et $Y$ sont indépendantes : $V(X+Y)=V(X)+ V(Y)$.

Propriété : Si une variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p$ (avec $p\in ]0 ;1[$) alors :  $E(X)=p$ et $V(X)=p(1-p)$.

Propriété : Si une variable aléatoire $X$ suit une loi binomiale de paramètres $n$ et $p$ (avec $n\in\mathbb N^*$ et $p\in ]0 ;1[$) alors :
$E(X)=np$,        $V(X)=np(1-p)$  et     $\sigma(X)=\sqrt{np(1-p)}$.

Remarque : Cette propriété découle directement du fait qu’une loi binomiale représente le nombre de succès dans une répétition d’épreuves de Bernoulli indépendantes. Le nombre de succès peut donc être représenté comme une somme de variables de Bernoulli indépendantes de même loi.

Notations : On considère un échantillon de taille $n$ d’une loi de probabilité : ($X_1$,…,$X_n$)  variables indépendantes identiques suivant cette loi d’espérance $\mu$ et de variance $\sigma^2$.
On note la somme de ces variables : $S_n = X_1 + … + X_n$ et la moyenne de ces variables : $M_n = \displaystyle\frac{S_n}{n}$.

Propriétés : L’espérance de la somme et de la moyenne sont données par :
$E(S_n)=n\mu$
$E(M_n)=\mu$

Propriétés : Si chacune des variables $X_i$ admet une variance :
$V(S_n)=n\sigma^2$
$V(M_n)=\displaystyle\frac{\sigma^2}{n}$.