Retour

Tests statistiques

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

Principe des tests paramétriques

Un test statistique (ou test d’hypothèse) permet de choisir entre deux hypothèses en fonction des résultats obtenus sur un ou deux échantillons par rapport à un risque $\alpha$ fixé à l’avance (a priori).
$H_0$= « Il n’y a pas de différence » (hypothèse nulle)
$H_1$= « Il y a une différence » (hypothèse alternative)
L’hypothèse $H_0$ doit toujours être faite sur les paramètres de la population.
Si on rejette $H_0$, on peut conclure qu’il y a une différence significative au risque $\alpha$.
Si on veut savoir s’il existe une différence quel que soit le sens de cette différence, on réalise un test bilatéral (par exemple : $H_1$ : $\mu_A\neq \mu_B$).
Si on souhaite privilégier un sens, on réalise un test unilatéral. On doit alors préciser l’hypothèse (par exemple : $H_1$ : $\mu_A > \mu_B$).
L’hypothèse alternative doit être posée a priori, avant de réaliser le test.

Méthode de résolution d’un test

  • On formule les hypothèses $H_0$ et $H_1$ du test
  • On identifie le test à utiliser 
  • On se fixe un risque $\alpha$ (par exemple 5%)
  • On vérifie les conditions de validité éventuelles du test
  • On calcule le paramètre du test $z$
  • On détermine la valeur seuil $z_\alpha$ en fonction du risque $\alpha$
  • On conclut le test : si $|z|\geq z_\alpha$, on rejette $H_0$.

En cas de rejet de $H_0$, on peut déterminer le degré de signification (p-value) : c’est la plus petite valeur de risque pour laquelle il y a rejet de $H_0$. On l’obtient par exemple par lecture de la table de l’écart-réduit pour le test $z$.

L’arbre suivant résume les cas possibles à l’issue d’un test statistique :

$\alpha$ est le risque de première espèce.
$1-\alpha$ représente le niveau de confiance.
$\beta$ représente le risque de deuxième espèce.
$1-\beta$ correspond à la puissance du test.

Exemples de tests paramétriques

Les tests de paramètres « z » sont des tests d’écart-réduit (on compare le paramètre « z » à une valeur provenant de la table de la loi normale), alors que les tests « t » sont des tests de Student (respectivement à $n$ et $n_A+n_B-2$ degrés de liberté : ddl).

  • Test de Fisher : ce test permet de comparer des variances.
    Le paramètre du test est le quotient des deux variances, la plus élevée étant placée au numérateur, par exemple $\displaystyle\frac{s_1^2}{s_2^2}$. Le paramètre devra être comparé à une valeur théorique obtenue dans la table de Fisher-Snedecor pour $\alpha/2$ avec $n_1-1$ et $n_2-1$ degrés de liberté.
  • Séries appariées : On parle de séries appariées si avec un seul échantillon, on obtient deux séries de mesures (par exemple avant/après un traitement).
    On s’intéresse à la différence des valeurs de chaque couple de valeurs de séries appariées, on calcule la moyenne et la variance de cette différence. On se ramène ensuite à une comparaison moyenne observée (la moyenne de la différence)/moyenne théorique (la moyenne nulle).

Tests du Khi-deux d'adéquation

Test du Khi-deux d’adéquation d’une distribution expérimentale à une distribution théorique (1 population, 1 caractère)

On considère une distribution expérimentale (observée) d’effectif $N$. On souhaite savoir si la distribution expérimentale est conforme à une distribution théorique.

On suppose que le caractère étudié possède $n$ modalités.
On note $O_i$ l’effectif observé pour la classe de modalité $i$.

D’après la distribution théorique, il y a une probabilité $P_i$ pour qu’un individu présente le caractère correspondant à la modalité $i$.
On appelle $T_i=N\times P_i$ l’effectif théorique pour chaque modalité $i$.

Remarques :

  • Un effectif théorique n’est pas toujours un nombre entier mais on n’arrondit pas le résultat afin que les calculs soient le plus précis possible.
  • On doit retrouver $\displaystyle\sum_{i=1}^n T_i=N$. Il faut donc dans certains cas rajouter des classes supplémentaires pour les calculs d’effectifs théoriques correspondant à des classes pour lesquelles aucune valeur n’avait été observée dans l’échantillon.

Principe du test du $\chi^2$ de Pearson (ici test d’ajustement = test de conformité = test d’adéquation) :

Pour effectuer un test du $\chi^2$, il faut vérifier des conditions d’utilisation : $N\geq 30$, $n_i\geq 5$ pour tout $i$ où $n_i$ représente les effectifs de classe.

Si $n_i<5$, il faut regrouper des classes.

$\nu=n’-1$ indique le nombre de degrés de liberté du test avec $n’$ le nombre de classes après regroupement éventuel. 

  • $H_0$ : « Il y a conformité entre la distribution expérimentale et la distribution théorique » 
  • $\chi^2=\displaystyle\sum_{i=1}^n\frac{(O_i-T_i)^2}{T_i}$
  • On conclut au risque $\alpha$ en lisant $\chi^2_0$ dans la table du $\chi^2$ de Pearson (avec comme paramètres $\nu$ et $\alpha$).
  • Si $\chi^2< \chi^2_0$ on ne rejette pas $H_0$ 
  • Sinon on rejette $H_0$.

Equivalence avec le test « z » :

En notant $p$ la proportion observée sur un échantillon de taille $n$ et $\pi_ {th}$ la proportion théorique, il y a équivalence entre un test « z » de comparaison proportion observée/proportion théorique et un test du Khi-deux de conformité à 1 ddl avec :

$O_1=n\times p$, $O_2=n\times (1-p)$
$T_1=n\times \pi_{th}$, $T_2=n\times (1-\pi_{th})$

Tests du Khi-deux d'association

Test du Khi-deux d’association entre caractères qualitatifs (1 population, 2 caractères)

On considère une population qui possède 2 caractères qualitatifs $A$ et $B$ qui peuvent posséder plusieurs modalités : $A_j$ et $B_i$.
On obtient le tableau de contingence suivant avec $O_{ij}$ les effectifs observés :

Les effectifs théoriques (indiqués ici entre parenthèses) se calculent de la façon suivante: $T_{ij}=\displaystyle\frac{n_i\times n’_j}{N}$

$\nu=(k-1)(l-1)$ représente le nombre de degrés de liberté du test.

Principe du test du $\chi^2$ de Pearson (ici test d’indépendance) :

Pour effectuer le test, il faut vérifier des conditions d’utilisation : $N\geq 30$, $n\geq 5$ où $n$ représente les effectifs de classe.

$\chi^2=\displaystyle\sum_{i=1}^l\sum_{j=1}^k\frac{(O_{ij}-T_{ij})^2}{T_{ij}}$

Si $ 30\leq N<50$ et $n<5$ on utilise la formule avec la correction de Yates (elle n’est valable que pour les tableaux $2\times 2$) : $\chi^2=\displaystyle\sum_{i=1}^2\sum_{j=1}^2\frac{(|O_{ij}-T_{ij}|-0,5)^2}{T_{ij}}$

  • $H_0$ : « Il y a indépendance entre les caractères $A$ et $B$ »
  • On conclut au risque $\alpha$ en lisant $\chi^2_0$ dans la table du $\chi^2$ de Pearson (avec comme paramètres $\nu$ et $\alpha$).
  • Si $\chi^2< \chi^2_0$ on ne rejette pas $H_0$ 
  • Sinon on rejette $H_0$.

Test du Khi-deux de comparaison

Test du Khi-deux de comparaison entre plusieurs distributions observées (plusieurs populations, 1 caractère)

Il permet de tester si des échantillons sont issus d’une même population.

On étudie un certain caractère qualitatif sur plusieurs échantillons.
On considère $l$ échantillons $E_1,E_2,…,E_l$ de tailles respectives $n_1,n_2,…,n_l$.
On note $O_{ij}$ l’effectif observé dans l’échantillon $E_i$ pour la modalité $j$ du caractère étudié.

Les effectifs théoriques se calculent de la façon suivante: $T_{ij}=\displaystyle\frac{n_i\times n’_j}{N}$.

$\nu=(k-1)(l-1)$ représente le nombre de degrés de liberté du test.

Principe du test du $\chi^2$ de Pearson (ici test d’homogénéité) :

Le principe du test est identique à celui du test d’indépendance, aux expressions de $H_0$ et $H_1$ près.

Test de McNemar

Test de McNemar : comparaison de deux pourcentages observés sur échantillons appariés

Exemple : On s’intéresse aux résultats de thérapies chez un groupe de personnes ayant testé deux types de thérapies.

On ne s’intéresse qu’aux paires discordantes : il y en a $b+c$. 
$H_0$ : les deux thérapies fournissent les mêmes résultats, autrement dit, il y a autant de paires discordantes « échec / succès » que de paires discordantes « succès / échec ».

  • Pour effectuer le test, il faut vérifier des conditions d’utilisation: $\displaystyle\frac{b+c}{2}\geq 5$
  • Valeur de la statistique du test : $\chi^2=\displaystyle\frac{(b-c)^2}{b+c}$
  • On conclut au risque $\alpha$ en lisant $\chi^2_0$ dans la table du $\chi^2$ de Pearson (avec comme paramètres $\nu$=1 ddl et $\alpha$).
  • Si $\chi^2< \chi^2_0$ on ne rejette pas $H_0$.
  • Sinon on rejette $H_0$.

Tests non paramétriques

On pourrait utiliser les tests non paramétriques dans tous les cas puisqu’ils ne nécessitent aucune hypothèse sur la distribution de la variable, mais ils sont à utiliser en derniers recours car ils sont moins performants que les tests paramétriques.

Comparaison de deux moyennes observées sur échantillons indépendants : test de Mann-Whitney-Wilcoxon.

Ce test ne compare pas directement des moyennes mais permet de comparer les distributions et de détecter un décalage éventuel entre ces distributions. On fait donc l’hypothèse nulle sur les distributions :
$H_0$ : les échantillons A et B proviennent de deux populations identiques, de même distribution

  • On regroupe les deux échantillons de tailles respectives $n_A$ et $n_B$, avec par convention $n_A\leq n_B$.
  • On range les valeurs dans l’ordre croissant et on note les rangs de ces valeurs (pour des valeurs ex-aequo, ce sera le rang moyen des valeurs ex-aequo).
  • On calcule $r_A$ la somme des rangs des valeurs de l’échantillon $A$.
  • On calcule $u_A=\displaystyle r_A-\frac{n_A(n_A+1)}{2}$.
  • Pour de petites valeurs de $n_A$ et $n_B$, on compare la valeur de la statistique $u_A$ à une valeur lue dans la table de Mann-Whitney et on conclut le test.

Attention : Avec la table de Mann-Whitney-Wilcoxon il faut conclure dans le sens inverse des tests paramétriques. Si la valeur de $u_A$ est inférieure à la valeur lue dans la table, alors on rejette l’hypothèse nulle au risque 5%.

Comparaison de deux moyennes observées sur échantillons appariés : test des rangs signés de Wilcoxon pour des échantillons appariés.

  • On calcule la différence $D$ pour chaque paire de valeurs en notant le signe positif ou négatif de la différence.
  • On classe les valeurs $D$ par ordre croissant de valeur absolue, en éliminant les différences nulles. On note $n$ le nombre de différences non nulles.
  • On calcule la somme $P$ des rangs des valeurs positives et la somme $N$ des rangs des valeurs négatives. On note $T=min(P,N)$.
  • On pose $H_0$ : La distribution de la différence $D$ est répartie de façon symétrique autour de 0. La distribution des rangs des différences positives est donc identique à celle des rangs des différences négatives.
  • Sous $H_0$, la variable $T$ suit une loi de Wilcoxon de moyenne $\mu=\displaystyle\frac{n(n+1)}{4}$ et de variance $\sigma^2=\displaystyle\frac{n(n+1)(2n+1)}{24}$
  • Pour de petits effectifs, on compare la valeur de $T$ avec une valeur lue dans la table pour le test des rangs signés de Wilcoxon pour l’effectif $n$ et on conclut.

Attention : Avec la table pour le test des rangs signés de Wilcoxon, il faut conclure dans le sens inverse des tests paramétriques. Si la valeur de $T$ est inférieure à la valeur lue dans la table, alors on rejette l’hypothèse nulle au risque 5%.

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !