go-back Retour

Tests statistiques

📝 Mini-cours GRATUIT

Principe des tests paramétriques

Un test statistique (ou test d’hypothèse) permet de choisir entre deux hypothèses en fonction des résultats obtenus sur un ou deux échantillons par rapport à un risque α fixé à l’avance (a priori).
H0= « Il n’y a pas de différence » (hypothèse nulle)
H1= « Il y a une différence » (hypothèse alternative)
L’hypothèse H0 doit toujours être faite sur les paramètres de la population.
Si on rejette H0, on peut conclure qu’il y a une différence significative au risque α.
Si on veut savoir s’il existe une différence quel que soit le sens de cette différence, on réalise un test bilatéral (par exemple : H1 : μAμB).
Si on souhaite privilégier un sens, on réalise un test unilatéral. On doit alors préciser l’hypothèse (par exemple : H1 : μA>μB).
L’hypothèse alternative doit être posée a priori, avant de réaliser le test.

Méthode de résolution d’un test

  • On formule les hypothèses H0 et H1 du test
  • On identifie le test à utiliser 
  • On se fixe un risque α (par exemple 5%)
  • On vérifie les conditions de validité éventuelles du test
  • On calcule le paramètre du test z
  • On détermine la valeur seuil zα en fonction du risque α
  • On conclut le test : si |z|zα, on rejette H0.

En cas de rejet de H0, on peut déterminer le degré de signification (p-value) : c’est la plus petite valeur de risque pour laquelle il y a rejet de H0. On l’obtient par exemple par lecture de la table de l’écart-réduit pour le test z.

L’arbre suivant résume les cas possibles à l’issue d’un test statistique :

α est le risque de première espèce.
1α représente le niveau de confiance.
β représente le risque de deuxième espèce.
1β correspond à la puissance du test.

Exemples de tests paramétriques

Les tests de paramètres « z » sont des tests d’écart-réduit (on compare le paramètre « z » à une valeur provenant de la table de la loi normale), alors que les tests « t » sont des tests de Student (respectivement à n et nA+nB2 degrés de liberté : ddl).

  • Test de Fisher : ce test permet de comparer des variances.
    Le paramètre du test est le quotient des deux variances, la plus élevée étant placée au numérateur, par exemple s21s22. Le paramètre devra être comparé à une valeur théorique obtenue dans la table de Fisher-Snedecor pour α/2 avec n11 et n21 degrés de liberté.
  • Séries appariées : On parle de séries appariées si avec un seul échantillon, on obtient deux séries de mesures (par exemple avant/après un traitement).
    On s’intéresse à la différence des valeurs de chaque couple de valeurs de séries appariées, on calcule la moyenne et la variance de cette différence. On se ramène ensuite à une comparaison moyenne observée (la moyenne de la différence)/moyenne théorique (la moyenne nulle).

Tests du Khi-deux d'adéquation

Test du Khi-deux d’adéquation d’une distribution expérimentale à une distribution théorique (1 population, 1 caractère)

On considère une distribution expérimentale (observée) d’effectif $N$. On souhaite savoir si la distribution expérimentale est conforme à une distribution théorique.

On suppose que le caractère étudié possède $n$ modalités.
On note $O_i$ l’effectif observé pour la classe de modalité $i$.

D’après la distribution théorique, il y a une probabilité $P_i$ pour qu’un individu présente le caractère correspondant à la modalité $i$.
On appelle $T_i=N\times P_i$ l’effectif théorique pour chaque modalité $i$.

Remarques :

  • Un effectif théorique n’est pas toujours un nombre entier mais on n’arrondit pas le résultat afin que les calculs soient le plus précis possible.
  • On doit retrouver $\displaystyle\sum_{i=1}^n T_i=N$. Il faut donc dans certains cas rajouter des classes supplémentaires pour les calculs d’effectifs théoriques correspondant à des classes pour lesquelles aucune valeur n’avait été observée dans l’échantillon.

Principe du test du $\chi^2$ de Pearson (ici test d’ajustement = test de conformité = test d’adéquation) :

Pour effectuer un test du $\chi^2$, il faut vérifier des conditions d’utilisation : $N\geq 30$, $n_i\geq 5$ pour tout $i$ où $n_i$ représente les effectifs de classe.

Si $n_i<5$, il faut regrouper des classes.

$\nu=n’-1$ indique le nombre de degrés de liberté du test avec $n’$ le nombre de classes après regroupement éventuel. 

  • $H_0$ : « Il y a conformité entre la distribution expérimentale et la distribution théorique » 
  • $\chi^2=\displaystyle\sum_{i=1}^n\frac{(O_i-T_i)^2}{T_i}$
  • On conclut au risque $\alpha$ en lisant $\chi^2_0$ dans la table du $\chi^2$ de Pearson (avec comme paramètres $\nu$ et $\alpha$).
  • Si $\chi^2< \chi^2_0$ on ne rejette pas $H_0$ 
  • Sinon on rejette $H_0$.

Equivalence avec le test « z » :

En notant $p$ la proportion observée sur un échantillon de taille $n$ et $\pi_ {th}$ la proportion théorique, il y a équivalence entre un test « z » de comparaison proportion observée/proportion théorique et un test du Khi-deux de conformité à 1 ddl avec :

$O_1=n\times p$, $O_2=n\times (1-p)$
$T_1=n\times \pi_{th}$, $T_2=n\times (1-\pi_{th})$

Tests du Khi-deux d'association

Test du Khi-deux d’association entre caractères qualitatifs (1 population, 2 caractères)

On considère une population qui possède 2 caractères qualitatifs $A$ et $B$ qui peuvent posséder plusieurs modalités : $A_j$ et $B_i$.
On obtient le tableau de contingence suivant avec $O_{ij}$ les effectifs observés :

Les effectifs théoriques (indiqués ici entre parenthèses) se calculent de la façon suivante: $T_{ij}=\displaystyle\frac{n_i\times n’_j}{N}$

$\nu=(k-1)(l-1)$ représente le nombre de degrés de liberté du test.

Principe du test du $\chi^2$ de Pearson (ici test d’indépendance) :

Pour effectuer le test, il faut vérifier des conditions d’utilisation : $N\geq 30$, $n\geq 5$ où $n$ représente les effectifs de classe.

$\chi^2=\displaystyle\sum_{i=1}^l\sum_{j=1}^k\frac{(O_{ij}-T_{ij})^2}{T_{ij}}$

Si $ 30\leq N<50$ et $n<5$ on utilise la formule avec la correction de Yates (elle n’est valable que pour les tableaux $2\times 2$) : $\chi^2=\displaystyle\sum_{i=1}^2\sum_{j=1}^2\frac{(|O_{ij}-T_{ij}|-0,5)^2}{T_{ij}}$

  • $H_0$ : « Il y a indépendance entre les caractères $A$ et $B$ »
  • On conclut au risque $\alpha$ en lisant $\chi^2_0$ dans la table du $\chi^2$ de Pearson (avec comme paramètres $\nu$ et $\alpha$).
  • Si $\chi^2< \chi^2_0$ on ne rejette pas $H_0$ 
  • Sinon on rejette $H_0$.

Test du Khi-deux de comparaison

Test du Khi-deux de comparaison entre plusieurs distributions observées (plusieurs populations, 1 caractère)

Il permet de tester si des échantillons sont issus d’une même population.

On étudie un certain caractère qualitatif sur plusieurs échantillons.
On considère $l$ échantillons $E_1,E_2,…,E_l$ de tailles respectives $n_1,n_2,…,n_l$.
On note $O_{ij}$ l’effectif observé dans l’échantillon $E_i$ pour la modalité $j$ du caractère étudié.

Les effectifs théoriques se calculent de la façon suivante: $T_{ij}=\displaystyle\frac{n_i\times n’_j}{N}$.

$\nu=(k-1)(l-1)$ représente le nombre de degrés de liberté du test.

Principe du test du $\chi^2$ de Pearson (ici test d’homogénéité) :

Le principe du test est identique à celui du test d’indépendance, aux expressions de $H_0$ et $H_1$ près.

Test de McNemar

Test de McNemar : comparaison de deux pourcentages observés sur échantillons appariés

Exemple : On s’intéresse aux résultats de thérapies chez un groupe de personnes ayant testé deux types de thérapies.

On ne s’intéresse qu’aux paires discordantes : il y en a $b+c$. 
$H_0$ : les deux thérapies fournissent les mêmes résultats, autrement dit, il y a autant de paires discordantes « échec / succès » que de paires discordantes « succès / échec ».

  • Pour effectuer le test, il faut vérifier des conditions d’utilisation: $\displaystyle\frac{b+c}{2}\geq 5$
  • Valeur de la statistique du test : $\chi^2=\displaystyle\frac{(b-c)^2}{b+c}$
  • On conclut au risque $\alpha$ en lisant $\chi^2_0$ dans la table du $\chi^2$ de Pearson (avec comme paramètres $\nu$=1 ddl et $\alpha$).
  • Si $\chi^2< \chi^2_0$ on ne rejette pas $H_0$.
  • Sinon on rejette $H_0$.

Tests non paramétriques

On pourrait utiliser les tests non paramétriques dans tous les cas puisqu’ils ne nécessitent aucune hypothèse sur la distribution de la variable, mais ils sont à utiliser en derniers recours car ils sont moins performants que les tests paramétriques.

Comparaison de deux moyennes observées sur échantillons indépendants : test de Mann-Whitney-Wilcoxon.

Ce test ne compare pas directement des moyennes mais permet de comparer les distributions et de détecter un décalage éventuel entre ces distributions. On fait donc l’hypothèse nulle sur les distributions :
$H_0$ : les échantillons A et B proviennent de deux populations identiques, de même distribution

  • On regroupe les deux échantillons de tailles respectives $n_A$ et $n_B$, avec par convention $n_A\leq n_B$.
  • On range les valeurs dans l’ordre croissant et on note les rangs de ces valeurs (pour des valeurs ex-aequo, ce sera le rang moyen des valeurs ex-aequo).
  • On calcule $r_A$ la somme des rangs des valeurs de l’échantillon $A$.
  • On calcule $u_A=\displaystyle r_A-\frac{n_A(n_A+1)}{2}$.
  • Pour de petites valeurs de $n_A$ et $n_B$, on compare la valeur de la statistique $u_A$ à une valeur lue dans la table de Mann-Whitney et on conclut le test.

Attention : Avec la table de Mann-Whitney-Wilcoxon il faut conclure dans le sens inverse des tests paramétriques. Si la valeur de $u_A$ est inférieure à la valeur lue dans la table, alors on rejette l’hypothèse nulle au risque 5%.

Comparaison de deux moyennes observées sur échantillons appariés : test des rangs signés de Wilcoxon pour des échantillons appariés.

  • On calcule la différence $D$ pour chaque paire de valeurs en notant le signe positif ou négatif de la différence.
  • On classe les valeurs $D$ par ordre croissant de valeur absolue, en éliminant les différences nulles. On note $n$ le nombre de différences non nulles.
  • On calcule la somme $P$ des rangs des valeurs positives et la somme $N$ des rangs des valeurs négatives. On note $T=min(P,N)$.
  • On pose $H_0$ : La distribution de la différence $D$ est répartie de façon symétrique autour de 0. La distribution des rangs des différences positives est donc identique à celle des rangs des différences négatives.
  • Sous $H_0$, la variable $T$ suit une loi de Wilcoxon de moyenne $\mu=\displaystyle\frac{n(n+1)}{4}$ et de variance $\sigma^2=\displaystyle\frac{n(n+1)(2n+1)}{24}$
  • Pour de petits effectifs, on compare la valeur de $T$ avec une valeur lue dans la table pour le test des rangs signés de Wilcoxon pour l’effectif $n$ et on conclut.

Attention : Avec la table pour le test des rangs signés de Wilcoxon, il faut conclure dans le sens inverse des tests paramétriques. Si la valeur de $T$ est inférieure à la valeur lue dans la table, alors on rejette l’hypothèse nulle au risque 5%.

NOMAD EDUCATION

L’app unique pour réussir !