1) Matrice rectangulaire

Une matrice de taille $n \times p$ à coefficients dans ${\Bbb K}$ est un tableau à $n$ lignes et $p$ colonnes d'éléments appartenant à ${\Bbb K}$.

Une matrice de taille $n \times p$ se note $A=(a_{i,j})_{\stackrel{1 \leq i \leq n}{_{1 \leq j \leq p}}}$ ou de façon "développée":

$A=\left(\begin{array}{ccccc}
      a_{1,1} & & \ldots & & a_{1,p}\\
& & & & \\
      \vdots & & a_{i,j} & & \vdots \\
& & & & \\
      a_{n,1} & & \ldots & & a_{n,p}
\end{array}\right)$.

$a_{i,j}\in {\Bbb K}$ désigne le coefficient de la matrice $A$ situé à la ligne $i$ et la colonne $j$.

$M_{n,p}({\Bbb K})$ désigne l'ensemble des matrices de taille $n \times p$ à coefficients dans ${\Bbb K}$.

2) Multiplication matricielle :

Soit $A = (a_{i,j})_{\stackrel{1 \leq i \leq n}{_{1 \leq j \leq p}}}$ un élément de $M_{n,p}({\Bbb K})$.

Soit $B = (b_{i,j})_{\stackrel{1 \leq i \leq p}{_{1 \leq j \leq q}}}$ un élément de $M_{p,q}({\Bbb K})$.

On définit $C=A \times B$ de la façon suivante :

$C \in M_{n,q}({\Bbb K})$ autrement dit $C$ est une matrice de taille $n \times q$. Les coefficients de la matrice $C$ sont définies par:

$\forall (i,j) \in\left\{1,\ldots,n\right\}\times\left\{1,\ldots,q \right\} c_{i,j}=\sum_{k=1}^{p}a_{i,k}b_{k,j} = a_{i,1}b_{1,j} + a_{i,2}b_{2,j} + \ldots + a_{i,p}b_{p,j}$.

Pour se rappeler de cette formule, on dispose la matrice $A$ en bas à gauche et la matrice $B$ en haut à
droite. 

Le coefficient $c_{i,j}$ est situé à l'intersection de la ligne $i$ de la matrice $A$ et de la colonne $j$ de la matrice $B$. Pour se remémorer la formule, il faut prendre les coefficients de la matrice $A$ qui sont sur la même ligne que $c_{i,j}$ et les coefficients de la matrice $B$ qui sont sur la même colonne que $c_{i,j}$.

Par ailleurs la taille de la matrice $C$ est imposée par la disposition ci-dessus.

En effet, on observe que le nombre de lignes de la matrice $C$ est égal au nombre de lignes de la matrice $A$ et le nombre de colonnes de la matrice $C$ est égal au nombre de colonnes de la matrice $B$.

Exemple :

Soient $A=\left(\begin{array}{cc}
2 & 1 \\
0 & 1 \\
3 & 1
\end{array}\right)$
et
$B=\left(\begin{array}{rrrr}
3 & 2 & -1 & 2 \\
5 & 2 & 0 & -1
\end{array}\right)$. 

Il n'est pas possible de calculer $B \times A$ car le nombre de colonnes de $B$ n'est pas égal au nombre de lignes de $A$.

Il est possible de calculer $A \times B$ car $(3 \times 2) \times (2 \times 4) \rightarrow 3 \times 4$. 

On obtient :

$A \times B =\left(\begin{array}{cccc}
11 & 6 & -2 & 3\\
5 & 2 & 0 & -1 \\
14 & 8 & -3 & 5
\end{array}\right)$.

3) Méthodes pour calculer $A^p$ quand $A$ est une matrice carrée. 

a) On calcule les premières puissances de $A$ et on conjecture une formule générale que l'on montre par récurrence.

Exemple : posons $E$ la matrice carrée d'ordre $n$ remplie de $1$. 

Alors $E^2 = nE$. Donc $E^3= E^2 \times E = nE^2 = n^2E$. 

On conjecture que $E^{p} = n^{p-1}E$; on montre cette formule par récurrence sur $p$.

Attention cette formule n'est valable que pour $p \geq 1$ car par définition $E^{0}=I$ (=la matrice identité ou unité = la matrice diagonale de coefficient $1$). 

b) On décompose $A$ et on utilise la formule du binôme de Newton. 

Remarque si $A$ et $B$ sont des matrices carrés d'ordre $n$ (c'est-à-dire le nombre de lignes = nombre de colonnes = $n$), $(A+B)^2 = A^2+B^2+AB+BA$.

On ne peut pas simplifier davantage sans hypothèse supplémentaire sur les matrices $A$ et $B$. 

Si $A$ et $B$ commutent c'est-à dire si $A \times B = B \times A$ alors on a la théorème suivant (c'est la formule du binôme de Newton pour les matrices) :

$\displaystyle (A+B)^p = \sum_{k=0}^{p} 
\left(\begin{array}{c}
p\\
k
\end{array}\right)
A^kB^{p-k}$.

L'idée est de décomposer $A = A_1 + A_2$ avec $A_1$ et $A_2$ des matrices qui commutent. On peut alors utiliser la formule du binôme de Newton :

$\displaystyle (A_1+A_2)^p = \sum_{k=0}^{p}
\left(\begin{array}{c}
p\\
k
\end{array}\right)
A_1^kA_2^{p-k}$.

On espère ensuite que le calcul des puissances $A_1^k$ et $A_2^{p-k}$ soient simples afin de calculer la somme. 

Les matrices dont les puissances sont simples à calculer sont par exemple :

  • les matrices diagonales
  • les matrices nilpotentes qui sont définies ci-dessous

En effet, pour les matrices diagonales, on a :

Si $D = {\rm diag}(\alpha_1,\ldots,\alpha_n)$, alors, pour tout $p \in {\Bbb N}$ : $D^p = {\rm diag}(\alpha_1^p,\ldots,\alpha_n^p)$.

Une matrice nilpotente est une matrice $A$ de $M_n({\Bbb K})$ telle qu'il existe un entier $q$ tel que $A^{q}=0$. 

Exemple :

Calculer $A^p=\left(\begin{array}{ccc}
3 & 0 & 2\\
0 & 2 & 0 \\
0 & 0 & 3
  \end{array}\right)^p$ pour tout $p \in {\Bbb N}$. 

Décomposons la matrice :

$A = \underbrace{\left(\begin{array}{ccc}
3 & 0 & 0\\
0 & 2 & 0 \\
0 & 0 & 3
  \end{array}\right)}_{=D} + \underbrace{\left(\begin{array}{ccc}
0 & 0 & 2\\
0 & 0 & 0 \\
0 & 0 & 0
  \end{array}\right)}_{=N}$.

Nous avons décomposé $A$ en la somme d'une matrice diagonale et d'une matrice dont on montrera qu'elle est nilpotente.

Vérifions que $D$ et $N$ commutent. On a :

$DN = ND = \left(\begin{array}{ccc}
0 & 0 & 6\\
0 & 0 & 0 \\
0 & 0 & 0
  \end{array}\right)$.

Donc on peut utiliser la formule du binôme de Newton :

$\displaystyle A^p = (D+N)^p = \sum_{k=0}^p
\left(\begin{array}{c}
p\\
k
\end{array}\right)
D^{p-k}N^{k}$.

Par puissance d'une matrice diagonale, on a :

$D^{p-k} = \left(\begin{array}{ccc}
3^{p-k} & 0 & 0\\
0 & 2^{p-k} & 0 \\
0 & 0 & 3^{p-k}
  \end{array}\right)$.

Par ailleurs, un calcul donne $N^2=0_{M_3({\Bbb R})}$ donc $N$ est une matrice nilpotente. On en déduit que $N^{k}=0_{M_3({\Bbb R})}$ dès que $k\geq2$. 

Découpons la somme en deux parties :

$\scriptstyle A^p = \sum_{k=0}^{1}
\left(\begin{array}{c}
p\\
k
\end{array}\right) 
D^{p-k}N^{k} 
+
\scriptstyle \sum_{k=2}^{p}
\left(\begin{array}{c}
p\\
k
\end{array}\right)
D^{p-k}\underbrace{N^{k}}_{=(0)}$

On a donc $\displaystyle A^p = \sum_{k=0}^{1}
\left(\begin{array}{c}
p\\
k
\end{array}\right)
D^{p-k}N^{k}$

Attention : ce n'est pas parce que la somme s'arrête à $k=1$ que $p=1$ !! $p$ reste $p$ !!

On a :

$\scriptstyle A^p = 
\left(\begin{array}{c}
p\\
0
\end{array}\right)D^{p-0}N^{0} + 
\left(\begin{array}{c}
p\\
1
\end{array}\right)
D^{p-1}N^{1}$ $\scriptstyle= D^pI_3 + p D^{p-1}N = D^p + p D^{p-1}N$

Donc $\scriptstyle A^p = \left(\begin{array}{ccc}
3^{p} & 0 & 0\\
0 & 2^{p} & 0 \\
0 & 0 & 3^{p}
  \end{array}\right) + p\left(\begin{array}{ccc}
3^{p-1} & 0 & 0\\
0 & 2^{p-1} & 0 \\
0 & 0 & 3^{p-1}
  \end{array}\right)\left(\begin{array}{ccc}
0 & 0 & 2\\
0 & 0 & 0 \\
0 & 0 & 0
  \end{array}\right)$

Après calcul, on obtient :

$A^p = \left(\begin{array}{ccc}
3^p & 0 & 2p3^{p-1}\\
0 & 2^p & 0 \\
0 & 0 & 3^p
  \end{array}\right)$

Test de cohérence :

  • Pour $p=0$, on retrouve bien la matrice $I_3$
  • Pour $p=1$, on retrouve bien la matrice $A$

c) On utilise un polynôme annulateur et un division euclidienne. 

Soit $P$ un polynôme annulateur de la matrice $A$ c'est--à-dire un polynôme vérifiant $P(A)=0$. On effectue la division euclidienne de $X^p$ par $P$ :
il existe une unique couple de polynômes $(Q,R)$ tel que $X^p = Q(X)P(X) + R(X)$ avec le degré de $R <$ au degré de $P$. 

En remplaçant $X$ par $A$: $A^p = Q(A)P(A) + R(A) = R(A)$ car $P(A)=0$. 

4) Calcul de l'inverse d'une matrice. 

a) Définition 

Une matrice carrée $A$ de $M_n({\Bbb K})$ est inversible s'il existe une matrice $B \in M_n({\Bbb K})$ tel que $A \times B = I_n $.

Dans ce cas, $B$ s'appelle l'inverse de $A$ et se note $A^{-1}$.

On note $GL_n({\Bbb K})$ l'ensemble des matrices inversibles de $M_n({\Bbb K})$.

Remarque : si $A \times B = I_n$ alors nécessairement $B \times A =I_n$.

Théorème : une matrice est inversible si et seulement son rang est égal à son ordre (c'est-à-dire au nombre de lignes = nombre de colonnes).

b) Méthode pour inverser une matrice

  • On écrit le système $(S): AX=Y$ d'inconnue $X$ et de second membre $Y$
  • On le résout à l'aide de la méthode du pivot de Gauss
  • On détermine en cours de route le rang de la matrice. Si le rang est maximum, la matrice est inversible. On peut continuer la résolution du système $(S)$
  • On obtient l'expression de $X$ en fonction de $Y$: $X = A^{-1}Y$. La lecture des coefficients devant les $y_i$ fournit les coefficients de la matrice inverse $A^{-1}$

Exemple :

$A = \left(
\begin{array}{rrr}
  -1 & 2 & 3 \\
  2 & 1 & -1 \\
 3 & 0 & -2
\end{array}
\right)$.

On considère donc le système :

$(S) \left\{\begin{array}{lllll}
-x_1 & + & 2x_2 & + & 3x_3 & = & y_1 \\
2x_1 & + & x_2 & - & x_3 & = & y_2 \\
3x_1 & & & - &2x_3 & = & y_3
\end{array}\right.$

On utilise la méthode du pivot de Gauss sur : 

$\left(
\begin{array}{rrr|r}
  -1 & 2 & 3 & y_1 \\
  2 & 1 & -1 & y_2\\
 3 & 0 & -2 & y_3
\end{array}
\right)$.

On effectue les opérations : $L_2 \leftarrow L_2 + 2L_1$ et $L_3 \leftarrow L_3 + 3L_1$ :

$\left(
\begin{array}{rrr|r}
-1 & 2 & 3 & y_1\\
  0 & 5 & 5 & y_2+2y_1\\
 0 & 6 & 7 & y_3+3y_1
\end{array}
\right)$.

Puis l'opération $L_3 \leftarrow 5L_3-6L_2$ :

$ \left(
\begin{array}{rrr|r}
-1 & 2 & 3 & y_1\\
  0 & 5 & 5 & y_2+2y_1\\
 0 & 0 & 5 & 3y_1 -6y_2 + 5y_3
\end{array}
\right)$.

Le rang de la matrice est $3$ car il y a $3$ pivots dans la matrice est inversible. 

Le système linéaire correspondant est :

$(S)\scriptstyle\left\{\begin{array}{lllllll}
-x_1 + 2x_2 + 3x_3 & = & y_1 \\
  5x_2 - 5x_3 & = & 2y_1 + y_2 \\
5x_3 & = & 3y_1 -6y_2 + 5y_3
\end{array}\right.$

On en déduit que $x_3= \frac{3}{5}y_1 - \frac{6}{5}y_2 + y_3$ puis en
remontant les équations: $x_2 = -\frac{1}{5}y_1 + \frac{7}{5}y_2 -
y_3$ puis $x_1 = \frac{2}{5}x_1 - \frac{4}{5}x_2 + y_3$

On a donc :

$\left\{\begin{array}{ccccccc}
x_1 = \frac{2}{5}x_1 - \frac{4}{5}x_2 + y_3 \\
 \displaystyle x_2 = -\frac{1}{5}y_1 + \frac{7}{5}y_2 - y_3 \\
\displaystyle x_3 = \frac{3}{5}y_1 - \frac{6}{5}y_2 + y_3
\end{array}\right.$

On en déduit que :

$A^{-1} = \scriptstyle \left(
\begin{array}{rrr}
 2/5 & -4/5 & 5/5\\
-1/5 & 7/5 & -5/5\\
3/5 & -6/5 & 5/5
\end{array}
\right)\\ = \displaystyle \frac{1}{5}\scriptstyle\left(
\begin{array}{rrr}
 2 & -4 & 5\\
-1 & 7 & -5\\
3 & -6 & 5
\end{array}
\right)$

On vérifie que $AA^{-1}=I_3$ ou plus simplement pour ne pas s’embarrasser avec les fractions que :

$\scriptstyle A \times (5A^{-1}) = \left(
\begin{array}{rrr}
  -1 & 2 & 3 \\
  2 & 1 & -1 \\
 3 & 0 & -2
\end{array}
\right)\left(
\begin{array}{rrr}
 2 & -4 & 5\\
-1 & 7 & -5\\
3 & -6 & 5
\end{array}
\right) = 5I_3$.

Autre méthode : on connaît un polynôme annulateur de $A$. Dans ce cas, on essaie d'isoler $I_n$ dans la relation si c'est possible. 

Par exemple, supposons que $A$ vérifie la relation $4A^2-A+3I=0$ autrement dit le polynôme $P(X) = 4X^2-X+3$ est un polynôme annulateur. 

On isole $I$ dans la relation : $3I = -4A^2+A$ donc $I = -\frac{4}{3}A^2 + \frac{1}{3}A = A \times \frac{1}{3}\left(-4A+I\right)$. 

On en déduit que $A$ est inversible et que $A^{-1} = \frac{1}{3}\left(-4A+I\right)$.