1) Matrice rectangulaire
Une matrice de taille $\rm n \times p$ à coefficients dans ${\Bbb K}$ est un tableau à $\rm n$ lignes et $\rm p$ colonnes d'éléments appartenant à ${\Bbb K}$.
Une matrice de taille $\rm n \times p$ se note $\rm A=(a_{i,j})_{\stackrel{1 \leq i \leq n}{_{1 \leq j \leq p}}}$ ou de façon "développée" :
$\rm A=\left(\begin{array}{ccccc}
\rm a_{1,1} & & \ldots & & \rm a_{1,p}\\
& & & & \\
\vdots & & \rm a_{i,j} & & \vdots \\
& & & & \\
\rm a_{n,1} & & \ldots & & \rm a_{n,p}
\end{array}\right)$.
$\rm a_{i,j}\in {\Bbb K}$ désigne le coefficient de la matrice $\rm A$ situé à la ligne $\rm i$ et la colonne $\rm j$.
$\rm M_{n,p}({\Bbb K})$ désigne l'ensemble des matrices de taille $\rm n \times p$ à coefficients dans ${\Bbb K}$.
2) Multiplication matricielle :
Soit $\rm A = (a_{i,j})_{\stackrel{1 \leq i \leq n}{_{1 \leq j \leq p}}}$ un élément de $\rm M_{n,p}({\Bbb K})$.
Soit $\rm B = (b_{i,j})_{\stackrel{1 \leq i \leq p}{_{1 \leq j \leq q}}}$ un élément de $\rm M_{p,q}({\Bbb K})$.
On définit $\rm C=A \times B$ de la façon suivante :
$\rm C \in M_{n,q}({\Bbb K})$ autrement dit $\rm C$ est une matrice de taille $\rm n \times q$. Les coefficients de la matrice $\rm C$ sont définies par :
$\displaystyle\rm \forall (i,j) \in\left\{1,\ldots,n\right\}\times\left\{1,\ldots,q \right\} c_{i,j}$ $\displaystyle\rm =\sum_{k=1}^{p}a_{i,k}b_{k,j}$ $\rm = a_{i,1}b_{1,j} + a_{i,2}b_{2,j} + \ldots + a_{i,p}b_{p,j}$.
Pour se rappeler de cette formule, on dispose la matrice $\rm A$ en bas à gauche et la matrice $\rm B$ en haut à droite.
Le coefficient $\rm c_{i,j}$ est situé à l'intersection de la ligne $\rm i$ de la matrice $\rm A$ et de la colonne $\rm j$ de la matrice $\rm B$. Pour se remémorer la formule, il faut prendre les coefficients de la matrice $\rm A$ qui sont sur la même ligne que $\rm c_{i,j}$ et les coefficients de la matrice $\rm B$ qui sont sur la même colonne que $\rm c_{i,j}$.
Par ailleurs la taille de la matrice $\rm C$ est imposée par la disposition ci-dessus.
En effet, on observe que le nombre de lignes de la matrice $\rm C$ est égal au nombre de lignes de la matrice $\rm A$ et le nombre de colonnes de la matrice $\rm C$ est égal au nombre de colonnes de la matrice $\rm B$.
Exemple :
Soient $\rm A=\left(\begin{array}{cc}
2 & 1 \\
0 & 1 \\
3 & 1
\end{array}\right)$
et
$\rm B=\left(\begin{array}{rrrr}
3 & 2 & -1 & 2 \\
5 & 2 & 0 & -1
\end{array}\right)$.
Il n'est pas possible de calculer $\rm B \times A$ car le nombre de colonnes de $\rm B$ n'est pas égal au nombre de lignes de $\rm A$.
Il est possible de calculer $\rm A \times B$ car $(3 \times 2) \times (2 \times 4) \rightarrow 3 \times 4$.
On obtient :
$\rm A \times B =\left(\begin{array}{cccc}
11 & 6 & -2 & 3\\
5 & 2 & 0 & -1 \\
14 & 8 & -3 & 5
\end{array}\right)$.
3) Méthodes pour calculer $\bf A^p$ quand $\bf A$ est une matrice carrée.
a) On calcule les premières puissances de $\bf A$ et on conjecture une formule générale que l'on montre par récurrence.
Exemple : posons $\rm E$ la matrice carrée d'ordre $\rm n$ remplie de $1$.
Alors $\rm E^2 = nE$. Donc $\rm E^3= E^2 \times E = nE^2 = n^2E$.
On conjecture que $\rm E^{p} = n^{p-1}E$ ; on montre cette formule par récurrence sur $\rm p$.
Attention cette formule n'est valable que pour $\rm p \geq 1$ car par définition $\rm E^{0}=I$ (=la matrice identité ou unité = la matrice diagonale de coefficient $1$).
b) On décompose $\bf A$ et on utilise la formule du binôme de Newton.
Remarque si $\rm A$ et $\rm B$ sont des matrices carrés d'ordre $\rm n$ (c'est-à-dire le nombre de lignes = nombre de colonnes $= \rm n$), $\rm (A+B)^2 = A^2 + B^2 + AB + BA$.
On ne peut pas simplifier davantage sans hypothèse supplémentaire sur les matrices $\rm A$ et $\rm B$.
Si $\rm A$ et $\rm B$ commutent c'est-à dire si $\rm A \times B = B \times A$ alors on a la théorème suivant (c'est la formule du binôme de Newton pour les matrices) :
$\displaystyle\rm (A+B)^p = \sum_{k=0}^{p}$ $
\left(\begin{array}{c}
\rm p\\ \rm k\end{array} \right)\rm A^kB^{p-k}$.
L'idée est de décomposer $\rm A = A_1 + A_2$ avec $\rm A_1$ et $\rm A_2$ des matrices qui commutent. On peut alors utiliser la formule du binôme de Newton :
$\displaystyle \rm (A_1+A_2)^p = \sum_{k=0}^{p}
\left(\begin{array}{c}
p\\
k\end{array}\right)
A_1^kA_2^{p-k}$.
On espère ensuite que le calcul des puissances $\rm A_1^k$ et $\rm A_2^{p-k}$ soient simples afin de calculer la somme.
Les matrices dont les puissances sont simples à calculer sont par exemple :
- les matrices diagonales
- les matrices nilpotentes qui sont définies ci-dessous
En effet, pour les matrices diagonales, on a :
Si $\rm D = {\rm diag}(\alpha_1,\ldots,\alpha_n)$, alors, pour tout $\rm p \in {\Bbb N}$ : $\rm D^p = {\rm diag}(\alpha_1^p,\ldots,\alpha_n^p)$.
Une matrice nilpotente est une matrice $\rm A$ de $\rm M_n({\Bbb K})$ telle qu'il existe un entier $q$ tel que $A^{q}=0$.
Exemple :
Calculer $\rm A^p=\left(\begin{array}{ccc}
3 & 0 & 2\\
0 & 2 & 0 \\
0 & 0 & 3
\end{array}\right)^p$ pour tout $\rm p \in {\Bbb N}$.
Décomposons la matrice :
$\rm A = \underbrace{\left(\begin{array}{ccc}
3 & 0 & 0\\
0 & 2 & 0 \\
0 & 0 & 3
\end{array}\right)}_{=D} + \underbrace{\left(\begin{array}{ccc}
0 & 0 & 2\\
0 & 0 & 0 \\
0 & 0 & 0
\end{array}\right)}_{=N}$.
Nous avons décomposé $\rm A$ en la somme d'une matrice diagonale et d'une matrice dont on montrera qu'elle est nilpotente.
Vérifions que $\rm D$ et $\rm N$ commutent. On a :
$\rm DN = ND = \left(\begin{array}{ccc}
0 & 0 & 6\\
0 & 0 & 0 \\
0 & 0 & 0
\end{array}\right)$.
Donc on peut utiliser la formule du binôme de Newton :
$\displaystyle \rm A^p = (D+N)^p = \sum_{k=0}^p
\left(\begin{array}{c}
p\\
k\end{array}\right)
D^{p-k}N^{k}$.
Par puissance d'une matrice diagonale, on a :
$\rm D^{p-k} = \left(\begin{array}{ccc}
3^{\rm p-k} & 0 & 0\\
0 & 2^{\rm p-k} & 0 \\
0 & 0 & 3^{\rm p-k}
\end{array}\right)$.
Par ailleurs, un calcul donne $\rm N^2=0_{M_3({\Bbb R})}$ donc $\rm N$ est une matrice nilpotente. On en déduit que $\rm N^{k}=0_{M_3({\Bbb R})}$ dès que $\rm k\geq2$.
Découpons la somme en deux parties :
$\displaystyle \rm A^p = \sum_{k=0}^{1}
\left(\begin{array}{c}
\rm p\\
\rm k\end{array}\right)$ $\displaystyle \rm D^{p-k}N^{k} + \sum_{k=2}^{p}
\left(\begin{array}{c}
\rm p\\
\rm k \end{array}\right)$ $\rm D^{p-k}\underbrace{N^{k}}_{=(0)}$.
On a donc $\displaystyle \rm A^p = \sum_{k=0}^{1}
\left(\begin{array}{c}
\rm p\\
\rm k \end{array}\right)
D^{p-k}N^{k}$
Attention : ce n'est pas parce que la somme s'arrête à $\rm k=1$ que $\rm p=1$ !! $\rm p$ reste $\rm p$ !!
On a :
$\rm A^p =
\left(\begin{array}{c}
\rm p\\
0\end{array}\right)$ $\rm D^{p-0}N^{0} + \left(\begin{array}{c}
\rm p\\
1\end{array}\right)$ $\rm D^{p-1}N^{1}$ $\rm = D^pI_3 + p D^{p-1}N$ $\rm = D^p + p D^{p-1}N$
Donc $\scriptstyle \rm A^p = \left(\begin{array}{ccc}
\scriptstyle 3^{\rm p} & \scriptstyle 0 & \scriptstyle 0\\
\scriptstyle 0 & \scriptstyle 2^{\rm p} & \scriptstyle 0 \\
\scriptstyle 0 & \scriptstyle 0 & \scriptstyle 3^{\rm p}
\end{array}\right) \scriptstyle + \rm p\left(\begin{array}{ccc}
\scriptstyle 3^{\rm p-1} & \scriptstyle 0 & \scriptstyle 0\\
\scriptstyle 0 & \scriptstyle 2^{\rm p-1} & \scriptstyle 0 \\
\scriptstyle 0 & \scriptstyle 0 & \scriptstyle 3^{\rm p-1}
\end{array}\right)$ $\scriptstyle \left(\begin{array}{ccc}
\scriptstyle 0 & \scriptstyle 0 & \scriptstyle 2\\
\scriptstyle 0 & \scriptstyle 0 & \scriptstyle 0 \\
\scriptstyle 0 & \scriptstyle 0 & \scriptstyle 0
\end{array}\right)$.
Après calcul, on obtient :
$\rm A^p = \left(\begin{array}{ccc}
3^{\rm p} & 0 & \rm 2p3^{p-1}\\
0 & \rm 2^p & 0 \\
0 & 0 & \rm 3^p
\end{array}\right)$
Test de cohérence :
- Pour $\rm p=0$, on retrouve bien la matrice $\rm I_3$
- Pour $\rm p=1$, on retrouve bien la matrice $\rm A$
c) On utilise un polynôme annulateur et un division euclidienne.
Soit $\rm P$ un polynôme annulateur de la matrice $\rm A$ c'est-à-dire un polynôme vérifiant $\rm P(A)=0$. On effectue la division euclidienne de $\rm X^p$ par $\rm P$ : il existe une unique couple de polynômes $\rm (Q,R)$ tel que $\rm X^p = Q(X)P(X) + R(X)$ avec le degré de $\rm R <$ au degré de $\rm P$.
En remplaçant $\rm X$ par $\rm A : A^p = Q(A)P(A) + R(A) = R(A)$ car $\rm P(A)=0$.
4) Calcul de l'inverse d'une matrice
a) Définition
Une matrice carrée $\rm A$ de $\rm M_n({\Bbb K})$ est inversible s'il existe une matrice $\rm B \in M_n({\Bbb K})$ tel que $\rm A \times B = I_n $.
Dans ce cas, $\rm B$ s'appelle l'inverse de $\rm A$ et se note $\rm A^{-1}$.
On note $\rm GL_n({\Bbb K})$ l'ensemble des matrices inversibles de $\rm M_n({\Bbb K})$.
Remarque : si $\rm A \times B = I_n$ alors nécessairement $\rm B \times A =I_n$.
Théorème : une matrice est inversible si et seulement son rang est égal à son ordre (c'est-à-dire au nombre de lignes = nombre de colonnes).
b) Méthode pour inverser une matrice
- On écrit le système $\rm (S) : AX=Y$ d'inconnue $\rm X$ et de second membre $\rm Y$
- On le résout à l'aide de la méthode du pivot de Gauss
- On détermine en cours de route le rang de la matrice. Si le rang est maximum, la matrice est inversible. On peut continuer la résolution du système $\rm (S)$
- On obtient l'expression de $\rm X$ en fonction de $\rm Y$ : $\rm X = A^{-1}Y$. La lecture des coefficients devant les $y_i$ fournit les coefficients de la matrice inverse $\rm A^{-1}$
Exemple :
$\rm A = \left(
\begin{array}{rrr}
-1 & 2 & 3 \\
2 & 1 & -1 \\
3 & 0 & -2
\end{array}
\right)$.
On considère donc le système :
$\rm(S) \left\{\begin{array}{ccccccc}
-x_1 & + & 2x_2 & + & 3x_3 & = & y_1 \\
2x_1 & + & x_2 & - & x_3 & = & y_2 \\
3x_1 & & & - &2x_3 & = & y_3
\end{array}\right.$
On utilise la méthode du pivot de Gauss sur :
$\left(
\begin{array}{rrr|r}
-1 & 2 & 3 & y_1 \\
2 & 1 & -1 & y_2\\
3 & 0 & -2 & y_3
\end{array}
\right)$.
On effectue les opérations : $\rm L_2 \leftarrow L_2 + 2L_1$ et $\rm L_3 \leftarrow L_3 + 3L_1$ :
$\left(
\begin{array}{rrr|r}
-1 & 2 & 3 & y_1\\
0 & 5 & 5 & y_2+2y_1\\
0 & 6 & 7 & y_3+3y_1
\end{array}
\right)$.
Puis l'opération $\rm L_3 \leftarrow 5L_3-6L_2$ :
$ \left(
\begin{array}{rrr|r}
-1 & 2 & 3 & y_1\\
0 & 5 & 5 & y_2+2y_1\\
0 & 0 & 5 & 3y_1 -6y_2 + 5y_3
\end{array}
\right)$.
Le rang de la matrice est $3$ car il y a $3$ pivots dans la matrice est inversible.
Le système linéaire correspondant est :
$\rm (S) \left\{\begin{array}{ccccccc}
-x_1 & + & 2x_2 & + & 3x_3 & = & y_1 \\
& & 5x_2 & - & 5x_3 & = & 2y_1 + y_2 \\
& & & &5x_3 & = & 3y_1 -6y_2 + 5y_3
\end{array}\right.$
On en déduit que $\displaystyle x_3= \frac{3}{5}y_1 - \frac{6}{5}y_2 + y_3$ puis en remontant les équations : $\displaystyle x_2 = -\frac{1}{5}y_1 + \frac{7}{5}y_2 - y_3$ puis $\displaystyle x_1 = \frac{2}{5}x_1 - \frac{4}{5}x_2 + y_3$
On a donc :
$\left\{\begin{array}{ccccccc}
x_1 & = & \displaystyle \frac{2}{5}x_1 & - & \displaystyle \frac{4}{5}x_2 & +& y_3 \\
x_2 & = & -\displaystyle \frac{1}{5}y_1 & + & \displaystyle \frac{7}{5}y_2 & - & y_3 \\
x_3 & = & \displaystyle \frac{3}{5}y_1 & - & \displaystyle \frac{6}{5}y_2 & +& y_3\end{array}\right.$
On en déduit que :
$\rm A^{-1} = \left(
\begin{array}{rrr}
2/5 & -4/5 & 5/5\\
-1/5 & 7/5 & -5/5\\
3/5 & -6/5 & 5/5\end{array}
\right)$ $= \displaystyle \frac{1}{5}\left(
\begin{array}{rrr}
2 & -4 & 5\\
-1 & 7 & -5\\
3 & -6 & 5
\end{array}
\right)$
On vérifie que $\rm AA^{-1}=I_3$ ou plus simplement pour ne pas s’embarrasser avec les fractions que :
$\rm A \times (5A^{-1})$ $= \left(\begin{array}{rrr}
-1 & 2 & 3 \\
2 & 1 & -1 \\
3 & 0 & -2
\end{array}
\right)$ $\left(\begin{array}{rrr}2 & -4 & 5\\
-1 & 7 & -5\\
3 & -6 & 5
\end{array}\right) = \rm 5I_3$.
Autre méthode : on connaît un polynôme annulateur de $\rm A$. Dans ce cas, on essaie d'isoler $\rm I_n$ dans la relation si c'est possible.
Par exemple, supposons que $\rm A$ vérifie la relation $\rm 4A^2-A+3I=0$ autrement dit le polynôme $\rm P(X) = 4X^2-X+3$ est un polynôme annulateur.
On isole $\rm I$ dans la relation : $\rm 3I = -4A^2+A$ donc $\rm I = -\displaystyle \rm \frac{4}{3}A^2 + \frac{1}{3}A$ $\displaystyle \rm = A \times \frac{1}{3}\left(-4A+I\right)$.
On en déduit que $\rm A$ est inversible et que $\displaystyle \rm A^{-1} = \frac{1}{3}\left(-4A+I\right)$.