Retour

Calcul matriciel

Ce programme vous est offert par Efrei

En savoir plus

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

Méthode 1 : Calculer des produits de matrices

Matrice rectangulaire

Une matrice de taille $\rm n \times p$ à coefficients dans ${\Bbb K}$ est un tableau à $\rm n$ lignes et $\rm p$ colonnes d'éléments appartenant à ${\Bbb K}$.

Une matrice de taille $\rm n \times p$ se note $\rm A=(a_{i,j})_{\stackrel{1 \leq i \leq n}{_{1 \leq j \leq p}}}$ ou de façon "développée":

$\rm A=\left(\begin{array}{ccccc}
\rm a_{1,1} & & \ldots & & \rm a_{1,p}\\
& & & & \\
\vdots & & \rm a_{i,j} & & \vdots \\
& & & & \\
\rm a_{n,1} & & \ldots & & \rm a_{n,p}
\end{array}\right)$.

$\rm a_{i,j}\in {\Bbb K}$ désigne le coefficient de la matrice $\rm A$ situé à la ligne $\rm i$ et la colonne $\rm j$.

$\rm M_{n,p}({\Bbb K})$ désigne l'ensemble des matrices de taille $\rm n \times p$ à coefficients dans ${\Bbb K}$.

Opérations

  • Produit par un scalaire :

Le produit d’une matrice $\rm A=(a_{i,j})$ par le nombre $\lambda$, réel non nul, est la matrice de même format $\rm \lambda A=(\lambda a_{i,j})$.

  • Somme :

La somme de deux matrices de même format $\rm A=(a_{i,j})$ et $\rm B=(b_{i,j})$ est définie par une matrice de même format $\rm (a_{i,j}+b_{i,j})$.

  • Matrices particulières :

La matrice nulle est une matrice dont tous les éléments sont nuls.
La matrice identité est une matrice qui n’a que des $1$ sur la diagonale et des $0$ partout ailleurs.
Par exemple, pour une matrice carrée $\rm A$ d’ordre $\rm n$, la matrice identité d’ordre $\rm n$ $\rm I_n$ vérifie $\rm A\times I_n=I_n\times A=A$.

Multiplication matricielle

Soit $\rm A = (a_{i,j})_{\stackrel{1 \leq i \leq n}{_{1 \leq j \leq p}}}$ un élément de $\rm M_{n,p}({\Bbb K})$.

Soit $\rm B = (b_{i,j})_{\stackrel{1 \leq i \leq p}{_{1 \leq j \leq q}}}$ un élément de $\rm M_{p,q}({\Bbb K})$.

On définit $\rm C=A \times B$ de la façon suivante :

$\rm C \in M_{n,q}({\Bbb K})$ autrement dit $\rm C$ est une matrice de taille $\rm n \times q$. Les coefficients de la matrice $\rm C$ sont définies par :

$\rm \forall (i,j) \in\left\{1,\ldots,n\right\}\times\left\{1,\ldots,q\right\} c_{i,j}$ $\rm =\sum_{k = 1}^{p}a_{i, k}b_{k, j}$ $\rm = a_{i, 1}b_{1, j} + a_{i, 2}b_{2, j} + \ldots + a_{i, p}b_{p, j}$.

Pour se rappeler de cette formule, on dispose la matrice $\rm A$ en bas à gauche et la matrice $\rm B$ en haut à droite.

Le coefficient $\rm c_{i,j}$ est situé à l'intersection de la ligne $\rm i$ de la matrice $\rm A$ et de la colonne $\rm j$ de la matrice $\rm B$. Pour se remémorer la formule, il faut prendre les coefficients de la matrice $\rm A$ qui sont sur la même ligne que $\rm c_{i,j}$ et les coefficients de la matrice $\rm B$ qui sont sur la même colonne que $\rm c_{i,j}$.

Par ailleurs la taille de la matrice $\rm C$ est imposée par la disposition ci-dessus.

En effet, on observe que le nombre de lignes de la matrice $\rm C$ est égal au nombre de lignes de la matrice $\rm A$ et le nombre de colonnes de la matrice $\rm C$ est égal au nombre de colonnes de la matrice $\rm B$.

Exemple :

Soient $\rm A=\left(\begin{array}{cc}
2 & 1 \\
0 & 1 \\
3 & 1
\end{array}\right)$
et
$\rm B=\left(\begin{array}{rrrr}
3 & 2 & -1 & 2 \\
5 & 2 & 0 & -1
\end{array}\right)$.

Il n'est pas possible de calculer $\rm B \times A$ car le nombre de colonnes de $\rm B$ n'est pas égal au nombre de lignes de $\rm A$.

Il est possible de calculer $\rm A \times B$ car $(3 \times 2) \times (2 \times 4) \rightarrow 3 \times 4$.

On obtient :

$\rm A \times B =\left(\begin{array}{cccc}
11 & 6 & -2 & 3\\
5 & 2 & 0 & -1 \\
14 & 8 & -3 & 5
\end{array}\right)$.

Méthode 2 : Calculer des puissances de matrices carrées

a) On calcule les premières puissances de $\bf A$ et on conjecture une formule générale que l'on montre par récurrence.

Exemple : posons $\rm E$ la matrice carrée d'ordre $\rm n$ remplie de $1$.

Alors $\rm E^2 = nE$. Donc $\rm E^3= E^2 \times E = nE^2 = n^2E$.

On conjecture que $\rm E^{p} = n^{p-1}E$ ; on montre cette formule par récurrence sur $\rm p$.

Attention cette formule n'est valable que pour $\rm p \geq 1$ car par définition $\rm E^{0}=I$ (=la matrice identité ou unité = la matrice diagonale de coefficient $1$).

b) On décompose $\bf A$ et on utilise la formule du binôme de Newton.

Remarque si $\rm A$ et $\rm B$ sont des matrices carrés d'ordre $\rm n$ (c'est-à-dire le nombre de lignes = nombre de colonnes $= \rm n$), $\rm (A+B)^2 = A^2+B^2+AB+BA$.

On ne peut pas simplifier davantage sans hypothèse supplémentaire sur les matrices $\rm A$ et $\rm B$.

Si $\rm A$ et $\rm B$ commutent c'est-à dire si $\rm A \times B = B \times A$ alors on a la théorème suivant (c'est la formule du binôme de Newton pour les matrices) :

$\displaystyle \rm (A+B)^p = \sum_{k=0}^{p}
\left(\begin{array}{c}
\rm p\\
\rm k\end{array}\right)
\rm A^kB^{p-k}$.

L'idée est de décomposer $\rm A = A_1 + A_2$ avec $\rm A_1$ et $\rm A_2$ des matrices qui commutent. On peut alors utiliser la formule du binôme de Newton :

$(\rm{A_1+A_2})^p = \sum_{k=0}^{p}
\left(\begin{array}{c}
\rm p\\
\rm k
\end{array}\right)
\mathrm A_1^k\mathrm A_2^{p-k}$.

On espère ensuite que le calcul des puissances $\rm A_1^k$ et $\rm A_2^{p-k}$ soient simples afin de calculer la somme.

Les matrices dont les puissances sont simples à calculer sont par exemple :

  • Les matrices diagonales
  • Les matrices nilpotentes qui sont définies ci-dessous

En effet, pour les matrices diagonales, on a :

Si $\rm D = {\rm diag}(\alpha_1,\ldots,\alpha_n)$, alors, pour tout $\rm p \in {\Bbb N}$ : $\rm D^p = {\rm diag}(\alpha_1^p, \ldots, \alpha_n^p)$.

Une matrice nilpotente est une matrice $\rm A$ de $\rm M_n({\Bbb K})$ telle qu'il existe un entier $\rm q$ tel que $\rm A^{q}=0$.

Exemple :

Calculer $\rm A^p=\left(\begin{array}{ccc}
3 & 0 & 2\\
0 & 2 & 0 \\
0 & 0 & 3
\end{array}\right)^p$ pour tout $\rm p \in {\Bbb N}$.

Décomposons la matrice :

$\rm A = \underbrace{\left(\begin{array}{ccc}
3 & 0 & 0\\
0 & 2 & 0 \\
0 & 0 & 3
\end{array}\right)}_{=D} + \underbrace{\left(\begin{array}{ccc}
0 & 0 & 2\\
0 & 0 & 0 \\
0 & 0 & 0
\end{array}\right)}_{=N}$.

Nous avons décomposé $\rm A$ en la somme d'une matrice diagonale et d'une matrice dont on montrera qu'elle est nilpotente.

Vérifions que $\rm D$ et $\rm N$ commutent. On a :

$\rm DN = ND = \left(\begin{array}{ccc}
0 & 0 & 6\\
0 & 0 & 0 \\
0 & 0 & 0
\end{array}\right)$.

Donc on peut utiliser la formule du binôme de Newton :

$\displaystyle \rm A^p = (D+N)^p = \sum_{k=0}^p
\left(\begin{array}{c}
\rm p\\
\rm k
\end{array}\right)
D^{p-k}N^{k}$.

Par puissance d'une matrice diagonale, on a :

$\rm D^{p-k} = \left(\begin{array}{ccc}
3^{\rm p-k} & 0 & 0\\
0 & 2^{\rm p-k} & 0 \\
0 & 0 & 3^{\rm p-k}
\end{array}\right)$.

Par ailleurs, un calcul donne $\rm N^2=0_{M_3({\Bbb R})}$ donc $\rm N$ est une matrice nilpotente. On en déduit que $\rm N^{k}=0_{M_3({\Bbb R})}$ dès que $\rm k\geq2$.

Découpons la somme en deux parties :

$\displaystyle \rm A^p = \sum_{k=0}^{1}
\left(\begin{array}{c}
\rm p\\
\rm k\end{array}\right)$ $\displaystyle \rm D^{p-k}N^{k} + \sum_{k=2}^{p}
\left(\begin{array}{c}
p\\
k\end{array}\right)
D^{p-k}\underbrace{N^{k}}_{=(0)}$.

On a donc $\displaystyle \rm A^p = \sum_{k=0}^{1}
\left(\begin{array}{c}
\rm p\\
\rm k\end{array}\right)
D^{p-k}N^{k}$

Attention : ce n'est pas parce que la somme s'arrête à $\rm k=1$ que $\rm p=1$ !! $\rm p$ reste $\rm p$ !!

On a :

$\rm A^p =
\left(\begin{array}{c}
\rm p\\
0\end{array}\right)D^{p-0}$ $\rm N^{0} +
\left(\begin{array}{c}
\rm p\\
1\end{array}\right)
D^{p-1}N^{1}$ $\rm = D^pI_3 + p D^{p-1}N$ $\rm = D^p + p D^{p-1}N$

Donc $\scriptstyle \rm A^p = \left(\begin{array}{ccc}
\scriptstyle 3^{\rm p} & \scriptstyle 0 &\scriptstyle 0\\
\scriptstyle 0 &\scriptstyle 2^{\rm p} &\scriptstyle 0 \\
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle 3^{\rm p}
\end{array}\right)$ $+$ $\scriptstyle\rm p~\left(\begin{array}{ccc}
\scriptstyle \rm 3^{p-1} &\scriptstyle 0 &\scriptstyle 0\\
\scriptstyle 0 & \scriptstyle \rm 2^{p-1} & \scriptstyle 0 \\
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle \rm 3^{p-1}
\end{array}\right)$ $\left(\begin{array}{ccc}
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle 2\\
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle 0 \\
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle 0
\end{array}\right)$.

Après calcul, on obtient :

$\rm A^p = \left(\begin{array}{ccc}
\rm 3^p & 0 &\rm 2p3^{p-1}\\
0 &\rm 2^p & 0 \\
0 & 0 &\rm 3^p
\end{array}\right)$

Test de cohérence :

  • Pour $\rm p=0$, on retrouve bien la matrice $\rm I_3$
  • Pour $\rm p=1$, on retrouve bien la matrice $\rm A$

Méthode 3 : Inverser une matrice

Définition :

Une matrice carrée $\rm A$ de $\rm M_n({\Bbb K})$ est inversible s'il existe une matrice $\rm B \in M_n({\Bbb K})$ tel que $\rm A \times B = I_n $.

Dans ce cas, $\rm B$ s'appelle l'inverse de $\rm A$ et se note $\rm A^{-1}$.

On note $\rm GL_n({\Bbb K})$ l'ensemble des matrices inversibles de $\rm M_n({\Bbb K})$.

Remarque : si $\rm A \times B = I_n$ alors nécessairement $\rm B \times A =I_n$.

Théorème : une matrice est inversible si et seulement son rang est égal à son ordre (c'est-à-dire au nombre de lignes = nombre de colonnes).

Théorème : Soient $\rm A$ et $\rm B$ deux matrices inversibles : $\rm (AB)^{-1}=B^{-1}A^{-1}$ et $\rm (A^{-1})^{-1}=A$.

Méthode pour inverser une matrice :

  • On écrit le système $\rm (S): AX=Y$ d'inconnue $\rm X$ et de second membre $\rm Y$
  • On le résout à l'aide de la méthode du pivot de Gauss
  • On détermine en cours de route le rang de la matrice. Si le rang est maximum, la matrice est inversible. On peut continuer la résolution du système $\rm (S)$
  • On obtient l'expression de $\rm X$ en fonction de $\rm Y : X = A^{-1}Y$. La lecture des coefficients devant les $y_{\rm i}$ fournit les coefficients de la matrice inverse $\rm A^{-1}$

Exemple :

$\rm A = \left(
\begin{array}{rrr}
-1 & 2 & 3 \\
2 & 1 & -1 \\
3 & 0 & -2
\end{array}
\right)$.

On considère donc le système :

$\rm (S) \left\{\begin{array}{ccccccc}
\rm -x_1 & + & 2x_2 & + & 3x_3 & = & y_1 \\
2x_1 & + & x_2 & - & x_3 & = & y_2 \\
3x_1 & & & - &2x_3 & = & y_3
\end{array}\right.$

On utilise la méthode du pivot de Gauss sur :

$\left(
\begin{array}{rrr|r}
-1 & 2 & 3 & y_1 \\
2 & 1 & -1 & y_2\\
3 & 0 & -2 & y_3
\end{array}
\right)$.

On effectue les opérations : $\rm L_2 \leftarrow L_2 + 2L_1$ et $\rm L_3 \leftarrow L_3 + 3L_1$ :

$\left(\begin{array}{rrr|r}
-1 & 2 & 3 & y_1\\
0 & 5 & 5 & y_2+2y_1\\
0 & 6 & 7 & y_3+3y_1
\end{array}
\right)$.

Puis l'opération $\rm L_3 \leftarrow 5L_3-6L_2$ :

$ \left(\begin{array}{rrr|r}
-1 & 2 & 3 & y_1\\
0 & 5 & 5 & y_2+2y_1\\
0 & 0 & 5 & 3y_1 -6y_2 + 5y_3
\end{array}
\right)$.

Le rang de la matrice est $3$ car il y a $3$ pivots dans la matrice est inversible.

Le système linéaire correspondant est :

$\scriptstyle \rm (S) \left\{\begin{array}{ccccccc}
\scriptstyle -x_1 &\scriptstyle + &\scriptstyle 2x_2 &\scriptstyle + &\scriptstyle 3x_3 &\scriptstyle = &\scriptstyle y_1 \\
& &\scriptstyle 5x_2 &\scriptstyle - &\scriptstyle 5x_3 &\scriptstyle = &\scriptstyle 2y_1 + y_2 \\
& & & &\scriptstyle 5x_3 &\scriptstyle = &\scriptstyle 3y_1 -6y_2 + 5y_3
\end{array}\right.$

On en déduit que $\displaystyle x_3= \frac{3}{5}y_1 - \frac{6}{5}y_2 + y_3$ puis en remontant les équations : $\displaystyle x_2 = -\frac{1}{5}y_1 + \frac{7}{5}y_2 -
y_3$ puis $\displaystyle x_1 = \frac{2}{5}x_1 - \frac{4}{5}x_2 + y_3$

On a donc :

$\left\{\begin{array}{ccccccc}
x_1 & = & \displaystyle \frac{2}{5}x_1 & - & \displaystyle \frac{4}{5}x_2 & +& y_3 \\
x_2 & = & -\displaystyle \frac{1}{5}y_1 & + & \displaystyle \frac{7}{5}y_2 & - & y_3 \\
x_3 & = & \displaystyle \frac{3}{5}y_1 & - & \displaystyle \frac{6}{5}y_2 & +& y_3
\end{array}\right.$

On en déduit que :

$\rm A^{-1} = \left(
\begin{array}{rrr}
2/5 & -4/5 & 5/5\\
-1/5 & 7/5 & -5/5\\
3/5 & -6/5 & 5/5
\end{array}
\right)$ $\displaystyle = \frac{1}{5}\left(
\begin{array}{rrr}
2 & -4 & 5\\
-1 & 7 & -5\\
3 & -6 & 5
\end{array}
\right)$

On vérifie que $\rm AA^{-1}=I_3$ ou plus simplement pour ne pas s’embarrasser avec les fractions que :

$\rm A \times (5A^{-1}) = \left(\begin{array}{rrr}
-1 & 2 & 3 \\
2 & 1 & -1 \\
3 & 0 & -2\end{array}\right)$ $\left(\begin{array}{rrr}
2 & -4 & 5\\
-1 & 7 & -5\\
3 & -6 & 5 \end{array}\right)$ $\rm = 5I_3$.

Matrices triangulaires :

Soit $\rm A$ une matrice triangulaire supérieure ou inférieure.
La matrice $\rm A$ est inversible si et seulement si ses termes diagonaux sont tous non nuls.
L’inverse d’une matrice triangulaire inversible est triangulaire.

Méthode 4 : Calculs avec des transposées

Définition : On considère la matrice $\mathrm A=(a_{i,j})$ de $\mathrm M_{n,p}(\mathbb K)$.
La matrice transposée de $\mathrm A$ est alors $^t\mathrm A=(a_{j,i})$. Elle appartient à l’ensemble des matrices $\mathrm M_{p,n}(\mathbb K)$.

Remarque : $^t\mathrm A$ peut aussi être notée $\rm A^T$.

Théorème : Soient $\mathrm {A\in M}_{n,p}(\mathbb K)$ et $\mathrm{B\in M}_{p,q}(\mathbb K)$.
Alors $^t(\mathrm{AB})=^t\mathrm B^t\mathrm A$.

Définitions : Une matrice carrée $A$ est symétrique si $^t\rm A=A$. On note $\mathrm S_n$ l’ensemble des matrices symétriques.
Une matrice carrée $\rm A$ est antisymétrique si $^t\rm A=-A$. On note $\mathrm A_n$ l’ensemble des matrices antisymétriques.

Théorème : Si $\rm A$ est inversible, $^t(\mathrm A^{-1})=(^t{\mathrm A})^{-1}$.

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !