go-back Retour

Calcul matriciel

📝 Mini-cours GRATUIT

Méthode 1 : Calculer des produits de matrices

Matrice rectangulaire

Une matrice de taille n×p à coefficients dans K est un tableau à n lignes et p colonnes d'éléments appartenant à K.

Une matrice de taille n×p se note A=(ai,j)1in1jp ou de façon "développée":

A=(a1,1a1,pai,jan,1an,p).

ai,jK désigne le coefficient de la matrice A situé à la ligne i et la colonne j.

Mn,p(K) désigne l'ensemble des matrices de taille n×p à coefficients dans K.

Opérations

  • Produit par un scalaire :

Le produit d’une matrice A=(ai,j) par le nombre λ, réel non nul, est la matrice de même format λA=(λai,j).

  • Somme :

La somme de deux matrices de même format A=(ai,j) et B=(bi,j) est définie par une matrice de même format (ai,j+bi,j).

  • Matrices particulières :

La matrice nulle est une matrice dont tous les éléments sont nuls.
La matrice identité est une matrice qui n’a que des 1 sur la diagonale et des 0 partout ailleurs.
Par exemple, pour une matrice carrée A d’ordre n, la matrice identité d’ordre n In vérifie A×In=In×A=A.

Multiplication matricielle

Soit A=(ai,j)1in1jp un élément de Mn,p(K).

Soit B=(bi,j)1ip1jq un élément de Mp,q(K).

On définit C=A×B de la façon suivante :

CMn,q(K) autrement dit C est une matrice de taille n×q. Les coefficients de la matrice C sont définies par :

(i,j){1,,n}×{1,,q}ci,j =pk=1ai,kbk,j =ai,1b1,j+ai,2b2,j++ai,pbp,j.

Pour se rappeler de cette formule, on dispose la matrice A en bas à gauche et la matrice B en haut à droite.

Le coefficient ci,j est situé à l'intersection de la ligne i de la matrice A et de la colonne j de la matrice B. Pour se remémorer la formule, il faut prendre les coefficients de la matrice A qui sont sur la même ligne que ci,j et les coefficients de la matrice B qui sont sur la même colonne que ci,j.

Par ailleurs la taille de la matrice C est imposée par la disposition ci-dessus.

En effet, on observe que le nombre de lignes de la matrice C est égal au nombre de lignes de la matrice A et le nombre de colonnes de la matrice C est égal au nombre de colonnes de la matrice B.

Exemple :

Soient A=(210131)
et
B=(32125201).

Il n'est pas possible de calculer B×A car le nombre de colonnes de B n'est pas égal au nombre de lignes de A.

Il est possible de calculer A×B car (3×2)×(2×4)3×4.

On obtient :

A×B=(11623520114835).

Méthode 2 : Calculer des puissances de matrices carrées

a) On calcule les premières puissances de $\bf A$ et on conjecture une formule générale que l'on montre par récurrence.

Exemple : posons $\rm E$ la matrice carrée d'ordre $\rm n$ remplie de $1$.

Alors $\rm E^2 = nE$. Donc $\rm E^3= E^2 \times E = nE^2 = n^2E$.

On conjecture que $\rm E^{p} = n^{p-1}E$ ; on montre cette formule par récurrence sur $\rm p$.

Attention cette formule n'est valable que pour $\rm p \geq 1$ car par définition $\rm E^{0}=I$ (=la matrice identité ou unité = la matrice diagonale de coefficient $1$).

b) On décompose $\bf A$ et on utilise la formule du binôme de Newton.

Remarque si $\rm A$ et $\rm B$ sont des matrices carrés d'ordre $\rm n$ (c'est-à-dire le nombre de lignes = nombre de colonnes $= \rm n$), $\rm (A+B)^2 = A^2+B^2+AB+BA$.

On ne peut pas simplifier davantage sans hypothèse supplémentaire sur les matrices $\rm A$ et $\rm B$.

Si $\rm A$ et $\rm B$ commutent c'est-à dire si $\rm A \times B = B \times A$ alors on a la théorème suivant (c'est la formule du binôme de Newton pour les matrices) :

$\displaystyle \rm (A+B)^p = \sum_{k=0}^{p}
\left(\begin{array}{c}
\rm p\\
\rm k\end{array}\right)
\rm A^kB^{p-k}$.

L'idée est de décomposer $\rm A = A_1 + A_2$ avec $\rm A_1$ et $\rm A_2$ des matrices qui commutent. On peut alors utiliser la formule du binôme de Newton :

$(\rm{A_1+A_2})^p = \sum_{k=0}^{p}
\left(\begin{array}{c}
\rm p\\
\rm k
\end{array}\right)
\mathrm A_1^k\mathrm A_2^{p-k}$.

On espère ensuite que le calcul des puissances $\rm A_1^k$ et $\rm A_2^{p-k}$ soient simples afin de calculer la somme.

Les matrices dont les puissances sont simples à calculer sont par exemple :

  • Les matrices diagonales
  • Les matrices nilpotentes qui sont définies ci-dessous

En effet, pour les matrices diagonales, on a :

Si $\rm D = {\rm diag}(\alpha_1,\ldots,\alpha_n)$, alors, pour tout $\rm p \in {\Bbb N}$ : $\rm D^p = {\rm diag}(\alpha_1^p, \ldots, \alpha_n^p)$.

Une matrice nilpotente est une matrice $\rm A$ de $\rm M_n({\Bbb K})$ telle qu'il existe un entier $\rm q$ tel que $\rm A^{q}=0$.

Exemple :

Calculer $\rm A^p=\left(\begin{array}{ccc}
3 & 0 & 2\\
0 & 2 & 0 \\
0 & 0 & 3
\end{array}\right)^p$ pour tout $\rm p \in {\Bbb N}$.

Décomposons la matrice :

$\rm A = \underbrace{\left(\begin{array}{ccc}
3 & 0 & 0\\
0 & 2 & 0 \\
0 & 0 & 3
\end{array}\right)}_{=D} + \underbrace{\left(\begin{array}{ccc}
0 & 0 & 2\\
0 & 0 & 0 \\
0 & 0 & 0
\end{array}\right)}_{=N}$.

Nous avons décomposé $\rm A$ en la somme d'une matrice diagonale et d'une matrice dont on montrera qu'elle est nilpotente.

Vérifions que $\rm D$ et $\rm N$ commutent. On a :

$\rm DN = ND = \left(\begin{array}{ccc}
0 & 0 & 6\\
0 & 0 & 0 \\
0 & 0 & 0
\end{array}\right)$.

Donc on peut utiliser la formule du binôme de Newton :

$\displaystyle \rm A^p = (D+N)^p = \sum_{k=0}^p
\left(\begin{array}{c}
\rm p\\
\rm k
\end{array}\right)
D^{p-k}N^{k}$.

Par puissance d'une matrice diagonale, on a :

$\rm D^{p-k} = \left(\begin{array}{ccc}
3^{\rm p-k} & 0 & 0\\
0 & 2^{\rm p-k} & 0 \\
0 & 0 & 3^{\rm p-k}
\end{array}\right)$.

Par ailleurs, un calcul donne $\rm N^2=0_{M_3({\Bbb R})}$ donc $\rm N$ est une matrice nilpotente. On en déduit que $\rm N^{k}=0_{M_3({\Bbb R})}$ dès que $\rm k\geq2$.

Découpons la somme en deux parties :

$\displaystyle \rm A^p = \sum_{k=0}^{1}
\left(\begin{array}{c}
\rm p\\
\rm k\end{array}\right)$ $\displaystyle \rm D^{p-k}N^{k} + \sum_{k=2}^{p}
\left(\begin{array}{c}
p\\
k\end{array}\right)
D^{p-k}\underbrace{N^{k}}_{=(0)}$.

On a donc $\displaystyle \rm A^p = \sum_{k=0}^{1}
\left(\begin{array}{c}
\rm p\\
\rm k\end{array}\right)
D^{p-k}N^{k}$

Attention : ce n'est pas parce que la somme s'arrête à $\rm k=1$ que $\rm p=1$ !! $\rm p$ reste $\rm p$ !!

On a :

$\rm A^p =
\left(\begin{array}{c}
\rm p\\
0\end{array}\right)D^{p-0}$ $\rm N^{0} +
\left(\begin{array}{c}
\rm p\\
1\end{array}\right)
D^{p-1}N^{1}$ $\rm = D^pI_3 + p D^{p-1}N$ $\rm = D^p + p D^{p-1}N$

Donc $\scriptstyle \rm A^p = \left(\begin{array}{ccc}
\scriptstyle 3^{\rm p} & \scriptstyle 0 &\scriptstyle 0\\
\scriptstyle 0 &\scriptstyle 2^{\rm p} &\scriptstyle 0 \\
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle 3^{\rm p}
\end{array}\right)$ $+$ $\scriptstyle\rm p~\left(\begin{array}{ccc}
\scriptstyle \rm 3^{p-1} &\scriptstyle 0 &\scriptstyle 0\\
\scriptstyle 0 & \scriptstyle \rm 2^{p-1} & \scriptstyle 0 \\
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle \rm 3^{p-1}
\end{array}\right)$ $\left(\begin{array}{ccc}
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle 2\\
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle 0 \\
\scriptstyle 0 &\scriptstyle 0 &\scriptstyle 0
\end{array}\right)$.

Après calcul, on obtient :

$\rm A^p = \left(\begin{array}{ccc}
\rm 3^p & 0 &\rm 2p3^{p-1}\\
0 &\rm 2^p & 0 \\
0 & 0 &\rm 3^p
\end{array}\right)$

Test de cohérence :

  • Pour $\rm p=0$, on retrouve bien la matrice $\rm I_3$
  • Pour $\rm p=1$, on retrouve bien la matrice $\rm A$

Méthode 3 : Inverser une matrice

Définition :

Une matrice carrée $\rm A$ de $\rm M_n({\Bbb K})$ est inversible s'il existe une matrice $\rm B \in M_n({\Bbb K})$ tel que $\rm A \times B = I_n $.

Dans ce cas, $\rm B$ s'appelle l'inverse de $\rm A$ et se note $\rm A^{-1}$.

On note $\rm GL_n({\Bbb K})$ l'ensemble des matrices inversibles de $\rm M_n({\Bbb K})$.

Remarque : si $\rm A \times B = I_n$ alors nécessairement $\rm B \times A =I_n$.

Théorème : une matrice est inversible si et seulement son rang est égal à son ordre (c'est-à-dire au nombre de lignes = nombre de colonnes).

Théorème : Soient $\rm A$ et $\rm B$ deux matrices inversibles : $\rm (AB)^{-1}=B^{-1}A^{-1}$ et $\rm (A^{-1})^{-1}=A$.

Méthode pour inverser une matrice :

  • On écrit le système $\rm (S): AX=Y$ d'inconnue $\rm X$ et de second membre $\rm Y$
  • On le résout à l'aide de la méthode du pivot de Gauss
  • On détermine en cours de route le rang de la matrice. Si le rang est maximum, la matrice est inversible. On peut continuer la résolution du système $\rm (S)$
  • On obtient l'expression de $\rm X$ en fonction de $\rm Y : X = A^{-1}Y$. La lecture des coefficients devant les $y_{\rm i}$ fournit les coefficients de la matrice inverse $\rm A^{-1}$

Exemple :

$\rm A = \left(
\begin{array}{rrr}
-1 & 2 & 3 \\
2 & 1 & -1 \\
3 & 0 & -2
\end{array}
\right)$.

On considère donc le système :

$\rm (S) \left\{\begin{array}{ccccccc}
\rm -x_1 & + & 2x_2 & + & 3x_3 & = & y_1 \\
2x_1 & + & x_2 & - & x_3 & = & y_2 \\
3x_1 & & & - &2x_3 & = & y_3
\end{array}\right.$

On utilise la méthode du pivot de Gauss sur :

$\left(
\begin{array}{rrr|r}
-1 & 2 & 3 & y_1 \\
2 & 1 & -1 & y_2\\
3 & 0 & -2 & y_3
\end{array}
\right)$.

On effectue les opérations : $\rm L_2 \leftarrow L_2 + 2L_1$ et $\rm L_3 \leftarrow L_3 + 3L_1$ :

$\left(\begin{array}{rrr|r}
-1 & 2 & 3 & y_1\\
0 & 5 & 5 & y_2+2y_1\\
0 & 6 & 7 & y_3+3y_1
\end{array}
\right)$.

Puis l'opération $\rm L_3 \leftarrow 5L_3-6L_2$ :

$ \left(\begin{array}{rrr|r}
-1 & 2 & 3 & y_1\\
0 & 5 & 5 & y_2+2y_1\\
0 & 0 & 5 & 3y_1 -6y_2 + 5y_3
\end{array}
\right)$.

Le rang de la matrice est $3$ car il y a $3$ pivots dans la matrice est inversible.

Le système linéaire correspondant est :

$\scriptstyle \rm (S) \left\{\begin{array}{ccccccc}
\scriptstyle -x_1 &\scriptstyle + &\scriptstyle 2x_2 &\scriptstyle + &\scriptstyle 3x_3 &\scriptstyle = &\scriptstyle y_1 \\
& &\scriptstyle 5x_2 &\scriptstyle - &\scriptstyle 5x_3 &\scriptstyle = &\scriptstyle 2y_1 + y_2 \\
& & & &\scriptstyle 5x_3 &\scriptstyle = &\scriptstyle 3y_1 -6y_2 + 5y_3
\end{array}\right.$

On en déduit que $\displaystyle x_3= \frac{3}{5}y_1 - \frac{6}{5}y_2 + y_3$ puis en remontant les équations : $\displaystyle x_2 = -\frac{1}{5}y_1 + \frac{7}{5}y_2 -
y_3$ puis $\displaystyle x_1 = \frac{2}{5}x_1 - \frac{4}{5}x_2 + y_3$

On a donc :

$\left\{\begin{array}{ccccccc}
x_1 & = & \displaystyle \frac{2}{5}x_1 & - & \displaystyle \frac{4}{5}x_2 & +& y_3 \\
x_2 & = & -\displaystyle \frac{1}{5}y_1 & + & \displaystyle \frac{7}{5}y_2 & - & y_3 \\
x_3 & = & \displaystyle \frac{3}{5}y_1 & - & \displaystyle \frac{6}{5}y_2 & +& y_3
\end{array}\right.$

On en déduit que :

$\rm A^{-1} = \left(
\begin{array}{rrr}
2/5 & -4/5 & 5/5\\
-1/5 & 7/5 & -5/5\\
3/5 & -6/5 & 5/5
\end{array}
\right)$ $\displaystyle = \frac{1}{5}\left(
\begin{array}{rrr}
2 & -4 & 5\\
-1 & 7 & -5\\
3 & -6 & 5
\end{array}
\right)$

On vérifie que $\rm AA^{-1}=I_3$ ou plus simplement pour ne pas s’embarrasser avec les fractions que :

$\rm A \times (5A^{-1}) = \left(\begin{array}{rrr}
-1 & 2 & 3 \\
2 & 1 & -1 \\
3 & 0 & -2\end{array}\right)$ $\left(\begin{array}{rrr}
2 & -4 & 5\\
-1 & 7 & -5\\
3 & -6 & 5 \end{array}\right)$ $\rm = 5I_3$.

Matrices triangulaires :

Soit $\rm A$ une matrice triangulaire supérieure ou inférieure.
La matrice $\rm A$ est inversible si et seulement si ses termes diagonaux sont tous non nuls.
L’inverse d’une matrice triangulaire inversible est triangulaire.

Méthode 4 : Calculs avec des transposées

Définition : On considère la matrice $\mathrm A=(a_{i,j})$ de $\mathrm M_{n,p}(\mathbb K)$.
La matrice transposée de $\mathrm A$ est alors $^t\mathrm A=(a_{j,i})$. Elle appartient à l’ensemble des matrices $\mathrm M_{p,n}(\mathbb K)$.

Remarque : $^t\mathrm A$ peut aussi être notée $\rm A^T$.

Théorème : Soient $\mathrm {A\in M}_{n,p}(\mathbb K)$ et $\mathrm{B\in M}_{p,q}(\mathbb K)$.
Alors $^t(\mathrm{AB})=^t\mathrm B^t\mathrm A$.

Définitions : Une matrice carrée $A$ est symétrique si $^t\rm A=A$. On note $\mathrm S_n$ l’ensemble des matrices symétriques.
Une matrice carrée $\rm A$ est antisymétrique si $^t\rm A=-A$. On note $\mathrm A_n$ l’ensemble des matrices antisymétriques.

Théorème : Si $\rm A$ est inversible, $^t(\mathrm A^{-1})=(^t{\mathrm A})^{-1}$.

🎲 Quiz GRATUIT

NOMAD EDUCATION

L’app unique pour réussir !