Retour

Matrices et applications linéaires

Ce programme vous est offert par Efrei

En savoir plus

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

Méthode 1 : Déterminer la matrice d’une application linéaire

$\rm A.L= \text{application linéaire}$

Soient :

  • $\rm E$ un espace vectoriel de dimension $\rm p$ muni de la base $\rm {\mathcal B}_E=(e_1,\ldots,e_p)$
  • $\rm F$ un espace vectoriel de dimension $\rm n$ muni de la base $\rm {\mathcal B}_F$ $=(f_1,\ldots,f_n)$

Soit $f$ une $\rm A.L$ de $\rm E$ dans $\rm F$.

On synthétise les données dans le schéma suivant :

$\begin{array}{ccc}
\rm p & & \rm n \\
\rm E & \stackrel{f}{\longrightarrow} & \rm F \\
\rm {\mathcal B}_E & & {\mathcal B}_F\end{array}$.

La matrice représentative ou matrice associée de $f$ dans les bases $\rm {\mathcal B}_E$ et $\rm {\mathcal B}_F$ est la matrice, notée ${\rm Mat}(f,\rm {\mathcal B}_E,{\mathcal B}_F)$ ou $\rm M_{{\mathcal B}_E,{\mathcal B}_F}(\mathcal f)$, de $\rm M_{n,p}({\Bbb K})$ dont la $\rm j$-éme colonne est constituée par les coordonnées du vecteur
$f\rm (e_j)$ dans la base $\rm {\mathcal B}_F$.

Autrement dit si on pose $\rm M_{{\mathcal B}_E,{\mathcal B}_F}(\mathcal f) = \rm (a_{i,j})_{\stackrel{1 \leq i \leq n}{_{1 \leq j \leq p}}}$, on a : $\displaystyle{\forall \mathrm j \in \{1,\ldots,\mathrm p\} : f(\mathrm e_j)=\sum_{\rm i=1}^{\rm n}\mathrm a_{\rm i,j}f_i}$.

Remarque : On représente souvent la matrice $\rm M_{{\mathcal B}_E,{\mathcal B}_F}(\mathcal f)$ en la bordant par les vecteurs $f(\rm e_j)$ et $f_{\rm i}$.

$\rm M_{{\mathcal B}_E,{\mathcal B}_F}(\mathcal f) =$ $\left(\begin{array}{ccccc}
\rm a_{1,1} & \ldots & \rm a_{1,j} & \ldots & \rm a_{1,p}\\
& & & & \\
\vdots & & & & \vdots\\
& & & & \\
\rm a_{n,1} & \ldots & \rm a_{n,j} & \ldots & \rm a_{n,p}\\
\end{array}\right)$ $\begin{array}{l}
f_1 \\
\\
\\
\\
f_{\rm n}\\
\end{array}$
$\begin{array}{ccccc}
\uparrow & & \uparrow &
& \uparrow\\
\quad f(\rm e_1) & & f(\rm e_j) & & f(\rm e_p)\\
\end{array}$

Remarque : lorsque l'application linéaire est un endomorphisme alors la matrice est carrée.

En effet la base de départ doit être la même que la base d’arrivée.

Théorème : soit $f$ un endomorphisme d'un espace $\rm E$ de dimension finie.

Exemple : $f$ est bijective si et seulement si sa matrice est inversible.

Soit :

$\begin{array}{cc}
\scriptstyle f & \scriptstyle{\Bbb R}^3 &\scriptstyle \longrightarrow & \scriptstyle{\Bbb R}^2\\
& \scriptstyle(x,y,z) & \scriptstyle\mapsto & \scriptstyle(2x+3y-z,x+y+z)
\end{array}$

On montrerait facilement que $f$ est une $\rm A.L$.

Déterminer la matrice représentative de $f$ dans les bases canoniques $\rm {\mathcal B}_3=(e_1,e_2,e_3)$ de ${\Bbb R}^3$ et ${\mathcal B}_2=(f_1,f_2)$ de ${\Bbb R}^2$.

On a $f(\mathrm e_1) = f((1,0,0)) = (2,1)$, $f(\rm e_2) = (3,1)$ et $f(\rm e_3) = (-1,1)$

Les images se décomposent ainsi :

$(2,1) = 2.(1,0) + 1.(0,1)$ $= 2.f_1 + 1.f_2$
$(3,1) = 3.(1,0) + 1.(0,1)$ $= 3.f_1 + 1.f_2$
$(-1,1) = -1.(1,0) + 1.(0,1)$ $= -1.f_1 + 1.f_2$

D'où $\rm Mat_{{\mathcal B}_3,{\mathcal B}_2}(f) = \left(\begin{array}{ccr}
2 & 3 & -1\\
1 & 1 & 1
\end{array}\right)$

Théorème : La matrice d'une composée d'$\rm AL$ est le produit des matrices, c'est-à-dire $\mathrm{Mat}(f \circ g) = \mathrm{Mat}(f) \times \mathrm{Mat}(g)$.

Inversement, si on dispose d’une matrice, on peut définir une application linéaire associée :

Définition : soit $\rm A \in M_{n,p}({\Bbb K})$ une matrice rectangulaire.

L'application linéaire canoniquement associée à $\rm A$ est l'application

$\begin{array}{llll}
f & \rm {\Bbb K}^p & \longrightarrow & \rm {\Bbb K}^n\\
& \rm X & \mapsto& \rm AX\\
\end{array}$

Théorème : $\rm \mathcal L(E,F)$ et $\mathrm M_{n,p}(\mathbb K)$ sont isomorphes.

Méthode 2 : Calculer l’image et le noyau d’une application linéaire

Par exemple, pour calculer $y = f(x)$, on fait le calcul matriciel suivant. Le vecteur $x$ se décompose dans la base $\rm {\mathcal B}_E$ selon l'égalité : $\displaystyle{x=\sum_{\rm j=1}^{\rm p}x_{\rm j} \rm e_j}$.

On note la matrice colonne des coordonnées de $x$ dans la base $\rm {\mathcal B}_E$ par

$\rm X=\left(\begin{array}{c}
x_1 \\
\vdots \\
x_p
\end{array}\right)$.

De la même façon, on décompose $y$ dans la base d'arrivée et on note $\rm Y$ la matrice colonne de ses coordonnées.

Alors on a $\rm Y=AX$.

Ainsi, chercher l'image de $f$ revient à chercher l'image de la matrice $\rm A$ et cette image est égale au sous-espace engendré par les colonnes de la matrice. On en déduit également que le rang de $f$ est égal au rang de sa matrice $\rm A$.

De même, chercher le noyau de $f$ revient à résoudre le système linéaire $\rm AX=0$.

Théorème : Une matrice de $\mathrm M_n(\mathbb K)$ est inversible si et seulement si son noyau est réduit au sous-espace nul, ou si et seulement si ses colonnes engendrent l’espace $\mathbb K_n$ ou si et seulement si son rang est $n$.

Exemple :

On considère l'application :

$\begin{array}{llll}
f & {\Bbb R}_3[\rm X] & \longrightarrow & \rm {\Bbb R}_3[X]\\
& \rm P & \mapsto & \rm P-XP'\\
\end{array}$

On montre facilement que $f$ est un endomorphisme de $\rm {\Bbb R}_3[X]$.

Calculer matriciellement $f\rm (1-X+X^2)$ puis déterminer ${\rm Ker}(f)$.

On détermine la matrice représentative de $f$ dans la base canonique $\rm {\mathcal B} = (1,X,X^2,X^3)$ de $\rm {\Bbb R}_3[X]$.

$\mathrm A={\rm Mat}_{\mathcal B}(f)=\left(\begin{array}{rrrr}
1 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 &-1 & 0 \\
0 & 0 & 0 &-2
\end{array}\right)$.

La polynôme $\rm P(X) = 1-X+X^2$ a pour coordonnées $(1,-1,1,0)$ dans ${\mathcal B}$. Notons

$\rm U = {\rm Mat}_{\mathcal B}(P) = \left(\begin{array}{r}
1 \\
-1 \\
1 \\
0
\end{array}\right)$.

Donc d'après le théorème précédent, $f(\rm P)$ a pour coordonnées dans ${\mathcal B}$ :

$\rm A \times U $ $=\left(\begin{array}{rrrr}
1 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 &-1 & 0 \\
0 & 0 & 0 &-1
\end{array}\right) \times \left(\begin{array}{r}
1 \\
-1 \\
1 \\
0
\end{array}\right)$ $= \left(\begin{array}{r}
1 \\
0 \\
-1 \\
0
\end{array}\right)$.

Donc $f\rm (P) = 1-X^2$.

On cherche ensuite le noyau de l’application linéaire.

Soit à présent $\rm P=a_0+a_1X+a_2X^2+a_3X^3 \in {\Bbb R}_3[X]$. On note $\rm U={\rm Mat}_{{\mathcal B}}(P)=\left(\begin{array}{c}
\rm a_0 \\
\rm a_1 \\
\rm a_2 \\
\rm a_3
\end{array}\right)$.

On a $0=f\rm (P) \iff 0=AU$.

Or $\rm AU$ $= \left(\begin{array}{rrrr}
1 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 &-1 & 0 \\
0 & 0 & 0 &-2
\end{array}\right)$
$\left(\begin{array}{c}
\rm a_0 \\
\rm a_1 \\
\rm a_2 \\
\rm a_3
\end{array}\right)$ $=
\left(\begin{array}{r}
\rm a_0 \\
0 \\
\rm -a_2 \\
\rm -2a_3
\end{array}\right)$.

Comme $\mathrm P \in {\rm Ker}(f) \iff f\rm (P)$ $=0_{{\Bbb R}_3[X]} \iff A\times U$ $\rm = 0_{M_{4,1}({\Bbb R}_3[X])}$

On en déduit que $\rm P \in {\rm Ker}(f) \iff \left(\begin{array}{r}
\rm a_0 \\
0 \\
\rm -a_2 \\
\rm -2a_3
\end{array}\right) = \left(\begin{array}{r}
0 \\
0 \\
0 \\
0
\end{array}\right)$.

Donc $\rm a_0=0$ et $\rm a_2=0$ et $\rm a_3=0$ c'est-à-dire $\rm P=a_1X$.

Donc ${\rm Ker}(f) = \rm vect(X)$.

Le noyau est de dimension $1$. Comme l'espace est de dimension $4$, l'image est de dimension $3$. L'image de $f$ se lit sur les colonnes de la matrices.
L'image est engendrée par le $\rm 1^{er}$, le $\rm 3^{ème}$ et le $\rm 4^{ème}$ vecteur colonne. Si on retranscrit dans l'espace $\rm {\Bbb R}_3[X]$, le premier vecteur correspond au polynôme $1$, le $\rm 3^{ème}$ au polynôme $\rm -X^2$ le troisième au polynôme $\rm -2X^3$. On a donc ${\rm im}(f) = \rm vect(1,-X^2,-2X^3) = vect(1,X^2,X^3)$.

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !