1) Matrice d'une application linéaire (A.L)

a) Définition :

  • $E$ un espace vectoriel de dimension $p$ muni de la base ${\mathcal B}_E=(e_1,\ldots,e_p)$
  • $F$ un espace vectoriel de dimension $n$ muni de la base ${\mathcal B}_F=(f_1,\ldots,f_n)$

Soit $f $ une A.L de $E$ dans $F$.

On synthétise les données dans le schéma suivant :

$\begin{array}{ccc}
     p & & n \\ 
     E & \stackrel{f}{\longrightarrow} & F \\
    {\mathcal B}_E & & {\mathcal B}_F
\end{array}$.

La matrice représentative ou matrice associée de $f$ dans les bases ${\mathcal B}_E$ et ${\mathcal B}_F$ est la matrice, notée ${\rm Mat}(f,{\mathcal B}_E,{\mathcal B}_F)$ ou $M_{{\mathcal B}_E,{\mathcal B}_F}(f)$, de $M_{n,p}({\Bbb K})$ dont la $j$-éme colonne est constituée par les coordonnées du vecteur
$f(e_j)$ dans la base ${\mathcal B}_F$.

Autrement dit si on pose $M_{{\mathcal B}_E,{\mathcal B}_F}(f) = (a_{i,j})_{\stackrel{1 \leq i \leq n}{_{1 \leq j \leq p}}}$, on a: $\displaystyle{\forall j \in \{1,\ldots,p\}: f(e_j)=\sum_{i=1}^{n}a_{i,j}f_i}$.

Remarque : On représente souvent la matrice $M_{{\mathcal B}_E,{\mathcal B}_F}(f)$ en la bordant par les vecteurs $f(e_j)$ et $f_{i}$. 

    $\begin{array}{cccl}
      M_{{\mathcal B}_E,{\mathcal B}_F}(f) & = & 
      \left(\begin{array}{ccccc}
        a_{1,1} & \ldots & a_{1,j} & \ldots & a_{1,p}\\
         & & & & \\
        \vdots & & & & \vdots\\
        & & & & \\
        a_{n,1} & \ldots & a_{n,j} & \ldots & a_{n,p}\\
      \end{array}\right)
& \begin{array}{l}
        f_1 \\
        \\
        \\
        \\
        f_n\\
      \end{array}\\
&& \left.\begin{array}{ccccc}
        \uparrow & & \uparrow & 
        & \uparrow\\
        f(e_1) & & f(e_j) & & f(e_p)\\
      \end{array}\right. & \\
    \end{array}$

Exemple :

Soit :

$\begin{array}{cccc}
f & {\Bbb R}^3 &\longrightarrow & {\Bbb R}^2\\
& (x,y,z) & \mapsto & (2x+3y-z,x+y+z)
\end{array}$

On montrerait facilement que $f$ est une A.L

Déterminer la matrice représentative de $f$ dans les bases canoniques ${\mathcal B}_3=(e_1,e_2,e_3)$ de ${\Bbb R}^3$ et ${\mathcal B}_2=(f_1,f_2)$ de ${\Bbb R}^2$.

On a $f(e_1) = f((1,0,0)) = (2,1)$, $f(e_2) = (3,1)$ et $f(e_3) = (-1,1)$

Les images se décomposent ainsi :

$\begin{array}{lll}
 (2,1) & = & 2.(1,0) + 1.(0,1) \\
& = & 2.f_1 + 1.f_2\\
 (3,1) & = & 3.(1,0) + 1.(0,1)\\
& = & 3.f_1 + 1.f_2\\
 (-1,1) & = & -1.(1,0) + 1.(0,1) \\
& = & -1.f_1 + 1.f_2\\
\end{array}$

D'où ${\rm Mat}_{{\mathcal B}_3,{\mathcal B}_2}(f) = \left(\begin{array}{ccr}
          2 & 3 & -1\\
          1 & 1 & 1
\end{array}\right)$

b) Calcul d'une image matriciellement

Ce qu'il faut bien retenir c'est que toutes les informations de l'application linéaire sont lisibles dans sa matrice.

Par exemple, pour calculer $y = f(x)$, on fait le calcul matriciel suivant. Le vecteur $x$ se décompose dans la base ${\mathcal B}_E$ selon l'égalité : $\displaystyle{x=\sum_{j=1}^{p}x_j e_j}$.

On note la matrice colonne des coordonnées de $x$ dans la base ${\mathcal B}_E$ par 

$X=\left(
  \begin{array}{c}
    x_1 \\
    \vdots \\
    x_p
  \end{array}
\right)$.

De la même façon, on décompose $y$ dans la base d'arrivée et on note $Y$ la matrice colonne de ses coordonnées. 

Alors on a $Y=AX$. 

Ainsi, chercher l'image de $f$ revient à chercher l'image de la matrice $A$ et cette image est égale au sous-espace engendré par les colonnes de la matrice. On en déduit également que le rang de $f$ est égal au rang de sa matrice $A$.

De même, chercher le noyau de $f$ revient à résoudre le système linéaire $AX=0$. 

Remarque : lorsque l'application linéaire est un endomorphisme alors la matrice $A$ est carrée.

Exemple : 

On considère l'application :

$\begin{array}{llll}
f & {\Bbb R}_3[X] & \longrightarrow & {\Bbb R}_3[X]\\
& P & \mapsto& P-XP'\\
\end{array}$

On montre facilement que $f$ est un endomorphisme de ${\Bbb R}_3[X]$. 

Calculer matriciellement $f(1-X+X^2)$ puis déterminer ${\rm Ker}(f)$.

On détermine la matrice représentative de $f$ dans la base canonique ${\mathcal B} = (1,X,X^2,X^3)$ de ${\Bbb R}_3[X]$. 

$A={\rm Mat}_{\mathcal B}(f)=\left(
  \begin{array}{rrrr}
    1 & 0 & 0 & 0 \\
    0 & 0 & 0 & 0 \\
    0 & 0 &-1 & 0 \\
    0 & 0 & 0 &-2
  \end{array}
\right)$.

La polynôme $P(X) = 1-X+X^2$ a pour coordonnées $(1,-1,1,0)$ dans ${\mathcal B}$. Notons 

$U = {\rm Mat}_{\mathcal B}(P) = \left(
  \begin{array}{r}
    1 \\
    -1 \\
    1 \\
    0
  \end{array}
\right)$.

Donc d'après le théorème précédent, $f(P)$ a pour coordonnées dans ${\mathcal B}$ :

$A \times U =\left(
  \begin{array}{rrrr}
    1 & 0 & 0 & 0 \\
    0 & 0 & 0 & 0 \\
    0 & 0 &-1 & 0 \\
    0 & 0 & 0 &-1
  \end{array}
\right) \times \left(
  \begin{array}{r}
    1 \\
    -1 \\
    1 \\
    0
  \end{array}
\right)\\
A \times U= \left(
  \begin{array}{r}
    1 \\
    0 \\
    -1 \\
    0
  \end{array}
\right)$

Donc $f(P) = 1-X^2$.

Soit à présent $P=a_0+a_1X+a_2X^2+a_3X^3 \in {\Bbb R}_3[X]$. On note
$U={\rm Mat}_{{\mathcal B}}(P)=\left(
  \begin{array}{c}
    a_0 \\
    a_1 \\
    a_2 \\
    a_3
  \end{array}
\right)$.

On a $0=f(P) \iff 0=AU$.

Or $AU = \left(
  \begin{array}{rrrr}
    1 & 0 & 0 & 0 \\
    0 & 0 & 0 & 0 \\
    0 & 0 &-1 & 0 \\
    0 & 0 & 0 &-2
  \end{array}
\right)
\left(
  \begin{array}{c}
    a_0 \\
    a_1 \\
    a_2 \\
    a_3
  \end{array}
\right)\\
AU=
\left(
  \begin{array}{r}
     a_0 \\
     0 \\
    -a_2 \\
    -2a_3
  \end{array}
\right)$

Comme $P \in {\rm Ker}(f) \iff f(P)=0_{{\Bbb R}_3[X]} \iff A\times U = 0_{M_{4,1}({\Bbb R}_3[X])}$

On en déduit que $P \in {\rm Ker}(f) \iff \left(
  \begin{array}{r}
     a_0 \\
     0 \\
    -a_2 \\
    -2a_3
  \end{array}
\right) = \left(
  \begin{array}{r}
     0 \\
     0 \\
     0 \\
     0
  \end{array}
\right)$.

Donc $a_0=0$ et $a_2=0$ et $a_3=0$ c'est-à-dire $P=a_1X$.

Donc ${\rm Ker}(f) = {\rm vect}(X)$.

Le noyau est de dimension $1$. Comme l'espace est de dimension $4$, l'image est de dimension $3$. L'image de $f$ se lit sur les colonnes de la matrices.
L'image est engendrée par le 1er, le 3ème et le 4ème vecteur colonne. Si on retranscrit dans l'espace ${\Bbb R}_3[X]$, le premier vecteur correspond au polynôme $1$, le 3ème au polynôme $-X^2$ le troisième au polynôme $-2X^3$. On a donc ${\rm im}(f) = \rm vect(1,-X^2,-2X^3) = \rm vect(1,X^2,X^3).$

c) Théorème : 

La matrice d'une composée d'AL est le produit des matrices, c'est-à-dire $Mat(f \circ g) = Mat(f) \times Mat(g)$ (ajouter les bases de départ et d'arrivée). 

d) A.L canoniquement associée à une matrice rectangulaire. 

Définition : soit $A \in M_{n,p}({\Bbb K})$ une matrice rectangulaire. 

L'application linéaire canoniquement associée à $A$ est l'application 

$\begin{array}{llll}
f & {\Bbb K}^p & \longrightarrow & {\Bbb K}^n\\
& X & \mapsto& AX\\
\end{array}$

2) Le cas particulier des endomorphismes

a) Matrice associée à un endomorphisme :

C'est la même définition que pour une A.L mais la base de départ doit être la même que celle d'arrivée. 

b) Automorphisme :

Théorème : soit $f$ un endomorphisme d'un espace $E$ de dimension finie. 

$f$ est bijective si et seulement si sa matrice est inversible.