$\rm sev$ = sous-espace vectoriel
$\rm ev$ = espace vectoriel
$\rm E$ est un ${\Bbb K}$-espace vectoriel.

1) Famille libre et génératrice, base

a) Famille liée

Soit $\rm {\mathcal F}=(u_1,\ldots,u_n)$ une famille de vecteurs de $\rm E$.

La famille $\mathcal F$ est liée dans $\rm E$ (on dit aussi que les vecteurs sont linéairement dépendants dans $\rm E$ s'il existe $(\lambda_1, \ldots, \lambda_n) \in {\Bbb K}^n\backslash\{(0,\ldots,0)\}$ tel que $\lambda_1\cdot u_1 + \ldots + \lambda_n.u_n = \rm 0_E$.

$(\lambda_1, \ldots, \lambda_n) \in {\Bbb K}^n\backslash\{(0,\ldots,0)\}$ signifie qu' il existe au moins un indice $\rm i \in \{1,\ldots,n\}$ tel que $\lambda_i \neq 0$.

Exemple : On considère dans $\rm E={\Bbb R}^3$ les vecteurs $u_1=(1,0,-1)$, $u_2=(1,-2,3)$ et $u_3=(1,2,-5)$.

La famille $(u_1,u_2,u_3)$ est liée dans ${\Bbb R}^3$ car on observe que $2u_1-u_2-u_3=0_{{\Bbb K}^3}$.

Théorème : une famille est liée si et seulement si l'un des vecteurs s'exprime comme une $\rm C.L$ des autres.

b) Famille libre

Définition : Soit ${\mathcal F} =(u_1,\ldots,u_n)$ une famille de vecteurs de $\rm E$.

${\mathcal F}$ est libre dans $\rm E$ si la famille n'est pas liée.

Cela revient à dire, ${\mathcal F}$ est libre dans $\rm E$ (on dit aussi que les vecteurs sont linéairement indépendants dans $\rm E$) si $\forall (\lambda_1, \ldots, \lambda_n) \in {\Bbb K}^n$ : $\lambda_1 \cdot u_1 + \ldots + \lambda_n \cdot u_n = \rm 0_E$ $\Longrightarrow$ $(\lambda_1 =0, \lambda_2 =0, \ldots, \lambda_n = 0)$.

Exemple :

On considère $\rm E={\Bbb R}^3$ muni de sa structure canonique d'$\rm ev$.

Soient $u_1=(2,1,5)$, $u_2=(-1,1,-1)$ et $u_3=(1,1,3)$.

Soient $(\lambda_1, \lambda_2, \lambda_3) \in {\Bbb R}^3$ tel que $\lambda_1\cdot u_1 + \lambda_2\cdot u_2 + \lambda_3\cdot u_3 = \rm 0_E$.

On obtient le système :

$\left\{\begin{array}{rrrrrrr}
2\cdot \lambda_1 & - & \lambda_2 & + & \lambda_3 & = & 0\\
\lambda_1 & + & \lambda_2 & + & \lambda_3 & = & 0\\
5\cdot \lambda_1 & - & \lambda_2 & + & 3\cdot \lambda_3 & = & 0
\end{array}\right.$.

On utilise la méthode du pivot de Gauss.

$\left(\begin{array}{rrr}
2 & -1 & 1 \\
1 & 1 & 1 \\
5 & -1 & 3
\end{array}\right)$.

On effectue les opérations suivantes :

$\displaystyle \rm L_2 \leftarrow L_2 - \frac{1}{2}L1$ et $\displaystyle \rm L_3 \leftarrow L_3 - \frac{5}{2}L1$.

$\left(\begin{array}{rrr}
2 & -1 & 1 \\
& & \\
0 & \displaystyle \frac{3}{2} & \displaystyle \frac{1}{2} \\
& & \\
0 & \displaystyle \frac{3}{2} & \displaystyle \frac{1}{2}
\end{array}\right)$.

On revient au système :

$\left\{\begin{array}{lllll}
2\cdot \lambda_1 & - & \lambda_2 & + & \lambda_3 & = & 0\\
& & 3\cdot \lambda_2 & + & \lambda_3 & = & 0\\
\end{array}\right.$.

On peut exprimer les solutions en fonction de $\lambda_2$ par exemple.

$\lambda_3 = -3\cdot \lambda_2$ et $2\cdot \lambda_1 = \lambda_2 - \lambda_3 =
4\cdot \lambda_2$. Donc $\lambda_1 = 2\cdot \lambda_2$.

Les solutions du système sont$\left\{(2\cdot \lambda_2,\lambda_2,-3\cdot \lambda_2) \mid \lambda_2 \in {\Bbb R}\right\} = {\rm vect}((2,1,-3))$.

En choisissant par exemple $\lambda_2 = 1$, on obtient la solution $(2,1,-3)$.

Cela signifie qu'on a la relation linéaire: $2\cdot u_1 + u_2 -3\cdot u_3 = 0_E$

Donc la famille est liée.

À retenir :

Montrer que la famille ${\mathcal F} = \left(u_i\right)_{1\leq i \leq n}$ est libre est équivalent à montrer que le système linéaire $\lambda_1\cdot u_1 + \ldots + \lambda_n\cdot u_n = \rm 0_E$ d'inconnues $\lambda_i$ n'admet que la solution nulle comme solution.

Attention : $n$ vecteurs libres ne signifient pas $2$ à $2$ non colinéaires.

Exemple : $a=(1,0)$, $b=(0,1)$ et $c=a+b=(1,1)$ dans ${\Bbb R}^2$. Les vecteurs $a$, $b$ et $c$ sont deux à deux non colinéaires mais pourtant la famille $(a,b,c)$ est liée.

c) Famille génératrice

Soit la famille ${\mathcal F}=(u_1,\ldots,u_n)$ de vecteurs de l'espace vectoriel $\rm E$.

La famille ${\mathcal F}$ est une famille génératrice de $\rm E$ si $\rm vect({\mathcal F})=E$.

On dit dans ce cas que la famille ${\mathcal F}$ engendre $\rm E$.

Comme on a toujours $\rm vect({\mathcal F}) \subset E$, on a la définition équivalente suivante :

Définition équivalente :

La famille ${\mathcal F}$ est une famille génératrice de $\rm E$ si pour tout vecteur $\rm u$ de $\rm E$ il existe $(\lambda_1, \ldots, \lambda_n) \in {\Bbb K}^n$ tels que $u = \lambda_1\cdot u_1 + \ldots + \lambda_n\cdot u_n$.

d) Base

Définition d'une base : une base d'un $\rm ev$ ou un $\rm sev$ est une famille qui est à la fois libre et génératrice.

Théorème : caractérisation d'une base.

${\mathcal B}=(u_1, \ldots, u_n)$ est une base de $\rm E \iff$ pour tout vecteur $u$ de $\rm E$ il existe un unique $n$-uplet $(\lambda_1,\ldots,\lambda_n)$ de ${\Bbb K}^n$ tel que $u = \lambda_1\cdot u_1 + \ldots + \lambda_n\cdot u_n$.

Le $n$-uplet $(\lambda_1,\ldots,\lambda_n)$ s'appelle les coordonnées du vecteur $u$ dans la base ${\mathcal B}$.

2) La dimension d'un sev ou un ev

Définition : la dimension d'un $\rm ev$ $\rm E$ est le cardinal (c'est-à-dire le nombre d'éléments) d'une base de $\rm E$.

Donc pour chercher la dimension d'un $\rm sev$ ou un $\rm ev$, il faut chercher une base.

Théorème très pratique si on connaît à l'avance la dimension d'un $\rm sev$ pour en déterminer une base :

Soit $\rm F$ un $\rm sev$ de dimension $\rm n$ et soit ${\mathcal B}$ une famille de $\rm F$.

  • Si ${\mathcal B}$ est une famille de cardinal $\rm n$ libre alors ${\mathcal B}$ est une base de $\rm F$.
  • Si ${\mathcal B}$ est une famille de cardinal $\rm n$ génératrice alors ${\mathcal B}$ est une base de $\rm F$.

3) Formule des dimensions

Soit $\rm F$ et $\rm G$ des $\rm sev$ de $\rm E$ de dimension finie. On a alors la formule dite des dimensions ou de Grassmann : $\rm \dim(F+G)$ $\rm = \dim(F)+\dim(G) - \dim(F \cap G)$.

En particulier, si $\rm F$ et $\rm G$ sont en somme directe, on a $\rm \dim(F\oplus G) = \dim(F)+\dim(G)$.

4) Théorème du rang

Théorème : soit $f$ une application linéaire d'un espace $\rm E$ de dimension finie dans un espace $\rm F$ (pas forcément de dimension finie).

${\rm \dim(E)} = \dim({\rm ker}(f)) + {\rm rg}(f)$

On rappelle que ${\rm rg}(f)$ est la dimension de l'image.

Ce théorème nous dit que plus l'image est "grande" plus le noyau est "petit". Et vice et versa.

Conséquence pour les endomorphismes en dimension finie. On montre facilement à partir de la formule du rang que si $f$ est un endomorphisme d'un espace de dimension finie :

$f$ est injective si et seulement si $f$ est surjective si et seulement si $f$ est bijective (c'est-à-dire un automorphisme).