sev = sous-espace vectoriel
ev = espace vectoriel
$E$ est un ${\Bbb K}$-espace vectoriel.
1) Famille libre et génératrice, base.
a) Famille liée.
Soit ${\mathcal F}=(u_1,\ldots,u_n)$ une famille de vecteurs de $E$.
La famille $\mathcal F$ est liée dans $E$ (on dit aussi que les vecteurs sont linéairement dépendants dans $E$ s'il existe $(\lambda_1, \ldots, \lambda_n) \in {\Bbb K}^n\backslash\{(0,\ldots,0)\}$ tel que $\lambda_1.u_1 + \ldots + \lambda_n.u_n = 0_E$.
$(\lambda_1, \ldots, \lambda_n) \in {\Bbb K}^n\backslash\{(0,\ldots,0)\}$ signifie qu' il existe au moins un indice $i \in \{1,\ldots,n\}$ tel que $\lambda_i \neq 0$.
Exemple : On considère dans $E={\Bbb R}^3$ les vecteurs $u_1=(1,0,-1)$, $u_2=(1,-2,3)$ et $u_3=(1,2,-5)$.
La famille $(u_1,u_2,u_3)$ est liée dans ${\Bbb R}^3$ car on observe que $2u_1-u_2-u_3=0_{{\Bbb K}^3}$.
Théorème : une famille est liée si et seulement si l'un des vecteurs s'exprime comme une C.L des autres.
b) Famille libre.
Définition : Soit ${\mathcal F}=(u_1,\ldots,u_n)$ une famille de vecteurs de $E$.
${\mathcal F}$ est libre dans $E$ si la famille n'est pas liée.
Cela revient à dire, ${\mathcal F}$ est libre dans $E$ (on dit aussi que les vecteurs sont linéairement indépendants dans $E$) si $\forall (\lambda_1,\ldots,\lambda_n)\in {\Bbb K}^n$: $\lambda_1.u_1 + \ldots + \lambda_n.u_n = 0_E \Longrightarrow (\lambda_1 =0, \lambda_2 =0, \ldots, \lambda_n = 0)$.
Exemple :
On considère $E={\Bbb R}^3$ muni de sa structure canonique d'ev.
Soient $u_1=(2,1,5)$, $u_2=(-1,1,-1)$ et $u_3=(1,1,3)$.
Soient $(\lambda_1,\lambda_2,\lambda_3) \in {\Bbb R}^3$ tel que $\lambda_1.u_1 + \lambda_2.u_2 + \lambda_3.u_3 = 0_E$.
On obtient le système :
$\left\{\begin{array}{rrrrrrr}
2.\lambda_1 & - & \lambda_2 & + & \lambda_3 & = & 0\\
\lambda_1 & + & \lambda_2 & + & \lambda_3 & = & 0\\
5.\lambda_1 & - & \lambda_2 & + & 3.\lambda_3 & = & 0
\end{array}\right.$.
On utilise la méthode du pivot de Gauss.
$\left(\begin{array}{rrr}
2 & -1 & 1 \\
1 & 1 & 1 \\
5 & -1 & 3
\end{array}\right)$.
On effectue les opérations suivantes :
$L_2 \leftarrow L_2 - \frac{1}{2}L1 \mbox{ et }L_3 \leftarrow L_3 - \frac{5}{2}L1$.
$\left(\begin{array}{rrr}
2 & -1 & 1 \\
& & \\
0 & \frac{3}{2} & \frac{1}{2} \\
& & \\
0 & \frac{3}{2} & \frac{1}{2}
\end{array}\right)$.
On revient au système :
$\left\{\begin{array}{lllll}
2.\lambda_1 & - & \lambda_2 & + & \lambda_3 & = & 0\\
& & 3.\lambda_2 & + & \lambda_3 & = & 0\\
\end{array}\right.$.
On peut exprimer les solutions en fonction de $\lambda_2$ par exemple.
$\lambda_3 = -3.\lambda_2$ et $2.\lambda_1 = \lambda_2 - \lambda_3 =
4.\lambda_2$. Donc $\lambda_1 = 2.\lambda_2$.
Les solutions du système sont $\left\{(2.\lambda_2,\lambda_2,-3.\lambda_2) \mid \lambda_2 \in {\Bbb R}\right\} = {\rm vect}((2,1,-3))$.
En choisissant par exemple $\lambda_2 = 1$, on obtient la solution $(2,1,-3)$.
Cela signifie qu'on a la relation linéaire: $2.u_1 + u_2 -3.u_3 = 0_E$
Donc la famille est liée.
A retenir :
Montrer que la famille ${\mathcal F} = \left(u_i\right)_{1\leq i \leq n}$ est libre est équivalent à montrer que le système linéaire $\lambda_1.u_1 + \ldots + \lambda_n.u_n = 0_E$ d'inconnues les $\lambda_i$ n'admet que la solution nulle comme solution.
Attention : $n$ vecteurs libres ne signifient pas $2$ à $2$ non colinéaires. Exemple : $a=(1,0)$, $b=(0,1)$ et $c=a+b=(1,1)$ dans ${\Bbb R}^2$. Les vecteurs $a$, $b$ et $c$ sont deux à deux non colinéaires mais pourtant la famille $(a,b,c)$ est liée.
c) Famille génératrice.
Soit la famille ${\mathcal F}=(u_1,\ldots,u_n)$ de vecteurs de l'espace vectoriel $E$.
La famille ${\mathcal F}$ est une famille génératrice de $E$ si ${\rm vect}({\mathcal F})=E$.
On dit dans ce cas que la famille ${\mathcal F}$ engendre $E$.
Comme on a toujours ${\rm vect}({\mathcal F}) \subset E$, on a la définition équivalente suivante:
Définition équivalente :
La famille ${\mathcal F}$ est une famille génératrice de $E$ si pour tout vecteur $u$ de $E$ il existe $(\lambda_1, \ldots, \lambda_n) \in {\Bbb K}^n$ tels que $u = \lambda_1.u_1 + \ldots + \lambda_n.u_n$.
d) Base.
Définition d'une base : une base d'un ev ou un sev est une famille qui est à la fois libre et génératrice.
Théorème : caractérisation d'une base.
${\mathcal B}=(u_1,\ldots,u_n)$ est une base de $E \iff$ pour tout vecteur $u$ de $E$ il existe un unique $n$-uplet $(\lambda_1,\ldots,\lambda_n)$ de ${\Bbb K}^n$ tel que $u = \lambda_1.u_1 + \ldots + \lambda_n.u_n$.
Le $n$-uplet $(\lambda_1,\ldots,\lambda_n)$ s'appelle les coordonnées du vecteur $u$ dans la base ${\mathcal B}$.
2) La dimension d'un sev ou un ev
Définition : la dimension d'un ev $E$ est le cardinal (c'est-à-dire le nombre d'éléments) d'une base de $E$.
Donc pour chercher la dimension d'un sev ou un ev, il faut chercher une base.
Théorème très pratique si on connaît à l'avance la dimension d'un sev pour en déterminer une base :
Soit $F$ un sev de dimension $n$ et soit ${\mathcal B}$ une famille de $F$.
- Si ${\mathcal B}$ est une famille de cardinal $n$ libre alors ${\mathcal B}$ est une base de $F$
- Si ${\mathcal B}$ est une famille de cardinal $n$ génératrice alors ${\mathcal B}$ est une base de $F$
3) Formule des dimensions
Soit $F$ et $G$ des sev de $E$ de dimension finie. On a alors la formule dite des dimensions ou de Grassman : $\dim(F+G) = \dim(F)+\dim(G) - \dim(F \cap G)$.
4) Théorème du rang
Théorème : soit $f$ une application linéaire d'un espace $E$ de dimension finie dans un espace $F$ (pas forcément de dimension finie).
$\dim(E) = \dim({\rm ker}(f)) + {\rm rg}(f)$
On rappelle que ${\rm rg}(f)$ est la dimension de l'image.
Ce théorème nous dit que plus l'image est "grande" plus le noyau est "petit". Et vice et versa.
Conséquence pour les endomorphismes en dimension fine. On montre facilement à partir de la formule du rang que si $f$ est un endomorphisme d'un espace de dimension finie :
$f$ est injective si et seulement si $f$ est surjective si et seulement si $f$ est bijective (c'est-à-dire un automorphisme).