1) INTRODUCTION
a) Différence entre une intégrale et une primitive
Une intégrale et une primitive sont deux objets différents. Une intégrale est un réel. Géométriquement, $\displaystyle{\int_a^bf(t){\rm d}t}$ mesure l'air algébrique délimitée entre les droites verticales $x=a$, $x=b$, la courbe $y=f(x)$ et l'axe des abscisses.
L'adjectif algébrique signifie que la portion de surface en dessous de l'axe des abscisses est comptée négativement alors que celle au-dessus de l'axe des abscisses est comptée positivement.
La notion d'aire et donc d'intégrale est relativement complexe à construire. Pour résumer, on peut dire qu'une intégrale est une limite. C'est la limite de la somme d'aires de rectangles construits sur la courbe (voir le paragraphe sur les sommes de Riemann). Toute la difficulté est de savoir si cette limite existe. La théorie affirme que si $f$ est continue ou même continue par morceaux sur le segment $[a,b]$ alors cette limite existe et par conséquent l'intégrale de la fonction existe.
Il existe des fonctions très irrégulières qui n'admettent pas d'aire sous leur courbe. Un exemple est la fonction
$\begin{array}{lllc}
f & {\Bbb R} & \rightarrow & {\Bbb R} \\
& x & \mapsto &
\left\{\begin{array}{cc}
1 & \mbox{ si }x \in {\Bbb Q} \\
0 & \mbox{ si }x \notin {\Bbb Q} \\\end{array}\right.
\end{array}$
${\Bbb Q}$ est l'ensemble des nombres rationnels c'est-à-dire les nombres de la forme $\frac{a}{b}$ avec $a \in {\Bbb Z}$ et $b \in {\Bbb N}^*$. Si on essaie de tracer le graphe de cette fonction, on comprend assez rapidement pourquoi l'aire sous la courbe n'existe pas.
La variable $t$ qui apparaît dans $\displaystyle{\int_a^bf(t){\rm d}t}$ s'appelle la variable d'intégration. Cette variable n'apporte aucune information. Si on la renomme en une autre lettre, on obtient toujours le même nombre. On dit que $t$ est une variable muette (comme l'indice muet $k$ dans la somme $\displaystyle{\sum_{k=0}^na_k}$).
De sorte que l'on peut écrire :
$\displaystyle{I = \int_a^bf(t){\rm d}t = \int_a^bf(x){\rm d}x = \int_a^bf(u){\rm d}u = \int_a^b f}$
Dans la dernière expression, on ne fait même plus référence à la variable d'intégration.
En conséquence, l'expression $\displaystyle{I(t) = \int_a^bf(t){\rm d}t}$ n'a pas de sens ! L'intégrale est un nombre est ne dépend pas de la variable $t$.
b) Comment justifier l'existence d'une intégrale ou d'une primitive ?
Nous avons vu en préambule que si la fonction $f$ est trop irrégulière, l'aire $\displaystyle{\int_a^b f(t){\rm d}t}$ n'existe pas.
- Si $f$ est continue sur $[a,b]$ alors le réel $\displaystyle{\int_{a}^{b}f(t){\rm d } t}$ existe.
- Si $f$ est continue sur l'intervalle $I$ alors $f$ admet une primitive sur $I$ autrement dit la fonction $F = \displaystyle{\int} f$ existe sur $I$.
La réciproque est fausse. Il est possible que l'intégrale ou la primitive d'une fonction existe sans pour autant que cette fonction soit nécessairement continue.
2) PRIMITIVE
a) Définition
Soit $f: I \rightarrow {\Bbb R}$ une fonction définie sur l'intervalle $I$. Une primitive de $f$ est une fonction $F$ vérifiant :
- $F$ est dérivable sur $I$
- $F'=f$
Remarques :
Notons qu'une primitive d'une fonction sur un intervalle $I$ n'est définie qu'à une constante près. En effet, si $F$ et $G$ sont deux primitives d'une même fonction $f$ alors $(F-G)'=F'-G'=f-f=0$ sur l'intervalle $I$ de sorte que $F-G$ est une fonction constante.
Une primitive de la fonction $f$ se note $\displaystyle{F=\int f \mbox{ ou } F(x) = \int f(x){\rm d}x}$. Le symbole est le même que celui pour l'intégrale mais sans borne.
Cette notation est ambiguë car d'une part elle ne précise par sur quel intervalle on travaille et d'autre part elle désigne une primitive à une constante près.
Par exemple, la formule $\displaystyle{\int\frac{{\rm d}x}{x} = \ln|x|}$ synthétise en fait deux formules :
$\displaystyle{\int \frac{{\rm d}x}{x} =
\left\{\begin{array}{cc}
\ln x + k_1& \mbox{ sur l'intervalle } ]0,+\infty[ \\
\ln(-x) + k_2& \mbox{ sur l'intervalle } ]-\infty,0[
\end{array}\right.}$
où $k_1$ et $k_2$ désignent deux constantes réelles.
b) Lien intégrale-primitive
Il y a deux liens à connaître entre intégrale et primitive. Un premier lien est constitué par ce qu'on appelle le Théorème Fondamental de l'Analyse (TFA).
Théorème Fondamental de l'Analyse :
Soit $f$ une fonction continue sur un intervalle $I$ de ${\Bbb R}$. Alors $f$ admet une primitive $F$ sur $I$ et $F$ est donnée par la formule :
$\displaystyle{\forall x \in I, F(x) = \int_c^xf(t)\,{\rm d}t}$ où $c$ est un réel fixé de l'intervalle $I$.
Remarques :
$F(c)=0$ donc $F$ est en fait l'unique primitive de $f$ sur $I$ qui s'annule en $c$. En outre, comme $F$ est une primitive, par définition, $F$ est dérivable sur $I$ et $F'=f$. Comme $f$ est continue, $F$ est une fonction dérivable à dérivée continue autrement dit c'est une fonction de classe $C^1$ sur $I$.
Dans l'expression $\displaystyle{\forall x \in I, F(x) = \int_c^xf(t){\rm d}t}$ il ne faut pas confondre la variable $x$ et la variable d'intégration $t$. La fonction $F$ dépend de la variable $x$ mais aucunement de la variable $t$.
Exemple : la fonction $\displaystyle{x \mapsto F(x) = \int_{3}^{x}t{\rm d}t}$ est l'unique primitive de la fonction $t \mapsto t$ sur ${\Bbb R}$ qui s'annule en $3$.
On a $\displaystyle{F(x) = \int_{3}^{x}t\,{\rm d}t = \left[\frac{t^2}{2}\right]_3^x = \frac{1}{2}(x^2-9)}$.
Théorème :
Soit $f:[a,b] \rightarrow$ une fonction continue sur le segment $[a,b]$. Soit $F$ une primitive de $f$ sur $[a,b]$. Alors on a $\displaystyle{\int_{a}^{b}f(t){\rm d}t = F(b)-F(a)}$.
3) INTÉGRALES
a) Propriétés à retenir de l'intégrale
- Linéarité de l'intégrale
Si $f$ et $g$ sont deux fonctions continues sur $[a,b]$ et si $\alpha$ et $\beta$ sont deux réels, alors $\displaystyle{\int_{a}^{b}\left(\alpha.f(t)+\beta.g(t)\right){\rm d}t = \alpha \int_a^{b}f(t){\rm d}t + \beta \int_a^{b} g(t){\rm d}t}$.
- Positivité de l'intégrale
Soit $f$ une fonction continue sur $[a,b]$. Alors, $\displaystyle{(\forall t \in [a,b], f(t) \ge 0) \Longrightarrow \int_a^{b}f(t){\rm d}t \ge 0}$.
- Croissance de l'intégrale
Soit $f$ et $g$ deux fonctions continues sur $[a,b]$. Alors, $\displaystyle{(\forall t \in [a,b], f(t) \ge g(t)) \Longrightarrow \int_a^{b}f(t){\rm d}t \ge \int_a^{b}g(t){\rm d}t}$.
- Inégalité triangulaire
Soit $f$ une fonction continue sur $[a,b]$. Alors, $\displaystyle{\left|\int_a^{b}f(t){\rm d}t\right| \le \int_a^{b}|f(t)|{\rm d}t}$.
- Relation de Chasles
Soit $f$ une fonction continue sur $[a,b]$. Pour tout réel $c$ dans $]a,b[$ : $\displaystyle{\int_a^{b}f(t){\rm d}t = \int_a^{c}f(t){\rm d}t + \int_c^{b}f(t){\rm d}t}$.
Ces propriétés ne sont valables que lorsque $a < b$. Ainsi l'intégrale d'une fonction positive peut très bien être négative ! Par exemple, $\displaystyle{\int_1^{0}x^2 = -\frac{1}{3}<0}$.
b) Suite définie par une intégrale.
Il s'agit de suite $(u_n)$ définie par $u_n = \displaystyle{\int_a^bf(n,x){\rm d} x}$ où la fonction dépend d'un entier $n$. Il n'est pas toujours possible de calculer explicitement l'intégrale. Cependant grâce aux propriétés de l'intégrale, on prouve des propriétés sur la suite $(u_n)$ (monotonie, convergence).
Méthode pour l'étude d'une suite définie par une intégrale.
Soit la suite $(u_n)$ définie par $\displaystyle{u_n = \int_a^bf_n(x){\rm d} x}$ où $f_n$ est une fonction dépendant de l'entier $n$.
- Pour étudier la monotonie de $(u_n)$, former $u_{n+1}-u_n$ et utiliser la positivité de l'intégrale.
- Pour étudier la convergence de $(u_n)$, on utilise le théorème de la limite monotone : une suite croissante et majorée (ou décroissance et minorée) converge. Notons que cela ne permettra pas de déterminer la limite.
- Pour déterminer la limite de la suite $(u_n)$, on utilise le théorème des gendarmes en encadrant l'intégrale ce qui demande de commencer par encadrer $f_n(x)$ sachant que $x \in [a,b]$.
- Pour encadrer un quotient de nombres positifs $\displaystyle{\frac{a}{b}}$, on peut soit majorer le numérateur soit minorer le dénominateur.
c) Exemple classique : les intégrales de Wallis.
Étudions la suite définie par $\displaystyle{I_n = \int_0^{\frac{\pi}{2}} \sin^n(t){\rm d } t}$.
Tout d'abord, la suite est positive car $\displaystyle{\forall t \in \left[0,\frac{\pi}{2}\right]}$, $\sin(t) \ge 0$ donc $\sin^n(t) \ge 0$ puis par positivé de l'intégrale, $I_n \ge 0$.
La suite $(I_n)$ est décroissance. En effet, $\displaystyle{I_{n+1} - I_n = \int_0^{\frac{\pi}{2}} \sin^{n+1}(t){\rm d } t - \int_0^{\frac{\pi}{2}} \sin^{n}(t){\rm d } t}$
$\displaystyle{I_n = \int_0^{\frac{\pi}{2}} \left[\sin^{n+1}(t) - \sin^n(t) \right] {\rm d } t}$ par linéarité de l'intégrale.
$\displaystyle{I_n = \int_0^{\frac{\pi}{2}} \sin^n(t) \left[\sin(t)-1\right]{\rm d } t}$
Or $\sin(t) \le 1$ donc $\sin(t)-1 \le 0$. Comme sur $\displaystyle{\left[0,\frac{\pi}{2}\right]}$, $\sin^n(t) \ge 0$, $\displaystyle{\forall t \in \left[0,\frac{\pi}{2}\right], \left[\sin(t)-1\right]\sin^n(t) \le 0}$ puis par positivité de l'intégrale :
$\displaystyle{I_{n+1}-I_n = \int_0^{\frac{\pi}{2}} \left[\sin(t)-1\right]\sin^n(t) \le 0}$.
Ainsi, $(I_n)$ est une suite décroissante et minorée (par $0$) donc converge.
Pour déterminer la limite de la suite $(I_n)$, nous allons déterminer une relation de récurrence vérifiée par la suite $(I_n)$. On effectue une intégration par partie dans $I_n$ pour $n \ge 2$ :
$
\left\{\begin{array}{lll}
u'(t) & = & \sin(t)\\
v(t) & = & \sin^{n-1}(t)
\end{array}
\right.$
d'où
$\left\{\begin{array}{lll}
u(t) & = & -\cos(t)\\
v'(t) & = & (n-1)\cos(t)\sin^{n-2}(t)
\end{array}
\right.$.
Les fonctions $u$ et $v$ sont de classe $C^1$ sur le segment $\left[0,\frac{\pi}{2}\right]$. On a supposé que $n \ge 2$ de sorte que les fonctions $v$ et $v'$ sont bien définie sur $\displaystyle{\left[0,\frac{\pi}{2}\right]}$.
On obtient $\displaystyle{I_n = \int_0^{\frac{\pi}{2}}\sin^n(t){\rm d } t = \left[-\cos(t)\sin^{n-1}(t)\right]_0^{\frac{\pi}{2}}+ (n-1)\int_0^{\frac{\pi}{2}}\cos^2(t)\sin^{n-2}(t){\rm d } t}$.
Le crochet est nul. Comme $\cos^2(t) = 1 -\sin^2(t)$, on obtient :
$\displaystyle{I_n = (n-1)\int_0^{\frac{\pi}{2}}\left[1-\sin^2(t)\right]\sin^{n-2}(t){\rm d } t = (n-1)(I_{n-2}-I_n).}$
On obtient ainsi la relation de récurrence :
$\displaystyle{\forall n \ge 2, I_n = \frac{n-1}{n}I_{n-2}}$.
À partir de cette relation, nous allons prouver que la quantité $(n+1)I_{n+1}I_n$ est constante égale à $\displaystyle{\frac{\pi}{2}}$ pour tout entier $n$.
Procédons par récurrence. On a $\displaystyle{I_0 = \int_0^{\frac{\pi}{2}} \sin^0(t) {\rm d } t = \int_0^{\frac{\pi}{2}} 1 {\rm d } t = \frac{\pi}{2}}$
et
$\displaystyle{I_0 = \int_0^{\frac{\pi}{2}} \sin^1(t) {\rm d } t = \int_0^{\frac{\pi}{2}} \sin(t) {\rm d } t = \left[-\cos(t)\right]_0^{\frac{\pi}{2}} = 1}$.
On a donc bien $\displaystyle{(0+1)I_{0+1}I_0 = \frac{\pi}{2}}$.
Supposons l'égalité établie à un rang $n$. Montrons la au rang $n+1$. D'après la relation de récurrence établie précédemment :
$\displaystyle{I_{n+2} = \frac{(n+1)}{n+2}I_n}$
donc
$\displaystyle{(n+2)I_{n+2}I_{n+1} = (n+1)I_nI_{n+1} = \frac{\pi}{2}}$ par hypothèse de récurrence. Ainsi l'égalité est établie au rang $n+1$.
On a donc montré que $\displaystyle{\forall n \in {\Bbb N}, I_nI_{n+1} = \frac{\pi}{2(n+1)}}$.
Comme la suite $(I_n)$ converge vers disons $\ell$, la suite $(I_nI_{n+1})$ converge vers $\ell^2$.
Or $\displaystyle{\frac{\pi}{2(n+1)} \rightarrow 0}$ donc $\ell^2=0$ donc $\ell=0$. Ainsi la suite $(I_n)$ converge vers $0$.
La relation précédente permet même de déterminer un équivalent de la suite $(I_n)$. Comme la suite $(I_n)$ est décroissante $I_{n+1} \le I_n \le I_{n-1}$.
On multiplie par $I_{n}$ qui est positif : $I_{n+1}I_n \le I_{n}^2 \le I_{n-1}I_{n}$.
Or $\displaystyle{I_{n+1}I_{n} = \frac{\pi}{2(n+1)}}$ et $\displaystyle{I_{n}I_{n-1} = \frac{\pi}{2n}}$.
On a donc l'encadrement :
$\displaystyle{\frac{\pi}{2(n+1)} \le I_{n}^2 \le \frac{\pi}{2n}}$ donc $\displaystyle{\sqrt{\frac{\pi}{2(n+1)}} \le I_{n} \le \sqrt{\frac{\pi}{2n}}}$.
Comme $\displaystyle{\sqrt{\frac{\pi}{2(n+1)}} \sim \sqrt{\frac{\pi}{2n}}}$, on en déduit que $\displaystyle{I_n \sim \sqrt{\frac{\pi}{2n}}}$.