1) INTRODUCTION
a) Différence entre une intégrale et une primitive
Une intégrale et une primitive sont deux objets différents. Une intégrale est un réel. Géométriquement, $\displaystyle{\int_a^bf(t){\rm d}t}$ mesure l'air algébrique délimitée entre les droites verticales $x=a$, $x=b$, la courbe $y=f(x)$ et l'axe des abscisses.
L'adjectif algébrique signifie que la portion de surface en dessous de l'axe des abscisses est comptée négativement alors que celle au-dessus de l'axe des abscisses est comptée positivement.
La notion d'aire et donc d'intégrale est relativement complexe à construire. Pour résumer, on peut dire qu'une intégrale est une limite. C'est la limite de la somme d'aires de rectangles construits sur la courbe. Toute la difficulté est de savoir si cette limite existe. La théorie affirme que si $f$ est continue ou même continue par morceaux sur le segment $[a,b]$ alors cette limite existe et par conséquent l'intégrale de la fonction existe.
Il existe des fonctions très irrégulières qui n'admettent pas d'aire sous leur courbe. Un exemple est la fonction $\begin{array}{lllc}
f & {\Bbb R} & \rightarrow & {\Bbb R} \\
& x & \mapsto & \left\{\begin{array}{cc}
1 & \text{ si }x \in {\Bbb Q} \\
0 & \text{ si }x \notin {\Bbb Q} \\ \end{array}\right.
\end{array}$
${\Bbb Q}$ est l'ensemble des nombres rationnels c'est-à-dire les nombres de la forme $\displaystyle \frac{a}{b}$ avec $a \in {\Bbb Z}$ et $b \in {\Bbb N}^*$. Si on essaie de tracer le graphe de cette fonction, on comprend assez rapidement pourquoi l'aire sous la courbe n'existe pas.
La variable $t$ qui apparaît dans $\displaystyle{\int_a^bf(t){\rm d}t}$ s'appelle la variable d'intégration. Cette variable n'apporte aucune information. Si on la renomme en une autre lettre, on obtient toujours le même nombre. On dit que $t$ est une variable muette (comme l'indice muet $k$ dans la somme $\displaystyle{\sum_{k=0}^na_k}$).
De sorte que l'on peut écrire :
$\displaystyle \mathrm I = \int_a^bf(t){\rm d}t$ $\displaystyle = \int_a^bf(x){\rm d}x$ $\displaystyle = \int_a^bf(u){\rm d}u$ $\displaystyle = \int_a^b f$
Dans la dernière expression, on ne fait même plus référence à la variable d'intégration.
En conséquence, l'expression $\displaystyle{\mathrm I(t) = \int_a^bf(t){\rm d}t}$ n'a pas de sens ! L'intégrale est un nombre est ne dépend pas de la variable $t$.
b) Comment justifier l'existence d'une intégrale ou d'une primitive ?
Nous avons vu en préambule que si la fonction $f$ est trop irrégulière, l'aire $\displaystyle{\int_a^b f(t){\rm d}t}$ n'existe pas.
- Si $f$ est continue sur $[a,b]$ alors le réel $\displaystyle{\int_{a}^{b}f(t){\rm d } t}$ existe.
La réciproque est fausse. Il est possible que l'intégrale ou la primitive d'une fonction existe sans pour autant que cette fonction soit nécessairement continue.
2) PRIMITIVE
a) Définition
Soit $f: \rm I \rightarrow {\Bbb R}$ une fonction définie sur l'intervalle $\rm I$. Une primitive de $f$ est une fonction $\rm F$ vérifiant :
- $\rm F$ est dérivable sur $\rm I$
- $\mathrm F'=f$
Remarques :
Notons qu'une primitive d'une fonction sur un intervalle $\rm I$ n'est définie qu'à une constante près. En effet, si $\rm F$ et $\rm G$ sont deux primitives d'une même fonction $f$ alors $\rm (F-G)'=F'-G'=f-f=0$ sur l'intervalle $\rm I$ de sorte que $\rm F-G$ est une fonction constante.
Une primitive de la fonction $f$ se note $\displaystyle \mathrm F=\int f$ ou $\displaystyle\mathrm F(x) = \int f(x){\rm d}x$. Le symbole est le même que celui pour l'intégrale mais sans borne.
Cette notation est ambiguë car d'une part elle ne précise par sur quel intervalle on travaille et d'autre part elle désigne une primitive à une constante près.
Par exemple, la formule $\displaystyle{\int\frac{{\rm d}x}{x} = \ln|x|}$ synthétise en fait deux formules :
$\displaystyle \int \frac{{\rm d}x}{x} = \left\{\begin{array}{lll}
\ln x + k_1 \text{ sur l'intervalle } ]0,+\infty[ \\
\ln(-x) + k_2 \text{ sur l'intervalle } ]-\infty,0[
\end{array}\right.$ où $k_1$ et $k_2$ désignent deux constantes réelles.
b) Lien intégrale-primitive
Il y a deux liens à connaître entre intégrale et primitive. Un premier lien est constitué par ce qu'on appelle le Théorème Fondamental de l'Analyse (TFA).
Théorème Fondamental de l'Analyse :
Soit $f$ une fonction continue sur un intervalle $\rm I$ de ${\Bbb R}$. Alors $f$ admet une primitive $\rm F$ sur $\rm I$ et $\rm F$ est donnée par la formule :
$\displaystyle \forall x \in \rm I$, $\displaystyle \mathrm F(x) = \int_c^xf(t)$, $\mathrm dt$ où $c$ est un réel fixé de l'intervalle $\rm I$.
Remarques :
$\mathrm F(c)=0$ donc $\rm F$ est en fait l'unique primitive de $f$ sur $\rm I$ qui s'annule en $c$. En outre, comme $\rm F$ est une primitive, par définition, $\rm F$ est dérivable sur $\rm I$ et $\mathrm F'=f$. Comme $f$ est continue, $\rm F$ est une fonction dérivable à dérivée continue autrement dit c'est une fonction de classe $\rm C^1$ sur $\rm I$.
Dans l'expression $\displaystyle \forall x \in \mathrm I$, $\displaystyle \mathrm F(x) = \int_c^xf(t){\rm d}t$ il ne faut pas confondre la variable $x$ et la variable d'intégration $t$. La fonction $\rm F$ dépend de la variable $x$ mais aucunement de la variable $t$.
Exemple : la fonction $\displaystyle{x \mapsto \mathrm F(x) = \int_{3}^{x}t{\rm d}t}$ est l'unique primitive de la fonction $t \mapsto t$ sur ${\Bbb R}$ qui s'annule en $3$.
On a $\displaystyle \mathrm F(x) = \int_{3}^{x}t$, $\displaystyle {\rm d}t = \left[\frac{t^2}{2}\right]_3^x$ $\displaystyle = \frac{1}{2}(x^2-9)$.
Théorème :
Soit $f:[a,b] \rightarrow$ une fonction continue sur le segment $[a,b]$. Soit $\rm F$ une primitive de $f$ sur $[a,b]$. Alors on a $\displaystyle{\int_{a}^{b}f(t){\rm d}t = \mathrm F(b)-\mathrm F(a)}$.
3) INTÉGRALES
a) Propriétés à retenir de l'intégrale
- Linéarité de l'intégrale
Si $f$ et $g$ sont deux fonctions continues sur $[a,b]$ et si $\alpha$ et $\beta$ sont deux réels, alors $\displaystyle \int_{a}^{b}\left(\alpha.f(t)+\beta.g(t)\right){\rm d}t$ $\displaystyle = \alpha \int_a^{b}f(t){\rm d}t + \beta \int_a^{b} g(t){\rm d}t$.
- Positivité de l'intégrale
Soit $f$ une fonction continue sur $[a,b]$. Alors, $\displaystyle{(\forall t \in [a,b], f(t) \ge 0) \Longrightarrow \int_a^{b}f(t){\rm d}t \ge 0}$.
- Croissance de l'intégrale
Soit $f$ et $g$ deux fonctions continues sur $[a,b]$. Alors, $\displaystyle (\forall t \in [a,b]$, $f(t) \ge g(t))$ $\Longrightarrow$ $\displaystyle \int_a^{b}f(t){\rm d}t$ $\ge$ $\displaystyle \int_a^{b}g(t){\rm d}t.$
- Inégalité triangulaire
Soit $f$ une fonction continue sur $[a,b]$. Alors, $\displaystyle{\left|\int_a^{b}f(t){\rm d}t\right| \le \int_a^{b}|f(t)|{\rm d}t}$.
- Relation de Chasles
Soit $f$ une fonction continue sur $[a,b]$. Pour tout réel $c$ dans $]a,b[$ : $\displaystyle{\int_a^{b}f(t){\rm d}t = \int_a^{c}f(t){\rm d}t + \int_c^{b}f(t){\rm d}t}$.
Ces propriétés ne sont valables que lorsque $a < b$. Ainsi l'intégrale d'une fonction positive peut très bien être négative ! Par exemple, $\displaystyle{\int_1^{0}x^2 = -\frac{1}{3}<0}$.
b) Intégration par parties (IPP)
Formule d'IPP pour une primitive : $\displaystyle \int u'(x)v(x){\rm d}x$ $\displaystyle = u(x)v(x) - \int u(x)v'(x){\rm d}x$.
Formule d'IPP pour une intégrale : $\displaystyle \int_a^b u'(x)v(x){\rm d}x$ $\displaystyle = [u(x)v(x)]_a^b - \int_a^b u(x)v'(x){\rm d}x$.
Une primitive est une fonction alors qu'une intégrale est un nombre positif ou négatif.
Exemples :
Calculons une primitive de $f(x) = xe^{-x}$. On choisit $u'(x)=e^{-x}$ et $v(x)=x$. Donc $u(x) = - e^{-x}$ et $v'(x)=1$.
La formule d'IPP donne : $\displaystyle \mathrm F(x) = \int xe^{-x}{\rm d}x$ $\displaystyle = u(x)v(x) - \int u(x)v'(x){\rm d}x$ $\fisplaystyle = -e^{-x}x - \int -e^{-x}{\rm d}x$
$\displaystyle \mathrm F(x) = -xe^{-x} + \int e^{-x}{\rm d}x$ $= -xe^{-x} -e^{-x} = -(x+1)e^{-x}$.
Remarque : on peut vérifier le résultat en dérivant $\Rm F$. On trouve bien $\mathrm F'=f$ donc $\rm F$ est bien une primitive de $f$.
Calculons l'intégrale $\displaystyle \mathrm I = \int_1^e \ln(x){\rm d}x$.
On choisit $u'(x)=1$ et $v(x)=\ln(x)$. Donc $u(x)=x$ et $v'(x) = 1/x$.
D'après la formule d'IPP pour les intégrales, on a :
$\displaystyle \mathrm I = [x\ln(x)]_1^e - \int_1^ex \frac{1}{x}{\rm d}x$ $\displaystyle = e\ln(e)-1\ln(1) - \int_1^e 1 {\rm d}x = e - (e-1) = 1$.
c) La formule de changement de variable.
Le but est de réécrire l'intégrale sous une autre forme de façon à ce que la nouvelle intégrale soit plus simple à calculer. La méthode est la suivante.
- On définit $u = \varphi(t)$, $t$ étant l'ancienne variable d'intégration et $u$ la nouvelle.
- On dérive l'égalité précédente pour obtenir : ${\rm d}u = \varphi'(t) {\rm d}t$ et on exprime ${\rm d}t$ en fonction de $u$ et ${\rm d}u$.
- On réécrit l'intégrale en fonction uniquement de la nouvelle variable $u$ et on change les bornes.
Exemples :
On veut calculer $\displaystyle{\mathrm I = \int_0^1 \frac{e^{4t}}{e^{2t}+1}{\rm d}t}$. On ne voit pas de primitive de la fonction à intégrer.
- On décide de poser $u=e^{2t}$.
- On a alors ${\rm d}u = 2e^{2t} {\rm d}t$ (car $(e^{2t})' = 2e^{2t}$).
Donc $\displaystyle{{\rm d}t = \frac{{\rm d}u}{2e^{2t}} = \frac{1}{2u}{\rm d}u}$ car $e^{2t}=u$. - Lorsque $t = 0$ alors $u=e^{2\times 0} =1$. Lorsque $t=1$ alors $u = e^{2\times1}=e^2$.
L'intégrale s'écrit $\displaystyle \mathrm I = \int_0^1 \frac{e^{4t}}{e^{2t}+1}{\rm d}t$ $\displaystyme = \int_1^{e^2} \frac{u^2}{u+1}\frac{1}{2u}{\rm d}u$ $\displaystyle = \frac{1}{2} \int_1^{e^2}\frac{u}{1+u}{\rm d}u$.
Pour calculer l'intégrale, on décompose la fraction :
$\displaystyle{\frac{u}{1+u} = \frac{1+u-1}{1+u} = 1 - \frac{1}{1+u}}$.
On a alors $\displaystyle\int_1^{e^2}\frac{u}{1+u}{\rm d}u$ $\displaystyle = \int_1^{e^2} 1 {\rm d}u - \int_1^{e^2} \frac{1}{1+u}{\rm d}u$ $\displaystyle = [u]_1^{e^2} - [\ln(1+u)]_1^{e^2}$ $\displaystyle = e^2-1 - \ln(1+e^2) + \ln(2)$.
Donc $\displaystyle \mathrm I = \frac{1}{2}\left(e^2-1 - \ln(1+e^2) + \ln(2)\right)$.
d) Suite définie par une intégrale.
Il s'agit de suite $(u_n)$ définie par $u_n = \displaystyle{\int_a^bf(n,x){\rm d} x}$ où la fonction dépend d'un entier $n$. Il n'est pas toujours possible de calculer explicitement l'intégrale. Cependant grâce aux propriétés de l'intégrale, on prouve des propriétés sur la suite $(u_n)$ (monotonie, convergence).
Méthode pour l'étude d'une suite définie par une intégrale.
Soit la suite $(u_n)$ définie par $\displaystyle{u_n = \int_a^bf_n(x){\rm d} x}$ où $f_n$ est une fonction dépendant de l'entier $n$.
- Pour étudier la monotonie de $(u_n)$, former $u_{n+1}-u_n$ et utiliser la positivité de l'intégrale.
- Pour étudier la convergence de $(u_n)$, on utilise le théorème de la limite monotone : une suite croissante et majorée (ou décroissance et minorée) converge. Notons que cela ne permettra pas de déterminer la limite.
- Pour déterminer la limite de la suite $(u_n)$, on utilise le théorème des gendarmes en encadrant l'intégrale ce qui demande de commencer par encadrer $f_n(x)$ sachant que $x \in [a,b]$.
- Pour encadrer un quotient de nombres positifs $\displaystyle{\frac{a}{b}}$, on peut soit majorer le numérateur soit minorer le dénominateur.
e) Exemple classique : les intégrales de Wallis.
Étudions la suite définie par $\displaystyle{\mathrm I_n = \int_0^{\frac{\pi}{2}} \sin^n(t){\rm d } t}$.
Tout d'abord, la suite est positive car $\displaystyle{\forall t \in \left[0,\frac{\pi}{2}\right]}$, $\sin(t) \ge 0$ donc $\sin^n(t) \ge 0$ puis par positivé de l'intégrale, $\mathrm I_n \ge 0$.
La suite $(\mathrm I_n)$ est décroissance. En effet, $\displaystyle \mathrm I_{n+1} - \mathrm I_n$ $\displaystyle = \int_0^{\frac{\pi}{2}} \sin^{n+1}(t){\rm d } t - \int_0^{\frac{\pi}{2}} \sin^{n}(t){\rm d } t$
$\displaystyle \mathrm I_n = \int_0^{\frac{\pi}{2}} \left[\sin^{n+1}(t) - \sin^n(t) \right] {\rm d } t$ par linéarité de l'intégrale.
$\displaystyle \mathrm I_n = \int_0^{\frac{\pi}{2}} \sin^n(t) \left[\sin(t)-1\right]{\rm d } t$
Or $\sin(t) \le 1$ donc $\sin(t)-1 \le 0$. Comme sur $\displaystyle{\left[0,\frac{\pi}{2}\right]}$, $\sin^n(t) \ge 0$, $\displaystyle{\forall t \in \left[0,\frac{\pi}{2}\right], \left[\sin(t)-1\right]\sin^n(t) \le 0}$ puis par positivité de l'intégrale :
$\mathrm I_{n+1}-\mathrm I_n$ $\displaystyle = \int_0^{\frac{\pi}{2}} \left[\sin(t)-1\right]\sin^n(t) \le 0$.
Ainsi, $(\mathrm I_n)$ est une suite décroissante et minorée (par $0$) donc converge.
Pour déterminer la limite de la suite $(\mathrm I_n)$, nous allons déterminer une relation de récurrence vérifiée par la suite $(\mathrm I_n)$. On effectue une intégration par partie dans $\mathrm I_n$ pour $n \ge 2$ :
$\left\{\begin{array}{lll}
u'(t) & = & \sin(t)\\
v(t) & = & \sin^{n-1}(t) \end{array}\right.$ d'où $\left\{\begin{array}{lll}
u(t) & = & -\cos(t)\\
v'(t) & = & (n-1)\cos(t)\sin^{n-2}(t) \end{array}\right.$
Les fonctions $u$ et $v$ sont de classe $\mathrm C^1$ sur le segment $\left[0,\frac{\pi}{2}\right]$. On a supposé que $n \ge 2$ de sorte que les fonctions $v$ et $v'$ sont bien définie sur $\displaystyle{\left[0,\frac{\pi}{2}\right]}$.
On obtient $\displaystyle \mathrm I_n = \int_0^{\frac{\pi}{2}}\sin^n(t){\rm d } t$ $\displaystyle = \left[-\cos(t)\sin^{n-1}(t)\right]_0^{\frac{\pi}{2}}+ (n-1)\int_0^{\frac{\pi}{2}}\cos^2(t)\sin^{n-2}(t){\rm d } t.$
Le crochet est nul. Comme $\cos^2(t) = 1 -\sin^2(t)$, on obtient :
$\displaystyle \mathrm I_n = (n-1)\int_0^{\frac{\pi}{2}}\left[1-\sin^2(t)\right]\sin^{n-2}(t){\rm d } t$ $= (n-1)(I_{n-2}-I_n).$
On obtient ainsi la relation de récurrence :
$\forall n \ge 2$, $\displaystyle \mathrm I_n = \frac{n-1}{n}\mathrm I_{n-2}$.
À partir de cette relation, nous allons prouver que la quantité $(n+1)\mathrm I_{n+1}\mathrm I_n$ est constante égale à $\displaystyle{\frac{\pi}{2}}$ pour tout entier $n$.
Procédons par récurrence. On a $\displaystyle \mathrm I_0 = \int_0^{\frac{\pi}{2}} \sin^0(t) {\rm d } t$ $\displaystyle = \int_0^{\frac{\pi}{2}} 1 {\rm d } t = \frac{\pi}{2}$ et $\displaystyle \mathrm I_0 = \int_0^{\frac{\pi}{2}} \sin^1(t) {\rm d } t$ $\displaystyle = \int_0^{\frac{\pi}{2}} \sin(t) {\rm d } t$ $\displaystyle = \left[-\cos(t) \right]_0^{\frac{\pi}{2}} = 1$.
On a donc bien $\displaystyle{(0+1)\mathrm I_{0+1}\mathrm I_0 = \frac{\pi}{2}}$.
Supposons l'égalité établie à un rang $n$. Montrons la au rang $n+1$. D'après la relation de récurrence établie précédemment :
$\displaystyle{\mathrm I_{n+2} = \frac{(n+1)}{n+2}\mathrm I_n}$ donc $\displaystyle{(n+2)\mathrm I_{n+2}\mathrm I_{n+1}}$ $\displaystyle = (n+1)\mathrm I_n\mathrm I_{n+1} = \frac{\pi}{2}$ par hypothèse de récurrence. Ainsi l'égalité est établie au rang $n+1$.
On a donc montré que $\displaystyle{\forall n \in {\Bbb N}, \mathrm I_n\mathrm I_{n+1} = \frac{\pi}{2(n+1)}}$.
Comme la suite $(\mathrm I_n)$ converge vers disons $\ell$, la suite $(\mathrm I_n\mathrm I_{n+1})$ converge vers $\ell^2$.
Or $\displaystyle{\frac{\pi}{2(n+1)} \rightarrow 0}$ donc $\ell^2=0$ donc $\ell=0$. Ainsi la suite $(\mathrm I_n)$ converge vers $0$.
La relation précédente permet même de déterminer un équivalent de la suite $(\mathrm I_n)$. Comme la suite $(\mathrm I_n)$ est décroissante $\mathrm I_{n+1} \le \mathrm I_n \le \mathrm I_{n-1}$.
On multiplie par $\mahtrm I_{n}$ qui est positif : $\mathrm I_{n+1}\mathrm I_n \le \mathrm I_{n}^2 \le \mathrm I_{n-1}\mathrm I_{n}$.
Or $\displaystyle{\mathrm I_{n+1}\mathrm I_{n} = \frac{\pi}{2(n+1)}}$ et $\displaystyle{\mathrm I_{n}\mathrm I_{n-1} = \frac{\pi}{2n}}$.
On a donc l'encadrement :
$\displaystyle{\frac{\pi}{2(n+1)} \le \mathrm I_{n}^2 \le \frac{\pi}{2n}}$ donc $\displaystyle{\sqrt{\frac{\pi}{2(n+1)}} \le \mathrm I_{n} \le \sqrt{\frac{\pi}{2n}}}$.
Comme $\displaystyle{\sqrt{\frac{\pi}{2(n+1)}} \sim \sqrt{\frac{\pi}{2n}}}$, on en déduit que $\displaystyle{\mathrm I_n \sim \sqrt{\frac{\pi}{2n}}}$.