Théorème fondamental de l'analyse
En mathématiques, le théorème fondamental de l'analyse (ou théorème fondamental du calcul différentiel et intégral) établit que les deux opérations de base de l'analyse, la dérivation et l'intégration, sont, dans une certaine mesure, réciproques l'une de l'autre. Il est constitué de deux familles d'énoncés (plus ou moins généraux selon les versions, et dépendant de la théorie de l'intégration choisie)[1],[2],[3] :
- premier théorème : certaines fonctions sont « la dérivée de leur intégrale » ;
- second théorème : certaines fonctions sont « l'intégrale de leur dérivée ».
(La numérotation est inverse dans certains ouvrages[4].)
Une conséquence importante du second théorème est de permettre de calculer une intégrale en utilisant une primitive de la fonction à intégrer.
Historique
[modifier | modifier le code]Avant la découverte du théorème fondamental de l'analyse, la relation entre intégration et dérivation n'était pas soupçonnée. Les mathématiciens grecs savaient déjà calculer des aires et des volumes à l'aide d'infinitésimaux[N 1], une opération qui serait actuellement appelée une intégration. La notion de différentiation fut introduite elle aussi dès le Moyen Âge ; ainsi, les notions de continuité de fonctions et de vitesse de déplacement furent étudiées par les Calculateurs d'Oxford au XIVe siècle. L'importance historique du théorème ne fut pas tant de faciliter le calcul des intégrales que de faire prendre conscience que ces deux opérations apparemment sans rapport (le calcul d'aires, et le calcul de vitesses) sont en fait étroitement reliées.
Le premier énoncé (et sa démonstration) d'une forme partielle du théorème fut publié par James Gregory en 1668[5],[N 2]. Isaac Barrow en démontra une forme plus générale[6], mais c'est Isaac Newton (élève de Barrow) qui acheva de développer la théorie mathématique englobant le théorème. Gottfried Wilhelm Leibniz systématisa ces résultats sous forme d'un calcul des infinitésimaux, et introduisit les notations toujours actuellement utilisées.
Premier théorème
[modifier | modifier le code]Énoncé
[modifier | modifier le code]Soient f une fonction localement Riemann-intégrable[N 3] sur un intervalle I, a un point de I, et F l'application intégrale associée, définie sur I par
(t étant une variable muette d'intégration).
Un énoncé simplifié courant est :
Si f est continue sur I alors :
On peut le préciser comme suit :
- Si f admet une limite à droite f(c+) (resp. une limite à gauche f(c–)) en un point c de I, alors F admet f(c+) pour dérivée à droite (resp. f(c–) pour dérivée à gauche) en ce point[7] ;
- Si f est réglée[N 4] alors F est une primitive généralisée[N 5] de f[8] ;
- Si G et H sont deux primitives généralisées de f, alors G – H est constante.
Démonstration
[modifier | modifier le code]- Supposons que f admet une limite à droite f(c+) en c. Soit ε > 0. Il existe η > 0 tel que pour tout t ∈ ]c, c + η], f(t) soit (bien défini et) ε-proche de f(c+). Par suite, pour tout x ∈ ]c, c + η] (et en commençant par utiliser la relation de Chasles) :
donc On raisonnerait de même pour la dérivée à gauche. - Par construction, F est continue. Supposons que f est réglée. Alors, ses discontinuités sont de première espèce donc (cf. Théorème de Froda) forment un ensemble au plus dénombrable, si bien que (d'après 1.) F est une primitive généralisée de f.
- G – H est continue et de dérivée nulle sur le complémentaire d'un ensemble dénombrable. Elle est donc constante[9], d'après l'inégalité des accroissements finis généralisée.
Généralisation
[modifier | modifier le code]Ce premier théorème fondamental s'étend aux fonctions non continues de la façon suivante : si f est une fonction intégrable au sens de Lebesgue sur [a, b] et si F est définie sur [a, b] par alors, pour tout point de Lebesgue c de f (donc presque partout — d'après le théorème de différentiation de Lebesgue — et en particulier si f est continue en c), . Plus généralement[10] :
Si f est intégrable au sens de Kurzweil-Henstock sur [a, b], alors la fonction admet presque partout une dérivée égale à f.
Second théorème
[modifier | modifier le code]Explication intuitive
[modifier | modifier le code]Intuitivement, le second théorème dit simplement que si l'on connaît tous les petits changements instantanés d'une certaine quantité, alors on peut calculer le changement général de cette quantité en additionnant tous les petits changements.
Pour se donner une idée de cette affirmation, commençons par donner un exemple. Supposons que nous voyagions sur une ligne droite, et que nous partions à l'instant t = 0, et avec une vitesse variable. Si, à l'instant t, d(t) indique notre distance à l'origine et v(t) représente notre vitesse, alors v(t) est le taux d'accroissement « infinitésimal » de d et est la valeur de la dérivée de d en t. Supposons que nous n'ayons qu'un compteur de vitesse qui indique la vitesse v(t), et que nous voulions retrouver notre distance d(t). Le théorème fondamental de l'analyse dit qu'il suffit pour cela de chercher une primitive de v. Et ceci est exactement ce que nous aurions fait, même sans connaître ce théorème : enregistrer la vitesse à des intervalles réguliers, peut-être toutes les minutes, et alors multiplier la première vitesse par 1 minute pour obtenir une estimation de la distance parcourue dans la première minute, puis multiplier la deuxième vitesse par 1 minute pour obtenir la distance parcourue dans la deuxième minute etc., et enfin ajouter toutes les distances précédentes. Pour obtenir une meilleure estimation de notre distance actuelle, nous avons besoin d'enregistrer les vitesses à des intervalles de temps plus courts. La limite quand la longueur des intervalles tend vers zéro est exactement la définition de l'intégrale de v.
Énoncé
[modifier | modifier le code]- Si F est une primitive de f sur I et si f est localement intégrable au sens de Lebesgue[N 3], alors[11]ce qui équivaut à : F est absolument continue et F' = f presque partout (la continuité absolue est indispensable, comme le montre le contre-exemple de l'escalier de Cantor).
- Plus généralement[12] : si F est une primitive généralisée[N 5] de f, alors f est intégrable au sens de Kurzweil-Henstock et l'on a encore (en ce sens)
Généralisations
[modifier | modifier le code]Le second théorème fondamental, appliqué à une fonction F de classe C1, est la formule de Taylor avec reste intégral à l'ordre 0. Cette formule se généralise à l'ordre n, pour une fonction de classe Cn+1.
Il existe une version du second théorème fondamental pour les fonctions de la variable complexe : si U est un ouvert de ℂ et si f : U → ℂ admet une primitive holomorphe F sur U alors, pour toute courbe γ : [a, b] → U, l'intégrale sur cette courbe peut être obtenue par :
Le théorème fondamental peut être généralisé à des intégrales sur des contours ou sur des surfaces dans des dimensions supérieures et sur des espaces vectoriels (voir le théorème de Stokes).
Notes et références
[modifier | modifier le code]
Notes
[modifier | modifier le code]- Voir par exemple l'article Palimpseste d'Archimède.
- On sait que Newton avait découvert ce résultat avant 1666, mais il ne le publia que bien plus tard.
- Si f est continue sur I, cette condition est satisfaite.
- En particulier si f est continue par morceaux ou monotone par morceaux.
- C'est-à-dire une application continue qui, sur le complémentaire d'un ensemble dénombrable, a pour dérivée f.
Références
[modifier | modifier le code]- Alain Michel, Constitution de la théorie moderne de l'intégration, Vrin, (lire en ligne), p. 314.
- (en) Norman B. Haaser et Joseph A. Sullivan, Real Analysis, Dover, (1re éd. 1971) (lire en ligne), p. 218.
- (en) Caren L. Diefenderfer et Roger B. Nelsen, The Calculus Collection: A Resource for AP and Beyond, MAA, (lire en ligne), p. 115.
- (en) David S. Kahn, Cracking the AP Calculus AB & BC Exams, The Princeton Review, (lire en ligne), p. 179.
- Voir, par exemple, (en) Marlow Anderson, Victor J. Katz et Robin J. Wilson, Sherlock Holmes in Babylon and Other Tales of Mathematical History, MAA, 2004, p. 114, aperçu sur Google Livres.
- (en) Isaac Barrow, Geometrical Lectures, 1916 (traduit de (la) Lectiones Geometricae, 1670), Lecture X, § 11.
- Jean-Pierre Ramis, André Warusfel et al., Mathématiques Tout-en-un pour la Licence 2, Dunod, , 2e éd. (lire en ligne), p. 601, prop. 86.
- Ramis, Warusfel et al. 2014, p. 606, th. 95.
- Ramis, Warusfel et al. 2014, p. 605, cor. 90.
- J.-P. Ramis, A. Warusfel et al., Mathématiques Tout-en-un pour la Licence 3, Dunod, (lire en ligne), p. 236.
- Walter Rudin, Analyse réelle et complexe [détail des éditions], Masson, 1978, th. 8.21 p. 161.
- (en) Robert G. Bartle, A Modern Theory of Integration, AMS, (lire en ligne), p. 60, th. 4.7.
Voir aussi
[modifier | modifier le code]Article connexe
[modifier | modifier le code]Bibliographie
[modifier | modifier le code](en) Eric Schechter, Handbook of Analysis and Its Foundations, Academic Press, (lire en ligne), p. 674-677 (pour des fonctions à valeurs dans un espace de Banach)