« Constante de normalisation » : différence entre les versions
+création à partir de {{en}} |
(Aucune différence)
|
Version du 17 janvier 2024 à 15:45
En mathématiques, une constante de normalisation ou facteur normalisant est une constante introduite dans la définition d'objets mathématiques pour réduire certains calculs et assurer que le résultat soit égal à 1.
Un exemple courant est en théorie des probabilités, où une constante multiplicatrice est introduit dans la définition de fonction afin qu'elle ait une propriété caractéristique des densités de probabilités, à savoir une masse égale à 1.
Un autre cas d'utilisation est pour les polynômes orthogonaux, où ces constantes sont introduites dans la famille de polynômes de sorte que la famille soit orthonormale.
Définition en probabilités
En théorie des probabilités, une constante de normalisation est une constante par laquelle une fonction positive doit être multipliée afin que son intégrale sur son domaine de définition soit égale à 1, ce qui en fait une densité de probabilités[1],[2].
Il faut remarquer que si la densité de probabilités est caractérisée par un ou plusieurs paramètres, la constante de normalisatin peut également dépendre de ces paramètres.
Exemples
- Loi gaussienne
En considérant une fonction gaussienne on a la valeur de l'intégrale de Gauss :
Ainsi, afin d'obtenir la densité d'une loi normale (ou loi de Gauss) à partir de , il faut poser : afin de bien avoir C'est la densité de la loi normale standard ou centrée réduite (l'espérance vaut 0 et sa variance vaut 1)[3].
La constante de normalisation est donc .
- Loi de Poisson
En considérant la somme de série : on peut définir une densité de probabilités (discrète) sur N par[4] On reconnait la densité d'une loi de Poisson d'espérance λ.
Théorème de Bayes
Le théorème de Bayes dit que la probabilité a posteriori est proportionnelle au produit de la probabilité a priori et de la fonction de vraisemblance. Cette proportionnalité implique qu'il faut multiplier cette probabilité par une constante de normalisation pour avoir une mesure égale à 1 sur tout l'espace. Dans un cas discret simple, cela se traduit par :
où P(H0) est la probabilité a priori que l'hypothèse H0 est vraie ; P(D|H0) est la probabilité conditionnelle des données sachant que l'hypothèse est vraie, mais dans le cas où les données sont connues, cela revient à la vraisemblance de l'hypothèse sachant les données ; P(H0|D) est la probabilité a posteriori que l'hypothèse est vraie connaissant les données. P(D) devrait donc être la probabilité de produire les données, mais cette valeur peut être difficile à calculer, aussi une alternative à cette formule est de la voir sous l'angle de la proportionnalité :
Comme P(H|D) est une probabilité, la somme de toutes les hypothèses (exclusives mutuellement) doit être égales à 1, ce qui mène à :
Dans ce cas, l'inverse de la valeur
est la constante de normalisation[5]. Le cas continu se fait de façon équivalente, la somme discrète devenant alors une intégrale.
Dans la pratique, il existe plusieurs méthodes d'estimation de la constante de normalisation pour des raisons pratiques, comme l'échantillonnage par pont[6], la méthode de Monte-Carlo, l'estimateur de moyenne harmonique généralisée[7], et l'échantillonnage par importance[8].
Polynômes orthogonaux
Une constante de normalisation peut être utilisée pour une famille d'éléments orthogonale (dont le produit scalaire de deux éléments différents de la famille vaut 0) pour la rendre orthonormale (ou orthonormée) (la norme de chaque élément vaut 1).
Exemples
Les polynômes de Legendre (Pn(x)) sont caractérisés par leur orthogonalité pour la mesure . La constante de normalisation doit donc être définie de sorte que
On a en particulier
La famille de polynômes √n+1/2Pn(x)) est donc bien orthonormale.
Autres applications
La constante 1/√2 est utilisée pour définir les fonctions hyperboliques cosh et sinh à partir des longueurs des côtés adjacent et opposé d'un secteur hyperbolique, de façon à retrouver une similarité avec la définition des cosinus et sinus circulaire dans le cercle trigonométrique.
Notes
- Continuous Distributions at University of Alabama.
- Feller, 1968, p. 22.
- Feller, 1968, p. 174.
- Feller, 1968, p. 156.
- Feller, 1968, p. 124.
- (en) Quentin F. Gronau, Alexandra Sarafoglou, Dora Matzke, Alexander Ly, Udo Boehm, Maarten Marsman, David S. Leslie, Jonathan J. Forster, Eric-Jan Wagenmakers et Helen Steingroever, « A tutorial on bridge sampling », Journal of Mathematical Psychology, vol. 81, , p. 80-97 (DOI 10.1016/j.jmp.2017.09.005)
- (en) Michael A. Newton et Adrian E. Raftery, « Approximate Bayesian Inference with the Weighted Likelihood Bootstrap », Journal of the Royal Statistical Society: Series B (Methodological), vol. 56, no 1, , p. 3-26 (DOI 10.1111/j.2517-6161.1994.tb01956.x)
- (en) Quentin Gronau, « bridgesampling: An R Package for Estimating Normalizing Constants », sur The Comprehensive R Archive Network, (consulté le )
Liens externes
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Normalizing constant » (voir la liste des auteurs).
- (en) Continuous Distributions at Department of Mathematical Sciences: University of Alabama in Huntsville
- William Feller, An Introduction to Probability Theory and its Applications (volume I), John Wiley & Sons, (ISBN 0-471-25708-7)