En la teoría de la probabilidad , se utiliza una constante normalizadora o un factor normalizador para reducir cualquier función de probabilidad a una función de densidad de probabilidad con una probabilidad total de uno.
Por ejemplo, una función gaussiana se puede normalizar en una función de densidad de probabilidad, que da la distribución normal estándar. En el teorema de Bayes, se utiliza una constante normalizadora para garantizar que la suma de todas las hipótesis posibles sea igual a 1. Otros usos de las constantes normalizadoras incluyen hacer que el valor de un polinomio de Legendre sea 1 y en la ortogonalidad de funciones ortonormales.
Se ha utilizado un concepto similar en áreas distintas a la probabilidad, como por ejemplo para los polinomios.
En teoría de probabilidad , una constante normalizadora es una constante por la cual una función no negativa en todas partes debe ser multiplicada de modo que el área bajo su gráfica sea 1, por ejemplo, para convertirla en una función de densidad de probabilidad o una función de masa de probabilidad . [1] [2]
Si partimos de la función gaussiana simple tenemos la integral gaussiana correspondiente
Ahora bien, si utilizamos el valor recíproco de este último como una constante normalizadora para el primero, definiendo una función como tal que su integral sea la unidad , entonces la función es una función de densidad de probabilidad. [3] Esta es la densidad de la distribución normal estándar . ( Estándar , en este caso, significa que el valor esperado es 0 y la varianza es 1).
Y constante es la constante normalizadora de la función .
De manera similar, y en consecuencia es una función de masa de probabilidad en el conjunto de todos los números enteros no negativos. [4] Esta es la función de masa de probabilidad de la distribución de Poisson con valor esperado λ.
Obsérvese que si la función de densidad de probabilidad es una función de varios parámetros, también lo será su constante normalizadora. La constante normalizadora parametrizada para la distribución de Boltzmann desempeña un papel central en la mecánica estadística . En ese contexto, la constante normalizadora se denomina función de partición .
El teorema de Bayes dice que la medida de probabilidad posterior es proporcional al producto de la medida de probabilidad anterior y la función de verosimilitud . Proporcional a implica que uno debe multiplicar o dividir por una constante normalizadora para asignar la medida 1 a todo el espacio, es decir, para obtener una medida de probabilidad. En un caso discreto simple tenemos donde P(H 0 ) es la probabilidad previa de que la hipótesis sea verdadera; P(D|H 0 ) es la probabilidad condicional de los datos dado que la hipótesis es verdadera, pero dado que los datos son conocidos es la probabilidad de la hipótesis (o sus parámetros) dados los datos; P(H 0 |D) es la probabilidad posterior de que la hipótesis sea verdadera dados los datos. P(D) debería ser la probabilidad de producir los datos, pero por sí sola es difícil de calcular, por lo que una forma alternativa de describir esta relación es como una de proporcionalidad: Dado que P(H|D) es una probabilidad, la suma de todas las hipótesis posibles (mutuamente excluyentes) debería ser 1, lo que lleva a la conclusión de que En este caso, el recíproco del valor es la constante normalizadora . [5] Se puede extender desde un número contable de hipótesis hasta un número incontable de hipótesis reemplazando la suma por una integral.
Para ser más concretos, existen muchos métodos para estimar la constante de normalización con fines prácticos. Entre ellos, se incluyen la técnica de muestreo puente, el estimador ingenuo de Monte Carlo, el estimador de media armónica generalizada y el muestreo de importancia. [6]
Los polinomios de Legendre se caracterizan por su ortogonalidad respecto de la medida uniforme en el intervalo [−1, 1] y por estar normalizados de modo que su valor en 1 sea 1. La constante por la que se multiplica un polinomio para que su valor sea 1 es una constante normalizadora.
Las funciones ortonormales se normalizan de modo que con respecto a algún producto interno ⟨ f , g ⟩ .
La constante 1/ √ 2 se utiliza para establecer las funciones hiperbólicas cosh y sinh a partir de las longitudes de los lados adyacentes y opuestos de un triángulo hiperbólico .