Función de verosimilitud

Función relacionada con la estadística y la teoría de la probabilidad.

Una función de verosimilitud (a menudo llamada simplemente probabilidad ) mide qué tan bien un modelo estadístico explica los datos observados calculando la probabilidad de ver esos datos bajo diferentes valores de parámetros del modelo. Se construye a partir de la distribución de probabilidad conjunta de la variable aleatoria que (presumiblemente) generó las observaciones. [1] [2] [3] Cuando se evalúa en los puntos de datos reales, se convierte en una función únicamente de los parámetros del modelo.

En la estimación de máxima verosimilitud , el argumento que maximiza la función de verosimilitud sirve como estimación puntual del parámetro desconocido, mientras que la información de Fisher (a menudo aproximada por la matriz hessiana de verosimilitud en el máximo) da una indicación de la precisión de la estimación .

Por el contrario, en la estadística bayesiana , la estimación de interés es el inverso de la probabilidad, la llamada probabilidad posterior del parámetro dados los datos observados, que se calcula mediante la regla de Bayes . [4]

Definición

La función de verosimilitud, parametrizada por un parámetro (posiblemente multivariado) , suele definirse de forma diferente para distribuciones de probabilidad discretas y continuas (más adelante se analiza una definición más general). Dada una densidad de probabilidad o una función de masa θ {\textstyle \theta}

incógnita F ( incógnita θ ) , {\displaystyle x\mapsto f(x\mid \theta ),}

donde es una realización de la variable aleatoria , la función de verosimilitud a menudo se escribe incógnita {\textstyle x} incógnita {\textstyle X} θ F ( incógnita θ ) , {\displaystyle \theta \mapsto f(x\mid \theta ),} yo ( θ incógnita ) . {\displaystyle {\mathcal {L}}(\theta \mid x).}

En otras palabras, cuando se considera como una función de con fijo, es una función de densidad de probabilidad, y cuando se considera como una función de con fijo, es una función de verosimilitud. En el paradigma frecuentista , la notación se evita a menudo y en su lugar se utilizan o para indicar que se considera como una cantidad desconocida fija en lugar de como una variable aleatoria que está condicionada. F ( incógnita θ ) {\textstyle f(x\mid \theta )} incógnita {\textstyle x} θ {\textstyle \theta} θ {\textstyle \theta} incógnita {\textstyle x} F ( incógnita θ ) {\textstyle f(x\mid \theta )} F ( incógnita ; θ ) {\textstyle f(x;\theta )} F ( incógnita , θ ) {\textstyle f(x,\theta )} θ {\textstyle \theta}

La función de verosimilitud no especifica la probabilidad de que sea verdad, dada la muestra observada . Tal interpretación es un error común, con consecuencias potencialmente desastrosas (véase la falacia del fiscal ). θ {\textstyle \theta} incógnita = incógnita {\textstyle X=x}

Distribución de probabilidad discreta

Sea una variable aleatoria discreta con función de masa de probabilidad que depende de un parámetro . Entonces la función incógnita {\textstyle X} pag {\textstyle p} θ {\textstyle \theta}

yo ( θ incógnita ) = pag θ ( incógnita ) = PAG θ ( incógnita = incógnita ) , {\displaystyle {\mathcal {L}}(\theta \mid x)=p_{\theta }(x)=P_{\theta }(X=x),}

considerada como una función de , es la función de verosimilitud , dado el resultado de la variable aleatoria . A veces la probabilidad del "valor de para el valor del parámetro " se escribe como P ( X = x | θ ) o P ( X = x ; θ ) . La verosimilitud es la probabilidad de que se observe un resultado particular cuando el valor verdadero del parámetro es , equivalente a la masa de probabilidad en ; no es una densidad de probabilidad sobre el parámetro . La verosimilitud, , no debe confundirse con , que es la probabilidad posterior de dados los datos . θ {\textstyle \theta} incógnita {\textstyle x} incógnita {\textstyle X} incógnita {\textstyle x} incógnita {\textstyle X} θ {\textstyle \theta}   incógnita {\textstyle x} θ {\textstyle \theta} incógnita {\textstyle x} θ {\textstyle \theta} yo ( θ incógnita ) {\textstyle {\mathcal {L}}(\theta \mid x)} PAG ( θ incógnita ) {\textstyle P(\theta \mid x)} θ {\textstyle \theta} incógnita {\textstyle x}

Ejemplo

Figura 1. Función de verosimilitud ( ) para la probabilidad de que una moneda caiga cara arriba (sin conocimiento previo de la imparcialidad de la moneda), dado que hemos observado HH. pag yo 2 {\textstyle p_{\text{H}}^{2}}
Figura 2. Función de verosimilitud ( ) para la probabilidad de que una moneda caiga cara arriba (sin conocimiento previo de la imparcialidad de la moneda), dado que hemos observado HHT. pag yo 2 ( 1 pag yo ) {\textstyle p_{\text{H}}^{2}(1-p_{\text{H}})}

Consideremos un modelo estadístico simple de un lanzamiento de moneda: un único parámetro que expresa la "imparcialidad" de la moneda. El parámetro es la probabilidad de que una moneda caiga cara arriba ("H") al lanzarla. puede tomar cualquier valor dentro del rango de 0,0 a 1,0. Para una moneda perfectamente justa , . pag yo {\textstyle p_{\text{H}}} p H {\textstyle p_{\text{H}}} p H = 0.5 {\textstyle p_{\text{H}}=0.5}

Imagine que lanza una moneda dos veces y observa dos caras en dos lanzamientos ("HH"). Suponiendo que cada lanzamiento sucesivo de moneda es iid , entonces la probabilidad de observar HH es

P ( HH p H = 0.5 ) = 0.5 2 = 0.25. {\displaystyle P({\text{HH}}\mid p_{\text{H}}=0.5)=0.5^{2}=0.25.}

De manera equivalente, la probabilidad de observar "HH" asumiendo es p H = 0.5 {\textstyle p_{\text{H}}=0.5}

L ( p H = 0.5 HH ) = 0.25. {\displaystyle {\mathcal {L}}(p_{\text{H}}=0.5\mid {\text{HH}})=0.25.}

Esto no es lo mismo que decir que , una conclusión a la que sólo se podría llegar a través del teorema de Bayes dado el conocimiento sobre las probabilidades marginales y . P ( p H = 0.5 H H ) = 0.25 {\textstyle P(p_{\text{H}}=0.5\mid HH)=0.25} P ( p H = 0.5 ) {\textstyle P(p_{\text{H}}=0.5)} P ( HH ) {\textstyle P({\text{HH}})}

Ahora supongamos que la moneda no es una moneda justa, sino que . Entonces la probabilidad de que salgan dos caras en dos lanzamientos es p H = 0.3 {\textstyle p_{\text{H}}=0.3}

P ( HH p H = 0.3 ) = 0.3 2 = 0.09. {\displaystyle P({\text{HH}}\mid p_{\text{H}}=0.3)=0.3^{2}=0.09.}

Por eso

L ( p H = 0.3 HH ) = 0.09. {\displaystyle {\mathcal {L}}(p_{\text{H}}=0.3\mid {\text{HH}})=0.09.}

En términos más generales, para cada valor de , podemos calcular la probabilidad correspondiente. El resultado de dichos cálculos se muestra en la Figura 1. La integral de sobre [0, 1] es 1/3; las probabilidades no necesitan integrarse o sumar uno sobre el espacio de parámetros. p H {\textstyle p_{\text{H}}} L {\textstyle {\mathcal {L}}}

Distribución de probabilidad continua

Sea una variable aleatoria que sigue una distribución de probabilidad absolutamente continua con función de densidad (una función de ) que depende de un parámetro . Entonces la función X {\textstyle X} f {\textstyle f} x {\textstyle x} θ {\textstyle \theta }

L ( θ x ) = f θ ( x ) , {\displaystyle {\mathcal {L}}(\theta \mid x)=f_{\theta }(x),}

considerada como una función de , es la función de probabilidad (de , dado el resultado ). Nuevamente, no es una función de densidad de probabilidad o de masa sobre , a pesar de ser una función de dada la observación . θ {\textstyle \theta } θ {\textstyle \theta } X = x {\textstyle X=x} L {\textstyle {\mathcal {L}}} θ {\textstyle \theta } θ {\textstyle \theta } X = x {\textstyle X=x}

Relación entre las funciones de probabilidad y densidad de probabilidad

El uso de la densidad de probabilidad para especificar la función de probabilidad anterior se justifica de la siguiente manera. Dada una observación , la probabilidad para el intervalo , donde es una constante, está dada por . Observe que, dado que es positivo y constante. Debido a que x j {\textstyle x_{j}} [ x j , x j + h ] {\textstyle [x_{j},x_{j}+h]} h > 0 {\textstyle h>0} L ( θ x [ x j , x j + h ] ) {\textstyle {\mathcal {L}}(\theta \mid x\in [x_{j},x_{j}+h])} a r g m a x θ L ( θ x [ x j , x j + h ] ) = a r g m a x θ 1 h L ( θ x [ x j , x j + h ] ) , {\displaystyle \mathop {\operatorname {arg\,max} } _{\theta }{\mathcal {L}}(\theta \mid x\in [x_{j},x_{j}+h])=\mathop {\operatorname {arg\,max} } _{\theta }{\frac {1}{h}}{\mathcal {L}}(\theta \mid x\in [x_{j},x_{j}+h]),} h {\textstyle h} a r g m a x θ 1 h L ( θ x [ x j , x j + h ] ) = a r g m a x θ 1 h Pr ( x j x x j + h θ ) = a r g m a x θ 1 h x j x j + h f ( x θ ) d x , {\displaystyle \mathop {\operatorname {arg\,max} } _{\theta }{\frac {1}{h}}{\mathcal {L}}(\theta \mid x\in [x_{j},x_{j}+h])=\mathop {\operatorname {arg\,max} } _{\theta }{\frac {1}{h}}\Pr(x_{j}\leq x\leq x_{j}+h\mid \theta )=\mathop {\operatorname {arg\,max} } _{\theta }{\frac {1}{h}}\int _{x_{j}}^{x_{j}+h}f(x\mid \theta )\,dx,}

donde es la función de densidad de probabilidad, se deduce que f ( x θ ) {\textstyle f(x\mid \theta )}

a r g m a x θ L ( θ x [ x j , x j + h ] ) = a r g m a x θ 1 h x j x j + h f ( x θ ) d x . {\displaystyle \mathop {\operatorname {arg\,max} } _{\theta }{\mathcal {L}}(\theta \mid x\in [x_{j},x_{j}+h])=\mathop {\operatorname {arg\,max} } _{\theta }{\frac {1}{h}}\int _{x_{j}}^{x_{j}+h}f(x\mid \theta )\,dx.}

El primer teorema fundamental del cálculo establece que lim h 0 + 1 h x j x j + h f ( x θ ) d x = f ( x j θ ) . {\displaystyle \lim _{h\to 0^{+}}{\frac {1}{h}}\int _{x_{j}}^{x_{j}+h}f(x\mid \theta )\,dx=f(x_{j}\mid \theta ).}

Entonces a r g m a x θ L ( θ x j ) = a r g m a x θ [ lim h 0 + L ( θ x [ x j , x j + h ] ) ] = a r g m a x θ [ lim h 0 + 1 h x j x j + h f ( x θ ) d x ] = a r g m a x θ f ( x j θ ) . {\displaystyle {\begin{aligned}&\mathop {\operatorname {arg\,max} } _{\theta }{\mathcal {L}}(\theta \mid x_{j})=\mathop {\operatorname {arg\,max} } _{\theta }\left[\lim _{h\to 0^{+}}{\mathcal {L}}(\theta \mid x\in [x_{j},x_{j}+h])\right]\\[4pt]={}&\mathop {\operatorname {arg\,max} } _{\theta }\left[\lim _{h\to 0^{+}}{\frac {1}{h}}\int _{x_{j}}^{x_{j}+h}f(x\mid \theta )\,dx\right]=\mathop {\operatorname {arg\,max} } _{\theta }f(x_{j}\mid \theta ).\end{aligned}}}

Por lo tanto, maximizar la densidad de probabilidad en equivale a maximizar la probabilidad de la observación específica . a r g m a x θ L ( θ x j ) = a r g m a x θ f ( x j θ ) , {\displaystyle \mathop {\operatorname {arg\,max} } _{\theta }{\mathcal {L}}(\theta \mid x_{j})=\mathop {\operatorname {arg\,max} } _{\theta }f(x_{j}\mid \theta ),} x j {\textstyle x_{j}} x j {\textstyle x_{j}}

En general

En la teoría de la probabilidad basada en la medida , la función de densidad se define como la derivada de Radon-Nikodym de la distribución de probabilidad relativa a una medida dominante común. [5] La función de verosimilitud es esta densidad interpretada como una función del parámetro, en lugar de la variable aleatoria. [6] Por lo tanto, podemos construir una función de verosimilitud para cualquier distribución, ya sea discreta, continua, una mezcla o de otro tipo. (Las verosimilitudes son comparables, por ejemplo, para la estimación de parámetros, solo si son derivadas de Radon-Nikodym con respecto a la misma medida dominante).

La discusión anterior sobre la probabilidad de variables aleatorias discretas utiliza la medida de conteo , bajo la cual la densidad de probabilidad en cualquier resultado es igual a la probabilidad de ese resultado.

Probabilidades de distribuciones mixtas continuas y discretas

Lo anterior se puede ampliar de una manera sencilla para permitir la consideración de distribuciones que contienen componentes tanto discretos como continuos. Supongamos que la distribución consta de un número de masas de probabilidad discretas y una densidad , donde la suma de todas las s sumadas a la integral de es siempre uno. Suponiendo que es posible distinguir una observación correspondiente a una de las masas de probabilidad discretas de una que corresponde al componente de densidad, la función de verosimilitud para una observación del componente continuo se puede tratar de la manera mostrada anteriormente. Para una observación del componente discreto, la función de verosimilitud para una observación del componente discreto es simplemente donde es el índice de la masa de probabilidad discreta correspondiente a la observación , porque maximizar la masa de probabilidad (o probabilidad) en equivale a maximizar la verosimilitud de la observación específica. p k ( θ ) {\textstyle p_{k}(\theta )} f ( x θ ) {\textstyle f(x\mid \theta )} p {\textstyle p} f {\textstyle f} L ( θ x ) = p k ( θ ) , {\displaystyle {\mathcal {L}}(\theta \mid x)=p_{k}(\theta ),} k {\textstyle k} x {\textstyle x} x {\textstyle x}

El hecho de que la función de verosimilitud pueda definirse de manera que incluya contribuciones que no son conmensurables (la densidad y la masa de probabilidad) surge de la forma en que se define la función de verosimilitud hasta una constante de proporcionalidad, donde esta "constante" puede cambiar con la observación , pero no con el parámetro . x {\textstyle x} θ {\textstyle \theta }

Condiciones de regularidad

En el contexto de la estimación de parámetros, se suele suponer que la función de verosimilitud obedece a ciertas condiciones, conocidas como condiciones de regularidad. Estas condiciones se suponen en varias pruebas que involucran funciones de verosimilitud y deben verificarse en cada aplicación particular. Para la estimación de máxima verosimilitud, la existencia de un máximo global de la función de verosimilitud es de suma importancia. Según el teorema del valor extremo , basta con que la función de verosimilitud sea continua en un espacio de parámetros compacto para que exista el estimador de máxima verosimilitud. [7] Si bien el supuesto de continuidad suele cumplirse, el supuesto de compacidad sobre el espacio de parámetros a menudo no lo es, ya que los límites de los valores verdaderos de los parámetros pueden ser desconocidos. En ese caso, la concavidad de la función de verosimilitud juega un papel clave.

Más específicamente, si la función de verosimilitud es dos veces continuamente diferenciable en el espacio de parámetros de dimensión k que se supone que es un subconjunto abierto y conexo de existe un máximo único si la matriz de segundos parciales es definida negativa para cada en el que el gradiente se desvanece, y si la función de verosimilitud se acerca a una constante en el límite del espacio de parámetros, es decir, que puede incluir los puntos en el infinito si es ilimitado. Mäkeläinen y coautores prueban este resultado usando la teoría de Morse mientras apelan informalmente a una propiedad del paso de montaña. [8] Mascarenhas reafirma su prueba usando el teorema del paso de montaña . [9] Θ {\textstyle \Theta } R k , {\textstyle \mathbb {R} ^{k}\,,} θ ^ Θ {\textstyle {\hat {\theta }}\in \Theta } H ( θ ) [ 2 L θ i θ j ] i , j = 1 , 1 n i , n j {\displaystyle \mathbf {H} (\theta )\equiv \left[\,{\frac {\partial ^{2}L}{\,\partial \theta _{i}\,\partial \theta _{j}\,}}\,\right]_{i,j=1,1}^{n_{\mathrm {i} },n_{\mathrm {j} }}\;} θ Θ {\textstyle \,\theta \in \Theta \,} L [ L θ i ] i = 1 n i {\textstyle \;\nabla L\equiv \left[\,{\frac {\partial L}{\,\partial \theta _{i}\,}}\,\right]_{i=1}^{n_{\mathrm {i} }}\;} Θ , {\textstyle \;\partial \Theta \;,} lim θ Θ L ( θ ) = 0 , {\displaystyle \lim _{\theta \to \partial \Theta }L(\theta )=0\;,} Θ {\textstyle \,\Theta \,}

En las pruebas de consistencia y normalidad asintótica del estimador de máxima verosimilitud, se hacen suposiciones adicionales sobre las densidades de probabilidad que forman la base de una función de verosimilitud particular. Estas condiciones fueron establecidas por primera vez por Chanda. [10] En particular, para casi todos , y para todos existen para todos con el fin de asegurar la existencia de una expansión de Taylor . En segundo lugar, para casi todos y para cada debe ser que donde es tal que Esta acotación de las derivadas es necesaria para permitir la diferenciación bajo el signo integral . Y por último, se supone que la matriz de información , es definida positiva y es finita. Esto asegura que la puntuación tiene una varianza finita. [11] x {\textstyle x} θ Θ , {\textstyle \,\theta \in \Theta \,,} log f θ r , 2 log f θ r θ s , 3 log f θ r θ s θ t {\displaystyle {\frac {\partial \log f}{\partial \theta _{r}}}\,,\quad {\frac {\partial ^{2}\log f}{\partial \theta _{r}\partial \theta _{s}}}\,,\quad {\frac {\partial ^{3}\log f}{\partial \theta _{r}\,\partial \theta _{s}\,\partial \theta _{t}}}\,} r , s , t = 1 , 2 , , k {\textstyle \,r,s,t=1,2,\ldots ,k\,} x {\textstyle x} θ Θ {\textstyle \,\theta \in \Theta \,} | f θ r | < F r ( x ) , | 2 f θ r θ s | < F r s ( x ) , | 3 f θ r θ s θ t | < H r s t ( x ) {\displaystyle \left|{\frac {\partial f}{\partial \theta _{r}}}\right|<F_{r}(x)\,,\quad \left|{\frac {\partial ^{2}f}{\partial \theta _{r}\,\partial \theta _{s}}}\right|<F_{rs}(x)\,,\quad \left|{\frac {\partial ^{3}f}{\partial \theta _{r}\,\partial \theta _{s}\,\partial \theta _{t}}}\right|<H_{rst}(x)} H {\textstyle H} H r s t ( z ) d z M < . {\textstyle \,\int _{-\infty }^{\infty }H_{rst}(z)\mathrm {d} z\leq M<\infty \;.} I ( θ ) = log f θ r   log f θ s   f   d z {\displaystyle \mathbf {I} (\theta )=\int _{-\infty }^{\infty }{\frac {\partial \log f}{\partial \theta _{r}}}\ {\frac {\partial \log f}{\partial \theta _{s}}}\ f\ \mathrm {d} z} | I ( θ ) | {\textstyle \,\left|\mathbf {I} (\theta )\right|\,}

Las condiciones anteriores son suficientes, pero no necesarias. Es decir, un modelo que no cumpla con estas condiciones de regularidad puede tener o no un estimador de máxima verosimilitud de las propiedades mencionadas anteriormente. Además, en el caso de observaciones que no se distribuyen de manera independiente o idéntica, puede ser necesario suponer propiedades adicionales.

En la estadística bayesiana, se imponen condiciones de regularidad casi idénticas a la función de verosimilitud para demostrar la normalidad asintótica de la probabilidad posterior , [12] [13] y, por lo tanto, para justificar una aproximación de Laplace de la posterior en muestras grandes. [14]

Razón de verosimilitud y verosimilitud relativa

Razón de verosimilitud

Una razón de verosimilitud es el cociente entre dos probabilidades especificadas, frecuentemente escrita como: Λ ( θ 1 : θ 2 x ) = L ( θ 1 x ) L ( θ 2 x ) . {\displaystyle \Lambda (\theta _{1}:\theta _{2}\mid x)={\frac {{\mathcal {L}}(\theta _{1}\mid x)}{{\mathcal {L}}(\theta _{2}\mid x)}}.}

La razón de verosimilitud es fundamental para las estadísticas verosímiles : la ley de verosimilitud establece que el grado en el que los datos (considerados como evidencia) respaldan un valor de parámetro frente a otro se mide mediante la razón de verosimilitud.

En la inferencia frecuentista , la razón de verosimilitud es la base de un estadístico de prueba , la llamada prueba de razón de verosimilitud . Según el lema de Neyman-Pearson , esta es la prueba más poderosa para comparar dos hipótesis simples en un nivel de significación dado . Muchas otras pruebas pueden considerarse pruebas de razón de verosimilitud o aproximaciones de las mismas. [15] La distribución asintótica de la razón de verosimilitud logarítmica, considerada como un estadístico de prueba, viene dada por el teorema de Wilks .

La razón de verosimilitud también es de importancia central en la inferencia bayesiana , donde se la conoce como el factor de Bayes y se utiliza en la regla de Bayes . Expresada en términos de probabilidades , la regla de Bayes establece que las probabilidades posteriores de dos alternativas, ⁠ ⁠ A 1 {\displaystyle A_{1}} y ⁠ ⁠ A 2 {\displaystyle A_{2}} , dado un evento ⁠ ⁠ B {\displaystyle B} , son las probabilidades anteriores , multiplicadas por la razón de verosimilitud. Como ecuación: O ( A 1 : A 2 B ) = O ( A 1 : A 2 ) Λ ( A 1 : A 2 B ) . {\displaystyle O(A_{1}:A_{2}\mid B)=O(A_{1}:A_{2})\cdot \Lambda (A_{1}:A_{2}\mid B).}

La razón de verosimilitud no se utiliza directamente en las estadísticas basadas en AIC, sino que se utiliza la verosimilitud relativa de los modelos (véase más abajo).

En la medicina basada en la evidencia , los cocientes de verosimilitud se utilizan en pruebas diagnósticas para evaluar el valor de realizar una prueba diagnóstica .

Función de verosimilitud relativa

Dado que el valor real de la función de verosimilitud depende de la muestra, a menudo es conveniente trabajar con una medida estandarizada. Supongamos que la estimación de máxima verosimilitud para el parámetro θ es . Las plausibilidades relativas de otros valores de θ se pueden encontrar comparando las verosimilitudes de esos otros valores con la verosimilitud de . La verosimilitud relativa de θ se define como [16] [17] [ 18] [19] [20] Por lo tanto, la verosimilitud relativa es la razón de verosimilitud (discutida anteriormente) con el denominador fijo . Esto corresponde a estandarizar la verosimilitud para tener un máximo de 1. θ ^ {\textstyle {\hat {\theta }}} θ ^ {\textstyle {\hat {\theta }}} R ( θ ) = L ( θ x ) L ( θ ^ x ) . {\displaystyle R(\theta )={\frac {{\mathcal {L}}(\theta \mid x)}{{\mathcal {L}}({\hat {\theta }}\mid x)}}.} L ( θ ^ ) {\textstyle {\mathcal {L}}({\hat {\theta }})}

Región de probabilidad

Una región de probabilidad es el conjunto de todos los valores de θ cuya probabilidad relativa es mayor o igual a un umbral determinado. En términos de porcentajes, una región de probabilidad p % para θ se define como [16] [18] [21]

{ θ : R ( θ ) p 100 } . {\displaystyle \left\{\theta :R(\theta )\geq {\frac {p}{100}}\right\}.}

Si θ es un único parámetro real, una región de probabilidad p % normalmente comprenderá un intervalo de valores reales. Si la región comprende un intervalo, se denomina intervalo de probabilidad . [16] [18] [22]

Los intervalos de verosimilitud, y más generalmente las regiones de verosimilitud, se utilizan para la estimación de intervalos en las estadísticas verosímiles: son similares a los intervalos de confianza en las estadísticas frecuentistas y a los intervalos creíbles en las estadísticas bayesianas. Los intervalos de verosimilitud se interpretan directamente en términos de verosimilitud relativa, no en términos de probabilidad de cobertura (frecuentismo) o probabilidad posterior (bayesianismo).

Dado un modelo, los intervalos de verosimilitud pueden compararse con los intervalos de confianza. Si θ es un único parámetro real, entonces, bajo ciertas condiciones, un intervalo de verosimilitud del 14,65 % (verosimilitud de aproximadamente 1:7) para θ será el mismo que un intervalo de confianza del 95 % (probabilidad de cobertura de 19/20). [16] [21] En una formulación ligeramente diferente, adecuada para el uso de verosimilitudes logarítmicas (véase el teorema de Wilks ), la estadística de prueba es el doble de la diferencia en verosimilitudes logarítmicas y la distribución de probabilidad de la estadística de prueba es aproximadamente una distribución de chi-cuadrado con grados de libertad (gl) iguales a la diferencia en gl entre los dos modelos (por lo tanto, el intervalo de verosimilitud e −2 es el mismo que el intervalo de confianza de 0,954; suponiendo que la diferencia en gl es 1). [21] [22]

Probabilidades que eliminan parámetros molestos

En muchos casos, la probabilidad es una función de más de un parámetro, pero el interés se centra en la estimación de solo uno, o como máximo algunos de ellos, y los demás se consideran parámetros molestos . Se han desarrollado varios enfoques alternativos para eliminar dichos parámetros molestos, de modo que una probabilidad se pueda escribir como una función solo del parámetro (o parámetros) de interés: los enfoques principales son las probabilidades de perfil, condicionales y marginales. [23] [24] Estos enfoques también son útiles cuando una superficie de probabilidad de alta dimensión necesita reducirse a uno o dos parámetros de interés para permitir un gráfico .

Probabilidad de perfil

Es posible reducir las dimensiones concentrando la función de verosimilitud para un subconjunto de parámetros expresando los parámetros molestos como funciones de los parámetros de interés y reemplazándolos en la función de verosimilitud. [25] [26] En general, para una función de verosimilitud que depende del vector de parámetros que se puede dividir en , y donde se puede determinar una correspondencia explícitamente, la concentración reduce la carga computacional del problema de maximización original. [27] θ {\textstyle \mathbf {\theta } } θ = ( θ 1 : θ 2 ) {\textstyle \mathbf {\theta } =\left(\mathbf {\theta } _{1}:\mathbf {\theta } _{2}\right)} θ ^ 2 = θ ^ 2 ( θ 1 ) {\textstyle \mathbf {\hat {\theta }} _{2}=\mathbf {\hat {\theta }} _{2}\left(\mathbf {\theta } _{1}\right)}

Por ejemplo, en una regresión lineal con errores distribuidos normalmente, , el vector de coeficientes podría dividirse en (y, en consecuencia, la matriz de diseño ). Maximizar con respecto a produce una función de valor óptimo . Usando este resultado, el estimador de máxima verosimilitud para puede derivarse como donde es la matriz de proyección de . Este resultado se conoce como el teorema de Frisch–Waugh–Lovell . y = X β + u {\textstyle \mathbf {y} =\mathbf {X} \beta +u} β = [ β 1 : β 2 ] {\textstyle \beta =\left[\beta _{1}:\beta _{2}\right]} X = [ X 1 : X 2 ] {\textstyle \mathbf {X} =\left[\mathbf {X} _{1}:\mathbf {X} _{2}\right]} β 2 {\textstyle \beta _{2}} β 2 ( β 1 ) = ( X 2 T X 2 ) 1 X 2 T ( y X 1 β 1 ) {\textstyle \beta _{2}(\beta _{1})=\left(\mathbf {X} _{2}^{\mathsf {T}}\mathbf {X} _{2}\right)^{-1}\mathbf {X} _{2}^{\mathsf {T}}\left(\mathbf {y} -\mathbf {X} _{1}\beta _{1}\right)} β 1 {\textstyle \beta _{1}} β ^ 1 = ( X 1 T ( I P 2 ) X 1 ) 1 X 1 T ( I P 2 ) y {\displaystyle {\hat {\beta }}_{1}=\left(\mathbf {X} _{1}^{\mathsf {T}}\left(\mathbf {I} -\mathbf {P} _{2}\right)\mathbf {X} _{1}\right)^{-1}\mathbf {X} _{1}^{\mathsf {T}}\left(\mathbf {I} -\mathbf {P} _{2}\right)\mathbf {y} } P 2 = X 2 ( X 2 T X 2 ) 1 X 2 T {\textstyle \mathbf {P} _{2}=\mathbf {X} _{2}\left(\mathbf {X} _{2}^{\mathsf {T}}\mathbf {X} _{2}\right)^{-1}\mathbf {X} _{2}^{\mathsf {T}}} X 2 {\textstyle \mathbf {X} _{2}}

Dado que gráficamente el procedimiento de concentración es equivalente a cortar la superficie de probabilidad a lo largo de la cresta de valores del parámetro de molestia que maximiza la función de probabilidad, creando un perfil isométrico de la función de probabilidad para un determinado , el resultado de este procedimiento también se conoce como perfil de probabilidad . [28] [29] Además de ser graficado, el perfil de probabilidad también se puede utilizar para calcular intervalos de confianza que a menudo tienen mejores propiedades de muestra pequeña que aquellos basados ​​en errores estándar asintóticos calculados a partir de la probabilidad total. [30] [31] β 2 {\textstyle \beta _{2}} β 1 {\textstyle \beta _{1}}

Probabilidad condicional

A veces es posible encontrar una estadística suficiente para los parámetros de molestia, y el condicionamiento de esta estadística da como resultado una probabilidad que no depende de los parámetros de molestia. [32]

Un ejemplo se da en las tablas 2×2, donde el condicionamiento de los cuatro totales marginales conduce a una probabilidad condicional basada en la distribución hipergeométrica no central . Esta forma de condicionamiento también es la base de la prueba exacta de Fisher .

Probabilidad marginal

En ocasiones, podemos eliminar los parámetros molestos considerando una probabilidad basada únicamente en una parte de la información de los datos, por ejemplo, utilizando el conjunto de rangos en lugar de los valores numéricos. Otro ejemplo se da en los modelos lineales mixtos , donde considerar una probabilidad para los residuos solo después de ajustar los efectos fijos conduce a una estimación de máxima verosimilitud residual de los componentes de la varianza.

Probabilidad parcial

Una probabilidad parcial es una adaptación de la probabilidad total de modo que solo una parte de los parámetros (los parámetros de interés) ocurren en ella. [33] Es un componente clave del modelo de riesgos proporcionales : al utilizar una restricción en la función de riesgo, la probabilidad no contiene la forma del riesgo a lo largo del tiempo.

Productos de probabilidades

La probabilidad, dados dos o más eventos independientes , es el producto de las probabilidades de cada uno de los eventos individuales: Esto se desprende de la definición de independencia en probabilidad: las probabilidades de que ocurran dos eventos independientes, dado un modelo, son el producto de las probabilidades. Λ ( A X 1 X 2 ) = Λ ( A X 1 ) Λ ( A X 2 ) . {\displaystyle \Lambda (A\mid X_{1}\land X_{2})=\Lambda (A\mid X_{1})\cdot \Lambda (A\mid X_{2}).}

Esto es particularmente importante cuando los eventos provienen de variables aleatorias independientes e idénticamente distribuidas , como observaciones independientes o muestreo con reemplazo . En tal situación, la función de probabilidad se convierte en un producto de funciones de probabilidad individuales.

El producto vacío tiene valor 1, que corresponde a la probabilidad, dado ningún evento, de ser 1: antes de cualquier dato, la probabilidad es siempre 1. Esto es similar a una previa uniforme en las estadísticas bayesianas, pero en las estadísticas verosímiles esto no es una previa impropia porque las probabilidades no están integradas.

Log-verosimilitud

La función de log-verosimilitud es el logaritmo de la función de verosimilitud, a menudo denotada por una l minúscula o ⁠ ⁠ {\displaystyle \ell } , para contrastar con la L mayúscula o para la verosimilitud. Debido a que los logaritmos son funciones estrictamente crecientes , maximizar la verosimilitud es equivalente a maximizar la log-verosimilitud. Pero para fines prácticos es más conveniente trabajar con la función de log-verosimilitud en la estimación de máxima verosimilitud , en particular porque la mayoría de las distribuciones de probabilidad comunes —notablemente la familia exponencial— son solo logarítmicamente cóncavas , [34] [35] y la concavidad de la función objetivo juega un papel clave en la maximización . L {\textstyle {\mathcal {L}}}

Dada la independencia de cada evento, la probabilidad logarítmica general de la intersección es igual a la suma de las probabilidades logarítmicas de los eventos individuales. Esto es análogo al hecho de que la probabilidad logarítmica general es la suma de las probabilidades logarítmicas de los eventos individuales. Además de la conveniencia matemática que esto implica, el proceso de suma de la probabilidad logarítmica tiene una interpretación intuitiva, que a menudo se expresa como "apoyo" de los datos. Cuando los parámetros se estiman utilizando la probabilidad logarítmica para la estimación de máxima verosimilitud , cada punto de datos se utiliza al sumarse a la probabilidad logarítmica total. Como los datos pueden verse como una evidencia que respalda los parámetros estimados, este proceso puede interpretarse como "el respaldo de la evidencia independiente se suma", y la probabilidad logarítmica es el "peso de la evidencia". Al interpretar la probabilidad logarítmica negativa como contenido de información o sorpresa , el soporte (verosimilitud logarítmica) de un modelo, dado un evento, es el negativo de la sorpresa del evento, dado el modelo: un modelo es respaldado por un evento en la medida en que el evento no sea sorprendente, dado el modelo.

El logaritmo de una razón de verosimilitud es igual a la diferencia de las verosimilitudes: log L ( A ) L ( B ) = log L ( A ) log L ( B ) = ( A ) ( B ) . {\displaystyle \log {\frac {{\mathcal {L}}(A)}{{\mathcal {L}}(B)}}=\log {\mathcal {L}}(A)-\log {\mathcal {L}}(B)=\ell (A)-\ell (B).}

Así como la probabilidad, dado que no ocurre ningún evento, es 1, la verosimilitud logarítmica, dado que no ocurre ningún evento, es 0, que corresponde al valor de la suma vacía: sin ningún dato, no hay respaldo para ningún modelo.

Gráfico

El gráfico de la verosimilitud logarítmica se denomina curva de soporte (en el caso univariado ). [36] En el caso multivariado, el concepto se generaliza en una superficie de soporte sobre el espacio de parámetros . Tiene una relación con el soporte de una distribución , pero es distinto de este .

El término fue acuñado por AWF Edwards [36] en el contexto de las pruebas de hipótesis estadísticas , es decir, si los datos "apoyan" o no una hipótesis (o valor de parámetro) que se está probando más que cualquier otro.

La función de log-verosimilitud que se representa se utiliza en el cálculo de la puntuación (el gradiente de log-verosimilitud) y la información de Fisher (la curvatura de log-verosimilitud). Por lo tanto, el gráfico tiene una interpretación directa en el contexto de la estimación de máxima verosimilitud y las pruebas de razón de verosimilitud .

Ecuaciones de verosimilitud

Si la función de log-verosimilitud es suave , su gradiente con respecto al parámetro, conocido como puntuación y escrito , existe y permite la aplicación del cálculo diferencial . La forma básica de maximizar una función diferenciable es encontrar los puntos estacionarios (los puntos donde la derivada es cero); dado que la derivada de una suma es solo la suma de las derivadas, pero la derivada de un producto requiere la regla del producto , es más fácil calcular los puntos estacionarios de la log-verosimilitud de eventos independientes que para la verosimilitud de eventos independientes. s n ( θ ) θ n ( θ ) {\textstyle s_{n}(\theta )\equiv \nabla _{\theta }\ell _{n}(\theta )}

Las ecuaciones definidas por el punto estacionario de la función de puntuación sirven como ecuaciones de estimación para el estimador de máxima verosimilitud. En ese sentido, el estimador de máxima verosimilitud está definido implícitamente por el valor en de la función inversa , donde es el espacio euclidiano d -dimensional , y es el espacio de parámetros. Utilizando el teorema de la función inversa , se puede demostrar que está bien definido en un entorno abierto alrededor de con probabilidad que tiende a uno, y es una estimación consistente de . Como consecuencia, existe una secuencia tal que asintóticamente casi con seguridad , y . [37] Se puede establecer un resultado similar utilizando el teorema de Rolle . [38] [39] s n ( θ ) = 0 {\displaystyle s_{n}(\theta )=\mathbf {0} } 0 {\textstyle \mathbf {0} } s n 1 : E d Θ {\textstyle s_{n}^{-1}:\mathbb {E} ^{d}\to \Theta } E d {\textstyle \mathbb {E} ^{d}} Θ {\textstyle \Theta } s n 1 {\textstyle s_{n}^{-1}} 0 {\textstyle \mathbf {0} } θ ^ n = s n 1 ( 0 ) {\textstyle {\hat {\theta }}_{n}=s_{n}^{-1}(\mathbf {0} )} θ {\textstyle \theta } { θ ^ n } {\textstyle \left\{{\hat {\theta }}_{n}\right\}} s n ( θ ^ n ) = 0 {\textstyle s_{n}({\hat {\theta }}_{n})=\mathbf {0} } θ ^ n p θ 0 {\textstyle {\hat {\theta }}_{n}\xrightarrow {\text{p}} \theta _{0}}

La segunda derivada evaluada en , conocida como información de Fisher , determina la curvatura de la superficie de verosimilitud, [40] y por lo tanto indica la precisión de la estimación. [41] θ ^ {\textstyle {\hat {\theta }}}

Familias exponenciales

La verosimilitud logarítmica también es particularmente útil para familias exponenciales de distribuciones, que incluyen muchas de las distribuciones de probabilidad paramétricas comunes . La función de distribución de probabilidad (y, por lo tanto, la función de verosimilitud) para familias exponenciales contiene productos de factores que involucran exponenciación . El logaritmo de dicha función es una suma de productos, nuevamente más fácil de diferenciar que la función original.

Una familia exponencial es aquella cuya función de densidad de probabilidad tiene la forma (para algunas funciones, escribiendo para el producto interno ): , {\textstyle \langle -,-\rangle }

p ( x θ ) = h ( x ) exp ( η ( θ ) , T ( x ) A ( θ ) ) . {\displaystyle p(x\mid {\boldsymbol {\theta }})=h(x)\exp {\Big (}\langle {\boldsymbol {\eta }}({\boldsymbol {\theta }}),\mathbf {T} (x)\rangle -A({\boldsymbol {\theta }}){\Big )}.}

Cada uno de estos términos tiene una interpretación, [a] pero simplemente cambiando de probabilidad a verosimilitud y tomando logaritmos obtenemos la suma:

( θ x ) = η ( θ ) , T ( x ) A ( θ ) + log h ( x ) . {\displaystyle \ell ({\boldsymbol {\theta }}\mid x)=\langle {\boldsymbol {\eta }}({\boldsymbol {\theta }}),\mathbf {T} (x)\rangle -A({\boldsymbol {\theta }})+\log h(x).}

Los y corresponden cada uno a un cambio de coordenadas , por lo que en estas coordenadas, la verosimilitud logarítmica de una familia exponencial viene dada por la sencilla fórmula: η ( θ ) {\textstyle {\boldsymbol {\eta }}({\boldsymbol {\theta }})} h ( x ) {\textstyle h(x)}

( η x ) = η , T ( x ) A ( η ) . {\displaystyle \ell ({\boldsymbol {\eta }}\mid x)=\langle {\boldsymbol {\eta }},\mathbf {T} (x)\rangle -A({\boldsymbol {\eta }}).}

En palabras, la verosimilitud logarítmica de una familia exponencial es el producto interno del parámetro natural ⁠ ⁠ η {\displaystyle {\boldsymbol {\eta }}} y la estadística suficiente ⁠ ⁠ T ( x ) {\displaystyle \mathbf {T} (x)} , menos el factor de normalización ( función de partición logarítmica ) ⁠ ⁠ A ( η ) {\displaystyle A({\boldsymbol {\eta }})} . Así, por ejemplo, la estimación de máxima verosimilitud se puede calcular tomando derivadas de la estadística suficiente T y la función de partición logarítmica A .

Ejemplo: la distribución gamma

La distribución gamma es una familia exponencial con dos parámetros, y . La función de verosimilitud es α {\textstyle \alpha } β {\textstyle \beta }

L ( α , β x ) = β α Γ ( α ) x α 1 e β x . {\displaystyle {\mathcal {L}}(\alpha ,\beta \mid x)={\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}x^{\alpha -1}e^{-\beta x}.}

Encontrar la estimación de máxima verosimilitud de un único valor observado parece bastante desalentador. Su logaritmo es mucho más sencillo de manejar: β {\textstyle \beta } x {\textstyle x}

log L ( α , β x ) = α log β log Γ ( α ) + ( α 1 ) log x β x . {\displaystyle \log {\mathcal {L}}(\alpha ,\beta \mid x)=\alpha \log \beta -\log \Gamma (\alpha )+(\alpha -1)\log x-\beta x.\,}

Para maximizar la verosimilitud logarítmica, primero tomamos la derivada parcial con respecto a : β {\textstyle \beta }

log L ( α , β x ) β = α β x . {\displaystyle {\frac {\partial \log {\mathcal {L}}(\alpha ,\beta \mid x)}{\partial \beta }}={\frac {\alpha }{\beta }}-x.}

Si hay varias observaciones independientes , entonces la log-verosimilitud conjunta será la suma de las log-verosimilitudes individuales, y la derivada de esta suma será la suma de las derivadas de cada log-verosimilitud individual: x 1 , , x n {\textstyle x_{1},\ldots ,x_{n}}

log L ( α , β x 1 , , x n ) β = log L ( α , β x 1 ) β + + log L ( α , β x n ) β = n α β i = 1 n x i . {\displaystyle {\begin{aligned}&{\frac {\partial \log {\mathcal {L}}(\alpha ,\beta \mid x_{1},\ldots ,x_{n})}{\partial \beta }}\\={}&{\frac {\partial \log {\mathcal {L}}(\alpha ,\beta \mid x_{1})}{\partial \beta }}+\cdots +{\frac {\partial \log {\mathcal {L}}(\alpha ,\beta \mid x_{n})}{\partial \beta }}={\frac {n\alpha }{\beta }}-\sum _{i=1}^{n}x_{i}.\end{aligned}}}

Para completar el procedimiento de maximización de la log-verosimilitud conjunta, la ecuación se establece en cero y se resuelve para : β {\textstyle \beta }

β ^ = α x ¯ . {\displaystyle {\widehat {\beta }}={\frac {\alpha }{\bar {x}}}.}

Aquí denota la estimación de máxima verosimilitud y es la media muestral de las observaciones. β ^ {\textstyle {\widehat {\beta }}} x ¯ = 1 n i = 1 n x i {\textstyle \textstyle {\bar {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}

Antecedentes e interpretación

Observaciones históricas

El término "verosimilitud" se ha utilizado en inglés al menos desde finales del inglés medio . [42] Su uso formal para referirse a una función específica en estadística matemática fue propuesto por Ronald Fisher , [43] en dos artículos de investigación publicados en 1921 [44] y 1922. [45] El artículo de 1921 introdujo lo que hoy se llama un "intervalo de verosimilitud"; el artículo de 1922 introdujo el término " método de máxima verosimilitud ". Citando a Fisher:

[E]n 1922, propuse el término "probabilidad", en vista del hecho de que, con respecto al parámetro, no es una probabilidad y no obedece a las leyes de probabilidad, mientras que al mismo tiempo tiene con el problema de la elección racional entre los valores posibles del parámetro una relación similar a la que tiene la probabilidad con el problema de predecir eventos en juegos de azar... Mientras que, sin embargo, en relación con el juicio psicológico, la probabilidad tiene cierta semejanza con la probabilidad, los dos conceptos son completamente distintos... [46]

El concepto de probabilidad no debe confundirse con el de probabilidad mencionado por Sir Ronald Fisher.

Subrayo esto porque, a pesar del énfasis que siempre he puesto en la diferencia entre probabilidad y verosimilitud, todavía hay una tendencia a tratar la verosimilitud como si fuera una especie de probabilidad. El primer resultado es, pues, que hay dos medidas diferentes de creencia racional apropiadas para casos diferentes. Conociendo la población podemos expresar nuestro conocimiento incompleto de la muestra, o nuestra expectativa de ella, en términos de probabilidad; conociendo la muestra podemos expresar nuestro conocimiento incompleto de la población en términos de verosimilitud. [47]

La invención de la probabilidad estadística por parte de Fisher fue una reacción contra una forma anterior de razonamiento llamada probabilidad inversa . [48] Su uso del término "probabilidad" fijó el significado del término dentro de las estadísticas matemáticas.

AWF Edwards (1972) estableció la base axiomática para el uso de la razón de verosimilitud logarítmica como medida del apoyo relativo de una hipótesis frente a otra. La función de apoyo es entonces el logaritmo natural de la función de verosimilitud. Ambos términos se utilizan en filogenética , pero no se adoptaron en un tratamiento general del tema de la evidencia estadística. [49]

Interpretaciones bajo diferentes fundamentos

Entre los estadísticos, no hay consenso sobre cuál debería ser el fundamento de la estadística . Se han propuesto cuatro paradigmas principales para el fundamento: frecuentismo , bayesianismo , verosimilitud y basado en AIC . [50] Para cada uno de los fundamentos propuestos, la interpretación de la verosimilitud es diferente. Las cuatro interpretaciones se describen en las subsecciones siguientes.

Interpretación frecuentista

Interpretación bayesiana

En la inferencia bayesiana , aunque se puede hablar de la probabilidad de cualquier proposición o variable aleatoria dada otra variable aleatoria: por ejemplo, la probabilidad de un valor de parámetro o de un modelo estadístico (ver probabilidad marginal ), dados datos específicos u otra evidencia, [51] [52] [53] [54] la función de probabilidad sigue siendo la misma entidad, con las interpretaciones adicionales de (i) una densidad condicional de los datos dado el parámetro (ya que el parámetro es entonces una variable aleatoria) y (ii) una medida o cantidad de información aportada por los datos sobre el valor del parámetro o incluso el modelo. [51] [52] [53] [54] [55] Debido a la introducción de una estructura de probabilidad en el espacio de parámetros o en la colección de modelos, es posible que un valor de parámetro o un modelo estadístico tenga un valor de probabilidad grande para datos dados, y sin embargo tenga una probabilidad baja , o viceversa. [53] [55] Este suele ser el caso en contextos médicos. [56] Siguiendo la regla de Bayes , la probabilidad cuando se considera como una densidad condicional se puede multiplicar por la densidad de probabilidad previa del parámetro y luego normalizar, para dar una densidad de probabilidad posterior . [51] [52] [53] [54] [55] De manera más general, la probabilidad de una cantidad desconocida dada otra cantidad desconocida es proporcional a la probabilidad de dada . [51] [52] [53] [54] [55] X {\textstyle X} Y {\textstyle Y} Y {\textstyle Y} X {\textstyle X}

Interpretación verosimilista

En las estadísticas frecuentistas, la función de verosimilitud es en sí misma una estadística que resume una única muestra de una población, cuyo valor calculado depende de una elección de varios parámetros θ 1 ... θ p , donde p es el recuento de parámetros en algún modelo estadístico ya seleccionado . El valor de la verosimilitud sirve como cifra de mérito para la elección utilizada para los parámetros, y el conjunto de parámetros con máxima verosimilitud es la mejor opción, dados los datos disponibles.

El cálculo específico de la probabilidad es la probabilidad de que la muestra observada sea asignada, suponiendo que el modelo elegido y los valores de los diversos parámetros θ den una aproximación precisa de la distribución de frecuencia de la población de la que se extrajo la muestra observada. Heurísticamente, tiene sentido que una buena elección de parámetros sea aquella que haga que la muestra realmente observada tenga la máxima probabilidad post-hoc posible de haber sucedido. El teorema de Wilks cuantifica la regla heurística al mostrar que la diferencia en el logaritmo de la probabilidad generada por los valores de los parámetros de la estimación y el logaritmo de la probabilidad generada por los valores de los parámetros "verdaderos" (pero desconocidos) de la población se distribuye asintóticamente χ 2 .

La estimación de máxima verosimilitud de cada muestra independiente es una estimación separada del conjunto de parámetros "verdaderos" que describe la población muestreada. Las estimaciones sucesivas de muchas muestras independientes se agruparán con el conjunto "verdadero" de valores de parámetros de la población oculto en algún lugar entre ellas. La diferencia en los logaritmos de las verosimilitudes de la máxima verosimilitud y de los conjuntos de parámetros adyacentes se puede utilizar para dibujar una región de confianza en un gráfico cuyas coordenadas son los parámetros θ 1 ... θ p . La región rodea la estimación de máxima verosimilitud, y todos los puntos (conjuntos de parámetros) dentro de esa región difieren como máximo en log-verosimilitud por algún valor fijo. La distribución χ 2 dada por el teorema de Wilks convierte las diferencias de log-verosimilitud de la región en la "confianza" de que el conjunto de parámetros "verdaderos" de la población se encuentra dentro. El arte de elegir la diferencia fija de log-verosimilitud es hacer que la confianza sea aceptablemente alta mientras se mantiene la región aceptablemente pequeña (rango estrecho de estimaciones).

A medida que se observan más datos, en lugar de utilizarlos para realizar estimaciones independientes, se pueden combinar con las muestras anteriores para formar una única muestra combinada, y esa muestra grande se puede utilizar para una nueva estimación de máxima verosimilitud. A medida que aumenta el tamaño de la muestra combinada, el tamaño de la región de verosimilitud con la misma confianza se reduce. Finalmente, o bien el tamaño de la región de confianza es casi un único punto, o bien se ha muestreado toda la población; en ambos casos, el conjunto de parámetros estimado es esencialmente el mismo que el conjunto de parámetros de la población.

Interpretación basada en AIC

Bajo el paradigma AIC , la probabilidad se interpreta dentro del contexto de la teoría de la información . [57] [58] [59]

Véase también

Notas

Referencias

  1. ^ Casella, George; Berger, Roger L. (2002). Inferencia estadística (2.ª ed.). Duxbury. pág. 290. ISBN 0-534-24312-6.
  2. ^ Wakefield, Jon (2013). Métodos de regresión bayesiana y frecuentista (1.ª ed.). Springer. pág. 36. ISBN 978-1-4419-0925-1.
  3. ^ Lehmann, Erich L.; Casella, George (1998). Teoría de la estimación puntual (2.ª ed.). Springer. pág. 444. ISBN 0-387-98502-6.
  4. ^ Zellner, Arnold (1971). Introducción a la inferencia bayesiana en econometría . Nueva York: Wiley. pp. 13-14. ISBN. 0-471-98165-6.
  5. ^ Billingsley, Patrick (1995). Probabilidad y medida (tercera edición). John Wiley & Sons . págs. 422–423.
  6. ^ Shao, Jun (2003). Estadística matemática (2.ª ed.). Springer. §4.4.1.
  7. ^ Gouriéroux, Christian ; Monfort, Alain (1995). Estadística y modelos econométricos. Nueva York: Cambridge University Press. p. 161. ISBN 0-521-40551-3.
  8. ^ Mäkeläinen, Timo; Schmidt, Klaus; Styan, George PH (1981). "Sobre la existencia y unicidad de la estimación de máxima verosimilitud de un parámetro con valor vectorial en muestras de tamaño fijo". Anales de Estadística . 9 (4): 758–767. doi : 10.1214/aos/1176345516 . JSTOR  2240844.
  9. ^ Mascarenhas, WF (2011). "Un lema de paso de montaña y sus implicaciones con respecto a la singularidad de los minimizadores restringidos". Optimización . 60 (8–9): 1121–1159. doi :10.1080/02331934.2010.527973. S2CID  15896597.
  10. ^ Chanda, KC (1954). "Una nota sobre la consistencia y los máximos de las raíces de las ecuaciones de verosimilitud". Biometrika . 41 (1–2): 56–61. doi :10.2307/2333005. JSTOR  2333005.
  11. ^ Greenberg, Edward; Webster, Charles E. Jr. (1983). Econometría avanzada: un puente hacia la literatura . Nueva York, NY: John Wiley & Sons. págs. 24-25. ISBN 0-471-09077-8.
  12. ^ Heyde, CC; Johnstone, IM (1979). "Sobre la normalidad posterior asintótica para procesos estocásticos". Revista de la Royal Statistical Society . Serie B (Metodológica). 41 (2): 184–189. doi :10.1111/j.2517-6161.1979.tb01071.x.
  13. ^ Chen, Chan-Fu (1985). "Sobre la normalidad asintótica de funciones de densidad límite con implicaciones bayesianas". Journal of the Royal Statistical Society . Serie B (Metodológica). 47 (3): 540–546. doi :10.1111/j.2517-6161.1985.tb01384.x.
  14. ^ Kass, Robert E.; Tierney, Luke; Kadane, Joseph B. (1990). "La validez de las expansiones posteriores basadas en el método de Laplace". En Geisser, S.; Hodges, JS; Press, SJ; Zellner, A. (eds.). Métodos bayesianos y de verosimilitud en estadística y econometría . Elsevier. págs. 473–488. ISBN 0-444-88376-2.
  15. ^ Buse, A. (1982). "Las pruebas de razón de verosimilitud, de Wald y del multiplicador de Lagrange: una nota expositiva". The American Statistician . 36 (3a): 153–157. doi :10.1080/00031305.1982.10482817.
  16. ^ abcd Kalbfleisch, JG (1985), Probabilidad e inferencia estadística , Springer(§9.3).
  17. ^ Azzalini, A. (1996), Inferencia estadística basada en la probabilidad, Chapman & Hall , ISBN 9780412606502(§1.4.2).
  18. ^ abc Sprott, DA (2000), Inferencia estadística en la ciencia , Springer (cap. 2).
  19. ^ Davison, AC (2008), Modelos estadísticos , Cambridge University Press (§4.1.2).
  20. ^ Held, L.; Sabanés Bové, DS (2014), Inferencia estadística aplicada: verosimilitud y Bayes , Springer(§2.1).
  21. ^ abc Rossi, RJ (2018), Estadística matemática , Wiley , pág. 267.
  22. ^ ab Hudson, DJ (1971), "Estimación de intervalo a partir de la función de verosimilitud", Journal of the Royal Statistical Society, Serie B , 33 (2): 256–262.
  23. ^ Pawitan, Yudi (2001). Con toda probabilidad: modelado estadístico e inferencia utilizando la probabilidad . Oxford University Press .
  24. ^ Wen Hsiang Wei. "Modelo lineal generalizado - notas del curso". Taichung, Taiwán: Universidad de Tunghai . pp. Capítulo 5. Consultado el 1 de octubre de 2017 .
  25. ^ Amemiya, Takeshi (1985). "Función de verosimilitud concentrada". Econometría avanzada . Cambridge: Harvard University Press. págs. 125-127. ISBN. 978-0-674-00560-0.
  26. ^ Davidson, Russell; MacKinnon, James G. (1993). "Concentración de la función de verosimilitud logarítmica". Estimación e inferencia en econometría . Nueva York: Oxford University Press. págs. 267–269. ISBN 978-0-19-506011-9.
  27. ^ Gourieroux, Christian; Monfort, Alain (1995). "Función de verosimilitud concentrada". Estadística y modelos econométricos . Nueva York: Cambridge University Press. págs. 170-175. ISBN 978-0-521-40551-5.
  28. ^ Pickles, Andrew (1985). Introducción al análisis de verosimilitud. Norwich: WH Hutchins & Sons. pp. 21–24. ISBN 0-86094-190-6.
  29. ^ Bolker, Benjamin M. (2008). Modelos y datos ecológicos en R. Princeton University Press. pp. 187–189. ISBN 978-0-691-12522-0.
  30. ^ Aitkin, Murray (1982). "Inferencia de verosimilitud directa". GLIM 82: Actas de la Conferencia internacional sobre modelos lineales generalizados . Springer. págs. 76–86. ISBN. 0-387-90777-7.
  31. ^ Venzon, DJ; Moolgavkar, SH (1988). "Un método para calcular intervalos de confianza basados ​​en la verosimilitud del perfil". Revista de la Royal Statistical Society . Serie C (Estadística aplicada). 37 (1): 87–94. doi :10.2307/2347496. JSTOR  2347496.
  32. ^ Kalbfleisch, JD; Sprott, DA (1973). "Probabilidades marginales y condicionales". Sankhyā: The Indian Journal of Statistics . Serie A. 35 (3): 311–328. JSTOR  25049882.
  33. ^ Cox, DR (1975). "Verosimilitud parcial". Biometrika . 62 (2): 269–276. doi :10.1093/biomet/62.2.269. MR  0400509.
  34. ^ Kass, Robert E.; Vos, Paul W. (1997). Fundamentos geométricos de la inferencia asintótica. Nueva York: John Wiley & Sons. pág. 14. ISBN 0-471-82668-5.
  35. ^ Papadopoulos, Alecos (25 de septiembre de 2013). "¿Por qué siempre ponemos log() antes de la función de densidad de probabilidad conjunta cuando usamos MLE (estimación de máxima verosimilitud)?". Stack Exchange .
  36. ^ ab Edwards, AWF (1992) [1972]. Probabilidad . Prensa de la Universidad Johns Hopkins . ISBN 0-8018-4443-6.
  37. ^ Foutz, Robert V. (1977). "Sobre la solución consistente única para las ecuaciones de verosimilitud". Revista de la Asociación Estadounidense de Estadística . 72 (357): 147–148. doi :10.1080/01621459.1977.10479926.
  38. ^ Tarone, Robert E.; Gruenhage, Gary (1975). "Una nota sobre la unicidad de las raíces de las ecuaciones de verosimilitud para parámetros con valores vectoriales". Revista de la Asociación Estadounidense de Estadística . 70 (352): 903–904. doi :10.1080/01621459.1975.10480321.
  39. ^ Rai, Kamta; Van Ryzin, John (1982). "Una nota sobre una versión multivariada del teorema de Rolle y la unicidad de las raíces de máxima verosimilitud". Communications in Statistics . Teoría y métodos. 11 (13): 1505–1510. doi :10.1080/03610928208828325.
  40. ^ Rao, B. Raja (1960). "Una fórmula para la curvatura de la superficie de probabilidad de una muestra extraída de una distribución que admita suficientes estadísticas". Biometrika . 47 (1–2): 203–207. doi :10.1093/biomet/47.1-2.203.
  41. ^ Ward, Michael D.; Ahlquist, John S. (2018). Máxima verosimilitud para las ciencias sociales: estrategias para el análisis . Cambridge University Press . págs. 25–27.
  42. ^ "probabilidad", Shorter Oxford English Dictionary (2007).
  43. ^ Hald, A. (1999). "Sobre la historia de la máxima verosimilitud en relación con la probabilidad inversa y los mínimos cuadrados". Ciencia estadística . 14 (2): 214–222. doi : 10.1214/ss/1009212248 . JSTOR  2676741.
  44. ^ Fisher, RA (1921). "Sobre el "error probable" de un coeficiente de correlación deducido a partir de una muestra pequeña". Metron . 1 : 3–32.
  45. ^ Fisher, RA (1922). "Sobre los fundamentos matemáticos de la estadística teórica". Philosophical Transactions of the Royal Society A . 222 (594–604): 309–368. Bibcode :1922RSPTA.222..309F. doi : 10.1098/rsta.1922.0009 . hdl : 2440/15172 . JFM  48.1280.02. JSTOR  91208.
  46. ^ Klemens, Ben (2008). Modelado con datos: herramientas y técnicas para computación científica . Princeton University Press . pág. 329.
  47. ^ Fisher, Ronald (1930). "Probabilidad inversa". Actas matemáticas de la Sociedad Filosófica de Cambridge . 26 (4): 528–535. Código Bibliográfico :1930PCPS...26..528F. doi :10.1017/S0305004100016297.
  48. ^ Fienberg, Stephen E (1997). "Introducción a RA Fisher sobre probabilidad inversa y verosimilitud". Ciencia estadística . 12 (3): 161. doi : 10.1214/ss/1030037905 .
  49. ^ Royall, R. (1997). Evidencia estadística . Chapman & Hall .
  50. ^ Bandyopadhyay, PS; Forster, MR, eds. (2011). Filosofía de la estadística . North-Holland Publishing .
  51. ^ abcd IJ Good: Probabilidad y ponderación de la evidencia (Griffin 1950), §6.1
  52. ^ abcd H. Jeffreys: Teoría de la probabilidad (3.ª ed., Oxford University Press 1983), §1.22
  53. ^ abcde ET Jaynes: Teoría de la probabilidad: la lógica de la ciencia (Cambridge University Press 2003), §4.1
  54. ^ abcd DV Lindley: Introducción a la probabilidad y la estadística desde un punto de vista bayesiano. Parte 1: Probabilidad (Cambridge University Press 1980), §1.6
  55. ^ abcd A. Gelman, JB Carlin, HS Stern, DB Dunson, A. Vehtari, DB Rubin: Análisis de datos bayesianos (3.ª ed., Chapman & Hall/CRC 2014), §1.3
  56. ^ Sox, HC; Higgins, MC; Owens, DK (2013), Toma de decisiones médicas (2.ª ed.), Wiley, capítulos 3 y 4, doi :10.1002/9781118341544, ISBN 9781118341544
  57. ^ Akaike, H. (1985). "Predicción y entropía". En Atkinson, AC; Fienberg, SE (eds.). Una celebración de las estadísticas . Springer. págs. 1–24.
  58. ^ Sakamoto, Y.; Ishiguro, M.; Kitagawa, G. (1986). Estadística del criterio de información de Akaike . D. Reidel . Parte I.
  59. ^ Burnham, KP; Anderson, DR (2002). Selección de modelos e inferencia multimodelo: un enfoque práctico basado en la teoría de la información (2.ª ed.). Springer-Verlag . cap. 7.

Lectura adicional

  • Azzalini, Adelchi (1996). "Verosimilitud". Inferencia estadística basada en la verosimilitud . Chapman y Hall. pp. 17–50. ISBN 0-412-60650-X.
  • Boos, Dennis D.; Stefanski, LA (2013). "Construcción y estimación de verosimilitud". Inferencia estadística esencial: teoría y métodos . Nueva York: Springer. págs. 27–124. doi :10.1007/978-1-4614-4818-1_2. ISBN . 978-1-4614-4817-4.
  • Edwards, AWF (1992) [1972]. Probabilidad (edición ampliada). Johns Hopkins University Press . ISBN 0-8018-4443-6.
  • King, Gary (1989). "El modelo de verosimilitud de la inferencia". Metodología política unificadora: la teoría de la verosimilitud de la inferencia estadística . Cambridge University Press. págs. 59–94. ISBN 0-521-36697-6.
  • Richard, Mark; Vecer, Jan (1 de febrero de 2021). "Pruebas de eficiencia de los mercados de predicción: enfoque martingala, razón de verosimilitud y análisis factorial de Bayes". Riesgos . 9 (2): 31. doi : 10.3390/risks9020031 . hdl : 10419/258120 .
  • Lindsey, JK (1996). "Verosimilitud". Inferencia estadística paramétrica . Oxford University Press. págs. 69–139. ISBN 0-19-852359-9.
  • Rohde, Charles A. (2014). Inferencia estadística introductoria con la función de verosimilitud . Berlín: Springer. ISBN 978-3-319-10460-7.
  • Royall, Richard (1997). Evidencia estadística: un paradigma de probabilidad . Londres: Chapman & Hall. ISBN 0-412-04411-0.
  • Ward, Michael D. ; Ahlquist, John S. (2018). "La función de verosimilitud: un análisis más profundo". Máxima verosimilitud para las ciencias sociales: estrategias de análisis . Cambridge University Press . págs. 21–28. ISBN 978-1-316-63682-4.
  • Función de verosimilitud en Planetmath
  • "Log-verosimilitud". Statlect .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Likelihood_function&oldid=1235708632"