Modelamos un conjunto de observaciones como una muestra aleatoria de una distribución de probabilidad conjunta desconocida que se expresa en términos de un conjunto de parámetros . El objetivo de la estimación de máxima verosimilitud es determinar los parámetros para los cuales los datos observados tienen la probabilidad conjunta más alta. Escribimos los parámetros que gobiernan la distribución conjunta como un vector de modo que esta distribución caiga dentro de una familia paramétrica donde se denomina espacio de parámetros , un subconjunto de dimensión finita del espacio euclidiano . La evaluación de la densidad conjunta en la muestra de datos observados da una función de valor real,
El objetivo de la estimación de máxima verosimilitud es encontrar los valores de los parámetros del modelo que maximizan la función de verosimilitud en el espacio de parámetros, [6] es decir
Intuitivamente, esto selecciona los valores de los parámetros que hacen que los datos observados sean más probables. El valor específico que maximiza la función de verosimilitud se denomina estimación de máxima verosimilitud. Además, si la función así definida es medible , entonces se denomina estimador de máxima verosimilitud . Generalmente es una función definida sobre el espacio muestral , es decir, tomando una muestra dada como su argumento. Una condición suficiente pero no necesaria para su existencia es que la función de verosimilitud sea continua sobre un espacio de parámetros que sea compacto . [7] Para un abierto, la función de verosimilitud puede aumentar sin alcanzar nunca un valor supremo.
Como el logaritmo es una función monótona , el máximo de ocurre en el mismo valor de como lo hace el máximo de [8] Si es diferenciable en condiciones suficientes para la ocurrencia de un máximo (o un mínimo) son
conocidas como ecuaciones de verosimilitud. Para algunos modelos, estas ecuaciones se pueden resolver explícitamente, pero en general no se conoce ni está disponible ninguna solución cerrada para el problema de maximización, y solo se puede encontrar una MLE mediante optimización numérica . Otro problema es que en muestras finitas, pueden existir múltiples raíces para las ecuaciones de verosimilitud. [9] Si la raíz identificada de las ecuaciones de verosimilitud es de hecho un máximo (local) depende de si la matriz de derivadas parciales y parciales cruzadas de segundo orden, la llamada matriz hessiana
donde es una función de valor vectorial que se asigna a Estimar el parámetro verdadero que pertenece a entonces, como cuestión práctica, significa encontrar el máximo de la función de verosimilitud sujeta a la restricción
En teoría, el enfoque más natural para este problema de optimización restringida es el método de sustitución, que consiste en "rellenar" las restricciones de un conjunto de tal manera que sea una función biunívoca de a sí mismo, y repararmetrizar la función de verosimilitud estableciendo [12] Debido a la equivariancia del estimador de máxima verosimilitud, las propiedades del MLE también se aplican a las estimaciones restringidas. [13] Por ejemplo, en una distribución normal multivariada , la matriz de covarianza debe ser definida positiva ; esta restricción se puede imponer reemplazando donde es una matriz triangular superior real y es su transpuesta . [14]
En la práctica, las restricciones se imponen generalmente utilizando el método de Lagrange que, dadas las restricciones definidas anteriormente, conduce a las ecuaciones de probabilidad restringida.
y
donde es un vector columna de multiplicadores de Lagrange y es la matriz jacobiana k × r de derivadas parciales. [12] Naturalmente, si las restricciones no son vinculantes en el máximo, los multiplicadores de Lagrange deberían ser cero. [15] Esto a su vez permite una prueba estadística de la "validez" de la restricción, conocida como la prueba del multiplicador de Lagrange .
Estimación de máxima verosimilitud no paramétrica
La estimación de máxima verosimilitud no paramétrica se puede realizar utilizando la verosimilitud empírica .
siendo este el análogo de muestra de la log-verosimilitud esperada , donde esta expectativa se toma con respecto a la densidad real.
Los estimadores de máxima verosimilitud no tienen propiedades óptimas para muestras finitas, en el sentido de que (cuando se evalúan en muestras finitas) otros estimadores pueden tener una mayor concentración alrededor del valor verdadero del parámetro. [16] Sin embargo, al igual que otros métodos de estimación, la estimación de máxima verosimilitud posee una serie de propiedades limitantes atractivas : A medida que el tamaño de la muestra aumenta hasta el infinito, las secuencias de estimadores de máxima verosimilitud tienen estas propiedades:
Consistencia : la secuencia de MLE converge en probabilidad al valor que se está estimando.
Equivarianza : Si es el estimador de máxima verosimilitud para , y si es una transformada biyectiva de , entonces el estimador de máxima verosimilitud para es . La propiedad de equivarianza se puede generalizar a transformadas no biyectivas, aunque se aplica en ese caso al máximo de una función de verosimilitud inducida que no es la verosimilitud verdadera en general.
Eficiencia de segundo orden después de la corrección por sesgo.
Consistencia
En las condiciones que se describen a continuación, el estimador de máxima verosimilitud es consistente . La consistencia significa que si los datos fueron generados por y tenemos un número suficientemente grande de observaciones n , entonces es posible encontrar el valor de θ 0 con precisión arbitraria. En términos matemáticos, esto significa que cuando n tiende a infinito, el estimador converge en probabilidad a su valor verdadero:
En condiciones ligeramente más fuertes, el estimador converge casi con seguridad (o fuertemente ):
En aplicaciones prácticas, los datos nunca son generados por . Más bien, es un modelo, a menudo en forma idealizada, del proceso generado por los datos. Es un aforismo común en estadística que todos los modelos son incorrectos . Por lo tanto, la consistencia verdadera no ocurre en aplicaciones prácticas. Sin embargo, la consistencia a menudo se considera una propiedad deseable para un estimador.
Para establecer la coherencia son suficientes las siguientes condiciones: [17]
En otras palabras, los distintos valores de los parámetros θ corresponden a distintas distribuciones dentro del modelo. Si esta condición no se cumpliera, habría algún valor θ 1 tal que θ 0 y θ 1 generarían una distribución idéntica de los datos observables. En ese caso, no seríamos capaces de distinguir entre estos dos parámetros ni siquiera con una cantidad infinita de datos: estos parámetros habrían sido observacionalmente equivalentes .
La condición de identificación es absolutamente necesaria para que el estimador ML sea consistente. Cuando se cumple esta condición, la función de verosimilitud límite ℓ ( θ |·) tiene un máximo global único en θ 0 .
Compacidad: el espacio de parámetros Θ del modelo es compacto .
La condición de identificación establece que la probabilidad logarítmica tiene un máximo global único. La compacidad implica que la probabilidad no puede acercarse al valor máximo arbitrariamente cerca de algún otro punto (como se demuestra, por ejemplo, en la imagen de la derecha).
La compacidad es sólo una condición suficiente y no una condición necesaria. La compacidad puede sustituirse por otras condiciones, como:
tanto la concavidad de la función de log-verosimilitud como la compacidad de algunos conjuntos de nivel superior (no vacíos) de la función de log-verosimilitud, o
existencia de un vecindario compacto N de θ 0 tal que fuera de N la función de log-verosimilitud es menor que el máximo en al menos algún ε > 0 .
Continuidad: la función ln f ( x | θ ) es continua en θ para casi todos los valores de x :
La continuidad aquí puede ser reemplazada con una condición ligeramente más débil de semicontinuidad superior .
Dominancia: existe D ( x ) integrable respecto de la distribución f ( x | θ 0 ) tal que
Por la ley uniforme de los grandes números , la condición de dominancia junto con la continuidad establecen la convergencia uniforme en probabilidad de la log-verosimilitud:
La condición de dominancia se puede emplear en el caso de observaciones iid . En el caso no iid, la convergencia uniforme en probabilidad se puede comprobar demostrando que la secuencia es estocásticamente equicontinua . Si se quiere demostrar que el estimador ML converge a θ 0 casi con seguridad , entonces se debe imponer una condición más fuerte de convergencia uniforme casi con seguridad:
Además, si (como se supuso anteriormente) los datos fueron generados por , entonces, bajo ciertas condiciones, también se puede demostrar que el estimador de máxima verosimilitud converge en distribución a una distribución normal. Específicamente, [18]
El estimador de máxima verosimilitud selecciona el valor del parámetro que da a los datos observados la mayor probabilidad posible (o densidad de probabilidad, en el caso continuo). Si el parámetro consta de varios componentes, entonces definimos sus estimadores de máxima verosimilitud separados, como el componente correspondiente de la VME del parámetro completo. En consonancia con esto, si es la VME para , y si es cualquier transformación de , entonces la VME para es por definición [19]
La MLE también es equivariante con respecto a ciertas transformaciones de los datos. Si donde es uno a uno y no depende de los parámetros a estimar, entonces las funciones de densidad satisfacen
y, por lo tanto, las funciones de probabilidad y difieren solo por un factor que no depende de los parámetros del modelo.
Por ejemplo, los parámetros MLE de la distribución log-normal son los mismos que los de la distribución normal ajustada al logaritmo de los datos.
Eficiencia
Como se supuso anteriormente, si los datos se generaron para entonces bajo ciertas condiciones, también se puede demostrar que el estimador de máxima verosimilitud converge en distribución a una distribución normal. Es √ n -consistente y asintóticamente eficiente, lo que significa que alcanza el límite de Cramér–Rao . Específicamente, [18]
En particular, significa que el sesgo del estimador de máxima verosimilitud es igual a cero hasta el orden 1/√n .
Eficiencia de segundo orden después de la corrección por sesgo
Sin embargo, cuando consideramos los términos de orden superior en la expansión de la distribución de este estimador, resulta que θ mle tiene un sesgo de orden 1 ⁄ n . Este sesgo es igual a (componente por componente) [20]
donde (con superíndices) denota el componente ( j,k )-ésimo de la matriz de información de Fisher inversa , y
Utilizando estas fórmulas es posible estimar el sesgo de segundo orden del estimador de máxima verosimilitud y corregir ese sesgo restándolo:
Este estimador es imparcial hasta los términos del pedido .1/norte , y se llama estimador de máxima verosimilitud corregido por sesgo .
Este estimador corregido por sesgo es eficiente en el segundo orden (al menos dentro de la familia exponencial curva), lo que significa que tiene un error cuadrático medio mínimo entre todos los estimadores corregidos por sesgo de segundo orden, hasta los términos del orden1/número 2 Es posible continuar con este proceso, es decir, derivar el término de corrección de sesgo de tercer orden, y así sucesivamente. Sin embargo, el estimador de máxima verosimilitud no es eficiente en el tercer orden. [21]
donde es la distribución previa para el parámetro θ y donde es la probabilidad de los datos promediados sobre todos los parámetros. Dado que el denominador es independiente de θ , el estimador bayesiano se obtiene maximizando con respecto a θ . Si suponemos además que la distribución previa es uniforme, el estimador bayesiano se obtiene maximizando la función de verosimilitud . Por lo tanto, el estimador bayesiano coincide con el estimador de máxima verosimilitud para una distribución previa uniforme .
Aplicación de la estimación de máxima verosimilitud en la teoría de decisiones de Bayes
En muchas aplicaciones prácticas del aprendizaje automático , la estimación de máxima verosimilitud se utiliza como modelo para la estimación de parámetros.
La teoría de la decisión bayesiana trata de diseñar un clasificador que minimice el riesgo total esperado, especialmente cuando los costos (la función de pérdida) asociados con diferentes decisiones son iguales, el clasificador minimiza el error en toda la distribución. [22]
Por lo tanto, la regla de decisión de Bayes se enuncia como
"decidir si de lo contrario decidir "
donde son predicciones de diferentes clases. Desde una perspectiva de minimización de errores, también se puede expresar como
y si asumimos además la función de pérdida cero o uno, que es la misma pérdida para todos los errores, la regla de decisión de Bayes se puede reformular como:
Relación con la minimización de la divergencia de Kullback-Leibler y la entropía cruzada
Encontrar que maximiza la probabilidad es asintóticamente equivalente a encontrar que define una distribución de probabilidad ( ) que tiene una distancia mínima, en términos de divergencia de Kullback–Leibler , a la distribución de probabilidad real a partir de la cual se generaron nuestros datos (es decir, generada por ). [23] En un mundo ideal, P y Q son lo mismo (y lo único desconocido es que define P), pero incluso si no lo son y el modelo que usamos está mal especificado, aún así el MLE nos dará la distribución "más cercana" (dentro de la restricción de un modelo Q que depende de ) a la distribución real . [24]
Prueba.
Para simplificar la notación, supongamos que P = Q. Sea n i.id muestras de datos de alguna probabilidad , que tratamos de estimar encontrando que maximizará la probabilidad usando , entonces:
Dónde . El uso de h ayuda a ver cómo estamos usando la ley de los grandes números para pasar del promedio de h ( x ) a la expectativa de este usando la ley del estadístico inconsciente . Las primeras transiciones tienen que ver con las leyes del logaritmo y ese hallazgo que maximiza alguna función también será el que maximice alguna transformación monótona de esa función (es decir: sumar/multiplicar por una constante).
Dado que la entropía cruzada es simplemente la entropía de Shannon más la divergencia KL, y dado que la entropía de es constante, entonces la MLE también minimiza asintóticamente la entropía cruzada. [25]
Ejemplos
Distribución uniforme discreta
Consideremos un caso en el que n billetes numerados del 1 al n se colocan en una caja y se selecciona uno al azar ( véase distribución uniforme ); por tanto, el tamaño de la muestra es 1. Si n es desconocido, entonces el estimador de máxima verosimilitud de n es el número m del billete sorteado. (La verosimilitud es 0 para n < m , 1 ⁄ n para n ≥ m , y es máxima cuando n = m . Nótese que la estimación de máxima verosimilitud de n se produce en el extremo inferior de los valores posibles { m , m + 1, ...}, en lugar de en algún lugar en el "medio" del rango de valores posibles, lo que daría lugar a un sesgo menor). El valor esperado del número m del billete sorteado, y por tanto el valor esperado de , es ( n + 1)/2. Como resultado, con un tamaño de muestra de 1, el estimador de máxima verosimilitud para n subestimará sistemáticamente n en ( n − 1)/2.
Distribución discreta, espacio de parámetros finitos
Supongamos que se desea determinar qué tan sesgada es una moneda injusta . Llamemos p a la probabilidad de que salga cara . El objetivo entonces es determinar p .
Supongamos que la moneda se lanza 80 veces: es decir, la muestra podría ser algo como x 1 = H, x 2 = T, ..., x 80 = T, y se observa el recuento del número de caras "H".
La probabilidad de que salga cruz es 1 − p (por lo que aquí p es θ arriba). Supongamos que el resultado es 49 caras y 31 cruces , y supongamos que la moneda fue sacada de una caja que contiene tres monedas: una que da cara con probabilidad p = 1 ⁄ 3 , una que da cara con probabilidad p = 1 ⁄ 2 y otra que da cara con probabilidad p = 2 ⁄ 3 . Las monedas han perdido sus etiquetas, por lo que se desconoce cuál era. Usando la estimación de máxima verosimilitud, se puede encontrar la moneda que tiene la mayor probabilidad, dados los datos que se observaron. Al usar la función de masa de probabilidad de la distribución binomial con un tamaño de muestra igual a 80, un número de éxitos igual a 49 pero para diferentes valores de p (la "probabilidad de éxito"), la función de verosimilitud (definida a continuación) toma uno de tres valores:
La probabilidad se maximiza cuando p = 2 ⁄ 3 , por lo que esta es la estimación de máxima probabilidad para p .
Distribución discreta, espacio de parámetros continuo
Ahora supongamos que sólo había una moneda pero su p podría haber sido cualquier valor 0 ≤ p ≤ 1 . La función de probabilidad a maximizar es
y la maximización es sobre todos los valores posibles 0 ≤ p ≤ 1 .
Una forma de maximizar esta función es diferenciando con respecto a p y estableciendo en cero:
Este es un producto de tres términos. El primer término es 0 cuando p = 0. El segundo es 0 cuando p = 1. El tercero es cero cuando p = 49 ⁄ 80. La solución que maximiza la probabilidad es claramente p = 49 ⁄ 80 (ya que p = 0 y p = 1 dan como resultado una probabilidad de 0). Por lo tanto, el estimador de máxima verosimilitud para p es 49 ⁄ 80 .
Este resultado se puede generalizar fácilmente sustituyendo una letra como s en lugar de 49 para representar el número observado de "éxitos" de nuestros ensayos de Bernoulli , y una letra como n en lugar de 80 para representar el número de ensayos de Bernoulli. Exactamente el mismo cálculo produce s ⁄ n , que es el estimador de máxima verosimilitud para cualquier secuencia de n ensayos de Bernoulli que resulte en s "éxitos".
Distribución continua, espacio de parámetros continuo
Esta familia de distribuciones tiene dos parámetros: θ = ( μ , σ ) ; por lo que maximizamos la verosimilitud, , sobre ambos parámetros simultáneamente o, si es posible, individualmente.
Dado que la función logarítmica es una función continua estrictamente creciente en el rango de probabilidad, los valores que maximizan la probabilidad también maximizarán su logaritmo (la log-verosimilitud en sí no es necesariamente estrictamente creciente). La log-verosimilitud se puede escribir de la siguiente manera:
Este es en efecto el máximo de la función, ya que es el único punto de inflexión en μ y la segunda derivada es estrictamente menor que cero. Su valor esperado es igual al parámetro μ de la distribución dada,
lo que significa que el estimador de máxima verosimilitud es imparcial.
De manera similar diferenciamos la log-verosimilitud con respecto a σ y la igualamos a cero:
Lo cual se resuelve mediante
Insertando la estimación que obtenemos
Para calcular su valor esperado, es conveniente reescribir la expresión en términos de variables aleatorias de media cero ( error estadístico ) . Expresando la estimación en estas variables se obtiene
Simplificando la expresión anterior, utilizando los hechos de que y , nos permite obtener
Esto significa que el estimador está sesgado para . También se puede demostrar que está sesgado para , pero que tanto como son consistentes.
Formalmente decimos que el estimador de máxima verosimilitud para es
En este caso, los MLE podrían obtenerse individualmente. En general, esto puede no ser así y los MLE tendrían que obtenerse simultáneamente.
La verosimilitud logarítmica normal en su máximo adopta una forma particularmente simple:
Puede darse el caso de que las variables estén correlacionadas, es decir, no sean independientes. Dos variables aleatorias y son independientes solo si su función de densidad de probabilidad conjunta es el producto de las funciones de densidad de probabilidad individuales, es decir
Supongamos que se construye un vector gaussiano de orden n a partir de variables aleatorias , donde cada variable tiene medias dadas por . Además, sea la matriz de covarianza denotada por . La función de densidad de probabilidad conjunta de estas n variables aleatorias sigue entonces una distribución normal multivariada dada por:
En el caso bivariado , la función de densidad de probabilidad conjunta viene dada por:
En este y otros casos donde existe una función de densidad conjunta, la función de verosimilitud se define como anteriormente, en la sección " principios ", utilizando esta densidad.
Ejemplo
son los recuentos en celdas/casillas de 1 a m; cada casilla tiene una probabilidad diferente (piense en que las casillas son más grandes o más pequeñas) y fijamos la cantidad de bolas que caen en : . La probabilidad de cada casilla es , con una restricción: . Este es un caso en el que las s no son independientes, la probabilidad conjunta de un vector se llama multinomial y tiene la forma:
Cada casilla tomada por separado contra todas las demás casillas es un binomio y este es una extensión del mismo.
La probabilidad logarítmica de esto es:
Hay que tener en cuenta la restricción y utilizar los multiplicadores de Lagrange:
Al plantear que todas las derivadas son 0, se obtiene la estimación más natural
Maximizar la verosimilitud logarítmica, con y sin restricciones, puede ser un problema irresoluble en forma cerrada, entonces tenemos que usar procedimientos iterativos.
Procedimientos iterativos
Salvo casos especiales, las ecuaciones de probabilidad
no se pueden resolver explícitamente para un estimador . En cambio, deben resolverse iterativamente : a partir de una estimación inicial de (por ejemplo ), se busca obtener una secuencia convergente . Hay muchos métodos disponibles para este tipo de problema de optimización , [26] [27] pero los más utilizados son algoritmos basados en una fórmula de actualización de la forma
donde el vector indica la dirección de descenso del "paso" r ésimo, y el escalar captura la "longitud del paso", [28] [29] también conocida como tasa de aprendizaje . [30]
(Nota: aquí se trata de un problema de maximización, por lo que el signo antes del gradiente está invertido)
que sea lo suficientemente pequeño para la convergencia y
El método de descenso de gradiente requiere calcular el gradiente en la iteración r-ésima, pero no es necesario calcular la inversa de la derivada de segundo orden, es decir, la matriz hessiana. Por lo tanto, es computacionalmente más rápido que el método de Newton-Raphson.
BFGS también proporciona una solución que es simétrica y definida positiva:
dónde
No se garantiza que el método BFGS converja a menos que la función tenga una expansión de Taylor cuadrática cercana a un óptimo. Sin embargo, BFGS puede tener un rendimiento aceptable incluso para casos de optimización no uniforme
Aunque son populares, los métodos cuasi-Newton pueden converger a un punto estacionario que no es necesariamente un máximo local o global, [33] sino más bien un mínimo local o un punto de silla . Por lo tanto, es importante evaluar la validez de la solución obtenida para las ecuaciones de verosimilitud, verificando que la hessiana, evaluada en la solución, sea definida negativa y bien condicionada . [34]
La estimación de máxima verosimilitud finalmente trascendió la justificación heurística en una prueba publicada por Samuel S. Wilks en 1938, ahora llamada teorema de Wilks . [39] El teorema muestra que el error en el logaritmo de los valores de verosimilitud para estimaciones a partir de múltiples observaciones independientes se distribuye asintóticamente χ 2 , lo que permite la determinación conveniente de una región de confianza alrededor de cualquier estimación de los parámetros. La única parte difícil de la prueba de Wilks depende del valor esperado de la matriz de información de Fisher , que es proporcionada por un teorema probado por Fisher. [40] Wilks continuó mejorando la generalidad del teorema a lo largo de su vida, con su prueba más general publicada en 1962. [41]
Varios autores han proporcionado revisiones del desarrollo de la estimación de máxima verosimilitud. [42] [43] [44] [45] [46] [47] [48] [49]
Estimador de extremo : una clase más general de estimadores a la que pertenece MLE
Información de Fisher : matriz de información, su relación con la matriz de covarianza de las estimaciones de ML
Error cuadrático medio : una medida de lo "bueno" que es un estimador de un parámetro de distribución (ya sea el estimador de máxima verosimilitud o algún otro estimador)
RANSAC : un método para estimar parámetros de un modelo matemático dados datos que contienen valores atípicos
Teorema de Rao-Blackwell : produce un proceso para encontrar el mejor estimador imparcial posible (en el sentido de tener un error cuadrático medio mínimo ); el MLE suele ser un buen punto de partida para el proceso
Teorema de Wilks : proporciona un medio para estimar el tamaño y la forma de la región de estimaciones aproximadamente igualmente probables para los valores de los parámetros de la población, utilizando la información de una sola muestra, utilizando una distribución de chi-cuadrado.
Otros métodos de estimación
Método generalizado de momentos : métodos relacionados con la ecuación de verosimilitud en la estimación de máxima verosimilitud
Estimador M : un enfoque utilizado en estadísticas robustas
Estimador máximo a posteriori (MAP): para contrastar la forma de calcular estimadores cuando se postula conocimiento previo
Máxima verosimilitud restringida : una variación que utiliza una función de verosimilitud calculada a partir de un conjunto de datos transformados
Referencias
^ Rossi, Richard J. (2018). Estadística matemática: una introducción a la inferencia basada en la verosimilitud . Nueva York: John Wiley & Sons. p. 227. ISBN978-1-118-77104-4.
^ Hendry, David F .; Nielsen, Bent (2007). Modelado econométrico: un enfoque de verosimilitud . Princeton: Princeton University Press. ISBN978-0-691-13128-3.
^ Chambers, Raymond L.; Steel, David G.; Wang, Suojin; Welsh, Alan (2012). Estimación de máxima verosimilitud para encuestas por muestreo . Boca Raton: CRC Press. ISBN978-1-58488-632-7.
^ Ward, Michael Don ; Ahlquist, John S. (2018). Máxima verosimilitud para las ciencias sociales: estrategias para el análisis . Nueva York: Cambridge University Press. ISBN978-1-107-18582-1.
^ Press, WH; Flannery, BP; Teukolsky, SA; Vetterling, WT (1992). "Mínimos cuadrados como estimador de máxima verosimilitud". Recetas numéricas en FORTRAN: el arte de la computación científica (2.ª ed.). Cambridge: Cambridge University Press. págs. 651–655. ISBN0-521-43064-X.
^ Myung, IJ (2003). "Tutorial sobre estimación de máxima verosimilitud". Revista de Psicología Matemática . 47 (1): 90–100. doi :10.1016/S0022-2496(02)00028-7.
^ Gourieroux, Christian; Monfort, Alain (1995). Modelos estadísticos y econométricos . Cambridge University Press. pág. 161. ISBN0-521-40551-3.
^ Kane, Edward J. (1968). Estadísticas económicas y econometría . Nueva York, NY: Harper & Row. pág. 179.
^ Small, Christoper G.; Wang, Jinfang (2003). "Trabajar con raíces". Métodos numéricos para ecuaciones de estimación no lineales . Oxford University Press. págs. 74–124. ISBN0-19-850688-0.
^ Kass, Robert E.; Vos, Paul W. (1997). Fundamentos geométricos de la inferencia asintótica. Nueva York, NY: John Wiley & Sons. p. 14. ISBN0-471-82668-5.
^ Papadopoulos, Alecos (25 de septiembre de 2013). "¿Por qué siempre ponemos log() antes de la función de densidad de probabilidad conjunta cuando usamos MLE (estimación de máxima verosimilitud)?". Stack Exchange .
^ ab Silvey, SD (1975). Inferencia estadística. Londres, Reino Unido: Chapman and Hall. pág. 79. ISBN0-412-13820-4.
^ Olive, David (2004). "¿El modelo de probabilidad máxima maximiza la probabilidad?" (PDF) . Southern Illinois University .
^ Schwallie, Daniel P. (1985). "Estimadores de covarianza de máxima verosimilitud definidos positivos". Economics Letters . 17 (1–2): 115–117. doi :10.1016/0165-1765(85)90139-9.
^ Magnus, Jan R. (2017). Introducción a la teoría de la econometría . Ámsterdam: VU University Press. pp. 64–65. ISBN978-90-8659-766-6.
^ Pfanzagl (1994, pág. 206)
^ Por el teorema 2.5 en Newey, Whitney K.; McFadden, Daniel (1994). "Capítulo 36: Estimación de muestras grandes y prueba de hipótesis". En Engle, Robert; McFadden, Dan (eds.). Handbook of Econometrics, vol. 4. Elsevier Science. págs. 2111–2245. ISBN978-0-444-88766-5.
^ ab Por el teorema 3.3 en Newey, Whitney K.; McFadden, Daniel (1994). "Capítulo 36: Estimación de muestras grandes y prueba de hipótesis". En Engle, Robert; McFadden, Dan (eds.). Handbook of Econometrics, vol. 4. Elsevier Science. págs. 2111–2245. ISBN978-0-444-88766-5.
^ Zacks, Shelemyahu (1971). La teoría de la inferencia estadística . Nueva York: John Wiley & Sons. pág. 223. ISBN0-471-98103-6.
^ Kano, Yutaka (1996). "La eficiencia de tercer orden implica una eficiencia de cuarto orden". Revista de la Sociedad Japonesa de Estadística . 26 : 101–117. doi : 10.14490/jjss1995.26.101 .
^ Christensen, Henrikt I. "Reconocimiento de patrones" (PDF) (conferencia). Teoría de la decisión bayesiana - CS 7616. Georgia Tech.
^ cmplx96 (https://stats.stackexchange.com/users/177679/cmplx96), divergencia de Kullback–Leibler, URL (versión: 2017-11-18): https://stats.stackexchange.com/q/314472 (en el video de YouTube, mira los minutos 13 a 25)
^ Introducción a la inferencia estadística | Stanford (Clase 16 — MLE bajo especificación incorrecta del modelo)
^ Sycorax dice que hay que restablecer a Monica (https://stats.stackexchange.com/users/22311/sycorax-says-reinstate-monica), la relación entre maximizar la probabilidad y minimizar la entropía cruzada, URL (versión: 2019-11-06): https://stats.stackexchange.com/q/364237
^ Fletcher, R. (1987). Métodos prácticos de optimización (segunda edición). Nueva York, NY: John Wiley & Sons. ISBN0-471-91547-5.
^ Nocedal, Jorge ; Wright, Stephen J. (2006). Optimización numérica (segunda edición). Nueva York, NY: Springer. ISBN0-387-30303-0.
^ Daganzo, Carlos (1979). Probit multinomial: la teoría y su aplicación a la previsión de la demanda . Nueva York: Academic Press. pp. 61–78. ISBN0-12-201150-3.
^ Gould, William; Pitblado, Jeffrey; Poi, Brian (2010). Estimación de máxima verosimilitud con Stata (cuarta edición). College Station: Stata Press. pp. 13–20. ISBN978-1-59718-078-8.
^ Murphy, Kevin P. (2012). Aprendizaje automático: una perspectiva probabilística. Cambridge: MIT Press. pág. 247. ISBN978-0-262-01802-9.
^ Sargan, Denis (1988). "Métodos de optimización numérica". Apuntes de clase sobre teoría econométrica avanzada . Oxford: Basil Blackwell. pp. 161–169. ISBN0-631-14956-2.
^ Véase el teorema 10.1 en Avriel, Mordecai (1976). Programación no lineal: análisis y métodos. Englewood Cliffs, NJ: Prentice-Hall. pp. 293–294. ISBN978-0-486-43227-4.
^ Gill, Philip E.; Murray, Walter; Wright, Margaret H. (1981). Optimización práctica . Londres, Reino Unido: Academic Press. págs. 312-313. ISBN.0-12-283950-1.
^ Edgeworth, Francis Y. (septiembre de 1908). "Sobre los errores probables de las constantes de frecuencia". Journal of the Royal Statistical Society . 71 (3): 499–512. doi :10.2307/2339293. JSTOR 2339293.
^ Edgeworth, Francis Y. (diciembre de 1908). "Sobre los errores probables de las constantes de frecuencia". Journal of the Royal Statistical Society . 71 (4): 651–678. doi :10.2307/2339378. JSTOR 2339378.
^ Hald, Anders (1999). "Sobre la historia de la máxima verosimilitud en relación con la probabilidad inversa y los mínimos cuadrados". Ciencia estadística . 14 (2): 214–222. ISSN 0883-4237.
^ Wilks, SS (1938). "La distribución de muestras grandes de la razón de verosimilitud para probar hipótesis compuestas". Anales de estadística matemática . 9 : 60–62. doi : 10.1214/aoms/1177732360 .
^ Owen, Art B. (2001). Probabilidad empírica . Londres, Reino Unido; Boca Raton, FL: Chapman & Hall; CRC Press. ISBN978-1-58488-071-4.
^ Wilks, Samuel S. (1962). Estadística matemática . Nueva York, NY: John Wiley & Sons. ISBN978-0-471-94650-2.
^ Savage, Leonard J. (1976). "Sobre la relectura de RA Fisher". Anales de Estadística . 4 (3): 441–500. doi : 10.1214/aos/1176343456 . JSTOR 2958221.
^ Pratt, John W. (1976). "FY Edgeworth y RA Fisher sobre la eficiencia de la estimación de máxima verosimilitud". Anales de estadística . 4 (3): 501–514. doi : 10.1214/aos/1176343457 . JSTOR 2958222.
^ Stigler, Stephen M. (1978). "Francis Ysidro Edgeworth, estadístico". Revista de la Royal Statistical Society, Serie A . 141 (3): 287–322. doi :10.2307/2344804. JSTOR 2344804.
^ Stigler, Stephen M. (1986). La historia de la estadística: la medición de la incertidumbre antes de 1900. Harvard University Press. ISBN978-0-674-40340-6.
^ Stigler, Stephen M. (1999). Estadísticas sobre la mesa: la historia de los conceptos y métodos estadísticos . Harvard University Press. ISBN978-0-674-83601-3.
^ Hald, Anders (1998). Una historia de la estadística matemática desde 1750 hasta 1930. Nueva York, NY: Wiley. ISBN978-0-471-17912-2.
^ Hald, Anders (1999). "Sobre la historia de la máxima verosimilitud en relación con la probabilidad inversa y los mínimos cuadrados". Ciencia estadística . 14 (2): 214–222. doi : 10.1214/ss/1009212248 . JSTOR 2676741.
^ Aldrich, John (1997). "RA Fisher y la creación de la máxima verosimilitud 1912-1922". Ciencia estadística . 12 (3): 162-176. doi : 10.1214/ss/1030037906 . MR 1617519.
Lectura adicional
Cramer, JS (1986). Aplicaciones econométricas de los métodos de máxima verosimilitud. Nueva York, NY: Cambridge University Press. ISBN0-521-25317-9.
Eliason, Scott R. (1993). Estimación de máxima verosimilitud: lógica y práctica . Newbury Park: Sage. ISBN0-8039-4107-2.
King, Gary (1989). Metodología política unificadora: la teoría de la verosimilitud de la inferencia estadística . Cambridge University Press. ISBN0-521-36697-6.
Le Cam, Lucien (1990). "Máxima verosimilitud: una introducción". ISI Review . 58 (2): 153–171. doi :10.2307/1403464. JSTOR 1403464.
Magnus, Jan R. (2017). "Máxima verosimilitud". Introducción a la teoría de la econometría . Ámsterdam, Países Bajos: VU University Press. pp. 53–68. ISBN978-90-8659-766-6.
Millar, Russell B. (2011). Estimación e inferencia de máxima verosimilitud . Hoboken, NJ: Wiley. ISBN978-0-470-09482-2.
Pickles, Andrew (1986). Introducción al análisis de verosimilitud . Norwich: WH Hutchins & Sons. ISBN0-86094-190-6.
Severini, Thomas A. (2000). Métodos de verosimilitud en estadística . Nueva York, NY: Oxford University Press. ISBN0-19-850650-3.
Ward, Michael D .; Ahlquist, John S. (2018). Máxima verosimilitud para las ciencias sociales: estrategias para el análisis . Cambridge University Press. ISBN978-1-316-63682-4.
Enlaces externos
Tilevik, Andreas (2022). Máxima verosimilitud frente a mínimos cuadrados en regresión lineal (vídeo)
Sargent, Thomas ; Stachurski, John. "Estimación de máxima verosimilitud". Economía cuantitativa con Python .
Toomet, Ott; Henningsen, Arne (19 de mayo de 2019). "maxLik: un paquete para estimación de máxima verosimilitud en R".
Lesser, Lawrence M. (2007). "Letra de la canción 'MLE'". Ciencias Matemáticas / Facultad de Ciencias. Universidad de Texas . El Paso, TX . Consultado el 6 de marzo de 2021 .