Esta diferenciación produce un vector de fila en cada valor de y , e indica la sensibilidad de la probabilidad (su derivada normalizada por su valor).
En la literatura más antigua, [ cita requerida ] "puntuación lineal" puede referirse a la puntuación con respecto a la traducción infinitesimal de una densidad dada. Esta convención surge de una época en la que el parámetro principal de interés era la media o la mediana de una distribución. En este caso, la probabilidad de una observación se da por una densidad de la forma [ aclaración necesaria ] . La "puntuación lineal" se define entonces como
Propiedades
Significar
Si bien la puntuación es una función de , también depende de las observaciones en las que se evalúa la función de verosimilitud y, en vista del carácter aleatorio del muestreo, se puede tomar su valor esperado sobre el espacio muestral . Bajo ciertas condiciones de regularidad en las funciones de densidad de las variables aleatorias, [3] [4] el valor esperado de la puntuación, evaluada en el valor verdadero del parámetro , es cero. Para ver esto, reescriba la función de verosimilitud como una función de densidad de probabilidad , y denote el espacio muestral . Entonces:
Las condiciones de regularidad asumidas permiten el intercambio de derivada e integral (ver regla integral de Leibniz ), por lo tanto la expresión anterior puede reescribirse como [ aclaración necesaria ]
Vale la pena repetir el resultado anterior en palabras: el valor esperado de la puntuación, en el valor verdadero del parámetro, es cero. Por lo tanto, si uno tomara muestras repetidamente de alguna distribución y calculara repetidamente la puntuación, entonces el valor medio de las puntuaciones tendería a cero asintóticamente .
Diferencia
La varianza de la puntuación, , se puede derivar de la expresión anterior para el valor esperado.
Por lo tanto, la varianza de la puntuación es igual al valor esperado negativo de la matriz hessiana de la verosimilitud logarítmica. [5]
Esta última se conoce como información de Fisher y se escribe . Nótese que la información de Fisher no es una función de ninguna observación en particular, ya que la variable aleatoria se ha promediado. Este concepto de información es útil cuando se comparan dos métodos de observación de algún proceso aleatorio .
Ejemplos
Proceso de Bernoulli
Consideremos observar los primeros n ensayos de un proceso de Bernoulli y ver que A de ellos son éxitos y los B restantes son fracasos, donde la probabilidad de éxito es θ .
Entonces la probabilidad es
Entonces la puntuación es
Ahora podemos verificar que la expectativa de la puntuación es cero. Observando que la expectativa de A es nθ y la expectativa de B es n (1 − θ ) [recordemos que A y B son variables aleatorias], podemos ver que la expectativa de s es
También podemos comprobar la varianza de . Sabemos que A + B = n (por lo que B = n − A ) y la varianza de A es nθ (1 − θ ) por lo que la varianza de s es
Nótese que es una función de y la observación , por lo que, en general, no es una estadística . Sin embargo, en ciertas aplicaciones, como la prueba de puntuación , la puntuación se evalúa en un valor específico de (como un valor de hipótesis nula), en cuyo caso el resultado es una estadística. Intuitivamente, si el estimador restringido está cerca del máximo de la función de verosimilitud, la puntuación no debería diferir de cero en más de un error de muestreo . En 1948, CR Rao demostró por primera vez que el cuadrado de la puntuación dividido por la matriz de información sigue una distribución asintótica χ 2 bajo la hipótesis nula. [7]
lo que significa que la prueba de razón de verosimilitud puede entenderse como el área bajo la función de puntuación entre y . [8]
Correspondencia de puntuaciones (aprendizaje automático)
La correspondencia de puntuaciones describe el proceso de aplicación de algoritmos de aprendizaje automático (comúnmente redes neuronales ) para aproximar la función de puntuación de una distribución desconocida a partir de muestras finitas. La función aprendida puede luego usarse en modelos generativos para extraer nuevas muestras de . [9]
Puede resultar confuso que se haya utilizado la palabra puntuación para , ya que no es una función de verosimilitud ni tiene una derivada con respecto a los parámetros. Para obtener más información sobre esta definición, consulte el artículo de referencia. [10]
Historia
El término "función de puntuación" puede parecer inicialmente ajeno a su significado contemporáneo, que se centra en la derivada de la función de verosimilitud logarítmica en los modelos estadísticos. Esta aparente discrepancia se remonta a los orígenes históricos del término. El concepto de "función de puntuación" fue introducido por primera vez por el estadístico británico Ronald Fisher en su artículo de 1935 titulado "La detección de vínculos con anomalías 'dominantes'". [11] Fisher empleó el término en el contexto del análisis genético, específicamente para familias en las que uno de los padres tenía una anomalía genética dominante. Con el tiempo, la aplicación y el significado de la "función de puntuación" han evolucionado, divergiendo de su contexto original pero conservando sus principios fundamentales. [12] [13]
Fisher utilizó inicialmente el término en el contexto del análisis de los atributos genéticos en familias en las que un progenitor presentaba una anomalía genética. Clasificó a los hijos de esos padres en cuatro clases basándose en dos rasgos binarios: si habían heredado la anomalía o no, y su estado de cigosidad como homocigotos o heterocigotos. Fisher ideó un método para asignar a cada familia una "puntuación", calculada en función del número de hijos que caían en cada una de las cuatro categorías. Esta puntuación se utilizó para estimar lo que él denominó el "parámetro de ligamiento", que describía la probabilidad de que se heredara la anomalía genética. Fisher evaluó la eficacia de su regla de puntuación comparándola con una regla alternativa y con lo que denominó la "puntuación ideal". La puntuación ideal se definió como la derivada del logaritmo de la densidad de muestreo, como se menciona en la página 193 de su obra. [11]
El término "puntaje" evolucionó posteriormente a través de investigaciones posteriores, ampliándose notablemente más allá de la aplicación específica en genética que Fisher había abordado inicialmente. Varios autores adaptaron la metodología original de Fisher a contextos estadísticos más generalizados. En estas aplicaciones más amplias, el término "puntaje" o "puntaje eficiente" comenzó a referirse más comúnmente a la derivada de la función de log-verosimilitud del modelo estadístico en cuestión. Esta expansión conceptual fue influenciada significativamente por un artículo de 1948 de CR Rao, que introdujo "pruebas de puntaje eficiente" que empleaban la derivada de la función de log-verosimilitud. [14]
Así, lo que comenzó como un término especializado en el ámbito de la estadística genética ha evolucionado hasta convertirse en un concepto fundamental en la teoría estadística más amplia, a menudo asociado con la derivada de la función de log-verosimilitud.
Prueba de puntuación : prueba estadística basada en el gradiente de la función de verosimilitud
Algoritmo de puntuación : forma del método de Newton utilizado en estadísticaPages displaying wikidata descriptions as a fallback
Puntuación estándar : ¿Cuántas desviaciones estándar con respecto a la media hay en un dato observado?
Curva de soporte : función relacionada con la estadística y la teoría de la probabilidadPages displaying short descriptions of redirect targets
Notas
^ Informante en Enciclopedia de Matemáticas
^ Pickles, Andrew (1985). Introducción al análisis de verosimilitud. Norwich: WH Hutchins & Sons. pp. 24–29. ISBN0-86094-190-6.
^ Serfling, Robert J. (1980). Teoremas de aproximación de las estadísticas matemáticas . Nueva York: John Wiley & Sons. pág. 145. ISBN.0-471-02403-1.
^ Greenberg, Edward; Webster, Charles E. Jr. (1983). Econometría avanzada: un puente hacia la literatura. Nueva York: John Wiley & Sons. pág. 25. ISBN0-471-09077-8.
^ Steyerberg, EW; Vickers, AJ; Cook, NR; Gerds, T.; Gonen, M.; Obuchowski, N .; Pencina, MJ; Kattan, MW (2010). "Evaluación del desempeño de los modelos de predicción. Un marco para medidas tradicionales y novedosas". Epidemiología . 21 (1): 128–138. doi :10.1097/EDE.0b013e3181c30fb2. PMC 3575184 . PMID 20010215.
^ Rao, C. Radhakrishna (1948). "Pruebas de hipótesis estadísticas con muestras grandes relativas a varios parámetros con aplicaciones a problemas de estimación". Mathematical Proceedings of the Cambridge Philosophical Society . 44 (1): 50–57. Bibcode :1948PCPS...44...50R. doi :10.1017/S0305004100023987. S2CID 122382660.
^ Buse, A. (1982). "Las pruebas de razón de verosimilitud, de Wald y del multiplicador de Lagrange: una nota expositiva". The American Statistician . 36 (3a): 153–157. doi :10.1080/00031305.1982.10482817.
^ Canción de Yang; Jascha Sohl-Dickstein; Diederik P. Kingma; Abhishek Kumar; Stefano Ermón; Ben Poole (2020). "Modelado generativo basado en puntuaciones mediante ecuaciones diferenciales estocásticas". arXiv : 2011.13456 [cs.LG].
^ https://www.jmlr.org/papers/volume6/hyvarinen05a/hyvarinen05a.pdf [ URL básica PDF ]
^ ab Fisher, Ronald Aylmer. "La detección de vínculos con anomalías 'dominantes'". Anales de eugenesia 6.2 (1935): 187-201.
^ Ben (https://stats.stackexchange.com/users/173082/ben), Interpretación de "puntuación", URL (versión: 2019-04-17): https://stats.stackexchange.com/q/342374
^ Miller, Jeff. "Usos más antiguos conocidos de algunas de las palabras de las matemáticas (S)". Apuntes de historia de las matemáticas. Última revisión el 14 de abril de 2020. https://mathshistory.st-andrews.ac.uk/Miller/mathword/s/
^ Radhakrishna Rao, C. (1948). Pruebas de hipótesis estadísticas con muestras grandes sobre varios parámetros con aplicaciones a problemas de estimación. Mathematical Proceedings of the Cambridge Philosophical Society, 44(1), 50-57. doi:10.1017/S0305004100023987