Distribución logística generalizada

Nombre de varias familias diferentes de distribuciones de probabilidad.

El término distribución logística generalizada se utiliza como nombre para varias familias diferentes de distribuciones de probabilidad . Por ejemplo, Johnson et al. [1] enumeran cuatro formas, que se enumeran a continuación.

El tipo I también se ha denominado distribución logística-astizada . El tipo IV incluye los otros tipos y se obtiene al aplicar la transformación logit a las variables aleatorias beta . Siguiendo la misma convención que para la distribución log-normal , el tipo IV puede denominarse distribución logística-beta , con referencia a la función logística estándar , que es la inversa de la transformación logit.

Para otras familias de distribuciones que también se han denominado distribuciones logísticas generalizadas, véase la distribución log-logística desplazada , que es una generalización de la distribución log-logística ; y la distribución metalog ("meta-logística") , que es muy flexible en cuanto a forma y límites y se puede ajustar a datos con mínimos cuadrados lineales.

Definiciones

Las siguientes definiciones corresponden a versiones estandarizadas de las familias, que pueden ampliarse a la forma completa como una familia de escala de ubicación . Cada una se define utilizando la función de distribución acumulativa ( F ) o la función de densidad de probabilidad ( ƒ ), y se define en (-∞,∞).

Tipo I

F ( incógnita ; alfa ) = 1 ( 1 + mi incógnita ) alfa ( 1 + mi incógnita ) alfa , alfa > 0. {\displaystyle F(x;\alpha )={\frac {1}{(1+e^{-x})^{\alpha }}}\equiv (1+e^{-x})^{- \alpha },\quad \alpha >0.}

La función de densidad de probabilidad correspondiente es:

F ( incógnita ; alfa ) = alfa mi incógnita ( 1 + mi incógnita ) alfa + 1 , alfa > 0. {\displaystyle f(x;\alpha )={\frac {\alpha e^{-x}}{\left(1+e^{-x}\right)^{\alpha +1}}},\quad \alpha >0.}

Este tipo también se ha denominado distribución "logística sesgada".

Tipo II

F ( incógnita ; alfa ) = 1 mi alfa incógnita ( 1 + mi incógnita ) alfa , alfa > 0. {\displaystyle F(x;\alpha )=1-{\frac {e^{-\alpha x}}{(1+e^{-x})^{\alpha }}},\quad \alpha > 0.}

La función de densidad de probabilidad correspondiente es:

F ( incógnita ; alfa ) = alfa mi alfa incógnita ( 1 + mi incógnita ) alfa + 1 , alfa > 0. {\displaystyle f(x;\alpha )={\frac {\alpha e^{-\alpha x}}{(1+e^{-x})^{\alpha +1}}},\quad \ alfa >0.}

Tipo III

F ( incógnita ; alfa ) = 1 B ( alfa , alfa ) mi alfa incógnita ( 1 + mi incógnita ) 2 alfa , alfa > 0. {\displaystyle f(x;\alpha )={\frac {1}{B(\alpha ,\alpha )}}{\frac {e^{-\alpha x}}{(1+e^{-x })^{2\alpha }}},\quad \alpha >0.}

Aquí B es la función beta . La función generadora de momentos para este tipo es

METRO ( a ) = Γ ( alfa a ) Γ ( alfa + a ) ( Γ ( alfa ) ) 2 , alfa < a < alfa . {\displaystyle M(t)={\frac {\Gamma (\alpha -t)\Gamma (\alpha +t)}{(\Gamma (\alpha ))^{2}}},\quad -\alpha <t<\alpha .}

La función de distribución acumulativa correspondiente es:

F ( incógnita ; alfa ) = ( mi incógnita + 1 ) Γ ( alfa ) mi alfa ( incógnita ) ( mi incógnita + 1 ) 2 alfa 2 F ~ 1 ( 1 , 1 alfa ; alfa + 1 ; mi incógnita ) B ( alfa , alfa ) , alfa > 0. {\displaystyle F(x;\alpha )={\frac {\left(e^{x}+1\right)\Gamma (\alpha )e^{\alpha (-x)}\left(e^{-x}+1\right)^{-2\alpha }\,_{2}{\tilde {F}}_{1}\left(1,1-\alpha ;\alpha +1;-e^{x}\right)}{B(\alpha ,\alpha )}},\quad \alpha >0.}

Tipo IV

F ( incógnita ; alfa , β ) = 1 B ( alfa , β ) mi β incógnita ( 1 + mi incógnita ) alfa + β , alfa , β > 0 = σ ( incógnita ) alfa σ ( incógnita ) β B ( alfa , β ) . {\displaystyle {\begin{aligned}f(x;\alpha ,\beta )&={\frac {1}{B(\alpha ,\beta )}}{\frac {e^{-\beta x}}{(1+e^{-x})^{\alpha +\beta }}},\quad \alpha ,\beta >0\\[4pt]&={\frac {\sigma (x)^{\alpha }\sigma (-x)^{\beta }}{B(\alpha ,\beta )}}.\end{aligned}}}

Donde B es la función beta y es la función logística estándar . La función generadora de momentos para este tipo es σ ( incógnita ) = 1 / ( 1 + mi incógnita ) {\displaystyle \sigma(x)=1/(1+e^{-x})}

METRO ( a ) = Γ ( β a ) Γ ( alfa + a ) Γ ( alfa ) Γ ( β ) , alfa < a < β . {\displaystyle M(t)={\frac {\Gamma (\beta -t)\Gamma (\alpha +t)}{\Gamma (\alpha )\Gamma (\beta )}},\quad -\alpha <t<\beta .}

Este tipo también se denomina "beta generalizada exponencial del segundo tipo". [1]

La función de distribución acumulativa correspondiente es:

F ( incógnita ; alfa , β ) = ( mi incógnita + 1 ) Γ ( alfa ) mi β ( incógnita ) ( mi incógnita + 1 ) alfa β 2 F ~ 1 ( 1 , 1 β ; alfa + 1 ; mi incógnita ) B ( alfa , β ) , alfa , β > 0. {\displaystyle F(x;\alpha ,\beta )={\frac {\left(e^{x}+1\right)\Gamma (\alpha )e^{\beta (-x)}\left(e^{-x}+1\right)^{-\alpha -\beta }\,_{2}{\tilde {F}}_{1}\left(1,1-\beta ;\alpha +1;-e^{x}\right)}{B(\alpha ,\beta )}},\quad \alpha ,\beta >0.}

Relación entre tipos

El tipo IV es la forma más general de la distribución. La distribución de tipo III se puede obtener a partir del tipo IV fijando . La distribución de tipo II se puede obtener a partir del tipo IV fijando (y renombrando a ). La distribución de tipo I se puede obtener a partir del tipo IV fijando . La fijación da como resultado la distribución logística estándar . β = alfa {\displaystyle \beta =\alpha} alfa = 1 {\displaystyle \alpha = 1} β {\estilo de visualización \beta} alfa {\estilo de visualización \alpha} β = 1 {\displaystyle \beta = 1} alfa = β = 1 {\displaystyle \alpha =\beta =1}

Propiedades del tipo IV (logística-beta)

Las medias y varianzas se han estandarizado a 0,1 para poder comparar mejor las formas.
Funciones de densidad de probabilidad tipo IV (medias=0, varianzas=1)

La distribución logística generalizada tipo IV , o distribución logística-beta , con parámetros de soporte y forma , tiene (como se muestra arriba) la función de densidad de probabilidad (pdf): incógnita R {\displaystyle x\in \mathbb {R}} alfa , β > 0 {\displaystyle \alpha ,\beta >0}

F ( incógnita ; alfa , β ) = 1 B ( alfa , β ) mi β incógnita ( 1 + mi incógnita ) alfa + β = σ ( incógnita ) alfa σ ( incógnita ) β B ( alfa , β ) , {\displaystyle f(x;\alpha ,\beta )={\frac {1}{B(\alpha ,\beta )}}{\frac {e^{-\beta x}}{(1+e^{-x})^{\alpha +\beta }}}={\frac {\sigma (x)^{\alpha }\sigma (-x)^{\beta }}{B(\alpha ,\beta )}},}

donde es la función logística estándar . Las funciones de densidad de probabilidad para tres conjuntos diferentes de parámetros de forma se muestran en el gráfico, donde las distribuciones se han escalado y desplazado para dar medias cero y varianzas unitarias, con el fin de facilitar la comparación de las formas. σ ( incógnita ) = 1 / ( 1 + mi incógnita ) {\displaystyle \sigma(x)=1/(1+e^{-x})}

En lo que sigue, se utiliza la notación para denotar la distribución Tipo IV. B σ ( alfa , β ) {\displaystyle B_{\sigma}(\alpha,\beta)}

Relación con la distribución gamma

Esta distribución se puede obtener en términos de la distribución gamma de la siguiente manera. Sea y independientemente , y sea . Entonces . [2] y Gama ( alfa , gamma ) {\displaystyle y\sim {\text{Gamma}}(\alfa ,\gamma )} el Gama ( β , gamma ) {\displaystyle z\sim {\text{Gamma}}(\beta,\gamma)} incógnita = En y En el {\displaystyle x=\ln y-\ln z} incógnita B σ ( alfa , β ) {\displaystyle x\sim B_{\sigma}(\alpha,\beta)}

Simetría

Si , entonces . incógnita B σ ( alfa , β ) {\displaystyle x\sim B_{\sigma}(\alpha,\beta)} incógnita B σ ( β , alfa ) {\displaystyle -x\sim B_{\sigma}(\beta,\alpha)}

Media y varianza

Utilizando las expectativas logarítmicas de la distribución gamma, la media y la varianza se pueden derivar como:

mi [ incógnita ] = ψ ( alfa ) ψ ( β ) variedad [ incógnita ] = ψ " ( alfa ) + ψ " ( β ) {\displaystyle {\begin{aligned}{\text{E}}[x]&=\psi (\alpha )-\psi (\beta )\\{\text{var}}[x]&=\psi '(\alpha )+\psi '(\beta )\\\end{aligned}}}

donde es la función digamma , mientras que es su primera derivada, también conocida como la función trigamma , o la primera función poligamma . Dado que es estrictamente creciente , el signo de la media es el mismo que el signo de . Dado que es estrictamente decreciente, los parámetros de forma también se pueden interpretar como parámetros de concentración. De hecho, como se muestra a continuación, las colas izquierda y derecha respectivamente se vuelven más delgadas a medida que o aumentan. Los dos términos de la varianza representan las contribuciones a la varianza de las partes izquierda y derecha de la distribución. ψ {\estilo de visualización \psi} ψ " = ψ ( 1 ) {\displaystyle \psi '=\psi ^{(1)}} ψ {\estilo de visualización \psi} alfa β {\displaystyle \alpha -\beta } ψ " {\estilo de visualización \psi '} alfa {\estilo de visualización \alpha} β {\estilo de visualización \beta}

Cumulantes y asimetría

La función generadora de cumulantes es , donde la función generadora de momentos se da arriba. Los cumulantes , , son las derivadas -ésimas de , evaluadas en : K ( a ) = En METRO ( a ) {\displaystyle K(t)=\ln M(t)} METRO ( a ) {\estilo de visualización M(t)} k norte estilo de visualización kappa _{n} norte {\estilo de visualización n} K ( a ) {\estilo de visualización K(t)} a = 0 {\estilo de visualización t=0}

k norte = K ( norte ) ( 0 ) = ψ ( norte 1 ) ( alfa ) + ( 1 ) norte ψ ( norte 1 ) ( β ) {\displaystyle \kappa _{n}=K^{(n)}(0)=\psi ^{(n-1)}(\alpha )+(-1)^{n}\psi ^{(n-1)}(\beta )}

donde y son las funciones digamma y poligamma. De acuerdo con la derivación anterior, el primer cumulante, , es la media y el segundo, , es la varianza. ψ ( 0 ) = ψ {\displaystyle \psi ^{(0)}=\psi } ψ ( n 1 ) {\displaystyle \psi ^{(n-1)}} κ 1 {\displaystyle \kappa _{1}} κ 2 {\displaystyle \kappa _{2}}

El tercer cumulante, , es el tercer momento central , que cuando se escala por la tercera potencia de la desviación estándar da la asimetría : κ 3 {\displaystyle \kappa _{3}} E [ ( x E [ x ] ) 3 ] {\displaystyle E[(x-E[x])^{3}]}

skew [ x ] = ψ ( 2 ) ( α ) ψ ( 2 ) ( β ) var [ x ] 3 {\displaystyle {\text{skew}}[x]={\frac {\psi ^{(2)}(\alpha )-\psi ^{(2)}(\beta )}{{\sqrt {{\text{var}}[x]}}^{3}}}}

El signo (y por lo tanto la lateralidad ) de la asimetría es el mismo que el signo de . α β {\displaystyle \alpha -\beta }

Modo

La moda (máxima pdf) se puede derivar encontrando dónde la derivada logarítmica de pdf es cero: x {\displaystyle x}

d d x ln f ( x ; α , β ) = α σ ( x ) β σ ( x ) = 0 {\displaystyle {\frac {d}{dx}}\ln f(x;\alpha ,\beta )=\alpha \sigma (-x)-\beta \sigma (x)=0}

Esto se simplifica a , de modo que: [2] α / β = e x {\displaystyle \alpha /\beta =e^{x}}

mode [ x ] = ln α β {\displaystyle {\text{mode}}[x]=\ln {\frac {\alpha }{\beta }}}

Comportamiento de la cola

Las distribuciones de tipo IV son las mismas que las de los gráficos PDF. A excepción de la distribución de Cauchy, las medias y las varianzas se han estandarizado.
Comparación de colas: Tipo IV (medias = 0, varianzas = 1) vs. normal estándar vs. Cauchy estándar

En cada una de las colas izquierda y derecha, uno de los sigmoides en la función de densidad de probabilidad se satura a uno, de modo que la cola está formada por el otro sigmoide. Para un valor negativo grande , la cola izquierda de la función de densidad de probabilidad es proporcional a , mientras que la cola derecha (un valor positivo grande ) es proporcional a . Esto significa que las colas están controladas independientemente por y . Aunque las colas de tipo IV son más pesadas que las de la distribución normal ( , para la varianza ), las medias y varianzas de tipo IV siguen siendo finitas para todos los . Esto contrasta con la distribución de Cauchy para la que la media y la varianza no existen. En los gráficos de función de densidad de probabilidad logarítmica que se muestran aquí, las colas de tipo IV son lineales, las colas de la distribución normal son cuadráticas y las colas de Cauchy son logarítmicas. x {\displaystyle x} σ ( x ) α e α x {\displaystyle \sigma (x)^{\alpha }\approx e^{\alpha x}} x {\displaystyle x} σ ( x ) β e β x {\displaystyle \sigma (-x)^{\beta }\approx e^{-\beta x}} α {\displaystyle \alpha } β {\displaystyle \beta } e x 2 2 v {\displaystyle e^{-{\frac {x^{2}}{2v}}}} v {\displaystyle v} α , β > 0 {\displaystyle \alpha ,\beta >0}

Propiedades de la familia exponencial

B σ ( α , β ) {\displaystyle B_{\sigma }(\alpha ,\beta )} forma una familia exponencial con parámetros naturales y y estadísticas suficientes y . Los valores esperados de las estadísticas suficientes se pueden encontrar mediante la diferenciación del normalizador logarítmico: [3] α {\displaystyle \alpha } β {\displaystyle \beta } log σ ( x ) {\displaystyle \log \sigma (x)} log σ ( x ) {\displaystyle \log \sigma (-x)}

E [ log σ ( x ) ] = log B ( α , β ) α = ψ ( α ) ψ ( α + β ) E [ log σ ( x ) ] = log B ( α , β ) β = ψ ( β ) ψ ( α + β ) {\displaystyle {\begin{aligned}E[\log \sigma (x)]&={\frac {\partial \log B(\alpha ,\beta )}{\partial \alpha }}=\psi (\alpha )-\psi (\alpha +\beta )\\E[\log \sigma (-x)]&={\frac {\partial \log B(\alpha ,\beta )}{\partial \beta }}=\psi (\beta )-\psi (\alpha +\beta )\\\end{aligned}}}

Dado un conjunto de datos que se supone que se generó a partir de IID , la estimación del parámetro de máxima verosimilitud es: x 1 , , x n {\displaystyle x_{1},\ldots ,x_{n}} B σ ( α , β ) {\displaystyle B_{\sigma }(\alpha ,\beta )}

α ^ , β ^ = arg max α , β 1 n i = 1 n log f ( x i ; α , β ) = arg max α , β α ( 1 n i log σ ( x i ) ) + β ( 1 n i log σ ( x i ) ) log B ( α , β ) = arg max α , β α log σ ( x ) ¯ + β log σ ( x ) ¯ log B ( α , β ) {\displaystyle {\begin{aligned}{\hat {\alpha }},{\hat {\beta }}=\arg \max _{\alpha ,\beta }&\;{\frac {1}{n}}\sum _{i=1}^{n}\log f(x_{i};\alpha ,\beta )\\=\arg \max _{\alpha ,\beta }&\;\alpha {\Bigl (}{\frac {1}{n}}\sum _{i}\log \sigma (x_{i}){\Bigr )}+\beta {\Bigl (}{\frac {1}{n}}\sum _{i}\log \sigma (-x_{i}){\Bigr )}-\log B(\alpha ,\beta )\\=\arg \max _{\alpha ,\beta }&\;\alpha \,{\overline {\log \sigma (x)}}+\beta \,{\overline {\log \sigma (-x)}}-\log B(\alpha ,\beta )\end{aligned}}}

donde las líneas de referencia denotan los promedios de las estadísticas suficientes. La estimación de máxima verosimilitud depende de los datos únicamente a través de estas estadísticas promedio. De hecho, en la estimación de máxima verosimilitud, los valores esperados y los promedios coinciden:

ψ ( α ^ ) ψ ( α ^ + β ^ ) = log σ ( x ) ¯ ψ ( β ^ ) ψ ( α ^ + β ^ ) = log σ ( x ) ¯ {\displaystyle {\begin{aligned}\psi ({\hat {\alpha }})-\psi ({\hat {\alpha }}+{\hat {\beta }})&={\overline {\log \sigma (x)}}\\\psi ({\hat {\beta }})-\psi ({\hat {\alpha }}+{\hat {\beta }})&={\overline {\log \sigma (-x)}}\\\end{aligned}}}

que es también donde se desvanecen las derivadas parciales del maximando anterior.

Relaciones con otras distribuciones

Las relaciones con otras distribuciones incluyen:

  • La relación logarítmica de las variables gamma es de tipo IV como se detalla anteriormente.
  • Si , entonces tiene una distribución de tipo IV , con parámetros y . Véase distribución beta prima . y BetaPrime ( α , β ) {\displaystyle y\sim {\text{BetaPrime}}(\alpha ,\beta )} x = ln y {\displaystyle x=\ln y} α {\displaystyle \alpha } β {\displaystyle \beta }
  • Si y , donde se utiliza como parámetro de velocidad de la segunda distribución gamma, entonces tiene una distribución gamma compuesta , que es la misma que , por lo que tiene una distribución de tipo IV . z Gamma ( β , 1 ) {\displaystyle z\sim {\text{Gamma}}(\beta ,1)} y z Gamma ( α , z ) {\displaystyle y\mid z\sim {\text{Gamma}}(\alpha ,z)} z {\displaystyle z} y {\displaystyle y} BetaPrime ( α , β ) {\displaystyle {\text{BetaPrime}}(\alpha ,\beta )} x = ln y {\displaystyle x=\ln y}
  • Si , entonces tiene una distribución de tipo IV , con parámetros y . Véase distribución beta . La función logit , es la inversa de la función logística . Esta relación explica el nombre de beta logística para esta distribución: si la función logística se aplica a las variables beta logísticas, la distribución transformada es beta. p Beta ( α , β ) {\displaystyle p\sim {\text{Beta}}(\alpha ,\beta )} x = logit p {\displaystyle x={\text{logit}}\,p} α {\displaystyle \alpha } β {\displaystyle \beta } l o g i t ( p ) = log p 1 p {\displaystyle \mathrm {logit} (p)=\log {\frac {p}{1-p}}}

Parámetros de forma grandes

Distribución tipo IV vs distribución normal con media y varianza coincidentes. Para valores grandes de , las funciones de probabilidad de densidad son muy similares, excepto para valores muy poco frecuentes de . α , β {\displaystyle \alpha ,\beta } x {\displaystyle x}

Para valores grandes de los parámetros de forma, , la distribución se vuelve más gaussiana , con: α , β 1 {\displaystyle \alpha ,\beta \gg 1}

E [ x ] ln α β var [ x ] α + β α β {\displaystyle {\begin{aligned}E[x]&\approx \ln {\frac {\alpha }{\beta }}\\{\text{var}}[x]&\approx {\frac {\alpha +\beta }{\alpha \beta }}\end{aligned}}}

Esto se demuestra en los gráficos pdf y log pdf aquí.

Generación de variables aleatorias

Dado que el muestreo aleatorio de las distribuciones gamma y beta está fácilmente disponible en muchas plataformas de software, las relaciones anteriores con esas distribuciones se pueden utilizar para generar variantes de la distribución tipo IV.

Generalización con parámetros de localización y escala

Se puede obtener una familia flexible de cuatro parámetros añadiendo los parámetros de escala y de ubicación . Una forma de hacerlo es si , entonces sea , donde es el parámetro de escala y es el parámetro de ubicación. La familia de cuatro parámetros obtenida tiene así la flexibilidad adicional deseada, pero los nuevos parámetros pueden ser difíciles de interpretar porque y . Además, la estimación de máxima verosimilitud con esta parametrización es difícil. Estos problemas se pueden abordar de la siguiente manera. x B σ ( α , β ) {\displaystyle x\sim B_{\sigma }(\alpha ,\beta )} y = k x + δ {\displaystyle y=kx+\delta } k > 0 {\displaystyle k>0} δ R {\displaystyle \delta \in \mathbb {R} } δ E [ y ] {\displaystyle \delta \neq E[y]} k 2 var [ y ] {\displaystyle k^{2}\neq {\text{var}}[y]}

Recuerde que la media y la varianza de son: x {\displaystyle x}

μ ~ = ψ ( α ) ψ ( β ) , s ~ 2 = ψ ( α ) + ψ ( β ) {\displaystyle {\begin{aligned}{\tilde {\mu }}&=\psi (\alpha )-\psi (\beta ),&{\tilde {s}}^{2}&=\psi '(\alpha )+\psi '(\beta )\end{aligned}}}

Ahora expanda la familia con el parámetro de ubicación y el parámetro de escala , a través de la transformación: μ R {\displaystyle \mu \in \mathbb {R} } s > 0 {\displaystyle s>0}

y = μ + s s ~ ( x μ ~ ) x = μ ~ + s ~ s ( y μ ) {\displaystyle {\begin{aligned}y&=\mu +{\frac {s}{\tilde {s}}}(x-{\tilde {\mu }})\iff x={\tilde {\mu }}+{\frac {\tilde {s}}{s}}(y-\mu )\end{aligned}}}

de modo que y ahora son interpretables. Cabe señalar que permitir que sean positivos o negativos no generaliza esta familia, debido a la propiedad de simetría mencionada anteriormente. Adoptamos la notación para esta familia. μ = E [ y ] {\displaystyle \mu =E[y]} s 2 = var [ y ] {\displaystyle s^{2}={\text{var}}[y]} s {\displaystyle s} y B ¯ σ ( α , β , μ , s 2 ) {\displaystyle y\sim {\bar {B}}_{\sigma }(\alpha ,\beta ,\mu ,s^{2})}

Si el pdf de es , entonces el pdf de es: x B σ ( α , β ) {\displaystyle x\sim B_{\sigma }(\alpha ,\beta )} f ( x ; α , β ) {\displaystyle f(x;\alpha ,\beta )} y B ¯ σ ( α , β , μ , s 2 ) {\displaystyle y\sim {\bar {B}}_{\sigma }(\alpha ,\beta ,\mu ,s^{2})}

f ¯ ( y ; α , β , μ , s 2 ) = s ~ s f ( x ; α , β ) {\displaystyle {\bar {f}}(y;\alpha ,\beta ,\mu ,s^{2})={\frac {\tilde {s}}{s}}\,f(x;\alpha ,\beta )}

donde se entiende que se calcula como se detalla anteriormente, como una función de . Los gráficos pdf y log-pdf anteriores, donde los títulos contienen (medias = 0, varianzas = 1), son para . x {\displaystyle x} y , α , β , μ , s {\displaystyle y,\alpha ,\beta ,\mu ,s} B ¯ σ ( α , β , 0 , 1 ) {\displaystyle {\bar {B}}_{\sigma }(\alpha ,\beta ,0,1)}

Estimación de parámetros de máxima verosimilitud

En esta sección se analiza a su vez la estimación de máxima verosimilitud de los parámetros de distribución, dado un conjunto de datos, para las familias y . x 1 , , x n {\displaystyle x_{1},\ldots ,x_{n}} B σ ( α , β ) {\displaystyle B_{\sigma }(\alpha ,\beta )} B ¯ σ ( α , β , μ , s 2 ) {\displaystyle {\bar {B}}_{\sigma }(\alpha ,\beta ,\mu ,s^{2})}

Máxima probabilidad para el tipo IV estándar

Como se señaló anteriormente, es una familia exponencial con parámetros naturales , cuyas estimaciones de máxima verosimilitud dependen únicamente de estadísticas promediadas suficientes: B σ ( α , β ) {\displaystyle B_{\sigma }(\alpha ,\beta )} α , β {\displaystyle \alpha ,\beta }

log σ ( x ) ¯ = 1 n i log σ ( x i ) and log σ ( x ) ¯ = 1 n i log σ ( x i ) {\displaystyle {\begin{aligned}{\overline {\log \sigma (x)}}&={\frac {1}{n}}\sum _{i}\log \sigma (x_{i})&&{\text{and}}&{\overline {\log \sigma (-x)}}&={\frac {1}{n}}\sum _{i}\log \sigma (-x_{i})\end{aligned}}}

Una vez acumuladas estas estadísticas, la estimación de máxima verosimilitud viene dada por:

α ^ , β ^ = arg max α , β > 0 α log σ ( x ) ¯ + β log σ ( x ) ¯ log B ( α , β ) {\displaystyle {\begin{aligned}{\hat {\alpha }},{\hat {\beta }}=\arg \max _{\alpha ,\beta >0}&\;\alpha \,{\overline {\log \sigma (x)}}+\beta \,{\overline {\log \sigma (-x)}}-\log B(\alpha ,\beta )\end{aligned}}}

Mediante la parametrización se puede utilizar un algoritmo de optimización numérica sin restricciones como BFGS . Las iteraciones de optimización son rápidas, porque son independientes del tamaño del conjunto de datos. θ 1 = log α {\displaystyle \theta _{1}=\log \alpha } θ 2 = log β {\displaystyle \theta _{2}=\log \beta }

Una alternativa es utilizar un algoritmo EM basado en la composición: si y . Debido a la autoconjugación de la distribución gamma , las expectativas posteriores, y que se requieren para el paso E se pueden calcular en forma cerrada. La actualización del parámetro del paso M se puede resolver de manera análoga a la máxima verosimilitud para la distribución gamma . x log ( γ δ ) B σ ( α , β ) {\displaystyle x-\log(\gamma \delta )\sim B_{\sigma }(\alpha ,\beta )} z Gamma ( β , γ ) {\displaystyle z\sim {\text{Gamma}}(\beta ,\gamma )} e x z Gamma ( α , z / δ ) {\displaystyle e^{x}\mid z\sim {\text{Gamma}}(\alpha ,z/\delta )} z P ( z x ) {\displaystyle \left\langle z\right\rangle _{P(z\mid x)}} log z P ( z x ) {\displaystyle \left\langle \log z\right\rangle _{P(z\mid x)}}

Máxima verosimilitud para la familia de cuatro parámetros

El problema de máxima verosimilitud para , que tiene función de densidad de probabilidad es: B ¯ σ ( α , β , μ , s 2 ) {\displaystyle {\bar {B}}_{\sigma }(\alpha ,\beta ,\mu ,s^{2})} f ¯ {\displaystyle {\bar {f}}}

α ^ , β ^ , μ ^ , s ^ = arg max α , β , μ , s log 1 n i f ¯ ( x i ; α , β , μ , s 2 ) {\displaystyle {\hat {\alpha }},{\hat {\beta }},{\hat {\mu }},{\hat {s}}=\arg \max _{\alpha ,\beta ,\mu ,s}\log {\frac {1}{n}}\sum _{i}{\bar {f}}(x_{i};\alpha ,\beta ,\mu ,s^{2})}

Ya no se trata de una familia exponencial, por lo que cada iteración de optimización debe recorrer todo el conjunto de datos. Además, el cálculo de las derivadas parciales (como lo requiere, por ejemplo, BFGS) es considerablemente más complejo que para el caso de dos parámetros anterior. Sin embargo, todas las funciones de los componentes están disponibles en paquetes de software con diferenciación automática . Nuevamente, los parámetros positivos se pueden parametrizar en términos de sus logaritmos para obtener un problema de optimización numérica sin restricciones.

En este problema, la optimización numérica puede fallar a menos que los parámetros iniciales de escala y ubicación se elijan adecuadamente. Sin embargo, la interpretabilidad de estos parámetros en la parametrización de mencionada anteriormente se puede utilizar para lograrlo. En concreto, los valores iniciales de y se pueden establecer en la media y la varianza empíricas de los datos. B ¯ σ {\displaystyle {\bar {B}}_{\sigma }} μ {\displaystyle \mu } s 2 {\displaystyle s^{2}}

Véase también

Referencias

  1. ^ ab Johnson, NL, Kotz, S., Balakrishnan, N. (1995) Distribuciones univariadas continuas, volumen 2 , Wiley. ISBN  0-471-58494-0 (páginas 140-142)
  2. ^ por Leigh J. Halliwell (2018). "La distribución log-gamma y el error no normal". S2CID  173176687. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  3. ^ CMBishop, Reconocimiento de patrones y aprendizaje automático , Springer 2006.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Generalized_logistic_distribution&oldid=1213038513"