Distribución log-normal

Distribución de probabilidad
Distribución log-normal
Función de densidad de probabilidad
Gráfico del PDF lognormal
Parámetros idénticos pero con parámetros diferentes   micras   {\displaystyle \ \mu \ } σ {\estilo de visualización \sigma}
Función de distribución acumulativa
Gráfico de la CDF lognormal
  micras = 0   {\displaystyle \ \mu = 0\ }
Notación   Lognormal (   micras , σ 2   )   {\displaystyle \ \operatorname {Lognormal} \left(\ \mu ,\,\sigma ^{2}\ \right)\ }
Parámetros   micras (   , +   )   {\displaystyle \ \mu \in (\ -\infty ,+\infty \ )\ } (logaritmo de ubicación ), (logaritmo de escala )
  σ > 0   {\displaystyle \ \sigma >0\ }
Apoyo   incógnita (   0 , +   )   {\displaystyle \ x\in (\ 0,+\infty \ )\ }
PDF   1   incógnita σ 2 π       exp ( ( En incógnita micras   ) 2 2 σ 2 ) {\displaystyle \ {\frac {1}{\ x\sigma {\sqrt {2\pi \ }}\ }}\ \exp \left(-{\frac {\left(\ln x-\mu \ \right)^{2}}{2\sigma ^{2}}}\right)}
CDF     1   2 [ 1 + campo (   En incógnita micras   σ 2   ) ] = Φ ( En ( incógnita ) micras σ ) {\displaystyle \ {\frac {\ 1\ }{2}}\left[1+\operatorname {erf} \left({\frac {\ \ln x-\mu \ }{\sigma {\sqrt {2\ }}}}\right)\right]=\Phi \left({\frac {\ln(x)-\mu }{\sigma }}\right)}
Cuantil   exp ( micras + 2 σ 2 campo 1 ( 2 pag 1 ) )   {\displaystyle \ \exp \left(\mu +{\sqrt {2\sigma ^{2}}}\operatorname {erf} ^{-1}(2p-1)\right)\ }

= exp ( micras + σ Φ 1 ( pag ) ) {\displaystyle =\exp(\mu +\sigma \Phi ^{-1}(p))}
Significar   exp (   micras + σ 2 2   )   {\displaystyle \ \exp \izquierda(\ \mu +{\frac {\sigma ^{2}}{2}}\ \derecha)\ }
Mediana   exp (   micras   )   {\displaystyle \ \exp(\ \mu \ )\ }
Modo   exp (   micras σ 2   )   {\displaystyle \ \exp \izquierda(\ \mu -\sigma ^{2}\ \derecha)\ }
Diferencia   [   exp ( σ 2 ) 1   ]   exp ( 2   micras + σ 2 )   {\displaystyle \ \left[\ \exp(\sigma ^{2})-1\ \right]\ \exp \left(2\ \mu +\sigma ^{2}\right)\ }
Oblicuidad   [   exp ( σ 2 ) + 2   ] exp ( σ 2 ) 1 {\displaystyle \ \left[\ \exp \left(\sigma ^{2}\right)+2\ \right]{\sqrt {\exp(\sigma ^{2})-1\;}}}
Exceso de curtosis   1   exp ( 4   σ 2 ) + 2   exp ( 3   σ 2 ) + 3   exp ( 2 σ 2 ) 6   {\displaystyle \ 1\ \exp \left(4\ \sigma ^{2}\right)+2\ \exp \left(3\ \sigma ^{2}\right)+3\ \exp \left(2\sigma ^{2}\right)-6\ }
Entropía   registro 2 (   2 π     σ   mi micras + 1 2   )   {\displaystyle \ \log _{2}\left(\ {\sqrt {2\pi \ }}\ \sigma \ e^{\mu +{\tfrac {1}{2}}}\ \right)\ }
MGF definido solo para números con una
 parte real no positiva, ver texto
CF La representación  es asintóticamente divergente, pero adecuada  para la mayoría de los propósitos numéricos.   norte = 0   ( i   a ) norte   norte ! mi   norte micras + norte 2 σ 2 / 2   {\displaystyle \ \sum _{n=0}^{\infty }{\frac {\ (i\ t)^{n}\ }{n!}}e^{\ n\mu +n^{2 }\sigma ^{2}/2}\ }

Información de Fisher   ( 1   σ 2   0 0 2   σ 2   )   {\displaystyle \ {\begin{pmatrix}{\frac {1}{\ \sigma ^{2}\ }}&0\\0&{\frac {2}{\ \sigma ^{2}\ }}\end{pmatrix}}\ }
Método de momentos   micras = registro ( mi [ incógnita ]       Variedad [ incógnita ]       mi [ incógnita ] 2   + 1     )   , {\displaystyle \ \mu =\log \left({\frac {\nombre_operador {\mathbb {E} } [X]\ }{\ {\sqrt {{\frac {\ \nombre_operador {Var} [X]~~}{\ \nombre_operador {\mathbb {E} } [X]^{2}\ }}+1\ }}\ }}\right)\ ,}

  σ = registro (   Variedad [ incógnita ]       mi [ incógnita ] 2   + 1   )   {\displaystyle \ \sigma ={\sqrt {\log \left({\frac {\ \operatorname {Var} [X]~~}{\ \operatorname {\mathbb {E} } [X]^{2}\ }}+1\ \right)\ }}}
Déficit esperado

  1 2 e μ + σ 2 2   1 + erf ( σ   2     + erf 1 ( 2 p 1 ) )   p {\displaystyle \ {\frac {1}{2}}e^{\mu +{\frac {\sigma ^{2}}{2}}}{\frac {\ 1+\operatorname {erf} \left({\frac {\sigma }{\ {\sqrt {2\ }}\ }}+\operatorname {erf} ^{-1}(2p-1)\right)\ }{p}}} [1]



  = e μ + σ 2 2 1 1 p ( 1 Φ ( Φ 1 ( p ) σ ) ) {\displaystyle \ =e^{\mu +{\frac {\sigma ^{2}}{2}}}{\frac {1}{1-p}}(1-\Phi (\Phi ^{-1}(p)-\sigma ))}

En teoría de probabilidad , una distribución log-normal (o lognormal ) es una distribución de probabilidad continua de una variable aleatoria cuyo logaritmo se distribuye normalmente . Por lo tanto, si la variable aleatoria X tiene una distribución log-normal, entonces Y = ln( X ) tiene una distribución normal. [2] [3] De manera equivalente, si Y tiene una distribución normal, entonces la función exponencial de Y , X = exp( Y ) , tiene una distribución log-normal. Una variable aleatoria que tiene una distribución log-normal solo toma valores reales positivos. Es un modelo conveniente y útil para mediciones en ciencias exactas y de ingeniería , así como en medicina , economía y otros temas (por ejemplo, energías, concentraciones, longitudes, precios de instrumentos financieros y otras métricas).

A la distribución se la denomina ocasionalmente distribución de Galton o distribución de Galton , en honor a Francis Galton . [4] La distribución log-normal también se ha asociado con otros nombres, como McAlister , Gibrat y Cobb–Douglas . [4]

Un proceso log-normal es la realización estadística del producto multiplicativo de muchas variables aleatorias independientes , cada una de las cuales es positiva. Esto se justifica considerando el teorema del límite central en el dominio logarítmico (a veces llamado ley de Gibrat ). La distribución log-normal es la distribución de probabilidad de máxima entropía para una variable aleatoria X —para la cual se especifican la media y la varianza de ln( X ) . [5]

Definiciones

Generación y parámetros

Sea una variable normal estándar y sean y dos números reales, con . Entonces, la distribución de la variable aleatoria   Z   {\displaystyle \ Z\ } μ {\displaystyle \mu } σ {\displaystyle \sigma } σ > 0 {\displaystyle \sigma >0}

X = e μ + σ Z {\displaystyle X=e^{\mu +\sigma Z}}

Se denomina distribución log-normal con parámetros y . Estos son el valor esperado (o media ) y la desviación estándar del logaritmo natural de la variable , no la expectativa y la desviación estándar de la misma. μ {\displaystyle \mu } σ {\displaystyle \sigma }   X   {\displaystyle \ X\ }

Relación entre distribución normal y log-normal. Si se distribuye normalmente, entonces se distribuye log-normalmente.   Y = μ + σ Z   {\displaystyle \ Y=\mu +\sigma Z\ }   X e Y   {\displaystyle \ X\sim e^{Y}\ }

Esta relación es verdadera independientemente de la base de la función logarítmica o exponencial: Si se distribuye normalmente, entonces también lo es para cualesquiera dos números positivos. Del mismo modo, si se distribuye log-normalmente, entonces también lo es para donde .   log a ( X )   {\displaystyle \ \log _{a}(X)\ }   log b ( X )   {\displaystyle \ \log _{b}(X)\ }   a , b 1   . {\displaystyle \ a,b\neq 1~.}   e Y   {\displaystyle \ e^{Y}\ }   a Y   , {\displaystyle \ a^{Y}\ ,} 0 < a 1 {\displaystyle 0<a\neq 1}

Para producir una distribución con la media y varianza deseadas, se utiliza y μ X {\displaystyle \mu _{X}}   σ X 2   , {\displaystyle \ \sigma _{X}^{2}\ ,}   μ = ln ( μ X 2   μ X 2 + σ X 2     )   {\displaystyle \ \mu =\ln \left({\frac {\mu _{X}^{2}}{\ {\sqrt {\mu _{X}^{2}+\sigma _{X}^{2}\ }}\ }}\right)\ }   σ 2 = ln ( 1 +   σ X 2   μ X 2 )   . {\displaystyle \ \sigma ^{2}=\ln \left(1+{\frac {\ \sigma _{X}^{2}\ }{\mu _{X}^{2}}}\right)~.}

Alternativamente, se pueden utilizar los parámetros "multiplicativos" o "geométricos" . Tienen una interpretación más directa: es la mediana de la distribución y es útil para determinar intervalos de "dispersión", véase más abajo.   μ = e μ   {\displaystyle \ \mu ^{*}=e^{\mu }\ }   σ = e σ   {\displaystyle \ \sigma ^{*}=e^{\sigma }\ }   μ   {\displaystyle \ \mu ^{*}\ }   σ   {\displaystyle \ \sigma ^{*}\ }

Función de densidad de probabilidad

Una variable aleatoria positiva tiene una distribución log-normal (es decir, ), si el logaritmo natural de se distribuye normalmente con media y varianza   X   {\displaystyle \ X\ }   X Lognormal (   μ , σ 2   )   {\displaystyle \ X\sim \operatorname {Lognormal} \left(\ \mu ,\sigma ^{2}\ \right)\ }   X   {\displaystyle \ X\ } μ {\displaystyle \mu }   σ 2   : {\displaystyle \ \sigma ^{2}\ :}

ln ( X ) N ( μ , σ 2 ) {\displaystyle \ln(X)\sim {\mathcal {N}}(\mu ,\sigma ^{2})}

Sean y respectivamente la función de distribución de probabilidad acumulada y la función de densidad de probabilidad de la distribución normal estándar, entonces tenemos que [2] [4] la función de densidad de probabilidad de la distribución log-normal está dada por:   Φ   {\displaystyle \ \Phi \ }   φ   {\displaystyle \ \varphi \ }   N (   0 , 1   )   {\displaystyle \ {\mathcal {N}}(\ 0,1\ )\ }

f X ( x ) = d d x   P X [   X x   ] = d d x   P X [   ln X ln x   ] = d d x Φ (   ln x μ   σ ) = φ ( ln x μ σ ) d d x (   ln x μ   σ ) = φ (   ln x μ   σ ) 1   σ   x   = 1   x   σ 2   π     exp (   ( ln x μ ) 2   2   σ 2 )   . {\displaystyle {\begin{aligned}f_{X}(x)&={\frac {\rm {d}}{{\rm {d}}x}}\ \operatorname {\mathbb {P} _{\mathit {X}}} \,\!{\bigl [}\ X\leq x\ {\bigr ]}\\[6pt]&={\frac {\rm {d}}{{\rm {d}}x}}\ \operatorname {\mathbb {P} _{\mathit {X}}} \,\!{\bigl [}\ \ln X\leq \ln x\ {\bigr ]}\\[6pt]&={\frac {\rm {d}}{{\rm {d}}x}}\operatorname {\Phi } \!\!\left({\frac {\ \ln x-\mu \ }{\sigma }}\right)\\[6pt]&=\operatorname {\varphi } \!\left({\frac {\ln x-\mu }{\sigma }}\right){\frac {\rm {d}}{{\rm {d}}x}}\left({\frac {\ \ln x-\mu \ }{\sigma }}\right)\\[6pt]&=\operatorname {\varphi } \!\left({\frac {\ \ln x-\mu \ }{\sigma }}\right){\frac {1}{\ \sigma \ x\ }}\\[6pt]&={\frac {1}{\ x\ \sigma {\sqrt {2\ \pi \ }}\ }}\exp \left(-{\frac {\ (\ln x-\mu )^{2}\ }{2\ \sigma ^{2}}}\right)~.\end{aligned}}}

Función de distribución acumulativa

La función de distribución acumulativa es

F X ( x ) = Φ ( ( ln x ) μ σ ) {\displaystyle F_{X}(x)=\Phi \left({\frac {(\ln x)-\mu }{\sigma }}\right)}

donde es la función de distribución acumulativa de la distribución normal estándar (es decir, ).   Φ   {\displaystyle \ \Phi \ }   N (   0 ,   1 )   {\displaystyle \ \operatorname {\mathcal {N}} (\ 0,\ 1)\ }

Esto también puede expresarse de la siguiente manera: [2]

1 2 [ 1 + erf ( ln x μ σ 2 ) ] = 1 2 erfc ( ln x μ σ 2 ) {\displaystyle {\frac {1}{2}}\left[1+\operatorname {erf} \left({\frac {\ln x-\mu }{\sigma {\sqrt {2}}}}\right)\right]={\frac {1}{2}}\operatorname {erfc} \left(-{\frac {\ln x-\mu }{\sigma {\sqrt {2}}}}\right)}

donde erfc es la función de error complementaria .

Log-normal multivariante

Si es una distribución normal multivariante , entonces tiene una distribución log-normal multivariante. [6] [7] La ​​exponencial se aplica elemento por elemento al vector aleatorio . La media de es X N ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }})} Y i = exp ( X i ) {\displaystyle Y_{i}=\exp(X_{i})} X {\displaystyle {\boldsymbol {X}}} Y {\displaystyle {\boldsymbol {Y}}}

E [ Y ] i = e μ i + 1 2 Σ i i , {\displaystyle \operatorname {E} [{\boldsymbol {Y}}]_{i}=e^{\mu _{i}+{\frac {1}{2}}\Sigma _{ii}},}

y su matriz de covarianza es

Var [ Y ] i j = e μ i + μ j + 1 2 ( Σ i i + Σ j j ) ( e Σ i j 1 ) . {\displaystyle \operatorname {Var} [{\boldsymbol {Y}}]_{ij}=e^{\mu _{i}+\mu _{j}+{\frac {1}{2}}(\Sigma _{ii}+\Sigma _{jj})}(e^{\Sigma _{ij}}-1).}

Dado que la distribución log-normal multivariada no se utiliza ampliamente, el resto de esta entrada solo trata de la distribución univariante .

Función característica y función generadora de momentos

Todos los momentos de la distribución log-normal existen y

E [ X n ] = e n μ + n 2 σ 2 / 2 {\displaystyle \operatorname {E} [X^{n}]=e^{n\mu +n^{2}\sigma ^{2}/2}}

Esto se puede derivar dejando dentro de la integral. Sin embargo, la distribución log-normal no está determinada por sus momentos. [8] Esto implica que no puede tener una función generadora de momentos definida en un entorno de cero. [9] De hecho, el valor esperado no está definido para ningún valor positivo del argumento , ya que la integral definitoria diverge. z = ln ( x ) ( μ + n σ 2 ) σ {\displaystyle z={\tfrac {\ln(x)-(\mu +n\sigma ^{2})}{\sigma }}} E [ e t X ] {\displaystyle \operatorname {E} [e^{tX}]} t {\displaystyle t}

La función característica está definida para valores reales de t , pero no está definida para ningún valor complejo de t que tenga una parte imaginaria negativa, y por lo tanto la función característica no es analítica en el origen. En consecuencia, la función característica de la distribución log-normal no puede representarse como una serie convergente infinita. [10] En particular, su serie formal de Taylor diverge: E [ e i t X ] {\displaystyle \operatorname {E} [e^{itX}]}

n = 0 ( i t ) n n ! e n μ + n 2 σ 2 / 2 {\displaystyle \sum _{n=0}^{\infty }{\frac {(it)^{n}}{n!}}e^{n\mu +n^{2}\sigma ^{2}/2}}

Sin embargo, se han obtenido varias representaciones alternativas de series divergentes . [10] [11] [12] [13]

No se conoce una fórmula cerrada para la función característica en el dominio de convergencia. Existe una fórmula de aproximación relativamente simple en forma cerrada, que se proporciona en [14]. φ ( t ) {\displaystyle \varphi (t)} t {\displaystyle t}

φ ( t ) exp ( W 2 ( i t σ 2 e μ ) + 2 W ( i t σ 2 e μ ) 2 σ 2 ) 1 + W ( i t σ 2 e μ ) {\displaystyle \varphi (t)\approx {\frac {\exp \left(-{\frac {W^{2}(-it\sigma ^{2}e^{\mu })+2W(-it\sigma ^{2}e^{\mu })}{2\sigma ^{2}}}\right)}{\sqrt {1+W(-it\sigma ^{2}e^{\mu })}}}}

donde es la función W de Lambert . Esta aproximación se deriva a través de un método asintótico, pero se mantiene precisa en todo el dominio de convergencia de . W {\displaystyle W} φ {\displaystyle \varphi }

Propiedades

a. es una variable log-normal con . se calcula transformando a la variable normal , luego integrando su densidad sobre el dominio definido por (regiones azules), utilizando el método numérico de trazado de rayos. [15] b y c. La pdf y la cdf de la función de la variable log-normal también se pueden calcular de esta manera. y {\displaystyle y} μ = 1 , σ = 0.5 {\displaystyle \mu =1,\sigma =0.5} p ( sin y > 0 ) {\displaystyle p(\sin y>0)} x = ln y {\displaystyle x=\ln y} sin e x > 0 {\displaystyle \sin e^{x}>0} sin y {\displaystyle \sin y}

Probabilidad en diferentes dominios

El contenido de probabilidad de una distribución log-normal en cualquier dominio arbitrario se puede calcular con la precisión deseada transformando primero la variable a normal y luego integrando numéricamente utilizando el método de trazado de rayos. [15] (Código Matlab)

Probabilidades de funciones de una variable log-normal

Dado que la probabilidad de una función log-normal se puede calcular en cualquier dominio, esto significa que también se puede calcular la función de distribución acumulativa (y, en consecuencia, la función de densidad de probabilidad y la función de distribución acumulativa inversa) de cualquier función de una variable log-normal. [15] (Código Matlab)

Momentos geométricos o multiplicativos

La media geométrica o multiplicativa de la distribución log-normal es . Es igual a la mediana. La desviación estándar geométrica o multiplicativa es . [16] [17] GM [ X ] = e μ = μ {\displaystyle \operatorname {GM} [X]=e^{\mu }=\mu ^{*}} GSD [ X ] = e σ = σ {\displaystyle \operatorname {GSD} [X]=e^{\sigma }=\sigma ^{*}}

Por analogía con la estadística aritmética, se puede definir una varianza geométrica, , y se ha propuesto un coeficiente de variación geométrico , [16] . Este término se pretendía que fuera análogo al coeficiente de variación, para describir la variación multiplicativa en datos log-normales, pero esta definición de GCV no tiene base teórica como estimación de sí misma (véase también Coeficiente de variación ). GVar [ X ] = e σ 2 {\displaystyle \operatorname {GVar} [X]=e^{\sigma ^{2}}} GCV [ X ] = e σ 1 {\displaystyle \operatorname {GCV} [X]=e^{\sigma }-1} CV {\displaystyle \operatorname {CV} }

Nótese que la media geométrica es menor que la media aritmética. Esto se debe a la desigualdad AM-GM y es una consecuencia de que el logaritmo es una función cóncava . De hecho,

E [ X ] = e μ + 1 2 σ 2 = e μ e σ 2 = GM [ X ] GVar [ X ] . {\displaystyle \operatorname {E} [X]=e^{\mu +{\frac {1}{2}}\sigma ^{2}}=e^{\mu }\cdot {\sqrt {e^{\sigma ^{2}}}}=\operatorname {GM} [X]\cdot {\sqrt {\operatorname {GVar} [X]}}.} [18]

En finanzas, el término se interpreta a veces como corrección de convexidad . Desde el punto de vista del cálculo estocástico , se trata del mismo término de corrección que aparece en el lema de Itō para el movimiento browniano geométrico . e 1 2 σ 2 {\displaystyle e^{-{\frac {1}{2}}\sigma ^{2}}}

Momentos aritméticos

Para cualquier número real o complejo n , el momento n - ésimo de una variable X distribuida log-normalmente está dado por [4]

E [ X n ] = e n μ + 1 2 n 2 σ 2 . {\displaystyle \operatorname {E} [X^{n}]=e^{n\mu +{\frac {1}{2}}n^{2}\sigma ^{2}}.}

Específicamente, la media aritmética, el cuadrado esperado, la varianza aritmética y la desviación estándar aritmética de una variable distribuida log-normalmente X se dan respectivamente por: [2]

E [ X ] = e μ + 1 2 σ 2 , E [ X 2 ] = e 2 μ + 2 σ 2 , Var [ X ] = E [ X 2 ] E [ X ] 2 = ( E [ X ] ) 2 ( e σ 2 1 ) = e 2 μ + σ 2 ( e σ 2 1 ) , SD [ X ] = Var [ X ] = E [ X ] e σ 2 1 = e μ + 1 2 σ 2 e σ 2 1 , {\displaystyle {\begin{aligned}\operatorname {E} [X]&=e^{\mu +{\tfrac {1}{2}}\sigma ^{2}},\\[4pt]\operatorname {E} [X^{2}]&=e^{2\mu +2\sigma ^{2}},\\[4pt]\operatorname {Var} [X]&=\operatorname {E} [X^{2}]-\operatorname {E} [X]^{2}=(\operatorname {E} [X])^{2}(e^{\sigma ^{2}}-1)=e^{2\mu +\sigma ^{2}}(e^{\sigma ^{2}}-1),\\[4pt]\operatorname {SD} [X]&={\sqrt {\operatorname {Var} [X]}}=\operatorname {E} [X]{\sqrt {e^{\sigma ^{2}}-1}}=e^{\mu +{\tfrac {1}{2}}\sigma ^{2}}{\sqrt {e^{\sigma ^{2}}-1}},\end{aligned}}}

El coeficiente de variación aritmético es el cociente . Para una distribución log-normal es igual a [3] CV [ X ] {\displaystyle \operatorname {CV} [X]} SD [ X ] E [ X ] {\displaystyle {\tfrac {\operatorname {SD} [X]}{\operatorname {E} [X]}}}

CV [ X ] = e σ 2 1 . {\displaystyle \operatorname {CV} [X]={\sqrt {e^{\sigma ^{2}}-1}}.}

Esta estimación se denomina a veces "coeficiente de variación geométrico" (GCV), [19] [20] debido a que utiliza la varianza geométrica. A diferencia de la desviación estándar aritmética, el coeficiente de variación aritmético es independiente de la media aritmética.

Los parámetros μ y σ se pueden obtener si se conocen la media aritmética y la varianza aritmética:

μ = ln ( E [ X ] 2 E [ X 2 ] ) = ln ( E [ X ] 2 Var [ X ] + E [ X ] 2 ) , σ 2 = ln ( E [ X 2 ] E [ X ] 2 ) = ln ( 1 + Var [ X ] E [ X ] 2 ) . {\displaystyle {\begin{aligned}\mu &=\ln \left({\frac {\operatorname {E} [X]^{2}}{\sqrt {\operatorname {E} [X^{2}]}}}\right)=\ln \left({\frac {\operatorname {E} [X]^{2}}{\sqrt {\operatorname {Var} [X]+\operatorname {E} [X]^{2}}}}\right),\\[4pt]\sigma ^{2}&=\ln \left({\frac {\operatorname {E} [X^{2}]}{\operatorname {E} [X]^{2}}}\right)=\ln \left(1+{\frac {\operatorname {Var} [X]}{\operatorname {E} [X]^{2}}}\right).\end{aligned}}}

Una distribución de probabilidad no está determinada únicamente por los momentos E[ X n ] = e + 1/2n 2 σ 2 para n ≥ 1. Es decir, existen otras distribuciones con el mismo conjunto de momentos.[4]De hecho, existe toda una familia de distribuciones con los mismos momentos que la distribución log-normal.[ cita requerida ]

Moda, mediana, cuantiles

Comparación de la media , la mediana y la moda de dos distribuciones log-normales con diferente asimetría .

La moda es el punto de máximo global de la función de densidad de probabilidad. En particular, al resolver la ecuación , obtenemos que: ( ln f ) = 0 {\displaystyle (\ln f)'=0}

Mode [ X ] = e μ σ 2 . {\displaystyle \operatorname {Mode} [X]=e^{\mu -\sigma ^{2}}.}

Dado que la variable transformada logarítmicamente tiene una distribución normal y los cuantiles se conservan bajo transformaciones monótonas, los cuantiles de son Y = ln X {\displaystyle Y=\ln X} X {\displaystyle X}

q X ( α ) = e μ + σ q Φ ( α ) = μ ( σ ) q Φ ( α ) , {\displaystyle q_{X}(\alpha )=e^{\mu +\sigma q_{\Phi }(\alpha )}=\mu ^{*}(\sigma ^{*})^{q_{\Phi }(\alpha )},}

donde es el cuantil de la distribución normal estándar. q Φ ( α ) {\displaystyle q_{\Phi }(\alpha )}

Específicamente, la mediana de una distribución log-normal es igual a su media multiplicativa, [21]

Med [ X ] = e μ = μ   . {\displaystyle \operatorname {Med} [X]=e^{\mu }=\mu ^{*}~.}

Expectativa parcial

La esperanza parcial de una variable aleatoria con respecto a un umbral se define como X {\displaystyle X} k {\displaystyle k}

g ( k ) = k x f X ( x X > k ) d x . {\displaystyle g(k)=\int _{k}^{\infty }xf_{X}(x\mid X>k)\,dx.}

Alternativamente, utilizando la definición de expectativa condicional , se puede escribir como . Para una variable aleatoria log-normal, la expectativa parcial está dada por: g ( k ) = E [ X X > k ] P ( X > k ) {\displaystyle g(k)=\operatorname {E} [X\mid X>k]P(X>k)}

g ( k ) = k x f X ( x X > k ) d x = e μ + 1 2 σ 2 Φ ( μ + σ 2 ln k σ ) {\displaystyle g(k)=\int _{k}^{\infty }xf_{X}(x\mid X>k)\,dx=e^{\mu +{\tfrac {1}{2}}\sigma ^{2}}\,\Phi \!\left({\frac {\mu +\sigma ^{2}-\ln k}{\sigma }}\right)}

donde es la función de distribución acumulativa normal . La derivación de la fórmula se proporciona en la página de Discusión . La fórmula de expectativa parcial tiene aplicaciones en seguros y economía , se utiliza para resolver la ecuación diferencial parcial que conduce a la fórmula de Black-Scholes . Φ {\displaystyle \Phi }

Expectativa condicional

La expectativa condicional de una variable aleatoria log-normal —con respecto a un umbral— es su expectativa parcial dividida por la probabilidad acumulada de estar en ese rango: X {\displaystyle X} k {\displaystyle k}

E [ X X < k ] = e μ + σ 2 2 Φ [ ln ( k ) μ σ 2 σ ] Φ [ ln ( k ) μ σ ] E [ X X k ] = e μ + σ 2 2 Φ [ μ + σ 2 ln ( k ) σ ] 1 Φ [ ln ( k ) μ σ ] E [ X X [ k 1 , k 2 ] ] = e μ + σ 2 2 Φ [ ln ( k 2 ) μ σ 2 σ ] Φ [ ln ( k 1 ) μ σ 2 σ ] Φ [ ln ( k 2 ) μ σ ] Φ [ ln ( k 1 ) μ σ ] {\displaystyle {\begin{aligned}E[X\mid X<k]&=e^{\mu +{\frac {\sigma ^{2}}{2}}}\cdot {\frac {\Phi \left[{\frac {\ln(k)-\mu -\sigma ^{2}}{\sigma }}\right]}{\Phi \left[{\frac {\ln(k)-\mu }{\sigma }}\right]}}\\[8pt]E[X\mid X\geqslant k]&=e^{\mu +{\frac {\sigma ^{2}}{2}}}\cdot {\frac {\Phi \left[{\frac {\mu +\sigma ^{2}-\ln(k)}{\sigma }}\right]}{1-\Phi \left[{\frac {\ln(k)-\mu }{\sigma }}\right]}}\\[8pt]E[X\mid X\in [k_{1},k_{2}]]&=e^{\mu +{\frac {\sigma ^{2}}{2}}}\cdot {\frac {\Phi \left[{\frac {\ln(k_{2})-\mu -\sigma ^{2}}{\sigma }}\right]-\Phi \left[{\frac {\ln(k_{1})-\mu -\sigma ^{2}}{\sigma }}\right]}{\Phi \left[{\frac {\ln(k_{2})-\mu }{\sigma }}\right]-\Phi \left[{\frac {\ln(k_{1})-\mu }{\sigma }}\right]}}\end{aligned}}}

Parametrizaciones alternativas

Además de la caracterización por o , existen varias formas de parametrizar la distribución log-normal. ProbOnto , la base de conocimiento y ontología de distribuciones de probabilidad [22] [23] enumera siete de estas formas: μ , σ {\displaystyle \mu ,\sigma } μ , σ {\displaystyle \mu ^{*},\sigma ^{*}}

Visión general de las parametrizaciones de las distribuciones log-normales.
  • LogNormal1(μ,σ) con media , μ y desviación estándar , σ, ambas en escala logarítmica [24]
    P ( x ; μ , σ ) = 1 x σ 2 π exp [ ( ln x μ ) 2 2 σ 2 ] {\displaystyle P(x;{\boldsymbol {\mu }},{\boldsymbol {\sigma }})={\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left[-{\frac {(\ln x-\mu )^{2}}{2\sigma ^{2}}}\right]}
  • LogNormal2(μ,υ) con media, μ y varianza, υ, ambas en escala logarítmica
    P ( x ; μ , v ) = 1 x v 2 π exp [ ( ln x μ ) 2 2 v ] {\displaystyle P(x;{\boldsymbol {\mu }},{\boldsymbol {v}})={\frac {1}{x{\sqrt {v}}{\sqrt {2\pi }}}}\exp \left[-{\frac {(\ln x-\mu )^{2}}{2v}}\right]}
  • LogNormal3(m,σ) con mediana , m, en la escala natural y desviación estándar, σ, en la escala logarítmica [24]
    P ( x ; m , σ ) = 1 x σ 2 π exp [ ln 2 ( x / m ) 2 σ 2 ] {\displaystyle P(x;{\boldsymbol {m}},{\boldsymbol {\sigma }})={\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left[-{\frac {\ln ^{2}(x/m)}{2\sigma ^{2}}}\right]}
  • LogNormal4(m,cv) con mediana, m, y coeficiente de variación , cv, ambos en escala natural
    P ( x ; m , c v ) = 1 x ln ( c v 2 + 1 ) 2 π exp [ ln 2 ( x / m ) 2 ln ( c v 2 + 1 ) ] {\displaystyle P(x;{\boldsymbol {m}},{\boldsymbol {cv}})={\frac {1}{x{\sqrt {\ln(cv^{2}+1)}}{\sqrt {2\pi }}}}\exp \left[-{\frac {\ln ^{2}(x/m)}{2\ln(cv^{2}+1)}}\right]}
  • LogNormal5(μ,τ) con media, μ, y precisión, τ, ambas en escala logarítmica [25]
    P ( x ; μ , τ ) = τ 2 π 1 x exp [ τ 2 ( ln x μ ) 2 ] {\displaystyle P(x;{\boldsymbol {\mu }},{\boldsymbol {\tau }})={\sqrt {\frac {\tau }{2\pi }}}{\frac {1}{x}}\exp \left[-{\frac {\tau }{2}}(\ln x-\mu )^{2}\right]}
  • LogNormal6(m,σ g ) con mediana, m, y desviación estándar geométrica , σ g , ambas en la escala natural [26]
    P ( x ; m , σ g ) = 1 x ln ( σ g ) 2 π exp [ ln 2 ( x / m ) 2 ln 2 ( σ g ) ] {\displaystyle P(x;{\boldsymbol {m}},{\boldsymbol {\sigma _{g}}})={\frac {1}{x\ln(\sigma _{g}){\sqrt {2\pi }}}}\exp \left[-{\frac {\ln ^{2}(x/m)}{2\ln ^{2}(\sigma _{g})}}\right]}
  • LogNormal7(μ N , σ N ) con media, μ N y desviación estándar, σ N , ambas en escala natural [27]
    P ( x ; μ N , σ N ) = 1 x 2 π ln ( 1 + σ N 2 / μ N 2 ) exp ( [ ln x ln μ N 1 + σ N 2 / μ N 2 ] 2 2 ln ( 1 + σ N 2 / μ N 2 ) ) {\displaystyle P(x;{\boldsymbol {\mu _{N}}},{\boldsymbol {\sigma _{N}}})={\frac {1}{x{\sqrt {2\pi \ln \left(1+\sigma _{N}^{2}/\mu _{N}^{2}\right)}}}}\exp \left(-{\frac {{\Big [}\ln x-\ln {\frac {\mu _{N}}{\sqrt {1+\sigma _{N}^{2}/\mu _{N}^{2}}}}{\Big ]}^{2}}{2\ln(1+\sigma _{N}^{2}/\mu _{N}^{2})}}\right)}

Ejemplos de re-parametrización

Consideremos la situación en la que se desea ejecutar un modelo utilizando dos herramientas de diseño óptimo diferentes, por ejemplo, PFIM [28] y PopED [29] . La primera admite la parametrización LN2 y la segunda LN7, respectivamente. Por lo tanto, se requiere la re-parametrización, de lo contrario las dos herramientas producirían resultados diferentes.

Para la transición se cumplen las siguientes fórmulas y . LN2 ( μ , v ) LN7 ( μ N , σ N ) {\displaystyle \operatorname {LN2} (\mu ,v)\to \operatorname {LN7} (\mu _{N},\sigma _{N})} μ N = exp ( μ + v / 2 ) {\textstyle \mu _{N}=\exp(\mu +v/2)} σ N = exp ( μ + v / 2 ) exp ( v ) 1 {\textstyle \sigma _{N}=\exp(\mu +v/2){\sqrt {\exp(v)-1}}}

Para la transición se cumplen las siguientes fórmulas y . LN7 ( μ N , σ N ) LN2 ( μ , v ) {\displaystyle \operatorname {LN7} (\mu _{N},\sigma _{N})\to \operatorname {LN2} (\mu ,v)} μ = ln ( μ N / 1 + σ N 2 / μ N 2 ) {\textstyle \mu =\ln \left(\mu _{N}/{\sqrt {1+\sigma _{N}^{2}/\mu _{N}^{2}}}\right)} v = ln ( 1 + σ N 2 / μ N 2 ) {\textstyle v=\ln(1+\sigma _{N}^{2}/\mu _{N}^{2})}

Todas las fórmulas de parametrización restantes se pueden encontrar en el documento de especificaciones en el sitio web del proyecto. [30]

Múltiple, recíproco, poder

  • Multiplicación por una constante: Si entonces para X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} a X Lognormal ( μ + ln a ,   σ 2 ) {\displaystyle aX\sim \operatorname {Lognormal} (\mu +\ln a,\ \sigma ^{2})} a > 0. {\displaystyle a>0.}
  • Recíproco: Si entonces X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} 1 X Lognormal ( μ ,   σ 2 ) . {\displaystyle {\tfrac {1}{X}}\sim \operatorname {Lognormal} (-\mu ,\ \sigma ^{2}).}
  • Poder: Si entonces para X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} X a Lognormal ( a μ ,   a 2 σ 2 ) {\displaystyle X^{a}\sim \operatorname {Lognormal} (a\mu ,\ a^{2}\sigma ^{2})} a 0. {\displaystyle a\neq 0.}

Multiplicación y división de variables aleatorias independientes y log-normales

Si se multiplican [dividen] dos variables independientes log-normales y , el producto [ratio] es nuevamente log-normal, con parámetros [ ] y , donde . Esto se generaliza fácilmente al producto de dichas variables. X 1 {\displaystyle X_{1}} X 2 {\displaystyle X_{2}} μ = μ 1 + μ 2 {\displaystyle \mu =\mu _{1}+\mu _{2}} μ = μ 1 μ 2 {\displaystyle \mu =\mu _{1}-\mu _{2}} σ {\displaystyle \sigma } σ 2 = σ 1 2 + σ 2 2 {\displaystyle \sigma ^{2}=\sigma _{1}^{2}+\sigma _{2}^{2}} n {\displaystyle n}

De manera más general, si son variables independientes distribuidas log-normalmente, entonces X j Lognormal ( μ j , σ j 2 ) {\displaystyle X_{j}\sim \operatorname {Lognormal} (\mu _{j},\sigma _{j}^{2})} n {\displaystyle n} Y = j = 1 n X j Lognormal ( j = 1 n μ j ,   j = 1 n σ j 2 ) . {\displaystyle Y=\textstyle \prod _{j=1}^{n}X_{j}\sim \operatorname {Lognormal} {\Big (}\textstyle \sum _{j=1}^{n}\mu _{j},\ \sum _{j=1}^{n}\sigma _{j}^{2}{\Big )}.}

Teorema del límite central multiplicativo

La media geométrica o multiplicativa de variables aleatorias positivas, independientes e idénticamente distribuidas muestra, para , aproximadamente una distribución log-normal con parámetros y , asumiendo que es finito. n {\displaystyle n} X i {\displaystyle X_{i}} n {\displaystyle n\to \infty } μ = E [ ln ( X i ) ] {\displaystyle \mu =E[\ln(X_{i})]} σ 2 = var [ ln ( X i ) ] / n {\displaystyle \sigma ^{2}={\mbox{var}}[\ln(X_{i})]/n} σ 2 {\displaystyle \sigma ^{2}}

De hecho, las variables aleatorias no tienen por qué estar distribuidas de forma idéntica. Basta con que las distribuciones de tengan todas varianza finita y satisfagan las demás condiciones de cualquiera de las muchas variantes del teorema del límite central . ln ( X i ) {\displaystyle \ln(X_{i})}

Esta ley se conoce comúnmente como la ley de Gibrat .

Otro

Un conjunto de datos que surge de la distribución log-normal tiene una curva de Lorenz simétrica (véase también coeficiente de asimetría de Lorenz ). [31]

Las medias armónica , geométrica y aritmética de esta distribución están relacionadas; [32] dicha relación está dada por H {\displaystyle H} G {\displaystyle G} A {\displaystyle A}

H = G 2 A . {\displaystyle H={\frac {G^{2}}{A}}.}

Las distribuciones log-normales son infinitamente divisibles , [33] pero no son distribuciones estables , de las que se pueden extraer conclusiones fácilmente. [34]

  • Si es una distribución normal , entonces X N ( μ , σ 2 ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})} exp ( X ) Lognormal ( μ , σ 2 ) . {\displaystyle \exp(X)\sim \operatorname {Lognormal} (\mu ,\sigma ^{2}).}
  • Si se distribuye log-normalmente, entonces es una variable aleatoria normal. X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} ln ( X ) N ( μ , σ 2 ) {\displaystyle \ln(X)\sim {\mathcal {N}}(\mu ,\sigma ^{2})}
  • Sean variables independientes distribuidas log-normalmente con parámetros y posiblemente variables, y . La distribución de no tiene una expresión de forma cerrada, pero puede aproximarse razonablemente mediante otra distribución log-normal en la cola derecha. [35] Su función de densidad de probabilidad en la vecindad de 0 ha sido caracterizada [34] y no se parece a ninguna distribución log-normal. Una aproximación comúnmente utilizada debido a LF Fenton (pero previamente establecida por RI Wilkinson y justificada matemáticamente por Marlow [36] ) se obtiene haciendo coincidir la media y la varianza de otra distribución log-normal: En el caso de que todas tengan el mismo parámetro de varianza , estas fórmulas se simplifican a X j Lognormal ( μ j , σ j 2 ) {\displaystyle X_{j}\sim \operatorname {Lognormal} (\mu _{j},\sigma _{j}^{2})} σ {\displaystyle \sigma } μ {\displaystyle \mu } Y = j = 1 n X j {\textstyle Y=\sum _{j=1}^{n}X_{j}} Y {\displaystyle Y} Z {\displaystyle Z} σ Z 2 = ln [ e 2 μ j + σ j 2 ( e σ j 2 1 ) ( e μ j + σ j 2 / 2 ) 2 + 1 ] , μ Z = ln [ e μ j + σ j 2 / 2 ] σ Z 2 2 . {\displaystyle {\begin{aligned}\sigma _{Z}^{2}&=\ln \!\left[{\frac {\sum e^{2\mu _{j}+\sigma _{j}^{2}}(e^{\sigma _{j}^{2}}-1)}{(\sum e^{\mu _{j}+\sigma _{j}^{2}/2})^{2}}}+1\right],\\\mu _{Z}&=\ln \!\left[\sum e^{\mu _{j}+\sigma _{j}^{2}/2}\right]-{\frac {\sigma _{Z}^{2}}{2}}.\end{aligned}}} X j {\displaystyle X_{j}} σ j = σ {\displaystyle \sigma _{j}=\sigma } σ Z 2 = ln [ ( e σ 2 1 ) e 2 μ j ( e μ j ) 2 + 1 ] , μ Z = ln [ e μ j ] + σ 2 2 σ Z 2 2 . {\displaystyle {\begin{aligned}\sigma _{Z}^{2}&=\ln \!\left[(e^{\sigma ^{2}}-1){\frac {\sum e^{2\mu _{j}}}{(\sum e^{\mu _{j}})^{2}}}+1\right],\\\mu _{Z}&=\ln \!\left[\sum e^{\mu _{j}}\right]+{\frac {\sigma ^{2}}{2}}-{\frac {\sigma _{Z}^{2}}{2}}.\end{aligned}}}

Para una aproximación más precisa, se puede utilizar el método de Monte Carlo para estimar la función de distribución acumulativa, la función de densidad de probabilidad y la cola derecha. [37] [38]

La suma de variables aleatorias distribuidas log-normalmente y correlacionadas también se puede aproximar mediante una distribución log-normal [ cita requerida ] S + = E [ i X i ] = i E [ X i ] = i e μ i + σ i 2 / 2 σ Z 2 = 1 / S + 2 i , j cor i j σ i σ j E [ X i ] E [ X j ] = 1 / S + 2 i , j cor i j σ i σ j e μ i + σ i 2 / 2 e μ j + σ j 2 / 2 μ Z = ln ( S + ) σ Z 2 / 2 {\displaystyle {\begin{aligned}S_{+}&=\operatorname {E} \left[\sum _{i}X_{i}\right]=\sum _{i}\operatorname {E} [X_{i}]=\sum _{i}e^{\mu _{i}+\sigma _{i}^{2}/2}\\\sigma _{Z}^{2}&=1/S_{+}^{2}\,\sum _{i,j}\operatorname {cor} _{ij}\sigma _{i}\sigma _{j}\operatorname {E} [X_{i}]\operatorname {E} [X_{j}]=1/S_{+}^{2}\,\sum _{i,j}\operatorname {cor} _{ij}\sigma _{i}\sigma _{j}e^{\mu _{i}+\sigma _{i}^{2}/2}e^{\mu _{j}+\sigma _{j}^{2}/2}\\\mu _{Z}&=\ln \left(S_{+}\right)-\sigma _{Z}^{2}/2\end{aligned}}}

  • Si entonces se dice que tiene una distribución log-normal de tres parámetros con soporte . [39] , . X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} X + c {\displaystyle X+c} x ( c , + ) {\displaystyle x\in (c,+\infty )} E [ X + c ] = E [ X ] + c {\displaystyle \operatorname {E} [X+c]=\operatorname {E} [X]+c} Var [ X + c ] = Var [ X ] {\displaystyle \operatorname {Var} [X+c]=\operatorname {Var} [X]}
  • La distribución log-normal es un caso especial de la distribución SU de Johnson semiacotada . [40]
  • Si con , entonces (distribución de Suzuki). X Y Rayleigh ( Y ) {\displaystyle X\mid Y\sim \operatorname {Rayleigh} (Y)} Y Lognormal ( μ , σ 2 ) {\displaystyle Y\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} X Suzuki ( μ , σ ) {\displaystyle X\sim \operatorname {Suzuki} (\mu ,\sigma )}
  • Se puede obtener un sustituto de la log-normal cuya integral se puede expresar en términos de funciones más elementales [41] basándose en la distribución logística para obtener una aproximación para la CDF . Esta es una distribución log-logística . F ( x ; μ , σ ) = [ ( e μ x ) π / ( σ 3 ) + 1 ] 1 . {\displaystyle F(x;\mu ,\sigma )=\left[\left({\frac {e^{\mu }}{x}}\right)^{\pi /(\sigma {\sqrt {3}})}+1\right]^{-1}.}

Inferencia estadística

Estimación de parámetros

Para determinar los estimadores de máxima verosimilitud de los parámetros de distribución log-normal μ y σ , podemos utilizar el mismo procedimiento que para la distribución normal . Nótese que donde es la función de densidad de la distribución normal . Por lo tanto, la función log-verosimilitud es L ( μ , σ ) = i = 1 n 1 x i φ μ , σ ( ln x i ) , {\displaystyle L(\mu ,\sigma )=\prod _{i=1}^{n}{\frac {1}{x_{i}}}\varphi _{\mu ,\sigma }(\ln x_{i}),} φ {\displaystyle \varphi } N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} ( μ , σ x 1 , x 2 , , x n ) = i ln x i + N ( μ , σ ln x 1 , ln x 2 , , ln x n ) . {\displaystyle \ell (\mu ,\sigma \mid x_{1},x_{2},\ldots ,x_{n})=-\sum _{i}\ln x_{i}+\ell _{N}(\mu ,\sigma \mid \ln x_{1},\ln x_{2},\dots ,\ln x_{n}).}

Dado que el primer término es constante con respecto a μ y σ , ambas funciones de verosimilitud logarítmicas, y , alcanzan su máximo con el mismo y . Por lo tanto, los estimadores de máxima verosimilitud son idénticos a los de una distribución normal para las observaciones , {\displaystyle \ell } N {\displaystyle \ell _{N}} μ {\displaystyle \mu } σ {\displaystyle \sigma } ln x 1 , ln x 2 , , ln x n ) {\displaystyle \ln x_{1},\ln x_{2},\dots ,\ln x_{n})} μ ^ = i ln x i n , σ ^ 2 = i ( ln x i μ ^ ) 2 n . {\displaystyle {\widehat {\mu }}={\frac {\sum _{i}\ln x_{i}}{n}},\qquad {\widehat {\sigma }}^{2}={\frac {\sum _{i}\left(\ln x_{i}-{\widehat {\mu }}\right)^{2}}{n}}.}

Para un número finito de n , el estimador para es insesgado, pero el de es sesgado. En cuanto a la distribución normal, se puede obtener un estimador insesgado para reemplazando el denominador n por n −1 en la ecuación para . μ {\displaystyle \mu } σ {\displaystyle \sigma } σ {\displaystyle \sigma } σ ^ 2 {\displaystyle {\widehat {\sigma }}^{2}}

Cuando no se dispone de los valores individuales, pero sí de la media y la desviación típica de la muestra , se puede utilizar el método de los momentos . Los parámetros correspondientes se determinan mediante las siguientes fórmulas, obtenidas a partir de la solución de las ecuaciones de esperanza y varianza para y : x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} x ¯ {\displaystyle {\bar {x}}} E [ X ] {\displaystyle \operatorname {E} [X]} Var [ X ] {\displaystyle \operatorname {Var} [X]} μ {\displaystyle \mu } σ {\displaystyle \sigma } μ = ln ( x ¯ 1 + σ ^ 2 / x ¯ 2 ) , σ 2 = ln ( 1 + σ ^ 2 / x ¯ 2 ) . {\displaystyle \mu =\ln \left({\frac {\bar {x}}{\sqrt {1+{\widehat {\sigma }}^{2}/{\bar {x}}^{2}}}}\right),\qquad \sigma ^{2}=\ln \left(1+{{\widehat {\sigma }}^{2}}/{\bar {x}}^{2}\right).}

Estimaciones de intervalo

La forma más eficiente de obtener estimaciones de intervalo al analizar datos distribuidos log-normalmente consiste en aplicar los métodos conocidos basados ​​en la distribución normal a los datos transformados logarítmicamente y luego transformar de nuevo los resultados si es apropiado.

Intervalos de predicción

Un ejemplo básico lo proporcionan los intervalos de predicción : para la distribución normal, el intervalo contiene aproximadamente dos tercios (68 %) de la probabilidad (o de una muestra grande) y contiene el 95 %. Por lo tanto, para una distribución log-normal, contiene 2/3 y contiene el 95 % de la probabilidad. Si se utilizan parámetros estimados, entonces aproximadamente los mismos porcentajes de los datos deberían estar contenidos en estos intervalos. [ μ σ , μ + σ ] {\displaystyle [\mu -\sigma ,\mu +\sigma ]} [ μ 2 σ , μ + 2 σ ] {\displaystyle [\mu -2\sigma ,\mu +2\sigma ]} [ μ / σ , μ σ ] = [ μ × / σ ] {\displaystyle [\mu ^{*}/\sigma ^{*},\mu ^{*}\cdot \sigma ^{*}]=[\mu ^{*}{}^{\times }\!\!/\sigma ^{*}]} [ μ / ( σ ) 2 , μ ( σ ) 2 ] = [ μ × / ( σ ) 2 ] {\displaystyle [\mu ^{*}/(\sigma ^{*})^{2},\mu ^{*}\cdot (\sigma ^{*})^{2}]=[\mu ^{*}{}^{\times }\!\!/(\sigma ^{*})^{2}]}

Intervalo de confianza paray μ

Usando el principio, note que un intervalo de confianza para es , donde es el error estándar y q es el cuartil del 97,5 % de una distribución t con n-1 grados de libertad. La transformación inversa conduce a un intervalo de confianza para (la mediana), es: con μ {\displaystyle \mu } [ μ ^ ± q s e ^ ] {\displaystyle [{\widehat {\mu }}\pm q\cdot {\widehat {\mathop {se} }}]} s e = σ ^ / n {\displaystyle \mathop {se} ={\widehat {\sigma }}/{\sqrt {n}}} μ = e μ {\displaystyle \mu ^{*}=e^{\mu }} [ μ ^ × / ( sem ) q ] {\displaystyle [{\widehat {\mu }}^{*}{}^{\times }\!\!/(\operatorname {sem} ^{*})^{q}]} sem = ( σ ^ ) 1 / n {\displaystyle \operatorname {sem} ^{*}=({\widehat {\sigma }}^{*})^{1/{\sqrt {n}}}}

Intervalo de confianza para E(X)

En la literatura se analizan varias opciones para calcular el intervalo de confianza para (la media de la distribución log-normal). Entre ellas se incluyen el método bootstrap y otros métodos. [42] [43] μ {\displaystyle \mu }

El método de Cox [a] propone conectar los estimadores μ ^ = i ln x i n , S 2 = i ( ln x i μ ^ ) 2 n 1 {\displaystyle {\widehat {\mu }}={\frac {\sum _{i}\ln x_{i}}{n}},\qquad S^{2}={\frac {\sum _{i}\left(\ln x_{i}-{\widehat {\mu }}\right)^{2}}{n-1}}}

y utilizarlos para construir intervalos de confianza aproximados de la siguiente manera: C I ( E ( X ) ) : e ( μ ^ + S 2 2 ± z 1 α 2 S 2 n + S 4 2 ( n 1 ) ) {\displaystyle CI(E(X)):e^{\left({\hat {\mu }}+{\frac {S^{2}}{2}}\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S^{2}}{n}}+{\frac {S^{4}}{2(n-1)}}}}\right)}}

[Prueba]

Sabemos que . Además, es una distribución normal con parámetros: E ( X ) = e μ + σ 2 2 {\displaystyle E(X)=e^{\mu +{\frac {\sigma ^{2}}{2}}}} μ ^ {\displaystyle {\widehat {\mu }}} μ ^ N ( μ , σ 2 n ) {\displaystyle {\widehat {\mu }}\sim N\left(\mu ,{\frac {\sigma ^{2}}{n}}\right)}

S 2 {\displaystyle S^{2}} tiene una distribución de chi-cuadrado , que se distribuye aproximadamente de manera normal (a través de CLT ), con parámetros : . Por lo tanto, . S 2 ˙ N ( σ 2 , 2 σ 4 n 1 ) {\displaystyle S^{2}{\dot {\sim }}N\left(\sigma ^{2},{\frac {2\sigma ^{4}}{n-1}}\right)} S 2 2 ˙ N ( σ 2 2 , σ 4 2 ( n 1 ) ) {\displaystyle {\frac {S^{2}}{2}}{\dot {\sim }}N\left({\frac {\sigma ^{2}}{2}},{\frac {\sigma ^{4}}{2(n-1)}}\right)}

Como la media y la varianza de la muestra son independientes, y la suma de las variables distribuidas normalmente también es normal , obtenemos que: Con base en lo anterior, los intervalos de confianza estándar para se pueden construir (usando una cantidad pivote ) como: Y como los intervalos de confianza se conservan para las transformaciones monótonas, obtenemos que: μ ^ + S 2 2 ˙ N ( μ + σ 2 2 , σ 2 n + σ 4 2 ( n 1 ) ) {\displaystyle {\widehat {\mu }}+{\frac {S^{2}}{2}}{\dot {\sim }}N\left(\mu +{\frac {\sigma ^{2}}{2}},{\frac {\sigma ^{2}}{n}}+{\frac {\sigma ^{4}}{2(n-1)}}\right)} μ + σ 2 2 {\displaystyle \mu +{\frac {\sigma ^{2}}{2}}} μ ^ + S 2 2 ± z 1 α 2 S 2 n + S 4 2 ( n 1 ) {\displaystyle {\hat {\mu }}+{\frac {S^{2}}{2}}\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S^{2}}{n}}+{\frac {S^{4}}{2(n-1)}}}}} C I ( E ( X ) = e μ + σ 2 2 ) : e ( μ ^ + S 2 2 ± z 1 α 2 S 2 n + S 4 2 ( n 1 ) ) {\displaystyle CI\left(E(X)=e^{\mu +{\frac {\sigma ^{2}}{2}}}\right):e^{\left({\hat {\mu }}+{\frac {S^{2}}{2}}\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S^{2}}{n}}+{\frac {S^{4}}{2(n-1)}}}}\right)}}

Según lo deseado.



Olsson 2005, propuso un "método de Cox modificado" reemplazando con , que parecía proporcionar mejores resultados de cobertura para tamaños de muestra pequeños. [42] : Sección 3.4  z 1 α 2 {\displaystyle z_{1-{\frac {\alpha }{2}}}} t n 1 , 1 α 2 {\displaystyle t_{n-1,1-{\frac {\alpha }{2}}}}

Intervalo de confianza para comparar dos log normales

Comparar dos distribuciones log-normales puede ser a menudo de interés, por ejemplo, de un grupo de tratamiento y de control (por ejemplo, en una prueba A/B ). Tenemos muestras de dos distribuciones log-normales independientes con parámetros y , con tamaños de muestra y respectivamente. ( μ 1 , σ 1 2 ) {\displaystyle (\mu _{1},\sigma _{1}^{2})} ( μ 2 , σ 2 2 ) {\displaystyle (\mu _{2},\sigma _{2}^{2})} n 1 {\displaystyle n_{1}} n 2 {\displaystyle n_{2}}

La comparación de las medianas de ambos se puede realizar fácilmente tomando el logaritmo de cada uno y luego construyendo intervalos de confianza sencillos y transformándolos nuevamente a la escala exponencial.

C I ( e μ 1 μ 2 ) : e ( μ ^ 1 μ ^ 2 ± z 1 α 2 S 1 2 n + S 2 2 n ) {\displaystyle CI(e^{\mu _{1}-\mu _{2}}):e^{\left({\hat {\mu }}_{1}-{\hat {\mu }}_{2}\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S_{1}^{2}}{n}}+{\frac {S_{2}^{2}}{n}}}}\right)}}

Estos IC son los que se utilizan a menudo en epidemiología para calcular el IC para el riesgo relativo y la razón de probabilidades . [46] La forma en que se hace allí es que tenemos dos distribuciones aproximadamente normales (por ejemplo, p1 y p2, para RR), y deseamos calcular su razón. [b]

Sin embargo, la relación entre las expectativas (medias) de las dos muestras también podría ser de interés, aunque requiere más trabajo para desarrollarla. La relación entre sus medias es:

E ( X 1 ) E ( X 2 ) = e μ 1 + σ 1 2 2 e μ 2 + σ 2 2 2 = e ( μ 1 μ 2 ) + 1 2 ( σ 1 2 σ 2 2 ) {\displaystyle {\frac {E(X_{1})}{E(X_{2})}}={\frac {e^{\mu _{1}+{\frac {\sigma _{1}^{2}}{2}}}}{e^{\mu _{2}+{\frac {\sigma _{2}^{2}}{2}}}}}=e^{(\mu _{1}-\mu _{2})+{\frac {1}{2}}(\sigma _{1}^{2}-\sigma _{2}^{2})}}

Al incorporar los estimadores a cada uno de estos parámetros también se obtiene una distribución logarítmica normal, lo que significa que el método de Cox, analizado anteriormente, también podría utilizarse para este caso de uso:

C I ( E ( X 1 ) E ( X 2 ) = e μ 1 + σ 1 2 2 e μ 2 + σ 2 2 2 ) : e ( ( μ ^ 1 μ ^ 2 + 1 2 S 1 2 1 2 S 2 2 ) ± z 1 α 2 S 1 2 n 1 + S 2 2 n 2 + S 1 4 2 ( n 1 1 ) + S 2 4 2 ( n 2 1 ) ) {\displaystyle CI\left({\frac {E(X_{1})}{E(X_{2})}}={\frac {e^{\mu _{1}+{\frac {\sigma _{1}^{2}}{2}}}}{e^{\mu _{2}+{\frac {\sigma _{2}^{2}}{2}}}}}\right):e^{\left(({\hat {\mu }}_{1}-{\hat {\mu }}_{2}+{\frac {1}{2}}S_{1}^{2}-{\frac {1}{2}}S_{2}^{2})\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S_{1}^{2}}{n_{1}}}+{\frac {S_{2}^{2}}{n_{2}}}+{\frac {S_{1}^{4}}{2(n_{1}-1)}}+{\frac {S_{2}^{4}}{2(n_{2}-1)}}}}\right)}}


[Prueba]

Para construir un intervalo de confianza para esta relación, primero observamos que sigue una distribución normal, y que tanto como tiene una distribución de chi-cuadrado , que se distribuye aproximadamente de manera normal (a través de CLT , con los parámetros relevantes ). μ ^ 1 μ ^ 2 {\displaystyle {\hat {\mu }}_{1}-{\hat {\mu }}_{2}} S 1 2 {\displaystyle S_{1}^{2}} S 2 2 {\displaystyle S_{2}^{2}}

Esto significa que ( μ ^ 1 μ ^ 2 + 1 2 S 1 2 1 2 S 2 2 ) N ( ( μ 1 μ 2 ) + 1 2 ( σ 1 2 σ 2 2 ) , σ 1 2 n 1 + σ 2 2 n 2 + σ 1 4 2 ( n 1 1 ) + σ 2 4 2 ( n 2 1 ) ) {\displaystyle ({\hat {\mu }}_{1}-{\hat {\mu }}_{2}+{\frac {1}{2}}S_{1}^{2}-{\frac {1}{2}}S_{2}^{2})\sim N\left((\mu _{1}-\mu _{2})+{\frac {1}{2}}(\sigma _{1}^{2}-\sigma _{2}^{2}),{\frac {\sigma _{1}^{2}}{n_{1}}}+{\frac {\sigma _{2}^{2}}{n_{2}}}+{\frac {\sigma _{1}^{4}}{2(n_{1}-1)}}+{\frac {\sigma _{2}^{4}}{2(n_{2}-1)}}\right)}

Con base en lo anterior, se pueden construir intervalos de confianza estándar (usando una cantidad pivote ) como: Y dado que los intervalos de confianza se conservan para transformaciones monótonas, obtenemos que: ( μ ^ 1 μ ^ 2 + 1 2 S 1 2 1 2 S 2 2 ) ± z 1 α 2 S 1 2 n 1 + S 2 2 n 2 + S 1 4 2 ( n 1 1 ) + S 2 4 2 ( n 2 1 ) {\displaystyle ({\hat {\mu }}_{1}-{\hat {\mu }}_{2}+{\frac {1}{2}}S_{1}^{2}-{\frac {1}{2}}S_{2}^{2})\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S_{1}^{2}}{n_{1}}}+{\frac {S_{2}^{2}}{n_{2}}}+{\frac {S_{1}^{4}}{2(n_{1}-1)}}+{\frac {S_{2}^{4}}{2(n_{2}-1)}}}}} C I ( E ( X 1 ) E ( X 2 ) = e μ 1 + σ 1 2 2 e μ 2 + σ 2 2 2 ) : e ( ( μ ^ 1 μ ^ 2 + 1 2 S 1 2 1 2 S 2 2 ) ± z 1 α 2 S 1 2 n 1 + S 2 2 n 2 + S 1 4 2 ( n 1 1 ) + S 2 4 2 ( n 2 1 ) ) {\displaystyle CI\left({\frac {E(X_{1})}{E(X_{2})}}={\frac {e^{\mu _{1}+{\frac {\sigma _{1}^{2}}{2}}}}{e^{\mu _{2}+{\frac {\sigma _{2}^{2}}{2}}}}}\right):e^{\left(({\hat {\mu }}_{1}-{\hat {\mu }}_{2}+{\frac {1}{2}}S_{1}^{2}-{\frac {1}{2}}S_{2}^{2})\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S_{1}^{2}}{n_{1}}}+{\frac {S_{2}^{2}}{n_{2}}}+{\frac {S_{1}^{4}}{2(n_{1}-1)}}+{\frac {S_{2}^{4}}{2(n_{2}-1)}}}}\right)}}

Según lo deseado.

Vale la pena señalar que usar ingenuamente el MLE en la relación de las dos expectativas para crear un estimador de relación conducirá a una estimación puntual consistente , aunque sesgada (utilizamos el hecho de que el estimador de la relación es una distribución logarítmica normal) [c] :

E [ E ^ ( X 1 ) E ^ ( X 2 ) ] = E [ e ( μ ^ 1 μ ^ 2 ) + 1 2 ( S 1 2 S 2 2 ) ] = e ( μ 1 μ 2 ) + 1 2 ( σ 1 2 σ 2 2 ) + 1 2 ( σ 1 2 n 1 + σ 2 2 n 2 + σ 1 4 2 ( n 1 1 ) + σ 2 4 2 ( n 2 1 ) ) {\displaystyle E\left[{\frac {{\widehat {E}}(X_{1})}{{\widehat {E}}(X_{2})}}\right]=E\left[e^{({\widehat {\mu }}_{1}-{\widehat {\mu }}_{2})+{\frac {1}{2}}(S_{1}^{2}-S_{2}^{2})}\right]=e^{(\mu _{1}-\mu _{2})+{\frac {1}{2}}(\sigma _{1}^{2}-\sigma _{2}^{2})+{\frac {1}{2}}\left({\frac {\sigma _{1}^{2}}{n_{1}}}+{\frac {\sigma _{2}^{2}}{n_{2}}}+{\frac {\sigma _{1}^{4}}{2(n_{1}-1)}}+{\frac {\sigma _{2}^{4}}{2(n_{2}-1)}}\right)}}

Principio extremo de entropía para fijar el parámetro libreσ

En aplicaciones, es un parámetro a determinar. Para procesos de crecimiento equilibrados por producción y disipación, el uso de un principio extremo de entropía de Shannon muestra que [47] σ {\displaystyle \sigma } σ = 1 6 {\displaystyle \sigma ={\frac {1}{\sqrt {6}}}}

Este valor puede utilizarse entonces para dar alguna relación de escala entre el punto de inflexión y el punto máximo de la distribución log-normal. [47] Esta relación está determinada por la base del logaritmo natural, , y exhibe cierta similitud geométrica con el principio de energía superficial mínima. Estas relaciones de escala son útiles para predecir una serie de procesos de crecimiento (propagación de epidemias, salpicaduras de gotitas, crecimiento de la población, velocidad de giro del vórtice de la bañera, distribución de caracteres lingüísticos, perfil de velocidad de las turbulencias, etc.). Por ejemplo, la función log-normal con tales se ajusta bien con el tamaño de las gotitas producidas secundariamente durante el impacto de gotitas [48] y la propagación de una enfermedad epidémica. [49] e = 2.718 {\displaystyle e=2.718\ldots } σ {\displaystyle \sigma }

El valor se utiliza para proporcionar una solución probabilística para la ecuación de Drake. [50] σ = 1 / 6 {\textstyle \sigma =1{\big /}{\sqrt {6}}}

Ocurrencia y aplicaciones

La distribución log-normal es importante en la descripción de los fenómenos naturales. Muchos procesos de crecimiento natural son impulsados ​​por la acumulación de muchos cambios porcentuales pequeños que se vuelven aditivos en una escala logarítmica. Bajo condiciones de regularidad apropiadas, la distribución de los cambios acumulados resultantes se aproximará cada vez mejor mediante una distribución log-normal, como se señaló en la sección anterior sobre el "Teorema del límite central multiplicativo". Esto también se conoce como la ley de Gibrat , en honor a Robert Gibrat (1904-1980), quien la formuló para las empresas. [51] Si la tasa de acumulación de estos pequeños cambios no varía con el tiempo, el crecimiento se vuelve independiente del tamaño. Incluso si esta suposición no es cierta, las distribuciones de tamaño a cualquier edad de las cosas que crecen con el tiempo tienden a ser log-normales. [ cita requerida ] En consecuencia, los rangos de referencia para las mediciones en individuos sanos se estiman con mayor precisión al suponer una distribución log-normal que al suponer una distribución simétrica sobre la media. [ cita requerida ]

Una segunda justificación se basa en la observación de que las leyes naturales fundamentales implican multiplicaciones y divisiones de variables positivas. Algunos ejemplos son la sencilla ley de la gravitación que relaciona las masas y la distancia con la fuerza resultante, o la fórmula para las concentraciones de equilibrio de sustancias químicas en una solución que relaciona las concentraciones de eductos y productos. Suponer distribuciones log-normales de las variables implicadas conduce a modelos consistentes en estos casos.

En las siguientes subsecciones se dan ejemplos específicos. [52] contiene una revisión y una tabla de distribuciones log-normales de geología, biología, medicina, alimentación, ecología y otras áreas. [53] es un artículo de revisión sobre distribuciones log-normales en neurociencia, con bibliografía anotada.

Comportamiento humano

  • La longitud de los comentarios publicados en foros de discusión de Internet sigue una distribución log-normal. [54]
  • El tiempo que los usuarios permanecen en los artículos en línea (chistes, noticias, etc.) sigue una distribución log-normal. [55]
  • La duración de las partidas de ajedrez tiende a seguir una distribución log-normal. [56]
  • Las duraciones de inicio de los estímulos de comparación acústica que coinciden con un estímulo estándar siguen una distribución log-normal. [18]

Biología y medicina

  • Medidas de tamaño de tejido vivo (longitud, área de piel, peso). [57]
  • Periodo de incubación de las enfermedades. [58]
  • Diámetros de manchas en hojas de banano, oídio en cebada. [52]
  • En el caso de epidemias altamente transmisibles, como el SARS en 2003, si se aplican políticas de control de intervención pública, se demuestra que el número de casos hospitalizados satisface la distribución log-normal sin parámetros libres si se supone una entropía y la desviación estándar se determina por el principio de tasa máxima de producción de entropía . [59]
  • La longitud de los apéndices inertes (pelo, garras, uñas, dientes) de especímenes biológicos, en la dirección del crecimiento. [ cita requerida ]
  • El recuento de lecturas de ARN-Seq normalizado para cualquier región genómica se puede aproximar bien mediante una distribución log-normal.
  • La longitud de lectura de la secuenciación de PacBio sigue una distribución log-normal. [60]
  • Ciertas mediciones fisiológicas, como la presión arterial de los humanos adultos (después de la separación en subpoblaciones masculinas/femeninas). [61]
  • Varias variables farmacocinéticas , como la Cmax , la vida media de eliminación y la constante de velocidad de eliminación . [62]
  • En neurociencia, la distribución de las tasas de activación en una población de neuronas suele ser aproximadamente logarítmicamente normal. Esto se observó primero en la corteza y el cuerpo estriado [63] y más tarde en el hipocampo y la corteza entorinal [64] , y en otras partes del cerebro. [53] [65] Además, las distribuciones de ganancia intrínseca y las distribuciones de peso sináptico también parecen ser logarítmicamente normales [66] .
  • Densidades de neuronas en la corteza cerebral, debido al ruidoso proceso de división celular durante el neurodesarrollo. [67]
  • En la gestión de quirófanos, la distribución de la duración de las cirugías .
  • En el tamaño de las avalanchas de fracturas en el citoesqueleto de células vivas, se muestran distribuciones log-normales, con un tamaño significativamente mayor en las células cancerosas que en las sanas. [68]

Química

Distribución log-normal acumulada ajustada a las precipitaciones máximas anuales de un día, véase ajuste de distribución

Hidrología

  • En hidrología , la distribución log-normal se utiliza para analizar valores extremos de variables como los valores máximos mensuales y anuales de las precipitaciones diarias y los volúmenes de descarga de los ríos. [70]
La imagen de la derecha, realizada con CumFreq , ilustra un ejemplo de ajuste de la distribución log-normal a las precipitaciones máximas diarias anuales clasificadas, mostrando también el cinturón de confianza del 90% basado en la distribución binomial . [71]
Los datos de precipitaciones se representan trazando posiciones como parte de un análisis de frecuencia acumulativa .

Ciencias sociales y demografía

  • En economía , hay evidencia de que el ingreso del 97%–99% de la población se distribuye de manera log-normal. [72] (La distribución de los individuos con mayores ingresos sigue una distribución de Pareto ). [73]
  • Si una distribución de ingresos sigue una distribución log-normal con desviación estándar , entonces el coeficiente de Gini , comúnmente utilizado para evaluar la desigualdad de ingresos, se puede calcular como donde es la función de error , ya que , donde es la función de distribución acumulativa de una distribución normal estándar. σ {\displaystyle \sigma } G = erf ( σ 2 ) {\displaystyle G=\operatorname {erf} \left({\frac {\sigma }{2}}\right)} erf {\displaystyle \operatorname {erf} } G = 2 Φ ( σ 2 ) 1 {\displaystyle G=2\Phi \left({\frac {\sigma }{\sqrt {2}}}\right)-1} Φ ( x ) {\displaystyle \Phi (x)}
  • En finanzas , en particular el modelo Black-Scholes , los cambios en el logaritmo de los tipos de cambio, índices de precios e índices bursátiles se suponen normales [74] (estas variables se comportan como interés compuesto, no como interés simple, y por lo tanto son multiplicativas). Sin embargo, algunos matemáticos como Benoit Mandelbrot han argumentado [75] que las distribuciones log-Lévy , que poseen colas pesadas , serían un modelo más apropiado, en particular para el análisis de caídas del mercado bursátil . De hecho, las distribuciones de precios de acciones suelen presentar una cola gruesa . [76] La distribución de cola gruesa de los cambios durante las caídas del mercado bursátil invalida los supuestos del teorema del límite central .
  • En cienciometría , el número de citas de artículos de revistas y patentes sigue una distribución log-normal discreta. [77] [78]
  • Los tamaños de las ciudades (población) satisfacen la Ley de Gibrat. [79] El proceso de crecimiento de los tamaños de las ciudades es proporcional e invariante con respecto al tamaño. Por lo tanto, a partir del teorema del límite central , el logaritmo del tamaño de las ciudades se distribuye normalmente.
  • El número de parejas sexuales parece describirse mejor mediante una distribución log-normal. [80]

Tecnología

  • En el análisis de confiabilidad , la distribución log-normal se utiliza a menudo para modelar los tiempos de reparación de un sistema mantenible. [81]
  • En las comunicaciones inalámbricas , "la potencia media local expresada en valores logarítmicos, como dB o neper, tiene una distribución normal (es decir, gaussiana)". [82] Además, la obstrucción aleatoria de las señales de radio debido a grandes edificios y colinas, llamada sombreado , a menudo se modela como una distribución log-normal.
  • Distribuciones de tamaño de partículas producidas por conminución con impactos aleatorios, como en la molienda de bolas . [83]
  • La distribución del tamaño de los archivos de datos de audio y vídeo disponibles públicamente ( tipos MIME ) sigue una distribución log-normal en cinco órdenes de magnitud . [84]
  • Tamaños de archivos de 140 millones de archivos en computadoras personales que ejecutan el sistema operativo Windows, recopilados en 1999. [85] [54]
  • Tamaños de correos electrónicos basados ​​en texto (década de 1990) y correos electrónicos basados ​​en multimedia (década de 2000). [54]
  • En el análisis de redes informáticas y tráfico de Internet , la distribución log-normal se muestra como un buen modelo estadístico para representar la cantidad de tráfico por unidad de tiempo. Esto se ha demostrado mediante la aplicación de un enfoque estadístico robusto en un gran grupo de rastros reales de Internet. En este contexto, la distribución log-normal ha demostrado un buen rendimiento en dos casos de uso principales: (1) predecir la proporción de tiempo en que el tráfico superará un nivel dado (para un acuerdo de nivel de servicio o una estimación de la capacidad del enlace), es decir, dimensionamiento del enlace basado en el aprovisionamiento de ancho de banda y (2) predecir el precio del percentil 95. [86]
  • En las pruebas físicas, cuando la prueba produce un tiempo hasta la falla de un elemento en condiciones específicas, los datos a menudo se analizan mejor utilizando una distribución lognormal. [87] [88]

Véase también


Notas

  1. ^ El método Cox fue citado como “comunicación personal” en Land, 1971, [44] y también se presentó en Cita Zhou y Gao (1997) [45] y Olsson 2005 [42] : Sección 3.3 
  2. ^ El problema es que no sabemos cómo hacerlo directamente, así que tomamos sus logaritmos y luego usamos el método delta para decir que sus logaritmos son en sí mismos (aproximadamente) normales. Este truco nos permite fingir que su exp era logaritmo normal y usar esa aproximación para construir el IC. Observe que en el caso de RR, la mediana y la media en la distribución base (es decir, antes de tomar el logaritmo), son en realidad idénticas (ya que originalmente son normales y no logaritmo normales). Por ejemplo, y Por lo tanto, construir un IC basado en el logaritmo y luego transformarlo hacia atrás nos dará . Entonces, si bien esperamos que el IC sea para la mediana, en este caso, en realidad también es para la media en la distribución original. es decir, si el original era logaritmo normal, esperaríamos que . Pero en la práctica, SABEMOS que . Por lo tanto, la aproximación que tenemos está en el segundo paso (del método delta), pero los IC son en realidad para la expectativa (no solo para la mediana). Esto se debe a que partimos de una distribución base que es normal y luego utilizamos otra aproximación después del logaritmo para volver a la normalidad. Esto significa que una gran parte de la aproximación del IC proviene del método delta. p ^ 1 ˙ N ( p 1 , p 1 ( 1 p 1 ) / n ) {\displaystyle {\hat {p}}_{1}{\dot {\sim }}N(p_{1},p_{1}(1-p1)/n)} l o g ( p ^ 1 ) ˙ N ( l o g ( p 1 ) , ( 1 p 1 ) / ( p 1 n ) ) {\displaystyle log({\hat {p}}_{1}){\dot {\sim }}N(log(p_{1}),(1-p1)/(p_{1}*n))} C I ( p 1 ) : e l o g ( p ^ 1 ) ± ( 1 p ^ 1 ) / ( p ^ 1 n ) ) {\displaystyle CI(p_{1}):e^{log({\hat {p}}_{1})\pm (1-{\hat {p}}_{1})/({\hat {p}}_{1}*n))}} p ^ 1 {\displaystyle {\hat {p}}_{1}} E [ p ^ 1 ] = e l o g ( p 1 ) + 1 / 2 ( 1 p 1 ) / ( p 1 n ) {\displaystyle E[{\hat {p}}_{1}]=e^{log(p_{1})+1/2*(1-p1)/(p_{1}*n)}} E [ p ^ 1 ] = e l o g ( p 1 ) = p 1 {\displaystyle E[{\hat {p}}_{1}]=e^{log(p_{1})}=p_{1}}
  3. ^ El sesgo se puede minimizar parcialmente utilizando: [ E ( X 1 ) E ( X 2 ) ] ^ = [ E ^ ( X 1 ) E ^ ( X 2 ) ] 2 ( σ 1 2 n 1 + σ 2 2 n 2 + σ 1 4 2 ( n 1 1 ) + σ 2 4 2 ( n 2 1 ) ) ^ = [ e ( μ ^ 1 μ ^ 2 ) + 1 2 ( S 1 2 S 2 2 ) ] 2 S 1 2 n 1 + S 2 2 n 2 + S 1 4 2 ( n 1 1 ) + S 2 4 2 ( n 2 1 ) {\displaystyle {\widehat {\left[{\frac {E(X_{1})}{E(X_{2})}}\right]}}=\left[{\frac {{\widehat {E}}(X_{1})}{{\widehat {E}}(X_{2})}}\right]{\frac {2}{\widehat {\left({\frac {\sigma _{1}^{2}}{n_{1}}}+{\frac {\sigma _{2}^{2}}{n_{2}}}+{\frac {\sigma _{1}^{4}}{2(n_{1}-1)}}+{\frac {\sigma _{2}^{4}}{2(n_{2}-1)}}\right)}}}=\left[e^{({\widehat {\mu }}_{1}-{\widehat {\mu }}_{2})+{\frac {1}{2}}(S_{1}^{2}-S_{2}^{2})}\right]{\frac {2}{{\frac {S_{1}^{2}}{n_{1}}}+{\frac {S_{2}^{2}}{n_{2}}}+{\frac {S_{1}^{4}}{2(n_{1}-1)}}+{\frac {S_{2}^{4}}{2(n_{2}-1)}}}}}

Referencias

  1. ^ Norton, Matthew; Khokhlov, Valentyn; Uryasev, Stan (2019). "Cálculo de CVaR y bPOE para distribuciones de probabilidad comunes con aplicación a la optimización de carteras y estimación de densidad" (PDF) . Anales de investigación de operaciones . 299 (1–2). Springer: 1281–1315. arXiv : 1811.11301 . doi :10.1007/s10479-019-03373-1. S2CID  254231768. Archivado (PDF) desde el original el 2021-04-18 . Consultado el 2023-02-27 – vía stonybrook.edu.
  2. ^ abcd Weisstein, Eric W. "Distribución logarítmica normal". mathworld.wolfram.com . Consultado el 13 de septiembre de 2020 .
  3. ^ ab "1.3.6.6.9. Distribución lognormal". www.itl.nist.gov . Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST) . Consultado el 13 de septiembre de 2020 .
  4. ^ abcde Johnson, Norman L.; Kotz, Samuel; Balakrishnan, N. (1994), "14: Distribuciones lognormales", Distribuciones univariadas continuas. Vol. 1 , Wiley Series in Probability and Mathematical Statistics: Applied Probability and Statistics (2.ª ed.), Nueva York: John Wiley & Sons , ISBN 978-0-471-58495-7, Sr.  1299979
  5. ^ Park, Sung Y.; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía" (PDF) . Journal of Econometrics . 150 (2): 219–230, esp. Tabla 1, p. 221. CiteSeerX 10.1.1.511.9750 . doi :10.1016/j.jeconom.2008.12.014. Archivado desde el original (PDF) el 2016-03-07 . Consultado el 2011-06-02 . 
  6. ^ Tarmast, Ghasem (2001). Distribución log-normal multivariante (PDF) . Actas del ISI: 53.ª sesión. Seúl. Archivado (PDF) desde el original el 19 de julio de 2013.
  7. ^ Halliwell, Leigh (2015). The Lognormal Random Multivariate (PDF) . Casualty Actuarial Society E-Forum, primavera de 2015. Arlington, VA. Archivado (PDF) desde el original el 30 de septiembre de 2015.
  8. ^ Heyde, CC. (2010), "Sobre una propiedad de la distribución lognormal", Journal of the Royal Statistical Society, Serie B , vol. 25, núm. 2, págs. 392–393, doi : 10.1007/978-1-4419-5823-5_6 , ISBN 978-1-4419-5822-8
  9. ^ Billingsley, Patrick (2012). Probabilidad y medida (edición de aniversario). Hoboken, Nueva Jersey: Wiley. pág. 415. ISBN 978-1-118-12237-2.OCLC 780289503  .
  10. ^ ab Holgate, P. (1989). "La función característica lognormal", vol. 18, págs. 4539-4548, 1989. Communications in Statistics - Theory and Methods . 18 (12): 4539-4548. doi :10.1080/03610928908830173.
  11. ^ Barakat, R. (1976). "Sumas de variables aleatorias independientes distribuidas lognormalmente". Revista de la Sociedad Óptica de América . 66 (3): 211–216. Código Bibliográfico :1976JOSA...66..211B. doi :10.1364/JOSA.66.000211.
  12. ^ Barouch, E.; Kaufman, GM.; Glasser, ML. (1986). "Sobre sumas de variables aleatorias lognormales" (PDF) . Estudios en Matemáticas Aplicadas . 75 (1): 37–55. doi :10.1002/sapm198675137. hdl : 1721.1/48703 .
  13. ^ Leipnik, Roy B. (enero de 1991). "Sobre variables aleatorias lognormales: I – La función característica" (PDF) . Revista de la Sociedad Matemática Australiana, Serie B . 32 (3): 327–347. doi : 10.1017/S0334270000006901 .
  14. ^ S. Asmussen, JL Jensen, L. Rojas-Nandayapa (2016). "Sobre la transformada de Laplace de la distribución Lognormal", Metodología y Computación en Probabilidad Aplicada 18 (2), 441-458. Informe Thiele 6 (13).
  15. ^ abc Das, Abhranil (2021). "Un método para integrar y clasificar distribuciones normales". Revista de Visión . 21 (10): 1. arXiv : 2012.14331 . doi :10.1167/jov.21.10.1. PMC 8419883 . PMID  34468706. 
  16. ^ ab Kirkwood, Thomas BL (diciembre de 1979). "Medidas geométricas y medidas de dispersión". Biometrics . 35 (4): 908–9. JSTOR  2530139.
  17. ^ Limpert, E; Stahel, W; Abbt, M (2001). "Distribuciones lognormales en las ciencias: claves y pistas". BioScience . 51 (5): 341–352. doi : 10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 .
  18. ^ ab Heil P, Friedrich B (2017). "Revisión de la correspondencia entre el inicio y la duración de los estímulos acústicos: medidas aritméticas convencionales frente a medidas geométricas propuestas de exactitud y precisión". Frontiers in Psychology . 7 : 2013. doi : 10.3389/fpsyg.2016.02013 . PMC 5216879 . PMID  28111557. 
  19. ^ Sawant, S.; Mohan, N. (2011) "Preguntas frecuentes: Problemas con el análisis de eficacia de los datos de ensayos clínicos utilizando SAS" Archivado el 24 de agosto de 2011 en Wayback Machine , PharmaSUG2011 , Documento PO08
  20. ^ Schiff, MH; et al. (2014). "Estudio cruzado, aleatorizado y comparativo de metotrexato oral versus subcutáneo en pacientes con artritis reumatoide: las limitaciones de la exposición al fármaco del metotrexato oral en dosis >=15 mg pueden superarse con la administración subcutánea". Ann Rheum Dis . 73 (8): 1–3. doi :10.1136/annrheumdis-2014-205228. PMC 4112421 . PMID  24728329. 
  21. ^ Daly, Leslie E.; Bourke, Geoffrey Joseph (2000). Interpretación y usos de las estadísticas médicas . Vol. 46 (5.ª ed.). Oxford, Reino Unido: Wiley-Blackwell. pág. 89. doi :10.1002/9780470696750. ISBN. 978-0-632-04763-5.PMC 1059583 ;  {{cite book}}: |journal=ignorado ( ayuda ) edición impresa. Libro electrónico en línea ISBN 9780470696750 
  22. ^ "ProbOnto" . Consultado el 1 de julio de 2017 .
  23. ^ Swat, MJ; Grenon, P; Wimalaratne, S (2016). "ProbOnto: ontología y base de conocimiento de distribuciones de probabilidad". Bioinformática . 32 (17): 2719–21. doi :10.1093/bioinformatics/btw170. PMC 5013898 . PMID  27153608. 
  24. ^ ab Forbes et al. Distribuciones de probabilidad (2011), John Wiley & Sons, Inc.
  25. ^ Lunn, D. (2012). El libro BUGS: una introducción práctica al análisis bayesiano. Textos en ciencia estadística. CRC Press.
  26. ^ Limpert, E.; Stahel, WA; Abbt, M. (2001). "Distribuciones log-normales en las ciencias: claves y pistas". BioScience . 51 (5): 341–352. doi : 10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 .
  27. ^ Nyberg, J.; et al. (2012). "PopED - Una herramienta de diseño poblacional óptima, extendida y paralelizada". Comput Methods Programs Biomed . 108 (2): 789–805. doi :10.1016/j.cmpb.2012.05.005. PMID  22640817.
  28. ^ Retout, S; Duffull, S; Mentré, F (2001). "Desarrollo e implementación de la matriz de información de Fisher poblacional para la evaluación de diseños farmacocinéticos poblacionales". Comp Meth Pro Biomed . 65 (2): 141–151. doi :10.1016/S0169-2607(00)00117-6. PMID  11275334.
  29. ^ El equipo de desarrollo de PopED (2016). Manual de PopED, versión de lanzamiento 2.13. Informe técnico, Universidad de Uppsala.
  30. ^ Sitio web de ProbOnto, URL: http://probonto.org
  31. ^ Damgaard, Christian; Weiner, Jacob (2000). "Descripción de la desigualdad en el tamaño o la fecundidad de las plantas". Ecología . 81 (4): 1139–1142. doi :10.1890/0012-9658(2000)081[1139:DIIPSO]2.0.CO;2.
  32. ^ Rossman, Lewis A (julio de 1990). "Diseño de caudales de corriente basados ​​en medias armónicas". Journal of Hydraulic Engineering . 116 (7): 946–950. doi :10.1061/(ASCE)0733-9429(1990)116:7(946).
  33. ^ Thorin, Olof (1977). "Sobre la divisibilidad infinita de la distribución lognormal". Scandinavian Actuarial Journal . 1977 (3): 121–148. doi :10.1080/03461238.1977.10405635. ISSN  0346-1238.
  34. ^ ab Gao, Xin (2009). "Comportamiento asintótico de la densidad de cola para la suma de variables lognormales correlacionadas". Revista internacional de matemáticas y ciencias matemáticas . 2009 : 1–28. doi : 10.1155/2009/630857 .
  35. ^ Asmussen, S.; Rojas-Nandayapa, L. (2008). "Asintótica de sumas de variables aleatorias lognormales con cópula gaussiana" (PDF) . Statistics and Probability Letters . 78 (16): 2709–2714. doi :10.1016/j.spl.2008.03.035.
  36. ^ Marlow, NA. (Noviembre de 1967). "Un teorema de límite normal para sumas de potencias de variables aleatorias normales independientes". Bell System Technical Journal . 46 (9): 2081–2089. doi :10.1002/j.1538-7305.1967.tb04244.x.
  37. ^ Botev, ZI; L'Ecuyer, P. (2017). "Cálculo preciso de la cola derecha de la suma de las variables log-normales dependientes". 2017 Winter Simulation Conference (WSC), 3rd–6th Dec 2017 . Las Vegas, NV, EE. UU.: IEEE. págs. 1880–1890. arXiv : 1705.03196 . doi :10.1109/WSC.2017.8247924. ISBN 978-1-5386-3428-8.
  38. ^ Asmussen, A.; Goffard, P.-O.; Laub, PJ (2016). "Expansiones polinómicas ortonormales y densidades de suma lognormal". arXiv : 1601.01763v1 [math.PR].
  39. ^ Sangal, B.; Biswas, A. (1970). "Aplicaciones de la distribución lognormal de 3 parámetros en hidrología". Investigación de recursos hídricos . 6 (2): 505–515. doi :10.1029/WR006i002p00505.
  40. ^ Johnson, NL (1949). "Sistemas de curvas de frecuencia generadas por métodos de traducción". Biometrika . 36 (1/2): 149–176. doi :10.2307/2332539. JSTOR  2332539. PMID  18132090.
  41. ^ Swamee, PK (2002). "Distribución casi lognormal". Revista de ingeniería hidrológica . 7 (6): 441–444. doi :10.1061/(ASCE)1084-0699(2002)7:6(441).
  42. ^ abc Olsson, Ulf. "Intervalos de confianza para la media de una distribución log-normal". Journal of Statistics Education 13.1 (2005).pdf html
  43. ^ user10525, ¿Cómo calculo un intervalo de confianza para la media de un conjunto de datos log-normales?, URL (versión: 2022-12-18): https://stats.stackexchange.com/q/33395
  44. ^ Land, CE (1971), “Intervalos de confianza para funciones lineales de la media normal y la varianza”, Annals of Mathematical Statistics, 42, 1187–1205.
  45. ^ Zhou, XH., y Gao, S. (1997), “Intervalos de confianza para la media log-normal”, Estadísticas en Medicina, 16, 783–790.
  46. ^ Intervalos de confianza para razones de riesgo y razones de probabilidades
  47. ^ ab Wu, Ziniu; Li, Juan; Bai, Chenyuan (2017). "Relaciones de escalamiento del proceso de crecimiento de tipo lognormal con un principio de entropía extrema". Entropía . 19 (56): 1–14. Bibcode :2017Entrp..19...56W. doi : 10.3390/e19020056 .
  48. ^ Wu, Zi-Niu (2003). "Predicción de la distribución del tamaño de gotas expulsadas secundariamente por salpicadura de gotas que chocan contra una pared sólida". Mecánica de ingeniería probabilística . 18 (3): 241–249. Código Bibliográfico :2003PEngM..18..241W. doi :10.1016/S0266-8920(03)00028-6.
  49. ^ Wang, WenBin; Wu, ZiNiu; Wang, ChunFeng; Hu, RuiFeng (2013). "Modelado de la tasa de propagación de epidemias transmisibles controladas a través de un modelo termodinámico basado en la entropía". Science China Physics, Mechanics and Astronomy . 56 (11): 2143–2150. arXiv : 1304.5603 . Bibcode :2013SCPMA..56.2143W. doi :10.1007/s11433-013-5321-0. ISSN  1674-7348. PMC 7111546 . PMID  32288765. 
  50. ^ Bloetscher, Frederick (2019). "Uso de métodos predictivos bayesianos de Monte Carlo-Cadena de Markov para proporcionar una solución probabilística para la ecuación de Drake". Acta Astronautica . 155 : 118–130. Código Bibliográfico :2019AcAau.155..118B. doi :10.1016/j.actaastro.2018.11.033. S2CID  117598888.
  51. ^ Sutton, John (marzo de 1997). "El legado de Gibrat". Revista de literatura económica . 32 (1): 40–59. JSTOR  2729692.
  52. ^ abc Limpert, Eckhard; Stahel, Werner A.; Abbt, Markus (2001). "Distribuciones log-normales en las ciencias: claves y pistas". BioScience . 51 (5): 341. doi : 10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 . ISSN  0006-3568.
  53. ^ ab Buzsáki, György; Mizuseki, Kenji (6 de enero de 2017). "El cerebro log-dinámico: cómo las distribuciones sesgadas afectan las operaciones de red". Nature Reviews. Neurociencia . 15 (4): 264–278. doi :10.1038/nrn3687. ISSN  1471-003X. PMC 4051294 . PMID  24569488. 
  54. ^ abc Pawel, Sobkowicz; et al. (2013). "Distribuciones lognormales de la longitud de las publicaciones de los usuarios en discusiones de Internet: ¿una consecuencia de la ley de Weber-Fechner?". EPJ Data Science .
  55. ^ Yin, Peifeng; Luo, Ping; Lee, Wang-Chien; Wang, Min (2013). El silencio también es evidencia: interpretación del tiempo de permanencia para la recomendación desde una perspectiva psicológica. Conferencia internacional de la ACM sobre KDD.
  56. ^ "¿Cuál es la duración media de una partida de ajedrez?". chess.stackexchange.com . Consultado el 14 de abril de 2018 .
  57. ^ Huxley, Julian S. (1932). Problemas de crecimiento relativo . Londres. ISBN 978-0-486-61114-3.OCLC 476909537  .
  58. ^ Sartwell, Philip E. "La distribución de los períodos de incubación de las enfermedades infecciosas". Revista estadounidense de higiene 51 (1950): 310-318.
  59. ^ SK Chan, Jennifer; Yu, Philip LH (2006). "Modelado de datos del SARS mediante un proceso geométrico de umbral". Estadísticas en Medicina . 25 (11): 1826–1839. doi :10.1002/sim.2376. PMID  16345017. S2CID  46599163.
  60. ^ Ono, Yukiteru; Asai, Kiyoshi; Hamada, Michiaki (1 de enero de 2013). "PBSIM: Simulador de lecturas de PacBio: hacia un ensamblaje preciso del genoma". Bioinformática . 29 (1): 119–121. doi : 10.1093/bioinformatics/bts649 . ISSN  1367-4803. PMID  23129296.
  61. ^ Makuch, Robert W.; DH Freeman; MF Johnson (1979). "Justificación de la distribución lognormal como modelo para la presión arterial". Journal of Chronic Diseases . 32 (3): 245–250. doi :10.1016/0021-9681(79)90070-5. PMID  429469.
  62. ^ Lacey, LF; Keene, ON; Pritchard, JF; Bye, A. (1997-01-01). "Variables farmacocinéticas no compartimentales comunes: ¿tienen una distribución normal o log-normal?". Journal of Biopharmaceutical Statistics . 7 (1): 171–178. doi :10.1080/10543409708835177. ISSN  1054-3406. PMID  9056596.
  63. ^ Scheler, Gabriele; Schumann, Johann (8 de octubre de 2006). Diversidad y estabilidad en las tasas de producción neuronal . 36.ª reunión de la Sociedad de Neurociencias, Atlanta.
  64. ^ Mizuseki, Kenji; Buzsáki, György (12 de septiembre de 2013). "Distribución sesgada y preconfigurada de las tasas de activación en el hipocampo y la corteza entorinal". Cell Reports . 4 (5): 1010–1021. doi :10.1016/j.celrep.2013.07.039. ISSN  2211-1247. PMC 3804159 . PMID  23994479. 
  65. ^ Wohrer, Adrien; Humphries, Mark D.; Machens, Christian K. (1 de abril de 2013). "Distribuciones de la actividad neuronal en toda la población durante la toma de decisiones perceptual". Progress in Neurobiology . 103 : 156–193. doi :10.1016/j.pneurobio.2012.09.004. ISSN  1873-5118. PMC 5985929 . PMID  23123501. 
  66. ^ Scheler, Gabriele (28 de julio de 2017). "Las distribuciones logarítmicas demuestran que el aprendizaje intrínseco es hebbiano". F1000Research . 6 : 1222. doi : 10.12688/f1000research.12130.2 . PMC 5639933 . PMID  29071065. 
  67. ^ Morales-Gregorio, Aitor; van Meegen, Alexander; van Albada, Sacha (2023). "Distribución lognormal ubicua de densidades neuronales en la corteza cerebral de mamíferos". Corteza cerebral . 33 (16): 9439–9449. doi :10.1093/cercor/bhad160. PMC 10438924 . PMID  37409647. 
  68. ^ Polizzi, Stefano; Laperrousaz, Bastien; Pérez-Reche, Francisco J; Nicolini, Franck E; Satta, Véronique Maguer; Arneodo, Alain; Argoul, Françoise (29 de mayo de 2018). "Un modelo de cascada de ruptura mínima para la plasticidad de las células vivas". Nueva Revista de Física . 20 (5): 053057. Código bibliográfico : 2018NJPh...20e3057P. doi :10.1088/1367-2630/aac3c7. hdl : 2164/10561 . ISSN  1367-2630.
  69. ^ Ahrens, LH (1954-02-01). "La distribución lognormal de los elementos (Una ley fundamental de la geoquímica y su subsidiaria)". Geochimica et Cosmochimica Acta . 5 (2): 49–73. Bibcode :1954GeCoA...5...49A. doi :10.1016/0016-7037(54)90040-X. ISSN  0016-7037.
  70. ^ Oosterbaan, RJ (1994). "6: Análisis de frecuencia y regresión" (PDF) . En Ritzema, HP (ed.). Principios y aplicaciones del drenaje, publicación 16. Wageningen, Países Bajos: Instituto Internacional para la Recuperación y Mejora de Tierras (ILRI). pp. 175–224. ISBN 978-90-70754-33-4.
  71. ^ CumFreq, software libre para la adaptación de distribuciones
  72. ^ Clementi, Fabio; Gallegati, Mauro (2005) "La ley de Pareto de la distribución del ingreso: evidencia para Alemania, el Reino Unido y los Estados Unidos", EconWPA
  73. ^ Wataru, Souma (22 de febrero de 2002). "Física del ingreso personal". En Takayasu, Hideki (ed.). Ciencia empírica de las fluctuaciones financieras: el advenimiento de la econofísica . Springer. arXiv : cond-mat/0202388 . doi :10.1007/978-4-431-66993-7.
  74. ^ Black, F.; Scholes, M. (1973). "La fijación de precios de opciones y pasivos corporativos". Revista de Economía Política . 81 (3): 637. doi :10.1086/260062. S2CID  154552078.
  75. ^ Mandelbrot, Benoit (2004). El (mal) comportamiento de los mercados. Basic Books. ISBN 9780465043552.
  76. ^ Bunchen, P., Advanced Option Pricing , libro de texto de la Universidad de Sydney, 2007
  77. ^ Thelwall, Mike; Wilson, Paul (2014). "Regresión para datos de citas: una evaluación de diferentes métodos". Journal of Informetrics . 8 (4): 963–971. arXiv : 1510.08877 . doi :10.1016/j.joi.2014.09.011. S2CID  8338485.
  78. ^ Sheridan, Paul; Onodera, Taku (2020). "Una paradoja de apego preferencial: cómo el apego preferencial se combina con el crecimiento para producir redes con distribuciones de grado interno log-normales". Scientific Reports . 8 (1): 2811. arXiv : 1703.06645 . doi :10.1038/s41598-018-21133-2. PMC 5809396 . PMID  29434232. 
  79. ^ Eeckhout, Jan (2004). "La ley de Gibrat para (todas) las ciudades". American Economic Review . 94 (5): 1429–1451. doi :10.1257/0002828043052303. JSTOR  3592829 – vía JSTOR.
  80. ^ Kault, David (1996). "La forma de la distribución del número de parejas sexuales". Estadísticas en Medicina . 15 (2): 221–230. doi :10.1002/(SICI)1097-0258(19960130)15:2<221::AID-SIM148>3.0.CO;2-Q. PMID  8614756.
  81. ^ O'Connor, Patrick; Kleyner, Andre (2011). Ingeniería de confiabilidad práctica . John Wiley & Sons. pág. 35. ISBN 978-0-470-97982-2.
  82. ^ "Shadowing". www.WirelessCommunication.NL . Archivado desde el original el 13 de enero de 2012.
  83. ^ Dexter, AR; Tanner, DW (julio de 1972). "Densidades de empaquetamiento de mezclas de esferas con distribuciones de tamaño log-normales". Nature Physical Science . 238 (80): 31–32. Bibcode :1972NPhS..238...31D. doi :10.1038/physci238031a0. ISSN  2058-1106.
  84. ^ Gros, C; Kaczor, G.; Markovic, D (2012). "Restricciones neuropsicológicas a la producción de datos humanos a escala global". The European Physical Journal B . 85 (28): 28. arXiv : 1111.6849 . Bibcode :2012EPJB...85...28G. doi :10.1140/epjb/e2011-20581-3. S2CID  17404692.
  85. ^ Douceur, John R.; Bolosky, William J. (1999-05-01). "Un estudio a gran escala del contenido de los sistemas de archivos". Revisión de evaluación del rendimiento de ACM SIGMETRICS . 27 (1): 59–70. doi : 10.1145/301464.301480 . ISSN  0163-5999.
  86. ^ Alamsar, Mohammed; Parisis, George; Clegg, Richard; Zakhleniuk, Nickolay (2019). "Sobre la distribución de volúmenes de tráfico en Internet y sus implicaciones". arXiv : 1902.03853 [cs.NI].
  87. ^ ASTM D3654, Método de prueba estándar para la adhesión por cizallamiento en cintas sensibles a la presión
  88. ^ ASTM D4577, Método de prueba estándar para la resistencia a la compresión de un contenedor bajo carga constante>\

Lectura adicional

  • Crow, Edwin L.; Shimizu, Kunio, eds. (1988), Distribuciones lognormales, teoría y aplicaciones , Estadística: libros de texto y monografías, vol. 88, Nueva York: Marcel Dekker, Inc., págs. xvi+387, ISBN 978-0-8247-7803-3, MR  0939191, Zbl  0644.62014
  • Aitchison, J. y Brown, JAC (1957) La distribución lognormal , Cambridge University Press.
  • Limpert, E; Stahel, W; Abbt, M (2001). "Distribuciones lognormales en las ciencias: claves y pistas". BioScience . 51 (5): 341–352. doi : 10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 .
  • Holgate, P. (1989). "La función característica lognormal". Comunicaciones en Estadística - Teoría y Métodos . 18 (12): 4539–4548. doi :10.1080/03610928908830173.
  • Brooks, Robert; Corson, Jon; Donal, Wales (1994). "La fijación de precios de las opciones sobre índices cuando todos los activos subyacentes siguen una difusión lognormal". Avances en la investigación de futuros y opciones . 7 . SSRN  5735.
  • La distribución normal es la distribución log-normal
Retrieved from "https://en.wikipedia.org/w/index.php?title=Log-normal_distribution&oldid=1248200009"