Función característica (teoría de la probabilidad)

Transformada de Fourier de la función de densidad de probabilidad
Función característica de una variable aleatoria uniforme U (–1,1). Esta función tiene valores reales porque corresponde a una variable aleatoria que es simétrica en torno al origen; sin embargo, las funciones características pueden tener valores complejos en general.

En teoría de probabilidad y estadística , la función característica de cualquier variable aleatoria de valor real define completamente su distribución de probabilidad . Si una variable aleatoria admite una función de densidad de probabilidad , entonces la función característica es la transformada de Fourier (con inversión de signo) de la función de densidad de probabilidad. Por lo tanto, proporciona una ruta alternativa para obtener resultados analíticos en comparación con el trabajo directo con funciones de densidad de probabilidad o funciones de distribución acumulativa . Hay resultados particularmente simples para las funciones características de distribuciones definidas por las sumas ponderadas de variables aleatorias.

Además de las distribuciones univariadas , se pueden definir funciones características para variables aleatorias con valores vectoriales o matriciales, y también se pueden extender a casos más genéricos.

La función característica siempre existe cuando se la trata como una función de un argumento de valor real, a diferencia de la función generadora de momentos . Existen relaciones entre el comportamiento de la función característica de una distribución y las propiedades de la distribución, como la existencia de momentos y la existencia de una función de densidad.

Introducción

La función característica es una forma de describir una variable aleatoria . La función característica ,

φ incógnita ( a ) = mi [ mi i a incógnita ] , {\displaystyle \varphi _{X}(t)=\nombre del operador {E} \left[e^{itX}\right],}

Una función de t determina el comportamiento y las propiedades de la distribución de probabilidad de la variable aleatoria X. Equivale a una función de densidad de probabilidad o a una función de distribución acumulativa en el sentido de que conociendo una de las funciones siempre es posible encontrar las otras, aunque proporcionan diferentes perspectivas para comprender las características de la variable aleatoria. Además, en casos particulares, puede haber diferencias en cuanto a si estas funciones se pueden representar como expresiones que involucren funciones estándar simples.

Si una variable aleatoria admite una función de densidad , entonces la función característica es su dual de Fourier , en el sentido de que cada una de ellas es una transformada de Fourier de la otra. Si una variable aleatoria tiene una función generadora de momentos , entonces el dominio de la función característica puede extenderse al plano complejo, y METRO incógnita ( a ) Estilo de visualización M_{X}(t)}

φ incógnita ( i a ) = METRO incógnita ( a ) . {\displaystyle \varphi _{X}(-it)=M_{X}(t).} [1]

Obsérvese, sin embargo, que la función característica de una distribución está bien definida para todos los valores reales de t , incluso cuando la función generadora de momentos no está bien definida para todos los valores reales de t .

El enfoque de la función característica es particularmente útil en el análisis de combinaciones lineales de variables aleatorias independientes: una prueba clásica del Teorema del Límite Central utiliza funciones características y el Teorema de continuidad de Lévy . Otra aplicación importante es la teoría de la descomponibilidad de variables aleatorias.

Definición

Para una variable aleatoria escalar X, la función característica se define como el valor esperado de e itX , donde i es la unidad imaginaria y tR es el argumento de la función característica:

{ φ incógnita : R do φ incógnita ( a ) = mi [ mi i a incógnita ] = R mi i a incógnita d F incógnita ( incógnita ) = R mi i a incógnita F incógnita ( incógnita ) d incógnita = 0 1 mi i a Q incógnita ( pag ) d pag {\displaystyle {\begin{cases}\displaystyle \varphi _{X}\!:\mathbb {R} \to \mathbb {C} \\\displaystyle \varphi _{X}(t)=\operatorname {E} \left[e^{itX}\right]=\int _{\mathbb {R} }e^{itx}\,dF_{X}(x)=\int _{\mathbb {R} }e^{itx}f_{X}(x)\,dx=\int _{0}^{1}e^{itQ_{X}(p)}\,dp\end{cases}}}

Aquí F X es la función de distribución acumulativa de X , f X es la función de densidad de probabilidad correspondiente , Q X ( p ) es la función de distribución acumulativa inversa correspondiente también llamada función cuantil , [2] y las integrales son del tipo Riemann–Stieltjes . Si una variable aleatoria X tiene una función de densidad de probabilidad entonces la función característica es su transformada de Fourier con inversión de signo en la exponencial compleja [3] [ página necesaria ] . [4] Esta convención para las constantes que aparecen en la definición de la función característica difiere de la convención habitual para la transformada de Fourier. [5] Por ejemplo, algunos autores [6] definen φ X ( t ) = E[ e −2 πitX ] , que es esencialmente un cambio de parámetro. Se pueden encontrar otras notaciones en la literatura: como la función característica para una medida de probabilidad p , o como la función característica correspondiente a una densidad f . pag ^ {\displaystyle \scriptstyle {\hat {p}}} F ^ {\displaystyle \scriptstyle {\hat {f}}}

Generalizaciones

La noción de funciones características se generaliza a variables aleatorias multivariadas y elementos aleatorios más complejos . El argumento de la función característica siempre pertenecerá al dual continuo del espacio donde la variable aleatoria X toma sus valores. Para los casos comunes, dichas definiciones se enumeran a continuación:

  • Si X es un vector aleatorio de dimensión k , entonces para tR k donde es la transpuesta del vector   , φ incógnita ( a ) = mi [ exp ( i a yo incógnita ) ] , {\displaystyle \varphi _{X}(t)=\operatorname {E} \left[\exp(it^{T}\!X)\right],} a yo {\textstyle t^{T}} a {\textstyle t}
  • Si X es una matriz aleatoria de dimensión k × p , entonces para tR k × p donde es el operador de traza , φ incógnita ( a ) = mi [ exp ( i es ( a yo incógnita ) ) ] , {\displaystyle \varphi _{X}(t)=\nombredeloperador {E} \left[\exp \left(i\nombredeloperador {tr} (t^{T}\!X)\right)\right],} es ( ) {\textstyle \operatorname {tr} (\cdot )}
  • Si X es una variable aleatoria compleja , entonces para tC [7] donde es el conjugado complejo de  y es la parte real del número complejo , φ incógnita ( a ) = mi [ exp ( i Re ( a ¯ incógnita ) ) ] , {\displaystyle \varphi _{X}(t)=\nombredeloperador {E} \left[\exp \left(i\nombredeloperador {Re} \left({\overline {t}}X\right)\right)\right],} a ¯ {\textstyle {\overline {t}}} a {\textstyle t} Re ( el ) {\textstyle \operatorname {Re} (z)} el {\textstyle z}
  • Si X es un vector aleatorio complejo de dimensión k , entonces para tC k [8] donde es la transpuesta conjugada del vector   ,   φ incógnita ( a ) = mi [ exp ( i Re ( a incógnita ) ) ] , {\displaystyle \varphi _{X}(t)=\nombredeloperador {E} \left[\exp(i\nombredeloperador {Re} (t^{*}\!X))\right],} a {\textstyle t^{*}} a {\textstyle t}
  • Si X ( s ) es un proceso estocástico , entonces para todas las funciones t ( s ) tales que la integral converge para casi todas las realizaciones de X [9] R a ( s ) incógnita ( s ) d s {\textstyle \int _{\mathbb {R} }t(s)X(s)\,\mathrm {d} s} φ incógnita ( a ) = mi [ exp ( i R a ( s ) incógnita ( s ) d s ) ] . {\displaystyle \varphi _{X}(t)=\operatorname {E} \left[\exp \left(i\int _{\mathbf {R} }t(s)X(s)\,ds\right)\right].}

Ejemplos

DistribuciónFunción característica ϕ ( a ) {\displaystyle \phi(t)}
δ a degenerado mi i a a {\displaystyle e^{ita}}
Bernoulli Berna( p ) 1 pag + pag mi i a {\displaystyle 1-p+pe^{eso}}
Binomio B( n, p ) ( 1 pag + pag mi i a ) norte {\displaystyle (1-p+pe^{it})^{n}}
Binomio negativo NB( r, p ) ( p 1 e i t + p e i t ) r {\displaystyle \left({\frac {p}{1-e^{it}+pe^{it}}}\right)^{r}}
Poisson Pois( λ ) e λ ( e i t 1 ) {\displaystyle e^{\lambda (e^{it}-1)}}
Uniforme (continua) U( a, b ) e i t b e i t a i t ( b a ) {\displaystyle {\frac {e^{itb}-e^{ita}}{it(b-a)}}}
DU uniforme (discreta) ( a, b ) e i t a e i t ( b + 1 ) ( 1 e i t ) ( b a + 1 ) {\displaystyle {\frac {e^{ita}-e^{it(b+1)}}{(1-e^{it})(b-a+1)}}}
Laplace L( μ , b ) e i t μ 1 + b 2 t 2 {\displaystyle {\frac {e^{it\mu }}{1+b^{2}t^{2}}}}
Logística Logística ( μ , s )
e i μ t π s t sinh ( π s t ) {\displaystyle e^{i\mu t}{\frac {\pi st}{\sinh(\pi st)}}}
Normal N ( μ , σ 2 ) e i t μ 1 2 σ 2 t 2 {\displaystyle e^{it\mu -{\frac {1}{2}}\sigma ^{2}t^{2}}}
Chi-cuadrado χ 2 k ( 1 2 i t ) k / 2 {\displaystyle (1-2it)^{-k/2}}
Chi-cuadrado no central χ k 2 {\displaystyle {\chi '_{k}}^{2}} e i λ t 1 2 i t ( 1 2 i t ) k / 2 {\displaystyle e^{\frac {i\lambda t}{1-2it}}(1-2it)^{-k/2}}
Chi-cuadrado generalizado χ ~ ( w , k , λ , s , m ) {\displaystyle {\tilde {\chi }}({\boldsymbol {w}},{\boldsymbol {k}},{\boldsymbol {\lambda }},s,m)} exp [ i t ( m + j w j λ j 1 2 i w j t ) s 2 t 2 2 ] j ( 1 2 i w j t ) k j / 2 {\displaystyle {\frac {\exp \left[it\left(m+\sum _{j}{\frac {w_{j}\lambda _{j}}{1-2iw_{j}t}}\right)-{\frac {s^{2}t^{2}}{2}}\right]}{\prod _{j}\left(1-2iw_{j}t\right)^{k_{j}/2}}}}
C de Cauchy ( μ , θ ) e i t μ θ | t | {\displaystyle e^{it\mu -\theta |t|}}
Gamma Γ( k , θ ) ( 1 i t θ ) k {\displaystyle (1-it\theta )^{-k}}
Exp exponencial Exp( λ ) ( 1 i t λ 1 ) 1 {\displaystyle (1-it\lambda ^{-1})^{-1}}
Gf geométrica ( p )
(número de fallos)
p 1 e i t ( 1 p ) {\displaystyle {\frac {p}{1-e^{it}(1-p)}}}
Gt geométrico ( p )
(número de ensayos)
p e i t ( 1 p ) {\displaystyle {\frac {p}{e^{-it}-(1-p)}}}
Normal multivariada N ( μ , Σ ) e i t T μ 1 2 t T Σ t {\displaystyle e^{i{\mathbf {t} ^{\mathrm {T} }{\boldsymbol {\mu }}}-{\frac {1}{2}}\mathbf {t} ^{\mathrm {T} }{\boldsymbol {\Sigma }}\mathbf {t} }}
Cauchy multivariado MultiCauchy( μ , Σ ) [10] e i t T μ t T Σ t {\displaystyle e^{i\mathbf {t} ^{\mathrm {T} }{\boldsymbol {\mu }}-{\sqrt {\mathbf {t} ^{\mathrm {T} }{\boldsymbol {\Sigma }}\mathbf {t} }}}}

Oberhettinger (1973) proporciona tablas extensas de funciones características.

Propiedades

  • La función característica de una variable aleatoria de valor real siempre existe, ya que es una integral de una función continua acotada en un espacio cuya medida es finita.
  • Una función característica es uniformemente continua en todo el espacio.
  • No desaparece en una región alrededor del cero: φ (0) = 1 .
  • Está acotado: | φ ( t ) | ≤ 1 .
  • Es hermítica : φ (− t ) = φ ( t ) . En particular, la función característica de una variable aleatoria simétrica (alrededor del origen) es de valor real e incluso .
  • Existe una biyección entre las distribuciones de probabilidad y las funciones características. Es decir, para dos variables aleatorias cualesquiera X 1 , X 2 , ambas tienen la misma distribución de probabilidad si y solo si . [ cita requerida ] φ X 1 = φ X 2 {\displaystyle \varphi _{X_{1}}=\varphi _{X_{2}}}
  • Si una variable aleatoria X tiene momentos de hasta k -ésimo orden, entonces la función característica φ X es k veces continuamente diferenciable en toda la recta real. En este caso E [ X k ] = i k φ X ( k ) ( 0 ) . {\displaystyle \operatorname {E} [X^{k}]=i^{-k}\varphi _{X}^{(k)}(0).}
  • Si una función característica φ X tiene una derivada k -ésima en cero, entonces la variable aleatoria X tiene todos los momentos hasta k si k es par, pero sólo hasta k – 1 si k es impar. [11] φ X ( k ) ( 0 ) = i k E [ X k ] {\displaystyle \varphi _{X}^{(k)}(0)=i^{k}\operatorname {E} [X^{k}]}
  • Si X 1 , ..., X n son variables aleatorias independientes, y a 1 , ..., a n son algunas constantes, entonces la función característica de la combinación lineal de las variables Xi es Un caso específico es la suma de dos variables aleatorias independientes X 1 y X 2 en cuyo caso se tiene φ a 1 X 1 + + a n X n ( t ) = φ X 1 ( a 1 t ) φ X n ( a n t ) . {\displaystyle \varphi _{a_{1}X_{1}+\cdots +a_{n}X_{n}}(t)=\varphi _{X_{1}}(a_{1}t)\cdots \varphi _{X_{n}}(a_{n}t).} φ X 1 + X 2 ( t ) = φ X 1 ( t ) φ X 2 ( t ) . {\displaystyle \varphi _{X_{1}+X_{2}}(t)=\varphi _{X_{1}}(t)\cdot \varphi _{X_{2}}(t).}
  • Sean y dos variables aleatorias con funciones características y . y son independientes si y sólo si . X {\displaystyle X} Y {\displaystyle Y} φ X {\displaystyle \varphi _{X}} φ Y {\displaystyle \varphi _{Y}} X {\displaystyle X} Y {\displaystyle Y} φ X , Y ( s , t ) = φ X ( s ) φ Y ( t )  for all  ( s , t ) R 2 {\displaystyle \varphi _{X,Y}(s,t)=\varphi _{X}(s)\varphi _{Y}(t)\quad {\text{ for all }}\quad (s,t)\in \mathbb {R} ^{2}}
  • El comportamiento de la cola de la función característica determina la suavidad de la función de densidad correspondiente.
  • Sea la variable aleatoria la transformación lineal de una variable aleatoria . La función característica de es . Para vectores aleatorios y (donde A es una matriz constante y B un vector constante), tenemos . [12] Y = a X + b {\displaystyle Y=aX+b} X {\displaystyle X} Y {\displaystyle Y} φ Y ( t ) = e i t b φ X ( a t ) {\displaystyle \varphi _{Y}(t)=e^{itb}\varphi _{X}(at)} X {\displaystyle X} Y = A X + B {\displaystyle Y=AX+B} φ Y ( t ) = e i t B φ X ( A t ) {\displaystyle \varphi _{Y}(t)=e^{it^{\top }B}\varphi _{X}(A^{\top }t)}

Continuidad

La biyección enunciada anteriormente entre distribuciones de probabilidad y funciones características es secuencialmente continua . Es decir, siempre que una secuencia de funciones de distribución F j ( x ) converge (débilmente) a alguna distribución F ( x ) , la secuencia correspondiente de funciones características φ j ( t ) también convergerá, y el límite φ ( t ) corresponderá a la función característica de la ley F . Más formalmente, esto se enuncia como

Teorema de continuidad de Lévy : Una secuencia X j devariables aleatorias de n variables converge en distribución a la variable aleatoria X si y solo si la secuencia φ X j converge puntualmente a una función φ que es continua en el origen. Dondeφ es la función característica de X. [13]

Este teorema se puede utilizar para demostrar la ley de los grandes números y el teorema del límite central .

Fórmula de inversión

Existe una correspondencia biunívoca entre las funciones de distribución acumulativa y las funciones características, por lo que es posible hallar una de estas funciones si conocemos la otra. La fórmula de la definición de función característica nos permite calcular φ cuando conocemos la función de distribución F (o densidad f ). Si, por otro lado, conocemos la función característica φ y queremos hallar la función de distribución correspondiente, entonces se puede utilizar uno de los siguientes teoremas de inversión .

Teorema . Si la función característica φ X de una variable aleatoria X es integrable , entonces F X es absolutamente continua y, por lo tanto, X tiene una función de densidad de probabilidad . En el caso univariado (es decir, cuando X tiene un valor escalar), la función de densidad está dada por f X ( x ) = F X ( x ) = 1 2 π R e i t x φ X ( t ) d t . {\displaystyle f_{X}(x)=F_{X}'(x)={\frac {1}{2\pi }}\int _{\mathbf {R} }e^{-itx}\varphi _{X}(t)\,dt.}

En el caso multivariado es f X ( x ) = 1 ( 2 π ) n R n e i ( t x ) φ X ( t ) λ ( d t ) {\displaystyle f_{X}(x)={\frac {1}{(2\pi )^{n}}}\int _{\mathbf {R} ^{n}}e^{-i(t\cdot x)}\varphi _{X}(t)\lambda (dt)}

¿Dónde está el producto escalar ? t x {\textstyle t\cdot x}

La función de densidad es la derivada de Radon-Nikodym de la distribución μ X con respecto a la medida de Lebesgue λ : f X ( x ) = d μ X d λ ( x ) . {\displaystyle f_{X}(x)={\frac {d\mu _{X}}{d\lambda }}(x).}

Teorema (Lévy) . [nota 1] Si φ X es función característica de la función de distribución F X , dos puntos a < b son tales que { x | a < x < b } es un conjunto de continuidad de μ X (en el caso univariado esta condición es equivalente a la continuidad de F X en los puntos a y b ), entonces

  • Si X es escalar: Esta fórmula se puede reformular en una forma más conveniente para el cálculo numérico como [14] Para una variable aleatoria acotada desde abajo, se puede obtener tomando tal que De lo contrario, si una variable aleatoria no está acotada desde abajo, el límite para da , pero es numéricamente impráctico. [14] F X ( b ) F X ( a ) = 1 2 π lim T T + T e i t a e i t b i t φ X ( t ) d t . {\displaystyle F_{X}(b)-F_{X}(a)={\frac {1}{2\pi }}\lim _{T\to \infty }\int _{-T}^{+T}{\frac {e^{-ita}-e^{-itb}}{it}}\,\varphi _{X}(t)\,dt.} F ( x + h ) F ( x h ) 2 h = 1 2 π sin h t h t e i t x φ X ( t ) d t . {\displaystyle {\frac {F(x+h)-F(x-h)}{2h}}={\frac {1}{2\pi }}\int _{-\infty }^{\infty }{\frac {\sin ht}{ht}}e^{-itx}\varphi _{X}(t)\,dt.} F ( b ) {\displaystyle F(b)} a {\displaystyle a} F ( a ) = 0. {\displaystyle F(a)=0.} a {\displaystyle a\to -\infty } F ( b ) {\displaystyle F(b)}
  • Si X es una variable aleatoria vectorial: μ X ( { a < x < b } ) = 1 ( 2 π ) n lim T 1 lim T n T 1 t 1 T 1 T n t n T n k = 1 n ( e i t k a k e i t k b k i t k ) φ X ( t ) λ ( d t 1 × × d t n ) {\displaystyle \mu _{X}{\big (}\{a<x<b\}{\big )}={\frac {1}{(2\pi )^{n}}}\lim _{T_{1}\to \infty }\cdots \lim _{T_{n}\to \infty }\int \limits _{-T_{1}\leq t_{1}\leq T_{1}}\cdots \int \limits _{-T_{n}\leq t_{n}\leq T_{n}}\prod _{k=1}^{n}\left({\frac {e^{-it_{k}a_{k}}-e^{-it_{k}b_{k}}}{it_{k}}}\right)\varphi _{X}(t)\lambda (dt_{1}\times \cdots \times dt_{n})}

Teorema . Si a es (posiblemente) un átomo de X (en el caso univariado esto significa un punto de discontinuidad de F X ) entonces

  • Si X es escalar: F X ( a ) F X ( a 0 ) = lim T 1 2 T T + T e i t a φ X ( t ) d t {\displaystyle F_{X}(a)-F_{X}(a-0)=\lim _{T\to \infty }{\frac {1}{2T}}\int _{-T}^{+T}e^{-ita}\varphi _{X}(t)\,dt}
  • Si X es una variable aleatoria vectorial: [15] μ X ( { a } ) = lim T 1 lim T n ( k = 1 n 1 2 T k ) [ T 1 , T 1 ] × × [ T n , T n ] e i ( t a ) φ X ( t ) λ ( d t ) {\displaystyle \mu _{X}(\{a\})=\lim _{T_{1}\to \infty }\cdots \lim _{T_{n}\to \infty }\left(\prod _{k=1}^{n}{\frac {1}{2T_{k}}}\right)\int \limits _{[-T_{1},T_{1}]\times \dots \times [-T_{n},T_{n}]}e^{-i(t\cdot a)}\varphi _{X}(t)\lambda (dt)}

Teorema (Gil-Pelaez) . [16] Para una variable aleatoria univariante X , si x es un punto de continuidad de F X entonces

F X ( x ) = 1 2 1 π 0 Im [ e i t x φ X ( t ) ] t d t {\displaystyle F_{X}(x)={\frac {1}{2}}-{\frac {1}{\pi }}\int _{0}^{\infty }{\frac {\operatorname {Im} [e^{-itx}\varphi _{X}(t)]}{t}}\,dt}

donde la parte imaginaria de un número complejo está dada por . z {\displaystyle z} I m ( z ) = ( z z ) / 2 i {\displaystyle \mathrm {Im} (z)=(z-z^{*})/2i}

Y su función de densidad es:

f X ( x ) = 1 π 0 Re [ e i t x φ X ( t ) ] d t {\displaystyle f_{X}(x)={\frac {1}{\pi }}\int _{0}^{\infty }\operatorname {Re} [e^{-itx}\varphi _{X}(t)]\,dt}

La integral puede no ser integrable según el método de Lebesgue ; por ejemplo, cuando X es la variable aleatoria discreta que siempre es 0, se convierte en la integral de Dirichlet .

Existen fórmulas de inversión para distribuciones multivariadas. [14] [17]

Criterios para funciones características

El conjunto de todas las funciones características se cierra bajo ciertas operaciones:

  • Una combinación lineal convexa (con ) de un número finito o contable de funciones características también es una función característica. n a n φ n ( t ) {\textstyle \sum _{n}a_{n}\varphi _{n}(t)} a n 0 ,   n a n = 1 {\textstyle a_{n}\geq 0,\ \sum _{n}a_{n}=1}
  • El producto de un número finito de funciones características es también una función característica. Lo mismo vale para un producto infinito siempre que converja a una función continua en el origen.
  • Si φ es una función característica y α es un número real, entonces , Re( φ ), | φ | 2 , y φ ( αt ) también son funciones características. φ ¯ {\displaystyle {\bar {\varphi }}}

Es bien sabido que cualquier función càdlàg no decreciente F con límites F (−∞) = 0 , F (+∞) = 1 corresponde a una función de distribución acumulativa de alguna variable aleatoria. También existe interés en encontrar criterios simples similares para cuando una función dada φ podría ser la función característica de alguna variable aleatoria. El resultado central aquí es el teorema de Bochner , aunque su utilidad es limitada porque la condición principal del teorema, la definitividad no negativa , es muy difícil de verificar. También existen otros teoremas, como el de Khinchine, el de Mathias o el de Cramér, aunque su aplicación es igualmente difícil. El teorema de Pólya , por otro lado, proporciona una condición de convexidad muy simple que es suficiente pero no necesaria. Las funciones características que satisfacen esta condición se denominan de tipo Pólya. [18]

Teorema de Bochner . Una función arbitraria φ  : R nC es la función característica de alguna variable aleatoria si y solo si φ es definida positiva , continua en el origen y si φ (0) = 1 .

Criterio de Khinchine . Una función compleja, absolutamente continua φ , con φ (0) = 1 , es una función característica si y sólo si admite la representación

φ ( t ) = R g ( t + θ ) g ( θ ) ¯ d θ . {\displaystyle \varphi (t)=\int _{\mathbf {R} }g(t+\theta ){\overline {g(\theta )}}\,d\theta .}

Teorema de Mathias . Una función φ real, par, continua y absolutamente integrable , con φ (0) = 1 , es una función característica si y solo si

( 1 ) n ( R φ ( p t ) e t 2 / 2 H 2 n ( t ) d t ) 0 {\displaystyle (-1)^{n}\left(\int _{\mathbf {R} }\varphi (pt)e^{-t^{2}/2}H_{2n}(t)\,dt\right)\geq 0}

para n = 0,1,2,... , y todos los p > 0 . Aquí H 2 n denota el polinomio de Hermite de grado 2 n .

El teorema de Pólya se puede utilizar para construir un ejemplo de dos variables aleatorias cuyas funciones características coinciden en un intervalo finito pero son diferentes en el resto del intervalo.

Teorema de Pólya . Si es una función continua, par y de valores reales que satisface las condiciones φ {\displaystyle \varphi }

  • φ ( 0 ) = 1 {\displaystyle \varphi (0)=1} ,
  • φ {\displaystyle \varphi } es convexo para , t > 0 {\displaystyle t>0}
  • φ ( ) = 0 {\displaystyle \varphi (\infty )=0} ,

entonces φ ( t ) es la función característica de una distribución absolutamente continua simétrica respecto de 0.

Usos

Debido al teorema de continuidad , las funciones características se utilizan en la demostración más frecuente del teorema del límite central . La técnica principal que se utiliza para realizar cálculos con una función característica es reconocer la función como la función característica de una distribución particular.

Manipulaciones básicas de distribuciones

Las funciones características son particularmente útiles para trabajar con funciones lineales de variables aleatorias independientes . Por ejemplo, si X 1 , X 2 , ..., X n es una secuencia de variables aleatorias independientes (y no necesariamente idénticamente distribuidas), y

S n = i = 1 n a i X i , {\displaystyle S_{n}=\sum _{i=1}^{n}a_{i}X_{i},\,\!}

donde a i son constantes, entonces la función característica para S n está dada por

φ S n ( t ) = φ X 1 ( a 1 t ) φ X 2 ( a 2 t ) φ X n ( a n t ) {\displaystyle \varphi _{S_{n}}(t)=\varphi _{X_{1}}(a_{1}t)\varphi _{X_{2}}(a_{2}t)\cdots \varphi _{X_{n}}(a_{n}t)\,\!}

En particular, φ X+Y ( t ) = φ X ( t ) φ Y ( t ) . Para comprobarlo, escriba la definición de función característica:

φ X + Y ( t ) = E [ e i t ( X + Y ) ] = E [ e i t X e i t Y ] = E [ e i t X ] E [ e i t Y ] = φ X ( t ) φ Y ( t ) {\displaystyle \varphi _{X+Y}(t)=\operatorname {E} \left[e^{it(X+Y)}\right]=\operatorname {E} \left[e^{itX}e^{itY}\right]=\operatorname {E} \left[e^{itX}\right]\operatorname {E} \left[e^{itY}\right]=\varphi _{X}(t)\varphi _{Y}(t)}

Se requiere la independencia de X e Y para establecer la igualdad de las expresiones tercera y cuarta.

Otro caso especial de interés para las variables aleatorias distribuidas de manera idéntica es cuando a i = 1 / n y entonces S n es la media de la muestra. En este caso, escribiendo X para la media,

φ X ¯ ( t ) = φ X ( t n ) n {\displaystyle \varphi _{\overline {X}}(t)=\varphi _{X}\!\left({\tfrac {t}{n}}\right)^{n}}

Momentos

Las funciones características también se pueden utilizar para hallar momentos de una variable aleatoria. Siempre que exista el momento n - ésimo , la función característica se puede derivar n veces:

E [ X n ] = i n [ d n d t n φ X ( t ) ] t = 0 = i n φ X ( n ) ( 0 ) , {\displaystyle \operatorname {E} \left[X^{n}\right]=i^{-n}\left[{\frac {d^{n}}{dt^{n}}}\varphi _{X}(t)\right]_{t=0}=i^{-n}\varphi _{X}^{(n)}(0),\!}

Esto se puede escribir formalmente utilizando las derivadas de la función delta de Dirac : que permite una solución formal al problema del momento . Por ejemplo, supongamos que X tiene una distribución de Cauchy estándar . Entonces φ X ( t ) = e −| t | . Esto no es diferenciable en t = 0 , lo que demuestra que la distribución de Cauchy no tiene esperanza . Además, la función característica de la media muestral X de n observaciones independientes tiene función característica φ X ( t ) = ( e −| t |/ n ) n = e −| t | , utilizando el resultado de la sección anterior. Esta es la función característica de la distribución de Cauchy estándar: por tanto, la media muestral tiene la misma distribución que la propia población. f X ( x ) = n = 0 ( 1 ) n n ! δ ( n ) ( x ) E [ X n ] {\displaystyle f_{X}(x)=\sum _{n=0}^{\infty }{\frac {(-1)^{n}}{n!}}\delta ^{(n)}(x)\operatorname {E} [X^{n}]}

Como ejemplo adicional, supongamos que X sigue una distribución gaussiana , es decir , . Entonces y X N ( μ , σ 2 ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})} φ X ( t ) = e μ i t 1 2 σ 2 t 2 {\displaystyle \varphi _{X}(t)=e^{\mu it-{\frac {1}{2}}\sigma ^{2}t^{2}}}

E [ X ] = i 1 [ d d t φ X ( t ) ] t = 0 = i 1 [ ( i μ σ 2 t ) φ X ( t ) ] t = 0 = μ {\displaystyle \operatorname {E} \left[X\right]=i^{-1}\left[{\frac {d}{dt}}\varphi _{X}(t)\right]_{t=0}=i^{-1}\left[(i\mu -\sigma ^{2}t)\varphi _{X}(t)\right]_{t=0}=\mu }

Un cálculo similar muestra y es más fácil de realizar que aplicar la definición de expectativa y utilizar la integración por partes para evaluar . E [ X 2 ] = μ 2 + σ 2 {\displaystyle \operatorname {E} \left[X^{2}\right]=\mu ^{2}+\sigma ^{2}} E [ X 2 ] {\displaystyle \operatorname {E} \left[X^{2}\right]}

El logaritmo de una función característica es una función generadora de cumulantes , que es útil para encontrar cumulantes ; algunos, en cambio, definen la función generadora de cumulantes como el logaritmo de la función generadora de momentos , y llaman al logaritmo de la función característica la segunda función generadora de cumulantes.

Análisis de datos

Las funciones características se pueden utilizar como parte de los procedimientos para ajustar distribuciones de probabilidad a muestras de datos. Los casos en los que esto proporciona una opción practicable en comparación con otras posibilidades incluyen el ajuste de la distribución estable , ya que no se encuentran disponibles expresiones de forma cerrada para la densidad, lo que dificulta la implementación de la estimación de máxima verosimilitud . Hay procedimientos de estimación disponibles que hacen coincidir la función característica teórica con la función característica empírica , calculada a partir de los datos. Paulson et al. (1975) [19] y Heathcote (1977) [20] proporcionan algunos antecedentes teóricos para dicho procedimiento de estimación. Además, Yu (2004) [21] describe aplicaciones de funciones características empíricas para ajustar modelos de series temporales donde los procedimientos de verosimilitud son poco prácticos. Ansari et al. (2020) [22] y Li et al. (2020) [23] también han utilizado funciones características empíricas para entrenar redes generativas adversarias .

Ejemplo

La distribución gamma con parámetro de escala θ y un parámetro de forma k tiene la función característica

( 1 θ i t ) k . {\displaystyle (1-\theta it)^{-k}.}

Ahora supongamos que tenemos

X   Γ ( k 1 , θ )  and  Y Γ ( k 2 , θ ) {\displaystyle X~\sim \Gamma (k_{1},\theta ){\mbox{ and }}Y\sim \Gamma (k_{2},\theta )}

con X e Y independientes entre sí, y deseamos saber cuál es la distribución de X + Y. Las funciones características son

φ X ( t ) = ( 1 θ i t ) k 1 , φ Y ( t ) = ( 1 θ i t ) k 2 {\displaystyle \varphi _{X}(t)=(1-\theta it)^{-k_{1}},\,\qquad \varphi _{Y}(t)=(1-\theta it)^{-k_{2}}}

lo cual por independencia y las propiedades básicas de la función característica conduce a

φ X + Y ( t ) = φ X ( t ) φ Y ( t ) = ( 1 θ i t ) k 1 ( 1 θ i t ) k 2 = ( 1 θ i t ) ( k 1 + k 2 ) . {\displaystyle \varphi _{X+Y}(t)=\varphi _{X}(t)\varphi _{Y}(t)=(1-\theta it)^{-k_{1}}(1-\theta it)^{-k_{2}}=\left(1-\theta it\right)^{-(k_{1}+k_{2})}.}

Esta es la función característica del parámetro de escala de distribución gamma θ y del parámetro de forma k 1 + k 2 , y por lo tanto concluimos

X + Y Γ ( k 1 + k 2 , θ ) {\displaystyle X+Y\sim \Gamma (k_{1}+k_{2},\theta )}

El resultado se puede ampliar a n variables aleatorias distribuidas gamma independientes con el mismo parámetro de escala y obtenemos

i { 1 , , n } : X i Γ ( k i , θ ) i = 1 n X i Γ ( i = 1 n k i , θ ) . {\displaystyle \forall i\in \{1,\ldots ,n\}:X_{i}\sim \Gamma (k_{i},\theta )\qquad \Rightarrow \qquad \sum _{i=1}^{n}X_{i}\sim \Gamma \left(\sum _{i=1}^{n}k_{i},\theta \right).}

Funciones características completas

Como se definió anteriormente, el argumento de la función característica se trata como un número real; sin embargo, ciertos aspectos de la teoría de funciones características se avanzan extendiendo la definición al plano complejo mediante continuación analítica , en los casos en que esto es posible. [24]

Los conceptos relacionados incluyen la función generadora de momentos y la función generadora de probabilidad . La función característica existe para todas las distribuciones de probabilidad. Este no es el caso de la función generadora de momentos.

La función característica está estrechamente relacionada con la transformada de Fourier : la función característica de una función de densidad de probabilidad p ( x ) es el conjugado complejo de la transformada de Fourier continua de p ( x ) (según la convención habitual; ver transformada de Fourier continua – otras convenciones ).

φ X ( t ) = e i t X = R e i t x p ( x ) d x = ( R e i t x p ( x ) d x ) ¯ = P ( t ) ¯ , {\displaystyle \varphi _{X}(t)=\langle e^{itX}\rangle =\int _{\mathbf {R} }e^{itx}p(x)\,dx={\overline {\left(\int _{\mathbf {R} }e^{-itx}p(x)\,dx\right)}}={\overline {P(t)}},}

donde P ( t ) denota la transformada de Fourier continua de la función de densidad de probabilidad p ( x ) . Asimismo, p ( x ) puede recuperarse a partir de φ X ( t ) mediante la transformada de Fourier inversa:

p ( x ) = 1 2 π R e i t x P ( t ) d t = 1 2 π R e i t x φ X ( t ) ¯ d t . {\displaystyle p(x)={\frac {1}{2\pi }}\int _{\mathbf {R} }e^{itx}P(t)\,dt={\frac {1}{2\pi }}\int _{\mathbf {R} }e^{itx}{\overline {\varphi _{X}(t)}}\,dt.}

De hecho, incluso cuando la variable aleatoria no tiene densidad, la función característica puede verse como la transformada de Fourier de la medida correspondiente a la variable aleatoria.

Otro concepto relacionado es la representación de distribuciones de probabilidad como elementos de un espacio de Hilbert de núcleo reproductor mediante la incrustación de distribuciones en el núcleo . Este marco puede considerarse como una generalización de la función característica bajo elecciones específicas de la función de núcleo .

Véase también

  • Subindependencia , condición más débil que la independencia, que se define en términos de funciones características.
  • Cumulante , término de las funciones generadoras de cumulantes , que son logaritmos de las funciones características.

Notas

  1. ^ llamado así en honor al matemático francés Paul Lévy

Referencias

Citas

  1. ^ Lukács (1970), pág. 196.
  2. ^ Shaw, WT; McCabe, J. (2009). "Muestreo de Monte Carlo dada una función característica: mecánica cuantil en el espacio de momento". arXiv : 0903.1592 [q-fin.CP].
  3. ^ Procesamiento estadístico y adaptativo de señales (2005)
  4. ^ Billingsley (1995).
  5. ^ Pinsky (2002).
  6. ^ Bochner (1955).
  7. ^ Andersen y col. (1995), Definición 1.10.
  8. ^ Andersen y col. (1995), Definición 1.20.
  9. ^ Sobczyk (2001), pág. 20.
  10. ^ Kotz y Nadarajah (2004), pág. 37 utilizando 1 como el número de grados de libertad para recuperar la distribución de Cauchy
  11. ^ Lukacs (1970), Corolario 1 del Teorema 2.3.1.
  12. ^ "Función característica conjunta". www.statlect.com . Consultado el 7 de abril de 2018 .
  13. ^ Cuppens (1975), Teorema 2.6.9.
  14. ^ abc Shephard (1991a).
  15. ^ Cuppens (1975), Teorema 2.3.2.
  16. ^ Villanueva (1961).
  17. ^ Shephard (1991b).
  18. ^ Lukács (1970), pág. 84.
  19. ^ Paulson, Holcomb y Leitch (1975).
  20. ^ Heathcote (1977).
  21. ^ Yu (2004).
  22. ^ Ansari, Scarlett y Soh (2020).
  23. ^ Li y otros (2020).
  24. ^ Lukacs (1970), Capítulo 7.

Fuentes

  • Andersen, HH; Højbjerre, M.; Sorensen, D.; Eriksen, PS (1995). Modelos lineales y gráficos para la distribución normal compleja multivariada . Apuntes de conferencias sobre estadística 101. Nueva York: Springer-Verlag. ISBN 978-0-387-94521-7.
  • Billingsley, Patrick (1995). Probabilidad y medida (3.ª ed.). John Wiley & Sons. ISBN 978-0-471-00710-4.
  • Bisgaard, TM; Sasvári, Z. (2000). Funciones características y secuencias de momentos . Nova Science.
  • Bochner, Salomon (1955). Análisis armónico y teoría de la probabilidad . University of California Press.
  • Cuppens, R. (1975). Descomposición de probabilidades multivariadas . Academic Press. ISBN 9780121994501.
  • Heathcote, CR (1977). "La estimación del error cuadrático integrado de parámetros". Biometrika . 64 (2): 255–264. doi :10.1093/biomet/64.2.255.
  • Lukacs, E. (1970). Funciones características . Londres: Griffin.
  • Kotz, Samuel; Nadarajah, Saralees (2004). Distribuciones T multivariadas y sus aplicaciones . Cambridge University Press.
  • Manolakis, Dimitris G.; Ingle, Vinay K.; Kogon, Stephen M. (2005). Procesamiento estadístico y adaptativo de señales: estimación espectral, modelado de señales, filtrado adaptativo y procesamiento de matrices. Artech House. ISBN 978-1-58053-610-3.
  • Oberhettinger, Fritz (1973). Transformadas de Fourier de distribuciones y sus inversas; una colección de tablas . Nueva York: Academic Press. ISBN 9780125236508.
  • Paulson, AS; Holcomb, EW; Leitch, RA (1975). "La estimación de los parámetros de las leyes estables". Biometrika . 62 (1): 163–170. doi :10.1093/biomet/62.1.163.
  • Pinsky, Mark (2002). Introducción al análisis de Fourier y wavelets . Brooks/Cole. ISBN 978-0-534-37660-4.
  • Sobczyk, Kazimierz (2001). Ecuaciones diferenciales estocásticas . Editores académicos de Kluwer . ISBN 978-1-4020-0345-5.
  • Wendel, JG (1961). "La convergencia no absoluta de la integral de inversión de Gil-Pelaez". Anales de estadística matemática . 32 (1): 338–339. doi : 10.1214/aoms/1177705164 .
  • Yu, J. (2004). "Estimación de funciones características empíricas y sus aplicaciones" (PDF) . Econometric Reviews . 23 (2): 93–1223. doi :10.1081/ETC-120039605. S2CID  9076760.
  • Shephard, NG (1991a). "De la función característica a la función de distribución: un marco simple para la teoría". Teoría econométrica . 7 (4): 519–529. doi :10.1017/s0266466600004746. S2CID  14668369.
  • Shephard, NG (1991b). "Reglas de integración numérica para inversiones multivariadas". Revista de computación estadística y simulación . 39 (1–2): 37–46. doi :10.1080/00949659108811337.
  • Ansari, Abdul Fatir; Scarlett, Jonathan; Soh, Harold (2020). "Un enfoque de función característica para el modelado generativo implícito profundo". Actas de la Conferencia IEEE/CVF sobre visión artificial y reconocimiento de patrones (CVPR), 2020. págs. 7478–7487.
  • Li, Shengxi; Yu, Zeyang; Xiang, Min; Mandic, Danilo (2020). "Aprendizaje adversario recíproco a través de funciones características". Avances en sistemas de procesamiento de información neuronal 33 (NeurIPS 2020) .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Characteristic_function_(probability_theory)&oldid=1237843732"