Teoremas de convergencia de la martingala de Doob

Teoremas sobre procesos estocásticos

En matemáticas  – específicamente, en la teoría de procesos estocásticos  – los teoremas de convergencia de martingala de Doob son una colección de resultados sobre los límites de las supermartingalas , llamados así por el matemático estadounidense Joseph L. Doob . [1] De manera informal, el teorema de convergencia de martingala se refiere típicamente al resultado de que cualquier supermartingala que satisfaga una cierta condición de acotación debe converger. Uno puede pensar en las supermartingalas como los análogos de variable aleatoria de secuencias no crecientes; desde esta perspectiva, el teorema de convergencia de martingala es un análogo de variable aleatoria del teorema de convergencia monótona , que establece que cualquier secuencia monótona acotada converge. Hay resultados simétricos para submartingalas, que son análogos a secuencias no decrecientes.

Declaración para martingalas en tiempo discreto

Una formulación común del teorema de convergencia de martingalas para martingalas de tiempo discreto es la siguiente. Sea una supermartingala. Supongamos que la supermartingala está acotada en el sentido de que incógnita 1 , incógnita 2 , incógnita 3 , {\displaystyle X_{1},X_{2},X_{3},\puntos}

sorber a norte mi [ incógnita a ] < {\displaystyle \sup _{t\in \mathbf {N} }\nombre del operador {E} [X_{t}^{-}]<\infty }

donde es la parte negativa de , definida por . Entonces la secuencia converge casi con seguridad a una variable aleatoria con esperanza finita. incógnita a {\displaystyle X_{t}^{-}} X t {\displaystyle X_{t}} X t = min ( X t , 0 ) {\textstyle X_{t}^{-}=-\min(X_{t},0)} X {\displaystyle X}

Existe una afirmación simétrica para las submartingalas con expectativa acotada de la parte positiva. Una supermartingala es un análogo estocástico de una secuencia no creciente, y la condición del teorema es análoga a la condición del teorema de convergencia monótona de que la secuencia esté acotada desde abajo. La condición de que la martingala esté acotada es esencial; por ejemplo, un paseo aleatorio imparcial es una martingala pero no converge. ± 1 {\displaystyle \pm 1}

Como intuición, hay dos razones por las que una secuencia puede no converger. Puede ir al infinito o puede oscilar. La condición de acotación impide que ocurra lo primero. Lo segundo es imposible mediante un argumento de "apuesta". En concreto, considere un juego de bolsa en el que en el momento , la acción tiene un precio . No hay ninguna estrategia para comprar y vender la acción a lo largo del tiempo, manteniendo siempre una cantidad no negativa de acciones, que tiene un beneficio esperado positivo en este juego. La razón es que en cada momento el cambio esperado en el precio de la acción, dada toda la información pasada, es como máximo cero (por definición de una supermartingala). Pero si los precios oscilaran sin converger, entonces habría una estrategia con un beneficio esperado positivo: libremente, comprar barato y vender caro. Este argumento se puede hacer riguroso para demostrar el resultado. t {\displaystyle t} X t {\displaystyle X_{t}}

Boceto de prueba

La prueba se simplifica haciendo la suposición (más fuerte) de que la supermartingala está uniformemente acotada; es decir, hay una constante tal que siempre se cumple. En el caso de que la secuencia no converja, entonces y difieren. Si también la secuencia está acotada, entonces hay algunos números reales y tales que y la secuencia cruza el intervalo infinitamente a menudo. Es decir, la secuencia es eventualmente menor que , y en un momento posterior excede , y en un momento aún posterior es menor que , y así sucesivamente hasta el infinito. Estos períodos en los que la secuencia comienza por debajo y luego excede se llaman "cruces ascendentes". M {\displaystyle M} | X n | M {\displaystyle |X_{n}|\leq M} X 1 , X 2 , {\displaystyle X_{1},X_{2},\dots } lim inf X n {\displaystyle \liminf X_{n}} lim sup X n {\displaystyle \limsup X_{n}} a {\displaystyle a} b {\displaystyle b} a < b {\displaystyle a<b} [ a , b ] {\displaystyle [a,b]} a {\displaystyle a} b {\displaystyle b} a {\displaystyle a} a {\displaystyle a} b {\displaystyle b}

Consideremos un juego de bolsa en el que en el momento , uno puede comprar o vender acciones de la acción a un precio . Por un lado, se puede demostrar a partir de la definición de una supermartingala que para cualquier no hay ninguna estrategia que mantenga una cantidad no negativa de acciones y tenga una ganancia esperada positiva después de jugar este juego durante pasos. Por otro lado, si los precios cruzan un intervalo fijo muy a menudo, entonces la siguiente estrategia parece funcionar bien: comprar la acción cuando el precio cae por debajo de , y venderla cuando el precio supera . De hecho, si es el número de cruces ascendentes en la secuencia por tiempo , entonces la ganancia en el momento es al menos : cada cruce ascendente proporciona al menos una ganancia, y si la última acción fue una "compra", entonces en el peor de los casos el precio de compra fue y el precio actual es . Pero cualquier estrategia tiene una ganancia esperada como máximo , por lo que necesariamente t {\displaystyle t} X t {\displaystyle X_{t}} N N {\displaystyle N\in \mathbf {N} } N {\displaystyle N} [ a , b ] {\displaystyle [a,b]} a {\displaystyle a} b {\displaystyle b} u N {\displaystyle u_{N}} N {\displaystyle N} N {\displaystyle N} ( b a ) u N 2 M {\displaystyle (b-a)u_{N}-2M} b a {\displaystyle b-a} a M {\displaystyle a\leq M} M {\displaystyle -M} 0 {\displaystyle 0}

E [ u N ] 2 M b a . {\displaystyle \operatorname {E} {\big [}u_{N}{\big ]}\leq {\frac {2M}{b-a}}.}

Por el teorema de convergencia monótona para expectativas , esto significa que

E [ lim N u N ] 2 M b a , {\displaystyle \operatorname {E} {\big [}\lim _{N\to \infty }u_{N}{\big ]}\leq {\frac {2M}{b-a}},}

Por lo tanto, el número esperado de cruces ascendentes en toda la secuencia es finito. De ello se deduce que el evento de cruce infinito para el intervalo ocurre con probabilidad . Por un límite de unión sobre todos los racionales y , con probabilidad , no existe ningún intervalo que se cruce infinitamente a menudo. Si para todos hay un número finito de cruces ascendentes del intervalo , entonces el límite inferior y el límite superior de la secuencia deben coincidir, por lo que la secuencia debe converger. Esto muestra que la martingala converge con probabilidad . [ a , b ] {\displaystyle [a,b]} 0 {\displaystyle 0} a {\displaystyle a} b {\displaystyle b} 1 {\displaystyle 1} a , b Q {\displaystyle a,b\in \mathbf {Q} } [ a , b ] {\displaystyle [a,b]} 1 {\displaystyle 1}

Fallo de convergencia en la media

En las condiciones del teorema de convergencia de la martingala dadas anteriormente, no es necesariamente cierto que la supermartingala converja en media (es decir, que ). ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbf {N} }} lim n E [ | X n X | ] = 0 {\displaystyle \lim _{n\to \infty }\operatorname {E} [|X_{n}-X|]=0}

Como ejemplo, [2] sea un paseo aleatorio con . Sea el primer momento en que , y sea el proceso estocástico definido por . Entonces es un tiempo de detención con respecto a la martingala , por lo que también es una martingala, a la que se hace referencia como una martingala detenida . En particular, es una supermartingala que está acotada por debajo, por lo que por el teorema de convergencia de la martingala converge puntualmente casi con seguridad a una variable aleatoria . Pero si entonces , entonces es casi con seguridad cero. ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbf {N} }} ± 1 {\displaystyle \pm 1} X 0 = 1 {\displaystyle X_{0}=1} N {\displaystyle N} X n = 0 {\displaystyle X_{n}=0} ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbf {N} }} Y n := X min ( N , n ) {\displaystyle Y_{n}:=X_{\min(N,n)}} N {\displaystyle N} ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbf {N} }} ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbf {N} }} ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbf {N} }} Y {\displaystyle Y} Y n > 0 {\displaystyle Y_{n}>0} Y n + 1 = Y n ± 1 {\displaystyle Y_{n+1}=Y_{n}\pm 1} Y {\displaystyle Y}

Esto significa que . Sin embargo, para cada , ya que es un paseo aleatorio que comienza en y posteriormente realiza movimientos de media cero (alternativamente, observe que ya que es una martingala). Por lo tanto , no puede converger a en media. Además, si convergieran en media a cualquier variable aleatoria , entonces alguna subsecuencia converge a casi con seguridad. Entonces, por el argumento anterior casi con seguridad, lo que contradice la convergencia en media. E [ Y ] = 0 {\displaystyle \operatorname {E} [Y]=0} E [ Y n ] = 1 {\displaystyle \operatorname {E} [Y_{n}]=1} n 1 {\displaystyle n\geq 1} ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbf {N} }} 1 {\displaystyle 1} E [ Y n ] = E [ Y 0 ] = 1 {\displaystyle \operatorname {E} [Y_{n}]=\operatorname {E} [Y_{0}]=1} ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbf {N} }} ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbf {N} }} Y {\displaystyle Y} ( Y n ) n N {\displaystyle (Y_{n})_{n\in \mathbb {N} }} R {\displaystyle R} R {\displaystyle R} R = 0 {\displaystyle R=0}

Declaraciones para el caso general

En lo que sigue, será un espacio de probabilidad filtrado donde , y será una supermartingala continua por la derecha con respecto a la filtración ; en otras palabras, para todos , ( Ω , F , F , P ) {\displaystyle (\Omega ,F,F_{*},\mathbf {P} )} F = ( F t ) t 0 {\displaystyle F_{*}=(F_{t})_{t\geq 0}} N : [ 0 , ) × Ω R {\displaystyle N:[0,\infty )\times \Omega \to \mathbf {R} } F {\displaystyle F_{*}} 0 s t < + {\displaystyle 0\leq s\leq t<+\infty }

N s E [ N t F s ] . {\displaystyle N_{s}\geq \operatorname {E} {\big [}N_{t}\mid F_{s}{\big ]}.}

Primer teorema de convergencia de la martingala de Doob

El primer teorema de convergencia martingala de Doob proporciona una condición suficiente para que las variables aleatorias tengan un límite en sentido puntual, es decir, para cada una en el espacio muestral individualmente. N t {\displaystyle N_{t}} t + {\displaystyle t\to +\infty } ω {\displaystyle \omega } Ω {\displaystyle \Omega }

Para , sea y supongamos que t 0 {\displaystyle t\geq 0} N t = max ( N t , 0 ) {\displaystyle N_{t}^{-}=\max(-N_{t},0)}

sup t > 0 E [ N t ] < + . {\displaystyle \sup _{t>0}\operatorname {E} {\big [}N_{t}^{-}{\big ]}<+\infty .}

Entonces el límite puntual

N ( ω ) = lim t + N t ( ω ) {\displaystyle N(\omega )=\lim _{t\to +\infty }N_{t}(\omega )}

existe y es finito para - casi todos . [3] P {\displaystyle \mathbf {P} } ω Ω {\displaystyle \omega \in \Omega }

El segundo teorema de convergencia de la martingala de Doob

Es importante señalar que la convergencia en el primer teorema de convergencia de la martingala de Doob es puntual, no uniforme y no está relacionada con la convergencia en el cuadrado medio, o de hecho en cualquier espacio L p . Para obtener convergencia en L 1 (es decir, convergencia en la media ), se requiere una integrabilidad uniforme de las variables aleatorias . Por la desigualdad de Chebyshev , la convergencia en L 1 implica convergencia en probabilidad y convergencia en distribución. N t {\displaystyle N_{t}}

Los siguientes son equivalentes:

lim C sup t > 0 { ω Ω | N t ( ω ) | > C } | N t ( ω ) | d P ( ω ) = 0 ; {\displaystyle \lim _{C\to \infty }\sup _{t>0}\int _{\{\omega \in \Omega \,\mid \,|N_{t}(\omega )|>C\}}\left|N_{t}(\omega )\right|\,\mathrm {d} \mathbf {P} (\omega )=0;}
  • existe una variable aleatoria integrable tal que como - casi con seguridad y en , es decir N L 1 ( Ω , P ; R ) {\displaystyle N\in L^{1}(\Omega ,\mathbf {P} ;\mathbf {R} )} N t N {\displaystyle N_{t}\to N} t {\displaystyle t\to \infty } P {\displaystyle \mathbf {P} } L 1 ( Ω , P ; R ) {\displaystyle L^{1}(\Omega ,\mathbf {P} ;\mathbf {R} )}
E [ | N t N | ] = Ω | N t ( ω ) N ( ω ) | d P ( ω ) 0  as  t + . {\displaystyle \operatorname {E} \left[\left|N_{t}-N\right|\right]=\int _{\Omega }\left|N_{t}(\omega )-N(\omega )\right|\,\mathrm {d} \mathbf {P} (\omega )\to 0{\text{ as }}t\to +\infty .}

La desigualdad de cruzamiento ascendente de Doob

El siguiente resultado, llamado desigualdad de cruzamiento ascendente de Doob o, a veces, lema de cruzamiento ascendente de Doob , se utiliza para demostrar los teoremas de convergencia de la martingala de Doob. [3] Un argumento de "apuesta" muestra que para supermartingalas uniformemente acotadas, el número de cruzamientos ascendentes está acotado; el lema de cruzamiento ascendente generaliza este argumento a supermartingalas con expectativa acotada de sus partes negativas.

Sea un número natural. Sea una supermartingala con respecto a una filtración . Sean , dos números reales con . Defina las variables aleatorias de modo que sea el número máximo de intervalos disjuntos con , tales que . Estos se denominan entrecruzamientos ascendentes con respecto al intervalo . Entonces N {\displaystyle N} ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbf {N} }} ( F n ) n N {\displaystyle ({\mathcal {F}}_{n})_{n\in \mathbf {N} }} a {\displaystyle a} b {\displaystyle b} a < b {\displaystyle a<b} ( U n ) n N {\displaystyle (U_{n})_{n\in \mathbf {N} }} U n {\displaystyle U_{n}} [ n i 1 , n i 2 ] {\displaystyle [n_{i_{1}},n_{i_{2}}]} n i 2 n {\displaystyle n_{i_{2}}\leq n} X n i 1 < a < b < X n i 2 {\displaystyle X_{n_{i_{1}}}<a<b<X_{n_{i_{2}}}} [ a , b ] {\displaystyle [a,b]}

( b a ) E [ U n ] E [ ( X n a ) ] . {\displaystyle (b-a)\operatorname {E} [U_{n}]\leq \operatorname {E} [(X_{n}-a)^{-}].\quad }

donde es la parte negativa de , definida por . [4] [5] X {\displaystyle X^{-}} X {\displaystyle X} X = min ( X , 0 ) {\textstyle X^{-}=-\min(X,0)}

Aplicaciones

Convergencia enyopag

Sea una martingala continua tal que M : [ 0 , ) × Ω R {\displaystyle M:[0,\infty )\times \Omega \to \mathbf {R} }

sup t > 0 E [ | M t | p ] < + {\displaystyle \sup _{t>0}\operatorname {E} {\big [}{\big |}M_{t}{\big |}^{p}{\big ]}<+\infty }

para algunos . Entonces existe una variable aleatoria tal que como -casi con seguridad y en . p > 1 {\displaystyle p>1} M L p ( Ω , P ; R ) {\displaystyle M\in L^{p}(\Omega ,\mathbf {P} ;\mathbf {R} )} M t M {\displaystyle M_{t}\to M} t + {\displaystyle t\to +\infty } P {\displaystyle \mathbf {P} } L p ( Ω , P ; R ) {\displaystyle L^{p}(\Omega ,\mathbf {P} ;\mathbf {R} )}

La afirmación para las martingalas de tiempo discreto es esencialmente idéntica, con la diferencia obvia de que el supuesto de continuidad ya no es necesario.

Ley cero-uno de Lévy

Los teoremas de convergencia de martingala de Doob implican que las expectativas condicionales también tienen una propiedad de convergencia.

Sea un espacio de probabilidad y sea una variable aleatoria en . Sea cualquier filtración de , y definamos como la σ -álgebra mínima generada por . Entonces ( Ω , F , P ) {\displaystyle (\Omega ,F,\mathbf {P} )} X {\displaystyle X} L 1 {\displaystyle L^{1}} F = ( F k ) k N {\displaystyle F_{*}=(F_{k})_{k\in \mathbf {N} }} F {\displaystyle F} F {\displaystyle F_{\infty }} ( F k ) k N {\displaystyle (F_{k})_{k\in \mathbf {N} }}

E [ X F k ] E [ X F ]  as  k {\displaystyle \operatorname {E} {\big [}X\mid F_{k}{\big ]}\to \operatorname {E} {\big [}X\mid F_{\infty }{\big ]}{\text{ as }}k\to \infty }

ambos -casi con seguridad- y en . P {\displaystyle \mathbf {P} } L 1 {\displaystyle L^{1}}

Este resultado se suele llamar ley cero-uno de Lévy o teorema de Levy hacia arriba . La razón del nombre es que si es un evento en , entonces el teorema dice que casi con seguridad, es decir, el límite de las probabilidades es 0 o 1. En lenguaje sencillo, si estamos aprendiendo gradualmente toda la información que determina el resultado de un evento, entonces gradualmente tendremos certeza de cuál será el resultado. Esto suena casi como una tautología , pero el resultado sigue siendo no trivial. Por ejemplo, implica fácilmente la ley cero-uno de Kolmogorov , ya que dice que para cualquier evento de cola A , debemos tener casi con seguridad, por lo tanto . A {\displaystyle A} F {\displaystyle F_{\infty }} P [ A F k ] 1 A {\displaystyle \mathbf {P} [A\mid F_{k}]\to \mathbf {1} _{A}} P [ A ] = 1 A {\displaystyle \mathbf {P} [A]=\mathbf {1} _{A}} P [ A ] { 0 , 1 } {\displaystyle \mathbf {P} [A]\in \{0,1\}}

De manera similar tenemos el teorema descendente de Levy  :

Sea un espacio de probabilidad y sea una variable aleatoria en . Sea cualquier secuencia decreciente de álgebras sub-sigma de , y definamos como la intersección. Entonces ( Ω , F , P ) {\displaystyle (\Omega ,F,\mathbf {P} )} X {\displaystyle X} L 1 {\displaystyle L^{1}} ( F k ) k N {\displaystyle (F_{k})_{k\in \mathbf {N} }} F {\displaystyle F} F {\displaystyle F_{\infty }}

E [ X F k ] E [ X F ]  as  k {\displaystyle \operatorname {E} {\big [}X\mid F_{k}{\big ]}\to \operatorname {E} {\big [}X\mid F_{\infty }{\big ]}{\text{ as }}k\to \infty }

ambos -casi con seguridad- y en . P {\displaystyle \mathbf {P} } L 1 {\displaystyle L^{1}}

Véase también

  • Teorema de convergencia martingala hacia atrás [6]

Referencias

  1. ^ Doob, JL (1953). Procesos estocásticos . Nueva York: Wiley.
  2. ^ Durrett, Rick (1996). Probabilidad: teoría y ejemplos (Segunda edición). Duxbury Press. ISBN 978-0-534-24318-0.; Durrett, Rick (2010). Cuarta edición. Cambridge University Press. ISBN 9781139491136.
  3. ^ ab "Teorema de convergencia de Martingala" (PDF) . Instituto Tecnológico de Massachusetts, 6.265/15.070J Clase 11-Material adicional, Procesos estocásticos avanzados, Otoño de 2013, 9/10/2013 .
  4. ^ Bobrowski, Adam (2005). Análisis funcional para procesos probabilísticos y estocásticos: una introducción. Cambridge University Press. pp. 113–114. ISBN 9781139443883.
  5. ^ Gushchin, AA (2014). "Sobre contrapartes de las desigualdades máximas de Doob en función de la trayectoria". Actas del Instituto Steklov de Matemáticas . 287 (287): 118–121. arXiv : 1410.8264 . doi :10.1134/S0081543814080070. S2CID  119150374.
  6. ^ Doob, Joseph L. (1994). Teoría de la medida. Textos de posgrado en matemáticas, vol. 143. Springer. pág. 197. ISBN 9781461208778.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Doob%27s_martingale_convergence_theorems&oldid=1223954755"