Cadena Harris

Type of stochastic Markov process

En el estudio matemático de los procesos estocásticos , una cadena de Harris es una cadena de Markov en la que la cadena retorna a una parte particular del espacio de estados un número ilimitado de veces. [1] Las cadenas de Harris son procesos regenerativos y reciben su nombre de Theodore Harris . La teoría de las cadenas de Harris y la recurrencia de Harris es útil para tratar las cadenas de Markov en espacios de estados generales (posiblemente infinitos e incontables).

Definición

Sea una cadena de Markov en un espacio de estados general con núcleo estocástico . El núcleo representa una ley de probabilidad de transición generalizada de un paso, de modo que para todos los estados en y todos los conjuntos medibles . La cadena es una cadena de Harris [2] si existe , y medida de probabilidad con tal que { X n } {\displaystyle \{X_{n}\}} Ω {\displaystyle \Omega } K {\displaystyle K} P ( X n + 1 C X n = x ) = K ( x , C ) {\displaystyle P(X_{n+1}\in C\mid X_{n}=x)=K(x,C)} x {\displaystyle x} Ω {\displaystyle \Omega } C Ω {\displaystyle C\subseteq \Omega } { X n } {\displaystyle \{X_{n}\}} A Ω , ε > 0 {\displaystyle A\subseteq \Omega ,\varepsilon >0} ρ {\displaystyle \rho } ρ ( Ω ) = 1 {\displaystyle \rho (\Omega )=1}

  1. Si , entonces para todos . τ A := inf { n 0 : X n A } {\displaystyle \tau _{A}:=\inf\{n\geq 0:X_{n}\in A\}} P ( τ A < X 0 = x ) = 1 {\displaystyle P(\tau _{A}<\infty \mid X_{0}=x)=1} x Ω {\displaystyle x\in \Omega }
  2. Si y (donde es medible), entonces . x A {\displaystyle x\in A} C Ω {\displaystyle C\subseteq \Omega } C {\displaystyle C} K ( x , C ) ε ρ ( C ) {\displaystyle K(x,C)\geq \varepsilon \rho (C)}

La primera parte de la definición asegura que la cadena regresa a algún estado dentro de con probabilidad 1, independientemente de dónde comience. De ello se deduce que visita el estado infinitamente a menudo (con probabilidad 1). La segunda parte implica que una vez que la cadena de Markov está en el estado , su siguiente estado puede generarse con la ayuda de un lanzamiento de moneda de Bernoulli independiente. Para ver esto, primero observe que el parámetro debe estar entre 0 y 1 (esto se puede demostrar aplicando la segunda parte de la definición al conjunto ). Ahora sea un punto en y supongamos . Para elegir el siguiente estado , lance independientemente una moneda sesgada con probabilidad de éxito . Si el lanzamiento de la moneda es exitoso, elija el siguiente estado de acuerdo con la medida de probabilidad . De lo contrario (y si ), elija el siguiente estado de acuerdo con la medida (definida para todos los subconjuntos medibles ). A {\displaystyle A} A {\displaystyle A} A {\displaystyle A} ε {\displaystyle \varepsilon } C = Ω {\displaystyle C=\Omega } x {\displaystyle x} A {\displaystyle A} X n = x {\displaystyle X_{n}=x} X n + 1 {\displaystyle X_{n+1}} ε {\displaystyle \varepsilon } X n + 1 Ω {\displaystyle X_{n+1}\in \Omega } ρ {\displaystyle \rho } ε < 1 {\displaystyle \varepsilon <1} X n + 1 {\displaystyle X_{n+1}} P ( X n + 1 C X n = x ) = ( K ( x , C ) ε ρ ( C ) ) / ( 1 ε ) {\displaystyle P(X_{n+1}\in C\mid X_{n}=x)=(K(x,C)-\varepsilon \rho (C))/(1-\varepsilon )} C Ω {\displaystyle C\subseteq \Omega }

Dos procesos aleatorios y que tienen la misma ley de probabilidad y son cadenas de Harris según la definición anterior se pueden acoplar de la siguiente manera: Supóngase que y , donde y son puntos en . Utilizando el mismo lanzamiento de moneda para decidir el siguiente estado de ambos procesos, se deduce que los siguientes estados son los mismos con una probabilidad de al menos . { X n } {\displaystyle \{X_{n}\}} { Y n } {\displaystyle \{Y_{n}\}} X n = x {\displaystyle X_{n}=x} Y n = y {\displaystyle Y_{n}=y} x {\displaystyle x} y {\displaystyle y} A {\displaystyle A} ε {\displaystyle \varepsilon }

Ejemplos

Ejemplo 1: Espacio de estados contables

Sea Ω un espacio de estados contable. El núcleo K está definido por las probabilidades de transición condicional de un paso P[ X n +1 = y | X n  =  x ] para x , y ∈ Ω. La medida ρ es una función de masa de probabilidad sobre los estados, de modo que ρ ( x ) ≥ 0 para todo x ∈ Ω, y la suma de las probabilidades ρ ( x ) es igual a uno. Supongamos que la definición anterior se satisface para un conjunto dado A ⊆ Ω y un parámetro dado ε > 0. Entonces P[ X n +1 = c | X n = x ] ≥ ερ ( c ) para todo xA y todo c ∈ Ω.

Ejemplo 2: Cadenas con densidades continuas

Sea { X n },  X nR d una cadena de Markov con un núcleo absolutamente continuo con respecto a la medida de Lebesgue :

K ( x , dy ) = K ( x , ydy

tal que K ( x , y ) es una función continua .

Elija ( x 0y 0 ) tal que K ( x 0y 0 ) > 0, y sean A y Ω conjuntos abiertos que contienen x 0 e y 0 respectivamente que son suficientemente pequeños para que K ( xy ) ≥ ε > 0 en A  × Ω. Dejando ρ ( C ) = |Ω ∩  C |/|Ω| donde |Ω| es la medida de Lebesgue de Ω, tenemos que (2) en la definición anterior se cumple. Si (1) se cumple, entonces { X n } es una cadena de Harris.

Reducibilidad y periodicidad

En lo que sigue , ie es la primera vez después del tiempo 0 que el proceso entra en la región . Sea ie la distribución inicial de la cadena de Markov . R := inf { n 1 : X n A } {\displaystyle R:=\inf\{n\geq 1:X_{n}\in A\}} R {\displaystyle R} A {\displaystyle A} μ {\displaystyle \mu } X 0 μ {\displaystyle X_{0}\sim \mu }

Definición: Si para todos , , entonces la cadena de Harris se llama recurrente. μ {\displaystyle \mu } P [ R < | X 0 A ] = 1 {\displaystyle P[R<\infty |X_{0}\in A]=1}

Definición: Una cadena de Harris recurrente es aperiódica si , tal que , X n {\displaystyle X_{n}} N {\displaystyle \exists N} n N {\displaystyle \forall n\geq N} μ , P [ X n A | X 0 A ] > 0 {\displaystyle \forall \mu ,P[X_{n}\in A|X_{0}\in A]>0}

Teorema: Sea una cadena de Harris recurrente aperiódica con distribución estacionaria . Si entonces como , donde denota la variación total para medidas con signo definidas en el mismo espacio medible. X n {\displaystyle X_{n}} π {\displaystyle \pi } P [ R < | X 0 A ] = 1 {\displaystyle P[R<\infty |X_{0}\in A]=1} n {\displaystyle n\rightarrow \infty } | | L ( X n | X 0 ) π | | T V 0 {\displaystyle ||{\mathcal {L}}(X_{n}|X_{0})-\pi ||_{TV}\rightarrow 0} | | | | T V {\displaystyle ||\cdot ||_{TV}}

Referencias

  1. ^ Asmussen, Søren (2003). "Temas adicionales en teoría de renovación y procesos regenerativos". Applied Probability and Queues . Modelado estocástico y probabilidad aplicada. Vol. 51. págs. 186–219. doi :10.1007/0-387-21525-5_7. ISBN 978-0-387-00211-8.
  2. ^ R. Durrett. Probabilidad: teoría y ejemplos . Thomson, 2005. ISBN 0-534-42441-4 . 
Retrieved from "https://en.wikipedia.org/w/index.php?title=Harris_chain&oldid=1087280323"