Criterio de Kolmogorov

En teoría de probabilidad , el criterio de Kolmogorov , llamado así en honor a Andrey Kolmogorov , es un teorema que establece una condición necesaria y suficiente para que una cadena de Markov o una cadena de Markov de tiempo continuo sea estocásticamente idéntica a su versión invertida en el tiempo.

Cadenas de Markov de tiempo discreto

El teorema establece que una cadena de Markov irreducible, recurrente positiva y aperiódica con matriz de transición P es reversible si y solo si su cadena de Markov estacionaria satisface [1]

pag yo 1 yo 2 pag yo 2 yo 3 pag yo norte 1 yo norte pag yo norte yo 1 = pag yo 1 yo norte pag yo norte yo norte 1 pag yo 3 yo 2 pag yo 2 yo 1 {\displaystyle p_{j_{1}j_{2}}p_{j_{2}j_{3}}\cdots p_{j_{n-1}j_{n}}p_{j_{n}j_{1}}=p_{j_{1}j_{n}}p_{j_{n}j_{n-1}}\cdots p_{j_{3}j_{2}}p_{j_{2}j_{1}}}

para todas las secuencias finitas de estados

yo 1 , yo 2 , , yo norte S . {\displaystyle j_{1},j_{2},\ldots ,j_{n}\en S.}

Aquí p ij son componentes de la matriz de transición P , y S es el espacio de estados de la cadena.

Es decir, la multiplicación en cadena a lo largo de cualquier ciclo es la misma hacia adelante y hacia atrás.

Ejemplo

Consideremos esta figura que representa una sección de una cadena de Markov con los estados i , j , k y l y las probabilidades de transición correspondientes. Aquí el criterio de Kolmogorov implica que el producto de las probabilidades al atravesar cualquier bucle cerrado debe ser igual, por lo que el producto alrededor del bucle i a j a l a k que regresa a i debe ser igual al bucle al revés.

pag i yo pag yo yo pag yo a pag a i = pag i a pag a yo pag yo yo pag yo i . {\displaystyle p_{ij}p_{jl}p_{lk}p_{ki}=p_{ik}p_{kl}p_{lj}p_{ji}.}

Prueba

Sea la cadena de Markov y denote por su distribución estacionaria (tal existe ya que la cadena es recurrente positiva). incógnita {\estilo de visualización X} π {\estilo de visualización \pi}

Si la cadena es reversible, la igualdad se sigue de la relación . pag yo i = π i pag i yo π yo {\displaystyle p_{ji}={\frac {\pi _{i}p_{ij}}{\pi _{j}}}}

Ahora supongamos que se cumple la igualdad. Fijemos los estados y . Entonces s {\estilo de visualización s} a {\estilo de visualización t}

PAG ( incógnita norte + 1 = a , incógnita norte = i norte , , incógnita 0 = s | incógnita 0 = s ) {\displaystyle {\text{P}}(X_{n+1}=t,X_{n}=i_{n},\ldots ,X_{0}=s|X_{0}=s)} = pag s i 1 pag i 1 i 2 pag i norte a {\displaystyle =p_{si_{1}}p_{i_{1}i_{2}}\cdots p_{i_{n}t}} = pag s a pag a s pag a i norte pag i norte i norte 1 pag i 1 s {\displaystyle ={\frac {p_{st}}{p_{ts}}}p_{ti_{n}}p_{i_{n}i_{n-1}}\cdots p_{i_{1}s}} = pag s a pag a s PAG ( incógnita norte + 1 {\displaystyle ={\frac {p_{st}}{p_{ts}}}{\text{P}}(X_{n+1}} = s , incógnita norte {\displaystyle =s,X_{n}} = i 1 , , incógnita 0 = a | incógnita 0 = a ) {\displaystyle =i_{1},\ldots ,X_{0}=t|X_{0}=t)} .

Ahora sumamos ambos lados de la última igualdad para todas las posibles elecciones ordenadas de estados . Por lo tanto , obtenemos . Enviamos a en el lado izquierdo de la última. De las propiedades de la cadena se deduce que , por lo tanto, lo que demuestra que la cadena es reversible. norte {\estilo de visualización n} i 1 , i 2 , , i norte {\displaystyle i_{1},i_{2},\ldots ,i_{n}} pag s a ( norte ) = pag s a pag a s pag a s ( norte ) {\displaystyle p_{st}^{(n)}={\frac {p_{st}}{p_{ts}}}p_{ts}^{(n)}} pag s a ( norte ) pag a s ( norte ) = pag s a pag a s {\displaystyle {\frac {p_{st}^{(n)}}{p_{ts}^{(n)}}}={\frac {p_{st}}{p_{ts}}}} norte {\estilo de visualización n} {\estilo de visualización\infty} límite norte pag i yo ( norte ) = π yo {\displaystyle \lim _{n\to \infty }p_{ij}^{(n)}=\pi _{j}} π a π s = pag s a pag a s {\displaystyle {\frac {\pi_{t}}{\pi_{s}}}={\frac {p_{st}}{p_{ts}}}}

Cadenas de Markov de tiempo continuo

El teorema establece que una cadena de Markov de tiempo continuo con matriz de tasa de transición Q es, bajo cualquier vector de probabilidad invariante, reversible si y solo si sus probabilidades de transición satisfacen [1].

q yo 1 yo 2 q yo 2 yo 3 q yo norte 1 yo norte q yo norte yo 1 = q yo 1 yo norte q yo norte yo norte 1 q yo 3 yo 2 q yo 2 yo 1 {\displaystyle q_{j_{1}j_{2}}q_{j_{2}j_{3}}\cdots q_{j_{n-1}j_{n}}q_{j_{n}j_{1}}=q_{j_{1}j_{n}}q_{j_{n}j_{n-1}}\cdots q_{j_{3}j_{2}}q_{j_{2}j_{1}}}

para todas las secuencias finitas de estados

yo 1 , yo 2 , , yo norte S . {\displaystyle j_{1},j_{2},\ldots ,j_{n}\en S.}

La prueba de las cadenas de Markov de tiempo continuo se sigue del mismo modo que la prueba de las cadenas de Markov de tiempo discreto.

Referencias

  1. ^ ab Kelly, Frank P. (1979). Reversibilidad y redes estocásticas (PDF) . Wiley, Chichester. págs. 21–25.
Obtenido de "https://es.wikipedia.org/w/index.php?title=Criterio_de_Kolmogorov&oldid=1230257099"