En teoría de probabilidad , el criterio de Kolmogorov , llamado así en honor a Andrey Kolmogorov , es un teorema que establece una condición necesaria y suficiente para que una cadena de Markov o una cadena de Markov de tiempo continuo sea estocásticamente idéntica a su versión invertida en el tiempo.
Cadenas de Markov de tiempo discreto
El teorema establece que una cadena de Markov irreducible, recurrente positiva y aperiódica con matriz de transición P es reversible si y solo si su cadena de Markov estacionaria satisface [1]
para todas las secuencias finitas de estados
Aquí p ij son los componentes de la matriz de transición P , y S es el espacio de estados de la cadena.
Es decir, la multiplicación en cadena a lo largo de cualquier ciclo es la misma hacia adelante y hacia atrás.
Ejemplo
Consideremos esta figura que representa una sección de una cadena de Markov con los estados i , j , k y l y las probabilidades de transición correspondientes. Aquí el criterio de Kolmogorov implica que el producto de las probabilidades al atravesar cualquier bucle cerrado debe ser igual, por lo que el producto alrededor del bucle i a j a l a k que regresa a i debe ser igual al bucle al revés.
Prueba
Sea la cadena de Markov y denote por su distribución estacionaria (tal existe ya que la cadena es recurrente positiva).
Si la cadena es reversible, la igualdad se sigue de la relación .
Ahora supongamos que se cumple la igualdad. Fijemos los estados y . Entonces
- .
Ahora sumamos ambos lados de la última igualdad para todas las posibles elecciones ordenadas de estados . Por lo tanto , obtenemos . Enviamos a en el lado izquierdo de la última. De las propiedades de la cadena se deduce que , por lo tanto, lo que demuestra que la cadena es reversible.
Cadenas de Markov de tiempo continuo
El teorema establece que una cadena de Markov de tiempo continuo con matriz de tasa de transición Q es, bajo cualquier vector de probabilidad invariante, reversible si y solo si sus probabilidades de transición satisfacen [1].
para todas las secuencias finitas de estados
La prueba de las cadenas de Markov de tiempo continuo se sigue del mismo modo que la prueba de las cadenas de Markov de tiempo discreto.
Referencias
- ^ ab Kelly, Frank P. (1979). Reversibilidad y redes estocásticas (PDF) . Wiley, Chichester. págs. 21–25.