En la teoría de procesos estocásticos , el filtrado describe el problema de determinar el estado de un sistema a partir de un conjunto incompleto y potencialmente ruidoso de observaciones. Si bien en un principio se originó a partir de problemas de ingeniería, el filtrado encontró aplicaciones en muchos campos, desde el procesamiento de señales hasta las finanzas.
El problema del filtrado no lineal óptimo (incluso para el caso no estacionario) fue resuelto por Ruslan L. Stratonovich (1959, [1] 1960 [2] ), véase también el trabajo de Harold J. Kushner [3] y Moshe Zakai , quien introdujo una dinámica simplificada para la ley condicional no normalizada del filtro [4] conocida como la ecuación de Zakai . La solución, sin embargo, es de dimensión infinita en el caso general. [5] Ciertas aproximaciones y casos especiales son bien entendidos: por ejemplo, los filtros lineales son óptimos para variables aleatorias gaussianas, y se conocen como el filtro de Wiener y el filtro de Kalman-Bucy . De manera más general, como la solución es de dimensión infinita, requiere aproximaciones de dimensión finita para ser implementadas en una computadora con memoria finita. Un filtro no lineal aproximado de dimensión finita puede estar más basado en heurísticas, como el filtro de Kalman extendido o los filtros de densidad asumida, [6] o más orientado metodológicamente como por ejemplo los filtros de proyección , [7] algunas subfamilias de las cuales se muestra que coinciden con los filtros de densidad asumida. [8] Los filtros de partículas [9] son otra opción para atacar el problema de filtrado de dimensión infinita y se basan en métodos secuenciales de Monte Carlo.
En general, si se aplica el principio de separación , el filtrado también surge como parte de la solución de un problema de control óptimo . Por ejemplo, el filtro de Kalman es la parte de estimación de la solución de control óptima para el problema de control lineal-cuadrático-gaussiano .
Consideremos un espacio de probabilidad (Ω, Σ, P ) y supongamos que el estado (aleatorio) Y t en el espacio euclidiano n - dimensional R n de un sistema de interés en el tiempo t es una variable aleatoria Y t : Ω → R n dada por la solución de una ecuación diferencial estocástica de Itō de la forma
donde B denota el movimiento browniano p -dimensional estándar , b : [0, +∞) × R n → R n es el campo de deriva, y σ : [0, +∞) × R n → R n × p es el campo de difusión. Se supone que las observaciones H t en R m (nótese que m y n pueden, en general, ser desiguales) se toman para cada tiempo t de acuerdo con
Adoptando la interpretación de Itō del diferencial estocástico y estableciendo
Esto da la siguiente representación integral estocástica para las observaciones Z t :
donde W denota el movimiento browniano estándar de dimensión r , independiente de B y de la condición inicial Y 0 , y c : [0, +∞) × R n → R n y γ : [0, +∞) × R n → R n × r satisfacen
para todo t y x y alguna constante C .
El problema de filtrado es el siguiente: dadas las observaciones Z s para 0 ≤ s ≤ t , ¿cuál es la mejor estimación Ŷ t del estado real Y t del sistema basado en esas observaciones?
Por "basado en esas observaciones" se entiende que Ŷ t es medible con respecto al σ -álgebra G t generada por las observaciones Z s , 0 ≤ s ≤ t . Denotemos por K = K ( Z , t ) la colección de todas las variables aleatorias Y de valor R n que son integrables al cuadrado y G t -medibles:
Por "mejor estimación" se entiende que Ŷ t minimiza la distancia cuadrática media entre Y t y todos los candidatos en K :
El espacio K ( Z , t ) de candidatos es un espacio de Hilbert , y la teoría general de los espacios de Hilbert implica que la solución Ŷ t del problema de minimización (M) está dada por
donde P K ( Z , t ) denota la proyección ortogonal de L 2 (Ω, Σ, P ; R n ) sobre el subespacio lineal K ( Z , t ) = L 2 (Ω, G t , P ; R n ). Además, es un hecho general sobre las expectativas condicionales que si F es cualquier sub- σ -álgebra de Σ entonces la proyección ortogonal
es exactamente el operador de expectativa condicional E [·| F ], es decir,
Por eso,
Este resultado elemental es la base de la ecuación general de Fujisaki-Kallianpur-Kunita de la teoría de filtrado.
El conocimiento completo del filtro en un instante t estaría dado por la ley de probabilidad de la señal Y t condicional al campo sigma G t generado por las observaciones Z hasta el instante t . Si esta ley de probabilidad admite una densidad, informalmente
Entonces, bajo algunas suposiciones de regularidad, la densidad satisface una ecuación diferencial parcial estocástica no lineal (SPDE) impulsada por y llamada ecuación de Kushner-Stratonovich , [10] o una versión no normalizada de la densidad satisface una SPDE lineal llamada ecuación de Zakai . [10] Estas ecuaciones se pueden formular para el sistema anterior, pero para simplificar la exposición se puede suponer que la señal no observada Y y la señal ruidosa parcialmente observada Z satisfacen las ecuaciones.
En otros términos, el sistema se simplifica asumiendo que el ruido de observación W no depende del estado.
Se podría mantener un tiempo determinista dependiente al frente, pero asumimos que esto se ha eliminado mediante el reescalado.
Para este sistema en particular, la SPDE de Kushner-Stratonovich para la densidad indica
donde T denota transposición, denota la expectativa con respecto a la densidad p , y el operador de difusión hacia adelante es
donde . Si elegimos la densidad no normalizada , la SPDE de Zakai para el mismo sistema se lee
Estas SPDE para p y q se escriben en forma de cálculo de Ito. Es posible escribirlas en forma de cálculo de Stratonovich, lo que resulta útil al derivar aproximaciones de filtrado basadas en geometría diferencial, como en los filtros de proyección. Por ejemplo, la ecuación de Kushner-Stratonovich escrita en cálculo de Stratonovich se lee
A partir de cualquiera de las densidades p y q se pueden calcular todas las estadísticas de la señal Y t condicionales al campo sigma generado por las observaciones Z hasta el tiempo t , de modo que las densidades den un conocimiento completo del filtro. Bajo los supuestos particulares de constante lineal con respecto a Y , donde los coeficientes del sistema b y c son funciones lineales de Y y donde y no dependen de Y , con la condición inicial para que la señal Y sea gaussiana o determinista, la densidad es gaussiana y se puede caracterizar por su media y matriz de varianza-covarianza, cuya evolución se describe mediante el filtro de Kalman-Bucy , que es de dimensión finita. [10] De manera más general, la evolución de la densidad del filtro ocurre en un espacio de funciones de dimensión infinita, [5] y tiene que aproximarse mediante una aproximación de dimensión finita, como se sugirió anteriormente.