Problema de filtrado (procesos estocásticos)

Mathematical model for state estimation

En la teoría de procesos estocásticos , el filtrado describe el problema de determinar el estado de un sistema a partir de un conjunto incompleto y potencialmente ruidoso de observaciones. Si bien en un principio se originó a partir de problemas de ingeniería, el filtrado encontró aplicaciones en muchos campos, desde el procesamiento de señales hasta las finanzas.

El problema del filtrado no lineal óptimo (incluso para el caso no estacionario) fue resuelto por Ruslan L. Stratonovich (1959, [1] 1960 [2] ), véase también el trabajo de Harold J. Kushner [3] y Moshe Zakai , quien introdujo una dinámica simplificada para la ley condicional no normalizada del filtro [4] conocida como la ecuación de Zakai . La solución, sin embargo, es de dimensión infinita en el caso general. [5] Ciertas aproximaciones y casos especiales son bien entendidos: por ejemplo, los filtros lineales son óptimos para variables aleatorias gaussianas, y se conocen como el filtro de Wiener y el filtro de Kalman-Bucy . De manera más general, como la solución es de dimensión infinita, requiere aproximaciones de dimensión finita para ser implementadas en una computadora con memoria finita. Un filtro no lineal aproximado de dimensión finita puede estar más basado en heurísticas, como el filtro de Kalman extendido o los filtros de densidad asumida, [6] o más orientado metodológicamente como por ejemplo los filtros de proyección , [7] algunas subfamilias de las cuales se muestra que coinciden con los filtros de densidad asumida. [8] Los filtros de partículas [9] son ​​otra opción para atacar el problema de filtrado de dimensión infinita y se basan en métodos secuenciales de Monte Carlo.

En general, si se aplica el principio de separación , el filtrado también surge como parte de la solución de un problema de control óptimo . Por ejemplo, el filtro de Kalman es la parte de estimación de la solución de control óptima para el problema de control lineal-cuadrático-gaussiano .

El formalismo matemático

Consideremos un espacio de probabilidad (Ω, Σ,  P ) y supongamos que el estado (aleatorio) Y t en el espacio euclidiano n - dimensional R n de un sistema de interés en el tiempo t es una variable aleatoria Y t  : Ω →  R n dada por la solución de una ecuación diferencial estocástica de Itō de la forma

d Y t = b ( t , Y t ) d t + σ ( t , Y t ) d B t , {\displaystyle \mathrm {d} Y_{t}=b(t,Y_{t})\,\mathrm {d} t+\sigma (t,Y_{t})\,\mathrm {d} B_{t},}

donde B denota el movimiento browniano p -dimensional estándar , b  : [0, +∞) ×  R n  →  R n es el campo de deriva, y σ  : [0, +∞) ×  R n  →  R n × p es el campo de difusión. Se supone que las observaciones H t en R m (nótese que m y n pueden, en general, ser desiguales) se toman para cada tiempo t de acuerdo con

H t = c ( t , Y t ) + γ ( t , Y t ) noise . {\displaystyle H_{t}=c(t,Y_{t})+\gamma (t,Y_{t})\cdot {\mbox{noise}}.}

Adoptando la interpretación de Itō del diferencial estocástico y estableciendo

Z t = 0 t H s d s , {\displaystyle Z_{t}=\int _{0}^{t}H_{s}\,\mathrm {d} s,}

Esto da la siguiente representación integral estocástica para las observaciones Z t :

d Z t = c ( t , Y t ) d t + γ ( t , Y t ) d W t , {\displaystyle \mathrm {d} Z_{t}=c(t,Y_{t})\,\mathrm {d} t+\gamma (t,Y_{t})\,\mathrm {d} W_{t},}

donde W denota el movimiento browniano estándar de dimensión r , independiente de B y de la condición inicial Y 0 , y c  : [0, +∞) ×  R n  →  R n y γ  : [0, +∞) ×  R n  →  R n × r satisfacen

| c ( t , x ) | + | γ ( t , x ) | C ( 1 + | x | ) {\displaystyle {\big |}c(t,x){\big |}+{\big |}\gamma (t,x){\big |}\leq C{\big (}1+|x|{\big )}}

para todo t y x y alguna constante C .

El problema de filtrado es el siguiente: dadas las observaciones Z s para 0 ≤  s  ≤  t , ¿cuál es la mejor estimación Ŷ t del estado real Y t ​​del sistema basado en esas observaciones?

Por "basado en esas observaciones" se entiende que Ŷ t es medible con respecto al σ -álgebra G t generada por las observaciones Z s , 0 ≤  s  ≤  t . Denotemos por K  =  K ( Zt ) la colección de todas las variables aleatorias Y de valor R n que son integrables al cuadrado y G t -medibles:

K = K ( Z , t ) = L 2 ( Ω , G t , P ; R n ) . {\displaystyle K=K(Z,t)=L^{2}(\Omega ,G_{t},\mathbf {P} ;\mathbf {R} ^{n}).}

Por "mejor estimación" se entiende que Ŷ t minimiza la distancia cuadrática media entre Y t y todos los candidatos en K :

E [ | Y t Y ^ t | 2 ] = inf Y K E [ | Y t Y | 2 ] . (M) {\displaystyle \mathbf {E} \left[{\big |}Y_{t}-{\hat {Y}}_{t}{\big |}^{2}\right]=\inf _{Y\in K}\mathbf {E} \left[{\big |}Y_{t}-Y{\big |}^{2}\right].\qquad {\mbox{(M)}}}

Resultado básico: proyección ortogonal

El espacio K ( Zt ) de candidatos es un espacio de Hilbert , y la teoría general de los espacios de Hilbert implica que la solución Ŷ t del problema de minimización (M) está dada por

Y ^ t = P K ( Z , t ) ( Y t ) , {\displaystyle {\hat {Y}}_{t}=P_{K(Z,t)}{\big (}Y_{t}{\big )},}

donde P K ( Z , t ) denota la proyección ortogonal de L 2 (Ω, Σ,  PR n ) sobre el subespacio lineal K ( Zt ) =  L 2 (Ω,  G tPR n ). Además, es un hecho general sobre las expectativas condicionales que si F es cualquier sub- σ -álgebra de Σ entonces la proyección ortogonal

P K : L 2 ( Ω , Σ , P ; R n ) L 2 ( Ω , F , P ; R n ) {\displaystyle P_{K}:L^{2}(\Omega ,\Sigma ,\mathbf {P} ;\mathbf {R} ^{n})\to L^{2}(\Omega ,F,\mathbf {P} ;\mathbf {R} ^{n})}

es exactamente el operador de expectativa condicional E [·| F ], es decir,

P K ( X ) = E [ X | F ] . {\displaystyle P_{K}(X)=\mathbf {E} {\big [}X{\big |}F{\big ]}.}

Por eso,

Y ^ t = P K ( Z , t ) ( Y t ) = E [ Y t | G t ] . {\displaystyle {\hat {Y}}_{t}=P_{K(Z,t)}{\big (}Y_{t}{\big )}=\mathbf {E} {\big [}Y_{t}{\big |}G_{t}{\big ]}.}

Este resultado elemental es la base de la ecuación general de Fujisaki-Kallianpur-Kunita de la teoría de filtrado.

Resultado más avanzado: filtrado no lineal SPDE

El conocimiento completo del filtro en un instante t estaría dado por la ley de probabilidad de la señal Y t ​​condicional al campo sigma G t generado por las observaciones Z hasta el instante t . Si esta ley de probabilidad admite una densidad, informalmente

p t ( y )   d y = P ( Y t d y | G t ) , {\displaystyle p_{t}(y)\ dy={\bf {P}}(Y_{t}\in dy|G_{t}),}

Entonces, bajo algunas suposiciones de regularidad, la densidad satisface una ecuación diferencial parcial estocástica no lineal (SPDE) impulsada por y llamada ecuación de Kushner-Stratonovich , [10] o una versión no normalizada de la densidad satisface una SPDE lineal llamada ecuación de Zakai . [10] Estas ecuaciones se pueden formular para el sistema anterior, pero para simplificar la exposición se puede suponer que la señal no observada Y y la señal ruidosa parcialmente observada Z satisfacen las ecuaciones. p t ( y ) {\displaystyle p_{t}(y)} d Z t {\displaystyle dZ_{t}} q t ( y ) {\displaystyle q_{t}(y)} p t ( y ) {\displaystyle p_{t}(y)}

d Y t = b ( t , Y t ) d t + σ ( t , Y t ) d B t , {\displaystyle \mathrm {d} Y_{t}=b(t,Y_{t})\,\mathrm {d} t+\sigma (t,Y_{t})\,\mathrm {d} B_{t},}
d Z t = c ( t , Y t ) d t + d W t . {\displaystyle \mathrm {d} Z_{t}=c(t,Y_{t})\,\mathrm {d} t+\mathrm {d} W_{t}.}

En otros términos, el sistema se simplifica asumiendo que el ruido de observación W no depende del estado.

Se podría mantener un tiempo determinista dependiente al frente, pero asumimos que esto se ha eliminado mediante el reescalado. γ {\displaystyle \gamma } d W {\displaystyle dW}

Para este sistema en particular, la SPDE de Kushner-Stratonovich para la densidad indica p t {\displaystyle p_{t}}

d p t = L t p t   d t + p t [ c ( t , ) E p t ( c ( t , ) ) ] T [ d Z t E p t ( c ( t , ) ) d t ] {\displaystyle \mathrm {d} p_{t}={\cal {L}}_{t}^{*}p_{t}\ dt+p_{t}[c(t,\cdot )-E_{p_{t}}(c(t,\cdot ))]^{T}[dZ_{t}-E_{p_{t}}(c(t,\cdot ))dt]}

donde T denota transposición, denota la expectativa con respecto a la densidad p , y el operador de difusión hacia adelante es E p {\displaystyle E_{p}} E p [ f ] = f ( y ) p ( y ) d y , {\displaystyle E_{p}[f]=\int f(y)p(y)dy,} L t {\displaystyle {\cal {L}}_{t}^{*}}

L t f ( t , y ) = i y i [ b i ( t , y ) f ( t , y ) ] + 1 2 i , j 2 y i y j [ a i j ( t , y ) f ( t , y ) ] {\displaystyle {\cal {L}}_{t}^{*}f(t,y)=-\sum _{i}{\frac {\partial }{\partial y_{i}}}[b_{i}(t,y)f(t,y)]+{\frac {1}{2}}\sum _{i,j}{\frac {\partial ^{2}}{\partial y_{i}\partial y_{j}}}[a_{ij}(t,y)f(t,y)]}

donde . Si elegimos la densidad no normalizada , la SPDE de Zakai para el mismo sistema se lee a = σ σ T {\displaystyle a=\sigma \sigma ^{T}} q t ( y ) {\displaystyle q_{t}(y)}

d q t = L t q t   d t + q t [ c ( t , ) ] T d Z t . {\displaystyle \mathrm {d} q_{t}={\cal {L}}_{t}^{*}q_{t}\ dt+q_{t}[c(t,\cdot )]^{T}dZ_{t}.}

Estas SPDE para p y q se escriben en forma de cálculo de Ito. Es posible escribirlas en forma de cálculo de Stratonovich, lo que resulta útil al derivar aproximaciones de filtrado basadas en geometría diferencial, como en los filtros de proyección. Por ejemplo, la ecuación de Kushner-Stratonovich escrita en cálculo de Stratonovich se lee

d p t = L t p t d t 1 2 p t [ | c ( , t ) | 2 E p t ( | c ( , t ) | 2 ) ] d t + p t [ c ( , t ) E p t ( c ( , t ) ) ] T d Z t   . {\displaystyle dp_{t}={\cal {L}}_{t}^{\ast }\,p_{t}\,dt-{\frac {1}{2}}\,p_{t}\,[\vert c(\cdot ,t)\vert ^{2}-E_{p_{t}}(\vert c(\cdot ,t)\vert ^{2})]\,dt+p_{t}\,[c(\cdot ,t)-E_{p_{t}}(c(\cdot ,t))]^{T}\circ dZ_{t}\ .}

A partir de cualquiera de las densidades p y q se pueden calcular todas las estadísticas de la señal Y t ​​condicionales al campo sigma generado por las observaciones Z hasta el tiempo t , de modo que las densidades den un conocimiento completo del filtro. Bajo los supuestos particulares de constante lineal con respecto a Y , donde los coeficientes del sistema b y c son funciones lineales de Y y donde y no dependen de Y , con la condición inicial para que la señal Y sea gaussiana o determinista, la densidad es gaussiana y se puede caracterizar por su media y matriz de varianza-covarianza, cuya evolución se describe mediante el filtro de Kalman-Bucy , que es de dimensión finita. [10] De manera más general, la evolución de la densidad del filtro ocurre en un espacio de funciones de dimensión infinita, [5] y tiene que aproximarse mediante una aproximación de dimensión finita, como se sugirió anteriormente. σ {\displaystyle \sigma } γ {\displaystyle \gamma } p t ( y ) {\displaystyle p_{t}(y)}

Véase también

Referencias

  1. ^ Stratonovich, RL (1959). Sistemas no lineales óptimos que provocan una separación de una señal con parámetros constantes del ruido . Radiofizika, 2:6, pp. 892-901.
  2. ^ Stratonovich, RL (1960). Aplicación de la teoría de procesos de Markov al filtrado óptimo . Ingeniería de radio y física electrónica, 5:11, págs. 1-19.
  3. ^ Kushner, Harold . (1967). Filtrado no lineal: Las ecuaciones dinámicas exactas satisfechas por el modo condicional. Control automático, IEEE Transactions on Volumen 12, Número 3, junio de 1967 Página(s): 262 - 267
  4. ^ Zakai, Moshe (1969), Sobre el filtrado óptimo de los procesos de difusión. Zeit. Wahrsch. 11 230–243. MR 242552, Zbl  0164.19201, doi :10.1007/BF00536382
  5. ^ ab Mireille Chaleyat-Maurel y Dominique Michel. Des resultats de inexistencia de filtro de dimensión finie. Estocásticos, 13(1+2):83-102, 1984.
  6. ^ Maybeck, Peter S., Modelos estocásticos, estimación y control, Volumen 141, Serie Matemáticas en la ciencia y la ingeniería, 1979, Academic Press
  7. ^ Damiano Brigo , Bernard Hanzon y François LeGland, Un enfoque geométrico diferencial para el filtrado no lineal: el filtro de proyección, IEEE Transactions on Automatic Control Vol. 43, 2 (1998), pp 247--252.
  8. ^ Damiano Brigo, Bernard Hanzon y François Le Gland, Filtrado no lineal aproximado por proyección sobre variedades exponenciales de densidades, Bernoulli, vol. 5, n.º 3 (1999), págs. 495-534
  9. ^ Del Moral, Pierre (1998). "Medir procesos valorados y sistemas de partículas que interactúan. Aplicación a problemas de filtrado no lineal". Anales de probabilidad aplicada . 8 (2) (Publicaciones del Laboratoire de Statistique et Probabilités, 96-15 (1996) ed.): 438–495. doi : 10.1214/aoap/1028903535 .
  10. ^ abc Bain, A., y Crisan, D. (2009). Fundamentos del filtrado estocástico. Springer-Verlag, Nueva York, https://doi.org/10.1007/978-0-387-76896-0

Lectura adicional

  • Jazwinski, Andrew H. (1970). Procesos estocásticos y teoría del filtrado . Nueva York: Academic Press. ISBN 0-12-381550-9.
  • Øksendal, Bernt K. (2003). Ecuaciones diferenciales estocásticas: una introducción con aplicaciones (sexta edición). Berlín: Springer. ISBN 3-540-04758-1.(Véase la sección 6.1)
Retrieved from "https://en.wikipedia.org/w/index.php?title=Filtering_problem_(stochastic_processes)&oldid=1260605029"