Estimación bayesiana recursiva

Proceso para estimar una función de densidad de probabilidad

En teoría de probabilidad , estadística y aprendizaje automático , la estimación bayesiana recursiva , también conocida como filtro de Bayes , es un enfoque probabilístico general para estimar una función de densidad de probabilidad ( PDF ) desconocida de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. El proceso se basa en gran medida en conceptos y modelos matemáticos que se teorizan dentro de un estudio de probabilidades previas y posteriores conocido como estadística bayesiana .

En robótica

Un filtro de Bayes es un algoritmo utilizado en informática para calcular las probabilidades de múltiples creencias que permiten a un robot inferir su posición y orientación. Básicamente, los filtros de Bayes permiten a los robots actualizar continuamente su posición más probable dentro de un sistema de coordenadas, en función de los datos de los sensores adquiridos más recientemente. Se trata de un algoritmo recursivo. Consta de dos partes: predicción e innovación. Si las variables se distribuyen normalmente y las transiciones son lineales, el filtro de Bayes se vuelve igual al filtro de Kalman .

En un ejemplo sencillo, un robot que se mueve a lo largo de una cuadrícula puede tener varios sensores diferentes que le proporcionan información sobre su entorno. El robot puede empezar con la certeza de que se encuentra en la posición (0,0). Sin embargo, a medida que se aleja cada vez más de su posición original, el robot tiene cada vez menos certeza sobre su posición; utilizando un filtro de Bayes, se puede asignar una probabilidad a la creencia del robot sobre su posición actual, y esa probabilidad se puede actualizar continuamente a partir de información adicional del sensor.

Modelo

Las mediciones son las manifestaciones de un modelo oculto de Markov (HMM), lo que significa que se supone que el estado real es un proceso de Markov no observado . La siguiente imagen presenta una red bayesiana de un HMM. el {\estilo de visualización z} incógnita {\estilo de visualización x}

Modelo oculto de Markov
Modelo oculto de Markov

Debido al supuesto de Markov, la probabilidad del estado verdadero actual dado el inmediatamente anterior es condicionalmente independiente de los otros estados anteriores.

pag ( incógnita a | incógnita a 1 , incógnita a 2 , , incógnita 0 ) = pag ( incógnita a | incógnita a 1 ) {\displaystyle p({\textbf {x}}_{k}|{\textbf {x}}_{k-1},{\textbf {x}}_{k-2},\dots,{\ textbf {x}}_{0})=p({\textbf {x}}_{k}|{\textbf {x}}_{k-1})}

De manera similar, la medición en el k -ésimo paso de tiempo depende únicamente del estado actual, por lo que es condicionalmente independiente de todos los demás estados dado el estado actual.

pag ( el a | incógnita a , incógnita a 1 , , incógnita 0 ) = pag ( el a | incógnita a ) {\displaystyle p({\textbf {z}}_{k}|{\textbf {x}}_{k},{\textbf {x}}_{k-1},\dots,{\textbf { x}}_{0})=p({\textbf {z}}_{k}|{\textbf {x}}_{k})}

Utilizando estos supuestos, la distribución de probabilidad sobre todos los estados del HMM se puede escribir simplemente como

pag ( incógnita 0 , , incógnita a , el 1 , , el a ) = pag ( incógnita 0 ) i = 1 a pag ( el i | incógnita i ) pag ( incógnita i | incógnita i 1 ) . {\displaystyle p({\textbf {x}}_{0},\dots ,{\textbf {x}}_{k},{\textbf {z}}_{1},\dots ,{\textbf {z}}_{k})=p({\textbf {x}}_{0})\prod _{i=1}^{k}p({\textbf {z}}_{i}| {\textbf {x}}_{i})p({\textbf {x}}_{i}|{\textbf {x}}_{i-1}).}

Sin embargo, al utilizar el filtro de Kalman para estimar el estado x , la distribución de probabilidad de interés se asocia con los estados actuales condicionados a las mediciones hasta el intervalo de tiempo actual. (Esto se logra marginando los estados anteriores y dividiéndolos por la probabilidad del conjunto de mediciones).

Esto conduce a los pasos de predicción y actualización del filtro de Kalman escrito de manera probabilística. La distribución de probabilidad asociada con el estado predicho es la suma (integral) de los productos de la distribución de probabilidad asociada con la transición del paso de tiempo ( k - 1) al k -ésimo y la distribución de probabilidad asociada con el estado anterior, sobre todos los posibles . incógnita a 1 estilo de visualización x_{k-1}}

pag ( incógnita a | el 1 : a 1 ) = pag ( incógnita a | incógnita a 1 ) pag ( incógnita a 1 | el 1 : a 1 ) d incógnita a 1 {\displaystyle p({\textbf {x}}_{k}|{\textbf {z}}_{1:k-1})=\int p({\textbf {x}}_{k}| {\textbf {x}}_{k-1})p({\textbf {x}}_{k-1}|{\textbf {z}}_{1:k-1})\,d{ \textbf {x}}_{k-1}}

La distribución de probabilidad de actualización es proporcional al producto de la probabilidad de la medición y el estado previsto.

pag ( incógnita a | el 1 : a ) = pag ( el a | incógnita a ) pag ( incógnita a | el 1 : a 1 ) pag ( el a | el 1 : a 1 ) pag ( el a | incógnita a ) pag ( incógnita a | el 1 : a 1 ) {\displaystyle p({\textbf {x}}_{k}|{\textbf {z}}_{1:k})={\frac {p({\textbf {z}}_{k}| {\textbf {x}}_{k})p({\textbf {x}}_{k}|{\textbf {z}}_{1:k-1})}{p({\textbf { z}}_{k}|{\textbf {z}}_{1:k-1})}}\propto p({\textbf {z}}_{k}|{\textbf {x}}_ {k})p({\textbf {x}}_{k}|{\textbf {z}}_{1:k-1})}

El denominador

pag ( el a | el 1 : a 1 ) = pag ( el a | incógnita a ) pag ( incógnita a | el 1 : a 1 ) d incógnita a {\displaystyle p({\textbf {z}}_{k}|{\textbf {z}}_{1:k-1})=\int p({\textbf {z}}_{k}| {\textbf {x}}_{k})p({\textbf {x}}_{k}|{\textbf {z}}_{1:k-1})d{\textbf {x}} _ {k}}

es constante en relación con , por lo que siempre podemos sustituirlo por un coeficiente , que normalmente se puede ignorar en la práctica. El numerador se puede calcular y luego simplemente normalizar, ya que su integral debe ser la unidad. incógnita {\estilo de visualización x} alfa {\estilo de visualización \alpha}

Aplicaciones

Filtrado bayesiano secuencial

El filtrado bayesiano secuencial es la extensión de la estimación bayesiana para el caso en que el valor observado cambia en el tiempo. Es un método para estimar el valor real de una variable observada que evoluciona en el tiempo.

Existen varias variaciones:

filtración
Al estimar el valor actual dadas las observaciones pasadas y actuales,
suavizado
al estimar valores pasados ​​dadas observaciones pasadas y actuales, y
predicción
al estimar un valor futuro probable dadas observaciones pasadas y actuales.

El concepto de filtrado bayesiano secuencial se utiliza ampliamente en control y robótica .

Lectura adicional

  • Arulampalam, M. Sanjeev; Maskell, Simon; Gordon, Neil (2002). "Un tutorial sobre filtros de partículas para el seguimiento bayesiano no lineal/no gaussiano en línea". IEEE Transactions on Signal Processing . 50 (2): 174–188. Bibcode :2002ITSP...50..174A. CiteSeerX  10.1.1.117.1144 . doi :10.1109/78.978374.
  • Burkhart, Michael C. (2019). "Capítulo 1. Una descripción general del filtrado bayesiano". Un enfoque discriminativo del filtrado bayesiano con aplicaciones a la decodificación neuronal humana . Providence, RI, EE. UU.: Universidad de Brown. doi :10.26300/nhfp-xv22.
  • Chen, Zhe Sage (2003). "Filtrado bayesiano: de los filtros de Kalman a los filtros de partículas y más allá". Estadísticas: una revista de estadística teórica y aplicada . 182 (1): 1–69.
  • Diard, Julien; Bessière, Pierre; Mazer, Emmanuel (2003). "Un estudio de modelos probabilísticos, utilizando la metodología de programación bayesiana como marco unificador" (PDF) . cogprints.org.
  • Särkkä, Simo (2013). Filtrado y suavizado bayesiano (PDF) . Prensa de la Universidad de Cambridge.
  • Volkov, Alexander (2015). "Límites de precisión del seguimiento bayesiano no gaussiano en un entorno NLOS". Procesamiento de señales . 108 : 498–508. Código Bibliográfico :2015SigPr.108..498V. doi :10.1016/j.sigpro.2014.10.025.
Obtenido de "https://es.wikipedia.org/w/index.php?title=Estimación_bayesiana_recursiva&oldid=1254365058"