Predicción lineal

Operación matemática que predice valores futuros de una señal de tiempo discreto

La predicción lineal es una operación matemática en la que los valores futuros de una señal de tiempo discreto se estiman como una función lineal de muestras anteriores.

En el procesamiento de señales digitales , la predicción lineal suele denominarse codificación predictiva lineal (LPC) y, por lo tanto, puede considerarse como un subconjunto de la teoría de filtros . En el análisis de sistemas , un subcampo de las matemáticas , la predicción lineal puede considerarse como parte del modelado matemático o la optimización .

El modelo de predicción

La representación más común es

incógnita ^ ( norte ) = i = 1 pag a i incógnita ( norte i ) {\displaystyle {\widehat {x}}(n)=\sum _{i=1}^{p}a_{i}x(ni)\,}

donde es el valor de la señal predicha, los valores observados previamente, con , y los coeficientes predictores. El error generado por esta estimación es incógnita ^ ( norte ) {\displaystyle {\widehat {x}}(n)} incógnita ( norte i ) {\displaystyle x(ni)} pag norte {\displaystyle p\leq n} a i Estilo de visualización ai

mi ( norte ) = incógnita ( norte ) incógnita ^ ( norte ) {\displaystyle e(n)=x(n)-{\widehat {x}}(n)\,}

¿Dónde está el verdadero valor de la señal? incógnita ( norte ) {\displaystyle x(n)}

Estas ecuaciones son válidas para todo tipo de predicción lineal (unidimensional). Las diferencias se encuentran en la forma en que se eligen los coeficientes predictores. a i Estilo de visualización ai

Para señales multidimensionales, la métrica de error a menudo se define como

mi ( norte ) = " incógnita ( norte ) incógnita ^ ( norte ) " {\displaystyle e(n)=\|x(n)-{\widehat {x}}(n)\|\,}

donde es una norma vectorial elegida adecuada . Las predicciones como se utilizan rutinariamente dentro de los filtros y suavizadores de Kalman para estimar los valores de señal actuales y pasados, respectivamente, a partir de mediciones ruidosas. [1] " " {\estilo de visualización \|\cdot \|} incógnita ^ ( norte ) {\displaystyle {\widehat {x}}(n)}

Estimación de los parámetros

La opción más común en la optimización de parámetros es el criterio de la raíz cuadrada media , también llamado criterio de autocorrelación . En este método minimizamos el valor esperado del error al cuadrado , lo que da como resultado la ecuación a i Estilo de visualización ai mi [ mi 2 ( norte ) ] Estilo de visualización E[e^{2}(n)]}

i = 1 pag a i R ( yo i ) = R ( yo ) , {\displaystyle \sum_{i=1}^{p}a_{i}R(ji)=R(j),}

para 1 ≤ jp , donde R es la autocorrelación de la señal x n , definida como

  R ( i ) = mi { incógnita ( norte ) incógnita ( norte i ) } {\displaystyle \ R(i)=E\{x(n)x(ni)\}\,} ,

y E es el valor esperado . En el caso multidimensional esto corresponde a minimizar la norma L 2 .

Las ecuaciones anteriores se denominan ecuaciones normales o ecuaciones de Yule-Walker . En forma matricial, las ecuaciones se pueden escribir de forma equivalente como

R A = a {\displaystyle \mathbf {RA} =\mathbf {r} }

donde la matriz de autocorrelación es una matriz de Toeplitz simétrica con elementos , el vector es el vector de autocorrelación , y , el vector de parámetros. R {\displaystyle \mathbf {R}} pag × pag {\displaystyle p\times p} a i yo = R ( i yo ) , 0 i , yo < pag {\displaystyle r_{ij}=R(ij),0\leq i,j<p} a {\displaystyle \mathbf {r}} a yo = R ( yo ) , 0 < yo pag {\displaystyle r_{j}=R(j),0<j\leq p} A = [ a 1 , a 2 , , a pag 1 , a pag ] {\displaystyle \mathbf {A} =[a_{1},a_{2},\,\cdots \,,a_{p-1},a_{p}]}

Otro enfoque más general es minimizar la suma de los cuadrados de los errores definidos en la forma

mi ( norte ) = incógnita ( norte ) incógnita ^ ( norte ) = incógnita ( norte ) i = 1 pag a i incógnita ( norte i ) = i = 0 pag a i incógnita ( norte i ) {\displaystyle e(n)=x(n)-{\widehat {x}}(n)=x(n)-\sum _{i=1}^{p}a_{i}x(ni)=-\sum _{i=0}^{p}a_{i}x(ni)}

donde el problema de optimización que busca sobre todo ahora debe restringirse con . a i Estilo de visualización ai a 0 = 1 estilo de visualización a_{0}=-1

Por otra parte, si el error cuadrático medio de predicción se limita a la unidad y la ecuación del error de predicción se incluye encima de las ecuaciones normales, el conjunto aumentado de ecuaciones se obtiene como

  R A = [ 1 , 0 , . . . , 0 ] yo {\displaystyle \ \mathbf {RA} =[1,0,...,0]^{\mathrm {T} }}

donde el índice varía de 0 a , y es una matriz. i {\estilo de visualización i} pag {\estilo de visualización p} R {\displaystyle \mathbf {R}} ( pag + 1 ) × ( pag + 1 ) {\displaystyle (p+1)\times (p+1)}

La especificación de los parámetros del predictor lineal es un tema amplio y se han propuesto un gran número de otros enfoques. De hecho, el método de autocorrelación es el más común [2] y se utiliza, por ejemplo, para la codificación de voz en el estándar GSM .

La solución de la ecuación matricial es un proceso relativamente costoso desde el punto de vista computacional. La eliminación gaussiana para la inversión de matrices es probablemente la solución más antigua, pero este enfoque no utiliza de manera eficiente la simetría de . Un algoritmo más rápido es la recursión de Levinson propuesta por Norman Levinson en 1947, que calcula la solución de manera recursiva. [ cita requerida ] En particular, las ecuaciones de autocorrelación anteriores pueden resolverse de manera más eficiente mediante el algoritmo de Durbin. [3] R A = a {\displaystyle \mathbf {RA} =\mathbf {r} } R {\displaystyle \mathbf {R}}

En 1986, Philippe Delsarte e YV Genin propusieron una mejora de este algoritmo llamada recursión dividida de Levinson, que requiere aproximadamente la mitad del número de multiplicaciones y divisiones. [4] Utiliza una propiedad simétrica especial de los vectores de parámetros en los niveles de recursión posteriores. Es decir, los cálculos para el predictor óptimo que contiene términos utilizan cálculos similares para el predictor óptimo que contiene términos. pag {\estilo de visualización p} pag 1 {\estilo de visualización p-1}

Otra forma de identificar los parámetros del modelo es calcular iterativamente estimaciones de estado utilizando filtros de Kalman y obteniendo estimaciones de máxima verosimilitud dentro de algoritmos de expectativa-maximización .

Para valores igualmente espaciados, una interpolación polinómica es una combinación lineal de los valores conocidos. Si se estima que la señal de tiempo discreto obedece a un polinomio de grado , entonces los coeficientes predictores se dan por la fila correspondiente del triángulo de coeficientes de transformación binomial. Esta estimación podría ser adecuada para una señal que varía lentamente con poco ruido. Las predicciones para los primeros valores de son pag 1 , {\estilo de visualización p-1,} a i Estilo de visualización ai pag {\estilo de visualización p}

pag = 1 : incógnita ^ ( norte ) = 1 incógnita ( norte 1 ) pag = 2 : incógnita ^ ( norte ) = 2 incógnita ( norte 1 ) 1 incógnita ( norte 2 ) pag = 3 : incógnita ^ ( norte ) = 3 incógnita ( norte 1 ) 3 incógnita ( norte 2 ) + 1 incógnita ( norte 3 ) pag = 4 : incógnita ^ ( norte ) = 4 incógnita ( norte 1 ) 6 incógnita ( norte 2 ) + 4 incógnita ( norte 3 ) 1 incógnita ( norte 4 ) {\displaystyle {\begin{array}{lcl}p=1&:&{\widehat {x}}(n)=1x(n-1)\\p=2&:&{\widehat {x}}(n )=2x(n-1)-1x(n-2)\\p=3&:&{\widehat {x}}(n)=3x(n-1)-3x(n-2)+1x(n -3)\\p=4&:&{\widehat {x}}(n)=4x(n-1)-6x(n-2)+4x(n-3)-1x(n-4)\\ \end{matriz}}}

Véase también

Referencias

  1. ^ "Filtro de Kalman: descripción general | Temas de ScienceDirect" www.sciencedirect.com . Consultado el 24 de junio de 2022 .
  2. ^ "Predicción lineal: descripción general | Temas de ScienceDirect" www.sciencedirect.com . Consultado el 24 de junio de 2022 .
  3. ^ Ramirez, MA (2008). "Un algoritmo de Levinson basado en una transformación isométrica de Durbin" (PDF) . IEEE Signal Processing Letters . 15 : 99–102. doi :10.1109/LSP.2007.910319. S2CID  18906207.
  4. ^ Delsarte, P. y Genin, YV (1986), El algoritmo Levinson dividido , IEEE Transactions on Acoustics, Speech, and Signal Processing , v. ASSP-34(3), págs. 470–478

Lectura adicional

  • Hayes, MH (1996). Procesamiento y modelado estadístico de señales digitales . Nueva York: J. Wiley & Sons. ISBN 978-0471594314.
  • Levinson, N. (1947). "El criterio de error RMS (raíz cuadrada media) de Wiener en el diseño y predicción de filtros". Revista de Matemáticas y Física . 25 (4): 261–278. doi :10.1002/sapm1946251261.
  • Makhoul, J. (1975). "Predicción lineal: una revisión tutorial". Actas del IEEE . 63 (5): 561–580. doi :10.1109/PROC.1975.9792.
  • Yule, GU (1927). "Sobre un método de investigación de periodicidades en series perturbadas, con especial referencia a los números de manchas solares de Wolfer". Phil. Trans. Roy. Soc. A. 226 ( 636–646): 267–298. doi : 10.1098/rsta.1927.0007 . JSTOR  91170.
  • PLP y RASTA (y MFCC, e inversión) en Matlab
Retrieved from "https://en.wikipedia.org/w/index.php?title=Linear_prediction&oldid=1169015573"