Fase mínima

En la teoría de control, cuando un sistema LTI y su inverso son causales y estables

En la teoría de control y procesamiento de señales , se dice que un sistema lineal e invariante en el tiempo es de fase mínima si el sistema y su inverso son causales y estables . [1] [2]

La función de transferencia LTI causal más general se puede factorizar de forma única en una serie de un sistema de paso total y un sistema de fase mínima. La función del sistema es entonces el producto de las dos partes, y en el dominio del tiempo la respuesta del sistema es la convolución de las respuestas de las dos partes. La diferencia entre una función de transferencia de fase mínima y una función de transferencia general es que un sistema de fase mínima tiene todos los polos y ceros de su función de transferencia en la mitad izquierda de la representación del plano s (en tiempo discreto, respectivamente, dentro del círculo unitario del plano z  ). Dado que invertir una función del sistema conduce a que los polos se conviertan en ceros y viceversa, y los polos en el lado derecho ( línea imaginaria del plano s ) o fuera ( círculo unitario del plano z ) del plano complejo conducen a sistemas inestables , solo la clase de sistemas de fase mínima está cerrada bajo inversión. Intuitivamente, la parte de fase mínima de un sistema causal general implementa su respuesta de amplitud con un retardo de grupo mínimo , mientras que su parte de paso total corrige su respuesta de fase sola para que corresponda con la función del sistema original.

El análisis en términos de polos y ceros es exacto sólo en el caso de funciones de transferencia que pueden expresarse como razones de polinomios. En el caso de tiempo continuo, tales sistemas se traducen en redes de redes LCR ideales y convencionales . En tiempo discreto, se traducen convenientemente en aproximaciones de las mismas, utilizando la adición, la multiplicación y el retardo unitario. Se puede demostrar que en ambos casos, las funciones del sistema de forma racional con orden creciente se pueden utilizar para aproximar eficientemente cualquier otra función del sistema; por lo tanto, incluso las funciones del sistema que carecen de una forma racional y, por lo tanto, poseen una infinitud de polos y/o ceros, se pueden implementar en la práctica tan eficientemente como cualquier otra.

En el contexto de sistemas causales estables, en teoría tendríamos libertad para elegir si los ceros de la función del sistema están fuera del rango estable (hacia la derecha o hacia afuera) si la condición de cierre no fuera un problema. Sin embargo, la inversión es de gran importancia práctica, al igual que las factorizaciones teóricamente perfectas lo son por derecho propio. (Véase la descomposición simétrica/antisimétrica espectral como otro ejemplo importante, que conduce, por ejemplo, a las técnicas de transformada de Hilbert ). Muchos sistemas físicos también tienden naturalmente hacia la respuesta de fase mínima, y ​​a veces tienen que invertirse utilizando otros sistemas físicos que obedecen a la misma restricción.

A continuación se explica por qué este sistema se llama de fase mínima y por qué la idea básica se aplica incluso cuando la función del sistema no se puede expresar en una forma racional que pueda implementarse.

Sistema inverso

Un sistema es invertible si podemos determinar de forma única su entrada a partir de su salida. Es decir, podemos encontrar un sistema tal que si aplicamos seguido de , obtenemos el sistema identidad . (Ver Matriz inversa para un análogo de dimensión finita). Es decir, yo {\displaystyle \mathbb {H}} yo Invertir {\displaystyle \mathbb {H} _ {\text{inv}}} yo {\displaystyle \mathbb {H}} yo Invertir {\displaystyle \mathbb {H} _ {\text{inv}}} I {\displaystyle \mathbb {yo}} yo Invertir yo = I . {\displaystyle \mathbb {H} _{\text{inv}}\mathbb {H} =\mathbb {I} .}

Supongamos que se trata de una entrada al sistema y se obtiene como salida : incógnita ~ {\displaystyle {\tilde {x}}} yo {\displaystyle \mathbb {H}} y ~ {\displaystyle {\tilde {y}}} yo incógnita ~ = y ~ . {\displaystyle \mathbb {H} {\tilde {x}}={\tilde {y}}.}

Aplicando el sistema inverso se obtiene yo Invertir {\displaystyle \mathbb {H} _ {\text{inv}}} y ~ {\displaystyle {\tilde {y}}} yo Invertir y ~ = yo Invertir yo incógnita ~ = I incógnita ~ = incógnita ~ . {\displaystyle \mathbb {H} _{\text{inv}}{\tilde {y}}=\mathbb {H} _{\text{inv}}\mathbb {H} {\tilde {x}}=\mathbb {I} {\tilde {x}}={\tilde {x}}.}

Así vemos que el sistema inverso nos permite determinar de forma única la entrada a partir de la salida . yo i norte en {\displaystyle \mathbb {H}_{inv}} incógnita ~ {\displaystyle {\tilde {x}}} y ~ {\displaystyle {\tilde {y}}}

Ejemplo de tiempo discreto

Supongamos que el sistema es un sistema lineal, invariante en el tiempo y de tiempo discreto (LTI) descrito por la respuesta al impulso para n en Z . Además, supongamos que tiene respuesta al impulso . La cascada de dos sistemas LTI es una convolución . En este caso, la relación anterior es la siguiente: donde es el delta de Kronecker , o el sistema identidad en el caso de tiempo discreto. (Se permite cambiar el orden de y debido a la conmutatividad de la operación de convolución). Tenga en cuenta que este sistema inverso no necesita ser único. yo {\displaystyle \mathbb {H}} yo ( norte ) {\displaystyle h(n)} yo Invertir {\displaystyle \mathbb {H} _ {\text{inv}}} yo Invertir ( norte ) {\displaystyle h_{\text{inv}}(n)} ( yo Invertir yo ) ( norte ) = ( yo yo Invertir ) ( norte ) = a = yo ( a ) yo Invertir ( norte a ) = del ( norte ) , {\displaystyle (h_{\text{inv}}*h)(n)=(h*h_{\text{inv}})(n)=\sum _{k=-\infty }^{\infty }h(k)h_{\text{inv}}(nk)=\delta (n),} del ( norte ) {\displaystyle \delta (n)} yo Invertir {\displaystyle h_{\text{inv}}} yo {\estilo de visualización h} yo Invertir {\displaystyle \mathbb {H} _ {\text{inv}}}

Sistema de fase mínima

Cuando imponemos las restricciones de causalidad y estabilidad , el sistema inverso es único; y el sistema y su inverso se denominan de fase mínima . Las restricciones de causalidad y estabilidad en el caso de tiempo discreto son las siguientes (para sistemas invariantes en el tiempo donde h es la respuesta al impulso del sistema y es la norma 1 ): yo {\displaystyle \mathbb {H}} yo Invertir {\displaystyle \mathbb {H} _ {\text{inv}}} " " 1 {\displaystyle \|{\cdot }\|_{1}}

Causalidad

yo ( norte ) = 0   norte < 0 {\displaystyle h(n)=0\ \para todo n<0} y yo Invertir ( norte ) = 0   norte < 0. {\displaystyle h_{\text{inv}}(n)=0\ \para todo n<0.}

Estabilidad

norte = | yo ( norte ) | = " yo " 1 < {\displaystyle \sum _{n=-\infty }^{\infty }|h(n)|=\|h\|_{1}<\infty } y norte = | yo Invertir ( norte ) | = " yo Invertir " 1 < . {\displaystyle \sum _{n=-\infty }^{\infty }|h_{\text{inv}}(n)|=\|h_{\text{inv}}\|_{1}<\infty .}

Consulte el artículo sobre estabilidad para conocer las condiciones análogas para el caso de tiempo continuo.

Análisis de frecuencia

Análisis de frecuencia en tiempo discreto

Realizar un análisis de frecuencia para el caso de tiempo discreto proporcionará cierta información. La ecuación del dominio del tiempo es ( h h inv ) ( n ) = δ ( n ) . {\displaystyle (h*h_{\text{inv}})(n)=\delta (n).}

La aplicación de la transformada Z da la siguiente relación en el dominio z  : H ( z ) H inv ( z ) = 1. {\displaystyle H(z)H_{\text{inv}}(z)=1.}

De esta relación nos damos cuenta de que H inv ( z ) = 1 H ( z ) . {\displaystyle H_{\text{inv}}(z)={\frac {1}{H(z)}}.}

Para simplificar, consideramos solo el caso de una función de transferencia racional H ( z ) . La causalidad y la estabilidad implican que todos los polos de H ( z ) deben estar estrictamente dentro del círculo unitario (ver estabilidad ). Supongamos que A ( z ) y D ( z ) son polinomiales en z . La causalidad y la estabilidad implican que los polos  (las raíces de D ( z )  ) deben estar estrictamente dentro del círculo unitario . También sabemos que la causalidad y la estabilidad para implican que sus polos  (las raíces de A ( z ) )  deben estar dentro del círculo unitario . Estas dos restricciones implican que tanto los ceros como los polos de un sistema de fase mínima deben estar estrictamente dentro del círculo unitario. H ( z ) = A ( z ) D ( z ) , {\displaystyle H(z)={\frac {A(z)}{D(z)}},} H inv ( z ) = D ( z ) A ( z ) , {\displaystyle H_{\text{inv}}(z)={\frac {D(z)}{A(z)}},} H inv ( z ) {\displaystyle H_{\text{inv}}(z)}

Análisis de frecuencia en tiempo continuo

El análisis para el caso de tiempo continuo se realiza de manera similar, excepto que utilizamos la transformada de Laplace para el análisis de frecuencia. La ecuación del dominio del tiempo es donde es la función delta de Dirac  , el operador de identidad en el caso de tiempo continuo debido a la propiedad de cribado con cualquier señal x ( t ) : ( h h inv ) ( t ) = δ ( t ) , {\displaystyle (h*h_{\text{inv}})(t)=\delta (t),} δ ( t ) {\displaystyle \delta (t)} ( δ x ) ( t ) = δ ( t τ ) x ( τ ) d τ = x ( t ) . {\displaystyle (\delta *x)(t)=\int _{-\infty }^{\infty }\delta (t-\tau )x(\tau )\,d\tau =x(t).}

Aplicando la transformada de Laplace obtenemos la siguiente relación en el plano s : de donde nos damos cuenta de que H ( s ) , H inv ( s ) = 1 , {\displaystyle H(s),H_{\text{inv}}(s)=1,} H inv ( s ) = 1 H ( s ) . {\displaystyle H_{\text{inv}}(s)={\frac {1}{H(s)}}.}

Nuevamente, para simplificar, consideramos solo el caso de una función de transferencia racional H ( s ) . La causalidad y la estabilidad implican que todos los polos de H ( s ) deben estar estrictamente dentro del semiplano s izquierdo (ver estabilidad ). Supongamos que A ( s ) y D ( s ) son polinomiales en s . La causalidad y la estabilidad implican que los polos  – las raíces de D ( s )  – deben estar dentro del semiplano s izquierdo . También sabemos que la causalidad y la estabilidad para implican que sus polos  – las raíces de A ( s )  – deben estar estrictamente dentro del semiplano s izquierdo . Estas dos restricciones implican que tanto los ceros como los polos de un sistema de fase mínima deben estar estrictamente dentro del semiplano s izquierdo . H ( s ) = A ( s ) D ( s ) , {\displaystyle H(s)={\frac {A(s)}{D(s)}},} H inv ( s ) = D ( s ) A ( s ) , {\displaystyle H_{\text{inv}}(s)={\frac {D(s)}{A(s)}},} H inv ( s ) {\displaystyle H_{\text{inv}}(s)}

Relación entre la respuesta de magnitud y la respuesta de fase

Un sistema de fase mínima, ya sea de tiempo discreto o de tiempo continuo, tiene una propiedad útil adicional: el logaritmo natural de la magnitud de la respuesta de frecuencia (la "ganancia" medida en neperios , que es proporcional a dB ) está relacionada con el ángulo de fase de la respuesta de frecuencia (medida en radianes ) por la transformada de Hilbert . Es decir, en el caso de tiempo continuo, sea la respuesta de frecuencia compleja del sistema H ( s ) . Entonces, solo para un sistema de fase mínima, la respuesta de fase de H ( s ) está relacionada con la ganancia por donde denota la transformada de Hilbert, y, inversamente, H ( j ω )   = def   H ( s ) | s = j ω {\displaystyle H(j\omega )\ {\stackrel {\text{def}}{=}}\ H(s){\Big |}_{s=j\omega }} arg [ H ( j ω ) ] = H { log ( | H ( j ω ) | ) } , {\displaystyle \arg[H(j\omega )]=-{\mathcal {H}}{\big \{}\log {\big (}|H(j\omega )|{\big )}{\big \}},} H {\displaystyle {\mathcal {H}}} log ( | H ( j ω ) | ) = log ( | H ( j ) | ) + H { arg [ H ( j ω ) ] } . {\displaystyle \log {\big (}|H(j\omega )|{\big )}=\log {\big (}|H(j\infty )|{\big )}+{\mathcal {H}}{\big \{}\arg[H(j\omega )]{\big \}}.}

Expresado de manera más compacta, sea donde y son funciones reales de una variable real. Entonces y H ( j ω ) = | H ( j ω ) | e j arg [ H ( j ω ) ]   = def   e α ( ω ) e j ϕ ( ω ) = e α ( ω ) + j ϕ ( ω ) , {\displaystyle H(j\omega )=|H(j\omega )|e^{j\arg[H(j\omega )]}\ {\stackrel {\text{def}}{=}}\ e^{\alpha (\omega )}e^{j\phi (\omega )}=e^{\alpha (\omega )+j\phi (\omega )},} α ( ω ) {\displaystyle \alpha (\omega )} ϕ ( ω ) {\displaystyle \phi (\omega )} ϕ ( ω ) = H { α ( ω ) } {\displaystyle \phi (\omega )=-{\mathcal {H}}\{\alpha (\omega )\}} α ( ω ) = α ( ) + H { ϕ ( ω ) } . {\displaystyle \alpha (\omega )=\alpha (\infty )+{\mathcal {H}}\{\phi (\omega )\}.}

El operador de transformada de Hilbert se define como H { x ( t ) }   = def   x ^ ( t ) = 1 π x ( τ ) t τ d τ . {\displaystyle {\mathcal {H}}\{x(t)\}\ {\stackrel {\text{def}}{=}}\ {\hat {x}}(t)={\frac {1}{\pi }}\int _{-\infty }^{\infty }{\frac {x(\tau )}{t-\tau }}\,d\tau .}

Una relación correspondiente equivalente también es válida para sistemas de fase mínima de tiempo discreto.

Fase mínima en el dominio del tiempo

Para todos los sistemas causales y estables que tienen la misma magnitud de respuesta , el sistema de fase mínima tiene su energía concentrada cerca del inicio de la respuesta al impulso , es decir, minimiza la siguiente función, que podemos considerar como el retraso de la energía en la respuesta al impulso : n = m | h ( n ) | 2 m Z + . {\displaystyle \sum _{n=m}^{\infty }|h(n)|^{2}\quad \forall m\in \mathbb {Z} ^{+}.}

Fase mínima como retraso mínimo del grupo

Para todos los sistemas causales y estables que tienen la misma respuesta de magnitud , el sistema de fase mínima tiene el retardo de grupo mínimo . La siguiente prueba ilustra esta idea del retardo de grupo mínimo .

Supongamos que consideramos un cero de la función de transferencia . Coloquemos este cero dentro del círculo unitario ( ) y veamos cómo se ve afectado el retardo de grupo . a {\displaystyle a} H ( z ) {\displaystyle H(z)} a {\displaystyle a} | a | < 1 {\displaystyle \left|a\right|<1} a = | a | e i θ a  where  θ a = Arg ( a ) {\displaystyle a=\left|a\right|e^{i\theta _{a}}\,{\text{ where }}\,\theta _{a}=\operatorname {Arg} (a)}

Como el cero aporta el factor a la función de transferencia , la fase aportada por este término es la siguiente. a {\displaystyle a} 1 a z 1 {\displaystyle 1-az^{-1}} ϕ a ( ω ) = Arg ( 1 a e i ω ) = Arg ( 1 | a | e i θ a e i ω ) = Arg ( 1 | a | e i ( ω θ a ) ) = Arg ( { 1 | a | cos ( ω θ a ) } + i { | a | sin ( ω θ a ) } ) = Arg ( { | a | 1 cos ( ω θ a ) } + i { sin ( ω θ a ) } ) {\displaystyle {\begin{aligned}\phi _{a}\left(\omega \right)&=\operatorname {Arg} \left(1-ae^{-i\omega }\right)\\&=\operatorname {Arg} \left(1-\left|a\right|e^{i\theta _{a}}e^{-i\omega }\right)\\&=\operatorname {Arg} \left(1-\left|a\right|e^{-i(\omega -\theta _{a})}\right)\\&=\operatorname {Arg} \left(\left\{1-\left|a\right|\cos(\omega -\theta _{a})\right\}+i\left\{\left|a\right|\sin(\omega -\theta _{a})\right\}\right)\\&=\operatorname {Arg} \left(\left\{\left|a\right|^{-1}-\cos(\omega -\theta _{a})\right\}+i\left\{\sin(\omega -\theta _{a})\right\}\right)\end{aligned}}}

ϕ a ( ω ) {\displaystyle \phi _{a}(\omega )} Contribuye lo siguiente al retraso del grupo .

d ϕ a ( ω ) d ω = sin 2 ( ω θ a ) + cos 2 ( ω θ a ) | a | 1 cos ( ω θ a ) sin 2 ( ω θ a ) + cos 2 ( ω θ a ) + | a | 2 2 | a | 1 cos ( ω θ a ) = | a | cos ( ω θ a ) | a | + | a | 1 2 cos ( ω θ a ) {\displaystyle {\begin{aligned}-{\frac {d\phi _{a}(\omega )}{d\omega }}&={\frac {\sin ^{2}(\omega -\theta _{a})+\cos ^{2}(\omega -\theta _{a})-\left|a\right|^{-1}\cos(\omega -\theta _{a})}{\sin ^{2}(\omega -\theta _{a})+\cos ^{2}(\omega -\theta _{a})+\left|a\right|^{-2}-2\left|a\right|^{-1}\cos(\omega -\theta _{a})}}\\&={\frac {\left|a\right|-\cos(\omega -\theta _{a})}{\left|a\right|+\left|a\right|^{-1}-2\cos(\omega -\theta _{a})}}\end{aligned}}}

El denominador y son invariantes al reflejar el cero fuera del círculo unitario , es decir, reemplazando con . Sin embargo, al reflejar fuera del círculo unitario, aumentamos la magnitud de en el numerador. Por lo tanto, tener dentro del círculo unitario minimiza el retraso de grupo aportado por el factor . Podemos extender este resultado al caso general de más de un cero ya que la fase de los factores multiplicativos de la forma es aditiva. Es decir, para una función de transferencia con ceros , θ a {\displaystyle \theta _{a}} a {\displaystyle a} a {\displaystyle a} ( a 1 ) {\displaystyle (a^{-1})^{*}} a {\displaystyle a} | a | {\displaystyle \left|a\right|} a {\displaystyle a} 1 a z 1 {\displaystyle 1-az^{-1}} 1 a i z 1 {\displaystyle 1-a_{i}z^{-1}} N {\displaystyle N} Arg ( i = 1 N ( 1 a i z 1 ) ) = i = 1 N Arg ( 1 a i z 1 ) {\displaystyle \operatorname {Arg} \left(\prod _{i=1}^{N}\left(1-a_{i}z^{-1}\right)\right)=\sum _{i=1}^{N}\operatorname {Arg} \left(1-a_{i}z^{-1}\right)}

Por lo tanto, un sistema de fase mínima con todos los ceros dentro del círculo unitario minimiza el retraso de grupo ya que se minimiza el retraso de grupo de cada cero individual.

Ilustración del cálculo anterior. Arriba y abajo hay filtros con la misma respuesta de ganancia (a la izquierda: diagramas de Nyquist , a la derecha: respuestas de fase), pero el filtro de arriba tiene la amplitud más pequeña en la respuesta de fase. a = 0.8 < 1 {\displaystyle a=0.8<1}

Fase no mínima

Los sistemas que son causales y estables, cuyos inversos son causales e inestables, se conocen como sistemas de fase no mínima . Un sistema de fase no mínima dado tendrá una contribución de fase mayor que el sistema de fase mínima con la respuesta de magnitud equivalente.

Fase máxima

Un sistema de fase máxima es lo opuesto a un sistema de fase mínima. Un sistema LTI causal y estable es un sistema de fase máxima si su inverso es causal e inestable. [ dudosodiscutir ] Es decir,

  • Los ceros del sistema de tiempo discreto están fuera del círculo unitario .
  • Los ceros del sistema de tiempo continuo están en el lado derecho del plano complejo .

Este sistema se denomina sistema de fase máxima porque tiene el retardo de grupo máximo del conjunto de sistemas que tienen la misma respuesta de magnitud. En este conjunto de sistemas de respuesta de igual magnitud, el sistema de fase máxima tendrá el retardo de energía máximo.

Por ejemplo, los dos sistemas LTI de tiempo continuo descritos por las funciones de transferencia s + 10 s + 5 and s 10 s + 5 {\displaystyle {\frac {s+10}{s+5}}\qquad {\text{and}}\qquad {\frac {s-10}{s+5}}}

tienen respuestas de magnitud equivalente; sin embargo, el segundo sistema tiene una contribución mucho mayor al cambio de fase. Por lo tanto, en este conjunto, el segundo sistema es el sistema de fase máxima y el primer sistema es el sistema de fase mínima. Estos sistemas también se conocen como sistemas de fase no mínima que plantean muchos problemas de estabilidad en el control. Una solución reciente para estos sistemas es mover los ceros de RHP a LHP utilizando el método PFCD. [3]

Fase mixta

Un sistema de fase mixta tiene algunos de sus ceros dentro del círculo unitario y otros fuera de él . Por lo tanto, su retardo de grupo no es mínimo ni máximo, sino que se encuentra en algún punto entre el retardo de grupo del sistema equivalente de fase mínima y máxima.

Por ejemplo, el sistema LTI de tiempo continuo descrito por la función de transferencia es estable y causal; sin embargo, tiene ceros tanto en el lado izquierdo como en el derecho del plano complejo . Por lo tanto, es un sistema de fase mixta . Para controlar las funciones de transferencia que incluyen estos sistemas, se proponen algunos métodos como el controlador de modelo interno (IMC), [4] el predictor generalizado de Smith (GSP) [5] y el control de avance paralelo con derivada (PFCD) [6] . ( s + 1 ) ( s 5 ) ( s + 10 ) ( s + 2 ) ( s + 4 ) ( s + 6 ) {\displaystyle {\frac {(s+1)(s-5)(s+10)}{(s+2)(s+4)(s+6)}}}

Fase lineal

Un sistema de fase lineal tiene un retardo de grupo constante . Los sistemas de fase lineal no trivial o de fase casi lineal también son de fase mixta.

Véase también

Referencias

  1. ^ Hassibi, Babak; Kailath, Thomas; Sayed, Ali H. (2000). Estimación lineal . Englewood Cliffs, NJ: Prentice Hall. p. 193. ISBN 0-13-022464-2.
  2. ^ JO Smith III, Introducción a los filtros digitales con aplicaciones de audio (edición de septiembre de 2007).
  3. ^ Noury, K. (2019). "Estudio estadístico analítico de compensadores de avance lineales paralelos para sistemas de fase no mínima". Estudio estadístico analítico de compensadores de avance lineales paralelos para sistemas de fase no mínima . doi :10.1115/DSCC2019-9126. ISBN 978-0-7918-5914-8.S2CID214446227  .
  4. ^ Morari, Manfred (2002). Control de procesos robustos . PTR Prentice Hall. ISBN 0137821530.OCLC 263718708  .
  5. ^ Ramanathan, S.; Curl, RL; Kravaris, C. (1989). "Dinámica y control de sistemas cuasiracionales". AIChE Journal . 35 (6): 1017–1028. Bibcode :1989AIChE..35.1017R. doi :10.1002/aic.690350615. hdl : 2027.42/37408 . ISSN  1547-5905. S2CID  20116797.
  6. ^ Noury, K. (2019). "Clase de compensadores de avance paralelos estabilizadores para sistemas de fase no mínima". Clase de compensadores de avance paralelos estabilizadores para sistemas de fase no mínima . doi :10.1115/DSCC2019-9240. ISBN 978-0-7918-5914-8.S2CID214440404  .

Lectura adicional

  • Dimitris G. Manolakis, Vinay K. Ingle, Stephen M. Kogon: Procesamiento de señales estadístico y adaptativo , págs. 54-56, McGraw-Hill, ISBN 0-07-040051-2 
  • Boaz Porat: Un curso sobre procesamiento de señales digitales , págs. 261-263, John Wiley and Sons, ISBN 0-471-14961-6 
Retrieved from "https://en.wikipedia.org/w/index.php?title=Minimum_phase&oldid=1234028389"