Representación en el espacio de estados

Modelo matemático de un sistema en ingeniería de control

En ingeniería de control e identificación de sistemas , una representación en el espacio de estados es un modelo matemático de un sistema físico especificado como un conjunto de entradas, salidas y variables relacionadas por ecuaciones diferenciales de primer orden o ecuaciones en diferencias . Dichas variables, llamadas variables de estado , evolucionan con el tiempo de una manera que depende de los valores que tienen en un instante dado y de los valores impuestos externamente de las variables de entrada. Los valores de las variables de salida dependen de los valores de las variables de estado y también pueden depender de los valores de las variables de entrada.

El espacio de estados o espacio de fases es el espacio geométrico en el que los ejes son las variables de estado. El estado del sistema se puede representar como un vector , el vector de estado .

Si el sistema dinámico es lineal, invariante en el tiempo y de dimensión finita, entonces las ecuaciones diferenciales y algebraicas pueden escribirse en forma matricial . [1] [2] El método del espacio de estados se caracteriza por la algebrización de la teoría general de sistemas , lo que hace posible utilizar estructuras de matriz vectorial de Kronecker . La capacidad de estas estructuras se puede aplicar de manera eficiente a sistemas de investigación con o sin modulación. [3] La representación del espacio de estados (también conocida como el " enfoque del dominio del tiempo ") proporciona una forma conveniente y compacta de modelar y analizar sistemas con múltiples entradas y salidas. Con entradas y salidas, de lo contrario tendríamos que escribir transformadas de Laplace para codificar toda la información sobre un sistema. A diferencia del enfoque del dominio de la frecuencia , el uso de la representación del espacio de estados no se limita a sistemas con componentes lineales y condiciones iniciales cero. p {\displaystyle p} q {\displaystyle q} q × p {\displaystyle q\times p}

El modelo de espacio de estados se puede aplicar en materias como economía, [4] estadística, [5] informática e ingeniería eléctrica, [6] y neurociencia. [7] En econometría , por ejemplo, los modelos de espacio de estados se pueden utilizar para descomponer una serie temporal en tendencia y ciclo, componer indicadores individuales en un índice compuesto, [8] identificar puntos de inflexión del ciclo económico y estimar el PIB utilizando series temporales latentes y no observadas. [9] [10] Muchas aplicaciones se basan en el filtro de Kalman o en un observador de estados para producir estimaciones de las variables de estado desconocidas actuales utilizando sus observaciones anteriores. [11] [12]

Variables de estado

Las variables de estado internas son el subconjunto más pequeño posible de variables del sistema que pueden representar el estado completo del sistema en un momento dado. [13] El número mínimo de variables de estado requeridas para representar un sistema dado, , es usualmente igual al orden de la ecuación diferencial que define el sistema, pero no necesariamente. Si el sistema se representa en forma de función de transferencia, el número mínimo de variables de estado es igual al orden del denominador de la función de transferencia después de que se haya reducido a una fracción propia. Es importante entender que convertir una realización de espacio de estado a una forma de función de transferencia puede perder algo de información interna sobre el sistema, y ​​puede proporcionar una descripción de un sistema que es estable, cuando la realización de espacio de estado es inestable en ciertos puntos. En circuitos eléctricos, el número de variables de estado es a menudo, aunque no siempre, el mismo que el número de elementos de almacenamiento de energía en el circuito, tales como capacitores e inductores . Las variables de estado definidas deben ser linealmente independientes, es decir, ninguna variable de estado puede escribirse como una combinación lineal de las otras variables de estado, o el sistema no puede resolverse. n {\displaystyle n}

Sistemas lineales

Representación en diagrama de bloques de las ecuaciones lineales en el espacio de estados

La representación más general en el espacio de estados de un sistema lineal con entradas, salidas y variables de estado se escribe de la siguiente forma: [14] p {\displaystyle p} q {\displaystyle q} n {\displaystyle n}

x ˙ ( t ) = A ( t ) x ( t ) + B ( t ) u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=\mathbf {A} (t)\mathbf {x} (t)+\mathbf {B} (t)\mathbf {u} (t)}
y ( t ) = C ( t ) x ( t ) + D ( t ) u ( t ) {\displaystyle \mathbf {y} (t)=\mathbf {C} (t)\mathbf {x} (t)+\mathbf {D} (t)\mathbf {u} (t)}

dónde:

x ( ) {\displaystyle \mathbf {x} (\cdot )} se llama "vector de estado"  ; x ( t ) R n {\displaystyle \mathbf {x} (t)\in \mathbb {R} ^{n}}
y ( ) {\displaystyle \mathbf {y} (\cdot )} se llama "vector de salida"  ,; y ( t ) R q {\displaystyle \mathbf {y} (t)\in \mathbb {R} ^{q}}
u ( ) {\displaystyle \mathbf {u} (\cdot )} se llama "vector de entrada (o control)"  ,; u ( t ) R p {\displaystyle \mathbf {u} (t)\in \mathbb {R} ^{p}}
A ( ) {\displaystyle \mathbf {A} (\cdot )} es la "matriz de estado (o sistema)"  , dim [ A ( ) ] = n × n {\displaystyle \dim[\mathbf {A} (\cdot )]=n\times n}
B ( ) {\displaystyle \mathbf {B} (\cdot )} es la "matriz de entrada",  , dim [ B ( ) ] = n × p {\displaystyle \dim[\mathbf {B} (\cdot )]=n\times p}
C ( ) {\displaystyle \mathbf {C} (\cdot )} es la "matriz de salida",  , dim [ C ( ) ] = q × n {\displaystyle \dim[\mathbf {C} (\cdot )]=q\times n}
D ( ) {\displaystyle \mathbf {D} (\cdot )} es la "matriz de paso directo (o de avance)" (en los casos en que el modelo del sistema no tiene un paso directo, es la matriz cero)  , D ( ) {\displaystyle \mathbf {D} (\cdot )} dim [ D ( ) ] = q × p {\displaystyle \dim[\mathbf {D} (\cdot )]=q\times p}
x ˙ ( t ) := d d t x ( t ) {\displaystyle {\dot {\mathbf {x} }}(t):={\frac {d}{dt}}\mathbf {x} (t)} .

En esta formulación general, se permite que todas las matrices sean variables en el tiempo (es decir, sus elementos pueden depender del tiempo); sin embargo, en el caso común de LTI , las matrices serán invariantes en el tiempo. La variable de tiempo puede ser continua (por ejemplo, ) o discreta (por ejemplo, ). En el último caso, la variable de tiempo se utiliza normalmente en lugar de . Los sistemas híbridos permiten dominios de tiempo que tienen partes tanto continuas como discretas. Dependiendo de las suposiciones realizadas, la representación del modelo de espacio de estados puede asumir las siguientes formas: t {\displaystyle t} t R {\displaystyle t\in \mathbb {R} } t Z {\displaystyle t\in \mathbb {Z} } k {\displaystyle k} t {\displaystyle t}

Tipo de sistemaModelo de espacio de estados
Continuo invariante en el tiempo x ˙ ( t ) = A x ( t ) + B u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=\mathbf {A} \mathbf {x} (t)+\mathbf {B} \mathbf {u} (t)}
y ( t ) = C x ( t ) + D u ( t ) {\displaystyle \mathbf {y} (t)=\mathbf {C} \mathbf {x} (t)+\mathbf {D} \mathbf {u} (t)}
Variante temporal continua x ˙ ( t ) = A ( t ) x ( t ) + B ( t ) u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=\mathbf {A} (t)\mathbf {x} (t)+\mathbf {B} (t)\mathbf {u} (t)}
y ( t ) = C ( t ) x ( t ) + D ( t ) u ( t ) {\displaystyle \mathbf {y} (t)=\mathbf {C} (t)\mathbf {x} (t)+\mathbf {D} (t)\mathbf {u} (t)}
Explícito discreto invariante en el tiempo x ( k + 1 ) = A x ( k ) + B u ( k ) {\displaystyle \mathbf {x} (k+1)=\mathbf {A} \mathbf {x} (k)+\mathbf {B} \mathbf {u} (k)}
y ( k ) = C x ( k ) + D u ( k ) {\displaystyle \mathbf {y} (k)=\mathbf {C} \mathbf {x} (k)+\mathbf {D} \mathbf {u} (k)}
Explícito discreto variante en el tiempo x ( k + 1 ) = A ( k ) x ( k ) + B ( k ) u ( k ) {\displaystyle \mathbf {x} (k+1)=\mathbf {A} (k)\mathbf {x} (k)+\mathbf {B} (k)\mathbf {u} (k)}
y ( k ) = C ( k ) x ( k ) + D ( k ) u ( k ) {\displaystyle \mathbf {y} (k)=\mathbf {C} (k)\mathbf {x} (k)+\mathbf {D} (k)\mathbf {u} (k)}
Dominio de Laplace de
ecuaciones continuas invariantes en el tiempo
s X ( s ) x ( 0 ) = A X ( s ) + B U ( s ) {\displaystyle s\mathbf {X} (s)-\mathbf {x} (0)=\mathbf {A} \mathbf {X} (s)+\mathbf {B} \mathbf {U} (s)}
Y ( s ) = C X ( s ) + D U ( s ) {\displaystyle \mathbf {Y} (s)=\mathbf {C} \mathbf {X} (s)+\mathbf {D} \mathbf {U} (s)}
Dominio Z de
invariancia temporal discreta
z X ( z ) z x ( 0 ) = A X ( z ) + B U ( z ) {\displaystyle z\mathbf {X} (z)-z\mathbf {x} (0)=\mathbf {A} \mathbf {X} (z)+\mathbf {B} \mathbf {U} (z)}
Y ( z ) = C X ( z ) + D U ( z ) {\displaystyle \mathbf {Y} (z)=\mathbf {C} \mathbf {X} (z)+\mathbf {D} \mathbf {U} (z)}

Ejemplo: caso LTI de tiempo continuo

La estabilidad y las características de respuesta natural de un sistema LTI de tiempo continuo (es decir, lineal con matrices que son constantes con respecto al tiempo) se pueden estudiar a partir de los valores propios de la matriz . La estabilidad de un modelo de espacio de estados invariante en el tiempo se puede determinar observando la función de transferencia del sistema en forma factorizada. Entonces se verá algo así: A {\displaystyle \mathbf {A} }

G ( s ) = k ( s z 1 ) ( s z 2 ) ( s z 3 ) ( s p 1 ) ( s p 2 ) ( s p 3 ) ( s p 4 ) . {\displaystyle {\textbf {G}}(s)=k{\frac {(s-z_{1})(s-z_{2})(s-z_{3})}{(s-p_{1})(s-p_{2})(s-p_{3})(s-p_{4})}}.}

El denominador de la función de transferencia es igual al polinomio característico que se obtiene al tomar el determinante de , s I A {\displaystyle s\mathbf {I} -\mathbf {A} }

λ ( s ) = | s I A | . {\displaystyle \lambda (s)=|s\mathbf {I} -\mathbf {A} |.}

Las raíces de este polinomio (los valores propios ) son los polos de la función de transferencia del sistema (es decir, las singularidades donde la magnitud de la función de transferencia no está acotada). Estos polos se pueden utilizar para analizar si el sistema es asintóticamente estable o marginalmente estable . Un enfoque alternativo para determinar la estabilidad, que no implica el cálculo de valores propios, es analizar la estabilidad de Lyapunov del sistema .

Los ceros que se encuentran en el numerador de se pueden utilizar de manera similar para determinar si el sistema tiene fase mínima . G ( s ) {\displaystyle {\textbf {G}}(s)}

El sistema puede seguir siendo estable en términos de entrada y salida (véase BIBO estable ) aunque no sea internamente estable. Este puede ser el caso si los polos inestables se cancelan con ceros (es decir, si esas singularidades en la función de transferencia son eliminables ).

Controlabilidad

La condición de controlabilidad de estados implica que es posible, mediante entradas admisibles, dirigir los estados desde cualquier valor inicial a cualquier valor final dentro de una ventana de tiempo finita. Un modelo de espacio de estados lineal continuo e invariante en el tiempo es controlable si y solo si

rank [ B A B A 2 B A n 1 B ] = n , {\displaystyle \operatorname {rank} {\begin{bmatrix}\mathbf {B} &\mathbf {A} \mathbf {B} &\mathbf {A} ^{2}\mathbf {B} &\cdots &\mathbf {A} ^{n-1}\mathbf {B} \end{bmatrix}}=n,}

donde rango es el número de filas linealmente independientes en una matriz, y donde n es el número de variables de estado.

Observabilidad

La observabilidad es una medida de la capacidad de inferir los estados internos de un sistema a partir del conocimiento de sus salidas externas. La observabilidad y la controlabilidad de un sistema son duales matemáticos (es decir, así como la controlabilidad establece que hay una entrada disponible que lleva cualquier estado inicial a cualquier estado final deseado, la observabilidad establece que conocer una trayectoria de salida proporciona suficiente información para predecir el estado inicial del sistema).

Un modelo de espacio de estados lineal continuo e invariante en el tiempo es observable si y solo si

rank [ C C A C A n 1 ] = n . {\displaystyle \operatorname {rank} {\begin{bmatrix}\mathbf {C} \\\mathbf {C} \mathbf {A} \\\vdots \\\mathbf {C} \mathbf {A} ^{n-1}\end{bmatrix}}=n.}

Función de transferencia

La " función de transferencia " de un modelo de espacio de estados lineal continuo e invariante en el tiempo se puede derivar de la siguiente manera:

Primero, tomando la transformada de Laplace de

x ˙ ( t ) = A x ( t ) + B u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=\mathbf {A} \mathbf {x} (t)+\mathbf {B} \mathbf {u} (t)}

rendimientos

s X ( s ) x ( 0 ) = A X ( s ) + B U ( s ) . {\displaystyle s\mathbf {X} (s)-\mathbf {x} (0)=\mathbf {A} \mathbf {X} (s)+\mathbf {B} \mathbf {U} (s).}

A continuación, simplificamos para , dando X ( s ) {\displaystyle \mathbf {X} (s)}

( s I A ) X ( s ) = x ( 0 ) + B U ( s ) {\displaystyle (s\mathbf {I} -\mathbf {A} )\mathbf {X} (s)=\mathbf {x} (0)+\mathbf {B} \mathbf {U} (s)}

y por lo tanto

X ( s ) = ( s I A ) 1 x ( 0 ) + ( s I A ) 1 B U ( s ) . {\displaystyle \mathbf {X} (s)=(s\mathbf {I} -\mathbf {A} )^{-1}\mathbf {x} (0)+(s\mathbf {I} -\mathbf {A} )^{-1}\mathbf {B} \mathbf {U} (s).}

Sustituyendo en la ecuación de salida X ( s ) {\displaystyle \mathbf {X} (s)}

Y ( s ) = C X ( s ) + D U ( s ) , {\displaystyle \mathbf {Y} (s)=\mathbf {C} \mathbf {X} (s)+\mathbf {D} \mathbf {U} (s),}

donación

Y ( s ) = C ( ( s I A ) 1 x ( 0 ) + ( s I A ) 1 B U ( s ) ) + D U ( s ) . {\displaystyle \mathbf {Y} (s)=\mathbf {C} ((s\mathbf {I} -\mathbf {A} )^{-1}\mathbf {x} (0)+(s\mathbf {I} -\mathbf {A} )^{-1}\mathbf {B} \mathbf {U} (s))+\mathbf {D} \mathbf {U} (s).}

Suponiendo condiciones iniciales cero y un sistema de entrada única y salida única (SISO) , la función de transferencia se define como la relación entre la salida y la entrada . Sin embargo, para un sistema de múltiples entradas y múltiples salidas (MIMO) , esta relación no está definida. Por lo tanto, suponiendo condiciones iniciales cero, la matriz de la función de transferencia se deriva de x ( 0 ) = 0 {\displaystyle \mathbf {x} (0)=\mathbf {0} } G ( s ) = Y ( s ) / U ( s ) {\displaystyle G(s)=Y(s)/U(s)}

Y ( s ) = G ( s ) U ( s ) {\displaystyle \mathbf {Y} (s)=\mathbf {G} (s)\mathbf {U} (s)}

utilizando el método de igualación de coeficientes que produce

G ( s ) = C ( s I A ) 1 B + D {\displaystyle \mathbf {G} (s)=\mathbf {C} (s\mathbf {I} -\mathbf {A} )^{-1}\mathbf {B} +\mathbf {D} } .

En consecuencia, es una matriz con la dimensión que contiene funciones de transferencia para cada combinación de entrada y salida. Debido a la simplicidad de esta notación matricial, la representación en el espacio de estados se utiliza comúnmente para sistemas de múltiples entradas y múltiples salidas. La matriz del sistema de Rosenbrock proporciona un puente entre la representación en el espacio de estados y su función de transferencia . G ( s ) {\displaystyle \mathbf {G} (s)} q × p {\displaystyle q\times p}

Realizaciones canónicas

Cualquier función de transferencia dada que sea estrictamente propia puede transferirse fácilmente al espacio de estados mediante el siguiente enfoque (este ejemplo es para un sistema de 4 dimensiones, de entrada única y salida única):

Dada una función de transferencia, expándala para revelar todos los coeficientes tanto en el numerador como en el denominador. Esto debería dar como resultado la siguiente forma:

G ( s ) = n 1 s 3 + n 2 s 2 + n 3 s + n 4 s 4 + d 1 s 3 + d 2 s 2 + d 3 s + d 4 . {\displaystyle {\textbf {G}}(s)={\frac {n_{1}s^{3}+n_{2}s^{2}+n_{3}s+n_{4}}{s^{4}+d_{1}s^{3}+d_{2}s^{2}+d_{3}s+d_{4}}}.}

Los coeficientes ahora se pueden insertar directamente en el modelo de espacio de estados mediante el siguiente enfoque:

x ˙ ( t ) = [ 0 1 0 0 0 0 1 0 0 0 0 1 d 4 d 3 d 2 d 1 ] x ( t ) + [ 0 0 0 1 ] u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)={\begin{bmatrix}0&1&0&0\\0&0&1&0\\0&0&0&1\\-d_{4}&-d_{3}&-d_{2}&-d_{1}\end{bmatrix}}\mathbf {x} (t)+{\begin{bmatrix}0\\0\\0\\1\end{bmatrix}}\mathbf {u} (t)}
y ( t ) = [ n 4 n 3 n 2 n 1 ] x ( t ) . {\displaystyle \mathbf {y} (t)={\begin{bmatrix}n_{4}&n_{3}&n_{2}&n_{1}\end{bmatrix}}\mathbf {x} (t).}

Esta realización del espacio de estados se denomina forma canónica controlable porque se garantiza que el modelo resultante es controlable (es decir, debido a que el control entra en una cadena de integradores, tiene la capacidad de mover cada estado).

Los coeficientes de la función de transferencia también se pueden utilizar para construir otro tipo de forma canónica

x ˙ ( t ) = [ 0 0 0 d 4 1 0 0 d 3 0 1 0 d 2 0 0 1 d 1 ] x ( t ) + [ n 4 n 3 n 2 n 1 ] u ( t ) {\displaystyle {\dot {\textbf {x}}}(t)={\begin{bmatrix}0&0&0&-d_{4}\\1&0&0&-d_{3}\\0&1&0&-d_{2}\\0&0&1&-d_{1}\end{bmatrix}}{\textbf {x}}(t)+{\begin{bmatrix}n_{4}\\n_{3}\\n_{2}\\n_{1}\end{bmatrix}}{\textbf {u}}(t)}
y ( t ) = [ 0 0 0 1 ] x ( t ) . {\displaystyle {\textbf {y}}(t)={\begin{bmatrix}0&0&0&1\end{bmatrix}}{\textbf {x}}(t).}

Esta realización del espacio de estados se denomina forma canónica observable porque se garantiza que el modelo resultante es observable (es decir, debido a que la salida sale de una cadena de integradores, cada estado tiene un efecto en la salida).

Funciones de transferencia adecuadas

También es bastante fácil realizar funciones de transferencia que sean sólo propias (y no estrictamente propias ). El truco consiste en separar la función de transferencia en dos partes: una parte estrictamente propia y una constante.

G ( s ) = G S P ( s ) + G ( ) . {\displaystyle {\textbf {G}}(s)={\textbf {G}}_{\mathrm {SP} }(s)+{\textbf {G}}(\infty ).}

La función de transferencia estrictamente propia puede entonces transformarse en una realización canónica en el espacio de estados utilizando las técnicas que se muestran arriba. La realización en el espacio de estados de la constante es trivialmente . Juntos obtenemos entonces una realización en el espacio de estados con las matrices A , B y C determinadas por la parte estrictamente propia, y la matriz D determinada por la constante. y ( t ) = G ( ) u ( t ) {\displaystyle {\textbf {y}}(t)={\textbf {G}}(\infty ){\textbf {u}}(t)}

He aquí un ejemplo para aclarar un poco las cosas:

G ( s ) = s 2 + 3 s + 3 s 2 + 2 s + 1 = s + 2 s 2 + 2 s + 1 + 1 {\displaystyle {\textbf {G}}(s)={\frac {s^{2}+3s+3}{s^{2}+2s+1}}={\frac {s+2}{s^{2}+2s+1}}+1}

lo que produce la siguiente realización controlable

x ˙ ( t ) = [ 2 1 1 0 ] x ( t ) + [ 1 0 ] u ( t ) {\displaystyle {\dot {\textbf {x}}}(t)={\begin{bmatrix}-2&-1\\1&0\\\end{bmatrix}}{\textbf {x}}(t)+{\begin{bmatrix}1\\0\end{bmatrix}}{\textbf {u}}(t)}
y ( t ) = [ 1 2 ] x ( t ) + [ 1 ] u ( t ) {\displaystyle {\textbf {y}}(t)={\begin{bmatrix}1&2\end{bmatrix}}{\textbf {x}}(t)+{\begin{bmatrix}1\end{bmatrix}}{\textbf {u}}(t)}

Observe cómo la salida también depende directamente de la entrada. Esto se debe a la constante en la función de transferencia. G ( ) {\displaystyle {\textbf {G}}(\infty )}

Comentario

Modelo típico de espacio de estados con retroalimentación

Un método común para la retroalimentación es multiplicar la salida por una matriz K y establecerla como la entrada del sistema: . Dado que los valores de K no tienen restricciones, los valores se pueden negar fácilmente para una retroalimentación negativa . La presencia de un signo negativo (la notación común) es meramente una notación y su ausencia no tiene impacto en los resultados finales. u ( t ) = K y ( t ) {\displaystyle \mathbf {u} (t)=K\mathbf {y} (t)}

x ˙ ( t ) = A x ( t ) + B u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=A\mathbf {x} (t)+B\mathbf {u} (t)}
y ( t ) = C x ( t ) + D u ( t ) {\displaystyle \mathbf {y} (t)=C\mathbf {x} (t)+D\mathbf {u} (t)}

se convierte en

x ˙ ( t ) = A x ( t ) + B K y ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=A\mathbf {x} (t)+BK\mathbf {y} (t)}
y ( t ) = C x ( t ) + D K y ( t ) {\displaystyle \mathbf {y} (t)=C\mathbf {x} (t)+DK\mathbf {y} (t)}

Resolviendo la ecuación de salida y sustituyendo en la ecuación de estado se obtiene y ( t ) {\displaystyle \mathbf {y} (t)}

x ˙ ( t ) = ( A + B K ( I D K ) 1 C ) x ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=\left(A+BK\left(I-DK\right)^{-1}C\right)\mathbf {x} (t)}
y ( t ) = ( I D K ) 1 C x ( t ) {\displaystyle \mathbf {y} (t)=\left(I-DK\right)^{-1}C\mathbf {x} (t)}

La ventaja de esto es que los valores propios de A se pueden controlar estableciendo K apropiadamente a través de la descomposición propia de . Esto supone que el sistema de bucle cerrado es controlable o que los valores propios inestables de A se pueden hacer estables a través de la elección apropiada de K . ( A + B K ( I D K ) 1 C ) {\displaystyle \left(A+BK\left(I-DK\right)^{-1}C\right)}

Ejemplo

Para un sistema estrictamente propio, D es igual a cero. Otra situación bastante común es cuando todos los estados son salidas, es decir, y = x , lo que da como resultado C = I , la matriz identidad . Esto daría como resultado ecuaciones más simples.

x ˙ ( t ) = ( A + B K ) x ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=\left(A+BK\right)\mathbf {x} (t)}
y ( t ) = x ( t ) {\displaystyle \mathbf {y} (t)=\mathbf {x} (t)}

Esto reduce la descomposición propia necesaria a sólo . A + B K {\displaystyle A+BK}

Retroalimentación con entrada de punto de ajuste (referencia)

Retroalimentación de salida con punto de ajuste

Además de la retroalimentación, se puede agregar una entrada, , de modo que . r ( t ) {\displaystyle r(t)} u ( t ) = K y ( t ) + r ( t ) {\displaystyle \mathbf {u} (t)=-K\mathbf {y} (t)+\mathbf {r} (t)}

x ˙ ( t ) = A x ( t ) + B u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=A\mathbf {x} (t)+B\mathbf {u} (t)}
y ( t ) = C x ( t ) + D u ( t ) {\displaystyle \mathbf {y} (t)=C\mathbf {x} (t)+D\mathbf {u} (t)}

se convierte en

x ˙ ( t ) = A x ( t ) B K y ( t ) + B r ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=A\mathbf {x} (t)-BK\mathbf {y} (t)+B\mathbf {r} (t)}
y ( t ) = C x ( t ) D K y ( t ) + D r ( t ) {\displaystyle \mathbf {y} (t)=C\mathbf {x} (t)-DK\mathbf {y} (t)+D\mathbf {r} (t)}

Resolviendo la ecuación de salida y sustituyendo en la ecuación de estado se obtiene y ( t ) {\displaystyle \mathbf {y} (t)}

x ˙ ( t ) = ( A B K ( I + D K ) 1 C ) x ( t ) + B ( I K ( I + D K ) 1 D ) r ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=\left(A-BK\left(I+DK\right)^{-1}C\right)\mathbf {x} (t)+B\left(I-K\left(I+DK\right)^{-1}D\right)\mathbf {r} (t)}
y ( t ) = ( I + D K ) 1 C x ( t ) + ( I + D K ) 1 D r ( t ) {\displaystyle \mathbf {y} (t)=\left(I+DK\right)^{-1}C\mathbf {x} (t)+\left(I+DK\right)^{-1}D\mathbf {r} (t)}

Una simplificación bastante común de este sistema es eliminar D , lo que reduce las ecuaciones a

x ˙ ( t ) = ( A B K C ) x ( t ) + B r ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=\left(A-BKC\right)\mathbf {x} (t)+B\mathbf {r} (t)}
y ( t ) = C x ( t ) {\displaystyle \mathbf {y} (t)=C\mathbf {x} (t)}

Ejemplo de objeto en movimiento

Un sistema lineal clásico es el del movimiento unidimensional de un objeto (por ejemplo, un carro). Las leyes de movimiento de Newton para un objeto que se mueve horizontalmente sobre un plano y está sujeto a una pared con un resorte son:

m y ¨ ( t ) = u ( t ) b y ˙ ( t ) k y ( t ) {\displaystyle m{\ddot {y}}(t)=u(t)-b{\dot {y}}(t)-ky(t)}

dónde

  • y ( t ) {\displaystyle y(t)} es posición; es velocidad; es aceleración y ˙ ( t ) {\displaystyle {\dot {y}}(t)} y ¨ ( t ) {\displaystyle {\ddot {y}}(t)}
  • u ( t ) {\displaystyle u(t)} es una fuerza aplicada
  • b {\displaystyle b} es el coeficiente de fricción viscosa
  • k {\displaystyle k} ¿es la constante del resorte?
  • m {\displaystyle m} es la masa del objeto

La ecuación de estado quedaría entonces así:

[ x ˙ 1 ( t ) x ˙ 2 ( t ) ] = [ 0 1 k m b m ] [ x 1 ( t ) x 2 ( t ) ] + [ 0 1 m ] u ( t ) {\displaystyle {\begin{bmatrix}{\dot {\mathbf {x} }}_{1}(t)\\{\dot {\mathbf {x} }}_{2}(t)\end{bmatrix}}={\begin{bmatrix}0&1\\-{\frac {k}{m}}&-{\frac {b}{m}}\end{bmatrix}}{\begin{bmatrix}\mathbf {x} _{1}(t)\\\mathbf {x} _{2}(t)\end{bmatrix}}+{\begin{bmatrix}0\\{\frac {1}{m}}\end{bmatrix}}\mathbf {u} (t)}
y ( t ) = [ 1 0 ] [ x 1 ( t ) x 2 ( t ) ] {\displaystyle \mathbf {y} (t)=\left[{\begin{matrix}1&0\end{matrix}}\right]\left[{\begin{matrix}\mathbf {x_{1}} (t)\\\mathbf {x_{2}} (t)\end{matrix}}\right]}

dónde

  • x 1 ( t ) {\displaystyle x_{1}(t)} representa la posición del objeto
  • x 2 ( t ) = x ˙ 1 ( t ) {\displaystyle x_{2}(t)={\dot {x}}_{1}(t)} es la velocidad del objeto
  • x ˙ 2 ( t ) = x ¨ 1 ( t ) {\displaystyle {\dot {x}}_{2}(t)={\ddot {x}}_{1}(t)} es la aceleración del objeto
  • La salida es la posición del objeto. y ( t ) {\displaystyle \mathbf {y} (t)}

La prueba de controlabilidad es entonces

[ B A B ] = [ [ 0 1 m ] [ 0 1 k m b m ] [ 0 1 m ] ] = [ 0 1 m 1 m b m 2 ] {\displaystyle {\begin{bmatrix}B&AB\end{bmatrix}}={\begin{bmatrix}{\begin{bmatrix}0\\{\frac {1}{m}}\end{bmatrix}}&{\begin{bmatrix}0&1\\-{\frac {k}{m}}&-{\frac {b}{m}}\end{bmatrix}}{\begin{bmatrix}0\\{\frac {1}{m}}\end{bmatrix}}\end{bmatrix}}={\begin{bmatrix}0&{\frac {1}{m}}\\{\frac {1}{m}}&-{\frac {b}{m^{2}}}\end{bmatrix}}}

que tiene rango completo para todos y . Esto significa que si se conoce el estado inicial del sistema ( , , ), y si y son constantes, entonces hay una fuerza que podría mover el carro a cualquier otra posición en el sistema. b {\displaystyle b} m {\displaystyle m} y ( t ) {\displaystyle y(t)} y ˙ ( t ) {\displaystyle {\dot {y}}(t)} y ¨ ( t ) {\displaystyle {\ddot {y}}(t)} b {\displaystyle b} m {\displaystyle m} u {\displaystyle u}

La prueba de observabilidad es entonces

[ C C A ] = [ [ 1 0 ] [ 1 0 ] [ 0 1 k m b m ] ] = [ 1 0 0 1 ] {\displaystyle {\begin{bmatrix}C\\CA\end{bmatrix}}={\begin{bmatrix}{\begin{bmatrix}1&0\end{bmatrix}}\\{\begin{bmatrix}1&0\end{bmatrix}}{\begin{bmatrix}0&1\\-{\frac {k}{m}}&-{\frac {b}{m}}\end{bmatrix}}\end{bmatrix}}={\begin{bmatrix}1&0\\0&1\end{bmatrix}}}

que también tiene rango completo. Por lo tanto, este sistema es a la vez controlable y observable.

Sistemas no lineales

La forma más general de un modelo de espacio de estados se puede escribir como dos funciones.

x ˙ ( t ) = f ( t , x ( t ) , u ( t ) ) {\displaystyle \mathbf {\dot {x}} (t)=\mathbf {f} (t,x(t),u(t))}
y ( t ) = h ( t , x ( t ) , u ( t ) ) {\displaystyle \mathbf {y} (t)=\mathbf {h} (t,x(t),u(t))}

La primera es la ecuación de estado y la última es la ecuación de salida. Si la función es una combinación lineal de estados y entradas, las ecuaciones se pueden escribir en notación matricial como se muestra arriba. El argumento de las funciones se puede omitir si el sistema no está forzado (es decir, no tiene entradas). f ( , , ) {\displaystyle f(\cdot ,\cdot ,\cdot )} u ( t ) {\displaystyle u(t)}

Ejemplo de péndulo

Un sistema no lineal clásico es un péndulo simple no forzado.

m 2 θ ¨ ( t ) = m g sin θ ( t ) k θ ˙ ( t ) {\displaystyle m\ell ^{2}{\ddot {\theta }}(t)=-m\ell g\sin \theta (t)-k\ell {\dot {\theta }}(t)}

dónde

  • θ ( t ) {\displaystyle \theta (t)} es el ángulo del péndulo con respecto a la dirección de la gravedad
  • m {\displaystyle m} es la masa del péndulo (se supone que la masa de la varilla del péndulo es cero)
  • g {\displaystyle g} es la aceleración gravitacional
  • k {\displaystyle k} es el coeficiente de fricción en el punto de pivote
  • {\displaystyle \ell } es el radio del péndulo (al centro de gravedad de la masa ) m {\displaystyle m}

Las ecuaciones de estado son entonces

x ˙ 1 ( t ) = x 2 ( t ) {\displaystyle {\dot {x}}_{1}(t)=x_{2}(t)}
x ˙ 2 ( t ) = g sin x 1 ( t ) k m x 2 ( t ) {\displaystyle {\dot {x}}_{2}(t)=-{\frac {g}{\ell }}\sin {x_{1}}(t)-{\frac {k}{m\ell }}{x_{2}}(t)}

dónde

  • x 1 ( t ) = θ ( t ) {\displaystyle x_{1}(t)=\theta (t)} es el ángulo del péndulo
  • x 2 ( t ) = x ˙ 1 ( t ) {\displaystyle x_{2}(t)={\dot {x}}_{1}(t)} es la velocidad de rotación del péndulo
  • x ˙ 2 = x ¨ 1 {\displaystyle {\dot {x}}_{2}={\ddot {x}}_{1}} es la aceleración rotacional del péndulo

En cambio, la ecuación de estado se puede escribir en la forma general

x ˙ ( t ) = [ x ˙ 1 ( t ) x ˙ 2 ( t ) ] = f ( t , x ( t ) ) = [ x 2 ( t ) g sin x 1 ( t ) k m x 2 ( t ) ] . {\displaystyle {\dot {\mathbf {x} }}(t)={\begin{bmatrix}{\dot {x}}_{1}(t)\\{\dot {x}}_{2}(t)\end{bmatrix}}=\mathbf {f} (t,x(t))={\begin{bmatrix}x_{2}(t)\\-{\frac {g}{\ell }}\sin {x_{1}}(t)-{\frac {k}{m\ell }}{x_{2}}(t)\end{bmatrix}}.}

Los puntos de equilibrio / estacionarios de un sistema son cuando y por lo tanto los puntos de equilibrio de un péndulo son aquellos que satisfacen x ˙ = 0 {\displaystyle {\dot {x}}=0}

[ x 1 x 2 ] = [ n π 0 ] {\displaystyle {\begin{bmatrix}x_{1}\\x_{2}\end{bmatrix}}={\begin{bmatrix}n\pi \\0\end{bmatrix}}}

para números enteros n .

Véase también

Referencias

  1. ^ Katalin M. Hangos ; R. Lakner y M. Gerzson (2001). Sistemas de control inteligente: una introducción con ejemplos. Springer. pág. 254. ISBN 978-1-4020-0134-5.
  2. ^ Katalin M. Hangos; József Bokor y Gábor Szederkényi (2004). Análisis y Control de Sistemas de Procesos No Lineales. Saltador. pag. 25.ISBN 978-1-85233-600-4.
  3. ^ Vasilyev AS; Ushakov AV (2015). "Modelado de sistemas dinámicos con modulación mediante la representación matricial vectorial de Kronecker". Revista científica y técnica de tecnologías de la información, mecánica y óptica . 15 (5): 839–848. doi : 10.17586/2226-1494-2015-15-5-839-848 .
  4. ^ Stock, JH; Watson, MW (2016), "Modelos factoriales dinámicos, autorregresiones vectoriales aumentadas con factores y autorregresiones vectoriales estructurales en macroeconomía", Handbook of Macroeconomics , vol. 2, Elsevier, págs. 415–525, doi :10.1016/bs.hesmac.2016.04.002, ISBN 978-0-444-59487-7
  5. ^ Durbin, James; Koopman, Siem Jan (2012). Análisis de series temporales mediante métodos de espacio de estados . Oxford University Press. ISBN 978-0-19-964117-8. OCLC  794591362.
  6. ^ Roesser, R. (1975). "Un modelo discreto de espacio de estados para el procesamiento lineal de imágenes". IEEE Transactions on Automatic Control . 20 (1): 1–10. doi :10.1109/tac.1975.1100844. ISSN  0018-9286.
  7. ^ Smith, Anne C.; Brown, Emery N. (2003). "Estimación de un modelo de espacio de estados a partir de observaciones de procesos puntuales". Computación neuronal . 15 (5): 965–991. doi :10.1162/089976603765202622. ISSN  0899-7667. PMID  12803953. S2CID  10020032.
  8. ^ James H. Stock y Mark W. Watson, 1989. "Nuevos índices de indicadores económicos coincidentes y adelantados", Capítulos del NBER, en: NBER Macroeconomics Annual 1989, Volumen 4, páginas 351-409, National Bureau of Economic Research, Inc.
  9. ^ Bańbura, Marta; Modugno, Michele (12 de noviembre de 2012). "Estimación de máxima verosimilitud de modelos factoriales en conjuntos de datos con patrón arbitrario de datos faltantes". Revista de econometría aplicada . 29 (1): 133–160. doi :10.1002/jae.2306. hdl : 10419/153623 . ISSN  0883-7252. S2CID  14231301.
  10. ^ "Modelos de espacio de estados con conmutación de Markov y muestreo de Gibbs", Modelos de espacio de estados con conmutación de régimen , The MIT Press, págs. 237-274, 2017, doi :10.7551/mitpress/6444.003.0013, ISBN 978-0-262-27711-2
  11. ^ Kalman, RE (1960-03-01). "Un nuevo enfoque para problemas de filtrado y predicción lineal". Journal of Basic Engineering . 82 (1): 35–45. doi :10.1115/1.3662552. ISSN  0021-9223. S2CID  259115248.
  12. ^ Harvey, Andrew C. (1990). Pronóstico, modelos estructurales de series temporales y el filtro de Kalman . Cambridge: Cambridge University Press. doi:10.1017/CBO9781107049994
  13. ^ Nise, Norman S. (2010). Ingeniería de sistemas de control (6.ª ed.). John Wiley & Sons, Inc. ISBN 978-0-470-54756-4.
  14. ^ Brogan, William L. (1974). Modern Control Theory (1.ª ed.). Quantum Publishers, Inc., pág. 172.

Lectura adicional

  • Antsaklis, PJ; Michel, AN (2007). Introducción a los sistemas lineales . Birkhauser. ISBN 978-0-8176-4460-4.
  • Chen, Chi-Tsong (1999). Teoría y diseño de sistemas lineales (3.ª ed.). Oxford University Press. ISBN 0-19-511777-8.
  • Khalil, Hassan K. (2001). Sistemas no lineales (3.ª ed.). Prentice Hall. ISBN 0-13-067389-7.
  • Hinrichsen, Diederich; Pritchard, Anthony J. (2005). Teoría de sistemas matemáticos I, modelado, análisis del espacio de estados, estabilidad y robustez . Springer. ISBN 978-3-540-44125-0.
  • Sontag, Eduardo D. (1999). Teoría del control matemático: sistemas deterministas de dimensión finita (PDF) (2.ª ed.). Springer. ISBN 0-387-98489-5. Recuperado el 28 de junio de 2012 .
  • Friedland, Bernard (2005). Diseño de sistemas de control: Introducción a los métodos de espacio de estados . Dover. ISBN 0-486-44278-0.
  • Zadeh, Lotfi A.; Desoer, Charles A. (1979). Teoría de sistemas lineales . Krieger Pub Co. ISBN 978-0-88275-809-1.
Sobre las aplicaciones de los modelos de espacio de estados en econometría
  • Durbin, J.; Koopman, S. (2001). Análisis de series temporales mediante métodos de espacio de estados . Oxford, Reino Unido: Oxford University Press. ISBN 978-0-19-852354-3.
  • Funciones del lenguaje Wolfram para modelos de espacio de estados lineales, modelos de espacio de estados afines y modelos de espacio de estados no lineales.
Retrieved from "https://en.wikipedia.org/w/index.php?title=State-space_representation&oldid=1250216944"