Saltar al contenido
Control Automático Educación

RESPUESTA TEMPORAL DE UN SISTEMA

En esta entrada aprenderemos como obtener la respuesta temporal de un sistema lineal utilizando la matriz de transicion de estados. Verás que como hay diferentes formas de representar un sistema, el cual puede ser a través de funciones de transferencia (👉 usando transformada de Laplace) o usando variables de estado. Aquí abordaremos ambos análisis para que te vuelvas un experto en sistemas de control.

Recuerda que si no has visto el contenido de todo el curso de espacio de estados, puedes hacerlo dando 👉 CLICK AQUI

Respuesta Temporal de un sistema

1. Utilizando transformada de laplace.

2. Utilizando el teorema de Cayley-Hamilton

3. Utilizando la representación en la forma diagonal y de Jordan.

👇👇 Puedes darle un vistazo a la Clase en YouTUBE 👇👇, y si todavía no te has inscrito al canal NO SABES la información que te estas perdiendo, puedes volverte un experto en sistemas de control, SUSCRIBETE, en la barra lateral derecha está el botón de suscripción 👉👉👉

Ya habiamos visto que un sistema lineal puede estar representado por la siguiente ecuación integral, (en la forma de representación Entrada-Salida o función de transferencia)

y(t)=\int_{t0}^{t}g(t,\tau )u(\tau )d\tau

O tambien puede estar dado por la descripción en variables de estado o espacio de estados:

\dot{x}(t)=Ax(t)+Bu(t)

y(t)=Cx(t)+Du(t)

Entre tanto, no existe una forma simple de obtener una solución simple analítica para determinar la ecuación de la integral. Numericamente seria facil de resolver si yo discretizo esa integral y la convierto en una sumatoria y podria resolver tranquilamente numericamente.

y(k\Delta)=\sum_{m=k_0}^{k}g(k\Delta,m\Delta)+u(m\Delta)\Delta

Para sistemas lineales e invariantes en el tiempo, yo puedo representar mi sistema lineal a través de la transformada de Laplace para de esa forma conseguir hallar una solución analítica.

y(s)=g(s)u(s)

Donde g(s) es una función de transferencia en el dominio complejo de Laplace.

Si en este caso, nuestra señal de entrada u(s), tambien es una función racional en s, la transformada de Laplace de la señal de salida (y(s)) puede ser determinada de la siguiente forma:

– Calculando los polos de la función de transferencia de g(s).

– Aplicando algún método de fracciones parciales.

– A través de la antitransformada de Laplace, para obtener y(t)

y(t)=L^{-1}(g(s) \times u(s)) = L^{-1}\left \{ \sum_{i}\frac{a_i}{(s+p_i)^{n_i}} +\sum_{j}\frac{b_is+c_j}{(s^2+d_js+e_j)}\right \}

No obstante, en el caso de polos repetidos y de polos complejos conjugados la determinación numerica de la transformada inversa de Laplace es generalmente sensible a errores de aproximación.

Así que desde el punto de vista numerico, la mejor solución para poder obtener la respuesta en el tiempo de un sistema de control dinámico es a través de la representación por variables de estado o en MATLAB.

\dot{x}(t)=Ax(t)+Bu(t)

y(t)=Cx(t)+Du(t)

Ya hemos venido trabajando con esa representación, e incluso ya hemos obtenido la representación de estados de sistemas a través de las ecuaciones diferenciales, ahora la pregunta es:

¿Como puedo yo determinar la salida de un sistema, y(t), a partir de una condición inicial x_0 y una entrada u(t) conocidas?

Analicemos como podemos llegar a la representación de un sistema lineal teniendo condiciones NO nulas:

Esto se conoce como la resolución de la ecuación completa, para eso partimos de la representación del estado

\dot{x}(t)=Ax(t)+Bu(t)

Para poder calcular la solución de esa ecuación se utiliza el método de variación de las constantes, según el cual se va a suponer que existe una z(t) que permita que la solución completa pueda expresarse de la forma: (Ver: REFERENCIA)

x(t)=\Phi (t,t_0)z(t)

Esta hipótesis se puede verificar, si se encuentra una z(t) que cumpla esa suposición.

Si la hipótesis formulada es correcta, entonces el estado x(t) debe verificar la ecuación completa, entonces sustituyendo en la ecuación de estados:

\dot{\Phi}(t,t_0)z(t)+\Phi(t,t_0)\dot{z(t)}=A\Phi (t,t_0)z(t)+Bu(t)

\Phi (t,t_0)\dot{z}(t)+\underset{0}{\underbrace{[\dot{\Phi}(t,t_0)-A(t)\Phi (t,t_0)]}}z(t)=B(t)u(t)

La respuesta completa de un sistema lineal viene dado por:

x(t)=\Phi (t,t_0)x_0+\int_{t0}^{t}\Phi(t,\tau )B(\tau )d\tau

donde x_0=x(t_0) es la condición inicial y \Phi () es una matriz de transición de estados.

Esta respuesta la podemos dividir en dos partes:

x(t)=x_{zi}(t)+x_{zs}(t)

Donde x_{zi}(t) es conocida como respuesta a la entrada cero y x_{zs}(t) como respuesta al estado cero.

En otras palabras, la respuesta a la entrada cero es la respuesta del sistema referente a una condición inicial no nula.

x_{zi}(t)=\Phi (t,t_0)x_0

La respuesta al estado cero es la respuesta impuesta por la señal de entrada u(t) cuando se tienen condiciones iniciales nulas:

x_{zs}(t)=\int_{t0}^{t}\Phi(t,\tau )B(\tau )d\tau

Sin embargo, determinar la matriz \Phi (t,t_0)x_0 no es fácil, pero esta puede ser obtenida utilizando el concepto de matriz fundamental del sistema.

Particularizando el problema para un sistema lineal e invariante en el tiempo (LTI) descrito por:

\dot{x}(t)=Ax(t)+Bu(t)

y(t)=Cx(t)+Du(t)

la expresión analítica de la matriz de transición de estados puede ser determinada utilizando el teorema de Cayley-Hamilton que establece que una matriz satisface su propia ecuación característica.
Recordemos cuanto es la derivada de euler cuando trabajamos con un numero escalra:

\dfrac{\mathrm{d} e^{\lambda t}}{\mathrm{d} t}=\lambda e^{\lambda t}

Esa misma derivada cuando trabajamos con matrices es:

\dfrac{\mathrm{d} e^{\mathbf{A}t}}{\mathrm{d} t}=\mathbf{A} e^{\mathbf{A} t}=e^{\mathbf{A} t}\mathbf{A}

Por definición del e elevado a alguna cosa, es una serie infinita, para el caso matricial esa serie es:

e^{\mathbf{A} t}=\mathbf{I}+\mathbf{A}t+\dfrac{\mathbf{A}^2t^2}{2!}+\cdots

Si multiplicamos la ecuación de estados \dot{x}(t)=Ax(t)+Bu(t) por e^{-\mathbf{A}t} se tiene que:

e^{-\mathbf{A}t}\dot{x}(t)-e^{-\mathbf{A}t}Ax(t)=e^{-\mathbf{A}t}Bu(t)

\dfrac{\mathrm{d} e^{-\mathbf{A}t}x(t)}{\mathrm{d} t}=e^{-\mathbf{A}t}Bu(t)

si se integra desde 0 hasta t

\left [ e^{-\mathbf{A}\tau}x(\tau) \right ]_{\tau=0}^{\tau=t}=\int_{0}^{t}e^{-\mathbf{A}\tau}Bu(\tau)d\tau

e^{-\mathbf{A}t}x(t)-e^{0}x(0)=\int_{0}^{t}e^{-\mathbf{A}\tau}Bu(\tau)d\tau

e^{\mathbf{A}t}\times \left ( e^{-\mathbf{A}t}x(t)=x(0)+\int_{0}^{t}e^{-\mathbf{A}\tau}Bu(\tau)d\tau\right )

por lo tanto se tiene la expresión analitica de los estados es:

x(t)=e^{\mathbf{A}t}x(0)+\int_{0}^{t}e^{-\mathbf{A}(t-\tau)}Bu(\tau)d\tau

y que la señal de salida es:

y(t)=C\left ( e^{\mathbf{A}t}x(0)+\int_{0}^{t}e^{-\mathbf{A}(t-\tau)}Bu(\tau)d\tau \right ) +Du(t)

Asi la matriz de transición de estados para sistemas LTI es dada de la siguiente forma:

\Phi (t,t_0)=e^{\mathbf{A}(t-\tau)}\rightarrow \Phi (t)=e^{\mathbf{A}(t)}

El valor de e^{\mathbf{A}(t)} puede ser determinado de varias formas:

– Utilizando extenciones del teorema de Cayley Hamilton en la forma de determinar las funciones matriciales

– Metodo de respuesta frecuencial.

– Representación en forma frecuencial.

Ejemplo:

Podemos aplicar el teorema de Cayley Hamilton por definición

e^{\mathbf{A} t}=\mathbf{I}+\mathbf{A}t+\dfrac{\mathbf{A}^2t^2}{2!}+\dfrac{\mathbf{A}^3t^3}{3!}+\cdots

O aplicando la transformada de Laplace:

L(e^{\mathbf{A} t})=(sI-A)^{-1}\rightarrow e^{\mathbf{A} t}=L^{-1}((sI-A)^{-1})

\textbf{Forma diagonal}
Puedo representar la matriz en forma diagonal.

Tomando una matriz diagonal de la siguiente forma:

e^{\begin{bmatrix} \lambda_1 & 0\\ 0 & \lambda_2 \end{bmatrix}}=\begin{bmatrix} 1 & 0\\ 0 & 1 \end{bmatrix}+\begin{bmatrix} \lambda_1t & 0\\ 0 & \lambda_2t \end{bmatrix}+\begin{bmatrix} \frac{\lambda_1^2t^2}{2!} & 0\\ 0 & \frac{\lambda_2^2t^2}{2!} \end{bmatrix}+\cdots=\begin{bmatrix} 1+\lambda_1t+\frac{\lambda_1^2t^2}{2!}+\cdots + & 0\\ 0 & 1+\lambda_2t+\frac{\lambda_2^2t^2}{2!}+\cdots + \end{bmatrix}=\begin{bmatrix} e^{\lambda_1t} & 0\\ 0 & e^{\lambda_2t} \end{bmatrix}

Se puede ver que determinar la matriz e^{At} cuando la matriz A es diagonal, es super facil y sencillo, por lo tanto si se consigue llevar la Matriz A a la representación diagonal, va ser relativamente facil determinar la respuesta temporal del sistema.

Método de la Respuesta Temporal en Frecuencia Función de Transferencia

Si tengo un sistema dado por

\dot{x}=Ax(t)+Bu(t)

Aplicando transformada de Laplace obtengo la siguiente representación:

Sx(s)-x(0)=Ax(s)+Bu(s)

x(s)=(s-A)^{-1}x(0)+(s-A)^{-1}Bu(s)

Por inspección, se logra determinar que

\phi(s)=(s-A)^{-1}

Por lo tanto la trayectoria de x(t) es dada por:

L^{-1}(\phi(s))x(0)+L^{-1}(\phi(s)Bu(s))

\textbf{Usando Teorema de Cayley Hamilton}

Otra forma de calcular el e^{At} que es utilizando el teorema de Cayley Hamilton, que basicamente nos dice:

“Que una matriz es capaz de satisfacer la ecuación característica de ella”.

Recordando que la ecuación característica de una matriz (A) es cuando por ejemplo se toma una variable, en el curso usamos “s”, y realizamos la siguiente operacion

det(sI-A)=0

. Las raíces de esta ecuación son los autovalores de la matriz (Esta ecuación es llamada de ecuación característica).

¿Pero que quiere decir que la matriz satisface la ecuación característica?

Quiere decir que si por ejemplo yo tengo una ecuación característica s^2+2s+1=0 entonces A^2+2A+I va a dar Cero.

Veamos como se pueden representar polinomios de matrices cuadradas:

A^p=AAAA\cdots A, (p terminos), A^0=I

Suponiendo que f(\lambda) es un polinomio monico de la forma: \lambda^2+5\lambda+6 implica que f(A) estaría definido por:

f(A)=A^2+5A+6=(A+2I)(A+3I)

Note que si aplicamos una transformación de similaridad dado por \hat{A}=Q^{-1}AQ, la ecuación matricial satisface

f(\hat{A})=f(Q^{-1}AQ)=Q^{-1}f(A)Q

El teorema de Cayley Hamilton

\Delta(\lambda)=det(\lambda I-A)=\lambda^n+\alpha_1\lambda^{n-1}+\cdots+\alpha_{n-1}\lambda+\alpha_n=0

La ecuación característica de A viene dado entonces por:

\Delta(A)=A^n+\alpha_1A^{n-1}+\cdots+\alpha_{n-1}A+\alpha_nI=0

La idea principal es que yo puedo factorizar una expresión cualquiera en función de la ecuación característica.

Supongamos que queremos calcular A^{100} y que A es una matriz 2×2.

A^{100}=q(A)\Delta(A)+h(A)

En la ecuación de encima, se escribe la matriz como una función matricial multiplicado por la ecuación característica y sumado por un residuo que es de grado (n-1), en este caso 1 (n dimensión de la matriz).

Cual es el valor de la ecuacion caracteristica de A (\Delta(A))? es Cero, segun la ecuacion de Cayley Hamilon.

Con esto puedo llegar en la conclusión que A^{100}=h(A). Osea que va a ser una función de A que como máximo tiene grado n-1 donde n es la dimensión de la matriz.

De esta manera es mucho más fácil calcular una matriz elevado a alguna cosa, porque únicamente voy a necesitar calcular el resto (obviamente en calculadora es fácil hacer todo)

Pero como voy a encontrar h(A)?

Usando la expresión del teorema de Cayley Hamilton. Es decir que si yo consigo hacer eso para un autovalor, también debe funcionar.

\lambda^{100}=q(\lambda)\Delta(\lambda)+h(\lambda)

De esa forma encuentro el valor de la expresión h(\lambda) y por lo tanto voy a saber cual es el valor de h(A)

Con esto se llega a la conclusión que cualquier polinomio f(A) puede ser escrito como:

f(A)=\beta_0\mathbf{I}+\beta_1\mathbf{A}+\cdots+\beta_{n-1}\mathbf{A}^{n-1}

Lo que tengo que hacer es intentar encontrar las constantes \beta

Ejemplo 1:

\mathbf{A}=\begin{bmatrix} 0 & 1\\ 1 & 0 \end{bmatrix}

Ecuacion caracteristica:

\Delta(\lambda)=det(\lambda\mathbf{I}-\mathbf{A})=\lambda^2-1=(\lambda+1)(\lambda-1)=0

Para determinar \mathbf{A}^{100}

f(\lambda)=\lambda^{100}\rightarrow h(\lambda)=\beta_0+\lambda\beta_1 ,para \lambda=\lambda_i \rightarrow f(\lambda_i)=h(\lambda_i)

(-1)^{100}=\beta_0-\beta_1

(1)^{100}=\beta_0+\beta_1

\mathbf{A}^{100}=\beta_0\mathbf{I}+\beta_1\mathbf{A}

Para Autovalores repetidos voy a tener problemas para calcular el valor de A de esa forma, debido a que necesito crear ecuaciones linealmente dependients, entonces simplemente cuando tenga autovalores repetidos hago lo siguiente>

f(\lambda_i)=h(\lambda_i)

Calculo la derivada

\left.\begin{matrix} \dfrac{df(\lambda)}{d\lambda} \end{matrix}\right|_{\lambda=\lambda_i}=\left.\begin{matrix} \dfrac{dh(\lambda)}{d\lambda} \end{matrix}\right|_{\lambda=\lambda_i}

\vdots

\left.\begin{matrix} \dfrac{d^{n-1}f(\lambda)}{d^{n-1}\lambda} \end{matrix}\right|_{\lambda=\lambda_i}=\left.\begin{matrix} \dfrac{d^{n-1}h(\lambda)}{d\lambda^{n-1}} \end{matrix}\right|_{\lambda=\lambda_i}

Ejemplo 2:

Considere el siguiente sistema

\dot{x}(t)=\begin{bmatrix} 0 & 0 & -2\\ 0 & 1 & 0\\ 1 & 0 & 3 \end{bmatrix}x(t)

Determine el valor de \dot{x}(t) para x_0=[0,1,0]'

Ecuación caracteristica:

\Delta(\lambda)=det(\lambda\mathbf{I}-\mathbf{A})=(\lambda-1)^2(\lambda-2)=0

Para determinar e^{At} se puede utilizar el polinomio minimo de h(A).

f(\lambda)=e^{\lambda t}=h(\lambda)=\beta_0+\beta_1\lambda+\beta_2\lambda^2

f(1)=e^{ t}=h(1)=\beta_0+\beta_1+\beta_2

\dfrac{df(1)}{d\lambda}=\dfrac{dh(1)}{d\lambda}=te^{ t}=\beta_1+2\beta_2

f(2)=e^{ 2t}=h(2)=\beta_0+2\beta_1+4\beta_2

Coeficientes de \beta_i

\beta_0=-2te^{t}+e^{2t}, \beta_1=3te^{t}+2e^{t}-2e^{2t}, \beta_2=e^{2t}-e^{t}-te^{t}

Calculando \Phi(t)=e^{At}

\Phi(t)=e^{A t}=\beta_0\mathbf(I)+\beta_1\mathbf(A)+\beta_2\mathbf(A)^2

=\begin{bmatrix} 2e^{t}-e^{2t} & 0 & 2e^{t}-2e^{2t}\\ 0 & e^{t} & 0\\ e^{2t}-e^{t} & 0 & 2e^{2t}-e^{t} \end{bmatrix}

Solución:

x(t)=\Phi(t)x(0)=[0,e^{t},0]

Formas Diagonales Respuesta Temporal Sistemas de Control

Matriz de jordan 1
Matriz de Jordan 2
Matriz de Jordan 3

Forma de Jordan

Cuando tenemos autovalores repetidos, podemos obtener una representación muy próxima de la diagonal conocida como la Matriz de Jordan donde la construcción de esta matriz se basa en el concepto de autovectores Generalizados.

Representación de Jordan
Formas de Jordan

Veamos un video con el funcionamiento de las formas de Jordan:

Respuesta temporal de sistemas de control ejemplo

Determinar la respuesta temporal del siguiente sistema por la forma diagonal, por cayley hamilton y por respuesta frecuuencial. Estos métodos pueden ser aplicados perfectamente para obtener la respuesta temporal de sistemas de primer orden y la respuesta temporal de sistemas de segundo orden.

\dot{x}(t)=\begin{bmatrix} 0 & 1\\ -2 & -3 \end{bmatrix}x(t)+\begin{bmatrix} 0 \\ 1 \end{bmatrix}u(t)

y(t)=\begin{bmatrix} 0 & 1 \end{bmatrix}x(t)

para x_1(0)=1, x_2(0)=1 y u(t)=0.

[sociallocker id=948]

En la entrada pasada habíamos visto que existen diferentes formas de obtener la matriz de transición de estados para poder determinar la respuesta temporal de un sistema dinámico expresado en variables de estado. Y vimos que una de las formas más faciles de determinar esta matriz se daba cuando nuestra matriz dinámica A es una matriz diagonal.

¿Que sucede si mi matriz A no es diagonal?

Cuando mi matriz no es diagonal, se puede utilizar el concepto de transformación de similitud.

Para esto se parte del sistema original dado por:

\dot{x}(t)=Ax(t)+Bu(t), x(0)

y(t)=Cx(t)+Du(t)

Para poder obtener el A diagonal se utilizan dos conceptos:

1. Se utiliza la matriz de autovectores.

2. En el caso de autovalores repetidos se utiliza el concepto de autovectores generalizados que termina dando la forma de Jordan.

La representación de la matriz de Jordan, es una representación casi diagonal, cuando la matriz tiene autovalores repetidos.

Si consideremos que A_{diagonal}=\hat{A} y V como la matriz de autovectores, procedemos de la siguiente forma:

AV=V\hat{A}

\hat{A}=V^{-1}AV

Deseo obtener una nueva representación de mi sistema donde la matriz dinámica sea \hat{A}. Para eso multiplico por la izquierda el sistema por V^{-1}.

V^{-1}\dot{x}=V^{-1}Ax+V^{-1}Bu

De esa forma puedo renombrar los estados como:

\hat{x}=V^{-1}x

\dot{\hat{x}}=V^{-1}\dot{x}

x=V\hat{x}

Asi mi nuevo estado se expresa como:

\dot{\hat{x}}=V^{-1}AV\hat{x}+V^{-1}Bu

Mi nueva representación donde la matriz A es diagonal es:

\dot{\hat{x}}=\hat{A}\hat{x}+\hat{B}u

y(t)=CV\hat{x}+Du

donde

\hat{B}=V^{-1}B y \hat{C}=CV

Es necesario encontrar el vector de autovectores para poder calcular B.

\dot{\hat{x}}=\hat{A}\hat{x}+\hat{B}u, \hat{x}(0)=V^{-1}x(0)

y(t)=\hat{C}\hat{x}+Du

Resolviendo ese sistema consigo llegar en

\hat{x}(t)\rightarrow x(t)=V\hat{x}(t)

Si por alguna razón necesitara calcular la salida del sistema, no es necesario volver a la representación del sistema original. Note que la salida siempre es la misma en ambos sistemas.

Resolución en la Forma Diagonal

Procedimiento: Calcular ecuación característica, los autovalores, los autovectores, la forma diagonal y luego resolver.

La entradas y salidas del sistema en la representacion diagonal es la misma que el sistema original.

G(s)=C(sI-A)^{-1}B+D

 =\hat{C}(sI-A)^{-1}\hat{B}+D

La ecuación caracteristica es:

\Delta(\lambda)=(\lambda I-A)=\lambda^2+3\lambda+2=(\lambda+1)(\lambda+2)=0

Para conseguir los autovectores de una matriz se debe cumplir que:

Suponiendo que los autovalores de una matriz son distintos, entonces van a existir n autovectores de forma que:

Av_i=\lambda_iv_i,i=1,2,\cdots,n

Y en ese caso los autovectores son todos distintos y linealmente independientes, asi pueden ser utilizados para construir una base con la siguiente matriz de transformación:

V=[v_1,v_2,\cdots,v_n]

Los vectores que satisfacen la relacion:

(A-\lambda_i)v_i=0, i=1,2,\cdots n

Son conocidos como autovectores de A.

Retomando el ejemplo

Primer autovalor

(A-(-1)I)v_1=0

(A+I)\begin{bmatrix}v_{11} \\v_{12}\end{bmatrix}=\begin{bmatrix}0 \\0\end{bmatrix}

Segundo autovalor

(A-(-2)I)v_2=0

(A+2I)\begin{bmatrix}v_{21} \\v_{22}\end{bmatrix}=\begin{bmatrix}0 \\0\end{bmatrix}

De estas dos representaciones obtengo una ecuación que es una recta.

Solucionando para el primer autovector

\begin{bmatrix}1&1 \\-2&-2\end{bmatrix}\begin{bmatrix}v_{11} \\v_{12}\end{bmatrix}=\begin{bmatrix}0 \\0\end{bmatrix}

Donde se obtiene:

v_{11}+v_{12}=0

Puedo escoger dos valores que cumplan esa igualdad (soluciones infinitas), entonces:

v_1=\begin{bmatrix}1 \\-1\end{bmatrix}

Solucionando para el segundo autovector

\begin{bmatrix}2&1 \\-2&-1\end{bmatrix}\begin{bmatrix}v_{21} \\v_{22}\end{bmatrix}=\begin{bmatrix}0 \\0\end{bmatrix}

Donde se obtiene:

2v_{21}+v_{22}=0

Puedo escoger dos valores que cumplan esa igualdad (soluciones infinitas), entonces:

v_2=\begin{bmatrix}1 \\-2\end{bmatrix}

El auto vector de A es:

v=\begin{bmatrix}1 &1\\-1&-2\end{bmatrix}

La nueva matriz A es

\hat{A}=v^{-1}Av

\hat{A}=\begin{bmatrix}-1&0 \\0&-2\end{bmatrix}

El nuevo vector B seria:

\hat{B}=v^{-1}B

\hat{B}=\begin{bmatrix}1 \\-1\end{bmatrix}

El nuevo vector C seria:

\hat{C}=Cv

\hat{C}=\begin{bmatrix}-1 &-2\end{bmatrix}

La nueva condicion inicial es

\hat{x}(0)=v^{-1}x(0)

\hat{x}(0)=\begin{bmatrix}3 \\-2\end{bmatrix}

El sistema diagonal queda dado por:

\dot{\hat{x}}(t)=\begin{bmatrix}-1&0 \\0&-2\end{bmatrix}x(t)+\begin{bmatrix}1 \\-1\end{bmatrix}u(t)

y(t)=\begin{bmatrix}-1 &-2\end{bmatrix}x(t)

La salida del sistema es:

y(t)=\hat{C}\hat{x}=\hat{C}\begin{bmatrix}e^{-1t}&0 \\0&e^{-2t}\end{bmatrix}\begin{bmatrix} 3 \\-2\end{bmatrix}= 4e^{-2t}-3e^{-t}

Respuesta temporal ejercicios resueltos en MATLAB

%% ******************************************************************** %%
%  ******  RESPUESTA TEMPORAL DE UN SISTEMA LINEAL DIAGONALIZANDO *****
%  ******  SERGIO ANDRES CASTAÑO GIRALDO
%  ++++++  https://controlautomaticoeducacion.com
%% ******************************************************************** %%

clc
clear all
close all
% Sistema Lineal
A=[0,1;-2,-3];
B=[0;1];
C=[0 1];
x0=[1;1]; %Condicion Inicial

%Se procede a Diagonalizar la Matriz A de la Ec. de Estado

%Ecuacion caracteristica
[ V,Adiag ]=eig(A); %Autovectores de A (Normalizados) y A diagonal

%Calculo de la nueva matriz B
Bd=inv(V)*B;

%Calculo de la nueva matriz C
Cd=C*V;

%Nueva condicion Inicial
x0d=inv(V)*x0;

%La salida del sistema es dado por
syms t
yt=Cd*[exp(-t),0;0,exp(-2*t)]*x0d

%Evaluo la expresión analitica de la Salida del Sistema
t=0:0.1:10;
y=eval(yt);
figure
plot(t,y,'r'); %Grafico la salida

%Tambien puede usarse directamente las funciones de Matlab.
sys = ss(A,B,C,0);
figure
initial(sys,x0)

RESOLUCIÓN POR CAYLEY HAMILTON

La ecuación caracteristica es:

\Delta(\lambda)=(\lambda I-A)=\lambda^2+3\lambda+2=(\lambda+1)(\lambda+2)=0

Se determina h(\lambda) reemplazando los autovalores y hallando el sistema de ecuaciones

f(\lambda)=e^{\lambda t}=h(\lambda)=\beta_0+\beta_1\lambda

1. e^{-t}=\beta_0-\beta_1

2. e^{-2t}=\beta_0-2\beta_1

soluciono el sistema de ecuaciones

\beta_1=e^{-t}-e^{-2t}

\beta_0=2e^{-t}-e^{-2t}

De esa forma

h(\lambda)=(2e^{-t}-e^{-2t}) + (e^{-t}-e^{-2t})\lambda

h(A)=e^{At}=(2e^{-t}-e^{-2t})I + (e^{-t}-e^{-2t})A

e^{At}=\begin{bmatrix}2e^{-t}-e^{-2t}&0 \\0&2e^{-t}-e^{-2t}\end{bmatrix}+ \begin{bmatrix}0&e^{-t}-e^{-2t} \\-2(e^{-t}-e^{-2t})&-3(e^{-t}-e^{-2t})\end{bmatrix}

e^{At}=\begin{bmatrix}2e^{-t}-e^{-2t}&e^{-t}-e^{-2t} \\-2e^{-t}+2e^{-2t}&-e^{-t}+2e^{-2t}\end{bmatrix}

Los estados son:

x(t)=e^{At}\begin{bmatrix}1 \\1\end{bmatrix}=\begin{bmatrix}3e^{-t}-2e^{-2t} \\-3e^{-t}+4e^{-2t}\end{bmatrix}

y=-3e^{-t}+4e^{-2t}

RESOLUCIÓN DE LA FORMA FRECUENCIAL

\Phi(s)=(sI-A)^{-1}

\Phi(s)=\begin{bmatrix}s&-1 \\2&s+3\end{bmatrix}^{-1}

\Phi(s)=\begin{bmatrix}\dfrac{s+3}{s^2+3s+2}&\dfrac{1}{s^2+3s+2} \\ \dfrac{2}{s^2+3s+2}&\dfrac{5}{s^2+3s+2}\end{bmatrix}

\Phi(t)=L^{-1}(\Phi(s))=\begin{bmatrix}2e^{-t} - e^{-2t}& e^{-t} - e^{-2t} \\ 2e^{-2t} - 2e^{-t} & 2e^{-2t} - e^{-t}\end{bmatrix}

Multiplico por el vector de estados iniciales

x(t)=\Phi(t)x(0)

x(t)=\begin{bmatrix}3e^{-t} - 2e^{-2t} \\ 4e^{-2t} - 3e^{-t}\end{bmatrix}

La salida del proceso con la condicion inicial es:

y(t)=4e^{-2t} - 3e^{-t}

[/sociallocker]

Eso es todo por la entrada del dia de hoy, espero les haya gustado y hayan aprendido algo nuevo. Si te ha servido el contenido de esta entrada, de los videos y los códigos de implementación y deseas apoyar mi trabajo invitandome a un café super barato, puedes hacerlo en el siguiente link:

👉 Invitar a Sergio a un Café ☕️

Que esten muy bien, nos vemos en la siguiente entrada.