Sep 182016
 
3.1. Respuesta Temporal I
5 (100%) 1 vote

En esta entrada aprenderemos como obtener la respuesta temporal de un sistema lineal utilizando la matriz de transicion de estados:

 

1. Utilizando transformada de laplace.

 

2. Utilizando el teorema de Cayley-Hamilton

 

3. Utilizando la representación en la forma diagonal y de Jordan.

 

 

Ya habiamos visto que un sistema lineal puede estar representado por la siguiente ecuación integral, (en la forma de representación Entrada-Salida)

 

y(t)=\int_{t0}^{t}g(t,\tau )u(\tau )d\tau

 

O tambien puede estar dado por la descripción en variables de estado:

 

\dot{x}(t)=Ax(t)+Bu(t)

y(t)=Cx(t)+Du(t)

 

Entre tanto, no existe una forma simple de obtener una solución simple analítica para determinar la ecuación de la integral. Numericamente seria facil de resolver si yo discretizo esa integral y la convierto en una sumatoria y podria resolver tranquilamente numericamente.

y(k\Delta)=\sum_{m=k_0}^{k}g(k\Delta,m\Delta)+u(m\Delta)\Delta

Para sistemas lineales e invariantes en el tiempo, yo puedo representar mi sistema lineal a través de la transformada de Laplace para de esa forma conseguir hallar una solución analítica.

y(s)=g(s)u(s)

Donde g(s) es una función de transferencia en el dominio complejo de Laplace.

Si en este caso, nuestra señal de entrada u(s), tambien es una función racional en s, la transformada de Laplace de la señal de salida (y(s)) puede ser determinada de la siguiente forma:

– Calculando los polos de la función de transferencia de g(s).

– Aplicando algún método de fracciones parciales.

– A través de la antitransformada de Laplace, para obtener y(t)

y(t)=L^{-1}(g(s) \times u(s)) = L^{-1}\left \{ \sum_{i}\frac{a_i}{(s+p_i)^{n_i}} +\sum_{j}\frac{b_is+c_j}{(s^2+d_js+e_j)}\right \}

No obstante, en el caso de polos repetidos y de polos complejos conjugados la determinación numerica de la transformada inversa de Laplace es generalmente sensible a errores de aproximación.

Así que desde el punto de vista numerico, la mejor solución para poder obtener la respuesta de un sistema dinámico es a través de la representación por variables de estado.

\dot{x}(t)=Ax(t)+Bu(t)

y(t)=Cx(t)+Du(t)

Ya hemos venido trabajando con esa representación, e incluso ya hemos obtenido la representación de estados de sistemas a través de las ecuaciones diferenciales, ahora la pregunta es:

¿Como puedo yo determinar la salida de un sistema, y(t), a partir de una condición inicial x_0 y una entrada u(t) conocidas?

Analicemos como podemos llegar a la representación de un sistema lineal teniendo condiciones NO nulas:

Esto se conoce como la resolución de la ecuación completa, para eso partimos de la representación del estado

\dot{x}(t)=Ax(t)+Bu(t)

Para poder calcular la solución de esa ecuación se utiliza el método de variación de las constantes, según el cual se va a suponer que existe una z(t) que permita que la solución completa pueda expresarse de la forma: (Ver: http://www.giematic.unican.es/edosso/ejercicios/Teorvarcoef.html)

x(t)=\Phi (t,t_0)z(t)

Esta hipótesis se puede verificar, si se encuentra una z(t) que cumpla esa suposición.

Si la hipótesis formulada es correcta, entonces el estado x(t) debe verificar la ecuación completa, entonces sustituyendo en la ecuación de estados:

\dot{\Phi}(t,t_0)z(t)+\Phi(t,t_0)\dot{z(t)}=A\Phi (t,t_0)z(t)+Bu(t)

\Phi (t,t_0)\dot{z}(t)+\underset{0}{\underbrace{[\dot{\Phi}(t,t_0)-A(t)\Phi (t,t_0)]}}z(t)=B(t)u(t)

La respuesta completa de un sistema lineal viene dado por:

x(t)=\Phi (t,t_0)x_0+\int_{t0}^{t}\Phi(t,\tau )B(\tau )d\tau

donde x_0=x(t_0) es la condición inicial y \Phi () es una matriz de transición de estados.

Esta respuesta la podemos dividir en dos partes:

x(t)=x_{zi}(t)+x_{zs}(t)

Donde x_{zi}(t) es conocida como respuesta a la entrada cero y x_{zs}(t) como respuesta al estado cero.

En otras palabras, la respuesta a la entrada cero es la respuesta del sistema referente a una condición inicial no nula.

x_{zi}(t)=\Phi (t,t_0)x_0

La respuesta al estado cero es la respuesta impuesta por la señal de entrada u(t) cuando se tienen condiciones iniciales nulas:

x_{zs}(t)=\int_{t0}^{t}\Phi(t,\tau )B(\tau )d\tau

Sin embargo, determinar la matriz \Phi (t,t_0)x_0 no es fácil, pero esta puede ser obtenida utilizando el concepto de matriz fundamental del sistema.

Particularizando el problema para un sistema lineal e invariante en el tiempo (LTI) descrito por:

\dot{x}(t)=Ax(t)+Bu(t)

y(t)=Cx(t)+Du(t)

la expresión analítica de la matriz de transición de estados puede ser determinada utilizando el teorema de Cayley-Hamilton que establece que una matriz satisface su propia ecuación característica.
Recordemos cuanto es la derivada de euler cuando trabajamos con un numero escalra:

\dfrac{\mathrm{d} e^{\lambda t}}{\mathrm{d} t}=\lambda e^{\lambda t}

Esa misma derivada cuando trabajamos con matrices es:

\dfrac{\mathrm{d} e^{\mathbf{A}t}}{\mathrm{d} t}=\mathbf{A} e^{\mathbf{A} t}=e^{\mathbf{A} t}\mathbf{A}

Por definición del e elevado a alguna cosa, es una serie infinita, para el caso matricial esa serie es:

e^{\mathbf{A} t}=\mathbf{I}+\mathbf{A}t+\dfrac{\mathbf{A}^2t^2}{2!}+...

Si multiplicamos la ecuación de estados \dot{x}(t)=Ax(t)+Bu(t) por e^{-\mathbf{A}t} se tiene que:

e^{-\mathbf{A}t}\dot{x}(t)-e^{-\mathbf{A}t}Ax(t)=e^{-\mathbf{A}t}Bu(t)

\dfrac{\mathrm{d} e^{-\mathbf{A}t}x(t)}{\mathrm{d} t}=e^{-\mathbf{A}t}Bu(t)

si se integra desde 0 hasta t

\left [ e^{-\mathbf{A}\tau}x(\tau) \right ]_{\tau=0}^{\tau=t}=\int_{0}^{t}e^{-\mathbf{A}\tau}Bu(\tau)d\tau

e^{-\mathbf{A}t}x(t)-e^{0}x(0)=\int_{0}^{t}e^{-\mathbf{A}\tau}Bu(\tau)d\tau

e^{\mathbf{A}t}\times \left ( e^{-\mathbf{A}t}x(t)=x(0)+\int_{0}^{t}e^{-\mathbf{A}\tau}Bu(\tau)d\tau\right )

por lo tanto se tiene la expresión analitica de los estados es:

x(t)=e^{\mathbf{A}t}x(0)+\int_{0}^{t}e^{-\mathbf{A}(t-\tau)}Bu(\tau)d\tau

y que la señal de salida es:

y(t)=C\left ( e^{\mathbf{A}t}x(0)+\int_{0}^{t}e^{-\mathbf{A}(t-\tau)}Bu(\tau)d\tau \right ) +Du(t)

Asi la matriz de transición de estados para sistemas LTI es dada de la siguiente forma:

\Phi (t,t_0)=e^{\mathbf{A}(t-\tau)}\rightarrow \Phi (t)=e^{\mathbf{A}(t)}

El valor de e^{\mathbf{A}(t)} puede ser determinado de varias formas:

– Utilizando extenciones del teorema de Cayley Hamilton en la forma de determinar las funciones matriciales

– Metodo de respuesta frecuencial.

– Representación en forma frecuencial.

Ejemplo:

Podemos aplicar el teorema de Cayley Hamilton por definición

e^{\mathbf{A} t}=\mathbf{I}+\mathbf{A}t+\dfrac{\mathbf{A}^2t^2}{2!}+\dfrac{\mathbf{A}^3t^3}{3!}++...

O aplicando la transformada de Laplace:

L(e^{\mathbf{A} t})=(sI-A)^{-1}\rightarrow e^{\mathbf{A} t}=L^{-1}((sI-A)^{-1})
\textbf{Forma diagonal}
Puedo representar la matriz en forma diagonal.

Tomando una matriz diagonal de la siguiente forma:

e^{\begin{bmatrix}  \lambda_1 & 0\\  0 & \lambda_2  \end{bmatrix}}=\begin{bmatrix}  1 & 0\\  0 & 1  \end{bmatrix}+\begin{bmatrix}  \lambda_1t & 0\\  0 & \lambda_2t  \end{bmatrix}+\begin{bmatrix}  \frac{\lambda_1^2t^2}{2!} & 0\\  0 & \frac{\lambda_2^2t^2}{2!}  \end{bmatrix}+\cdots=\begin{bmatrix}  1+\lambda_1t+\frac{\lambda_1^2t^2}{2!}+...+ & 0\\  0 & 1+\lambda_2t+\frac{\lambda_2^2t^2}{2!}+...+  \end{bmatrix}=\begin{bmatrix}  e^{\lambda_1t} & 0\\  0 & e^{\lambda_2t}  \end{bmatrix}

Se puede ver que determinar la matriz e^{At} cuando la matriz A es diagonal, es super facil y sencillo, por lo tanto si se consigue llevar la Matriz A a la representación diagonal, va ser relativamente facil determinar la respuesta temporal del sistema.

 

Método de la Respuesta en Frecuencia

 

Si tengo un sistema dado por

\dot{x}=Ax(t)+Bu(t)

Aplicando transformada de Laplace obtengo la siguiente representación:

Sx(s)-x(0)=Ax(s)+Bu(s) x(s)=(s-A)^{-1}x(0)+(s-A)^{-1}Bu(s)

Por inspección, se logra determinar que

\phi(s)=(s-A)^{-1}

Por lo tanto la trayectoria de x(t) es dada por:

L^{-1}(\phi(s))x(0)+L^{-1}(\phi(s)Bu(s))

 

\textbf{Usando Teorema de Cayley Hamilton}

 

Otra forma de calcular el e^{At} que es utilizando el teorema de Cayley Hamilton, que basicamente nos dice:

 

“Que una matriz es capaz de satisfacer la ecuación característica de ella”.

 

Recordando que la ecuación característica de una matriz (A) es cuando por ejemplo se toma una variable, en el curso usamos “s”, y realizamos la siguiente operacion

det(sI-A)=0. Las raíces de esta ecuación son los autovalores de la matriz (Esta ecuación es llamada de ecuación característica).

¿Pero que quiere decir que la matriz satisface la ecuación característica?

Quiere decir que si por ejemplo yo tengo una ecuación característica s^2+2s+1=0 entonces A^2+2A+I va a dar Cero.

Veamos como se pueden representar polinomios de matrices cuadradas:

A^p=AAAA....A, (p terminos), A^0=I

Suponiendo que f(\lambda) es un polinomio monico de la forma: \lambda^2+5\lambda+6 implica que f(A) estaría definido por:

f(A)=A^2+5A+6=(A+2I)(A+3I)

Note que si aplicamos una transformación de similaridad dado por \hat{A}=Q^{-1}AQ, la ecuación matricial satisface

f(\hat{A})=f(Q^{-1}AQ)=Q^{-1}f(A)Q

El teorema de Cayley Hamilton está definido como:

\Delta(\lambda)=det(\lambda I-A)=\lambda^n+\alpha_1\lambda^{n-1}+...+\alpha_{n-1}\lambda+\alpha_n=0

La ecuación característica de A viene dado entonces por:

\Delta(A)=A^n+\alpha_1A^{n-1}+...+\alpha_{n-1}A+\alpha_nI=0

La idea principal es que yo puedo factorizar una expresión cualquiera en función de la ecuación característica.

Supongamos que queremos calcular A^{100} y que A es una matriz 2×2.

A^{100}=q(A)\Delta(A)+h(A)

En la ecuación de encima, se escribe la matriz como una función matricial multiplicado por la ecuación característica y sumado por un residuo que es de grado (n-1), en este caso 1 (n dimensión de la matriz).

Cual es el valor de la ecuacion caracteristica de A (\Delta(A))? es Cero, segun la ecuacion de Cayley Hamilon.

Con esto puedo llegar en la conclusión que A^{100}=h(A). Osea que va a ser una función de A que como máximo tiene grado n-1 donde n es la dimensión de la matriz.

De esta manera es mucho más fácil calcular una matriz elevado a alguna cosa, porque únicamente voy a necesitar calcular el resto (obviamente en calculadora es fácil hacer todo)

 

Pero como voy a encontrar h(A)?

Usando la expresión del teorema de Cayley Hamilton. Es decir que si yo consigo hacer eso para un autovalor, también debe funcionar.

\lambda^{100}=q(\lambda)\Delta(\lambda)+h(\lambda)

De esa forma encuentro el valor de la expresión h(\lambda) y por lo tanto voy a saber cual es el valor de h(A)

Con esto se llega a la conclusión que cualquier polinomio f(A) puede ser escrito como:

f(A)=\beta_0\mathbf{I}+\beta_1\mathbf{A}+...+\beta_{n-1}\mathbf{A}^{n-1}

Lo que tengo que hacer es intentar encontrar las constantes \beta

Ejemplo:

\mathbf{A}=\begin{bmatrix}  0 & -1\\  1 & 0  \end{bmatrix}

Ecuacion caracteristica:

\Delta(\lambda)=det(\lambda\mathbf{I}-\mathbf{A})^{-1}=\lambda^2-1=(\lambda+1)(\lambda-1)=0

Para determinar \mathbf{A}^{100}

f(\lambda)=\lambda^{100}\rightarrow h(\lambda)=\beta_0+\lambda\beta_1 ,para \lambda=\lambda_i \rightarrow f(\lambda_i)=h(\lambda_i)

(-1)^{100}=\beta_0-\beta_1

(1)^{100}=\beta_0+\beta_1

\mathbf{A}^{100}=\beta_0\mathbf{I}+\beta_1\mathbf{A}

Para Autovalores repetidos voy a tener problemas para calcular el valor de A de esa forma, debido a que necesito crear ecuaciones linealmente dependients, entonces simplemente cuando tenga autovalores repetidos hago lo siguiente>

f(\lambda_i)=h(\lambda_i)

Calculo la derivada

\left.\begin{matrix}  \dfrac{df(\lambda)}{d\lambda}  \end{matrix}\right|_{\lambda=\lambda_i}=\left.\begin{matrix}  \dfrac{dh(\lambda)}{d\lambda}  \end{matrix}\right|_{\lambda=\lambda_i}

\vdots

\left.\begin{matrix}  \dfrac{d^{n-1}f(\lambda)}{d^{n-1}\lambda}  \end{matrix}\right|_{\lambda=\lambda_i}=\left.\begin{matrix}  \dfrac{d^{n-1}h(\lambda)}{d\lambda^{n-1}}  \end{matrix}\right|_{\lambda=\lambda_i}

Ejemplo:

Considere el siguiente sistema

\dot{x}(t)=\begin{bmatrix}  0 & 0 & -2\\  0 & 1 & 0\\  1 & 0 & 3  \end{bmatrix}x(t)

Determine el valor de \dot{x}(t) para x_0=[0,1,0]'

Ecuación caracteristica:

\Delta(\lambda)=det(\lambda\mathbf{I}-\mathbf{A})^{-1}=(\lambda-1)^2(\lambda-2)=0

Para determinar e^{At} se puede utilizar el polinomio minimo de h(A).

f(\lambda)=e^{\lambda t}=h(\lambda)=\beta_0+\beta_1\lambda+\beta_2\lambda^2

f(1)=e^{ t}=h(1)=\beta_0+\beta_1+\beta_2

\dfrac{df(1)}{d\lambda}=\dfrac{dh(1)}{d\lambda}=te^{ t}=\beta_1+2\beta_2

f(2)=e^{ 2t}=h(2)=\beta_0+2\beta_1+4\beta_2

Coeficientes de \beta_i

\beta_0=-2te^{t}+e^{2t}, \beta_1=3te^{t}+2e^{t}-2e^{2t}, \beta_2=e^{2t}-e^{t}-te^{t}

Calculando \Phi(t)=e^{At}

\Phi(t)=e^{A t}=\beta_0\mathbf(I)+\beta_1\mathbf(A)+\beta_2\mathbf(A)^2

=\begin{bmatrix}  2e^{t}-e^{2t} & 0 & 2e^{t}-2e^{2t}\\  0 & e^{t} & 0\\  e^{2t}-e^{t} & 0 & 2e^{2t}-e^{t}  \end{bmatrix}

Solución:

x(t)=\Phi(t)x(0)=[0,e^{t},0]

Matriz de jordan 1

Matriz de Jordan 2

Matriz de Jordan 3

Forma de Jordan

Cuando tenemos autovalores repetidos, podemos obtener una representación muy próxima de la diagonal conocida como la Matriz de Jordan donde la construcción de esta matriz se basa en el concepto de autovectores Generalizados.

Representación de Jordan

 

Formas de Jordan

Veamos un video con el funcionamiento de las formas de Jordan:

 

EJEMPLO

Determinar la respuesta temporal del siguiente sistema por la forma diagonal, por cayley hamilton y por respuesta frecuuencial.

\dot{x}(t)=\begin{bmatrix}  0 & 1\\  -2 & -3  \end{bmatrix}x(t)+\begin{bmatrix}  0 \\  1  \end{bmatrix}u(t)
y(t)=\begin{bmatrix}  0 & 1  \end{bmatrix}x(t)

para x_1(0)=1, x_2(0)=1 y u(t)=0.

En la entrada pasada habíamos visto que existen diferentes formas de obtener la matriz de transición de estados para poder determinar la respuesta temporal de un sistema dinámico expresado en variables de estado. Y vimos que una de las formas más faciles de determinar esta matriz se daba cuando nuestra matriz dinámica A es una matriz diagonal.

¿Que sucede si mi matriz A no es diagonal?

Cuando mi matriz no es diagonal, se puede utilizar el concepto de transformación de similitud.

Para esto se parte del sistema original dado por:

\dot{x}(t)=Ax(t)+Bu(t), x(0)

y(t)=Cx(t)+Du(t)

Para poder obtener el A diagonal se utilizan dos conceptos:

1. Se utiliza la matriz de autovectores.

2. En el caso de autovalores repetidos se utiliza el concepto de autovectores generalizados que termina dando la forma de Jordan.

La representación de la matriz de Jordan, es una representación casi diagonal, cuando la matriz tiene autovalores repetidos.

Si consideremos que A_{diagonal}=\hat{A} y V como la matriz de autovectores, procedemos de la siguiente forma:

AV=V\hat{A}

\hat{A}=V^{-1}AV

Deseo obtener una nueva representación de mi sistema donde la matriz dinámica sea \hat{A}. Para eso multiplico por la izquierda el sistema por V^{-1}.

V^{-1}\dot{x}=V^{-1}Ax+V^{-1}Bu

De esa forma puedo renombrar los estados como:

\hat{x}=V^{-1}x

\dot{\hat{x}}=V^{-1}\dot{x}

x=V\hat{x}

Asi mi nuevo estado se expresa como:

\dot{\hat{x}}=V^{-1}AV\hat{x}+V^{-1}Bu

Mi nueva representación donde la matriz A es diagonal es:

\dot{\hat{x}}=\hat{A}\hat{x}+\hat{B}u

y(t)=CV\hat{x}+Du

donde

\hat{B}=V^{-1}B y \hat{C}=CV

Es necesario encontrar el vector de autovectores para poder calcular B.

\dot{\hat{x}}=\hat{A}\hat{x}+\hat{B}u, \hat{x}(0)=V^{-1}x(0)

y(t)=\hat{C}\hat{x}+Du

Resolviendo ese sistema consigo llegar en

\hat{x}(t)\rightarrow x(t)=V\hat{x}(t)

Si por alguna razón necesitara calcular la salida del sistema, no es necesario volver a la representación del sistema original. Note que la salida siempre es la misma en ambos sistemas.

 

Resolución en la Forma Diagonal

Procedimiento: Calcular ecuación característica, los autovalores, los autovectores, la forma diagonal y luego resolver.

La entradas y salidas del sistema en la representacion diagonal es la misma que el sistema original.

G(s)=C(sI-A)^{-1}B+D

 =\hat{C}(sI-A)^{-1}\hat{B}+D

La ecuación caracteristica es:

\Delta(\lambda)=(\lambda I-A)=\lambda^2+3\lambda+2=(\lambda+1)(\lambda+2)=0

Para conseguir los autovectores de una matriz se debe cumplir que:

Suponiendo que los autovalores de una matriz son distintos, entonces van a existir n autovectores de forma que:

Av_i=\lambda_iv_i,i=1,2,...,n

Y en ese caso los autovectores son todos distintos y linealmente independientes, asi pueden ser utilizados para construir una base con la siguiente matriz de transformación:

V=[v_1,v_2,...,v_n]

Los vectores que satisfacen la relacion:

(A-\lambda_i)v_i=0, i=1,2,...n

Son conocidos como autovectores de A.

Retomando el ejemplo

Primer autovalor

(A-(-1)I)v_1=0

(A+I)\begin{bmatrix}v_{11} \\v_{12}\end{bmatrix}=\begin{bmatrix}0 \\0\end{bmatrix}

Segundo autovalor

(A-(-2)I)v_2=0

(A+2I)\begin{bmatrix}v_{21} \\v_{22}\end{bmatrix}=\begin{bmatrix}0 \\0\end{bmatrix}

De estas dos representaciones obtengo una ecuación que es una recta.

Solucionando para el primer autovector

\begin{bmatrix}1&1 \\-2&-2\end{bmatrix}\begin{bmatrix}v_{11} \\v_{12}\end{bmatrix}=\begin{bmatrix}0 \\0\end{bmatrix}

Donde se obtiene:

v_{11}+v_{12}=0

Puedo escoger dos valores que cumplan esa igualdad (soluciones infinitas), entonces:

v_1=\begin{bmatrix}1 \\-1\end{bmatrix}

Solucionando para el segundo autovector

\begin{bmatrix}2&1 \\-2&-1\end{bmatrix}\begin{bmatrix}v_{21} \\v_{22}\end{bmatrix}=\begin{bmatrix}0 \\0\end{bmatrix}

Donde se obtiene:

2v_{21}+v_{22}=0

Puedo escoger dos valores que cumplan esa igualdad (soluciones infinitas), entonces:

v_2=\begin{bmatrix}1 \\-2\end{bmatrix}

El auto vector de A es:

v=\begin{bmatrix}1 &1\\-1&-2\end{bmatrix}

La nueva matriz A es

\hat{A}=v^{-1}Av

\hat{A}=\begin{bmatrix}-1&0 \\0&-2\end{bmatrix}

El nuevo vector B seria:

\hat{B}=v^{-1}B

\hat{B}=\begin{bmatrix}1 \\-1\end{bmatrix}

El nuevo vector C seria:

\hat{C}=Cv

\hat{C}=\begin{bmatrix}-1 &-2\end{bmatrix}

La nueva condicion inicial es

\hat{x}(0)=v^{-1}x(0)

\hat{x}(0)=\begin{bmatrix}3 \\-2\end{bmatrix}

El sistema diagonal queda dado por:

\dot{\hat{x}}(t)=\begin{bmatrix}-1&0 \\0&-2\end{bmatrix}x(t)+\begin{bmatrix}1 \\-1\end{bmatrix}u(t)

y(t)=\begin{bmatrix}-1 &-2\end{bmatrix}x(t)

La salida del sistema es:

y(t)=\hat{C}\hat{x}=\hat{C}\begin{bmatrix}e^{-1t}&0 \\0&e^{-2t}\end{bmatrix}\begin{bmatrix} 3 \\-2\end{bmatrix}= 4e^{-2t}-3e^{-t}

RESOLUCIÓN POR CAYLEY HAMILTON

La ecuación caracteristica es:

\Delta(\lambda)=(\lambda I-A)=\lambda^2+3\lambda+2=(\lambda+1)(\lambda+2)=0

Se determina h(\lambda) reemplazando los autovalores y hallando el sistema de ecuaciones

f(\lambda)=e^{\lambda t}=h(\lambda)=\beta_0+\beta_1\lambda

1. e^{-t}=\beta_0-\beta_1

2. e^{-2t}=\beta_0-2\beta_1

soluciono el sistema de ecuaciones

\beta_1=e^{-t}-e^{-2t}

\beta_0=2e^{-t}-e^{-2t}

De esa forma

h(\lambda)=(2e^{-t}-e^{-2t}) + (e^{-t}-e^{-2t})\lambda

h(A)=e^{At}=(2e^{-t}-e^{-2t})I + (e^{-t}-e^{-2t})A

e^{At}=\begin{bmatrix}2e^{-t}-e^{-2t}&0 \\0&2e^{-t}-e^{-2t}\end{bmatrix}+  \begin{bmatrix}0&e^{-t}-e^{-2t} \\-2(e^{-t}-e^{-2t})&-3(e^{-t}-e^{-2t})\end{bmatrix}

e^{At}=\begin{bmatrix}2e^{-t}-e^{-2t}&e^{-t}-e^{-2t} \\-2e^{-t}+2e^{-2t}&-e^{-t}+2e^{-2t}\end{bmatrix}

Los estados son:

x(t)=e^{At}\begin{bmatrix}1 \\1\end{bmatrix}=\begin{bmatrix}3e^{-t}-2e^{-2t} \\-3e^{-t}+4e^{-2t}\end{bmatrix}

y=-3e^{-t}+4e^{-2t}

RESOLUCIÓN DE LA FORMA FRECUENCIAL

\Phi(s)=(sI-A)^{-1}

\Phi(s)=\begin{bmatrix}s&-1 \\2&s+3\end{bmatrix}^{-1}

\Phi(s)=\begin{bmatrix}\dfrac{s+3}{s^2+3s+2}&\dfrac{1}{s^2+3s+2} \\ \dfrac{2}{s^2+3s+2}&\dfrac{5}{s^2+3s+2}\end{bmatrix}

\Phi(t)=L^{-1}(\Phi(s))=\begin{bmatrix}2e^{-t} - e^{-2t}& e^{-t} - e^{-2t} \\ 2e^{-2t} - 2e^{-t} & 2e^{-2t} - e^{-t}\end{bmatrix}

Multiplico por el vector de estados iniciales

x(t)=\Phi(t)x(0)

x(t)=\begin{bmatrix}3e^{-t} - 2e^{-2t} \\ 4e^{-2t} - 3e^{-t}\end{bmatrix}

La salida del proceso con la condicion inicial es:

y(t)=4e^{-2t} - 3e^{-t}

 

 

 

 

Si te sirvió de algo la información de la pagina, podrías invitarme a un café y ayudarme a seguir manteniendo en pie el sitio WEB. Solo cuesta $2USD y me ayudarías enormemente a seguir con mi trabajo. Muchas Gracias por tu visita.




 Leave a Reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code class="" title="" data-url=""> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong> <pre class="" title="" data-url=""> <span class="" title="" data-url="">

(required)

(required)