Control por Mínima Varianza
4.9 (97.14%) 7 votes

El control por mínima varianza (MVC, por sus siglas en ingles Minimum Variance Control o en portugues Variancia Mínima) tiene como objetivo reducir el efecto de las perturbaciones sobre la salida. Es de especial utilidad cuando la salida del proceso que se desea controlar se encuentra contaminada por una perturbación estocástica la cual no puede eliminarse completamente, pero si puede reducirse su varianza.

Control por Mínima Varianza
Control por Mínima Varianza

 

La estrategia de este controlador consiste en aplicar la señal de control en el instante k o sea u(k) tomando los valores pasados de la entrada (u(k-1),u(k-2),...,u(k-n_b)) de la salida(y(k),y(k-1),y(k-2),...,y(k-n_a)) de forma a minimizar un indice J

J=E\left(y^2(k+d+1/k)\right) (1)

Donde E es la esperanza matemática, k es el instante actual y d es el retardo. Esta ecuación nos muestra que a cada periodo de muestreo k se debe determinar una señal de control que minimice este indice y la inclusión del retardo d+1 es una consideración razonable dado que cualquier acción de control apenas afectara la salida una vez el retardo haya transcurrido. Por eso para el desarrollo de este controlador vamos a suponer tres condiciones:

 

  1. Todos los ceros del proceso deben estar dentro del circulo unitario (Sistemas de fase mínima)
  2. El retardo del sistema debe ser conocido.
  3. El orden del sistema debe ser conocido, o por lo menos establecido un limite máximo.

 

Con relación a la primera suposición, si aplicamos esta técnica a sistemas de fase no mínima (ceros fuera del circulo unitario), la estructura de control todavía será capaz de minimizar la varianza, pero sera sumamente sensible a cualquier variación de parámetros del sistema, lo que muestra que esta estrategia no es robusta.

 

A continuación se presenta el video en Youtube con la explicación que continua más abajo en el post. Al final del post está el código de implementación ejemplo junto con su video de Youtube.

Español

Português

Como ya dijimos que el proceso está siendo afectado por perturbaciones estocásticas y fuera de eso estamos trabajando en el dominio discreto, la ecuación que representa mi proceso físico lo representaremos por un modelo ARMAX descrito a continuación:

A(z^{-1})y(k)=z^{-d}B(z^{-1})u(k)+C(z^{-1})v(k) (2)

ARMAX

Donde los polinomios A, B y C vienen dados por:

A(z^{-1})=1+a_1z^{-1}+a_2z^{-2}+...+a_{n_a}z^{-n_a}

B(z^{-1})=b_1+b_2z^{-1}+b_3z^{-2}+...+b_{n_b}z^{-n_b}

C(z^{-1})=1+c_1z^{-1}+c_2z^{-2}+...+c_{n_c}z^{-n_c}

Lo que estamos viendo es que el polinomio C está filtrando la perturbación estocástica v(k) (Ruido Blanco) y es sumado con la respuesta del sistema. Dado que dicho polinomio aparece en el modelo del proceso, este termino es empleado como un parámetro de diseño del control por mínima varianza y en particular el grado de este polinomio es un grado menor al polinomio A, n_c=n_a-1. Este polinomio C, esta fuertemente relacionado a un polinomio observador.

 

Deduciendo que la señal de control calculada u(k) va afectar el sistema una ves pasado el retardo, tal y como lo vimos en la entrada de sistemas con retardo del predictor de Smith, quiere decir que la señal u(k) afecta la salida en y(k+d+1). Esto quiere decir que para efectos de calcular la predición de la salida en el futuro, nos es más conveniente reescribir la ecuación (2) de la siguiente forma:

y(k+d+1)=\dfrac{zB(z^{-1})}{A(z^{-1})}u(k)+\dfrac{C(z^{-1})}{A(z^{-1})}v(k+d+1) (3)

De esta manera, la salida futura del sistema (que equivale a d intervalos de tiempo en el futuro, asumiendo k como el instante actual) es la suma de dos términos:

  • \dfrac{zB(z^{-1})}{A(z^{-1})}u(k) representa el efecto de la acción de control actual y todos los controles pasados en la planta
  • \dfrac{C(z^{-1})}{A(z^{-1})}v(k+d+1) representa el futuro, presente y pasado de las perturbaciones.

Esta descomposición de la perturbación puede escribirse de manera explicita si escribimos el polinomio \dfrac{C(z^{-1})}{A(z^{-1})}, utilizando la identidad polinomial C=A(z^{-1})F(z^{-1})+z^{-(d+1)}G(z^{-1}), como:

\dfrac{C(z^{-1})}{A(z^{-1})}=F(z^{-1})+z^{-(d+1)}\dfrac{G(z^{-1})}{A(z^{-1})} (4)

Donde el grado de G(z^{-1}) es menor que el grado de A(z^{-1}) y

F(z^{-1})=1+f_1z^{-1}+f_2z^{-2}+...+f_{d}z^{-d}

G(z^{-1})=g_0+g_1z^{-1}+g_2z^{-2}+...+g_{n_a-1}z^{-n_a-1}

Sustituyendo la ecuación (4) en (3) tenemos que:

y(k+d+1)=\dfrac{zB(z^{-1})}{A(z^{-1})}u(k)+\left(F(z^{-1})+z^{-(d+1)}\dfrac{G(z^{-1})}{A(z^{-1})}\right) v(k+d+1)

y(k+d+1)=\dfrac{zB(z^{-1})}{A(z^{-1})}u(k)+F(z^{-1})v(k+d+1)+\dfrac{G(z^{-1})}{A(z^{-1})}v(k) (5)

Los dos últimos términos del lado derecho de la ecuación 5 tienen el siguiente significado:

 

F(z^{-1})v(k+d+1) es una combinación lineal de las perturbaciones producidas entre el instante k y k+d, donde el efecto sobre la salida del proceso y(k+d) no se puede controlar con la ley de control actual u(k), debido a que la perturbación futura v(k+d) para un retardo mayor a cero d>0 es totalmente independiente de los controles y salidas pasadas u(k-1),u(k-2),...,u(k-n_b),y(k),y(k-1),y(k-2),...,y(k-n_a).

 

\dfrac{G(z^{-1})}{A(z^{-1})}v(k) es el efecto de las perturbaciones sobre la salida en instantes anteriores a k.

 

Si despejamos v(k) de la ecuación (2):

v(k)=\dfrac{A(z^{-1})}{C(z^{-1})}y(k)-z^{-d}\dfrac{B(z^{-1})}{C(z^{-1})}u(k) (6)

Y reemplazamos la ecuación (6) en (5)

y(k+d+1)=\dfrac{zB(z^{-1})}{A(z^{-1})}u(k)+F(z^{-1})v(k+d+1)+\dfrac{G(z^{-1})}{A(z^{-1})}\left(\dfrac{A(z^{-1})}{C(z^{-1})}y(k)-z^{-d}\dfrac{B(z^{-1})}{C(z^{-1})}u(k)\right)

y(k+d+1)=\dfrac{zB(z^{-1})}{A(z^{-1})}u(k)+F(z^{-1})v(k+d+1)+\dfrac{G(z^{-1})}{C(z^{-1})}y(k)-z^{-d}\dfrac{B(z^{-1})G(z^{-1})}{C(z^{-1})A(z^{-1})}u(k) (7)

de la ecuación (4) podemos inferir que:

z^{-(d+1)}\dfrac{G(z^{-1})}{A(z^{-1})}=\dfrac{C(z^{-1})}{A(z^{-1})}-F(z^{-1})

z^{-d}\dfrac{G(z^{-1})}{A(z^{-1})}=\dfrac{zC(z^{-1})}{A(z^{-1})}-zF(z^{-1})(8)

entonces reemplazamos (8)en (7)

y(k+d+1)=\dfrac{zB(z^{-1})}{A(z^{-1})}u(k)+F(z^{-1})v(k+d+1)+\dfrac{G(z^{-1})}{C(z^{-1})}y(k)-\dfrac{B(z^{-1})}{C(z^{-1})}\left(\dfrac{zC(z^{-1})}{A(z^{-1})}-zF(z^{-1})\right) u(k)

y(k+d+1)=\dfrac{zB(z^{-1})}{A(z^{-1})}u(k)+F(z^{-1})v(k+d+1)+\dfrac{G(z^{-1})}{C(z^{-1})}y(k)-\dfrac{zB(z^{-1})}{A(z^{-1})} u(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)

Reduciendo tenemos:

y(k+d+1)=F(z^{-1})v(k+d+1)+\dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k) (9)

La ecuación (9) representa la señal de salida de nuestro proceso que relaciona la entrada del sistema, el ruido y la salida del proceso, de la expresión observamos que los dos términos a la derecha corresponden a la predicción que se tiene de la salida real del proceso.

\hat{y}(k+d+1)=\dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)

donde nuestra mejor predicción de salida viene dada por:

y(k+d+1)=F(z^{-1})v(k+d+1)+\hat{y}(k+d+1)

Ahora como lo que queremos es atenuar la varianza en la salida, procedemos a minimizar el criterio J y aplicando la esperanza matemática:

J=E\{[y(k+d+1)]^{2}\}

J=E\left\lbrace \left[ F(z^{-1})v(k+d+1)+\left(\dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)\right) \right]^2\right\rbrace

Resolvemos el binomio:

J=E\{[F(z^{-1})v(k+d+1)]^{2}\}+E\left\lbrace \left[ \dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)\right]^2\right\rbrace+2E\left\lbrace \left(F(z^{-1})v(k+d+1)\right)\left( \dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)\right) \right\rbrace

Notemos que el ruido v(k+d+1) es una señal en el futuro, como no sabemos el ruido que va a suceder en el futuro la mejor estimativa que tenemos es considerar que ese ruido será cero, es decir su esperanza matemática es CERO. Por lo tanto tenemos que:

J=E\{[y(k+d+1)]^{2}\}=E\left\lbrace \left[ \dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)\right]^2\right\rbrace

Es claro que la estimación óptima en el sentido de error cuadrático medio mínimo es dada por la igualación de la predicción de salida a cero:

 \dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)=0 (10)

Si resolvemos la ecuación (10) para u(k) tenemos que:

u(k)=-\dfrac{G(z^{-1})}{zB(z^{-1})F(z^{-1})}y(k) (11)

Por lo tanto hemos llegado a una ecuación de la ley de control que minimiza la varianza de la salida del proceso. Conocido como control por mínima varianza, MVC, minimum variance control o variancia mínima. Con esta ecuación estamos garantizando que la varianza en la salida intente llegar a cero, sin embargo este es un controlador que presenta error en estado estable.

minimum variance control
minimum variance control

Podemos observar también que este controlador de la ecuación (11) cancela los ceros del sistema en lazo abierto, dado que el polinomio B esta en el denominador. Si por alguna razón estos ceros se encuentran fuera del circulo unitario cualquier variación de los parámetros va a conducir en un comportamiento inestable del sistema en malla cerrada.

 

Este únicamente es un controlador regulatório (No sigue referencia), como en muchos casos es interesante seguir referencia, en lugar de aplicar la ley de control sobre la salida del proceso, ésta es aplicada sobre la diferencia entre el setpoint y la salida (Error), quedando la ley de control de la siguiente forma:

u(k)=\dfrac{G(z^{-1})}{zB(z^{-1})F(z^{-1})}[w(k)-y(k)]

variancia mínima
Control por variancia mínima (portugues)

 

Sin embargo este controlador presenta error en estado estable, por lo tanto para eliminar el offset o error en estado estable, podemos incluir un integrador en el lazo de control asi:

u(k)=\dfrac{G(z^{-1})}{zB(z^{-1})F(z^{-1})}\left[ \dfrac{z-1+\alpha}{z-1} \right] [w(k)-y(k)]

donde \alpha es un de diseño del integrador con valores entre 0 y 1.

Control por Mínima Varianza con Integrador
Control por Mínima Varianza con Integrador

 

Control por Mínima Varianza con Seguimiento de Referencia

 

En este caso en lugar de minimizar la salida, se debe minimizar la relación que existe entre la salida del proceso y el setpoint (Error), de la siguiente forma:

J=E\{[y(k+d+1)-w(k+d+1)]^{2}\} (12)

Como ya sabemos el valor de y(k+d+1) el cual es dado en la ecuación (9), procedemos a reemplazarlo en la ecuación (12):

J=E\left\lbrace \left[[F(z^{-1})v(k+d+1)+\left(\dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)\right)-w(k+d+1)\right]^2\right\rbrace

El procedimiento se hace exactamente igual al hecho en el caso anterior, con eso se llega a que para minimizar J debemos igualar la diferencia entre la predicción de salida y el setpoint a cero:

 \dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)-w(k+d+1)=0 (13)

Si resolvemos la ecuación (10) para u(k) tenemos que:

\dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)-w(k+d+1)=0

u(k)=\dfrac{1}{zB(z^{-1})F(z^{-1})}\left[C(z^{-1})w(k+d+1)-G(z^{-1})y(k)\right] (14)

La ecuación (14) corresponde al control por mínima varianza, MVC, con seguimiento de referencias. En esta ecuación también observamos que ocurre los cancelamientos de ceros del proceso en lazo abierto, lo que nos indica que la estructura tiene problemas a la hora de tratar con sistemas de fase no mínima.

La siguiente figura representa el diagrama de bloques correspondiente al sistema de control de minina varianza con ley de control dada por la ecuación (14)

control por mínima varianza con seguimiento de referencia
control por mínima varianza con seguimiento de referencia

Control por Mínima Varianza Generalizado (GMV) Metodo I

 

En este caso además de incluir el error en la función costo, incluimos una ponderación sobre la acción de control. Así para minimizar la varianza utilizamos el siguiente indice:

J=E\{[y(k+d+1)-w(k+d+1)]^{2}+ru^2(k)\} (15)

Voy a mostrar como hacer el procedimiento para encontrar el mínimo de la ecuación (15), el procedimiento es el mismo que se puede aplicar en las dos estrategias anteriores. Se sabe que para encontrar el mínimo del indice con el objetivo de determinar la ley de control, debemos derivar J con relación a [/latex]u(k)[/latex] e igualarlo a cero:

\dfrac{\partial J}{\partial u(k)}=0

Vemos que en la expresión de J tenemos la ecuación y(k+d+1), la cual ya sabemos por la ecuación (9) que es:

y(k+d+1)=F(z^{-1})v(k+d+1)+\dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)

y que podríamos expresarla como:

C(z^{-1})y(k+d+1)=F(z^{-1})C(z^{-1})v(k+d+1)+G(z^{-1})y(k)+zB(z^{-1})F(z^{-1})u(k)

Sabemos que B, C, F y G son polinomios, habría que sustituir cada uno de los polinomios, para poder despejar únicamente el y(k+d+1). Para demostrar como obtener el mínimo únicamente voy a sustituir el C que acompaña la y(k+d+1) y el zBF que acompaña el u(k).

(1+c_1z^{-1}+...+c_{n_c}z^{-n_c})y(k+d+1)=F(z^{-1})C(z^{-1})v(k+d+1)+G(z^{-1})y(k)+z(b_1+b_2z^{-1}...+b_{n_b}z^{-n_b})(1+...+f_{d}z^{-d})u(k)

de la ecuación anterior podemos despejar y(k+d+1) para poderla sustituir en la función objetivo de la ecuación (15), recordemos que como queremos mínimizar con relación a u(k), si resolvemos el producto de todos los polinomios de la ecuación anterior el único coeficiente que va a acompañar a u(k) sería el primer termino del polinomio B o sea b_1. Así en términos muy generales la ecuación anterior queda más o menos así:

y(k+d+1)=-[C(z^{-1})-1]y(k+d+1)+F(z^{-1})C(z^{-1})v(k+d+1)+G(z^{-1})y(k)+b_2u(k)+[b_2u(k)-zB(z^{-1})F(z^{-1})u(k)] (16)

Ya ustedes pueden hacer todo el procedimiento en casa, lo importante notar aquí es que la ecuación (9) y (16) son equivalentes, es decir son las mismas ecuaciones expresadas de forma diferente, por lo pronto, si procedemos a minimizar el indice J sustituyendo la ecuación (9) tenemos que:

J=E\left\lbrace \left[[F(z^{-1})v(k+d+1)+\dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)-w(k+d+1)\right]^2+ru^2(k)\right\rbrace

Podemos cancelar de una vez el ruido blanco porque sabemos que su esperanza matemática es cero entonces tendriamos que:

J=E\{[y(k+d+1)-w(k+d+1)]^{2}+ru^2(k)\}=

E\left\lbrace \left[ \dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)-w(k+d+1)\right]^2+ru^2(k)\right\rbrace

y por la ecuación (16) sabemos que (este paso únicamente es para ver como hacer la derivada más fácilmente)

J=E\{[y(k+d+1)-w(k+d+1)]^{2}+ru^2(k)\}=

E\{[ -[C(z^{-1})-1]y(k+d+1)+F(z^{-1})C(z^{-1})v(k+d+1)+G(z^{-1})y(k)+b_2u(k)+[b_2u(k)-zB(z^{-1})F(z^{-1})u(k)-w(k+d+1)]^2+ru^2(k)\}

hallamos el mínimo de la ecuación anterior derivando J con relación a u(k) y recordando que la ecuación (16) y la (9) son iguales, solo que la (9) es más compacta, entonces expresamos el resultado de la forma de dicha ecuación:

\dfrac{\partial J}{\partial u} = 2b_2 \left[\dfrac{G(z^{-1})}{C(z^{-1})}y(k)+\dfrac{zB(z^{-1})F(z^{-1})}{C(z^{-1})} u(k)-w(k+d+1)\right]+2ru(k)=0 (17)

Si resolvemos la ecuación (17) para u(k) tenemos que:

u(k)=\dfrac{1}{zB(z^{-1})F(z^{-1})+\dfrac{r}{b_1} C(z^{-1})}\left[C(z^{-1})w(k+d+1)-G(z^{-1})y(k)\right] (18)

El siguiente es el diagrama de bloques del control por minima varianza generalizado o ponderado:

generalised minimum variance control
Generalised Minimum Variance control

Control por Mínima Varianza Generalizado (GMV) Metodo II

En este caso además de incluir el error en la función costo, incluimos una ponderación sobre la acción de control.

Esta estructura permite solucionar los problemas del controlador de Mínima Varianza estandar, como por ejemplo el controlar procesos de fase no mínima y seguir referencia sin error de offset. Para eso, se introduce en el sistema una Pseudo-Salida \phi(k+d) definido como:

\phi(k+d)=Py(k+d)+Qu(k)-Rw(k) (15)

Control por minima varianza generalizado
Control por mínima varianza generalizado

El cual puede interpretarse como la salida generalizada del sistema, ya que se involucra una accion feedforward, se filtra la acción de salida y la accion de control se aplica sobre el error del sistema.

El proyecto del controlador consiste en minimizar la salida del sistema generalizado

J=E\{[\phi(k+d)]^{2}\} (16)

Sabemos que el sistema Original viene dado por el modelo ARMAX

A(z^{-1})y(k)=z^{-d}B(z^{-1})u(k)+C(z^{-1})v(k)

Atrasando la señal [/latex]d[/latex] pasos para al frente y despejando la salida tenemos que:

y(k+d)=\dfrac{B}{A}u(k)+\dfrac{C}{A}v(k+d)

si sustituimos esta expresión en la ecuación (15):

\phi(k+d)=\dfrac{PA+AQ}{A} u(k+d)+\dfrac{PC}{A} v(k+d)-Rw(k)

De la misma forma hecha en MV, el controlador GMV utiliza la siguiente identidad polinomial:

PC=FA+z^{-d}G (16)

F(z^{-1})=1+f_1z^{-1}+f_2z^{-2}+...+f_{d}z^{-(d-1)}

G(z^{-1})=g_0+g_1z^{-1}+g_2z^{-2}+...+g_{n_a-1}z^{-n_g}

n_g=max(n_a-1,n_p+n_c-d)

Multiplicando el sistema original

Ay(k+d)=Bu(k)+Cv(k+d)

por F y reemplazando FA por la ecuación (16) tenemos:

PCy(k+d)=BFu(k)+Gy(k)+CFv(k+d)

Si se adiciona la expresión QCu(k)-CRw(k) a ambos lados de la ecuación de arriba:

PCy(k+d)+CQu(k)-CRw(k)=BFu(k)+Gy(k)+CFv(k+d)+CQu(k)-CRw(k)

C[Py(k+d)+Qu(k)-Rw(k)]=(BF+CQ)u(k)+Gy(k)-Rw(k)+Fv(k+d)

\phi(k+d)=\dfrac{1}{C}\left[ (BF+CQ)u(k)+Gy(k)-Rw(k)\right]+Fv(k+d) (17)

La expresión dentro de corchetes de (17) es compuesto por informaciones conocidas en el instante k, y el termino Fv(k+d) es compuesto por informaciones futuras no disponibles en el instante k y no correlacionados con ningún otro termino de la expresión.

Para minimizar la ecuación (16) se hace igualando la primera parcela de (17) a cero. Así la ley de control del GMV viene dado por:

(BF+CQ)u(k)+Gy(k)-Rw(k)=0

u(k)=\dfrac{CRw(k)-Gy(k)}{Bf+CQ}

EJEMPLOS

  1. Diseñar un control por mínima varianza, mínima varianza con referencia, con integrador y con seguimiento de referencia para el siguiente proceso inestable:

P(z)=\dfrac{2 z^{-1}}{1 - 2 z^{-1}}z^{-1}

Con una perturbación medible con la siguiente función de transferencia:

Q(z)=\dfrac{1 + 0.5 z^{-1}}{1 - 2 z^{-1}}

 

2. Hacer un controlador por mínima varianza generalizado para el siguiente proceso inestable tipo integrador:

P(z)=\dfrac{z^{-1} + 1.5 z^{-2}}{1 - 1.7 z^{-1} + 0.7 z^{-2}}z^{-1}

Con la siguiente perturbación medible:

Q(z)=\dfrac{1 - 0.9z^{-1}}{1 - 1.7 z^{-1} + 0.7 z^{-2}}

 

Los dos Ejemplos están resuletos en MATLAB, para poder ver los códigos simplemente basta con compartir el conténido de este post utilizando los botones de compartir que están a continuación o suscribiendose al canal de youtube. De esa forma apoyas este sitio web y permites que más personas se beneficien con esta información.

Para poder ejecutar los siguientes códigos, es necesario descargar, descomprimir y guardar la siguiente función llamada “PolFG.m” en la misma carpeta donde van a guardar los códigos o en la carpeta de MATLAB que se encuentra en “Mis Documentos”. Esta función permite hacer el calculo de los polinomios F y G.

Descargar funcion PolFG click aqui

Control Por Mínima Varianza

 

 

Control Por Mínima Varianza Sobre el Error Estandar Vs Incremental

 

 

Control Por Mínima Varianza con Seguimiento de Referencia Vs Incremental

 

 

Control Por Mínima Varianza Generalizado

 

Es todo por hoy amigos, si les gusto no olviden compartir. Hasta una próxima vez.

Si te sirvió de algo la información de la pagina, podrías invitarme a un café y ayudarme a seguir manteniendo en pie el sitio WEB. Solo cuesta $2USD y me ayudarías enormemente a seguir con mi trabajo. Muchas Gracias por tu visita.




Para Brasil

Se você está em Brasil pode utilizar o botão que está aqui em baixo, para realizar o convite em Reais.




Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Control por Mínima Varianza
minimum variance control
Cerrar menú