You are on page 1of 328

Analisis de sistemas

din
amicos lineales
Analisis de sistemas
din
amicos lineales

Oscar G. Duarte V.
Profesor asociado del Departamento de
Ingeniera Electrica y Electr
onica
A quienes trabajan por la
democratizaci
on del conocimiento
Contenido

Contenido IX

Lista de figuras XV

Lista de tablas XXI

Prefacio XXIII

1. Introducci on al modelamiento de sistemas 1


1.1. Conceptos preliminares . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2. Se
nales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3. Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.4. Construcci on de los modelos matem aticos . . . . . . . . . 3
1.1.5. Clasificacion de los modelos matem aticos . . . . . . . . . 4
1.1.6. Modelos matem aticos a utilizar . . . . . . . . . . . . . . . 8
1.2. Sistemas fsicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Grafos de enlaces de potencia
Bond Graphs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Elementos b asicos . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2. Causalidad . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.3. Obtenci on de las ecuaciones . . . . . . . . . . . . . . . . . 18
1.3.4. Procedimientos especficos . . . . . . . . . . . . . . . . . . 20

2. Preliminares matem aticos 21


2.1. Ecuaciones diferenciales y de diferencia . . . . . . . . . . . . . . . 21
2.1.1. Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . 21
2.1.2. Ecuaciones de diferencias finitas . . . . . . . . . . . . . . 22
2.1.3. Ecuaciones diferenciales y de diferencias lineales . . . . . 23
2.1.4. Metodos de solucion de E.D. lineales . . . . . . . . . . . . 24
2.2. Transformadas de Laplace y Z . . . . . . . . . . . . . . . . . . . 27
2.2.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.3. Parejas de transformadas . . . . . . . . . . . . . . . . . . 31
2.2.4. Utilizaci
on de la tabla de parejas de transformadas . . . . 32

ix
OSCAR G. DUARTE

2.2.5. Transformadas inversas por expansi on de fracciones par-


ciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3. Soluci
on de E.D. lineales mediante
transformadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3. Introducci on al an
alisis de sistemas din amicos lineales 43
3.1. Respuestas de estado cero y de entrada cero . . . . . . . . . . . . 43
3.1.1. Sistemas continuos . . . . . . . . . . . . . . . . . . . . . . 43
3.1.2. Sistemas discretos . . . . . . . . . . . . . . . . . . . . . . 45
3.2. Funciones de transferencia . . . . . . . . . . . . . . . . . . . . . . 47
3.3. Diagramas de bloques . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4. Diagramas de flujo de se
nal . . . . . . . . . . . . . . . . . . . . . 48
3.4.1. Regla de Mason . . . . . . . . . . . . . . . . . . . . . . . 52
3.5. Respuesta al impulso . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5.1. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.5.2. Caso continuo . . . . . . . . . . . . . . . . . . . . . . . . . 59

4. Sistemas de primer y segundo orden 65


4.1. Sistemas continuos de primer orden . . . . . . . . . . . . . . . . . 66
4.2. Sistemas discretos de primer orden . . . . . . . . . . . . . . . . . 68
4.3. Sistemas continuos de segundo orden . . . . . . . . . . . . . . . . 70
4.3.1. Region de estabilidad . . . . . . . . . . . . . . . . . . . . 71
4.3.2. Region de tiempo m aximo de asentamiento . . . . . . . . 73
4.3.3. Region de frecuencia m axima de oscilaci on . . . . . . . . 73
4.3.4. Region de sobrepico m aximo . . . . . . . . . . . . . . . . 75
4.3.5. Region de diseno . . . . . . . . . . . . . . . . . . . . . . . 76
4.4. Sistemas discretos de segundo orden . . . . . . . . . . . . . . . . 78
4.4.1. Region de estabilidad . . . . . . . . . . . . . . . . . . . . 80
4.4.2. Region de tiempo m aximo de asentamiento . . . . . . . . 80
4.4.3. Region de Frecuencia m axima de oscilaci on . . . . . . . . 82
4.4.4. Region de sobrepico m aximo . . . . . . . . . . . . . . . . 82
4.4.5. Region de diseno . . . . . . . . . . . . . . . . . . . . . . . 83
4.5. Efecto de los ceros. Sistemas de fase mnima . . . . . . . . . . . . 83
4.6. Polos dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

5. Sistemas realimentados simples 89


5.1. Tipo de sistema y error de
estado estacionario . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.1.1. Caso continuo . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.1.2. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.2. Estabilidad y criterios de estabilidad en sistemas continuos . . . 93
5.2.1. Arreglo y criterio de Routh-Hurwitz . . . . . . . . . . . . 94
5.2.2. Lugar geometrico de las races . . . . . . . . . . . . . . . 101
5.2.3. Diagramas y criterio de Bode . . . . . . . . . . . . . . . . 107
5.2.4. Diagrama y criterio de Nyquist . . . . . . . . . . . . . . . 112
5.3. Estabilidad y criterios de estabilidad en sistemas discretos . . . . 122

x
CONTENIDO

5.3.1. Transformacion bilineal . . . . . . . . . . . . . . . . . . . 122


5.3.2. Arreglo y criterio de Jury . . . . . . . . . . . . . . . . . . 124
5.3.3. Lugar geometrico de las races . . . . . . . . . . . . . . . 128
5.3.4. Diagramas y criterio de Bode . . . . . . . . . . . . . . . . 129
5.3.5. Diagrama y criterio de Nyquist . . . . . . . . . . . . . . . 133

6. Representaci on en variables de estado 137


6.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.2. Algunos resultados de a lgebra lineal . . . . . . . . . . . . . . . . 140
6.2.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . 140
6.2.2. Valores y vectores propios . . . . . . . . . . . . . . . . . . 144
6.2.3. Forma can onica de Jordan . . . . . . . . . . . . . . . . . . 146
6.2.4. Funciones de matrices cuadradas . . . . . . . . . . . . . . 154
6.3. Variables de estado . . . . . . . . . . . . . . . . . . . . . . . . . . 157
6.3.1. El concepto de estado . . . . . . . . . . . . . . . . . . . . 159
6.3.2. Representaci on de estado a partir de E.D. . . . . . . . . . 163
6.4. Sistemas continuos libres . . . . . . . . . . . . . . . . . . . . . . . 165
6.4.1. Retratos de fase . . . . . . . . . . . . . . . . . . . . . . . 172
6.4.2. Espacio de estado . . . . . . . . . . . . . . . . . . . . . . 176
6.4.3. Matriz de transici on de estado . . . . . . . . . . . . . . . 180
6.5. Sistemas discretos libres . . . . . . . . . . . . . . . . . . . . . . . 181
6.5.1. Matriz de transici on de estado . . . . . . . . . . . . . . . 183
6.6. Sistemas continuos excitados . . . . . . . . . . . . . . . . . . . . 183
6.6.1. Matriz de funciones de transferencia . . . . . . . . . . . . 184
6.6.2. Variables de estado en el tiempo . . . . . . . . . . . . . . 185
6.7. Sistemas discretos excitados . . . . . . . . . . . . . . . . . . . . . 185
6.7.1. Matriz de funciones de transferencia . . . . . . . . . . . . 186
6.7.2. Variables de estado en el tiempo . . . . . . . . . . . . . . 186
6.8. Introduccion al control por
variable de estado . . . . . . . . . . . . . . . . . . . . . . . . . . 187
6.8.1. Controlabilidad . . . . . . . . . . . . . . . . . . . . . . . . 190
6.8.2. Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . 191

7. Introducci on a los sistemas no lineales 195


7.1. Perdida de superposicici on y proporcionalidad . . . . . . . . . . . 197
7.2. M ultiples puntos de equilibrio . . . . . . . . . . . . . . . . . . . . 199
7.3. Estabilidad local . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

7.4. Orbitas peri
odicas no sinusoidales . . . . . . . . . . . . . . . . . . 201
7.5. Ciclos lmite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

7.6. Orbitas homoclnicas . . . . . . . . . . . . . . . . . . . . . . . . . 204
7.7. Bifurcaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
7.8. Comportamientos ca oticos . . . . . . . . . . . . . . . . . . . . . . 206

xi
OSCAR G. DUARTE

A. Demostraciones de las Transformadas de Laplace y Z 209


A.1. Propiedades de la Transformada
de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
A.1.1. Linealidad: . . . . . . . . . . . . . . . . . . . . . . . . . . 209
A.1.2. Diferenciacion: . . . . . . . . . . . . . . . . . . . . . . . . 210
A.1.3. Desplazamiento en la frecuencia: . . . . . . . . . . . . . . 211
A.1.4. Multiplicacion por t: . . . . . . . . . . . . . . . . . . . . . 212
A.1.5. Teorema de valor inicial: . . . . . . . . . . . . . . . . . . . 213
A.1.6. Teorema de valor final: . . . . . . . . . . . . . . . . . . . . 213
A.1.7. Convoluci on: . . . . . . . . . . . . . . . . . . . . . . . . . 214
A.1.8. Desplazamiento en el tiempo: . . . . . . . . . . . . . . . . 215
A.2. Propiedades de la transformada Z . . . . . . . . . . . . . . . . . 215
A.2.1. Linealidad: . . . . . . . . . . . . . . . . . . . . . . . . . . 216
A.2.2. Diferencia positiva: . . . . . . . . . . . . . . . . . . . . . . 216
A.2.3. Escalamiento en la frecuencia: . . . . . . . . . . . . . . . . 218
A.2.4. Multiplicacion por k: . . . . . . . . . . . . . . . . . . . . . 218
A.2.5. Teorema de valor inicial: . . . . . . . . . . . . . . . . . . . 219
A.2.6. Teorema de valor final: . . . . . . . . . . . . . . . . . . . . 219
A.2.7. Convoluci on: . . . . . . . . . . . . . . . . . . . . . . . . . 220
A.3. Parejas de transformadas de Laplace . . . . . . . . . . . . . . . . 221
A.3.1. Escalon unitario . . . . . . . . . . . . . . . . . . . . . . . 221
A.3.2. Exponenciales . . . . . . . . . . . . . . . . . . . . . . . . . 221
A.3.3. Sinusoides . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
A.3.4. Sinusoides amortiguadas . . . . . . . . . . . . . . . . . . . 222
A.3.5. Rampas, par abolas y monomios de t . . . . . . . . . . . . 222
A.3.6. Exponenciales por tn . . . . . . . . . . . . . . . . . . . . . 223
A.3.7. Sinusoides por t . . . . . . . . . . . . . . . . . . . . . . . . 223
A.3.8. Sinusoides amortiguadas multiplicadas por t . . . . . . . . 223
A.4. Parejas de transformadas Z . . . . . . . . . . . . . . . . . . . . . 223
A.4.1. Escalon unitario . . . . . . . . . . . . . . . . . . . . . . . 223
A.4.2. Series geometricas . . . . . . . . . . . . . . . . . . . . . . 224
A.4.3. Sinusoides . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
A.4.4. Sinusoides amortiguadas . . . . . . . . . . . . . . . . . . . 226
A.4.5. Rampas, y monomios de k . . . . . . . . . . . . . . . . . . 226
A.4.6. Series geometricas por k n . . . . . . . . . . . . . . . . . . 226
A.4.7. Sinusoides por k . . . . . . . . . . . . . . . . . . . . . . . 227
A.4.8. Sinusoides amortiguadas por k . . . . . . . . . . . . . . . 228

B. Diagramas de Bode para sistemas continuos 229


B.1. Definici
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
B.2. Construcci
on de los diagramas de Bode . . . . . . . . . . . . . . 230

C. Carta de Nichols 235


C.1. M -circunferencias . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
C.2. N -circunferencias . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
C.3. Carta de Nichols . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

xii
CONTENIDO

D. Apuntes de algebra lineal 239


D.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 239
D.1.1. Estructuras algebr aicas b
asicas . . . . . . . . . . . . . . . 239
D.1.2. Definici
on de espacio vectorial . . . . . . . . . . . . . . . 241
D.1.3. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
D.1.4. Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . 245
D.2. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . 247
D.2.1. Transformaciones y cambios de base . . . . . . . . . . . . 248
D.3. Normas de vectores y matrices . . . . . . . . . . . . . . . . . . . 250
D.4. Sistemas de ecuaciones algebr aicas . . . . . . . . . . . . . . . . . 255
D.5. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . 261
D.5.1. Valores propios diferentes . . . . . . . . . . . . . . . . . . 264
D.5.2. Valores propios repetidos . . . . . . . . . . . . . . . . . . 267
D.5.3. Obtencion de vectores propios generalizados . . . . . . . . 273
D.6. Forma can onica de Jordan . . . . . . . . . . . . . . . . . . . . . . 278
D.7. Forma can onica real de Jordan . . . . . . . . . . . . . . . . . . . 280
D.7.1. Bloques de Jordan de tama no 1 . . . . . . . . . . . . . . . 280
D.7.2. Bloques de Jordan de tama no mayor que 1 . . . . . . . . 282
D.8. Funciones de matrices cuadradas . . . . . . . . . . . . . . . . . . 282
D.8.1. Polinomios de matrices . . . . . . . . . . . . . . . . . . . 282
D.8.2. Funciones como series de potencias . . . . . . . . . . . . . 285
D.8.3. Definici
on de funciones mediante polinomios . . . . . . . . 287

Bibliografa 295

Indice analtico 297

xiii
OSCAR G. DUARTE

xiv
Lista de figuras

1.1. Sistema y Se nales . . . . . . . . . . . . . . . . . . . . . . . . . . . 2


1.2. Sistemas y Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Construcci on de Modelos . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Clasificaci
on de los Modelos Matem aticos de Sistemas . . . . . . 5
1.5. Sistema Din amico Continuo . . . . . . . . . . . . . . . . . . . . . 8
1.6. Sistema Din amico Discreto . . . . . . . . . . . . . . . . . . . . . 8
1.7. Elementos de un puerto para grafos de enlaces de potencia . . . . 13
1.8. Elementos de dos puertos para grafos de enlaces de potencia . . . 13
1.9. Elementos multipuerto para grafos de enlaces de potencia . . . . 14
1.10. Grafos de enlace de potencia. Diagrama del ejemplo 1.1 . . . . . 15
1.11. Grafos de enlace de potencia. Esquema del ejemplo 1.1 . . . . . . 15
1.12. Grafo de enlaces de potencia del ejemplo 1.1 . . . . . . . . . . . . 16
1.13. Enlaces con marcas de causalidad . . . . . . . . . . . . . . . . . . 17
1.14. Grafo causal de enlaces de potencia del ejemplo 1.1 . . . . . . . . 19

2.1. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . 28


2.2. Transformada Z . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3. Funciones contnuas seg
un la ubicaci
on de sus polos en el plano s 34
2.4. Funciones discretas seg
un la ubicaci
on de sus polos en el plano s 34

3.1. Sistema Din amico Continuo . . . . . . . . . . . . . . . . . . . . . 43


3.2. Sistema Din amico Discreto . . . . . . . . . . . . . . . . . . . . . 45
3.3. Diagrama de bloques mnimo . . . . . . . . . . . . . . . . . . . . 47
3.4. Diagrama de flujo de se nal mnimo . . . . . . . . . . . . . . . . . 47
3.5. Equivalencias de los Diagramas de Bloques . . . . . . . . . . . . 49
3.6. Diagrama de Bloques del ejemplo 3.1 . . . . . . . . . . . . . . . . 50
3.7. Solucion del ejemplo 3.1 . . . . . . . . . . . . . . . . . . . . . . . 51
3.8. Equivalencias de los Diagramas de de Flujo de Se nal . . . . . . . 52
3.9. Definiciones de Diagramas de Flujo de Se nal . . . . . . . . . . . . 53
3.10. Diagrama de Flujo de Se nal del ejemplo 3.3 . . . . . . . . . . . . 54
3.11. Funcion Impulso Unitario discreto . . . . . . . . . . . . . . . . . 56
3.12. Sistema Din amico Discreto estimulado con el impulso unitario . . 56
3.13. Relacion entre la respuesta al impulso y la funci on de transferen-
cia. Caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

xv
OSCAR G. DUARTE

3.14. Respuesta al Impulso discreto . . . . . . . . . . . . . . . . . . . . 58


3.15. Descomposici on de una senal discreta . . . . . . . . . . . . . . . 60
3.16. Funcion d . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.17. Funcion Impulso Unitario Continuo . . . . . . . . . . . . . . . . . 61

3.18. Area bajo la curva f (t)d . . . . . . . . . . . . . . . . . . . . . . 62
3.19. Sistema Din amico Contnuo estimulado con el impulso unitario . 62
3.20. Relacion entre la respuesta al impulso y la funcion de transferen-
cia. Caso contnuo . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4.1. Respuesta al paso de un sistema continuo de primer orden . . . . 66


4.2. Regiones de estabilidad e inestabilidad para un sistema continuo
de primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.3. Respuesta al paso de un sistema continuo de primer orden, polo
negativo en a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.4. Regi on de tiempo de asentamiento m aximo para un sistema con-
tinuo de primer orden . . . . . . . . . . . . . . . . . . . . . . . . 68
4.5. Respuesta al paso de un sistema discreto de primer orden . . . . 69
4.6. Regiones de estabilidad e inestabilidad para un sistema discreto
de primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.7. Regiones de tiempo de asentamiento m aximo para un sistema
discreto de primer orden . . . . . . . . . . . . . . . . . . . . . . . 70
4.8. Ubicaci on de los polos de un sistema continuo de segundo orden,
con polos complejos . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.9. Respuesta al paso de un sistema continuo de segundo orden, wn = 1 72
4.10. Respuesta al paso de un sistema continuo de segundo orden, = 0.5 72
4.11. Respuesta al paso de un sistema continuo de segundo orden . . . 72
4.12. Region de Estabilidad para un sistema continuo de segundo orden 73
4.13. Region de Tiempo m aximo de asentamiento para un sistema con-
tinuo de segundo orden . . . . . . . . . . . . . . . . . . . . . . . 74
4.14. Region de Frecuencia m axima de oscilaci on para un sistema con-
tinuo de segundo orden . . . . . . . . . . . . . . . . . . . . . . . 74
4.15. Sobrepico en funci on de . . . . . . . . . . . . . . . . . . . . . . 76
4.16. Sobrepico en funci on de . . . . . . . . . . . . . . . . . . . . . . 77
4.17. Region de Sobrepico m aximo para un sistema continuo de segun-
do orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.18. Region de Diseno para un sistema continuo de segundo orden . . 78
4.19. Ubicacion de los polos de un sistema discreto de segundo orden,
con polos complejos . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.20. Respuesta al paso de un sistema discreto de segundo orden, a =
1.2, b = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.21. Respuesta al paso de un sistema discreto de segundo orden, a = 3,
b = 0.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.22. Region de Estabilidad para un sistema discreto de segundo orden 81
4.23. Region de tiempo de asentamiento m aximo para un sistema dis-
creto de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . 82

xvi
LISTA DE FIGURAS

4.24. Region de Frecuencia maxima de oscilaci on para un sistema dis-


creto de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . 83
4.25. Curvas de Amortiguamiento fijo para un sistema discreto de se-
gundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.26. Region de Amortiguamiento mnimo para un sistema discreto de
segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.27. Region de Dise
no para un sistema discreto de segundo orden . . 85
4.28. Respuesta al paso de un sistema continuo de segundo orden, con
cero real b = = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.29. Sistema continuo de orden 4 con polos dominantes . . . . . . . . 87

5.1. Sistema continuo retroalimentado simple . . . . . . . . . . . . . . 89


5.2. Sistema discreto retroalimentado simple . . . . . . . . . . . . . . 90
5.3. Arreglo de Routh. Primeras dos lneas . . . . . . . . . . . . . . . 95
5.4. Arreglo de Routh. Dos lneas genericas . . . . . . . . . . . . . . . 95
5.5. Arreglo de Routh del ejemplo 5.4. Primeras dos lneas . . . . . . 96
5.6. Arreglo de Routh del ejemplo 5.4 . . . . . . . . . . . . . . . . . . 96
5.7. Arreglo de Routh del ejemplo 5.5 . . . . . . . . . . . . . . . . . . 97
5.8. Arreglo de Routh del ejemplo 5.6 . . . . . . . . . . . . . . . . . . 98
5.9. Arreglo de Routh del ejemplo 5.7 . . . . . . . . . . . . . . . . . . 99
5.10. Arreglo de Routh con cero en la primera columna. Arreglo in-
completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.11. Arreglo de Routh con cero en la primera columna. Aproximaci on 100
5.12. Arreglo de Routh con cero en la primera columna. Arreglo completo100
5.13. Arreglo de Routh con terminaci on prematura. Arreglo incompleto 100
5.14. Arreglo de Routh con terminaci on prematura. Arreglo completo . 101
5.15. Root-ocus (en rojo) y root-locus complementario (en azul) del
ejemplo 5.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.16. Diagramas de Root Locus para el ejemplo 5.10 . . . . . . . . . . 104
5.17. Root-locus (en rojo) y root-locus complementario (en azul) del
ejemplo 5.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.18. Relaci
on entre el root-locus y los diagramas de Bode . . . . . . . 110
5.19. Diagramas de Bode para un ejemplo . . . . . . . . . . . . . . . . 111
5.20. Determinacion grafica del valor de una funci on de transferencia
racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.21. Plano s y Plano F . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.22. Plano s y Plano F en una trayectoria cerrada que no encierra el
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.23. Plano s y Plano F en una trayectoria cerrada que encierra el cero 116
5.24. Plano s y Plano F en una trayectoria cerrada que no encierra el
polo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.25. Plano s y Plano F en una trayectoria cerrada que encierra el polo 117
5.26. Trayectoria de Nyquist para el caso general . . . . . . . . . . . . 118
5.27. Trayectoria de Nyquist con polos en el eje imaginario . . . . . . . 118
5.28. Diagrama de Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.29. Diagrama de Nyquist para el ejemplo 5.13 . . . . . . . . . . . . . 121

xvii
OSCAR G. DUARTE

5.30. Transformaci on Bilineal . . . . . . . . . . . . . . . . . . . . . . . 123


5.31. Arreglo de Routh para el sistema transformado . . . . . . . . . . 124
5.32. Arreglo de Jury. Primeras dos lneas . . . . . . . . . . . . . . . . 125
5.33. Arreglo de Jury del ejemplo 5.15. Primeras dos lneas . . . . . . 126
5.34. Arreglo de Jury del ejemplo 5.15. Primeras cuatro lneas . . . . . 126
5.35. Arreglo de Jury del ejemplo 5.15. Arreglo completo . . . . . . . . 126
5.36. root-locus (en rojo) y root-locus complementario (en azul) para
el ejemplo 5.18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.37. Relacion entre el root-locus y los diagramas de Bode para el caso
discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.38. Diagramas de Bode para el ejemplo 5.19 . . . . . . . . . . . . . . 132
5.39. Trayectoria de Nyquist para el caso discreto general . . . . . . . 133
5.40. Trayectoria de Nyquist para el caso discreto con polos en la cir-
cunferencia unitaria . . . . . . . . . . . . . . . . . . . . . . . . . 134
5.41. Diagrama de Nyquist para el ejemplo 5.20 . . . . . . . . . . . . . 136

6.1. Sistema Continuo de m ultiples entradas y m ultiples salidas . . . 138


6.2. Sistema Discreto de m ultiples entradas y m ultiples salidas . . . . 138
6.3. Cambio de base de un Vector . . . . . . . . . . . . . . . . . . . . 143
6.4. Diagrama de Matthew vacio simple . . . . . . . . . . . . . . . . . 151
6.5. Diagrama de Bloques de un sistema contnuo en representaci on
de espacio de Estado . . . . . . . . . . . . . . . . . . . . . . . . . 158
6.6. Diagrama de Bloques de un sistema discreto en representaci on de
espacio de Estado . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
6.7. Circuito RLC serie . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.8. Motor DC controlado por campo . . . . . . . . . . . . . . . . . . 161
6.9. Construcci on de una trayectoria en el Plano de Fase . . . . . . . 173
6.10. Retrato de Fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
6.11. Retratos de Fase Estables tpicos . . . . . . . . . . . . . . . . . . 174
6.12. Retratos de Fase Inestables tpicos . . . . . . . . . . . . . . . . . 175
6.13. Ejemplos Retratos de Fase . . . . . . . . . . . . . . . . . . . . . . 177
6.14. Retrato de Fase de un Ejemplo . . . . . . . . . . . . . . . . . . . 180
6.15. Retrato de Fase de un Ejemplo en la base de los vectores propios 181
6.16. Realimentacion por Variable de Estado . . . . . . . . . . . . . . . 188
6.17. Realimentacion por Variable de Estado de un sistema contnuo . 188
6.18. Realimentacion por Variable de Estado de un sistema discreto . . 189
6.19. Circuito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
6.20. Realimentacion por Variable de Estado con Observador . . . . . 192

7.1. No Linealidades Est aticas mas frecuentes . . . . . . . . . . . . . 196


7.2. Sistema No Lineal con dos entradas escal on . . . . . . . . . . . . 198
7.3. Sistema No Lineal con una entrada escal on y una sinusoide . . . 198
7.4. Diagrama del pendulo simple . . . . . . . . . . . . . . . . . . . . 200
7.5. Retrato de Fase del pendulo simple con a = b = 1 . . . . . . . . . 200
7.6. Retrato de Fase del pendulo simple alrededor de un punto de
equilibrio del tipo sif
on . . . . . . . . . . . . . . . . . . . . . . . . 202

xviii
LISTA DE FIGURAS

7.7. Retrato de Fase del pendulo simple alrededor de un punto de


equilibrio del tipo punto de silla . . . . . . . . . . . . . . . . . . . 202
7.8. Retrato de Fase del Sistema de Lotka-Volterra . . . . . . . . . . 203
7.9. Retrato de Fase del Oscilador de Van der Pol con = 1 . . . . . 204
7.10. Retrato de Fase del Oscilador de Duffing con k = 0 . . . . . . . . 205
7.11. Funcion discreta que origina un sistema ca otico . . . . . . . . . . 207
7.12. Respuesta de un sistema discreto ca otico a tres entradas diferen-
tes: xa = 0.445 + 1 1011 (negro), xb = 0.445 + 3 1011 (azul)
y xc = 0.445 + 5 1011 (rojo) . . . . . . . . . . . . . . . . . . . . 207

B.1. Resumen de los diagramas de Bode aproximados para sistemas


continuos de primer orden (los cuatro primeros casos son exactos) 231
B.2. Resumen de los diagramas de Bode aproximados para sistemas
continuos de segundo orden . . . . . . . . . . . . . . . . . . . . . 232
B.3. Diagrama de Bode de magnitud para un sistema continuo de
segundo orden con distintos factores de amortiguamiento . . . . . 233
B.4. Diagrama de Bode de fase para un sistema continuo de segundo
orden con distintos factores de amortiguamiento . . . . . . . . . 234

C.1. Diagrama de Nichols en coordenadas rectangulares . . . . . . . . 238


C.2. Diagrama de Nichols en coordenadas polares . . . . . . . . . . . 238

D.1. Cambio de base de un Vector . . . . . . . . . . . . . . . . . . . . 247


D.2. Rotacion de 90o en sentido horario . . . . . . . . . . . . . . . . . 249
D.3. Circunferencias Unitarias para diferentes normas . . . . . . . . . 252
D.4. Norma de una matriz basada en k k1 . . . . . . . . . . . . . . . 254
D.5. Norma de una matriz basada en k k2 . . . . . . . . . . . . . . . 255
D.6. Norma de una matriz basada en k k . . . . . . . . . . . . . . . 255
D.7. Codominio y rango de un operador lineal . . . . . . . . . . . . . 257
D.8. Codominio y Rango del Operador Lineal del ejemplo D.27 . . . . 258
D.9. Codominio y Rango del Operador Lineal del ejemplo D.27 . . . . 258
D.10.Codominio, espacio nulo, rango y nulidad de un operador lineal . 259
D.11.Espacios Nulos de (A I)i y cadenas de vectores propios gene-
ralizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
D.12.Espacios Nulos del ejemplo . . . . . . . . . . . . . . . . . . . . . 272
D.13.Diagrama de Matthew vaco . . . . . . . . . . . . . . . . . . . . . 273
D.14.Diagrama de Matthew vaco simple . . . . . . . . . . . . . . . . . 274
D.15.Diagrama de Matthew lleno . . . . . . . . . . . . . . . . . . . . . 274

xix
OSCAR G. DUARTE

xx
Lista de tablas

1.2. Variables y par ametros de sistemas fsicos . . . . . . . . . . . . . 10


1.4. Variables Fsicas empleadas en los grafos de enlaces de potencia . 12

2.1. Comparaci on entre ecuaciones diferenciales y de diferencia . . . . 23


2.2. Metodos elementales de soluci on de Ecuaciones diferenciales y de
diferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3. Comparaci on de las definiciones de las transformadas de Laplace
yZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4. Propiedades de las transformadas de Laplace y Z . . . . . . . . 31
2.5. Tabla de parejas de transformadas elementales . . . . . . . . . . 32
2.6. Tabla de parejas de transformadas elementales multiplicadas por
el tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.7. Ubicacion de los polos en los planos complejos y funciones en el
tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

5.1. Error de estado estacionario para sistemas continuos . . . . . . . 92


5.2. Error de estado estacionario para sistemas discretos . . . . . . . 93
5.3. Polos de la funci
on de transferencia del ejemplo 5.8 . . . . . . . 102
5.5. Reglas de construcci on para el root-locus y el root-locus comple-
mentario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.6. Transformaci on bilineal de algunos puntos sobre la circunferencia
unitaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

xxi
OSCAR G. DUARTE

xxii
Prefacio

Este texto de an alisis de sistemas din amicos se ha preparado como ma-


terial de apoyo para el curso de igual nombre impartido en la Facultad de
Ingeniera de la Universidad Nacional de Colombia. Existe una versi on elec-
tr
onica en la p agina del proyecto Universidad Virtual de la misma universidad
(http://virtual.unal.edu.co) que est a acompa nada de aplicaciones de soft-
ware, enlaces y documentaci on utiles para la aprehensi on de los conceptos aqui
presentados.
Se ha supuesto un lector con conocimentos mnimos de ecuaciones diferen-
ciales y cuyo interes en el tema este cercano al control de sistemas din amicos. En
general, es adecuado como gua para cursos de pregrado en ingeniera, aunque
el apendice D tiene un nivel m as avanzado.
El cuerpo principal del texto se organiza asi: El captulo 1 delimita el tipo
de sistemas que se estudiar an en el texto y presenta las ideas b asicas sobre
c
omo obtener las ecuaciones matem aticas que describen su comportamiento.
Esta tarea (la obtenci on de las ecuaciones) es fundamental para el an alisis y
control de sistemas, y amerita un estudio mucho m as profundo que el destinado
en este captulo introductorio; en los restantes captulos se asume que ya se
cuenta con las ecuaciones de los sistemas a estudiar.
Los fundamentos matem aticos para solucionar dichas ecuaciones se resumen
en el captulo 2; especial enfasis se hace en los metodos de las transformadas de
Laplace y Z. Los herramientas m as usuales de analisis de sistemas se presentan
en el captulo 3 y el captulo 4 se dedica al estudio de los sistemas de primer
y segundo, que resultan ser fundamentales pues presentan los comportamientos
b
asicos que pueden aparecer en cualquier sistema din amico.
La realimentaci on, estrategia fundamental del control de sistemas din amicos,
se explora en el captulo 5. Un enfoque diferente al an alisis de sistemas, el espacio
de estado, se aborda en el captulo 6. Finalmente, el captulo 7 presenta algunos
comportamientos que pueden aparecen en los sistemas no lineales, y que no
pueden existir en los sistemas lineales.
Adicionalmente, se han incluido cuatro apendices: El apendice A contiene las

xxiii
OSCAR G. DUARTE

demostraciones de las propiedades y parejas de las transformadas de Laplace


y Z que se enuncian en el captulo 2 y se emplean a lo largo del texto. Los
apendices B y C estan dedicados a los diagramas de Bode y a la carta de Nichols,
respectivamente. El apendice D es una presentaci on rigurosa de los conceptos
de algebra lineal que se enuncian en el captulo 6.
Este texto no habra sido posible sin la colaboraci on directa e indirecta de
muchas personas. Quiero agradecer en primer lugar a los alumnos de los cursos
de pregrado y posgrado de an alisis de sistemas din
amicos cuyas observaciones y
sugerencias han sido extremadamente valiosas; ellos han sido adem as la principal
motivaci on de este trabajo; a los profesores Hernando Diaz y Estrella Parra
por sus aportes y permanente estmulo. Agradezco tambien a la Universidad
Nacional de Colombia por su apoyo en la publicaci on del texto; a la comunidad
de desarrolladores y usuarios del programa LATEX sin cuyo aporte este y muchos
libros seran quimeras; a Alfredo Duplat Ayala por sus comentarios en el campo
editorial; por ultimo, pero no menos importante, a Tatiana y a Laura por su
carino y paciencia.

Oscar G. Duarte

xxiv
Captulo 1

Introduccion al modelamiento de
sistemas

1.1. Conceptos preliminares


Iniciamos el estudio del analisis de sistemas din
amicos lineales con la pre-
sentaci
on de los siguientes conceptos basicos:

1.1.1. Sistemas
No es f
acil encontrar una definici on exacta de sistema, quiz as porque el ter-
mino es utilizado en muy diversos contextos. En un sentido amplio, podemos
entender por sistema aquello que se va a estudiar. Tal definici on es extrema-
damente vaga pero pone de manifiesto la necesidad de delimitar el objeto de
estudio, de imponerle unas fronteras precisas. Dividimos el universo en dos par-
tes: El sistema y todo lo dem as; esto u
ltimo lo denominamos el Entorno del
Sistema.
Podemos imaginar sistemas de tipos muy diferentes de acuerdo a que es lo
que se va a estudiar; si se desea conocer c omo se nutre un determinado animal
estariamos definiendo un sistema biol ogico, mientras que si lo que se quiere es
conocer la variacion de la poblaci on en una determinada ciudad a traves de los
a
nos definiriamos un sistema sociol ogico. Pueden plantearse tambien sistemas
abstractos, como por ejemplo el conjunto de los n umero enteros o las estrategias
de comunicaci on lingusticas.
El proposito de este curso no es, por supuesto, abordar cualquier tipo de
sistema, sino que se limita al estudio de un tipo especfico de sistemas que suelen
denominarse en el contexto de la fsica, la matem atica y la ingeniera Sistemas

1
OSCAR G. DUARTE

Din
amicos Lineales. Para precisar que tipo de sistemas son estos requerimos
primero de la presentaci
on de los conceptos dese
nales y modelos.

1.1.2. Se
nales
Las senales son el medio a traves del cual el sistema interact
ua con su entorno.
En la figura 1.1 se visualiza esta interacci on: El sistema, esta representado por
un rectangulo, lo que da a entender que tiene sus fronteras definidas en forma
precisa; este sistema recibe del entorno unas se nales de entrada, representadas
por flechas, y entrega a su entorno unas se nales de salida, tambien representadas
por flechas.
En las aplicaciones tpicas de ingeniera, las se nales de entrada y salida son
variables (fsicas o abstractas) que camban en el tiempo, como por ejemplo,
fuerzas, velocidades, temperaturas, etc.

Entradas Sistema Salidas

Figura 1.1: Sistema y Se


nales

Cuando un sistema recibe una u nica se


nal de entrada y produce una u nica
se
nal de salida, se dice que es un sistema SISO (del ingles Single Input Single
Output), mientras que si recibe varias entradas y produce varias salidas, se dice
que es un sistema MIMO (del ingles Multiple Input Multiple Output). Tambien
existen las denominaciones MISO para sistemas de varias entradas y una s ola
salida, y SIMO para el caso con una entrada y varias salidas, este ulimo poco
frecuente.

1.1.3. Modelos
Para entender un sistema debemos hacer una representaci on abstracta de el;
tal representaci
on es el modelo del sistema. La figura 1.2 visualiza la diferencia
que existe entre sistema y modelo. El sistema existe, y de el hacemos una o
varias abstracciones para poder comprenderlo. Las representaciones abstractas
pueden ser de muchos tipos (ecuaciones, graficas, etc.) algunos de los cuales son:

Modelos mentales: son representaciones presentes en nuestro cerebro; tene-


mos, por ejemplo, una representacion mental de nuestro cuerpo que nos
permite controlarlo para caminar, saltar, etc.

Modelos ling usticos: son representaciones con palabras; este parrafo, por
ejemplo intenta explicar con palabras que es el sistema denominado modelo
ling
ustico.

2
1.1. CONCEPTOS PRELIMINARES

Modelos graficos: en ocasiones empleamos tablas y/o gr aficas como modelos;


los cat
alogos de productos de ingeniera suelen contener muchos ejemplos
de este tipo de modelo.
Modelos matem aticos: estos modelos son ampliamente usados en a reas como
la fsica, la ingeniera, la economa, etc.; generalmente se trata de ecua-
ciones que muestra las relaciones existentes entre las variables que afectan
un sistema;
Modelos de software: en ocasiones es posible desarrollar programas de com-
putador que representen a sistemas complejos.

Modelo1

Modelo4 Sistema Modelo2

Modelo3

Figura 1.2: Sistemas y Modelos

Es importante destacar que un mismo sistema puede ser representado por


muchos modelos diferentes. Este hecho plantea el interrogante cu al es el mejor
modelo de un sistema dado?
No es sensato aspirar a obtener un modelo perfecto de un sistema real, porque
existir
an siempre fen
omenos que se escapen a nuestra capacidad de abstracci on,
por lo tanto, la respuesta debe darse en terminos de la utilizaci on del modelo;
el mejor modelo es aquel que sea u til para nuestros propositos particulares, y
dentro de todos los modelos u tiles, preferiremos el mas sencillo. La utilidad del
modelo tambien determinar a el grado de sofisticaci
on que se requiera.

1.1.4. Construcci
on de los modelos matem
aticos
En general, la construcci
on de modelos se basa en la observaci
on del sistema.
Existen algunos caminos basicos para obtener un modelo (ver figura 1.3):
Modelamiento de sistemas: Esta estrategia consiste en descomponer (abs-
tractamente) el sistema en subsistemas m
as simples, cuyos modelos sean

3
OSCAR G. DUARTE

factibles de obtener gracias a la experiencia previa. Una vez obtenidos


estos submodelos, se buscan las relaciones que existen entre ellos, para
interconectarlos y obtener el modelo del sistema original.
Esta estrategia busca una descripcion desde adentro del sistema, gene-
ralmente basada en el conocimiento de las leyes que rigen los sistemas
simples. El modelo asi obtenido se conoce como modelo de caja blanca o
modelo interno.
Identificacion de Sistemas: Esta estrategia consiste en acumular un n umero
suficiente de observaciones sobre las se
nales de entrada y salida del sistema,
con el proposito de emplearlas para construir un modelo del mismo. No se
centra en lo que existe al interior del sistema, sino en su comportamiento
respecto al entorno. El modelo asi obtenido se conoce como modelo de caja
negra o modelo entrada - salida.
Estrategia hbrida: Existe una tercera estrategia, que realmente es una com-
binaci
on de las anteriores: Al igual que en la estrategia de modelamiento,
se emplea el conocimiento que este a la mano acerca de la estructuta in-
terna del sistema y las leyes que rigen su comportamiento, y se emplean
observaciones para determinar la informaci on que haga falta. El modelo
asi obtenido se conoce como modelo de caja gris.

Modelamiento Identificaci
on
de Sistemas de Sistemas
@
? R@ ?
Modelos Modelos Modelos
de caja de caja de caja
blanca gris negra

Figura 1.3: Construcci


on de Modelos

1.1.5. Clasificaci
on de los modelos matem
aticos
En el ambito de este texto se emplear an modelos de tipo matem atico, es de-
cir, nuestros modelos ser an ecuaciones y el an
alisis de los sistemas asi modelados
estara ligado a la soluci
on de dichas ecuaciones. Las siguientes definiciones ayu-
daran a puntualizar que tipo de modelos matem aticos son los que se pretenden
estudiar, segun se observa en la figura 1.4.
Modelos causales y no causales: El estado de un sistema causal depende
s
olo de las condiciones presentes y pasadas, pero no de las futuras, es
decir hay una relacion de causalidad. Los sistemas fsicos son causales,
pero se pueden concebir modelos de ciertos sistemas que no lo sean. En el
texto se estudiar
an s
olo sistemas causales

4
1.1. CONCEPTOS PRELIMINARES

Modelos
Matem
aticos

? ?
No Causales Causales

? ?
Est
aticos Din
amicos

? ?
Determi-
Estoc
asticos
nsticos

? ?
Parametros Par
ametros
Distribuidos Concentrados

? ?
No Lineales Lineales

? ?
Variantes Invariantes
en tiempo en tiempo

? ?
Discretos Continuos

Figura 1.4: Clasificaci


on de los Modelos Matem
aticos de Sistemas

5
OSCAR G. DUARTE

Modelos est
aticos y din amicos: El estado de un sistema est atico depende
s
olo de las condiciones presentes y no de las pasadas. En contraposici on,
el estado de un sistema din amico depende de lo que haya sucedido en el
pasado, generalmente debido a que en el sistema hay alg un tipo de alma-
cenamiento de energa. Los sistemas dinamicos tambien se conocen como
sistemas con memoria. Los modelos de sistemas din amicos son ecuacio-
nes diferenciales o de diferencia. En el texto se estudiar
an solo sistemas
dinamicos.

Modelos estoc asticos y determinsticos: En ocasiones se sabe que existen


variables que afectan el sistema, pero no es posible predecir el valor que
estas puedan tomar; una de las alternativas para hacer frente a estos casos
consiste en considerar que esa variable es aleatoria y buscar tecnicas basa-
das en la teora de probabilidades para analizar el sistema. Un modelo que
incluya variables aleatorias es un modelo estoc astico, mientras que mode-
los exentos de aleatoridad se denominan modelos determinsticos. Estos
u
ltimos seran los que se estudien en este texto.

Modelos de par ametros concentrados y distribuidos: La mayora de los


fen
omenos fsicos ocurren en una regi on del espacio, pero en muchas oca-
siones es posible representar ese fen
omeno como algo puntual; por ejemplo,
para estudiar la atracci
on entre el sol y la tierra es posible representar toda
la masa de cada uno de esos cuerpos concentrada en un u nico punto (su
centro de gravedad).
Sin embargo, otros fen omenos como la transmisi on de ondas electromag-
neticas o las olas en el mar requieren una representaci on que considere
que est
a sucediendo en cada punto del espacio, en este caso se necesita
un modelo de par ametros distribuidos en el espacio, en contraposici
on de
los modelos de par ametros concentrados. Los modelos de par ametros dis-
tribuidos implican ecuaci ones diferenciales con derivadas parciales y no
seran estudiados en este texto; por su parte los modelos de par ametros
concentrados, requieren ecuaciones con derivadas o ecuaciones de diferen-
cia ordinarias.

Modelos lineales y no lineales: La linealidad es una propiedad que pueden


tener o no las funciones; realmente se trata de dos propiedades agrupadas
bajo un mismo nombre. Dada una funci on y = f (x) est
as propiedades son:

1. Proporcionalidad: Es igual calcular la funci


on en un argumento am-
plificado por un factor que calcularla sobre el argumento y luego
amplificar el resultado por ese mismo factor:

f (x) = f (x)

En terminos practicos, esto significa que en los modelos lineales al


duplicar las entradas se duplican las salidas.

6
1.1. CONCEPTOS PRELIMINARES

2. Superposici
on: Es igual calcular la funci
on en la suma de dos argu-
mentos que calcularla por separado en cada uno de los argumentos y
sumar los resultados.

f (x1 + x2 ) = f (x1 ) + f (x2 )

En terminos practicos, esto significa que en los modelos lineales de


varias entradas, las salidas pueden conocerse calculando por separado
el efecto de cada entrada y sumando los resultados.

En este texto se estudiaran los modelos lineales, y tan s


olo en el captulo
7 se mencionaran algunos comportamientos especiales que pueden ocurrir
en los sistemas no lineales.

Modelos variantes e invariantes en el tiempo: Un modelo se dice inva-


riante en el tiempo cuando las propiedades del sistema modelado se con-
sideran constantes en el tiempo. En caso contrario se dice variante en el
tiempo. Notese que la variacion se refiere a las propiedades (par
ametros)
del sistema, no de las se
nales que le afectan (variables). En la mayor parte
de este curso se consideraran sistemas invariantes en el tiempo.

Modelos continuos y discretos: Para describir el comportamiento de siste-


ma dinamicos es posible definir la variable tiempo en dos formas distintas:

Tiempo continuo: Se considera que el tiempo t es una variable conti-


nua que puede tomar cualquier valor real, aunque generalmente se
restringe a los valores positivos (t R+ ). Las variables resultan ser
descritas por funciones que van de los reales positivos a los reales
(f : R+ R).
Tiempo discreto: Se considera que el tiempo k es una variable discreta,
es decir, que solo toma valores en ciertos puntos de la recta real.
Usualmente estos instantes est an espaciados de forma regular en un
intervalo T . En este texto se considera adem as T = 1, en unidades
de tiempo adecuadas, que pueden ser a nos, das, microsegundos, etc.
De esta forma k es una variable entera, generalmente positiva (k
Z+ ). Las variables resultan ser descritas por funciones que van de los
enteros positivos a los reales (f : Z+ R), es decir, son sucesiones.

En este texto se considerar an ambos tipos de modelos, pero en forma in-


dependiente, es decir, no se consideraran sistemas hbridos que tengan una
parte descrita en forma continua y otra en forma discreta. Estos sistemas
son de amplio interes en las aplicaciones de control digital y en tratamien-
to digital de se
nales (particularmente el efecto del periodo T del tiempo
discreto resulta ser importante), pero no son tratados en este texto.

7
OSCAR G. DUARTE

1.1.6. Modelos matem


aticos a utilizar
De acuerdo con lo presentado en la secci
on 1.1.5, y resumido en la figura 1.4,
en este curso se emplear an modelos matem aticos causales, dinamicos, determi-
nsticos, de par
ametros concentrados, lineales, invariantes en el tiempo, para dos
casos diferentes: tiempo continuo y tiempo discreto.
Para un sistema continuo de una u nica entrada y una u nica salida, como
el de la figura 1.5, el modelo empleado corresponde a una ecuaci on diferencial
ordinaria de coeficientes constantes:

dn y dy
an + + a1 + a0 y(t) =
dtn dt
dm u du
bm m
+ + b1 + b0 u(t) n m (1.1)
dt dt
Por su parte, un sistema discreto de una unica entrada y una unica salida,
como el de la figura 1.6, tendr
a por modelo una ecuaci
on de diferencias finitas
ordinaria de coeficientes constantes:

an y(k + n) + + a1 y(k + 1) + a0 y(k) =


bm u(k + m) + + b1 u(k + 1) + b0 u(k) n m (1.2)

u(t) - Sistema - y(t)

Figura 1.5: Sistema Din


amico Continuo

u(k) - Sistema - y(k)

Figura 1.6: Sistema Din


amico Discreto

on n m de las ecuaciones (1.1) y (1.2) asegura modelos causales.


La condici
En efecto, podemos suponer una ecuaci on de diferencias que viole esta condici
on,
por ejemplo y(k) = u(k + 1) ; es obvio que para cualquier k la salida del sistema
depende de una condici on futura de la entrada, (por ejemplo para k = 0 se tiene
y(0) = u(1)), lo que viola la condici
on de causalidad.
Otro tipo de ecuaciones diferenciales que se emplear an relacionan vectores
de variables mediante matrices. Para el caso continuo se muestra un ejemplo en
(1.3) y para el caso discreto en (1.4)

x 1 a11 a12 a13 x1
x 2 = a21 a22 a23 x2 (1.3)
x 3 a31 a32 a33 x3

8
1.2. SISTEMAS F
ISICOS


x1 (k + 1) a11 a12 a13 x1 (k)
x2 (k + 1) = a21 a22 a23 x2 (k) (1.4)
x3 (k + 1) a31 a32 a33 x3 (k)

1.2. Sistemas fsicos


Los modelos matem aticos de las ecuaciones (1.1) y (1.2) pueden ser u tiles
para representar el comportamiento de diversos tipos de sistemas en a reas de la
fsica, ingeniera, biologa, economa, sociologa, etc. Por lo tanto las tecnicas de
an alisis que se explicaran en este texto son de amplia aplicabilidad. No obstante,
centramos aqui nuestra atenci on en los fundamentos necesarios para obtener
modelos continuos de cierto tipo de sistemas frecuentes en la ingeniera.
La tabla 1.2 resume las Variables y Par ametros de algunos de estos sistemas.
Para cada caso se han identificado dos variables que permiten analizar algunos
fen omenos; estas variables se han identificado como Esfuerzo E y Flujo F , y
pueden interpretarse como las variables que causan un fen omeno y la forma en
que este fenomeno se manifiesta; dicha interpretaci on, sin embargo, es arbitraria
y corresponde tan s olo a la met afora que se haya empleado para entender el
fen omeno fsico. Para resaltar este hecho, en la tabla 1.2 se presentan los sistemas
electricos con dos posibles interpretaciones.
De todos los posibles fen omenos fsicos existentes, en la tabla 1.2 se presen-
tan aquellos que tienen un modelo matem atico que corresponde a uno de los
siguientes casos:
Resistencia: El Esfuerzo es directamente proporcional al Flujo, resultando en
on de la forma E = RF
una ecuaci
Inductancia: El Esfuerzo es directamente proporcional a la variaci
on del Flujo,
resultando en una ecuacion de la forma E = L dF
dt

Capacitancia: El Esfuerzo es directamente proporcional aR la acumulaci


on del
on de la forma E = C F dt
Flujo, resultando en una ecuaci
Notese que las variables de Esfuerzo y Flujo que aparecen en la tabla 1.2
han sido seleccionadas tomando como u nico criterio el que permitan escribir los
modelos matem aticos de ciertos fenomenos fsicos de acuerdo con alguno de los
tres casos anteriores; podran seleccionarse otras variables para describir otros
fen
omenos.
Dado que las descripciones matem aticas de estos fenomenos son semejantes,
es posible establecer analogas entre los tipos de sistemas que depender an de
las variables seleccionadas como Esfuerzo y Flujo; por ejemplo, ser a posible
establecer una analoga entre los resortes lineales de los sistemas traslacionales
y las inductancias de los sistemas electricos (columnas 2 y 4 tabla 1.2), pero
tambien puede establecerse una analoga entre el mismo tipo de resorte y las
capacitancias de los sitemas electricos (columnas 3 y 4 tabla 1.2).

9
OSCAR G. DUARTE
Electrico A Electrico B Mecanico Mecanico ro- Hidra
ulico Termico
traslacional tacional (Tanques)
Esfuerzo Corriente Tensi
on Fuerza Torque Caudal Diferencia de
temperatura
E i e f q
Flujo Tensi
on Corriente Velocidad Velocidad Nivel de l- Flujo de ca-
angular quido lor
F e i v h qc
Resistencia Conduc- Resistencia Amortigua- Amortigua- Resistencia Resistencia
tancia miento miento Hidraulica termica
viscoso viscoso
10

rotacional
E = RF i = Ge e = Ri f = Bv = B q = RH h = RT qc
Inductancia Capacitan- Inductancia Masa de Momento de
Area de tan-
cia inercia inercia que
E = L dF
dt i = C de
dt
di
e = L dt f = M dvdt = J d
dt q = A dh
dt
Capacitan- Inductancia Capacitan- Resorte Resorte tor- Capacitancia
cia R R cia R R sional termica
1
E = C F dt i= L edt e = C1 idt f =K vdt R = R =
KT dt CT qc dt

Tabla 1.2: Variables y par


ametros de sistemas fsicos
1.3. GRAFOS DE ENLACES DE POTENCIA
BOND GRAPHS

1.3. Grafos de enlaces de potencia


Bond Graphs
La construcci on de modelos matem aticos a partir de las relaciones de la tabla
1.2 puede ser una tarea complicada para sistemas complejos en los que existan
combinaciones de sistemas de diferente tipo. Una de las estrategias que facilita
la construccion de tales modelos se denomina tecnica de los Bond Graphs.
Los Bond Graphs son grafos basados en las relaciones de potencia que exis-
ten en los sistemas fsicos, y por esa raz
on los llamaremos grafos de enlaces de
potencia, aunque esta no es una traducci on literal, ni es ampliamente empleada.
La representaci on de las relaciones de potencia se hace en funci on de una
pareja de variables, Esfuerzo e(t) y Flujo f (t) que se seleccionan adecuadamente
segun el tipo de sistema a modelar, de tal manera que la potencia p(t) se calcule
como

p(t) = e(t)f (t) (1.5)


Las variables empleadas se relacionan en la tabla 1.41 . Adicionalmente, se
consideran las integrales respecto al tiempo del Esfuerzo y el Flujo, P y Q
respectivamente. En los ejemplos de este captulo se considerar
an u
nicamente
ejemplos de sistemas electricos y mec
anicos.

1.3.1. Elementos b
asicos
Los siguientes son los elementos b
asicos de un grafo de enlaces de potencia:

Elementos de 1 puerto: Estos elementos representan sistemas en donde s o-


lo interviene una variable de Esfuerzo y una variable de Flujo. La figura
1.7 muestra los distintos elementos de un puerto, su smbolo y la relaci
on
existente entre las variables de Esfuerzo y Flujo. Los tres primeros ele-
mentos, R, C, I, son elementos pasivos, ya que no contienen fuentes de
energa, mientras que los dos u
ltimos, Se y Sf , son elementos activos que
suministran energa (son fuentes de Esfuerzo y Flujo respectivamente).

Elementos de 2 puertos: Estos elementos son conversores de potencia, es de-


cir, reciben potencia, la transforman y la entregan sin perdida alguna. Por
uno de los puertos reciben potencia y por el otro la entregan; en cada
puerto hay una variable de Esfuerzo y una de Flujo. La figura 1.8 muestra
los dos tipos de elementos de dos puertos que existen, sus smbolos y las
relaciones matem aticas que los rigen.

Elementos multipuerto (Uniones): Estos elementos representan la ley de


continuidad de potencia, y sirven para describir las relaciones topol
ogicas
del sistema y as relacionar elementos de uno o dos puertos entre s. La
1 n
otese que no necesariamente son las mismas variables Esfuerzo y Flujo relacionadas en
la tabla 1.2, aunque algunas coinciden

11
OSCAR G. DUARTE

Sistema Esfuerzo e Flujo f


Electrico Tensi
on electrica v Corriente electrica i

Mecanico Fuerza F Velocidad


traslacional
Mecanico ro- Torque Velocidad angular
tacional
Hidraulico Presi
on P Variacion de flujo dQ/dt
volumetrico
Termico A Temperatura T Variacion de dife- ds/dt
rencia de entropa
Termico B Presi
on P Variacion de cam- dV /dt
bio de volumen
Qumico A Potencial qumico m Variacion de flujo dN/dt
molar
Qumico B Entalpa h Variacion de flujo dm/dt
masico
Magnetico Fuerza magnetomo- em Flujo magnetico
triz

Tabla 1.4: Variables Fsicas empleadas en los grafos de enlaces de potencia

figura 1.9 muestra los dos tipos de uniones existentes, sus smbolos y las
relaciones matematicas que los rigen.

Ejemplo 1.1 La figura 1.10 muestra el diagrama de un elevador, compuesto por un


motor electrico, un eje, una polea, un cable y un vag
on. En el motor hay un circuito
electrico que incluye una resistencia, una inductancia y la tensi
on contraelectromo-
triz; el eje se considera rgido, sin masa y con fricci
on viscosa; la polea tiene un
momento de inercia; el cable es elastico y el vag on esta directamente acoplado al
cable.
La figura 1.11 muestra el sistema en forma esquematica, resaltando la existencia
de diferentes dominios de energa: electrico, rotacional y traslacional. La figura 1.12
muestra el grafo de enlaces de potencia del sistema completo: en la primera uni on
se representa el circuito electrico en serie (uni
on tipo 1 porque el flujo es com un);
el rotador representa la conversi on de energa electrica en rotacional; la siguiente
union representa el comportamiento de la polea; el transformador muestra el cambio
del dominio de energa rotacional al traslacional; y la u ltima uni
on representa los
fenomenos mecanicos en el vag on, incluida la atraccion de la gravedad. En este
grafo se han numerado todos los enlaces, para facilitar su identificaci on.

12
1.3. GRAFOS DE ENLACES DE POTENCIA
BOND GRAPHS

Tipo de Elemento Smbolo Relaciones

Elemento e e = Rf
R
R f e
f= R

R
e=C f dt
Elemento e
C 1 de
C f f= C dt

e = I df
dt
Elemento e
I
I f 1
R
f= I edt

Fuente de e
Se e = Se
Esfuerzo f

Fuente de Sf e f = Sf
Flujo f

Figura 1.7: Elementos de un puerto para grafos de enlaces de potencia

Tipo de Elemento Smbolo Relaciones

e1 e2 e1 = ke2
Transformador TF : k
f1 f2 f2
f1 = k

e1 e2 e1 = kf2
Rotador GY : k
f1 f2 e2
f1 = k

Figura 1.8: Elementos de dos puertos para grafos de enlaces de potencia

13
OSCAR G. DUARTE

Tipo de Elemento Smbolo Relaciones

e2 f2

Uni
on e1 e3 e1 = e 2 = e 3 = e 4
0
Tipo 0 f1 f3
f1 = f 2 + f 3 + f 4
f4 e4

e2 f2

Uni
on e1 e3 e1 = e 2 + e 3 + e 4
1
Tipo 1 f1 f3
f1 = f 2 = f 3 = f 4
f4 e4

Figura 1.9: Elementos multipuerto para grafos de enlaces de potencia

14
1.3. GRAFOS DE ENLACES DE POTENCIA
BOND GRAPHS

+
v(t)

Figura 1.10: Grafos de enlace de potencia. Diagrama del ejemplo 1.1

Dominio Rotacional
Re L

k J D/2
Rb
+
us

Dominio Traslacional

Ce
Dominio Electrico

mg

Figura 1.11: Grafos de enlace de potencia. Esquema del ejemplo 1.1

15
OSCAR G. DUARTE

I :L I:J

e2 f2 e6 f6

S..e e1 e3 GY
.. e5 e7
us 1 1 TF : D
2
f1 f3 k f5 f7

f4 e4 f8 e8
f9 e9
R : Re R : Rb
f10
C : Cel e10 0

f11 e11

e13
Se : mg 1
f13

f12 e12

I:m

Figura 1.12: Grafo de enlaces de potencia del ejemplo 1.1

16
1.3. GRAFOS DE ENLACES DE POTENCIA
BOND GRAPHS

Salida de Flujo Salida de Esfuerzo


e e
f f
f = g(e) e = g(f )

Figura 1.13: Enlaces con marcas de causalidad

1.3.2. Causalidad
En las figuras 1.7 y 1.8 se observa que las relaciones entre esfuerzo y flujo
pueden escribirse de dos formas diferentes para algunos de los elementos:

Salida de Esfuerzo: se calcula e en funci


on de f , por ejemplo e = g(f ).

Salida de Flujo: se calcula f en funci


on de e, por ejemplo f = g(e).

La figura 1.13 muestra c omo se modifica el smbolo del enlace cuando se


toma cada una de las dos alternativas, agregando unas marcas de causalidad en
alguno de los extremos del enlace.
El an
alisis de causalidad permite determinar cual de los dos tipos de relacio-
nes debe emplearse en cada enlace. Para ello, es necesario definir las siguientes
relaciones de causalidad:

Causalidad fija: En ocasiones s


olo es posible un tipo de causalidad, como
por ejemplo en las fuentes de Esfuerzo y Flujo; en estas situaciones la
causalidad est
a predeterminada.

Causalidad condicionada: En los elementos de m as de un puerto la causali-


dad est
a condicionada por las siguientes reglas:

En un rotador cada uno de sus puertos debe tener una causalidad


diferente
En un transformador ambos puertos deben tener la misma causalidad
En las uniones tipo 0 s
olo hay una marca de causalidad en el lado de
la uni
on.
En las uniones tipo 1 s
olo hay una marca de causalidad que no este
del lado de la uni
on.

Causalidad preferida: En los elementos cuya relaci on esfuerzo-flujo puede


ser una integral o una derivada, en este texto se prefiere la relaci
on de
on2 , por lo tanto se tiene que
derivaci
2 La integraci
on es preferible para la utilizaci
on de metodos numericos.

17
OSCAR G. DUARTE

Para elementos tipo C se prefiere la causalidad de salida de flujo.


Para elementos tipo I se prefiere la causalidad de salida de esfuerzo.
Causalidad Indiferente: En las relaciones est aticas, como la de los elementos
R se obtiene el mismo tipo de ecuaci on con cualquiera de las dos causali-
dades, y por lo tanto esta es indiferente.
Para determinar la causalidad de un grafo, se emplea el siguiente procedi-
miento:

1. Asignar una causalidad fija y propagarla a traves de las causalidades con-


dicionadas. Repetir el procedimiento con todas las causalidades fijas.
2. Asignar una causalidad preferida y propagarla a traves de las causalida-
des condicionadas. Repetir el procedimiento con todas las causalidades
preferidas.
3. Asignar una causalidad indiferente y propagarla a traves de las causali-
dades condicionadas. Repetir el procedimiento con todas las causalidades
indiferentes.

Ejemplo 1.2 Retomando el ejemplo 1.1, cuyo grafo de enlaces de potencia se mues-
tra en la figura 1.12, el procedimiento de asignaci
on de causalidades permite obtener
el grafo causal de la figura 1.14

1.3.3. Obtenci
on de las ecuaciones
A partir de un grafo causal se pueden derivar las ecuaciones diferenciales que
describen el sistema con el siguiente procedimiento:

1. Obtener las ecuaciones diferenciales y las ecuaciones algebr


aicas de cada
uno de los elementos del grafo.
2. Eliminar las ecuaciones algebr
aicas.

Ejemplo 1.3 Las ecuaciones del grafo causal de la figura 1.14 (Ejemplos 1.1 y 1.2)
se obtienen asi:

Enlace 1: e1 = us
Enlace 2: e2 = Ldf2 /dt
Enlace 4: f4 = e4 /Re
Primera uni
on: f1 = f2 = f3 = f4 e1 = e 2 + e 3 + e 4
1
Rotador: e3 = Kf5 f3 = K e5

Enlace 6:e6 = Jdf6 /dt


Enlace 8:f8 = e8 /Rb

18
1.3. GRAFOS DE ENLACES DE POTENCIA
BOND GRAPHS

I :L I :J

e2 f2 e6 f6

S..e e1 e3 GY
.. e5 e7
us 1 1 TF : D
2
f1 f3 k f5 f7

f4 e4 f8 e8
f9 e9
R : Re R : Rb
f10
C : Cel e10 0

f11 e11

e13
Se : mg 1
f13

f12 e12

I:m

Figura 1.14: Grafo causal de enlaces de potencia del ejemplo 1.1

19
OSCAR G. DUARTE

Segunda uni
on: f5 = f6 = f7 = f8 e5 = e 6 + e 7 + e 8
Transformador: e7 = D
2 e9
2
f7 = D f9
Enlace 10: f10 = Cel de10 /dt
Tercera uni
on: e9 = e10 = e11 f9 = f10 + f11
Enlace 12: e1 2 = mde12 /dt

Enlace 13: f13 = mg


Cuarta uni
on: f11 = f12 = f13 e12 = e11 + e13

1.3.4. Procedimientos especficos


Se consignan aqui dos procedimientos espcficos, u tiles para la obtenci
on
de grafos de enlaces de potencia para circuitos electricos y sistemas mecanicos
traslacionales, respectivamente.

Circuitos el
ectricos
1. Crear una uni
on tipo 0 por cada nodo del circuito.
2. Para cada elemento del circuito crear una union tipo 1, adicionarle a esa
union un enlace que represente al elemento y enlazar la uni
on con las dos
uniones tipo 0 correspondientes a los nodos entre los que esta conectado
el elemento.
3. Asignar las direcciones de potencia a los enlaces.
4. Si hay un nodo de referencia, eliminar la uni
on tipo 0 correspondiente y
los enlaces adyacentes.
5. Simplificar el grafo.

Sistemas traslacionales
1. Crear una uni
on tipo 1 para cada velocidad diferente (absolutas y relati-
vas).
2. Para cada fenomeno que genere una fuerza, crear una union tipo 0, adicio-
narle a esa uni
on un enlace que represente al fen
omeno y enlazar la union
con las dos uniones tipo 1 correspondientes; considerar las inercias.

3. Asignar las direcciones de potencia a los enlaces.


4. Eliminar la uni
on tipo 1 correspondiente a velocidad cero.
5. Simplificar el grafo.

20
Captulo 2

Preliminares matematicos

2.1. Ecuaciones diferenciales y de diferencia


2.1.1. Ecuaciones diferenciales
Una ecuacion diferencial es una ecuaci
on en la que intervienen derivadas (y/o
integrales). La variable que mide el tiempo (t) vara contnuamente (t R). Un
ejemplo sencillo es el siguiente
dx
= 2x(t) (2.1)
dt
La soluci
on de una ecuaci on f (t) t R que satizfa-
on diferencial es una funci
ga la ecuaci
on. Cualquiera de las siguientes funciones es solucion de la ecuaci
on
(2.1):
df1
f1 (t) = e2t ya que dt = 2e2t = 2f1 (t)
df2
f2 (t) = 2e2t ya que dt = 4e2t = 2f2 (t)
df3
f3 (t) = 3e2t ya que dt = 6e2t = 2f3 (t)
Para poder establecer una u nica solucion de la ecuaci on, es preciso conocer
unas condiciones auxiliares. El n umero de estas condiciones necesarias es igual al
grado de la ecuacion (n). Usualmente, en las aplicaciones de an alisis de sistemas
dinamicos, estas condiciones se determinan para el instante de tiempo t = 0, por
lo que se denominan condiciones iniciales, y corresponden al valor de la funci on
desconocida y de sus derivadas en t = 0
...
f (0), f(0), f(0),
f (0), , f (n) (0)
Por ejemplo, al establecer f (0) = 1 como condici
on adicional para la ecuaci
on
(2.1), la u
nica soluci alida es f1 (t) = e2t
on v

21
OSCAR G. DUARTE

2.1.2. Ecuaciones de diferencias finitas


Una ecuaci on de diferencias es una ecuaci on en la que intervienen diferencias
finitas. La variable que mide el tiempo (k) vara discretamente . En general, exis-
ten tres posibilidades para considerar la forma en que se produce esta variaci on
discreta:
k = 1, 2, 3,
k = T, 2T, 3T, T Rk = k1 , k2 , k3 , ki R
En la primera opci on el tiempo es una variable entera (k Z), mientras
que en la segunda es una variable real que s olo toma ciertos valores espaciados
uniformemente. En este texto se adoptar a la primera opci
on. No obstante, debe
aclararse que la segunda opci on es muy empleada en aplicaciones de control
digital y tratamiento de se
nales, en las que la elecci
on adecuada del valor de T
resulta de extrema importancia1 .
El siguiente es un ejemplo sencillo de una ecuacion de diferencias

x(k + 1) = 2x(k) (2.2)

Notese la similitud con el ejemplo de la ecuaci


on 2.1, en el que la derivada de
primer orden ha sido remplazada por la diferencia finita de primer orden. Como
el tiempo no es contnuo, no tiene sentido hablar de derivadas e integrales de
las funciones, pues las variables no son continuas en ning un punto.
La solucion de una ecuaci on de diferencias es una funcion f (k) k Z que
satizfaga la ecuaci on. Cualquiera de las siguientes funciones es soluci on de la
ecuacion (2.2):

f1 (k) = 2k = 1, 2, 4, ya que f1 (k + 1) = 2k+1 = 2f1 (k)


f2 (k) = 2(2k ) = 2, 4, 8, ya que f2 (k + 1) = 2(2k+1 ) = 2f2 (k)
f3 (k) = 3(2k ) = 3, 6, 12, ya que f2 (k + 1) = 3(2k+1 ) = 2f3 (k)

Para poder establecer una u nica soluci


on de la ecuaci
on, es preciso conocer
unas condiciones auxiliares. El n
umero de estas condiciones necesarias es igual al
grado de la ecuaci
on (n). Usualmente, en las aplicaciones de an
alisis de sistemas
din
amicos, estas condiciones se determinan para el instante de tiempo k = 0,
por lo que se denominan condiciones iniciales, y corresponden al valor de la
funci
on desconocida y de sus diferencias en k = 0:

f (k), f (k + 1), f (k + 2), f (k + 3), , f (k + n) con k = 0

es decir
f (0), f (1), f (2), f (3), , f (n)
Por ejemplo, al establecer f (0) = 1 como condici
on adicional para la ecuaci
on
(2.2), la u
nica soluci alida es f1 (k) = 2k
on v
1 En general el problema surge al considerar que un mismo sistema puede describirse por

ecuaciones diferenciales y de diferencia en forma simult


anea. En este texto se considerar
an
s
olo sistemas continuos o discretos, pero nunca una mezcla de ambos.

22
2.1. ECUACIONES DIFERENCIALES Y DE DIFERENCIA

Ecuaciones diferenciales Ecuaciones de diferencia


Intervienen derivadas Intervienen diferencias finitas.
El tiempo (t) vara contnuamente El tiempo (k) vara discretamente
(t R) (k Z).
La soluci
on es una funcion f (t) t La solucion es una funci on f (k) k
R que satizfaga la ecuaci
on. Z (una sucesi on) que satizfaga la
ecuacion.
Para poder establecer una u nica so- Para poder establecer una u nica so-
luci
on de la ecuaci on se emplean luci
on de la ecuaci on se emplean
tantas condiciones iniciales como or- tantas condiciones iniciales como or-
den tenga la ecuaci on. den tenga la ecuaci on.
Las condiciones iniciales son Las condiciones iniciales son
y(0), y(0),
y(0), y(0), y(1), y(2),

Tabla 2.1: Comparaci


on entre ecuaciones diferenciales y de diferencia

La tabla 2.1 resume una comparacion entre las ecuaciones diferenciales y de


diferencia. Debido a las grandes semejanzas entre los dos tipos de ecuaciones,
en ocasiones nos referiremos a ambas simult
aneamente empleando la sigla E.D.

2.1.3. Ecuaciones diferenciales y de diferencias lineales


Linealidad
La linealidad es una propiedad de algunas funciones. Para poseer esta pro-
on f (x) : U V ,
piedad es necesario satisfacer dos condiciones. Sea la funci
para x1 , x2 U y a un escalar, las dos condiciones son:

1. superposici
on: f (x1 + x2 ) = f (x1 ) + f (x2 )

2. proporcionalidad: f (ax1 ) = af (x1 )

Las derivadas, las integrales y las diferencias finitas son operaciones lineales. La
funci
on f (x) = ax + b no es una funci on lineal, a menos que b sea cero 2 .

E.D. lineales
Las ecuaciones diferenciales lineales son de la forma

dy n dy
an (t) n
+ + a1 (t) + a0 (t)y(t) =
dt dt
dum du
bm (t) m + + b1 (t) + b0 (t)u(t) (2.3)
dt dt
2 Efectivamente, f (x + x ) = m(x + x ) + b es diferente de f (x ) + f (x ) = (mx + b) +
1 2 1 2 1 1 1
(mx2 + b)

23
OSCAR G. DUARTE

mientras que las ecuaciones de diferencia lineales son de la forma

an (k)y(k + n) + + a1 (k)y(k + 1) + a0 (k)y(k) =


bm (k)u(k + m) + + b1 (k)u(k + 1) + b0 (k)u(k) (2.4)

En este texto se estudian s


olo ecuaciones con coeficientes constantes, es decir,
los casos en los que las ecuaciones (2.3) y (2.4) se convierten en (2.5) y (2.6),
respectivamente. Estas ecuaciones representar an el comportamiento de sistemas
dinamicos como los de las figuras 3.1 y 3.2 en los que la variable u estimula al
sistema, y la respuesta de este se manifiesta en la variable y. Adem as solo se
an aquellos casos en los que n m.
estudiar

dy n dy dum du
an n
+ + a 1 + a 0 y(t) = b m m
+ + b1 + b0 u(t) (2.5)
dt dt dt dt

an y(k + n) + + a1 y(k + 1) + a0 y(k) =


bm u(k + m) + + b1 u(k + 1) + b0 u(k) (2.6)

2.1.4. M
etodos de soluci
on de E.D. lineales
La soluci
on de una E.D. lineal tiene dos componentes:

ycompleta (t) = yhomogenea (t) + yparticular (t)


(2.7)
y(t) = yh (t) + yp (t)
o
en el caso discreto

ycompleta (k) = yhomogenea (k) + yparticular (k)


(2.8)
y(k) = yh (k) + yp (k)
Existen varios metodos de soluci
on para las E.D. Lineales. Aunque en general
emplearemos los metodos de las transformadas de Laplace y Z, inicialmente
presentamos uno m as elemental y dispendioso, resumido en la tabla 2.2:

Ejemplo 2.1 Obtener la soluci


on de la ecuaci
on diferencial lineal:

y + 3y + 2y = f(t) (2.9)

donde f (t) = t2 + 5t + 3 y las C.I. son y(0) = 2 y(0)


=3

1. Obtener la soluci
on homogenea El polinomio caracterstico es:

P () = 2 + 3 + 2
P () = ( + 2)( + 1)

24
2.1. ECUACIONES DIFERENCIALES Y DE DIFERENCIA

Ecuaciones diferenciales Ecuaciones de diferencia

1. Obtener la soluci
on homoge- 1. Obtener la soluci
on homoge-
nea con el siguiente procedi- nea con el siguiente procedi-
miento: miento:
Se escribe el polinomio Se escribe el polinomio
caracterstico de la ecua- caracterstico de la ecua-
ci
on. ci
on.
Se obtienen las races i Se obtienen las races i
del polinomio caracters- del polinomio caracters-
tico. tico.
Se construye la soluci on Se construye la soluci on
yh (t) = c1 e1 t + + yh (k) = c1 k1 + + cn kn
c n e n t
2. Obtener una soluci on particu-
2. Obtener una soluci on particu- lar yp (t). Generalmente se pro-
lar yp (t). Generalmente se pro- cede probando una soluci on
cede probando una soluci on similar a la funcion de entra-
similar a la funcion de entra- da, u(k)
da, u(t)
3. Construir la respuesta comple-
3. Construir la respuesta comple- ta y(k) = yh (k) + yp (k), rem-
ta y(t) = yh (t) + yp (t), rem- plazar las condiciones inicia-
plazar las condiciones inicia- les, y obtener los coeficientes
les, y obtener los coeficientes c1 , , c n
c1 , , c n

Tabla 2.2: Metodos elementales de soluci


on de Ecuaciones diferenciales y de
diferencia

25
OSCAR G. DUARTE

Las races de P () son 1 = 1 2 = 2


La soluci
on homogenea es

yh (t) = c1 et + c2 e2t (2.10)

2. Obtener una soluci


on particular:
Dado que f (t) es un polinomio de grado 2, probamos una soluci
on particular
de esa misma forma:

yp (t) = 2 t2 + 1 t + 0

Calculamos yp (t), y p (t) y f(t):

y p (t) = 22 t + 1

yp (t) = 22
f(t) = 2t + 5

Remplazamos en la E.D.:

22 + 3(22 t + 1 ) + 2(2 t2 + 1 t + 0 ) = 2t + 5

que podemos agrupar as:

22 t2 + (62 + 21 )t + (22 + 31 + 20 ) = 2t + 5

Al igualar coeficientes, obtenemos un sistema de tres ecuaciones y tres inc


og-
nitas:
22 =0
62 + 21 =2
22 + 31 + 20 = 5

cuya soluci
on es 2 = 0 1 = 1 0 = 1, y por lo tanto la soluci
on particular
es:

yp (t) = t + 1 (2.11)

3. Construir la respuesta completa, y obtener los coeficientes de la respuesta


homogenea
La respuesta completa es:

y(t) = yh (t) + yp (t) = c1 et + c2 e2t + t + 1

y su primera derivada es:

= c1 et 2c2 e2t + 1
y(t)

26
2.2. TRANSFORMADAS DE LAPLACE Y Z

Al evaluar en t = 0 obtenemos las condiciones iniciales

y(0) = c1 e0 + c2 e0 + 0 + 1 = c1 + c2 + 1 = 2

y(0)
= c1 e0 2c2 e0 + 1 = c1 2c2 + 1 = 3

Con estas dos ecuaciones se obtienen los valores de c 1 y c2

c1 = 4 c2 = 3

Por lo tanto, la soluci


on completa de la ecuaci
on diferencial es:

y(t) = 4et 3e2t + t + 1 (2.12)

Ejemplo 2.2 Sea la Ecuaci


on de diferencias:

2y(k + 2) 3y(k + 1) + y(k) = f (k) (2.13)

en donde f (k) = k 2 y las condiciones iniciales son y(0) = 2, y(1) = 1


Para obtener la soluci on de esta ecuaci on podriamos proceder con el metodo
propuesto; en lugar de ello, vamos a presentar una alternativa numerica, que consiste
en despejar de la ecuacion la diferencia mas grande, y calcularla iterativamente:
De la ecuacion podemos despejar y(k + 2)
1
y(k + 2) = (f (k) + 3y(k + 1) y(k))
2
Con esta expresi
on podemos construir la siguiente tabla
k f (k) y(k) y(k + 1) y(k + 2)
0 0 y(0) = 2 y(1) = 1 y(2) = 1/2
1 1 y(1) = 1 y(2) = 1/2 y(3) = 3/4
2 4 y(2) = 1/2 y(3) = 3/4 y(3) = 23/8
.. .. .. .. ..
. . . . .

2.2. Transformadas de Laplace y Z


2.2.1. Definiciones
Transformada de Laplace
Dada una funci
on f (t) de los reales en los reales,

f (t) : R R

on L denominada transformada de Laplace que toma como


Existe una funci
argumento f (k) y produce una funci
on F (s) de los complejos en los complejos.

F (s) : C C

27
OSCAR G. DUARTE

L -
f (t)  F (s)
1
L
RR CC

Figura 2.1: Transformada de Laplace

on L1 denominada transformada inversa de Laplace toma como


La funci
argumento F (s) y produce f (t), tal como se visualiza en la figura 2.1
La transformada de Laplace se define3 como
Z
.
F (s) = L {f (t)} = f (t)est dt (2.14)
0

Existe una definicion alternativa, conocida como la transformada bilateral de


on son ( y ):
Laplace, cuyos lmites de integraci
Z
.
Fb (s) = Lb {f (t)} = f (t)est dt (2.15)

Debido a que nuestro interes se centra en el comportamiento de las senales


a partir del instante de tiempo t = 0, trabajaremos con la versi
on unilateral de
la transformada.

Transformada Z
Dada una funci
on f (t) de los enteros en los reales,

f (k) : Z R

on Z denominada transformada Z que toma como argumen-


Existe una funci
to f (t) y produce una funci
on F (s) de los complejos en los complejos.

F (s) : C C

on Z 1 denominada transformada inversa Z toma como argumento


La funci
F (z) y produce f (k), tal como se visualiza en la figura 2.2
La transformada Z se define4 como

. X
F (z) = Z {f (k)} = f (k)z k (2.16)
k=0
3 La integral que define la transformada de Laplace puede no converger para algunos valores

de la variable compleja s,lo que establece una region de convergencia para la transformada de
una determinada funci on. Este hecho es irrelevante para nuestras aplicaciones de soluciones
de E.D. lineales.
4 De forma semejante al caso de la transformada de Laplace, la sumatoria que define la

transformada Z puede no converger para algunos valores de la variable compleja z, estable-


ciendose asi una region de convergencia para cada funci on. Este hecho es irrelevante para
nuestras aplicaciones de soluciones de E.D. lineales.

28
2.2. TRANSFORMADAS DE LAPLACE Y Z

Z -
f (k)  F (z)
1
Z
ZR CC

Figura 2.2: Transformada Z

Transformada de Laplace Transformada Z

L - Z -
f (t)  F (s) f (k)  F (z)
1 1
L Z
RR CC ZR CC

La transformada de Laplace se defi- La transformada Z se define como


ne como .
= Z {f (k)}
F (z) P
.
F (s) R= L {f (t)} F (z) = k=0 f (k)z
k

F (s) = 0 f (t)est dt
Transformada bilateral de Laplace: Transformada bilateral Z:
. .
Fb (s) R= Lb {f (t)} = Zb {f (k)}
Fb (z)P

Fb (s) = f (t)est dt Fb (z) = k= f (k)z k

Tabla 2.3: Comparaci


on de las definiciones de las transformadas de Laplace y Z

Existe una definici on alternativa, conocida como la transformada bilateral


Z, cuyos lmites de integraci
on son ( y ):

. X
F (z) = Z {f (k)} = f (k)z k (2.17)
k=

Debido a que nuestro interes se centra en el comportamiento de las se nales


a partir del instante de tiempo k = 0, trabajaremos con la versi on unilateral de
la transformada.
La tabla 2.3 muestra una comparaci on entre las definiciones de las transfor-
madas de Laplace y Z

2.2.2. Propiedades
Las transformadas de Laplace y Z satisfacen ciertas propiedades que son
muy similares para una y otra transformada; algunas de estas transformadas se
listan en la tabla 2.4, y sus demostraciones se presentan en el apendice A. De
estas propiedades destacamos los siguientes hechos:

29
OSCAR G. DUARTE

1. La propiedad de linealidad permite que la aplicacion de estas transforma-


das a la soluci
on de E.D. lineales sea bastante simple. Por el contrario,
estas transformadas no suelen ser u
tiles para solucionar E.D. No Lineales.
2. Las propiedades de diferenciaci
on y diferencias positivas son las que per-
miten convertir Ecuaciones Diferenciales y Ecuaciones de Diferencia, res-
pectivamente, en Ecuaciones Algebraicas.
3. Hay una diferencia sutil pero importante entre las propiedades de diferen-
ciaci
on y diferencias positivas: las condici
on inicial f (0) est
a multiplicada
por z en el caso discreto, mientras que en el caso contnuo no est a multi-
plicada por s.
Este hecho origina algunas diferencias en la forma de las parejas de funcio-
nes y sus transformadas (ver seccion 2.2.3) y en la forma en que se emplea
la expansion en fracciones parciales para calcular las transformadas inver-
sas(ver secci
on 2.2.5).

4. La propiedad de multiplicaci on por el tiempo tiene una expresi on directa


on por tn ) mientras que en el caso discreto
en el caso continuo (multiplicaci
tiene una expresi on por k n ). Este hecho se ve
on iterativa (multiplicaci
reflejado en la tabla 2.6
5. La propiedad de convoluci
on pone de manifiesto que la transformada del
producto de dos funciones NO es el producto de las transformadas indi-
viduales.

Transformada de Laplace Transformada Z


Sean f (t), f1 (t), f2 (t) tres fun- Sean f (k), f1 (k), f2 (k) tres funcio-
ciones cuyas Transformadas de nes cuyas Transformadas Z son, res-
Laplace son, respectivamente pectivamente F (z), F1 (z), F2 (z) y a
F (s), F1 (s), F2 (s), y a un escalar un escalar (real o complejo). Se cum-
(real o complejo). Se cumplen las plen las siguientes propiedades:
siguientes propiedades:
Linealidad: Linealidad:

L {f1 (t) + f2 (t)} = F1 (s) + F2 (s) Z {f1 (k) + f2 (k)} = F1 (z) + F2 (z)

L {af (t)} = aF (s) Z {af (k)} = aF (z)

Diferenciaci on5 : Diferencia positiva:


 
df (t) Z {f (k + 1)} = zF (z) zf (0)
L = sF (s) f (0+ )
dt

5 El (i) di f
superndice indica la derivada de orden i: f (i) = dti

30
2.2. TRANSFORMADAS DE LAPLACE Y Z

n n o
L d dtfn(t) = sn F (s) Z {f (k + n)} = z n F (z)
Pn1 ni
Pn1 i=0 z f (i)
i=0 sni1 f (i) (0+ )

Desplazamiento en la frecuen- Escalamiento en la frecuencia:


cia: 
 Z ak f (t) = F (z/a)
L eat f (t) = F (s a)

Multiplicaci
on por t: Multiplicaci
on por k:

dn F (s) Z {k n f (k)} =
L {tn f (t)} = (1)n
dsn
d n (n1) o
z Z k f (k)
dz
Teorema de valor inicial: Teorema de valor inicial:

lm f (t) = lm sF (s) f (0) = lm F (z)


t0+ s z

Teorema de valor final: Teorema de valor final:

lm f (t) = lm sF (s) lm f (k) = lm (z 1)F (z)


t s0 k z1

Convoluci
on: Convoluci
on:

L {f1 (t) f2 (t)} = F1 (s)F2 (s) Z {f1 (k) f2 (k)} = F1 (z)F2 (z)
Z
X
f1 (t) f2 (t) = f1 (t )f2 ( )d f1 (k) f2 (k) = f1 (k)f2 (h k)
0
k=0

Tabla 2.4: Propiedades de las transformadas de Laplace y Z

2.2.3. Parejas de transformadas


La tabla 2.5 muestra las parejas de transformadas para las funciones elemen-
tales mas importantes en el analisis de sistemas din
amicos. El contenido de la
tabla se demuestra en el Apendice A. De estas parejas destacamos los siguientes
hechos:

1. En cada uno de los casos de las tablas 2.5 y 2.6, las transformadas (de

31
OSCAR G. DUARTE

Transformada de Laplace Transformada Z


f (t) F (s) f (k) F (z)
1 z
(t) s (k) z1
1 z
eat sa ak za
z sin a
sin t s2 + 2 sin ak z 2 2z cos a+1
s z 2 z cos a
cos t s2 + 2 cos ak z 2 2z cos a+1
t zb sin a
e sin t (s)2 + 2 bk sin ak z 2 2bz cos a+b2
(s) 2
z zb cos a
et cos t (s)2 + 2 bk cos ak z 2 2bz cos a+b2

Tabla 2.5: Tabla de parejas de transformadas elementales

Laplace o Z) son fraccciones de polinomios en la variable compleja (s o


z).
2. Al comparar estos polinomios en funciones analogas (por ejemplo eat y
k
a ) notamos que el orden del denominador es el mismo; en el numerador,
sin embargo, sucede que el orden de los polinomios de la transformada
Z siempre es superior en 1 al de su contraparte en la transformada de
Laplace.
3. Si centramos nuestra atenci on en la tabla 2.5, podemos notar que la ubi-
caci
on de los polos de las funciones transformadas en el plano complejo
determina el tipo de funcion en el dominio del tiempo. Este hecho se resalta
en la tabla 2.7 y en las figuras 2.3 y 2.4
4. Las funciones rese nadas en la tabla 2.6 tambien estan asociadas a una
ubicacion especfica de los polos en el plano complejo, pero cuando estos
se repiten.

2.2.4. Utilizaci
on de la tabla de parejas de transformadas
Para emplear las tablas 2.5 y 2.6 para obtener la transformada inversa de
una funci
on, primero hay que expresar esta u
ltima como alguno de los casos que
aparecen en dichas tablas. Suele ser u
til recordar que las transformaciones de
Laplace y Z son funciones lineales.
4
Ejemplo 2.3 Para obtener la transformada inversa de Laplace de F (s) = s3 ,
primero reescribimos la F (s) como:
4 1
F (s) = =4
s3 s3

32
2.2. TRANSFORMADAS DE LAPLACE Y Z

Transformada de Laplace Transformada Z


f (t) F (s) f (k) F (z)
1 z
t(t) s2 k(k) (z1)2
n!
tn (t) s(n+1)
k n (k) iterar
at 1 k az
te (sa)2 ka (za)2
n!
tn eat (sa)(n+1)
k n ak iterar
2s z 3 sin az sin a
t sin t (s2 + 2 )2 k sin ak [z 2 2z cos a+1]2
s2 2 [z 3 +z] cos a2z 2
t cos t (s2 + 2 )2 k cos ak [z 2 2z cos a+1]2
t 2(s) z 3 b sin azb3 sin a
te sin t ((s)2 + 2 )2 kbk sin ak [z 2 2bz cos a+b2 ]2
(s)2 2 [bz 3 +b3 z] cos a2b2 z 2
tet cos t ((ssigma)2 + 2 )2 kbk cos ak [z 2 2bz cos a+b2 ]2

Tabla 2.6: Tabla de parejas de transformadas elementales multiplicadas por el


tiempo

Caso Contnuo Caso Discreto


Ubicacion de Funci on Ubicacion de Funci on
los polos los polos
Origen escal
on (1, 0) escal
on
Semieje real posi- exponenciales Intervalo (1, ) series geometricas
tivo crecientes del eje real crecientes no al-
ternantes
Intervalo series geometri-
(, 1) del cas crecientes
eje real alternantes
Semieje real ne- exponenciales de- Intervalo (0, 1) series geometri-
gativo crecientes del eje real cas decrecientes
no alternantes
Intervalo (1, 0) series geometri-
del eje real cas decrecientes
alternantes
Eje imaginario sinusoidales circunferencia sinusoidales.
unitaria
Complejos en funciones si- Complejos fuera sinusoidales am-
el semiplano nusoidales am- del crculo unita- plificadas por una
derecho plificadas por rio serie geometrica
una exponencial creciente
creciente
Complejos en sinusoidales am- Complejos dentro sinusoidales am-
el semiplano plificadas por del crculo unita- plificadas por una
izquierdo una exponencial rio serie geometrica
decreciente decreciente

Tabla 2.7: Ubicaci


on de los polos en los planos complejos y funciones en el tiempo

33
OSCAR G. DUARTE

Figura 2.3: Funciones contnuas seg


un la ubicaci
on de sus polos en el plano s




    
           
 
      
 
 
  



Figura 2.4: Funciones discretas seg
un la ubicaci
on de sus polos en el plano s

34
2.2. TRANSFORMADAS DE LAPLACE Y Z

1 1
La expresi
on s3 es de la forma sa , cuya transformada inversa de Laplace es
at
e . Aplicando linealidad tenemos:
   
1 1
f (t) = L1 {F (s)} = L1 4 = 4L1 = 4e3t
s3 s3

Ejemplo 2.4 Para obtener la transformada inversa de Laplace de F (s) = s2s+2+s+1 ,


primero destacamos que el denominador de F (s) es de segundo orden, y por tanto
es similar al que aparece en las transformadas de Laplace de las sinusoides amor-
tiguadas. Con esto presente, buscamos reescribir F (s) con el denominador en la
forma (s )2 + 2 . Para ello, n
otese que

(s )2 + 2 = s2 2s + 2 + 2

Igualando los coeficientes podemos identificar 2 = 1 (y por tanto = 1/2)


y 2 + 2 = 1 (y por tanto 2 = 3/4). En consecuencia, podemos reescribir F (s)
como

s+2 s+2
F (s) = = 2
s2 + s + 1 s + 21 + 3
4

1 3 3
s+ 2 + 2 s + 21 2
F (s) =  =  + 3 
1 2 2 2
s+ 2 + 43 s + 21 + ( 23 )2 s + 21 + ( 23 )2

Los dos sumandos corresponden a transformadas de la forma e t cos(t) +


t
e sin(t), por lo tanto:

1 12 t 3 1t 3
f (t) = L {F (s)} = e cos( t) + 3e 2 sin( t)
2 2
Este resultado puede reescribirse utilizando la identidad trigonometrica:

A cos + B sin = C cos( + )


B
con C = A2 + B 2 y = tan1 A. Por lo tanto, f (t) resulta ser:
" #
12 t 3 3
f (t) = e cos t + 3 sin t
2 2
" !#
21 t
3 1 3
f (t) = e 1 + 3 cos t tan
2 1
!
21 t 3
f (t) = 2e cos t 60
2

35
OSCAR G. DUARTE

2.2.5. Transformadas inversas por expansi


on de fracciones
parciales
Una de las estrategias que pueden emplearse para obtener la transformada
Inversa de Laplace (o Z) de una funci
on racional de polinomios en s (o z):
m s m + + 1 s + 0
F (s) =
n s n + + 1 s + 0
consiste en reescribir F (s) (o F (z)) como suma de funciones m
as sencillas, cu-
yas transformadas inversas sean posibles de obtener mediante la lectura de las
tablas de parejas. Este procedimiento se conoce como la expansi
on en fracciones
parciales.
El procedimiento general puede enumerarse como sigue:
1. Si m n entonces se realiza la division hasta obtener una fracci
on en la
que el grado del polinomio del denominador sea mayor al del numerador;
en los siguientes puntos se trabaja s
olo con la fracci
on.

Ejemplo 2.5
2s2 + s + 2 3
F (s) = = 2s 1 +
s+1 s+1
2. Identificar las races del polinomio del denominador (pi ), y cu
antas veces
se repite cada una de ellas (ri , o multiplicidad de la raiz).
N (s) N (s)
F (s) = =
D(s) (s p1 )r1 (s p2 )r2 (s pk )rk
Evidentemente la suma de las multiplicidades ser
a n, el grado del polino-
mio D(s)
3. Escribir la fracci
on como suma de de fracciones parciales:
N (s) A11 A1r1 A21 Akrk
F (s) = = + + + ++
D(s) (s p1 ) (s p1 )r1 (s p2 ) (s pk )rk

4. Obtener los coeficientes Aij


Este sencillo procedimiento tiene dos puntos de dificultad, el primero de los
cuales es como encontrar las races de D(s), y el segundo c omo obtener los
coeficientes Aij .
Para la obtenci on de las races suponemos que disponemos de alg un tipo
de procedimiento (analtico o computacional) para ello. Para la obtenci on de
los coeficientes Aij , por su parte, pueden seguirse los siguientes procedimientos,
segun sea el caso:
1. Polos de multiplicidad 1 Si el polo pi tiene multiplicidad 1, el coeficiente
Ai1 de la expansi
on podr
a calcularse como:
Ai1 = {(s pi )F (s)}|s=pi (2.18)

36
2.2. TRANSFORMADAS DE LAPLACE Y Z

Ejemplo 2.6

3s + 1 A11 A21
F (s) = = +
(s + 2)(s + 4) s+2 s+4

   
3s + 1 3s + 1 7
A11 = (s + 2) = =
(s + 2)(s + 4) s=2 (s + 4) s=2 2
   
3s + 1 3s + 1 13
A21 = (s + 4) = =
(s + 2)(s + 4) s=4
(s + 2) s=4
2

3s + 1 7/2 13/2
F (s) = = +
(s + 2)(s + 4) s+2 s+4

2. Polos de multiplicidad mayor que 1


Si el polo pi tiene multiplicidad ri , el coeficiente Aij de la expansi
on podra
calcularse como:

1 dri j ri

Aij = r j
{(s pi ) F (s)} (2.19)
(ri j)! ds i
s=pi

Esta expresion tambien es v


alida para ri = 1, si se considera que 0! = 1,
y que la derivada de orden cero es la misma funci on.

Ejemplo 2.7

4s2 1 A11 A12 A13


F (s) = 3
= + 2
+
(s + 2) (s + 2) (s + 2) (s + 2)3

 
1 d0 3 4s2 1
A13 = (s + 2) = 4s2 1 s=2 = 15
(0)! ds0 (s + 2)3 s=2
 
1 d1 4s2 1
A12 = (s + 2)3 = 8s|s=2 = 8(2) = 16
(1)! ds1 (s + 2)3 s=2
 
1 d2 2
3 4s 1
1
A11 = (s + 2) = 8|s=2 = 4
(2)! ds2 (s + 2)3 s=2 2

4s2 1 4 16 16
F (s) = 3
= + 2
+
(s + 2) (s + 2) (s + 2) (s + 2)3

El procedimiento anterior tambien es v


alido cuando las races del denomi-
nador son complejas:

37
OSCAR G. DUARTE

Ejemplo 2.8

10 A11 A21 A31


F (s) = = + +
s(s2 + 4s + 13) s 0 s (2 + j3) s (2 j3)

   
10 10 10
A11 = (s) 2 = 2
=
s(s + 4s + 13) s=0
(s + 4s + 13) s=0
13
 
10
A21 = (s (2 + j3)) 2
s(s + 14s + 13) s=2+j3
 
10
A21 =
s(s (2 j3)) s=2+j3
10 10
A21 = = = 0.38 + j0.26
(2 + j3)(2 + j3 (2 j3)) (2 + j3)(j6)
 
10
A31 = (s (2 j3)) 2
s(s + 14s + 13) s=2j3
 
10
A31 =
s(s (2 + j3)) s=2j3
10 10
A31 = = = 0.38 j0.26
(2 j3)(2 j3 (2 j3)) (2 j3)(j6)

10 10/13 0.38 + j0.26 0.38 j0.26


F (s) = = + +
s(s2 + 4s + 13) s s (2 + j3) s (2 j3)

Las fracciones complejas pueden sumarse (notese que los numeradores y deno-
minadores de una fracci
on son los conjugados de la otra):

10 10/13 0.77s + 3.08


F (s) = = 2
s(s2 + 4s + 13) s s + 4s + 13

Otra estrategia
Existe otra posibilidad para obtener los coeficientes Aij . Consiste en efectuar
la suma de las fracciones parciales e igualar coeficientes.
Tambien pueden combinarse las dos estrategias. Adem as, puede emplear-
se el hecho segun el cual la suma de las fracciones debidas a polos complejos
conjugados seran de la forma

As + B
s2 + Cs + D
Ejemplo 2.9
3s + 1 A11 A21
F (s) = = +
(s + 2)(s + 4) s+2 s+4

38

2.3. SOLUCION DE E.D. LINEALES MEDIANTE
TRANSFORMADAS

Al sumar las fracciones parciales se tiene:

3s + 1 A11 s + 4A11 + A21 s + 2A21


F (s) = =
(s + 2)(s + 4) (s + 2)(s + 4)
(A11 + A21 )s + (4A11 + 2A21 )
=
(s + 2)(s + 4)
Al igualar coeficientes se genera un sistema de dos ecuaciones lineales con dos
inc
ognitas:

A11 + A21 = 3
A11 = 7/2 A21 = 13/2
4A11 + 2A21 = 1
3s + 1 7/2 13/2
F (s) = = +
(s + 2)(s + 4) s+2 s+4
Ejemplo 2.10
10 A11 As + B
F (s) = = + 2
s(s2 + 4s + 13) s s + 4s + 13
Obtenemos el primer coeficiente con 2.18:
   
10 10 10
A11 = (s) 2 = 2
=
s(s + 4s + 13) s=0 (s + 4s + 13) s=0
13
Reescribimos la expansi
on e igualamos coeficientes:
10
13 As + B
F (s) = +
ss2 + 4s + 13
10 2 10 10
s + 4 13 s + 3 13 + As2 + Bs
F (s) = 13 2
s(s + 4s + 13)
 10
13 + A = 0
A = 10/13 B = 40/13
10
4 13 +B = 0

10 10/13 10 40
13 s 13
F (s) = = +
s(s2 + 4s + 13) s s2 + 4s + 13
10 10/13 0.77s + 3.08
F (s) = = 2
s(s2 + 4s + 13) s s + 4s + 13

2.3. Soluci
on de E.D. lineales mediante
transformadas
La soluci
on de Ecuaciones Diferenciales (o de diferencia) mediante transfor-
madas emplea el siguiente procedimiento:

39
OSCAR G. DUARTE

1. Aplicar la transformada (de Laplace o Z seg


un sea el caso) a cada lado de
la Ecuacion.

2. Despejar la transformada de la funci


on desconocida.

3. Aplicar la transformada inversa (de Laplace o Z seg


un sea el caso) a la
funci
on desconocida.

Para la aplicaci
on del u
ltimo paso, suele ser conveniente utilizar la expansi
on
en fracciones parciales.

Ejemplo 2.11 Resolver la ecuaci


on diferencial

y(k + 2) + 3y(k + 1) + 2y(k) = 5(k)

Con las condiciones iniciales : y(0) = 1, y(1) = 2.

1. Al aplicar la Transformada Z a cada lado de la ecuaci


on se tiene:

Z {y(k + 2) + 3y(k + 1) + 2y(k)} = Z {5(k)}

Debido a la propiedad de linealidad se tiene

Z {y(k + 2)} + 3Z {y(k + 1)} + 2Z {y(k)} = 5Z {(k)}

Si denominamos por Y (z) a Z {y(k)}, y empleamos la propiedad de diferen-


cias positivas, tenemos
 2  z
z Y (z) z 2 y(0) zy(1) + 3 [zY (z) zy(0)] + 2Y (z) = 5
z1

Reemplazando los valores de las condiciones iniciales, tenemos:

  z
z 2 Y (z) + z 2 2z) + 3 [zY (z) + z] + 2Y (z) = 5
z1

2. Para despejar la transformada de la funci


on desconocida Y (z) escribimos:
  z
Y (z) z 2 + 3z + 2 + z 2 2z + 3z = 5
z1

  z z 3 + 6z
Y (z) z 2 + 3z + 2 = 5 z2 z =
z1 z1

z 3 + 6z z 3 + 6z
Y (z) = 2
=
(z 1)(z + 3z + 2) (z 1)(z + 1)(z + 2)

40

2.3. SOLUCION DE E.D. LINEALES MEDIANTE
TRANSFORMADAS

3. Para aplicar la transformada inversa Z primero efectuamos una expansi


on en
fracciones parciales de Y z(z)

Y (z) z 2 + 6 A11 A21 A31


= = + +
z (z 1)(z + 1)(z + 2) z1 z+1 z+2

Los coeficientes se pueden calcular como


 
z 2 + 6 5
A11 = =
(z + 1)(z + 2) z=1 6

 
z 2 + 6 5
A21 = =
(z 1)(z + 2) z=1
2
 
z 2 + 6 2
A31 = =
(z 1)(z + 1) z=2 3

Por lo tanto

5 5 2
Y (z) z 2 + 6
= = 6 + 2 + 3
z (z 1)(z + 1)(z + 2) z1 z+1 z+2

5 5 2
6z 2 z 3z
Y (z) = + +
z1 z+1 z+2
La transformada inversa Z se puede obtener ahora en forma directa:
5 5 2
y(k) = Z 1 {Y (z)} = (k) + (1)k + (2)k
6 2 3

41
OSCAR G. DUARTE

42
Captulo 3

Introduccion al analisis de sistemas


dinamicos lineales

En este captulo se presentan algunas herramientas b asicas del analisis de


sistemas dinamicos. La secci on 3.1 muestra c omo puede descomponerse la res-
puesta de cualquier sistema din amico en las respuesta de entrada cero y de
estado cero; a partir de esta u
ltima se presenta en la secci
on 3.2 la definici
on de
funci
on de transferencia; con esta definici on se desarrollan en las secciones 3.3
y 3.4 se presentan dos herramientas gr aficas; la respuesta al impulso se analiza
en la secci
on 3.5.

3.1. Respuestas de estado cero y de entrada cero


3.1.1. Sistemas continuos

u(t) - Sistema - y(t)

Figura 3.1: Sistema Din


amico Continuo

Supongase un sistema din amico lineal continuo como el de la figura 3.1,


cuya relaci
on entre la entrada u(t) y la salida y(t) est
a descrita por la siguiente
ecuaci
on diferencial generica:

dn y dy dm u du
an n
+ + a1 + a0 y(t) = bm m + + b1 + b0 u(t) (3.1)
dt dt dt dt

43
OSCAR G. DUARTE

o en forma resumida:
n
X m
X
ai y (i) (t) = bi u(i) (t)
i=0 i=0

Al aplicar la transformada de Laplace a esta ecuaci on se tiene:


( n ) (m )
X X
(i) (i)
L ai y (t) = L bi u (t)
i=0 i=0

n
X n o Xm n o
ai L y (i) (t) = bi L u(i) (t)
i=0 i=0

n i1
!
X X
i ik1 (k) +
ai s Y (s) s y (0 ) =
i=0 k=0
m i1
!
X X
i ik1 (k) +
bi s U (s) s u (0 )
i=0 k=0

n n i1
!
X X X
i ik1 (k) +
ai s Y (s) s y (0 ) =
i=0 i=0 k=0
m m i1
!
X X X
i ik1 (k) +
bi s U (s) s u (0 )
i=0 i=0 k=0

De esta ecuaci
on podemos despejar Y (s) como:

n
X m
X
ai si Y (s) = bi si U (s)+
i=0 i=0
n i1
! m i1
!
X X X X
ik1 (k) + ik1 (k) +
s y (0 ) s u (0 )
i=0 k=0 i=0 k=0

Pm i
i=0 bi s U (s)
Y (s) = P n i
+
i=0 ai s
P  P  Pm Pi1 
n i1 ik1 (k) + ik1 (k) +
i=0 k=0 s y (0 ) i=0 k=0 s u (0 )
Pn i
Pn i
i=0 ai s i=0 ai s

o de otra forma:

44
3.1. RESPUESTAS DE ESTADO CERO Y DE ENTRADA CERO

 Pm 
i=0 bi si
Y (s) = Pn i
U (s)+
i=0 ai s
Pn  Pi1 ik1 (k) +  Pm Pi1 ik1 (k) + 
i=0 k=0 s y (0 ) i=0 k=0 s u (0 )
Pn i
(3.2)
i=0 ai s

La ecuaci
on (3.2) muestra que la respuesta de un sistema din
amico continuo
puede descomponerse en dos partes1 :
Respuesta de estado cero: Es la primera parte de la ecuaci on (3.2). Depen-
de de la entrada U (s) y no de las condiciones iniciales; de hecho, es la
respuesta que tiene el sistema si las condiciones iniciales son cero, es decir,
si su estado inicial es cero (de all su nombre).
Respuesta de entrada cero: Es la segunda parte de la ecuaci on (3.2). De-
pende de las condiciones iniciales y no de la entrada U (s); de hecho, es la
respuesta que tiene el sistema si la entrada es cero (de all su nombre).

3.1.2. Sistemas discretos

u(k) - Sistema - y(k)

Figura 3.2: Sistema Din


amico Discreto

Supongase un sistema din amico lineal discreto como el de la figura 3.2, cuya
relaci
on entre la entrada u(k) y la salida y(k) est a descrita por la siguiente
ecuacion de diferencias generica:

an y(k + n) + + a1 y(k + 1) + a0 y(k) =


bn u(k + n) + + b1 y(k + 1) + b0 u(k) (3.3)
o en forma resumida:
n
X m
X
ai y(k + i) = bi u(k + i)
i=0 i=0

Al aplicar la transformada Z a esta ecuaci


on se tiene:
( n ) (m )
X X
Z ai y(k + i) = Z bi u(k + i)
i=0 i=0
1 Otra clasificaci
on corresponde a respuesta forzada (con la forma de la entrada) y respuesta
natural (con la forma debida al polinomio caracterstico)

45
OSCAR G. DUARTE

n
X m
X
ai Z {y(k + i)} = bi Z {u(k + i)}
i=0 i=0


n
X i1
X m
X i1
X
ai z i Y (z) z ij y(j) = bi z i U (z) z ij u(j)
i=0 j=0 i=0 j=0

!
n
X n
X i1
X m
X m
X i1
X
i ij i ij (
ai z Y (z) z y(j) = bi z U (z) z u j)
i=0 i=0 j=0 i=0 i=0 k=0

De esta ecuaci
on podemos despejar Y (z) como:


n
X m
X n
X Xi1 m
X Xi1
ai z i Y (z) = bi z i U (z) + z ik y(j) z ik u(j)
i=0 i=0 i=0 j=0 i=0 j=0

Pm i
i=0 bi z U (z)
Y (z) = P n i
+
i=0 ai z
P P  Pm Pi1 
n i1 ik1 (k) + ik1 (k) +
i=0 k=0 s y (0 ) i=0 k=0 s u (0 )
Pn i
Pn i
i=0 ai z i=0 ai z

o de otra forma:

 Pm 
i=0 bi z i
Y (z) = Pn i
U (s)+
i=0 ai z
Pn Pi1  P
m
P
i1 ik

ik
i=0 j=0 j y(j) i=0 j=0 z u(j)
Pn i
(3.4)
a
i=0 i z

De forma semejante al caso continuo, la ecuaci


on 3.4 muestra que la respuesta
de un sistema din
amico continuo puede descomponerse en dos partes:
Respuesta de estado cero: Es la primera parte dela ecuaci on 3.4. Depende
de la entrada U (z) y no de las condiciones iniciales; de hecho, es la res-
puesta que tiene el sistema si las condiciones iniciales son cero, es decir, si
su estado inicial es cero (de all su nombre).
Respuesta de entrada cero: Es la segunda parte dela ecuaci on 3.4. Depen-
de de las condiciones iniciales y no de la entrada U (z); de hecho, es la
respuesta que tiene el sistema si la entrada es cero (de all su nombre).

46
3.2. FUNCIONES DE TRANSFERENCIA

3.2. Funciones de transferencia


Se define la funci
on de transferencia de un sistema continuo o discreto como
la relaci
on en el dominio de la frecuencia compleja entre salida y entrada con
condiciones iniciales nulas

Y (s) Y (z)
F (s) = F (z) =
U (s) C.I.=0 U (z) C.I.=0

De acuerdo con las ecuaciones 3.2 y 3.4, la funcion de transferencia ser


a,
para los casos continuo y discreto, respectivamente:
Pm i
Pm i
i=0 bi s i=0 bi z
F (s) = Pm i
F (z) = Pm i
i=0 ai s i=0 ai z

Las expresiones

Y (s) = F (s)U (s) Y (z) = F (z)U (z)

s
olo son v
alidas si las condiciones iniciales son nulas. En este caso, es posible
representar gr
aficamente la relacion entrada-salida del sistema mediante dos
tipos de diagramas:

Diagramas de bloque: La figura 3.3 muestra un sistema como un bloque de-


finido por la funci
on de transferencia F (s) o F (z), que recibe una senal
de entrada U (s) o U (z) y entrega una se
nal de salida Y (s) o Y (z). Estos
diagramas se explican en la secci
on 3.3.

Diagramas de flujo de se nal: La figura 3.4 muestra un sistema como dos


se
nales U (s) y Y (s) (o U (z) y Y (z)) relacionadas entre s por la funci
on
de transferecia F (s) o F (z). Estos diagramas se explican en la seccion 3.4

U (s) - F (s) - Y (s) U (z) - F (z) - Y (z)

Figura 3.3: Diagrama de bloques mnimo

-
F (s) -(z)
F
U (s) s sY (s) U (z) s sY (z)

Figura 3.4: Diagrama de flujo de se


nal mnimo

47
OSCAR G. DUARTE

3.3. Diagramas de bloques


Un sistema complejo puede representarse por distintos subsistemas interre-
lacionados. Estas relaciones pueden visualizarse mediante un Diagrama de Blo-
ques.
La figura 3.5 muestra algunas de las equivalencias que rigen el algebra de

los diagramas de bloques. Estas se emplean para obtener diagramas de bloques
equivalentes reducidos, y asi encontrar la funci
on de transferencia de sistemas
complejos.

Ejemplo 3.1 2 Para obtener la funci on de transferencia equivalente del diagrama de


la figura 3.6 inicialmente intentariamos efectuar reducciones de bloques en cascada
o en paralelo, pero en el diagrama no se identifica ninguno de estos bloques. No
obstante, podemos efectuar una reducci on con el siguiente procedimiento:

Desplazamos el sumador que recibe la se


nal de b 1 (ver figura 3.7(a))

Intercambiamos el orden de los dos sumadores contiguos, ya que la suma es


conmutativa (ver figura 3.7(b))

Efectuamos una reducci


on del bloque en retroalimentaci
on resultante (ver
figura 3.7(c))

Efectuamos una reducci


on del bloque en cascada resultante (ver figura 3.7(d))

Identificamos un bloque en paralelo (ver figura 3.7(e))

Efectuamos la reducci
on del bloque en paralelo (ver figura 3.7(f))

Efectuamos un desplazamiento del segundo sumador (ver figura 3.7(g))

Identificamos un bloque en paralelo y un bloque en retroalimentaci


on (ver
figura 3.7(h))

Efectuamos la reducci
on de los bloques identificados (ver figura 3.7(h))

Efectuamos la reducci
on del bloque en cascada final (ver figura 3.7(i))

3.4. Diagramas de flujo de se


nal
La figura 3.8 presenta las relaciones b
asicas de un diagrama de flujo de se
nal.
Notese que el enfasis se pone en la se
nal y no en el sistema, a diferencia de los
diagramas de bloques. Este es un texto de an alisis de sistemas y no de an
alisis
de se
nales, por esa raz on preferimos los diagramas de bloques a los de flujo de
se
nal.
2 Adaptado de [9]

48

3.4. DIAGRAMAS DE FLUJO DE SENAL

Suma de se
nales
X2 (s)
 ?

X1 (s) +- - X1 (s) X2 (s)

Conexi
on en cascada
- F1 (s) - F2 (s) - - F1 (s)F2 (s) -

Conexi
on Paralelo
- F1 (s)
?+
k- - F1 (s) + F2 (s) -
- F2 (s) 6+
Retroalimentaci
on
-
+ k - G(s) -

6 - G(s) -
1G(s)H(s)
H(s) 
Traslado del sumador
X1 (s) - F1 (s) -
X1 (s) F1 (s)
F2 (s)
+? +?
X2 (s) - F2 (s) -
+ k Y-
(s) X2 (s) -
+ k - F2 (s) Y (s)
-

Traslado del punto de salida


X(s) - F1 (s) Y1 -
(s) X(s) - F (s) Y1 -
(s)
1

- F2 (s) Y2 -
(s) - F2 (s) Y2 -
(s)
F1 (s)

Figura 3.5: Equivalencias de los Diagramas de Bloques

49
OSCAR G. DUARTE

b2

b1 + +
+ + +
1/s 

1/s 

a1

a0

Figura 3.6: Diagrama de Bloques del ejemplo 3.1

No obstante lo anterior, el ejemplo 3.1 pone de manifiesto que para la ob-


tenci
on de la funcion de transferencia de un sistema a partir de su diagrama
de bloques es necesario desarrollar una habilidad especfica debido a que no
existe un algoritmo para ello. Por el contrario, si se utilizan diagramas de flujo
de se
nal s se cuenta con un procedimiento para la obtenci on de la funci
on de
transferencia conocido como la regla de Mason.
La regla de Mason, que se explica en la secci
on 3.4.1, emplea las definiciones
que se presentan a continuacion y que se ilustran en el ejemplo 3.2.

Camino directo Conjunto de ramas que llevan de la entrada a la salida, sin


repetirse.

Ganancia de camino directo Producto de las ganancias de las ramas que


forman el camino directo.

Lazo cerrado Conjunto de ramas que parten de un nodo y llegan a el mismo


nodo, sin repetir ning
un otro nodo.

Ganancia de lazo cerrado Producto de las ganancias de las ramas que for-
man un lazo.

Lazos adyacentes Lazos que comparten al menos un nodo.

Lazos no adyacentes Lazos que no comparten ning


un nodo.

Ejemplo 3.2 Considerese el diagrama de flujo de se


nal de la figura 3.9(a)

Camino directo Las figuras 3.9(b) y 3.9(c) muestran los caminos directos. 3.2

Ganancia de camino directo Las ganancias de camino directo Son:

Figura 3.9(b): T1 = G1 (s)G2 (s)G3 (s)G4 (s)G5 (s)G6 (s)

50

3.4. DIAGRAMAS DE FLUJO DE SENAL

b2 b2
sb1
+ +
sb1
+
+ + + ++ + +
1/s 1/s 1/s 1/s
    

a1 a1

a0 a0

(a) Primer paso (b) Segundo paso

b2 b2
sb1 + sb1 +
+ +

+ 1 + + 1 +
1/s
  

s+a1 s(s+a1 )

a0 a0

(c) Tercer paso (d) Cuarto paso

b2 b2

sb1 + +
+
+ + 1 + + 1 +
sb1 + 1

s(s+a1 ) s(s+a1 )

a0 a0

(e) Quinto paso (f) Sexto paso

b2 s(s + a1 ) b2 s(s + a1 )

+ +

+ + 1 + + 1
sb1 + 1 sb1 + 1
   

s(s+a1 ) s(s+a1 )

a0 a0

(g) Septimo paso (h) Octavo paso


1 1
b2 s(s + a1 ) + sb1 + 1 s(s+a1 )+a0 (b2 s(s + a1 ) + sb1 + 1)
s(s+a1 )+a0

(i) Noveno paso (j) Decimo paso

Figura 3.7: Soluci


on del ejemplo 3.1

51
OSCAR G. DUARTE

Nodos y Ramas
F (s) Y (s) = F (s)X(s)
X(s) 

Y (s)

Suma de Se
nales

X3 (s) F3 (s)
F2 (s)
X2 (s) Y (s) Y (s) = F1 (s)X1 (s)+
F2 (s)X2 (s) F3 (s)X3 (s)
X1 (s) F1 (s)

Figura 3.8: Equivalencias de los Diagramas de de Flujo de Se


nal

Figura 3.9(c): T2 = G1 (s)G2 (s)G3 (s)


G12 (s)G6 (s).

Lazo cerrado Las figuras 3.9(d) a 3.9(f) muestran los lazos del ejemplo.

Ganancia de lazo cerrado Las ganancias de lazo cerrado son:

Figura 3.9(d): L1 = G4 (s)G9 (s)G10 (s)


Figura 3.9(e): L2 = G6 (s)G7 (s)G8 (s)
Figura 3.9(f): L3 = G2 (s)G3 (s)G4 (s)G12 (s)G13 (s)

Lazos adyacentes Los lazos mostrados en las figuras 3.9(e) y 3.9(f) son adya-
centes.

Lazos no adyacentes Los lazos mostrados en las figuras 3.9(d) y 3.9(e) son no
adyacentes.

3.4.1. Regla de Mason


El c
alculo de la funci
on de transferencia F (s) de un diagrama de flujo de
se
nal esta dado por:
Pp
Y (s) T k k
F (s) = = k=1
X(s)
Donde:

p= N
umero de caminos directos de X(s) a Y (s)

Tk = Ganancia del camino directo n


umero k

52

3.4. DIAGRAMAS DE FLUJO DE SENAL

G11 (s)

G1 (s) G2 (s) G3 (s) G4 (s) G5 (s) G6 (s)

G9 (s) G8 (s)
G10 (s) G7 (s)
G12 (s)

G13 (s)

(a) Ejemplo

(b) Camino Directo 1 (c) Camino Directo 2

(d) Lazo Cerrado 1 (e) Lazo Cerrado 2

(f) Lazo Cerrado 3

Figura 3.9: Definiciones de Diagramas de Flujo de Se


nal

53
OSCAR G. DUARTE

G1 (s) G2 (s) G3 (s) G4 (s) G5 (s)


X(s) Y (s)

H1 (s) H2 (s)

H5 (s) G6 (s) H4 (s)

H3 (s)

Figura 3.10: Diagrama de Flujo de Se


nal del ejemplo 3.3

= 1
- (Suma de ganancias de lazos cerrados)
+ (Suma de ganancias de lazos no adyacentes tomados de a 2)
- (Suma de ganancias de lazos no adyacentes tomados de a 3)
+ (Suma de ganancias de lazos no adyacentes tomados de a 4)

k : para el diagrama eliminando los lazos que tocan el camino n
umero
k
Ejemplo 3.3 Para el sistema de la figura 3.10 la aplicaci
on de la regla de Mason
es como sigue:
S
olo existe un camino directo (p = 1), cuya ganancia es:
T1 = G 1 G 2 G 3 G 4 G 5

Existen cuatro lazos cerrados, cuyas ganancias son:


L1 =G2 H1
L2 =G4 H2
L3 =G6 H3
L4 =G2 G3 G4 G5 H4 G6 H5

Como existen 4 lazos, hay 6 posibles grupos de 2 lazos (L 1 L2 , L1 L3 , L1 L4 ,


L2 L3 , L2 L4 , L3 L4 ), pero de ellos, s
olo son no adyacentes los siguientes:

L1 L2 =G2 H1 G4 H2
L1 L3 =G2 H1 G6 H3
L2 L3 =G4 H2 G6 H3

54
3.5. RESPUESTA AL IMPULSO

Como existen 4 lazos, hay 4 posibles grupos de 3 lazos (L 1 L2 L3 , L1 L2 L4 ,


L1 L3 L4 , L2 L3 L4 ), pero de ellos, s
olo hay uno que es no adyacentes:

L 1 L 2 L 3 = G 2 H1 G 4 H2 G 6 H3

Como existen 4 lazos, s


olo hay un posible grupo de 4 lazos (L 1 L2 L3 L4 ), pero
estos son adyacentes.

De acuerdo con lo anterior, el valor de es:



1


(L + L + L + L3)
1 2 3
=
+(L1 L2 + L1 L3 + L2 L3 )




(L1 L2 L3 )

1


(G H + G H + G H + G G G G H G H )
2 1 4 2 6 3 2 3 4 5 4 6 5
=
+(G2 H1 G4 H2 + G2 H1 G6 H3 + G4 H2 G6 H3 )





(G2 H1 G4 H2 G6 H3 )

Al eliminar los lazos que tocan el u


nico camino directo s
olo subsiste el lazo
L3 . Por lo tanto resulta:
1 = 1 (G6 H3 )

Dado que s
olo hay un camino directo, la funcion de transferencia se calcula
como: Pp
Y (s) T k k T 1 1
F (s) = = k=1 =
X(s)
G1 G2 G3 G4 G5 (1 (G6 H3 ))
F (s) = 1(G2 H1 +G4 H2 +G6 H3 +G2 G3 G4 G5 H4 G6 H5 )
+(G2 H1 G4 H2 +G2 H1 G6 H3 +G4 H2 G6 H3 )
(G2 H1 G4 H2 G6 H3 )

3.5. Respuesta al impulso


La funci
on de transferencia presentada en la seccion 3.2 permite caracterizar
un sistema dinamico lineal invariante en el tiempo, en situacion de reposo, me-
diante una expresion en el dominio de la frecuencia compleja s o z. La respuesta
al impulso logra esa misma caracterizaci on, pero en el dominio del tiempo t o
k, mediante el estudio del comportamiento del sistema cuando se estimula con
una senal especial: el impulso unitario3 .
3 Pese a que en todo el texto se presentan los temas primero para el caso continuo y luego

para el discreto, en esta seccion se ha hecho una excepci


on, debido a que el caso discreto es
notablemente m as f
acil de presentar que el continuo.

55
OSCAR G. DUARTE

3 2 1 1 2 3

Figura 3.11: Funci


on Impulso Unitario discreto

3.5.1. Caso discreto


La funci
on impulso unitario discreto
Dado un sistema como el de la figura 3.2 la respuesta al impulso es la res-
puesta del sistema cuando la entrada es el impulso unitario (k), con condiciones
iniciales nulas. La respuesta al impulso suele denotarse por h(k), y su transfor-
mada Z por H(z)
La funcion (k) (ver figura 3.11) se define como:

1 k=0
(k) =
0 k 6= 0

Una de las caractersticas importantes de la funci


on (k) es que su transfor-
mada Z es 1, tal como se muestra a continuaci on:

X
Z{(k)} = (k)z k = (0)z 0 = 1
k=

Supongase un sistema discreto con condiciones iniciales nulas, con funcion


de transferencia F (z), que se excita con el impulso unitario (figura 3.12). La
respuesta del sistema, en el dominio de la frecuencia z ser
a el producto de la
entrada por la funci
on de transferencia:

H(z) = U (z)F (z) = 1F (z) = F (z)

Z{(k)} = 1 - F (z) - H(z)

Figura 3.12: Sistema Din


amico Discreto estimulado con el impulso unitario

Este hecho pone de manifiesto la relaci on que existe entre la respuesta al


impulso y la funci
on de transferencia (ver figura 3.13): la funci
on de transferencia
es la transformada Z de la respuesta al impulso

56
3.5. RESPUESTA AL IMPULSO

Respuesta al Impulso Funci


on de Transferencia

Z 1

Figura 3.13: Relaci


on entre la respuesta al impulso y la funci
on de transferencia.
Caso discreto

La respuesta a un impulso gen


erico
Supongase un sistema discreto lineal, que es excitado con la funcion impulso
(k), y cuya salida es la respuesta al impulso h(k), tal como el de la figura
3.14(a). Si ese mismo sistema se excita con la funci on impulso, pero retrasada
en 1, la salida debe ser la misma respuesta al impulso retrasada en 1, como se
muestra en la figura 3.14(b) ya que se supone que el sistema es invariante en el
tiempo.
Por otra parte, debido a que el sistema es lineal, al multiplicar la entrada
por un escalar c la salida se multiplicar
a por el mismo escalar c; por lo tanto, si
el sistema recibe como entrada la senal impulso c(k i), la salida ser
a ch(k i)
(ver figura 3.14(c)).

Convoluci
on
Una se
nal discreta cualquiera x(k) es un conjunto de valores en el tiempo,
que puede representarse como la suma de infinitos impulsos individuales yi , tal
como se muestra en la figura 3.15.
Ademas, cada uno de los pulsos individuales wi puede representarse como
un impulso aplicado en el instante de tiempo i, cuya amplitud es justamente
x(i) Dicho de otra forma, cualquier se
nal puede escribirse como:

x(k) = + x(1)(k (1)) + x(0)(k 0) + x(1)(k 1) +



X
x(k) = x(i)(k i)
i=

Debido a que el sistema es lineal, podemos aplicar el principio de superpo-


sici
on, y obtener la respuesta del sistema y(k) cuando la entrada es x(k) como
la suma debida a cada uno de los impulsos wi (suponiendo condiciones iniciales
nulas). Estas respuestas son de la forma que se muestra en la figura 3.14(c), y
por tanto la respuesta y(k) ser
a de la forma:

y(k) = + x(1)h(k (1)) + x(0)h(k 0) + x(1)h(k 1) +

57
OSCAR G. DUARTE

(k) h(k)
1 1

F (z)
1 1 2 3 4 5 1 1 2 3 4 5

(a) Respuesta al Impulso discreto

(k 1) h(k 1)
1 1

F (z)
1 1 2 3 4 5 1 1 2 3 4 5

(b) Respuesta al Impulso discreto retrasado

c(k i) F (z) ch(k i)

(c) Respuesta al Impulso discreto generica

Figura 3.14: Respuesta al Impulso discreto

58
3.5. RESPUESTA AL IMPULSO


X
y(k) = x(i)h(k i) = x(k) h(k)
i=

Esta ultima sumatoria corresponde a la convoluci


on discreta de las se
nales
x(k) y h(k), representada por el operador
El resultado anterior no debe sorprender, ya que al aplicar transformada Z
a cada lado de la igualdad se tiene:

Z{y(k)} = Z{x(k) h(k)} = Z{x(k)}Z{h(k)} = X(z)H(z)


y la transformada Z de la respuesta al impulso resulta ser la funci on de trans-
ferencia del sistema, tal como se haba mostrado ya en la figura 3.13

3.5.2. Caso continuo


La funci
on impulso unitario continuo
Para obtener con sistemas continuos un resultado similar el mostrado para
sistemas discretos en la secci on 3.5.1 es necesario contar con una funci
on con-
tinua cuyas propiedades sean an alogas a las de la funci
on impulso discreto; es
decir, se necesita una funcion cuya transformada de Laplace sea 1. Dicha funcion
es la funcion impulso o delta de Dirac, generalmente representado por (t).
Para presentar la funci on (t), primero consideramos la funci
on d (t), cuya
grafica se muestra en la figura 3.16:

1/ t [0, ]
d (t) = >0
0 t/ [0, ]

Notese que el area bajo la gr


afica de la funci
on d (t) es 1, independiente-
mente del valor de , es decir,
Z
d (t)dt = 1 >0

Se define la funci
on delta de Dirac como la funci on que resulta al disminuir
progresivamente, hasta llevarlo al lmite en que tiende a cero:

(t) = lm d (t)
0

Esta funcion, cuya gr


afica se muestra en la figura 3.17 conserva la propiedad
seg
un la cual el a
rea bajo la gr
afica es 1
Z
(t)dt = 1

Adem as, si calculamos el area bajo la grafica desde hasta un valor t el


resultado es la funci
on escalon unitario (t)
Z t 
0 t (, 0)
(t)dt = (t) =
0 1 t (0, )

59
OSCAR G. DUARTE

x(k)1

=
3 2 1 1 2 3

..
w1
+
1

3 2 1 1 2 3

+
w0
1

3 2 1 1 2 3

+
w1
1

3 2 1 1 2 3

+.
.
Figura 3.15: Descomposici
on de una se
nal discreta

60
3.5. RESPUESTA AL IMPULSO

d (t)
1/

Figura 3.16: Funci


on d

(t)

Figura 3.17: Funci


on Impulso Unitario Continuo

Por otra parte, consideremos el producto de la funci on d (t) desplazada en


el tiempo, con una funcion f (t) cualquiera, y calculemos el a rea bajo la gr
afica
de ese producto (ver figura 3.18)
Z Z +
1
f (t)d (t )dt = f (t) dt

Para valores de suficientemente peque nos, el a
rea puede hacerse equiva-
1
lente a la de un rect angulo de base y altura f ( ) , por lo tanto,
Z
1
lm f (t)d (t )dt = f ( ) = f ( )
0
El lmite puede introducirse en la integral, con lo que se obtiene
Z Z
f (t) lm d (t )dt = f (t)(t )dt = f ( ) (3.5)
0

Es posible demostrar que la transformada de Laplace del impulso es 1, es


decir que Z
L {(t)} = est (t)dt = 1
0
Para ello, puede aplicarse directamente el resultado de la ecuaci
on 3.5 o consi-
derar la propiedad de la transformada de Laplace seg un la cual
Z t 
L {x(t)} X(s)
L x(t)dt = =
0 s s

61
OSCAR G. DUARTE

f (t)
1/
f (t)d (t)

t t
+ +


Figura 3.18: Area bajo la curva f (t)d

Observese que la transformada de Laplace de (t), que es 1/s puede escribirse


como
Z t 
L {(t)} 1
L {(t)} = L (t)dt = =
0 s s
por lo tanto

L {(t)} = 1

Respuesta al impulso

Dado un sistema como el de la figura 3.1 la respuesta al impulso es la res-


puesta del sistema cuando la entrada es el impulso unitario (t), con condiciones
iniciales nulas. La respuesta al impulso suele denotarse por h(t), y su transfor-
mada de Laplace por H(s)
Si el sistema continuo tiene una funci
on de transferencia F (s), (figura 3.19),
la respuesta del sistema, en el dominio de la frecuencia s ser
a el producto de la
entrada por la funcion de transferencia:

H(s) = U (s)F (s) = 1F (s) = F (s)

Este hecho pone de manifiesto la relacion que existe entre la respuesta al im-
pulso y la funci
on de transferencia (ver figura 3.20):La funcion de transferencia
es la transformada de Laplace de la respuesta al impulso

L{(t)} = 1 - F (s) - H(s)

Figura 3.19: Sistema Din


amico Contnuo estimulado con el impulso unitario

De manera semejante al caso discreto (ver seccion 3.5.1) puede argumentarse


que debido a que el sistema es lineal e invariante en el tiempo, la respuesta del
nal impulso generica c(t ) ser
sistema a una se a ch(t )

62
3.5. RESPUESTA AL IMPULSO

Respuesta al Impulso Funci


on de Transferencia

L1

Figura 3.20: Relaci


on entre la respuesta al impulso y la funci
on de transferencia.
Caso contnuo

Convoluci
on
La ecuaci
on 3.5 muestra que una se nal cualquiera x(t) puede representarse
como la convolucion contnua entre x(t) y (t) identificada con el operador
(se han intercambiado las variables t y , lo que no altera el resultado):
Z
x(t) = x( )(t )d = x(t) (t)

La integral es la suma de infinitos terminos (terminos infinitesimales), y por


tanto podemos emplear el principio de superposici on para obtener la respuesta
del sistema y(t) cuando la entrada es x(t) como la suma debida a cada uno de
los terminos infinitesimales (suponiendo condiciones iniciales nulas), es decir:
Z
y(t) = x( )h(t )d = x(t) h(t)

Al igual que en al caso discreto, la respuesta del sistema a una entrada


cualquiera x(t) se puede obtener como la convoluci
on (contnua) de esa entrada
con la respuesta al impulso.
Este resultado concuerda con una afirmacion previa, ya que al aplicar trans-
formada de Laplace a cada lado de la igualdad se tiene:

L{y(t)} = L{x(t) h(t)} = Lx(t)L{h(t)} = X(s)H(s)


y la transformada de Laplace de la respuesta al impulso resulta ser la Funcion
de Transferencia del sistema, tal como se haba mostrado ya en la figura 3.20

63
OSCAR G. DUARTE

64
Captulo 4

Sistemas de primer y segundo


orden

Los sistemas de primer y segundo orden merecen especial atenci on, ya que
ellos presentan los comportamientos b asicos que pueden aparecer en cualquier
sistema dinamico. Dicho de otra forma, en general un sistema din
amico presen-
tara un comportamiento que puede descomponerse en los comportamientos m as
simples de los sistemas de primer y segundo orden.
Este hecho puede explicarse observando el metodo de soluci on de E.D. que
emplea expansion en fracciones parciales (ver secci
on 2.2.5): una fracci
on se des-
compone en fracciones m as simples en donde los denominadores son polinomios
de primer o segundo orden.
La excepcion a esta regla la constituyen los sistemas con polos repetidos, en
donde adem as aparecen los mismos comportamientos b asicos multiplicados por
tn o k n (ver tablas 2.5 y 2.6).
En este captulo se estudian los sistemas continuos de primer y segundo
orden. En todos los casos se proceder a de la misma forma: se seleccionar a una
funcion de transferencia prototipo, se calcular on unitario 1
a su respuesta al escal
con condiciones iniciales nulas, y se analizar a la relaci
on existente entre esa
respuesta y el valor de los polos dela funci on de transferencia. Las secciones
4.5 y 4.6 buscan resaltar que los resultados presentados en este captulo son
estrictamente validos para las funciones prototipo seleccionadas.

1 Tambien denominado paso unitario.

65
OSCAR G. DUARTE

y(t) y(t)
2 a=2 2 a=3
1 1

1 2 3 4
t 1 2 3 4
t

y(t) y(t)
2 a = 1 2 a=1
1 1

1 2 3 4
t 1 2 3 4
t

Figura 4.1: Respuesta al paso de un sistema continuo de primer orden

4.1. Sistemas continuos de primer orden


Supongase un sistema continuo de primer orden, cuya funci
on de transferen-
cia sea
1
F (s) = (4.1)
s+a
Al estimular el sistema con un paso unitario (t), con condiciones iniciales
nulas, la respuesta y(t) puede calcularse como sigue:

1 1 1/a 1/a
Y (s) = F (s)U (s) = = +
(s + a) s s s+a

1 1 1
y(t) = L1 {Y (s)} = (t) eat (t) = (1 eat )(t)
a a a
1
y(t) = (1 eat )(t) (4.2)
a
La expresion (4.2) muestra que la respuesta del sistema depender a del valor
de a. Este hecho se constata en la figura 4.1, que muestra las gr aficas de y(t)
para distintos valores de a.
Al cambiar el valor de a tambien cambia el valor del unico polo de la funci
on
de transferencia (4.1), que es a. Para cualquier valor real positivo de a el polo
es un real negativo a, y viceversa. Cuando el polo es positivo, la respuesta
del sistema tiende a infinito, y se dice que el sistema es inestable. La figura 4.2
muestra cuales son las regiones de estabilidad e inestabilidad con referencia a la
recta real, es decir, en que lugares debe estar ubicado el polo de la funcion de
transferencia para que el sistema sea, respectivamente, estable o inestable.

66
4.1. SISTEMAS CONTINUOS DE PRIMER ORDEN

Regi
on de Estabilidad Regi
on de Inestabilidad

Figura 4.2: Regiones de estabilidad e inestabilidad para un sistema continuo de


primer orden

y(t)
y=t
1/a
67 %

1/a t

Figura 4.3: Respuesta al paso de un sistema continuo de primer orden, polo


negativo en a

Para un polo negativo cualquiera a, la respuesta es como la que se muestra


en la figura 4.3. El valor a determina que tan empinada es la respuesta (y cual
ser
a el valor final de la respuesta); para valores grandes de a, la respuesta es
mas empinada, debido a que la respuesta natural eat se extingue m as r
apido.
Para medir que tan r apido decae una respuesta natural, podemos definir el
tiempo de asentamiento o tiempo de estabilizaci on, como el tiempo a partir del
cual la respuesta natural (su valor absoluto) no supera un porcentaje de su valor
maximo, por ejemplo el 5 %. Para el caso del sistema continuo de primer orden,
este tiempo tas satisface:
ln 0.05
eatas = 0.05 tas = tas 3/a
a
En general, al alejar el polo del origen (al desplazarlo hacia la izquierda)
disminuye el tiempo de asentamiento, es decir, la respuesta es m as empinada.
Esto nos permite definir una regi on de tiempo de asentamiento m aximo, como
la que se muestra en la figura 4.4. Si el polo de la funci
on de transferencia (4.1)
cae en esa region podemos asegurar que su tiempo de asentamiento satisface
tas 3/a.
N
otese que la regi on de tiempo de asentamiento m aximo est a contenida
dentro de la regi
on de estabilidad; esto es l
ogico, ya que la definici
on de tiempo
de asentamiento s olo tiene sentido para sistemas estables.

67
OSCAR G. DUARTE

tas 3/a

a 0

Figura 4.4: Regi


on de tiempo de asentamiento m
aximo para un sistema continuo de
primer orden

4.2. Sistemas discretos de primer orden


Sup
ongase un sistema discreto de primer orden, cuya funci
on de transferencia
sea
1
F (z) = (4.3)
z+a
Al estimular el sistema con un paso unitario (k), con condiciones iniciales
nulas, la respuesta y(k) puede calcularse como sigue:

1 z z/(1 + a) z/(1 + a)
Y (z) = F (z)U (z) = =
(z + a) (z 1) (z 1) z+a

1 1 1
y(k) = Z 1 {Y (z)} = (k) (a)k (k) = (1 (a)k )(k)
1+a 1+a (1 + a)
1
y(k) = (1 (a)k )(k) (4.4)
(1 + a)
La expresion (4.4) muestra que la respuesta del sistema depender a del valor de
a. Este hecho se constata en la figura 4.1, que muestra las gr aficas de y(k) para
distintos valores de a.
Al cambiar el valor de a tambien cambia el valor de el unico polo de la funci
on
de transferencia (4.3), que es a. Para cualquier valor real positivo de a el polo
es un real negativo a, y viceversa. Cuando el polo es negativo, la respuesta del
sistema es de signo alternante (P.ej. (1/2)k = 0, 1/2, 1/4, 1/8, ); por el
contrario, si el polo es positivo la respuesta siempre sera del mismo signo.
Por otra parte, si el valor absoluto de a es mayor que 1, el valor absoluto
de la respuesta tiende a infinito, y se dice que el sistema es inestable. La figura
4.6 muestra cuales son las regiones de estabilidad e inestabilidad con referencia
a la recta real, es decir, en que lugares debe estar ubicado el polo de la funcion
de transferencia para que el sistema sea, respectivamente, estable o inestable;
tambien se muestra en la misma figura cuando la respuesta es alternante o no.

Para medir que tan rapido decae una respuesta natural en los sistemas esta-
bles podemos definir el tiempo de asentamiento o tiempo de estabilizacion, como
el tiempo a partir del cual la respuesta natural (su valor absoluto) no supera

68
4.2. SISTEMAS DISCRETOS DE PRIMER ORDEN

y(k) y(k)
2 2
a = 0.5 a = 1.5
1 1
 

 

1 2 3 4
k 1


2 3 4
k
1 1

2 2

y(k) y(k)
2 2
a = 1.5


1 1


a = 0.5


1 2 3 4
k 1 2 3 4
k
1 1

2 2

Figura 4.5: Respuesta al paso de un sistema discreto de primer orden

Inestabilidad Estabilidad Inestabilidad

1 0 1

Alternante No Alternante

Figura 4.6: Regiones de estabilidad e inestabilidad para un sistema discreto de


primer orden

69
OSCAR G. DUARTE

kas 3/ ln |a|

a a
1 0 1

Figura 4.7: Regiones de tiempo de asentamiento m


aximo para un sistema discreto
de primer orden

un porcentaje de su valor maximo, por ejemplo el 5 %. Para el caso del sistema


discreto de primer orden, este tiempo ser
a el menor entero kas tal que:

(| a|)kas 0.05

En consecuencia, kas satisface


ln 0.05
kas kas 3/ ln(|a|)
ln(|a|)
En general, al alejar el polo del origen (al acercarlo a 1 o 1) aumenta el
tiempo de asentamiento, es decir, la respuesta es m as lenta. Esto nos permite
definir una regi
on de tiempo de asentamiento m aximo, como la que se muestra
en la figura 4.7. Si el polo de la funci
on de transferencia (4.3) cae en esa regi
on
podemos asegurar que su tiempo de asentamiento satisface kas 3/ ln(|a|).
Al igual que en el caso continuo, en el caso discreto la regi on de tiempo de
asentamiento m aximo est a contenida dentro de la regi
on de estabilidad.

4.3. Sistemas continuos de segundo orden


Sup ongase un sistema continuo de segundo orden, cuya funci
on de transfe-
rencia sea
n
F (s) = 2 (4.5)
s + 2n s + n2
Los polos de la funci
on de transferencia ser
an:
p
2n 4 2 n2 4n2  p 
p1,2 = = n 2 1
2
En caso de que || < 1, el radical es negativo, y los polos resultan ser com-
plejos conjugados: p
p1,2 = n jn 1 2
La figura 4.8 muestra la ubicaci on de los polos complejos. N otese que la
distancia de los polos al origen (la magnitud del complejo) es justamente n :
p
d = (n )2 + n2 (1 2 ) = n

70
4.3. SISTEMAS CONTINUOS DE SEGUNDO ORDEN

Im(s)


p
jn 1 2
n

Re(s)

n
n


p
jn 1 2

Figura 4.8: Ubicaci


on de los polos de un sistema continuo de segundo orden, con
polos complejos

Adem
as, el coseno del a
ngulo formado con el semieje real negativo, es
justamente :
n
cos = =
n
Al estimular el sistema (4.5) con un paso unitario (t), con condiciones
iniciales nulas, la respuesta y(t) puede calcularse como sigue:
n 1
Y (s) = F (s)U (s) =
s2 + 2s + n2 s
!
1  p 
1 n t 2
y(t) = L {Y (s)} = 1 p e sin n 1 t + (t) (4.6)
1 2
donde,
= cos1
Las figuras 4.9 a 4.11 muestran la grafica de (4.6) en varias condiciones: en
la figura 4.9 se ha fijado n = 1, y se ha variado . En la figura 4.10 se ha fijado
= 0.5 y se ha variado n . La figura 4.11 muestra la forma generica de (4.6)
con (0, 1).

4.3.1. Regi
on de estabilidad
Al evaluar (4.6) se observa que para valores positivos de n el termino
exponencial crece indefinidamente, y por tanto la respuesta se har a infinita.
El termino n coincide con la parte real de los polos de (4.5), tal como se
muestra en la figura 4.8, por lo tanto, la regi
on de estabilidad, aquella en la que

71
OSCAR G. DUARTE

y(t)
: = 0.1
2 : = 0.5
: = 0.9
1

t
1 2 3 4 5 6 7 8 9

Figura 4.9: Respuesta al paso de un sistema continuo de segundo orden, wn = 1

y(t)
: n = 1
2 : n = 0.5
: n = 2
1

t
1 2 3 4 5 6 7 8 9

Figura 4.10: Respuesta al paso de un sistema continuo de segundo orden, = 0.5

y(t)

ymax

yf inal

tc t

Figura 4.11: Respuesta al paso de un sistema continuo de segundo orden

72
4.3. SISTEMAS CONTINUOS DE SEGUNDO ORDEN

Im(s)

Estabilidad Inestabilidad
Re(s)

Figura 4.12: Regi


on de Estabilidad para un sistema continuo de segundo orden

deben ubicarse los polos para que el sistema sea estable, resulta ser el semiplano
izquierdo. Esto se muestra en la figura 4.12

4.3.2. Regi
on de tiempo m
aximo de asentamiento
n t
La respuesta transitoria
 p de (4.5) es el producto de una exponencial e
por una sinusoidal sin n 1 2 t + , es decir, su amplitud es menor o igual
que en t .
Si tomamos el tiempo de asentamiento como el tiempo a partir del cual la
respuesta natural (su valor absoluto) no supera el 5 % de su valor maximo, en
el caso del sistema continuo de segundo orden este tiempo tas satisface:

ln 0.05
en tas = 0.05 tn s = tas 3/n
n

Debido a que n es la parte real de los polos de (4.5) , tal como se muestra
en la figura 4.8, la regi
on de tiempo de asentamiento m
aximo es la que se muestra
en la figura 4.13

4.3.3. Regi
on de frecuencia m
axima de oscilaci
on
La frecuencia de oscilaci
p on de la respuesta es la frecuencia de la sinusoidal
de (4.5), es decir es n 1 2 , que corresponde a la parte imaginaria de los
polos de (4.5) (ver figura 4.8). Por esta raz
on, la regi
on de frecuencia m
axima
de oscilaci
on es la que se muestra en la figura 4.14

73
OSCAR G. DUARTE

Im(s)

3 3
tas a tas > a
Re(s)
a

Figura 4.13: Regi


on de Tiempo maximo de asentamiento para un sistema continuo
de segundo orden

Im(s)

w > w
jw

w w
Re(s)

jw

w>w

Figura 4.14: Regi


on de Frecuencia m
axima de oscilaci
on para un sistema continuo
de segundo orden

74
4.3. SISTEMAS CONTINUOS DE SEGUNDO ORDEN

4.3.4. Regi
on de sobrepico m
aximo
Uno de los par ametros mas importantes de la respuesta graficada en la figura
4.11, es el sobrepico m
aximo, sp, que indica que tanto llega a valer la respuesta
en relaci
on con su valor final:
ymax yf inal
sp = 100 %
yf inal
donde ymax es el valor m aximo, y yf inal el valor final (estacionario) de y(t).
Para calcular el sobrepico m aximo, primero derivamos y(t) e igualamos a
cero para obtener los instantes tc en los que suceden los m aximos y mnimos de
y(t): h  p  i
dy 1 2 n en t sin n 1 2 t + +
dt =
h1 p  p i
n 1 2 en t cos n 1 2 t + =0
 p  p  p 
n sin n 1 2 t + = n 1 2 cos n 1 2 t +
p
1 2  p 
= tan n 1 2 t +

p
 p  1 2
n 1 2 t + = tan1

Para obtener el valor de la arcotangente en la ecuaci on anterior, observese en la
figura (4.8) el valor de tan :
p p
n 1 2 1 2
tan = =
n
on tan1 (x) es peri
La funci odica, de periodo , por lo tanto
p
 p  1 2
n 1 2 t + = tan1 = + n

n
t= p n = 0, 1, 2,
n 1 2
Existen infinitos instantes en los que la derivada de y(t) es nula, que correspon-
den a los m aximos y mnimos locales que se observan en la figura 4.11. Para
n = 0 resulta t = 0, por lo tanto la respuesta y(t) es pr acticamente horizontal
en su inicio. El sobrepico maximo sucede en tc , que corresponde a n = 1:

tc = p
n 1 2
El valor de y(t) en tc es el valor m
aximo de y(t), es decir ymax = y(tc )
!
1 n p
ymax = 1 p e n 12 sin n 1 2 p +
1 2 n 1 2

75
OSCAR G. DUARTE

sp( %)
100

80

60

40

20


0
0 0.2 0.4 0.6 0.8 1.0

Figura 4.15: Sobrepico en funci


on de

1
ymax = 1 p e 12 sin( + )
1 2
Dado que sin( + x) = sin(x), podemos escribir
1
ymax = 1 + p e 12 sin()
1 2

ymax = 1 + e 12 = 1 + e cot
El valor final de y(t) es 1, por lo tanto

sp = e 12 100 % = e cot 100 %
Las figuras 4.15 y 4.16 muestran como vara el sobrepico m
aximo en funci
on de
el factor de amortiguamiento y el a ngulo , respectivamente. Es interesante
observar que el sobrepico depende del a ngulo que forman los polos con el
semieje real negativo (figura 4.8), lo que nos permite establecer una regi
on de
sobrepico maximo, tal como la que se muestra en la figura 4.17

4.3.5. Regi
on de dise
no
Las regiones que se muestran en las figuras 4.12, 4.13, 4.14 y 4.17 pueden
resumirse en una u nica regi
on de diseno, como la que se muestra en la figura
4.18. Refiriendonos a esta figura, la regi
on de dise
no puede interpretarse asi:
Dado un sistema de segundo orden como el de la ecuaci on (4.5) con condi-
ciones iniciales nulas, cuyos polos estan ubicados dentro de la regi
on de dise
no,
puede asegurarse que:

76
4.3. SISTEMAS CONTINUOS DE SEGUNDO ORDEN

sp( %)
100

80

60

40

20


0
0 18 36 54 72 90

Figura 4.16: Sobrepico en funci


on de

Im(s)

sp ecot sp > ecot


Re(s)

Figura 4.17: Regi


on de Sobrepico m
aximo para un sistema continuo de segundo
orden

77
OSCAR G. DUARTE

Im(s)

jw

Re(s)
a

jw

Figura 4.18: Regi


on de Dise
no para un sistema continuo de segundo orden

el sistema es estable

el tiempo de asentamiento es menor o igual que 3/a

la frecuencia m on de la respuesta natural es w


axima de oscilaci

al estimularlo con un escal


on unitario el sobrepico m
aximo es menor que
e cot 100 %

4.4. Sistemas discretos de segundo orden


Supongase ahora un sistema discreto de segundo orden, cuya funci
on de
transferencia sea
1 2b cos a + b2
F (z) = 2 (4.7)
z 2bz cos a + b2
Los polos de la funci
on de transferencia ser
an:

2b cos a 4b2 cos2 a 4b2  p 
p1,2 = = b cos a cos2 a 1
2
El termino del radical ser
a menor o igual que cero; en caso de que sea menor,
los dos polos ser
an los complejos conjugados:
 p 
p1,2 = b cos a j 1 cos2 a = b (cos a j sin a)

La figura 4.19 muestra la ubicaci


on de los polos en el plano complejo.

78
4.4. SISTEMAS DISCRETOS DE SEGUNDO ORDEN

Im(z)

jb sin a
b

a Re(z)
a b cos a
b

b sin a

Figura 4.19: Ubicaci


on de los polos de un sistema discreto de segundo orden, con
polos complejos

Al estimular el sistema (4.7) con un paso unitario (k), con condiciones


iniciales nulas, la respuesta y(k) puede calcularse como sigue:
  
1 2b cos a + b2 z
Y (z) = F (z)U (z) =
z 2 2bz cos a + b2 z1

Y (z) A Bz + C
= + 2
z z 1 z 2bz cos a + b2
sumando e igualando coeficientes se obtiene

A=1 B = 1 C = 1 + 2b cos a
z z 2 + (1 2bz cos a)
Y (z) = 2
z1 z 2bz cos a + b2
z z 2 bz cos a z(1 2z cos a)
Y (z) = 2 2
2
z 1 z 2bz cos a + b z 2bz cos a + b2
 
(1 b cos a) k
y(k) = Z 1 {Y (z)} = 1 bk cos ak b sin ak (k)
b sin a
Finalmente, las dos sinusoidales se pueden agrupar en una sola, para obtener:

y(k) = Z 1 {Y (z)} = 1 Cbk sin (ak + ) (k) (4.8)

donde
 
1 + b2 2b cos a 1 b sin a
C= = = tan1
b sin a sin 1 b cos a

79
OSCAR G. DUARTE

y(k)

k
1 2 3 4 5 6 7 8 9

Figura 4.20: Respuesta al paso de un sistema discreto de segundo orden, a = 1.2,


b = 0.8

La figura 4.20 muestra la gr afica de y(k) para unos valores especficos de a


y b. Aunque y(k) s olo tiene sentido en los valores enteros de k, se ha trazado
tambien en punteado la curva que se obtendra para valores reales de k.
Podra plantearse que para estudiar la secuencia y(k) (los puntos en la figura
4.20) sera v
alido analizar el sistema continuo que la genera ((la curva punteada
en la figura 4.20)); sin embargo, en ocasiones los resultados pueden ser muy
enganosos: considerese el caso en que a = 3 y b = 0.7, que se grafica en la figura
4.21; si se analiza la curva contnua, se concluye que el m aximo valor (absoluto)
de y(k) ser a cercano a 14, pero al ver la secuencia de puntos observamos que
esta nunca supera (en valor absoluto) a 4.
No obstante, dado que un an alisis de la curva contnua arrojar
a valores ma-
yores o iguales que la secuencia, puede utilizarse para establecer cotas superiores
de los valores de la secuencia, y asi establecer regiones de dise no.

4.4.1. Regi
on de estabilidad
Al evaluar (4.8) se observa que para valores de b mayores que 1 el termino
exponencial crece indefinidamente, y por tanto la respuesta se har a infinita. El
termino b coincide con la magnitud de los polos de (4.7), tal como se muestra
en la figura 4.19, por lo tanto, la regi
on de estabilidad, aquella en la que deben
ubicarse los polos para que el sistema sea estable resulta ser el crculo unitario
centrado en el origen, tal como se ve en la figura 4.22.

4.4.2. Regi
on de tiempo m
aximo de asentamiento
La respuesta transitoria de (4.7) es el producto de la exponencial bk por la
sinusoide sin (ak + ), es decir, su amplitud es menor o igual que bk .
Si tomamos el tiempo de asentamiento como el tiempo a partir del cual la
respuesta natural (su valor absoluto) no supera el 5 % de su valor maximo en el

80
4.4. SISTEMAS DISCRETOS DE SEGUNDO ORDEN

y(k)

10

k
1 2 3 4 5 6 7 8 9
5

10

Figura 4.21: Respuesta al paso de un sistema discreto de segundo orden, a = 3,


b = 0.7

Im(z)
j
Inestabilidad

Estabilidad
Re(z)

1 1

Figura 4.22: Regi


on de Estabilidad para un sistema discreto de segundo orden

81
OSCAR G. DUARTE

Im(z)
1
jb

tas < 3 Re(z)


ln b
1 b b 1

jb
1

Figura 4.23: Regi


on de tiempo de asentamiento m
aximo para un sistema discreto
de segundo orden

caso del sistema discreto de segundo orden, este tiempo kas satisface:
3
bkas 0.05 ln bkas ln 0.05 kas ln b ln 0.05 kas
ln b
Debido a que b es la magnitud de los polos de (4.7) , tal como se muestra en
la figura 4.19, la regi
on de tiempo de asentamiento maximo es la que se muestra
en la figura 4.23.

4.4.3. Regi
on de Frecuencia m
axima de oscilaci
on
La frecuencia de oscilacion de la respuesta es la frecuencia de la sinusoidal
de (4.7), es decir es a, que corresponde al angulo de los polos de (4.7) respecto
a la horizontal (ver figura 4.19). Por esta raz
on, la regi
on de frecuencia m
axima
de oscilaci
on es la que se muestra en la figura 4.24.

4.4.4. Regi
on de sobrepico m
aximo
Al comparar las respuestas a escalones unitarios de los sistemas continuos y
discretos de segundo orden, que aparecen en las ecuaciones (4.6) y (4.8) respec-
tivamente, podemos ver las semejanzas de estas respuestas.
k
Si reescribimos bk como eln b = ek ln b , podemos asimilar los coeficientes
de los exponentes y las sinusoides:
p
n = ln b n 1 2 = a
De tal manera que
ln b
= p = cot
a 1 2

82
4.5. EFECTO DE LOS CEROS. SISTEMAS DE FASE M
INIMA

Im(z)

f rec a
a

Re(z)
a

Figura 4.24: Regi


on de Frecuencia maxima de oscilaci
on para un sistema discreto
de segundo orden

a
b = ea cot = e 12 (4.9)

La ecuacion 4.9 permite definir, para el caso discreto, curvas an alogas a las
que generan la regi on de sobrepico m aximo de los sistemas continuos (figura
4.17). La figura 4.25 muestra las curvas generadas por la ecuaci on (4.9) para
distintos valores de .
Por su parte, la figura 4.26) muestra la regi on definida por (4.9) al fijar un
valor de (o de ), es decir, al establecer un factor de amortiguamiento. Esta
regi
on no es la regi
on de sobrepico m aximo, sino la regi on de amortiguamiento
mnimo. El sobrepico m aximo es m as difcil de obtener debido a que el tiempo
es discreto.

4.4.5. Regi
on de dise
no
Al combinar las regiones definidas en las figuras 4.22 a 4.26 se obtiene la
regi
on de dise
no que se muestra en la figura 4.27. Su significado es an
alogo a la
regi
on de dise
no del caso continuo.

4.5. Efecto de los ceros. Sistemas de fase mnima


Pese a que en las secciones anteriores se ha hecho enfasis en el efecto que
tiene sobre la respuesta natural la ubicaci
on de los polos en el plano, no debe
desconocerse que los ceros tambien influyen en la respuesta.

83
OSCAR G. DUARTE

Im(z)
: = 0.1
j
: = 0.5
: = 0.9

Re(z)

1 1

Figura 4.25: Curvas de Amortiguamiento fijo para un sistema discreto de segundo


orden

Im(z)
j

Re(z)

1 1

Figura 4.26: Regi


on de Amortiguamiento mnimo para un sistema discreto de
segundo orden

84
4.5. EFECTO DE LOS CEROS. SISTEMAS DE FASE M
INIMA

Im(z)
j

Re(z)

1 1

Figura 4.27: Regi


on de Dise
no para un sistema discreto de segundo orden

Sup
ongase un sistema continuo de segundo orden, con un cero real:
(b2 + 2 )
a (s + a)
F (s) = (4.10)
(s + b)2 + 2
La respuesta al escal
on del sistema definido por (4.10) es :
 p 
1 + 1 (b2 + 2 )[(a b)2 + 2 ]ebt sin (t + ) (t)
a
y(t) =    (4.11)
= tan1 wb + tan1 ab w

La figura 4.28 muestra la gr afica de (4.11), para tres valores distintos de a,


con unos valores fijos de b = 1 y = 1; es decir, lo que se est a modificando
es la posici
on del cero de la funci on de transferencia. Alli puede verse que la
ubicacion del cero afecta directamente la forma de la respuesta.
Es importante resaltar que las regiones de dise no de las figuras 4.18 y 4.27
fueron desarrolladas para sistemas prototipo de segundo orden, sin ceros. Estas
regiones pueden emplearse para el an alisis y control de sistemas de segundo
orden con ceros, pero solo como una gua de car acter general.
Mas importante a un es resaltar que para ceros en el semiplano derecho (este
es el caso a = 1 en la figura 4.28) la respuesta al escal on presenta en sus
inicios valores de signo contrario a los de la respuesta de estado estacionario;
este fen
omeno, conocido como subpico (en ingles undershoot) puede llegar a ser
muy peligroso en algunos sistemas fsicos, y constituye una gran dificultad para
su control.
Los sistemas que no poseen ceros en el semiplano derecho, se conocen como
sistemas de fase mnima, o simplemente minifase 2 .
2 Esta denominaci
on est
a relacionada con la respuesta de frecuencia del sistema

85
OSCAR G. DUARTE

y(t)
: a == 0.5
:a=1
: a = 1
1

t
1 2 3 4

Figura 4.28: Respuesta al paso de un sistema continuo de segundo orden, con cero
real b = = 1

La presencia de subpicos ante una entrada escal


on es f
acil de demostrar para
un sistema de segundo orden con polos reales y un cero real3 , tal como

(s + a)
F (s) = (4.12)
(s + b)(s + c)

La respuesta al escal
on ser
a:

(s + a) a/(b + c) (a b)/(c b)(b) (a c)/(c b)(c)


Y (s) = + +
s(s + b)(s + c) s (s + b) (s + c)
 
a (a b) bt (a c) ct
y(t) = + e + e (t)
bc (c b)(b) (c b)(c)

El signo de la derivada de y(t) evaluada en t = 0 nos indica si la respuesta


crece o decrece en ese momento:

dy ab ac cb
= = = =1
dt t=0 cb cb cb

La derivada siempre es positiva, por lo tanto, para valores cercanos a t = 0,


y(t) ser
a siempre positiva. Por otra parte, la respuesta de estado estacionario
de y(t) ser
a a/bc; para sistemas estables, tanto b como c son positivos, y por lo
tanto el signo de la respuesta estacionaria es el mismo signo de a.
En conclusion, para valores negativos de a (ceros positivos), la respuesta en
sus inicios tendr
a un signo diferente al de la respuesta de estado estacionario y
sucedera el subpico.
3 Para otro tipo de sistemas la demostraci
on es m
as complicada, y se omite aqui

86
4.6. POLOS DOMINANTES

: 0.25e10t

y(t) y(t) : 0.25e15t

1 1 : 0.5et cos 2t

t t

1 2 3 4 1 2 3 4

(a) respuesta exacta (b) componentes de la respuesta natural

y(t) : y(t)

1 : yaprox (t)

1 2 3 4

(c) respuesta exacta y aproximada

Figura 4.29: Sistema continuo de orden 4 con polos dominantes

4.6. Polos dominantes


Supongamos ahora un sistema continuo de orden superior a 2, como por
ejemplo uno cuya funci
on de transferencia sea

6.75s3 + 102.5s2 + 318.75s + 750


F (s) =
(s + 10)(s + 15)(s2 + 2s + 5)
Al estimular ese sistema con un escal
on unitario la respuesta ser
a

1 6.75s3 + 102.5s2 + 318.75s + 750


Y (s) = F (s) =
s s(s + 10)(s + 15)(s2 + 2s + 5)

1 0.25 0.25 0.5(s + 1)


Y (s) = 2
s (s + 10) (s + 15) (s + 2s + 5)
10t 15t

y(t) = 1 0.25e 0.25e 0.5et cos 2t (t) (4.13)
La figura 4.29(a) muestra la gr
afica de y(t), mientras que la figura 4.29(b)
muestra por separado los tres componentes de la respuesta natural, 0.25e 10t,
0.25e15t y 0.5et cos 2t.
En la figura 4.29(b) se observa que el aporte a la respuesta natural debido
a los polos p1 = 10 y p2 = 15 es considerablemente m as peque no que el

87
OSCAR G. DUARTE

debido a los polos p3,4 = 1 j2. Lo anterior se debe a que los aportes de p1 y
p2 decaen mucho m apidamente que el aporte de p3,4 , ya que e10t y e15t
as r
decaen m apidamente que et .
as r
Se dice entonces que los polos p3,4 dominan el comportamiento del sistema,
o simplemente que son los polos dominantes. La figura 4.29(c) compara la res-
puesta exacta y(t) calculada segun (4.13) y una respuesta aproximada y aprox (t)
que se obtendra eliminando de y(t) los aportes de los polos p1 y p2 , es decir:

y(t) = 1 0.5et cos 2t (t)

Se observa como el aporte de los polos p1 y p2 s olo es significativo al comienzo


de la respuesta, cuando la componente de la respuesta natural asociada a ellos
aun no ha decaido, pero este aporte se desvanece r apidamente, y la respuesta
aproximada resulta ser pr acticamente la misma respuesta exacta.
En conclusi on, se dice que un sistema continuo estable tiene (1 o 2) polos
dominantes si la parte real de dichos polos es suficientemente mayor (est a m
as
hacia la derecha, en el semiplano izquierdo) que la de los dem as polos del sistema,
como para que el aporte de estos u ltimos se desvanezca mucho antes de que haya
desaparecido el aporte debido a los polos dominantes.
En estos casos, las regiones de dise no, que fueron desarrolladas para sistemas
de segundo orden, pueden ser una herramienta muy u til para analizar el sistema,
aunque este sea de un orden superior.
Algo an alogo sucede con los sistemas discretos, s olo que aqui el tiempo de
decaimiento no depende de la parte real de los polos, sino de su distancia al
origen.
En conclusi on, se dice que un sistema discreto estable tiene (1 o 2) polos
dominantes si la magnitud de dichos polos es suficientemente mayor (est a m
as
lejos del origen, dentro del crculo unitario) que la de los demas polos del sistema,
como para que el aporte de estos u ltimos se desvanezca mucho antes de que haya
desaparecido el aporte debido a los polos dominantes.

88
Captulo 5

Sistemas realimentados simples

En este captulo centramos nuestro interes en sistemas continuos y discretos


como los que se muestran en las figuras 5.1 y 5.2, respectivamente. Este tipo de
sistemas se denominan realimentados o retroalimentados, debido a que la se nal
de salida Y es retornada para ser comparada con la entrada U mediante una
resta. El resultado de esta comparaci on es la se
nal de error E.
Esta es una estructura tpica de control; G es la planta que se desea controlar,
y U el comportamiento que se desea que tenga G. Y es el comportamiento real
de G, que es medido y comparado con U a traves de H. Si el comportamiento
real difiere del deseado, existir
a un error E, que se amplifica por K como entrada
directa a G
Definimos la funci on de transferencia del sistema realimentado como la re-
laci
on entre la salida y la entrada con condiciones iniciales nulas. En el caso
continuo ser a

Y (s) KG(s)
F (s) = = (5.1)
U (s) 1 + KG(s)H(s)
y en el discreto:

Y (z) KG(z)
F (z) = = (5.2)
U (z) 1 + KG(z)H(z)

U (s) E(s) Y (s)


- k - K - G(s) -
+
6
H(s) 

Figura 5.1: Sistema continuo retroalimentado simple

89
OSCAR G. DUARTE

U (z)- E(z)- - G(z) Y-(z)


k K
+
6
H(z) 

Figura 5.2: Sistema discreto retroalimentado simple

Tambien se define la funci


on de transferencia del error o transmitancia del
error como la relaci
on entre el error y la entrada. En el caso continuo:

E(s) 1
FE (s) = = (5.3)
U (s) 1 + KG(s)H(s)
y en el discreto:

E(z) 1
FE (z) = = (5.4)
U (z) 1 + KG(z)H(z)
Adem as, a los productos G(s)H(s) y G(z)H(z) se les denomina ganancia de
lazo abierto.
Si escribimos G y H como dos fracci on de polinomios NG /DG y NH /DH
respectivamente, las expresiones (5.1), (5.2), (5.3) y (5.4) se convierten en:
Funci
on de transferencia del sistema realimentado, caso continuo:
NG (s)
Y (s) KD G (s) KNG (s)DH (s)
F (s) = = NG (s) NH (s)
=
U (s) 1 + K DG (s) DH (s) D G (s)D H (s) + KNG (s)NH (s)

(5.5)
Funci
on de transferencia del sistema realimentado, caso discreto:
NG (z)
Y (z) KD G (z) KNG (z)DH (z)
F (z) = = N (z) N (z)
=
U (z) G H
1 + K DG (z) DH (z) DG (z)DH (z) + KNG (z)NH (z)
(5.6)
Funci
on de transferencia del error, caso continuo:
E(s) 1 DG (s)DH (s)
FE (s) = = N (s) N (s)
=
U (s) G H
1 + K DG (s) DH (s) DG (s)DH (s) + KNG (s)NH (s)
(5.7)
Funci
on de transferencia del error, caso discreto:
E(z) 1 DG (z)DH (z)
FE (z) = = NG (z) NH (z)
=
U (z) 1 + K DG (z) DH (z) D G (z)D H (z) + KNG (z)NH (z)
(5.8)

90
5.1. TIPO DE SISTEMA Y ERROR DE
ESTADO ESTACIONARIO

5.1. Tipo de sistema y error de


estado estacionario
5.1.1. Caso continuo
Uno de los objetivos de los esquemas de control como el que se muestra
en las figura 5.1 suele ser el asegurar que la se
nal de error sea nula, al menos
despues de que las respuestas transitorias hayan desaparecido. Por ese hecho,
se estudia la respuesta de estado estacionario de la se
nal de error, comunmente
denominada el error de estado estacionario.
on de que el sistema realimentado es estable1 , se puede argu-
Bajo la suposici
mentar que despues de un cierto tiempo la respuesta transitoria se habr a hecho
lo suficientemente peque na como para considerar que no existe, y por lo tanto
s
olo queda la respuesta estacionaria, es decir

eee = lm e(t) (5.9)


t

donde eee es el error de estado estacionario, y e(t) es la se


nal de error en el
dominio del tiempo, es decir e(t) = L1 {E(s)}
El teorema de valor final de la transformada de Laplace provee una forma
de calcular eee :

eee = lm e(t) = lm {sE(s)} (5.10)


t s0

Combinando (5.10) con (5.3) se obtiene:

eee = lm {sFE (s)U (s)} (5.11)


s0

Al observar (5.11), se encuentra que el error de estado estacionario podr


a
ser 0, o un valor finito, dependiendo del numero de polos y ceros en s = 0
que tengan FE (s) y U (s), como se muestra en los siguientes ejemplos.

(s+4)
Ejemplo 5.1 Sea FE (s) = (s+3)(s+5) y U (s) = (s21+4) . Seg
un (5.11) el error de
estado estacionario sera
 
(s + 4) 1 (0 + 4) 1
eee = lm s =0 =0
s0 (s + 3)(s + 5) (s2 + 4) (0 + 3)(0 + 5) (02 + 4)

(s+4)
Ejemplo 5.2 Sea FE (s) = (s+3)(s+5) y U (s) = 1s . Seg
un (5.11) el error de estado
estacionario sera
   
(s + 4) 1 (s + 4) (0 + 4) 4
eee = lm s = lm = =
s0 (s + 3)(s + 5) s s0 (s + 3)(s + 5) (0 + 3)(0 + 5) 15
1 La determinaci
on de la estabilidad de los sistemas realimentados continuos se estudia en
la seccion 5.2

91
OSCAR G. DUARTE

Tipo de u(t) = (t) u(t) = t(t) u(t) = t2 (t)/2


sistema
U (s) = 1/s U (s) = 1/s2 U (s) = 1/s3
0 lms0 {FE (s)} n o
FE (s)
1 0 lms0 s
n o
FE (s)
2 0 0 lms0 s2
.. .. .. .. ..
. . . . .

Tabla 5.1: Error de estado estacionario para sistemas continuos

s(s+4) 1
Ejemplo 5.3 Sea FE (s) = (s+3)(s+5) y U (s) =Seg s3 .
un (5.11) el error de estado
estacionario sera  
s(s + 4) 1
eee = lm s
s0 (s + 3)(s + 5) s3
 
(s + 4) 1 (0 + 4) 1 4
eee = lm = = =
s0 (s + 3)(s + 5) s (0 + 3)(0 + 5) 0 0

En los ejemplos anteriores puede observarse que el valor de eee depende de


si la s que aparece en (5.11) puede o no cancelarse con otros terminos s que
aparezcan en FE (s)U (s). Con esto en mente, definimos el tipo de sistema como
el n
umero de ceros en s = 0 que tenga FE (s) y construimos la tabla 5.1. N
otese
que las entradas u(t) que se han empleado son aquellas cuyas transformadas de
Laplace tienen terminos sn en el denominador.
De acuerdo con (5.7) los ceros de FE (s) son los valores de s que hacen que
DG (s)DH (s) sea cero, es decir son iguales a los polos de G(s)H(s). Por esta
razon tambien podemos definir el tipo de sistema como el n umero de polos en
s = 0 que tenga G(s)H(s).

5.1.2. Caso discreto


Consideraciones similares pueden hacerse para el caso discreto. Si el sistema
realimentado es estable2 , el error de estado estacionario de un sistema como el
de la figura 5.2 ser
a
eee = lm e(k) (5.12)
k

donde eee es el error de estado estacionario, y e(k) es la senal de error en el


dominio del tiempo, es decir e(k) = Z 1 {E(z)}
El teorema de valor final de la transformada Z provee una forma de calcular
eee :

eee = lm e(k) = lm {(z 1)E(z)} (5.13)


k z1

2 La determinaci
on de la estabilidad de los sistemas realimentados discretos se estudia en
la secci
on 5.3

92
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Tipo u(k) = (k) u(k) = k(k) u(k) = k 2 (k)


de
sistema
U (z) = U (z) = U (z) =
z/(z 1) z/(z 1)2 z(z + 1)/(z 1)3
0 lmz1 {zFE (z)} n o
z
1 0 lmz1 F (z)
(z1) E

n o
z(z+1)
2 0 0 lmz1 F (z)
(z1)2 E

.. .. .. .. ..
. . . . .

Tabla 5.2: Error de estado estacionario para sistemas discretos

o lo que es igual,

eee = lm e(k) = lm {(z 1)FE (z)U (z)} (5.14)


k z1

Ahora el valor de eee depende del numero de ceros y polos en z = 1 que


tengan FE (z) y U (z). Por lo tanto, definimos tipo de sistema como el n umero
de ceros en z = 1 que tenga FE (z) y construimos la tabla 5.2. N otese que las
entradas u(k) que se han empleado son aquellas cuyas transformadas de Laplace
tienen terminos (z 1)n en el denominador.
De acuerdo con (5.8), los ceros de FE (z) son los valores de z que hacen que
DG (z)DH (z) sea cero, es decir son iguales a los polos de G(z)H(z). Por esta
raz
on tambien podemos definir el tipo de sistema como el n umero de polos en
z = 1 que tenga G(z)H(z).

5.2. Estabilidad y criterios de estabilidad en sis-


temas continuos
En este captulo empleamos la definici
on de estabilidad de entrada acotada
- salida acotada 3 , tambien conocida como estabilidad BIBO por sus siglas en
ingles (Bounded Input - Bounded Output).
Un sistema din amico es BIBO estable si cualquier entrada acotada produ-
ce una salida acotada. En otras palabras, si ante entradas de valor fininto la
respuesta (su valor absoluto) no tiende a infinito.
La figura 2.3 muestra que las funciones continuas cuyos valores absolutos
crecen indefinidamente tienen sus polos en el semiplano derecho. Si una funcion
de transferencia tiene uno de sus polos en esa zona la respuesta natural tender
a
a infinito, independientemente del valor de la entrada, y por tanto el sistema
sera inestable.
3 Existen varias definiciones de estabilidad de sistemas din
amicos; afortunadamente para los
sistemas lineales todas ellas son equivalentes y podemos adoptar indistintamente cualquiera
de ellas.

93
OSCAR G. DUARTE

En consecuencia, para asegurar que un sistema din amico lineal sea estable,
todos los polos de su funcion de transferencia deben estar en el semiplano iz-
quierdo. Basta con que un polo este en el semiplano derecho para que el sistema
sea inestable. Si existe un polo en el eje imaginario, es decir, en la frontera en-
tre los semiplanos derecho e izquierdo, se dice que el sistema es marginalmente
estable.

5.2.1. Arreglo y criterio de Routh-Hurwitz


Dado que la estabilidad de un sistema din amico est a determinada por la
ubicacion de los polos de su funci
on de transferencia, es decir por la ubicaci
on
de las races de un cierto denominador, planteamos ahora el siguiente problema:
Como determinar si las races de un polinomio como (5.15) est
an
ubicadas todas en el semiplano izquierdo?

p(s) = an sn + an1 sn1 + + a1 s + a0 (5.15)


Antes de contestar esta pregunta, hacemos notar lo siguiente:
Si (5.15) tiene coeficientes de signos diferentes, o coeficientes cero, entonces
tiene al menos una raiz en el semiplano derecho o en el eje imaginario.
Si (5.15) tiene todos sus coeficientes del mismo signo, no podemos extraer
conclusiones a priori sobre la ubicacion de sus races.
Para demostrar lo anterior, supongase primero que (5.15) tiene s
olo races
reales, y por tanto puede factorizarse asi:

p(s) = A(s 1 )(s 2 ) (s n ) (5.16)

Si las races i son todas negativas, los terminos i seran todos positivos,
y en general el producto (s1 )(s2 ) (sn ) tendr a todos los coeficientes
positivos. De esta forma, los coeficientes de (5.15) seran todos positivos o todos
negativos, dependiendo del signo de A en (5.16). Por esta raz on, si p(s) tiene
coeficientes de signos diferentes o cero, necesariamente al menos un termino i
debe ser negativo, lo que implicara que tendra al menos una raiz positiva (en
el semiplano derecho).
Ahora sup ongase que (5.15) tiene dos races complejas conjugadas:

p(s) = A(s ( + j))(s ( j))(s 3 ) (s n ) (5.17)

El producto de los terminos que tienen que ver con las races complejas es:

(s ( + j))(s ( j)) = s2 2s + ( 2 + 2 ) (5.18)

Si < 0, es decir si las races est


an en el semiplano izquierdo, ( 5.18) tendr
a
s
olo coeficientes positivos, y por tanto (5.15) tendr a todos sus coeficentes del
mismo signo (positivos si A es positiva y negativos si A es negativa).

94
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

sn an an2 a1
sn1 an1 an3 a0
sn2
..
.
s1
s0

Figura 5.3: Arreglo de Routh. Primeras dos lneas

..
.
si+2 a1 a2 a3
si+1 b1 b2 b3
si c1 c2 c3
..
.

Figura 5.4: Arreglo de Routh. Dos lneas genericas

Como consecuencia de lo anterior, si (5.15) tiene coeficientes de signos di-


ferentes, o cero, podemos asegurar que tiene una o m as races en el semiplano
derecho o en el eje imaginario. Si por el contrario tiene todos los coeficientes
de igual signo, es necesario realizar otro tipo de pruebas antes de establecer
la ubicacion de sus races. Una de esas pruebas se conoce como la prueba de
Routh-Hurwitz, para lo cual es necesario primero construir un arreglo especfico
con los coeficientes de (5.15)

Construcci
on del arreglo de Routh
Dado un polinomio p(s) como (5.15)
Es posible construir el arreglo de Routh de p(s) a partir de los coeficientes
ai que aparecen en (5.15). Para ello, inicialmente construimos el arreglo que se
muestra en la figura 5.3. A continuaci on, se completa el arreglo de Routh lnea
por lnea, siguiendo las siguientes indicaciones.

Cada nueva lnea se construye con informaci


on de las dos lneas inmedia-
tamente anteriores.
Para calcular el termino jesimo de una lnea (cj en la figura 5.4) se
efect
ua la operaci
on
a1 aj+1

b1 bj+1
cj = (5.19)
b1

Ejemplo 5.4 Considere el polinomio

p(s) = s5 + s4 + 3s3 + 9s2 + 16s + 10 (5.20)

95
OSCAR G. DUARTE

s5 1 3 16
s4 1 9 10
s3 c1 c2 c3
s2 d1 d2 d3
s1 e1 e2 e3
s0 f1 f2 f3

Figura 5.5: Arreglo de Routh del ejemplo 5.4. Primeras dos lneas

s5 1 3 16
s4 1 9 10
s3 6 6
s2 10 10
s1 12
s0 10

Figura 5.6: Arreglo de Routh del ejemplo 5.4

La figura 5.5 muestra las dos primeras lneas del arreglo de routh para (5.20)
Los valores de la lnea correspondiente a s3 se calculan asi:

1 3 1 16

1 9 1 10
c1 = = 6 c2 = =6
1 1
No es necesario calcular c3 , porque ya no hay mas columnas en las dos primeras
lneas, y por lo tanto el resultado sera 0.
Para la lnea correspondiente a s2 se tiene:

1 9 1 10

6 6 6 0
d1 = = 10 d2 = = 10
6 6

Para la lnea correspondiente a s1 :



6 6

10 10
e1 = = 12
10
Y para la lnea correspondiente a s0 :

10 10

12 0
f1 = = 10
12
El resultado es el arreglo que se muestra en la figura 5.6

Es conveniente resaltar algunos aspectos de la construcci


on del arreglo

96
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

s2 1 K +2
s1 3
s0 K +2

Figura 5.7: Arreglo de Routh del ejemplo 5.5

El numero de filas del arreglo disminuye progresivamente: cada dos filas


se disminuye una columna.

El termino que est


a en la u
ltima columna justo antes de desaparecer esta
es siempre el mismo (es 10 en la figura 5.6), debido a que este se calcular
a
siempre como
a b

c 0
=b
c

Criterio de Routh-Hurwitz
El criterio de Routh-Hurtwiz puede expresarse asi:

Criterio de Routh-Hurwitz
El n
umero de races de (5.15) en el semiplano derecho es igual al n
umero
de cambios de signo que se suceden en la primera columna del arreglo
de Routh de dicho polinomio.

Retomando el ejemplo 5.20, el polinomio (5.20) tiene dos races en el semi-


plano derecho, ya que su arreglo de Routh (figura 5.6) tiene dos cambios de
signo en la primera columna: uno al pasar de 1 a 6, y otro al pasar de 6 a
10.
Miremos ahora el sistema realimentado de la figura 5.1. La funcion de trans-
ferencia, y por lo tanto sus polos, dependen de la variable K, como claramente
se establece en (5.5). La utilizaci
on del criterio de Routh-Hurwitz permite esta-
blecer condiciones en la varible K para que el sistema realimentado sea estable.
Esto podemos verlo mediante los ejemplos 5.5, 5.6 y 5.7:

Ejemplo 5.5 Sup


ongase que en el sistema de la figura 5.1 se tiene que

1 1
G(s) = H(s) =
s+2 s+1
La funci
on de transferencia del sistema realimentado es
KG(s) K(s + 1)
F (s) = = 2
1 + KG(s)H(s) s + 3s + (K + 2)

El arreglo de Routh para el polinomio del denominador s 2 + 3s + (k + 2) se


muestra en la figura 5.7.

97
OSCAR G. DUARTE

s3 1 11
s2 6 6+K
60K
s1 6
s0 6+K

Figura 5.8: Arreglo de Routh del ejemplo 5.6

Para que todas las races esten en el semiplano izquierdo, y por lo tanto el
sistema sea estable, se necesita que todos los signos de la primera columna sean
iguales, y por lo tanto:
K+2>0 K > 2
Podemos concluir que para cualquier valor de k superior a 2 el sistema sera
estable, y para cualquier valor menor que 2 sera inestable. Justo cuando k = 2
el sistema tendra estabilidad Marginal.

Ejemplo 5.6 Sup


ongase que en el sistema de la figura 5.1 se tiene que
1 1
G(s) = H(s) =
(s + 1)(s + 2) s+3
La funci
on de transferencia del sistema realimentado es
KG(s) K(s + 3)
F (s) = = 3 (5.21)
1 + KG(s)H(s) s + 6s2 + 11s + (6 + K)

El arreglo de Routh para el polinomio del denominador s 3 + 6s2 + 11s + (6 + K)


se muestra en la figura 5.8.
Para que todas las races esten en el semiplano izquierdo, y por lo tanto el
sistema sea estable, se necesita que todos los signos de la primera columna sean
iguales, y por lo tanto:

60 K > 0 y 6+K >0

Podemos concluir que para cualquier valor de K en el intervalo (6, 60) el


sistema sera estable, y para cualquier valor por fuera de ese intervalo sera inestable.
Justo cuando K = 6 o K = 60 el sistema tendra estabilidad Marginal.

Ejemplo 5.7 Sup ongase que existe un sistema dinamico continuo cuya funci
on de
transferencia tiene el siguiente denominador

DF (s) = s3 + 3Ks2 + (K + 2)s + 4

El arreglo de Routh correspondiente se muestra en la figura 5.9.


Para que el sistema sea estable se necesita que todos los terminos de la primera
columna sean del mismo signo, por lo tanto deben cumplirse las siguientes dos
condiciones 
3K > 0
3K 2 +6K4
3K >0

98
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

s3 1 K +2
s2 3K 4
3K 2 +6K4
s1 3K
s0 4

Figura 5.9: Arreglo de Routh del ejemplo 5.7

s4 1 2 3
s3 1 2
s2 0 3
s1
s0

Figura 5.10: Arreglo de Routh con cero en la primera columna. Arreglo incompleto

La segunda condici
on podra darse si tanto numerador como denominador son
del mismo signo, sin embargo descartamos la opci on de que ambos sean negativos,
porque la primera condici
on impone que el denominador sea positivo, es decir las
dos condiciones son:

K>0
3K 2 + 6K 4 > 0
La segunda condici on se cumple si K < 2.52 o K > 0.52. De estas dos
posibilidades descartamos la primera, debido a que K debe ser positivo. Por lo
tanto, aseguramos que el sistema sea estable si y s
olo si K > 0.52

Problemas en la construcci
on del arreglo de Routh
Debido a que los terminos del arreglos de Routh se calculan como esta indi-
cado en (5.19), surge una dificultad cuando en la primera columna aparece un
cero, pues para calcular los terminos de las columnas siguientes ser
a necesario
dividir por cero. Tal es el caso del polinomio

p(s) = s4 + s3 + 2s2 + 2s + 3

cuyo arreglo de Routh se muestra (parcialmente) en la figura 5.10.


Para calcular los terminos de la siguiente columna sera necesario dividir por
cero. Una estrategia para obviar este problema consiste en remplazar 0 por ,
completar el arreglo, y luego analizar el lmite cuando tiende a cero por la
derecha. En esas condiciones, el arreglo de Routh ser a como el que se muestra
en la figura 5.11. Cuando 0+ , el arreglo resulta ser como el de la figura
5.12, y por lo tanto el polinomio tiene dos races en el semiplano derecho.
Una dificultad mayor surge cuando todos los terminos de una fila se hacen
cero. Este hecho se conoce como la terminaci on prematura del arreglo, y est a
relacionada con polinomios cuyas races est an ubicadas en forma simetrica res-
pecto al origen, como por ejemplo cuando existen races en el eje imaginario.

99
OSCAR G. DUARTE

s4 1 2 3
s3 1 2
s2 3
3
s1 2
s0 3

Figura 5.11: Arreglo de Routh con cero en la primera columna. Aproximaci


on

s4 1 2 3
s3 1 2
s2 0+ 3
s1
s0 3

Figura 5.12: Arreglo de Routh con cero en la primera columna. Arreglo completo

Tal es el caso del polinomio

p(s) = s5 + s4 + 5s3 + 5s2 + 4s + 4

cuyo arreglo de Routh se muestra (parcialmente) en la figura 5.13.


La estrategia a emplear en este caso consiste en escribir el polinomio p(s)
que se obtiene con los coeficientes de la fila inmediatemente superior a la que
quedo con ceros; el orden del primer monomio est a dado por el termino a la
izquierda de la lnea vertical (s4 en el ejemplo) y el de los dem
as monomios se
decrementa en dos:
p(s) = s4 + 5s2 + 4

Este polinomio resulta ser un divisor exacto de p(s) (puede comprobarse que
p(s) = p(s)(s + 1)). El arreglo de Routh lo continuamos remplazando la fila de
ceros por los coeficientes de la derivada de p(s):

d
p(s)
= 4s3 + 10s
ds

El arreglo resultante se muestra en la figura 5.14

s5 1 5 4
s4 1 5 4
s3 0 0
s2
s1
s0

Figura 5.13: Arreglo de Routh con terminaci


on prematura. Arreglo incompleto

100
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

s5 1 5 4
s4 1 5 4
s3 4 10
s2 2.5 4
s1 3.6
s0 4

Figura 5.14: Arreglo de Routh con terminaci


on prematura. Arreglo completo

5.2.2. Lugar geom


etrico de las races
De acuerdo con la ecuaci on (5.5) los polos de la funcion de transferencia de
un sistema como el de la figura5.1 dependen del valor de K. El lugar geometrico
de las races, o simplemente root-locus es el gr
afico en el plano s de la ubicaci
on
de los polos de (5.5) conforme K varia de cero a infinito (K : 0 ).
Se define tambien el root-locus complementario como el gr afico en el plano s
de la ubicaci on de los polos de (5.5) conforme K varia de menos infinito a cero
(K : 0)

Ejemplo 5.8 Sup


ongase que en el sistema de la figura 5.1 los bloques G(s) y H(s)
son:
1 1
G(s) = H(s) =
(s + 1) (s + 3)
De tal manera que la funci
on de transferencia del sistema realimentado es

K(s + 3)
F (s) = (5.22)
s2 + 4s + (3 + K)

Los polos de 5.22 estaran dados por


p
4 16 4(3 + K)
p1,2 = = 2 1 K (5.23)
2
La tabla 5.3 muestra el valor de p1,2 para diversos valores positivos de K, seg
un
(5.23). La figura 5.15 muestra c omo vara la ubicaci
on de los polos de (5.22): en
rojo se muestra que sucede al variar K de 0 a es decir, lo que corresponde al
root-locus; en azul se muestra el efecto de variar K de menos infinito a cero, lo que
corresponde al root-locus complementario.

Determinaci
on de la estabilidad
Si nos referimos a la ecuaci
on (5.5), encontramos que la condici
on para los
polos de F (s) ser
a

DG (s)DH (s) + KNG (s)NH (s) = 0

NG (s)NH (s) 1 1
= G(s)H(s) = (5.24)
DG (s)DH (s) K K

101
OSCAR G. DUARTE

K p1 p2
8 5 1
3 4 0
0 3 1
0.75 2.5 1.5
1 2 2
2 2 + j 2 j
5 2 + 2j 2 2j

Tabla 5.3: Polos de la funci


on de transferencia del ejemplo 5.8

Im(s)

1
Re(s)

5 4 3 2 1 1 2 3 4
1

Figura 5.15: Root-ocus (en rojo) y root-locus complementario (en azul) del ejemplo
5.8

102
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Es importante hacer notar que la condici on expresada en (5.24) est


a dada
en terminos de la ganancia de lazo abierto G(s)H(s) en lugar de la funcion de
transferencia del sistema realimentado (5.5). Dado que G(s) es un complejo,
(5.24) puede escribirse en terminos de su magnitud y a
ngulo:

1 180o K > 0
|G(s)H(s)| = arg[G(s)H(s)] = (5.25)
|K| 0o K<0

De acuerdo con (5.25), si un valor s0 forma parte del root-locus, entonces


arg [G(s0 )H(s0 )] = 180o ; adem as, podemos saber cu al es el valor de K que
1
hace que la rama del root-locus pase justamente por s0 , pues |K| = |G(s0 )H(s 0 )|
;
como K es positiva (estamos suponiendo que s0 est a en el root-locus) entonces
1
K = |G(s0 )H(s 0 )|
.
Si por el contrario, s0 forma parte del root-locus complementario, entonces.
arg [G(s0 )H(s0 )] = 0o ; el valor de K que hace que la rama del root-locus pase
1
justamente por s0 , ser a tal que pues |K| = |G(s0 )H(s 0 )|
; como K es negativa
(estamos suponiendo que s0 est a en el root-locus complementario) entonces K =
1
|G(s0 )H(s 0 )|
.

Ejemplo 5.9 Si tomamos el ejemplo de la figura 5.15, podemos conocer cual es el


valor de K que hace que la rama del root-locus complementario que viene desde
llegue a 0. Este valor sera justamente:

1 1
K= = 1 = 3
|G(s0 )H(s0 )| (0+1)(0+3)

De esta manera, podemos concluir que para valores de K menores que 3


siempre habra un polo en el semiplano derecho, y por lo tanto el sistema sera
inestable. Para valores K mayores que 3 todas las ramas del root-locus estan en
el semiplano izquierdo, y por lo tanto el sistema sera estable.

Ejemplo 5.10 Sup


ongase que en la figura 5.1 los valores de G(s) y H(s) son

1 1
G(s) = H(s) = (5.26)
(s + 1)(s + 2) (s + 3)

La figura 5.16 muestra los diagramas de Root-Locus y Root-Locus complemen-


tario para (5.26). Notese como una rama del root locus complementario (en azul)
viene desde + por el eje real, y pasa del semiplano derecho al semiplano izquierdo.
Esto significa que para valores de K muy negativos el sistema realimentado tiene
un polo en el semiplano derecho y por lo tanto es inestable.
Sin embargo, conforme K aumenta y se acerca a 0 el polo que origina la inesta-
bilidad se desplaza a la izquierda, y en alg
un momento pasa al semiplano izquierdo
y por lo tanto el sistema realimentado deja de ser inestable. Para determinar cual
es el valor de K en el que sucede esta transici
on, observamos que la rama cruza el
eje imaginario justo en s = 0 + j0. De acuerdo con 5.25 tenemos:

103
OSCAR G. DUARTE

Imag. axis Evans root locus

0 + j3.316
3

0 + j0
0

3
0 j3.316

4 Real axis
4 3 2 1 0 1 2
closedloop poles loci

root locus
open loop
asymptotic
open
asymptoticpoles
loopdirections
poles
directions
root locus complementario

Figura 5.16: Diagramas de Root Locus para el ejemplo 5.10

104
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

1 1 1
|G(s)H(s)| = = = (5.27)
|K| |(0 + j0 + 1)(0 + j0 + 2)(0 + j0 + 3)| 6

|K| = 6 (5.28)
La ecuacion (5.28) establece cual es el valor absoluto de K que hace que la
rama del root-locus complementario pase del semiplano derecho al izquierdo. Como
sabemos que se trata de valores negativos de K podemos establecer que para K <
6 el sistema realimentado es inestable, mientras que para 6 < K 0 es estable.
Si observamos ahora el diagrama de root-locus (en rojo) observamos que existen
dos ramas (simetricas respecto al eje horizontal) que nacen en el semiplano izquierdo
y pasan al semiplano derecho. Esto significa que para valores peque nos de K el
sistema realimentado es estable, pero a partir de alg un valor positivo de K se torna
en inestable.
Las dos ramas cruzan el eje imaginario simultaneamente, asi que para determinar
el momento en el que sucede la transici on basta con estudiar una de ellas. Tomemos
por ejemplo la rama superior, que cruza el eje imaginario en 0 + j3.316. El valor de
K en el que esto sucede puede determinarse empleando 5.25:

1 1 1
= = (5.29)
|K| |(0 + j3.316 + 1)(0 + j3.316 + 2)(0 + j3.316 + 3)| 60

|K| = 60 (5.30)
Seg on (5.30) para 0 K < 60 el sistema retroalimentado es estable,
un la ecuaci
y para K > 60 es inestable.
Combinando esta informaci on con la que se obtuvo al analizar el root-locus
complementario puede concluirse que el sistema realimentado es estable si y s
olo si
K (6, 60)

Reglas de construcci
on de los diagramas
La figura 5.15 ha sido construida a partir de la expresion exacta de la ubi-
caci
on de los polos, dada por (5.23). No obstante, podra haberse empleado un
metodo diferente, ya que existen varias reglas constructivas, que permiten tra-
zar manualmente el root-locus y el root-locus complementario de funciones de
transferencia de orden superior, con un alto grado de precisi on.
Estas reglas constructivas, algunas de las cuales se han resumido en la tabla
5.54 , se basan en la ecuacion (5.5). En el ejemplo 5.11 se muestra c omo se
emplean estas reglas.

Ejemplo 5.11 Trazar el root-locus y el root-locus complementario de


s+1
G(s)H(s) =
s(s + 4)(s2 + 2s + 2)
4n = n
umero de polos de G(s)H(s); m = n
umero de ceros de G(s)H(s)

105
OSCAR G. DUARTE

Regla root-locus root-locus complementa-


rio
R1 : n
umero de n n
ramas
R2 : Inicio de las Polos de G(s)H(s) (o en Ceros de G(s)H(s) (o en
ramas ) )
R3 : Fin de las ra- Ceros de G(s)H(s) (o en Polos de G(s)H(s) (o en
mas ) )
R4 : Intervalos A la izquierda de un nu- A la izquierda de un nu-
del eje real mero impar de polos y ce- mero par de polos y ceros
ros de G(s)H(s) de G(s)H(s)
R5 : Numero de |n m| |n m|
ramas que
van hacia
(o vienen
desde)
R6 :
Angulos de i = |nm| 2i+1
180o i = i = |nm| 2i
180o i =
las rectas 0, 1, , |n m| 0, 1, , |n m|
asntotas
Pn
polos de G(s)H(s) m ceros de G(s)H(s)
P
R7 : Centroide = |nm|
de las rectas
asntotas

Tabla 5.5: Reglas de construcci


on para el root-locus y el root-locus complementario

106
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Para trazar el diagrama de root-locus, comenzamos por ubicar en el plano com-


plejo los polos y ceros de G(s)H(s) (figura 5.17(a)). De acuerdo con la Regla R 4 ,
podemos definir que intervalos del eje real forman parte del root locus y cuales
del root locus complementario (figura 5.17(b)). Las reglas R 2 y R3 nos permiten
determinar si las ramas del eje real llegan o salen de los ceros y polos de G(s)H(s)
(figura 5.17(c))
Segun la regla R5 , deberan existir 4 1 = 3 ramas que van al infinito en el root
locus, y otras 3 ramas que vienen desde el infinito en el root locus complementario.
Estas ramas seran asntotas a unas rectas que cruzan el eje real en el centroide ,
que segun la regla R7 sera:

((0) + (4) + (1 + j) + (1 j) (1) 5


= =
41 3

Podemos calcular los angulos de esas rectas siguiendo la regla R 6 (figura 5.17(d))

i RL RLC
0 0 = 2i+1 o
41 180 = 60
o 2i
0 = 41 180o = 0o
2i+1 2i
1 1 = 41 180 = 180o
o
1 = 41 180o = 120o
2 2 = 2i+1 o
41 180 = 300
o 2i
2 = 41 180o = 240o

Con esta informaci on podriamos trazar parte de las ramas que van o vienen al
infinito (figura 5.17(e)), pero sera necesario emplear otras reglas, o programas de
simulacion, para obtener los diagramas completos (figura 5.17(f))

5.2.3. Diagramas y criterio de Bode


El analisis del lugar geometrico de las races permite establecer la ubicaci
on
de los polos de un sistema como el de la figura 5.1 conforme cambia el valor de K.
Si estamos interesados en estudiar la estabilidad del sistema, debemos analizar
los puntos en los cuales las ramas del root-locus y el root locus complementario
cruzan el eje imaginario, pues es en ese punto en donde los polos pasan del
semiplano izquierdo al derecho, o viceversa, y por lo tanto son los puntos en
donde puede cambiar la estabilidad del sistema realimentado.
Adem as, el root-locus es simetrico respecto al eje horizontal, por lo cual
basta con estudiar en que momento las ramas atraviesan una de las dos mitades
del eje imaginario, generalmente la mitad positiva.
Este hecho sugiere otra posibilidad de estudiar la estabilidad de los sistemas
realimentados: En lugar de estudiar en d onde est an ubicadas las ramas del root-
locus en todo el plano complejo, centrar nuestra atenci on unicamente en el eje
imaginario positivo, y detectar cu ando es atravesado por alguna rama del root-
locus.
Recordemos que de acuerdo con (5.25) los puntos del plano complejo que
forman parte del root-locus son tales que al evaluar en ellos la funci on G(s)H(s)
el a
ngulo del n umero complejo resultante debe ser 180o o 0o .

107
OSCAR G. DUARTE

Im(s) Im(s)


Re(s)
Re(s)
 


(a) Primer paso (b) Segundo paso

Im(s) Im(s)


Re(s)
Re(s)
 


(c) Tercer paso (d) Cuarto paso

Im(s) Im(s)


Re(s)
Re(s)



(e) Quinto paso (f) Sexto paso

Figura 5.17: Root-locus (en rojo) y root-locus complementario (en azul) del ejemplo
5.11

108
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

De acuerdo con lo anterior, los puntos en donde puede cambiar la estabilidad


del sistema realimentado coincide con aquellos puntos j del eje imaginario en
donde

180o
arg {G(j)H(j)} = (5.31)
0o
Para encontrar cu ales son los valores de que satisfacen (5.31) pueden tra-
zarse los diagramas de bode 5 de G(s)H(s) y buscar gr aficamente en el diagrama
de fase cu ales son los puntos en donde el a ngulo de G(j)H(j) vale 180o o
0o , tal como se muestra en la figura 5.186.
Para determinar los valores de K en los cuales la rama del root-locus atra-
viesa el eje imaginario, puede emplearse nuevamente
(5.25):
1
|G(j)H(j)| = (5.32)
|K|
El valor de |G(j)H(j)| puede leerse (en decibeles) en el diagrama de bode
de magnitud, tal como se muestra en la figura 5.18. A partir de ese valor, y
empleando (5.32) puede determinarse los valores de K para los cuales una rama
del root-locus atraviesa el eje imaginario (Kc en la figura 5.18).

M
argenes de estabilidad
Las ecuaciones (5.31) y (5.32) establecen dos condiciones que deben cumplir
los puntos j del plano complejo para formar parte del root-locus o del root-
locus complementario; una de las condiciones hace referencia a la gananacia de
G(s)H(s) y la otra a su fase. La idea de los margenes de estabilidad consiste en
suponer que k = 1, y explorar que margen se tiene cuando se cumple una de
esas condiciones:

Margen de ganancia: El margen de ganancia consiste en el menor valor por


el que se debe amplificar la ganancia de G(s)H(s) cuando se satisface la
condici
on (5.31), para que simult
aneamente se cumpla la condici
on (5.32).
Para el caso en que K > 0, el margen de ganancia puede leerse (en deci-
beles) en los diagramas de bode como el valor negativo de la ganancia a
la frecuencia en la que la fase es de 180o.
Para el caso en que K < 0, el margen de ganancia puede leerse (en deci-
beles) en los diagramas de bode como el valor negativo de la ganancia a
la frecuencia en la que la fase es de 0o .

Margen de fase: El margen de fase consiste en el menor valor que se le debe


sumar al a
ngulo de G(s)H(s) cuando se satisface la condici
on (5.32), para
que simultaneamente se cumpla la condici
on (5.31)
5 ver
apendice B
6 Existeun metodo gr
afico caido en desuso para calcular F (j) a partir de G(j) cuando
K = H(s) = 1. Ese metodo se basa en las cartas de Nichols, presentadas en el apendice C

109
OSCAR G. DUARTE

Diagrama de Bode de magnitud


j

root-locus: K > 0 K < 0

1
|Kc |
j

j

0o
j
j

180o

Diagrama de Bode de fase

Figura 5.18: Relaci


on entre el root-locus y los diagramas de Bode

Para el caso en que K > 0, el margen de fase puede leerse en los diagramas
de bode como 180o , donde es el a ngulo a la frecuencia en la que la
ganancia es de 0db.
Para el caso en que K < 0, el margen de fase puede leerse en los diagramas
de bode como , donde es el a
ngulo a la frecuencia en la que la ganancia
es de 0db.

Ejemplo 5.12 Sup


ongase que en el sistema de la figura 5.1 los bloque G(s) y H(s)
son:
1 1
G(s) = H(s) = (5.33)
(s + 1)(s + 2) (s + 3)
La figura 5.19 muestra los Diagramas de Bode de G(s)H(s). Seg un (5.31) los
puntos en los cuales puede cambiar la estabilidad del sistema realimentado son
aquellos en los que el angulo de G(j)H(j) es 0o o es 180o.
Al observar la figura 5.19 notamos que el angulo de G(j)H(j) es 180 o
para una frecuencia de 0.528Hz, es decir para = 20.528 = 3.316rad/s. En esa
frecuencia el valor de la magnitud de G(j)H(j) es de 35.56db, lo que significa
que la magnitud de K, en decibeles, para la cual una rama del root-locus atraviesa
el eje imaginario es tal que |K|1en db = 35.56, lo que equivale a:

1 |K|en db |K|en db 35.56


= 10 20 |K| = 10 20 |K| = 10 20 = 60
|K|

110
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Magnitude
db
10
15.56db
35.56db 30

70

110

150

190
Hz
.
230
3 2 1 0 1 2 3
10 10 10 10 10 10 10
0.528Hz
Phase
degrees
20
20
60
100
140
180o180

220
260 .
Hz
300
3 2 1 0 1 2 3
10 10 10 10 10 10 10

Figura 5.19: Diagramas de Bode para un ejemplo

111
OSCAR G. DUARTE

como K > 0 (hemos encontrado una rama del root locus) entonces K = 60.
Tambien debemos buscar los puntos para los cuales el angulo de G(j)H(j)
es 0o . En la figura 5.19 se observa que el diagrama de fase es asintotico a 0 o , es
o
decir, que para = 0 el angulo de G(j)H(j) es 0 . El diagrama de magnitud
de G(j)H(j) es asint otico a 15.56db, lo que significa que la magnitud de K,
en decibeles, para la cual una rama del Root-Locus complementario atraviesa el eje
imaginario es tal que |K|1en db = 15.56, lo que equivale a:
1 |K|en db |K|en db 15.56
= 10 20 |K| = 10 20 |K| = 10 20 =6
|K|
como K < 0 (hemos encontrado una rama del root locus complementario) entonces
K = 6.
Hemos encontrado los valores de K para los cuales un polo cruza el eje ima-
ginario, y han resultado ser 6 y 60. Esto significa que al variar K desde
hasta , la estabilidad del sistema realimentado s olo puede cambiar en 6 y 60.
En consecuencia, podemos definir tres intervalos para K en los cuales la estabilidad
es constante; para conocer la estabilidad de cada intervalo basta con determinar la
de uno de sus puntos:
K (, 6): Seleccionamos K = 10 de tal manera que el denominador
de (5.21) se convierte en
s3 + 6s2 + 11s 4

Como el denominador tiene coeficientes de signos diferentes al menos tiene


una raiz en el semiplano derecho, y en consecuencia el sistema realimentado
es inestable.
K (6, 60): Seleccionamos K = 0 de tal manera que el denominador de
(5.21) se convierte en
s3 + 6s2 + 11s + 6 = (s + 1)(s + 2)(s + 3)

Las raices del denominador son negativas (1, 2 y 3) , y en consecuencia


el sistema realimentado es estable.
K (60, ): Seleccionamos K = 100 de tal manera que el denominador de
(5.21) se convierte en
s3 + 6s2 + 11s + 106
cuyas raices son 6.71 y .36 j3.96, es decir que tiene dos raices en el
semiplano derecho y en consecuencia el sistema realimentado es inestable.

5.2.4. Diagrama y criterio de Nyquist


Para poder presentar el criterio de Nyquist, es conveniente recordar antes el
principio del argumento, que puede explicarse a partir de la metodologa gr
afica
para calcular el valor de una funci
on compleja racional.

112
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

c1 

(s0
c1 )
p1
s0

c1
s0
p3

p2

c2

Figura 5.20: Determinaci


on gr
afica del valor de una funci
on de transferencia
racional

Determinaci
on gr
afica del valor de una funci
on compleja racional
Supongase una funci
on compleja F (s) que puede escribirse como una razon
de polinomios:
a0 + a 1 s1 + + a m sm
F (s) = (5.34)
b0 + b 1 s1 + + b n sn
Al factorizar los polinomios, la ecuaci
on (5.34) podr
a escribirse como

(s c1 )(s c2 ) (s cm )
F (s) = A (5.35)
(s p1 )(s p2 ) (s pn )

Si se quiere calcular el valor de F (s) para un valor especfico de s, digamos


s0 , es decir, si se quiere calcular F (s0 ), basta con remplazar s por s0 :

(s0 c1 )(s0 c2 ) (s0 cm )


F (s0 ) = A (5.36)
(s0 p1 )(s0 p2 ) (s0 pn )
Cada uno de los parentesis que aparecen en (5.36) puede determinarse de
forma gr afica, tal como se explica a continuaci on: La figura 5.20 muestra el
diagrama de polos y ceros de una funci on de transferencia F (s) hipotetica; en
dicho diagrama se observa que el vector (s0 c1 ) corresponde al vector que va
desde c1 hasta s0 . La magnitud y el a ngulo de dicho vector pueden medirse en
la grafica, y correspondera al primero de los parentesis de (5.36).
De forma similar podra procederse con cada uno de los parentesis de (5.36),
de tal manera que una forma de calcular la magnitud y el a ngulo de F (s0 ) sera:
Qm
Magnitudes de los vectores que van de ceros a s0
|F (s0 )| = |A| Qn (5.37)
Magnitudes de los vectores que van de polos a s0

113
OSCAR G. DUARTE

Plano s Plano F
2 2

s0 F (s) F (s0 )
1 

1 

2 1 1 2 2 1 1 2
1 1

2 2

Figura 5.21: Plano s y Plano F

Pm
arg F (s0 ) = arg A +
Angulos de los vectores que van de ceros a s0
Pn

Angulos de los vectores que van de polos a s0
(5.38)
siendo arg A = 0o si A > 0 o arg A = 180o si A < 0

Principio del argumento


Para presentar el principio del argumento, supongamos inicialmente que la
funci
on F (s) a que se refiere la ecuaci
on (5.34) es

F (s) = s + 1 (5.39)

nico cero en s = 1 y no tiene polos. Supongamos tambien


es decir, tiene un u
que deseamos calcular F (s0 ), para s0 = 1 + j.
La figura 5.21 muestra dos planos complejos: en el primero de ello se ha
dibujado el diagrama de polos y ceros de (5.39); este plano lo denominaremos
plano s. En el segundo plano se ha dibujado el resultado de calcular F (s0 ), y
por eso lo denominaremos plano F. Para obtener F (s0 ) y poder graficarlo en el
plano F se ha empleado el metodo gr afico en el plano s, y el resultado se ha
trasladado, tal como se senala en la figura 5.21.
Si ahora quisieramos calcular F (s) no en un unico punto s0 sino en todos los
puntos de una trayectoria cerrada del plano s, podriamos repetir el procedimien-
to anterior en cada uno de los puntos de la trayectoria. Las figuras 5.22 y 5.23
muestran los resultados para dos trayectorias diferentes que se han recorrido en
el sentido horario. En ambos casos se produce en el plano F otra trayectoria
cerrada en sentido horario.

114
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Plano s Plano F
2 2
   

1 1
F (s)
 

2 1 1 
2 2 1 1 2 

1 

1 

2 2

Figura 5.22: Plano s y Plano F en una trayectoria cerrada que no encierra el cero

La principal diferencia entre las dos trayectorias seleccionadas es que la pri-


mera de ellas (figura 5.22) no encierra al cero de F (s) mientras que la segunda
(figura 5.22) s lo hace. Como consecuencia de esto, en el primer caso la trayec-
toria cerrada que aparece en el plano F no encierra al origen, mientras que en
el segundo s lo hace.

Las figuras 5.24 y 5.25 muestran cu


al habra sido el resultado si F (s) tuviera
un polo en s = 1 en lugar de un cero, es decir si F (s) = 1/(s + 1). En el plano
F aparecen trayectorias cerradas que s olo encierran al origen si la trayectoria
del plano s encierra al polo. Sin embargo, debe resaltarse que el sentido de la
trayectoria que encierra al origen es antihorario, lo que se explica observando
que en la ecuacion (5.38) el a
ngulo de los vectores que van de polos a s 0 tiene
signo negativo.

Ahora bien, si la trayectoria hubiese encerrado varios ceros y varios polos,


cada uno de estos ceros habra contribuido en 5.36 con un termino que habra
variado 360o en sentido horario, mientras que cada polo lo hara con otro termino
que habra variado 360o en sentido antihorario.

Otro detalle a tener en cuenta, es que si la trayectoria pasa por un polo de


a , y por lo tanto la trayectoria
F (s), al calcularla en ese punto el resutado ser
generada en el plano F no necesariamente ser a cerrada. Estos hechos pueden
consignarse en el principio del argumento, que se presenta a continuaci on:

115
OSCAR G. DUARTE

Plano s Plano F
2 2
   

1 1
F (s)
 

2 1 
1 2 2 1 1

2


1 1 

2 2

Figura 5.23: Plano s y Plano F en una trayectoria cerrada que encierra el cero

Plano s Plano F
2 2
 

1 1
F (s)

2 1 1 
2 2 1 
1 2
1 

2 2

Figura 5.24: Plano s y Plano F en una trayectoria cerrada que no encierra el polo

116
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Plano s Plano F
2 1


1 

F (s)

2

1 1 2 1 1 

1
 

2 1

Figura 5.25: Plano s y Plano F en una trayectoria cerrada que encierra el polo

Principio del argumento


Dada una funci on F (s), calculada en una trayectoria cerrada , que no
pasa por ning
un polo de F (s), recorrida en sentido horario, el resultado es
tambien una trayectoria cerrada que encierra al origen en sentido horario
un n
umero de veces :
= n m
(5.40)
n = N
umero de ceros de F(s) encerrados por
m = N
umero de polos de F(s) encerrados por

Trayectoria de Nyquist
La trayectoria de Nyquist para un sistema continuo realimentado como el
de la figura 5.1 es una curva cerrada que abarca todo el semiplano derecho, y
que no contiene ning un polo de G(s)H(s). La figura 5.26 muestra la trayectoria
de nyquist para el caso general.
N
otese que la trayectoria de Nyquist recorre todo el eje emaginario y regresa
por una semicircunferencia de radio , abarcando todo el semiplano derecho.
Para el caso especial en que G(s)H(s) tiene polos en el eje imaginario es ne-
cesario modificar la trayectoria, tal como se muestra en la figura 5.26, mediante
peque nas semicircunferencias de radio arbitrariamente peque no

Diagrama de Nyquist
Para un sistema continuo como el de la figura 5.1, el diagrama de Nyquist
es la trayectoria orientada que resulta de calcular G(s)H(s) a traves de la tra-

117
OSCAR G. DUARTE


r=

Figura 5.26: Trayectoria de Nyquist para el caso general



r=

Figura 5.27: Trayectoria de Nyquist con polos en el eje imaginario

118
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Plano s Plano GH

G(s)H(s)

r=

Figura 5.28: Diagrama de Nyquist

yectoria de Nyquist (ver figura 5.28).

Criterio de Nyquist
Para el sistema continuo realimentado de la figura 5.1, con K = 1 definamos
la funci
on

NG (s) NH (s)
R(s) = 1 + G(s)H(s) = 1 + =
DG (s) DH (s)
DG (s)DH (s) + NG (s)NH (s)
(5.41)
DG (s)DH (s)

Si calculamos R(s) a lo largo de la trayectoria de Nyquist , el resultado


es una curva . El criterio de Nyquist se deriva de aplicar el principio del
argumento a esta curva. Aplicando (5.40) se tiene:

Numero de veces N umero de ceros N umero de polos


que encierra al = de R(s) encerrados de R(s) encerrados (5.42)
origen por por

La ecuaci
on (5.42) puede escribirse de otra forma, si se tiene en cuenta que:

La curva encierra todo el semiplano derecho

Los polos de R(s) son los mismos polos de G(s)H(s), como se puede
verificar en (5.41)

Los ceros de R(s) son los mismos polos del sistema realimentado (con
K = 1) como puede verse al comparar (5.41) con (5.5)

119
OSCAR G. DUARTE

Con estas consideraciones la ecuaci


on (5.42) se convierte en

Numero de polos
Numero de veces N
umero de polos de
del sistema reali-
que encierra al = G(s)H(s) en el se- (5.43)
mentado en el semi-
origen miplano derecho
plano derecho

es la curva que resulta de calcular R(s) a lo largo de la trayectoria de


Nyquist , pero como R(s) = 1 + G(s)H(s), es igual al diagrama de Nyquist
de G(s)H(s) desplazado a la derecha una unidad; de tal manera que evaluar
cuantas veces encierra al origen es igual que evaluar cu
antas veces encierra
el diagrama de Nyquist de G(s)H(s) el punto (1, 0). Por esta raz on podemos
convertir (5.43) en la forma conocida como el criterio de Nyquist:

Criterio de Nyquist
El n
umero de polos en el semiplano derecho que tiene un sistema continuo
realimentado como el de la figura 5.1 , con K = 1 puede determinarse a
partir de la ecuaci
on

Numero de veces
Numero de polos
que el diagrama N
umero de polos de
del sistema reali-
de Nyquist de = G(s)H(s) en el se- (5.44)
mentado en el semi-
G(s)H(s) encierra miplano derecho
plano derecho
al punto (1, 0)

Para que el sistema realimentado sea estable debe tener cero polos en el
semiplano derecho.

El criterio de Nyquist tambien permite determinar que valores puede tener


K en la figura 5.1, para que el sistema realimentado sea estable. Para ello de-
be notarse que el diagrama de Nyquist de kG(s)H(s) difiere del diagrama de
Nyquist de G(s)H(s) s olo en la escala, es decir tienen la misma forma, pero el
primero est a amplificado respecto al segundo K veces. Observando el diagra-
ma de Nyquist puede determinarse que tanto debe amplificarse G(s)H(s) para
asegurar que no haya polos en el semiplano derecho.
Para estudiar los valores negativos de K que haran que el sistema fuera
estable, podramos trazar el diagrama de Nyquist de G(s)H(s); sin embargo
esto no es necesario, ya que ese diagrama s olo puede diferir del de G(s)H(s) en
una rotacion de 180o , por lo tanto es suficiente con averiguar que tantas veces
se encierra el punto (1, 0).

Ejemplo 5.13 La figura 5.29 muestra el diagrama de Nyquist correspondiente a un


sistema realimentado con
1 1
G(s) = H(s) = (5.45)
(s + 1)(s + 2) (s + 3)

120
5.2. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS CONTINUOS

Nyquist plot
Im(h(2i*pi*f))
0.15

0.132 0.093
0.11
0.059
0.190
0.07

0.024

0.03

1000
0.01 1 1
60 6

0.05
0.229 0.034

0.09
0.151 0.068
Re(h(2i*pi*f))
0.103

0.13
0.05 0.01 0.03 0.07 0.11 0.15 0.19

Figura 5.29: Diagrama de Nyquist para el ejemplo 5.13

En esa figura se han destacado los puntos en los que el Diagrama de Nyquist
cruza el eje real (1/60 y 1/6). El n umero de polos que G(s)H(s) tiene en el
semiplano derecho es cero, de acuerdo con (5.45). De esta forma, el criterio de
Nyquist, ecuaci
on (5.44), establece que:
Numero de polos del
sistema realimenta-
0= 0 (5.46)
do en el semiplano
derecho
y por lo tanto el sistema realimentado es estable para K = 1. Ademas, en el
diagrama de Nyquist se observa que este se puede amplificar hasta 60 veces sin que
cambie el n
umero de veces que encierra al punto (1, 0), lo que significa que para
0 < k < 60 el sistema sigue siendo estable. Si se amplifica por un valor superior
a 60 el punto (1, 0) resulta encerrado dos veces por el diagrama, y por lo tanto
el sistema realimentado tendra dos polos en el semiplano derecho, es decir, sera
inestable.
Evaluamos ahora la estabilidad para valores negativos de K Remitiendonos nue-
vamente a la figura 5.29, observamos que podemos amplificar 6 veces el diagrama
sin que cambie el numero de veces que encierra al punto (1, 0), lo que significa que
para 6 > K > 0 el sistema sigue siendo estable. Si se amplifica por un valor mayor
a 6 el punto (1, 0) resulta encerrado una vez por el diagrama, y por lo tanto el sis-
tema realimentado tendra un polo en el semiplano derecho, es decir, sera inestable.
En resumen, el sistema sera estable para K (6, 60).

121
OSCAR G. DUARTE

5.3. Estabilidad y criterios de estabilidad en sis-


temas discretos
Por razones an alogas a las expresedas en la secci on 5.2, la estabilidad de
sistemas din
amicos lineales discretos tambien est a determinada por la ubicacion
de sus polos. La condici on de estabilidad consiste en que estos deben estar
ubicados en el interior del crculo unitario.
Debido a que esta condici on es diferente a la que existe para los sistemas
continuos, las herramientas presentadas en la secci on 5.2 no pueden emplearse
directamente, sino que es necesario efectuar alg un tipo de adecuaci on. Existen
en general tres estrategias:
Adecuar el sistema discreto para que parezca un sistema continuo. Este es
el caso de la transformaci
on bilineal que se explica en la secci
on 5.3.1.
Dise
nar estrategias especficas para sistemas discretos. El criterio de Jury
que se presenta en la seccion 5.3.2 corresponde a este caso.
Adecuar las estrategias de an alisis para que funcionen con sistemas discre-
tos. Las secciones 5.3.3, 5.3.4 y 5.3.5 explican como adecuar las estrategias
de root-locus, Bode y Nyquist, respectivamente (ver secci on5.2), para apli-
carlas en el caso discreto.

5.3.1. Transformaci
on bilineal
La transformaci
on
z+1
r= (5.47)
z1
Se conoce como la transformaci on bilineal, ya que al despejar r en (5.47)
resulta una expresion similar:
r+1
z= (5.48)
r1
La transformacion bilineal tiene la propiedad de transformar la circunferencia
unitaria en el eje imaginario. Para demostrarlo, supongamos un valor de z que
est
a en la circunferencia unitaria, es decir z = cos + j sin para alg un valor
de . Al aplicar (5.47) observamos que z se transforma en
cos + j sin + 1
r=
cos + j sin 1
que puede escribirse como
1 + cos + j sin (1 + cos + j sin ) (1 + cos j sin )
r= =
1 + cos + j sin (1 + cos + j sin ) (1 + cos j sin )
Al efectuar las operaciones se obtiene que r es un imaginario puro:
j2 sin sin
r= =j (5.49)
2 2 cos cos 1

122
5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

z r
1 + j0 indefinido
0.707 + j0.707 0 j2.4142
0 + j1 0 j1
0.707 + j0.707 0 j0.4142
1 + j0 0 + j0
0.707 j0.707 0 + j0.4142
0 j1 0 + j1
0.707 j0.707 0 + j2.4142

Tabla 5.6: Transformaci


on bilineal de algunos puntos sobre la circunferencia unitaria

Plano z Plano r
2 z+1 2
r= z1

1 1


2 1 1 2 2 1 1 2


1 1


2 2


Figura 5.30: Transformaci


on Bilineal

La tabla 5.6 muestra como se transforman algunos puntos sobre la circunfe-


renca unitaria. Esta transformaci
on se visualiza en la figura 5.30.
Ejemplo 5.14 Sup
ongase que en el sistema de la figura 5.2 se tiene que
1 1
G(z) = H(z) = (5.50)
z + 0.3 z + 0.7
La funci
on de transferencia del sistema realimentado es
KG(z) K(z + 0.7)
F (z) = = 2 (5.51)
1 + KG(z)H(z) z + z + (K + 0.21)
Al aplicar la transformaci
on bilineal a F (z) se obtiene
  
r+1
K r1 + 0.7 K(r2 1.4r 0.3)
F (r) =  2   = 2
r+1 r (2.21 + K) + r(1.58 2K) + 0.21
r1 + r+1
r1 + (K + 0.21)

123
OSCAR G. DUARTE

r2 (2.21 + K) (0.21 + K)
r1 (1.58 2K)
r0 (0.21 + K)

Figura 5.31: Arreglo de Routh para el sistema transformado

Los valores de K que hacen que todas las races de F (z) esten dentro del crculo
unitario en el plano z son los mismos valores que hacen que todas las races de F (r)
esten en el semiplano izquierdo del plano r. Estos ultimos pueden determinarse por
medio del criterio de Routh Hurwitz. El arreglo correspondiente se muestra en la
figura 5.31 de donde se deduce que las condiciones para que el sistema del ejemplo
sea estable son:

2.21 + K > 0 1.58 2K > 0 0.21 + K > 0 (5.52)

O lo que es equivalente:
0.21 < K < 0.79 (5.53)

5.3.2. Arreglo y criterio de Jury


El criterio de Jury 7 permite determinar cuantas races tiene un polinomio en
el interior del crculo unitario. Cumple, para el caso discreto, un papel analogo
al que cumple el criterio de Routh-Hurwitz en el caso continuo.

Construcci
on del arreglo de Jury
Dado un polinomio p(z)

p(z) = an sn + an1 sn1 + + a2 s2 + a1 s1 + a0 (5.54)

en donde los coeficientes ai son reales y an es positivo, es posible construir el


Arreglo de Jury de p(z) a partir de los coeficientes ai que aparecen en (5.54).
Para ello, inicialmente se construye el arreglo que se muestra en la figura 5.32: la
primera lnea contiene los coeficientes de p(z) en orden, desde a0 hasta an , y en
la segunda lnea en orden inverso. En general, cada lnea par contiene los mismos
coeficientes que la lnea inmediatamente anterior pero en el orden inverso.
Los elementos de las lneas impares se construyen asi:


a ank b bn1k c cn2k
bk = 0 c = 0 d = 0 (5.55)
an ak k bn1 bk k cn2 ck

Es decir, el primer elemento de una fila impar se calcula como el determinate


de la matriz construida tomando de las dos lneas inmediatamente anteriores la
7 Existen versiones diferentes del criterio de Jury a las presentadas en estas notas

124
5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

Fila z0 z1 z2 z nk z n2 z n1 zn
1 a0 a1 a2 ank an2 an1 an
2 an an1 an2 ak a2 a1 a0
3 b0 b1 b2 bnk bn2 bn1
4 bn1 bn2 bn3 bk1 b1 b0
5 c0 c1 c2 cnk cn2
6 cn2 cn3 cn4 ck2 c0
.. .. .. ..
. . . .
2n 5 p0 p1 p2 p3
2n 4 p3 p2 p1 p0
2n 3 q0 q1 q2

Figura 5.32: Arreglo de Jury. Primeras dos lneas

primera y la u
ltima columna; el segundo elemento de forma similar pero con la
primera y la penultima columnas; el tercero con la primera y la antepenultima,
y asi sucesivamente. Dado que el u ltimo elemento sera el determinante de la
matriz formada con dos columnas iguales (la primera dos veces), este valor sera
siempre cero, y por tanto no se escribe en el arreglo (se ha eliminado).

Ejemplo 5.15 Considerese el polinomio

p(z) = 1 + 2z + 3z 2 + 4z 3 + 5z 5 (5.56)

Las primeras dos lneas del arreglo de Jury para p(z) se muestran en la figura
olo es necesario construir 5 lneas, porque n = 4 y 2n 3 = 5.
5.33. S
La tercera lnea se construye asi:

1 5 1 4
b0 =
= 24 b1 =
= 18
5 1 5 2

1 3 1 2
b2 = = 12 b3 = = 6
5 3 5 4
El arreglo con las cuatro primeras lneas su muestra en la figura 5.34.La quinta
lnea se construye asi:

24 6 24 12
c0 = = 504 c 1 = 6 18 = 360

6 24

24 18
c2 = = 180
6 12

Criterio de Jury
El Criterio de Jury puede expresarse asi:

125
OSCAR G. DUARTE

Fila z0 z1 z2 z3 z4
1 1 2 3 4 5
2 5 4 3 2 1
3 b0 b1 b2 b3
4 b3 b2 b1 b0
5 c0 c1 c2

Figura 5.33: Arreglo de Jury del ejemplo 5.15. Primeras dos lneas

Fila z0 z1 z2 z3 z4
1 1 2 3 4 5
2 5 4 3 2 1
3 24 18 12 6
4 6 12 18 24
5 c0 c1 c2

Figura 5.34: Arreglo de Jury del ejemplo 5.15. Primeras cuatro lneas

Fila z0 z1 z2 z3 z4
1 1 2 3 4 5
2 5 4 3 2 1
3 24 18 12 6
4 6 12 18 24
5 504 360 180

Figura 5.35: Arreglo de Jury del ejemplo 5.15. Arreglo completo

126
5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

Criterio de Jury
Las condiciones necesarias y suficientes para que p(z) en (5.54) tenga
todas sus races en el interior del crculo unitario del plano z son:

p(1) > 0 (5.57a)



>0 si n es par
p(1) (5.57b)
< 0 si n es impar

|a0 | < an

|b0 | > |bn1 |

|c0 | > |cn2 | n 1 condiciones (5.57c)
..

.



|q0 | > |q2 |

Notese que este criterio se reduce a unas condiciones muy simples para el
caso de polinomios de segundo orden (n = 2):

p(1) > 0 (5.58a)

p(1) > 0 (5.58b)


|a0 | < a2 (5.58c)

Ejemplo 5.16 Sup ongase el polinomio p(z) de la ecuaci on (5.56) en el Ejemplo


5.15, cuyo arreglo de Jury se muestra en la figura 5.35. Las condiciones (5.57) se
convierten en:

p(1) = 1 + 2(1)1 + 3(1)2 + 4(1)3 + 5(1)4 = 15 > 0 (5.59a)


p(1) = 1 + 2(1)1 + 3(1)2 + 4(1)3 + 5(1)4 = 3 > 0 (5.59b)
1 = |a0 | < a4 = 5
24 = |b0 | > |b3 | = 6 (5.59c)
504 = |c0 | > |c2 | = 180
Por lo que p(z) tiene todas su races en el interior del crculo unitario. Efectiva-
mente, las races de p(z) son:

r12 = 0.1378 i0.6782 r3,4 = 0.5378 i0.3583

|r12 | = 0.692 < 1 |r3,4 | = 0.646 < 1

Ejemplo 5.17 Sup ongase ahora un sistema como el del ejemplo 5.14, es decir un
sistema realimentado como el de la figura 5.2 con
1 1
G(z) = H(z) = (5.60)
z + 0.3 z + 0.7

127
OSCAR G. DUARTE

La funci
on de transferencia del sistema realimentado es
KG(z) K(z + 0.7)
F (z) = = 2 (5.61)
1 + KG(z)H(z) z + z + (K + 0.21)

Para que el denominador de F (z) tenga todas sus races en el crculo unitario,
y por tanto el sistema realimentado sea estable, se deben satisfacer (5.57); como
el denominador es de segundo orden, estas condiciones se convierten en las que
muestra (5.58), es decir:

p(1) = 1 + 1 + (0.21 + K) > 0 (5.62a)

p(1) = 1 1 + (0.21 + K) > 0 (5.62b)


|0.21 + K| = |a0 | < a2 = 1 (5.62c)
Estas condiciones se convierten en

K > 2.21 (5.63a)

K > 0.21 (5.63b)


1.21 < K < 0.79 (5.63c)
o lo que es equivalente:
0.21 < K < 0.79 (5.64)
que coincide con lo obtenido en (5.53)

Problemas en la construcci
on del arreglo de Jury
Es posible que algunos o todos los elementos de una fila en el arreglo de
Jury sean cero, en cuyo caso se considera que el arreglo ha terminado de forma
prematura. La solucion ha este inconveniente se considera fuera del alcance del
curso y por lo tanto se ha omitido en estas notasfootnotevease [22].

5.3.3. Lugar geom


etrico de las races
El root-locus y el root-locus complementario muestran c omo vara la ubica-
ci
on de los polos de la ecuaci on (5.5) al variar K. Como la forma de (5.5) y la de
(5.6) son identicas, pueden emplearse estos diagramas en forma an aloga a como
se emplean en el caso continuo para determinar la estabilidad de un sistema dis-
creto realimentado como el de la figura 5.2: deben encontrarse las condiciones
para que todas las ramas del root-locus y el root-locus complementario esten en
el interior del crculo unitario.

Ejemplo 5.18 Tomemos el mismo sistema analizado en los ejemplos 5.14 y 5.17.
Se trata de un sistema realimentado como el de la figura 5.2 con
1 1
G(z) = H(z) = (5.65)
z + 0.3 z + 0.7

128
5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

El root-locus y el root-locus complementario de G(z)H(z) se muestra en la figura


5.36. Se ha dibujado all tambien el crculo unitario, para facilitar la determinaci
on
de la estabilidad.
El root-locus cruza el circulo unitario en 0.5 j 1 0.52 = 0.5 j0.86,
Estos puntos corresponden a una ganancia Kc1 positiva tal que

1
Kc1 = = 0.79 (5.66)
(0.5 + j0.86 + 0.3)(0.5 + j0.86 + 0.7)

El root-locus complementario cruza el crculo unitario en 1 y en 1.Estos puntos


corresponden a unas ganancias Kc2 y Kc3 negativa tales que

1
Kc2 = = 0.21 (5.67)
(1 + 0.3)(1 + 0.7)

1
Kc3 =
= 2.21 (5.68)
(1 + 0.3)(1 + 0.7)
De las ecuaciones (5.66), (5.67) y (5.68) se desprenden las condiciones para que
el root-locus y el root locus complementario esten en el interior del crculo unitario:
Para el root-locus se necesita que K < 0.79 y para el root-locus complementario
que K > 0.21 y K > 2.21. Estas condiciones se pueden resumir en una s ola

0.21 < K < 0.79 (5.69)

que coincide con las encontradas en (5.53) y (5.64)

5.3.4. Diagramas y criterio de Bode


En la seccion 5.2.3 se muestra c omo pueden emplearse los Diagramas de
Bode para estudiar la estabilidad de sistemas realimentados contnus como los
de la figura 5.1. La figura 5.18 muestra la relacion entre el cruce por el eje real
de las ramas del root-locus y el root-locus complementario con los diagramas de
bode de G(s)H(s).
Para estudiar la estabilidad de los sistemas discretos ya no es importante el
cruce por el eje imaginario, sino el cruce por la circunferencia unitaria. Por esta
razon, los diagramas de |G(j)H(j)| y arg G(j)H(j) ya no son u tiles.
Dicho de otra forma, ya no es interesante recorrer el eje imaginario j, sino la
circunferencia unitaria. Esta u on ej , varian-
ltima se puede recorrer con la funci
do entre 0 y 2. En efecto, podemos emplear la F ormula de Euler para escribir

ej = cos + j sin (5.70)


on (5.70) muestra que ej es un n
La ecuaci umero complejo de magnitud 1
y a
ngulo , por lo tanto, si vara entre 0 y 2 se recorre la circunferencia
unitaria.

129
OSCAR G. DUARTE

Im(z)
1.5

1.0

0.5


1.5 1.0 0.5 0.5 1.0
Re(z)

1.5
0.5

1.0

1.5

Figura 5.36: root-locus (en rojo) y root-locus complementario (en azul) para el
ejemplo 5.18

Al igual que en el caso continuo, podemos argumentar la simetra del root-


locus para recorrer unicamente la mitad de la circunferencia, es decir, tomar
0 .
En resumen, podemos trazar los diagramas de magnitud y a ngulo para
G(ej )H(ej ) con 0 , o lo que es igual, para G(jf )H(jf ) con 0 < f < 21 .
Estos son los diagramas de bode para sistemas discretos y emplean las mismas
escalas que los diagramas de bode para sistemas continuos.
La relaci
on que existe entre los diagramas de root-locus y root-locus com-
plementario, por una parte, y los diagramas de bode, por otra, para sistemas
discretos se muestra en la figura 5.37. De esta forma, la determinacion de la es-
tabilidad de sistemas realimentados discretos es completamente an aloga al caso
continuo, y se ilustra con el ejemplo 5.19
Ejemplo 5.19 Retomemos el mismo sistema analizado en los ejemplos 5.14, 5.17
y 5.18. Se trata de un sistema realimentado como el de la figura 5.2 con
1 1
G(z) = H(z) = (5.71)
z + 0.3 z + 0.7
Los diagramas de bode de G(z)H(z) se muestran en la figura 5.38 (N
otese que
f vara de 0 a 21 ).
Se observa que el angulo de G(ej )H(ej ) es 180o para una frecuencia de
0.3338Hz, es decir para = 20.3338 = 2.094rad/s. En esa frecuencia el valor

130
5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

Diagrama de Bode de magnitud


ej
root-locus: K > 0 K < 0

1
ej ej |Kc |


0o
j

ej e

180o

Diagrama de Bode de fase

Figura 5.37: Relaci


on entre el root-locus y los diagramas de Bode para el caso
discreto

de la magnitud de G(ej )H(ej ) es de 2.04db, lo que significa que la magnitud de


K, en decibeles, para la cual una rama del Root-Locus atraviesa la circunferencia
unitaria es tal que |Kc11|en db = 2.04, lo que equivale a:

1 |Kc1 |en db |Kc1 |en db


= 10 20 |Kc1 | = 10 20
|Kc1 |
2.04
|Kc1 | = 10 20 = 0.79 Kc1 = 0.79 (5.72)
Para estudiar los cruces por la circunferencia unitaria de ramas del root-locus
complementario, observamos que el diagrama de fase es asint otico a 0 o , es decir
j j o
que para = 0 el angulo de G(e )H(e ) es 0 . Tambien se observa que para
una frecuencia de 12 Hz, es decir = el angulo es de 360o, que es igual a 0o .
Lo anterior significa que dos ramas del root locus complementario cruzan la
circunferencia unitaria en Kc2 y Kc3 que se pueden calcular como:
6.89
|Kc2 | = 10 20 = 2.21 Kc2 = 2.21 (5.73)
13.555
|Kc3 | = 10 20 = 0.21 Kc3 = 0.21 (5.74)
Los resultados de las ecuaciones (5.72) a (5.74) son coherentes con los obtenidos
en (5.53), (5.64) y (5.69).

131
OSCAR G. DUARTE

Magnitude
db
17

13.555db 13

5
2.04db
1

3
Hz
6.89db 7 .
3 2 1 0
10 10 10 10
0.3338Hz
Phase
degrees
0
40
80
120
160
180o
200
240
280
320 Hz
360 .
3 2 1 0
10 10 10 10

Figura 5.38: Diagramas de Bode para el ejemplo 5.19

132
5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

Figura 5.39: Trayectoria de Nyquist para el caso discreto general

5.3.5. Diagrama y criterio de Nyquist

El criterio de Nyquist para sistemas realimentados continuos de la ecuaci on


(5.44) se construye empleando las trayectorias de Nyquist que se muestran en las
figuras 5.26 y 5.27. Estas trayectorias han sido dise
nadas en forma tal que encie-
rran todo el semiplano derecho y asi poder emplear el principio del argumento
(ecuacion (5.40)) en forma conveniente.

Para sistemas discretos realimentados como los de la figura 5.2 es necesario


modificar la trayectoria de Nyquist para que encierre toda la porci on del plano
complejo que esta por fuera del crculo unitario. La trayectoria seleccionada se
muestra en la figura 5.39; en caso de que G(z)H(z) tenga polos exactamente
sobre la circunferencia unitaria, es necesario modificar la trayectoria como se
muestra en la figura 5.40. Denominaremos al diagrama obtenido con estas tra-
yectorias Diagrama de Nyquist para sistemas discretos, o simplemente Diagrama
de Nyquist discreto.

En estas condiciones, el Criterio de Nyquist para sistemas discretos puede


enunciarse asi:

133
OSCAR G. DUARTE

Figura 5.40: Trayectoria de Nyquist para el caso discreto con polos en la


circunferencia unitaria

Criterio de Nyquist para sistemas discretos


El n
umero de polos por fuera del crculo unitario que tiene un siste-
ma discreto realimentado como el de la figura 5.2 , con K = 1 puede
determinarse a partir de la ecuaci
on
Numero de veces
que el diagrama de N umero de polos
N
umero de polos de
Nyquist discreto de = del sistema reali-
G(z)H(z) por fuera (5.75)
G(z)H(z) encierra mentado por fuera del crculo unitario
al punto (1, 0) del crculo unitario

Para que el sistema realimentado sea estable debe tener cero polos por
fuera del crculo unitario.

Ejemplo 5.20 Retomemos el mismo sistema analizado en los ejemplos 5.14, 5.17,
5.18 y 5.19. Se trata de un sistema realimentado como el de la figura 5.2 con

1 1
G(z) = H(z) = (5.76)
z + 0.3 z + 0.7

El diagrama de Nyquist de G(z)H(z) se muestra en la figura 5.41; puede ob-


servarse que el diagrama de Nyquist encierra una vez el punto (1, 0). Ademas,
G(z)H(z) tiene cero polos por fuera del crculo unitario. Seg
un (5.75) se tiene que

134
5.3. ESTABILIDAD Y CRITERIOS DE ESTABILIDAD EN SISTEMAS DISCRETOS

N umero de polos del


sistema realimenta-
1= 0 (5.77)
do por fuera del
crculo unitario
y por lo tanto el sistema realimentado con K = 1 es inestable. Sin embargo el
n
umero de veces que se encierra el punto (1, 0) puede ser 0 si el diagrama se
amplifica por un valor positivo menor que 0.79. En estas condiciones el sistema
realimentado sera estable. Por lo tanto, para que el sistema realimentado sea estable
con valores positivos de K, se necesita que 0 < K < 0.79
Para estudiar los valores negativos de K que haran que el sistema fuera estable,
podramos trazar el diagrama de Nyquist de G(z)H(z); sin embargo esto no es
necesario, ya que ese diagrama s olo puede diferir del de G(z)H(z) en una rotaci on
de 180o , por lo tanto es suficiente con averiguar que tantas veces se encierra el
punto (1, 0).
En la figura 5.41 se observa que el n umero de veces que el diagrama de Nyquist
puede encerrar al punto (1, 0) es 0, 1 o 2 en las siguientes condiciones:
Si se amplifica por una cantidad menor que 0.21 lo encierra 0 veces.
Si se amplifica por una cantidad mayor que 0.21 y menor que 2.21 lo encierra
1 vez.
Si se amplifica por una cantidad mayor que 2.21 lo encierra 2 veces.
Por lo tanto, para que el sistema realimentado sea estable con valores negativos
de K, se necesita que 0.21 < K < 0
Al combinar los resultados obtenidos para valores positivos y negativos de K se
tiene que
0.21 < K < 0.79 (5.78)
que coincide con (5.53), (5.64), (5.69) y (5.72).

135
OSCAR G. DUARTE

Nyquist plot
Im(h(exp(2i*pi*f*dt)))
4
0.451 0.466
3
0.479

2
0.4

1
0.135

0 0.5

1 1 1
1
0.79 2.21 0.21
0.388
0.488

0.425
0.476
3
0.447 0.463 Re(h(exp(
2i*pi*f*dt)))

4
2 1 0 1 2 3 4 5

Figura 5.41: Diagrama de Nyquist para el ejemplo 5.20

136
Captulo 6

Representacion en variables de
estado

6.1. Introducci
on
En los captulos anteriores se han presentado distintas estrategias para mo-
delar el comportamiento de sistemas dinamicos continuos y discretos, entre ellas:

Ecuaciones diferenciales o de diferencia

Funciones de transferencia

Respuestas al impulso

Diagramas de bloque

Diagramas de flujo de se
nal

En este captulo se estudia una nueva alternativa que emplea un conjunto


de variables denominadas variables de estado. Puede pensarse que estas son tan
solo variables matem aticas auxiliares, aunque en ocasiones tienen un sentido
fsico. Algunas de las ventajas que se obtienen con esta nueva representaci on
son las siguientes:

La representaci
on de sistemas de m
ultiples entradas y m
ultiples salidas es
m
as sencilla.

Toda la dinamica del sistema se representa por ecuaciones diferenciales o


de diferencia de primer orden.

137
OSCAR G. DUARTE

u1 (t) y1 (t)
u2 (t) Sistema y2 (t)
.. Din
amico ..
. .
up (t) yq (t)

Figura 6.1: Sistema Continuo de m


ultiples entradas y m
ultiples salidas

u1 (k) y1 (k)
u2 (k) Sistema y2 (k)
.. Din
amico ..
. .
up (k) yq (k)

Figura 6.2: Sistema Discreto de m


ultiples entradas y m
ultiples salidas

Permite el desarrollo de metodos computacionales m


as eficientes para la
simulaci
on de sistemas din
amicos.

Brinda una nueva perspectiva sobre la din


amica de los sistemas.

Algunas de las tecnicas de control moderno (como el control robusto) se


basan en este tipo de representaci
on.

Vale la pena aclarar que si bien las ecuaciones que se emplean son de primer
orden, estas operan sobre vectores. Refiriendonos a las figuras 6.1 y 6.2, si se
trata de un sistema continuo ser an:

x(t)
=f (x(t), u(t), t)
(6.1)
y(t) =g(x(t), u(t), t)

y si se trata de un sistema discreto ser


an:

x(k + 1) =f (x(k), u(k), k )


(6.2)
y(k) =g(x(k), u(k), k )

En las ecuaciones (6.1) y (6.2) u es un vector que contiene cada una de las
p entradas al sistema, y es un vector que contiene cada una de las q salidas del
sistema, x es un vector que contiene cada una de las n variables de estado del

138

6.1. INTRODUCCION

sistema, es decir:

u1 y1 x1
u2 y2 x2

u= . y=. x= . (6.3)
.. .. ..
up p1
yq q1
xn n1

Las ecuaciones vectoriales (6.1) y (6.2) son en realidad un conjunto de ecua-


ciones. Por ejemplo, las ecuaciones (6.1) corresponden a algo de la forma:


x 1 (t) = f1 (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)

x 2 (t) = f2 (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)
..


.

x n (t) = fn (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)


y 1 (t) = g1 (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)

y 1 (t) = g2 (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)
..


.

y q (t) = gq (t) (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , up (t), t)
En general, estudiaremos sistemas din amicos lineales invariantes en el tiem-
po, de m ultiples entradas y m
ultiples salidas. Si el sistema es continuo, como el
de la figura 6.1 su modelo corresponder a a las ecuaciones Matriciales
x(t)
= Ax(t) + Bu(t)
(6.4)
y(t) = Cx(t) + Du(t)
Si el sistema es discreto, como el de la figura 6.2 su modelo corresponder
aa
las ecuaciones matriciales
x(k + 1) = Ax(k) + Bu(k)
(6.5)
y(k) = Cx(k) + Du(k)
En las ecuaciones (6.4) y (6.5) A, B, C y D son matrices de tama
no ade-
cuado:
x(t)
n1 = Ann x(t)n1 + Bnp u(t)p1
(6.6)
y(t)q1 = Cqn x(t)n1 + Dqp u(t)p1

x(k + 1)n1 = Ann x(k)n1 + Bnp u(k)p1


(6.7)
y(k)q1 = Cqn x(k)n1 + Dqp u(k)p1
Para encontrar la soluci
on de las ecuaciones (6.4) y (6.5) y efectuar su an
a-
lisis, pero sobre todo para buscarle un significado a las variables de estado, se

emplean algunos conceptos de Algebra Lineal. Con el prop
osito de recordar esos
conceptos, se presenta en la secci
on 6.2 los resultados necesarios mas importan-
tes. Una presentacion formal de estos se encuentra en el apendice D, de donde
se han extraido algunos apartes y ejemplos.

139
OSCAR G. DUARTE

6.2. Algunos resultados de


algebra lineal
6.2.1. Espacios vectoriales
Sea un conjunto y F : (, , ) un campo (usualmente F se trata de R o
C con las operaciones usuales de suma y multiplicaci
on). A los elementos de
se les denomina Vectores, y a los elementos de Escalares. tiene estructura
de Espacio Vectorial sobre F si est
a dotado de una operaci
on binaria + (suma
on entre elementos de y (Producto por escalar)
vectorial) y una operaci
que cumplen las siguientes propiedades:
Para la suma vectorial
V.1 Clausurativa: x, y x + y
V.2 Asociativa: x, y, z (x + y) + z = x + (y + z)
V.3 Modulativa: 0 | x x + 0 = x
V.4 Invertiva: x (x) | x + (x) = 0
V.5 Conmutativa: x, y x + y = y + x
Para el producto por escalar
V.6 Clausurativa: x , x
V.7 Asociativa: x , , ( ) x = ( x)
V.8 Modulativa: x , 1 x = x. 1 es el m
odulo de
V.9 Anulativa: x , 0x = 0. Donde 0 es el m
odulo de , y 0 es el m
odulo
de +
Para las dos operaciones
V.10 Distributiva respecto a +: x, y , (x+y) = (x)+(y)

V.11 Distributiva respecto a : x , , ()x = (x)+(x)

Ejemplo 6.1 Uno de los espacios vectoriales mas conocidos, y que servira para
futuros ejemplos en este captulo es el formado por R 2 sobre el campo R con las
operaciones usuales. En general, Cn sobre el campo C con las operaciones usuales
forma un espacio vectorial.

Ejemplo 6.2 El conjunto de todos los polinomios sobre el campo R con las opera-
ciones usuales entre polinomios forma un espacio vectorial.

Ejemplo 6.3 El conjunto de todas las funciones continuas a trozos sobre el campo
C con la operaci
on + definida como la suma punto a punto forma un espacio
vectorial.

140

6.2. ALGUNOS RESULTADOS DE ALGEBRA LINEAL

Ejemplo 6.4 El conjunto de todas las matrices de tamano fijo mn sobre el campo
C con las operaciones usuales entre matrices forma un espacio vectorial.

Los siguientes son algunos conceptos asociados a los espacios vectoriales:

Subespacio: Es un espacio vectorial contenido dentro de otro espacio vectorial,


por ejemplo una recta que cruce por el origen dentro del plano.

Combinaci
on lineal: Es una expresi
on de la forma
n
X
1 x1 + 2 x2 + + n xn = i xi
i=1

en donde los i son escalares y los xi son vectores

Independencia lineal: Un conjunto de vectores es lineamente independiente


si la u
nica combinacion lineal de ellos cuyo resultado es 0 es la que tiene
todos los coeficientes iguales a 0.

Conjunto generado: Es el conjunto de todas las posibles combinaciones li-


neales de los vectores de un cierto conjunto, al que se denomina conjunto
generador.

Dimensi
on: Es el m
aximo numero de vectores linealmente independientes que
puede haber en un espacio vectorial.

Base: Es cualquier conjunto de vectores linealmente independiente que adem


as
genera el espacio vectorial. En R2 la base est
andar est
a formada por los
vectores (1, 0) y (0, 1)

Coordenadas de un vector: Un vector x de un espacio vectorial puede escri-


birse como una u on lineal de su base B = {b1 , b2 , , bn }:
nica combinaci

x = 1 b1 + 2 b2 + + n bn

Los coeficientes i de esa combinaci


on lineal son las coordenadas de x en
la base B.

Cambios de base: Un mismo vector tendr a diferentes coordenadas en dos ba-


ses diferentes. Sean A = {a1 , a2 , , an } y B = {b1 , b2 , , bn } dos bases
del mismo espacio vectorial V de dimensi on n. Definimos las matrices A y
B como las matrices que tienen en sus columnas cada uno de los elementos
de las bases A y B respectivamente:
 
A = a1 a2 an
 
B = b1 b2 bn

141
OSCAR G. DUARTE

Un vector x tendra coordenadas i en la base A y i en la base B. Defi-


nimos los vectores columna y que contienen las coordenadas:

1 1
2 2

= . = .
.. ..
n n

Las expresiones que permiten encontrar las coordenadas de x en una base


a partir de sus coordenadas en la otra son las siguientes:

A = B = A1 B = B1 A (6.8)

En caso de que A sea la base estandar, la matriz A resulta ser la matriz


identidad de orden n y (6.8) se convierte en

= B = B1 (6.9)

Transformaciones lineales: Dado un espacio vectorial V de dimensi on n,


entenderemos por transformaci
on lineal, en el contexto de este captulo,
on V V que puede representarse por una matriz cuadrada A
una funci
de dimension n n:
y = Ax

on lineal toma un vector x V y


En otras palabras, una transformaci
produce un vector y V mediante la operaci
on y = Ax.

Transformaciones y cambios de base: Sea T una transformaci on lineal, que


en la base est
andar se representa por la matriz T . La misma transforma-
ci a en otra base B = {b1 , b2 , , bn } por
on se representar

T = B1 T B (6.10)

en donde B = [b1 b2 bn ]

Ejemplo 6.5 La funci on T : R2 R2 consistente en la rotaci on de vectores 90o


en sentido horario es una transformaci
on lineal representada por la matriz A:
 
0 1
A=
1 0

Un vector x de coordenadas (a, b) se convertira en un vector y cuyas coordenadas


se calculan asi:     
0 1 a b
y = Ax = =
1 0 b a

142

6.2. ALGUNOS RESULTADOS DE ALGEBRA LINEAL

1 =1
1 =1
2 =3
2 =2 2 =-2

1 =-1

: base : vector x

Figura 6.3: Cambio de base de un Vector

Ejemplo 6.6 En R2 puede definirse una base con cualquier pareja de vectores no
paralelos. Definamos por ejemplo A = {(1, 0), (0, 1)}, B = {(3, 1), (2, 2)} y C =
{(1, 1)(1, 1)} (vectores rojos en la figura 6.3).
Consideremos ahora el vector x en la figura 6.3. Sus coordenadas en la base
estandar A seran    
1
= 1 =
2 3
Para obtener las coordenadas de x en las bases B y C construimos las matrices
B y C y empleamos (6.9)
   
3 2 1 1
B= C=
1 2 1 1
      
1 1 1/2 1/2 1 1
= =B = =
2 1/4 3/4 3 2
      
1/2 1/2 1 1
= 1 = C1 = =
2 1/2 1/2 3 2
Puede verificarse que las coordenadas en las bases B y C satisfacen las relaciones
(6.8)
= B1 C = C1 B

Ejemplo 6.7 En el ejemplo 6.5 se mostr on de 90 o en sentido horario


o que la rotaci
estaba representada en la base estandar por la matriz
 
0 1
T =
1 0

on se representara en la base B = {(3, 1), (2, 2)} por la


La misma transformaci
matriz
T = B1 T B

143
OSCAR G. DUARTE

     
1/2 1/2 0 1 3 2 2 2
T = =
1/4 3/4 1 0 1 2 2.5 2
Sup
ongase ahora el vector x, cuyas coordenadas en la base estandar son x =
on de 90 o
(1, 3) y en la base B son x = (1, 2) (ejemplo 6.6). Al efectuar la rotaci
en sentido horario se obtendra un vector y cuyas coordenadas en la base estandar
seran y y en la base B seran y :

         
0 1 1 3 2 2 1 2
y = = y = =
1 0 3 1 2.5 2 2 1.5

6.2.2. Valores y vectores propios


Sea A una transformaci on lineal Rn Rn . Un escalar es un valor propio
o valor caracterstico de A si existe un vector no nulo v tal que Av = v.
Cualquier vector no nulo v que satizfaga

Av = v (6.11)

es un vector propio asociado con el valor propio 1 .


La relaci
on (6.11) implica que para un vector propio v el efecto de aplicarle
la transformacion lineal A es igual que amplificarlo por el escalar . Esto implica
que un vector y el vector transformado son colineales o paralelos y por lo tanto
linealmente dependientes.
Para calcular los valores propios de una matriz A puede reescribirse la ecua-
ci
on (6.11) como
Av v = 0

(A I)v = 0

En donde I es la matriz identidad de igual orden que A, es decir n n. Para


que exista una vector v 6= 0 tal que (A I)v = 0 debe cumplirse que

det(I A) = 0 (6.12)

El lado izquierdo de la ecuaci on (6.12) corresponde a un polinomio de orden


n en la variable conocido como el polinomio caracterstico de A y denotado
por ().
Dicho de otra forma, los valores propios de A son las raices de su polinomio
caracterstico (). Por tanto, la matriz A tiene n valores propios 1 , 2 , , n ;
estos valores podran ser reales o complejos y podr an ser diferentes o repetidos.
1 La definici
on (6.11) se refiere estrictamente a valores y vectores propios por derecha, para
distinguirlos de los valores y vectores propios por izquierda, que deben satisfacer v t A = vt .
En este texto solo se consideran los primeros, y por tanto se hace referencia a ellos simplemente
como valores y vectores propios.

144

6.2. ALGUNOS RESULTADOS DE ALGEBRA LINEAL

Ejemplo 6.8 Obtener los valores y vectores propios de la matriz


 
4 1
A=
2 1

Construimos la matriz B = (I A) y hallamos su determinante:


     
1 0 4 1 ( 4) 1
B = (I A) = =
0 1 2 1 2 ( 1)
() = det(B) = ( 4)( 1) + 2 = 2 5 + 6 = ( 2)( 3)
Los valores propios de A seran las races de ()

1 = 2 2 = 3

Los vectores propios asociados a 1 = 2 deben cumplir (6.11):

Av1 = 1 v1
        
4 1 v11 v 4v11 + v21 2v11
= 2 11 =
2 1 v21 v21 2v11 + v21 2v21
Se crea entonces un sistema de ecuaciones con infinitas soluciones:

4v11 + v21 = 2v11
2v11 + v21 = 2v21

Para obtener un vector propio asociado a 1 = 2 podemos escoger arbitraria-


mente un valor para v11 o para v21 . Por ejemplo, si escogemos v11 = 1 obtenemos
v21 = 2. En consecuencia, un vector propio asociado a 1 = 2 sera
   
1 a
v1 = en general v1 =
2 2a

Los vectores propios asociados a 2 = 3 tambien deben cumplir (6.11):

Av2 = 1 v2
        
4 1 v12 v12 4v12 + v22 3v12
=3 =
2 1 v22 v22 2v12 + v22 3v22
Se crea entonces un segundo sistema de ecuaciones con infinitas soluciones:

4v12 + v22 = 3v12
2v12 + v22 = 3v22

Para obtener un vector propio asociado a 2 = 3 podemos escoger arbitraria-


mente un valor para v12 o para v22 . Por ejemplo, si escogemos v12 = 1 obtenemos
v22 = 1. En consecuencia, un vector propio asociado a 2 = 3 sera
   
1 a
v2 = en general v2 =
1 a

145
OSCAR G. DUARTE

Ejemplo 6.9 Obtener los valores y vectores propios de la matriz


 
2 1
A=
1 2

Construimos la matriz B = (I A) y hallamos su determinante:


     
1 0 2 1 ( 2) 1
B = (I A) = =
0 1 1 2 1 ( 2)
() = det(B) = ( 2)2 + 1 = 2 4 + 5
Los valores propios de A seran las races de ()

1,2 = 2 j

Al aplicar (6.11) para 1 y 2 se obtienen dos sistemas de ecuaciones con infinitas


soluciones
 
2v11 + v21 = (2 + j)v11 2v12 + v22 = (2 j)v12
v11 + 2v21 = (2 + j)v21 v12 + 2v22 = (2 j)v22
Seleccionando arbitrariamente v11 = 1 y v12 = 1 se obtiene
   
1 1
v1 = v2 =
j j

o en general    
a a
v1 = v2 =
ja ja

6.2.3. Forma can


onica de Jordan
Matrices con valores propios diferentes
Sean 1 , 2 , , n los n valores propios de una matriz A de orden n n,
todos diferentes, y sea vi un vector propio asociado a i con i = 1, 2, , n.
El conjunto V = {v1 , v2 , , vn } es linealmente independiente, y por lo tanto
sirve como una base para el espacio vectorial.
Si se efectua un cambio de base a la nueva base V , la matriz A se transforma
en la matriz de acuerdo con (6.10):

= M1 AM (6.13)

La matriz es la matriz diagonalizada, o la forma can


onica de Jordan de
A, y se define asi:
1 0 0
0 2 0

= . .. . . ..
.. . . .
0 0 n

146

6.2. ALGUNOS RESULTADOS DE ALGEBRA LINEAL

La matriz M se denomina la matriz modal, y se define asi:


 
M = v1 v2 v n

Esta afirmaci
on puede demostrarse facilmente al comprobar que M = AM:

1 0 0
0 2 0 

 
M = v1 v2 vn . . . . = 1 v 1 2 v 2 n v n
.. .. . . ..

0 0 n
   
AM = A v1 v2 vn = Av1 Av2 Avn
Como Avi = i vi entonces las ecuaciones anteriores se reducen a M =
AM o lo que es igual
= M1 AM

Ejemplo 6.10 La transformaci


on lineal representada por la matriz
 
4 1
A=
2 1

cuyos valores propios son (Ejemplo 6.8) 1 = 2, 2 = 3 con vectores propios v1 ,


v2 :    
1 1
v1 = v2 =
2 1
on en la base {v1 v2 } dada por la matriz diagonal
Tiene una representaci

       
1 1 4 1 1 1 2 0 0
= M1 AM = = = 1
2 1 2 1 2 1 0 3 0 2

Ejemplo 6.11 La transformaci


on lineal representada por la matriz
 
2 1
A=
1 2

cuyos valores propios son (Ejemplo 6.9) 1,2 = 2 j con vectores propios v1 , v2 :
   
1 1
v1 = v2 =
j j

on en la base {v1 v2 } dada por la matriz diagonal


Tiene una representaci

= M1 AM
       
j/2 j/2 2 1 1 1 2+j 0 0
= = = 1
j/2 j/2 1 2 j j 0 2j 0 2

147
OSCAR G. DUARTE

Matrices con valores propios repetidos


Al intentar efectuar la diagonalizaci on de una matriz A que tenga valores
propios repetidos puede encontrarse un tropiezo debido a que los vectores propios
no necesariamente son linealmente independientes; de hecho, lo usual es que no
lo sean aunque existen casos en que lo son.
Al no contar con un n umero suficiente de vectores propios linealmente inde-
pendientes no es posible construir una base que diagonalice la matriz. No ser a
posible obtener M1 y no se podr a calcular = M1 AM. Pese a ello, siempre
se podr a obtener una diagonalizaci on por bloques.
Dada una transformaci on lineal A de orden n n, de valores propios 1 , 2 ,
, n , se define la degeneracidad del valor propio i , denotada por di , como el
numero de vectores propios de linealmente independientes asociados a un valor
propio i , y se calcula asi:

di = n (i I A)

en donde (X) es el rango de la matriz X, que equivale al n


umero de columnas
(o filas) linealmente independientes de X

Ejemplo 6.12 Obtener los valores y vectores propios de la matriz A y diagonalizarla


 
1 2
A=
2 5

Construimos la matriz B = (I A) y hallamos su determinante:


     
1 0 1 2 ( 1) 2
B = (I A) = =
0 1 2 5 2 ( 5)

() = det(B) = ( 1)( 5) + 4 = 2 6 + 9 = ( 3)2


Los valores propios de A seran las races de ()

1 = 2 = = 3

La degeneracidad de = 3 se obtiene asi:

d1 = 2 (3I A)
   
3 1 2 2 2
d1 = 2 =2 =21=1
2 35 2 2
Lo anterior significa que aunque tiene multiplicidad 2, s
olo es posible encontrar
un vector linealmente independiente. Este se obtiene empleando (6.11), y resulta
ser    
1 a
v1 = en general v1 =
1 a
No es posible construir una base para el espacio de dimensi
on 2 con un s
olo
vector, por lo tanto no es posible diagonalizar A

148

6.2. ALGUNOS RESULTADOS DE ALGEBRA LINEAL

Ejemplo 6.13 Obtener los valores y vectores propios de la matriz A y diagonalizarla



3 0 1
A = 1 2 1
1 0 3

Construimos (I A):

( 3) 0 1
I A = 1 ( 2) 1
1 0 ( 3)

Su polinomio caracterstico resulta ser

() = ( 3)2 ( 2) ( 2) = 3 82 + 20 16

Las races del polinomio son 1 = 2 = 2, 3 = 4. Para determinar la degeneracidad


de 1 calculamos 1 I A

(2 3) 0 1 1 0 1
I A = 1 (2 2) 1 = 1 0 1
1 0 (2 3) 1 0 1

d1 = n (I A) d1 = 3 1 = 2
Lo anterior significa que existen dos vectores propios linealmente independientes
asociados a 1 = 2 = 2. Estos dos vectores junto con el vector propio asociado a
3 = 4 pueden formar una base y por tanto es posible diagonalizar A. Para obtener
los tres vectores propios empleamos (6.11):

3 0 1 a a 3 0 1 d d
1 2 1 b = 2 b 1 2 1 e = 4 e
1 0 3 c c 1 0 3 f f

Se originan los sistemas de ecuaciones



3a c = 2a 3d f = 4a
a + 2b c = 2b d + 2e f = 4e

a + 3c = 2c d + 3f = 4f

Que se convierten en
a=c d = e = f
Podemos construir dos vectores linealmente independientes v 1 , v2 que satisfacen
a = c y un tercero v3 que satisface d = e = f , por ejemplo

1 1 1
v1 = 0 v2 = 1 v3 = 1
1 1 1

149
OSCAR G. DUARTE

En la base {v1 v2 v3 } la transformaci


on A se representa por :

1 1 0 3 0 1 1 1 1
= M1 AM = 1/2 1 1/2 1 2 1 0 1 1
1/2 0 1/2 1 0 3 1 1 1

2 0 0 1 0 0
= M1 AM = 0 2 0 = 0 2 0
0 0 4 0 0 3

Cuando no se puede encontrar un conjunto de vectores propios linealmen-


te independiente lo suficientemente grande para diagonalizar la matriz, debe
acudirse al concepto de vectores propios generalizados para lograr una diagona-
lizaci
on por bloques.
El concepto de vector propio generalizado, y la forma de calcularlos se sale
del a
mbito de este texto, aunque una presentaci on detallada puede encontrarse
en el apendice D. No obstante, es posible determinar en forma sencilla cual es
la forma de la matriz diagonalizada por bloques, o forma can onica de Jordan
de una matriz, segun se explica a continuacion.
En general, se representa la forma canonica de Jordan de la matriz A por
J, y es de la forma
J1 0 0
0 J2 0

J= . .. . . ..
.. . . .
0 0 J2
en donde cada termino Ji es una submatriz cuadrada (un bloque de Jordan) de
la forma
j 1 0 0
0 j 1
0
.. .. . .
Ji = . . . 0
..
0 0 0 . 1
0 0 0 j
Cada bloque de Jordan est a asociado a un valor propio de la matriz A. Para
conocer la forma exacta de la matriz J es necesario responder estas preguntas:

Cu antos bloques tiene asociados cada valor propio no repetido de la ma-


triz A?

De que tamano es cada uno de los bloques de Jordan asociados a cada


valor propio no repetido de la matriz A?

El siguiente algoritmo permite obtener las respuestas. Se plantea para un


valor propio , y deber
a aplicarse para cada valor propio diferente:

1. Se define la matriz B = A I.

150

6.2. ALGUNOS RESULTADOS DE ALGEBRA LINEAL

r

2
1

Figura 6.4: Diagrama de Matthew vacio simple

2. Se calcula (B0 ), (B1 ), (B2 ), , (B)r hasta que no haya cambio al


incrementar el exponente.

3. Se calculan las nulidades 0 , 1 , 2 , , r , en donde i = n (Bi ).

4. Se calcula i = i i1 , para i = 1, 2, , r.

5. Se construye el diagrama de Matthew con la forma que se presenta en la


figura 6.4: el n
umero de celdas de cada fila del diagrama de Matthew est
a
determinado por i .

6. Utilizar las siguientes convenciones:

a) Identificar el n
umero de columnas del diagrama como q.
b) Identificar las columnas del diagrama como c1 , c2 , , cq de izquierda
a derecha.
no de cada columna como h1 , h2 , , hq .
c) Identificar el tama

7. En esas condiciones el numero de bloques de Jordan asociados al valor


no de cada uno de esos bloques es h1 , h2 , , hq .
propio es q, y el tama

En general, la forma can


onica de Jordan ser
a entonces:

J11 0 0
0
J12 0

.. .. .. ..
.
. . . 0

0
0 J1q1


J= ..
.


Jm1 0 0


0 Jm2 0

.. .. .. ..
0 . . . .
0 0 Jmqm

151
OSCAR G. DUARTE


j 1 0 0
0
j 1 0
.. .. ..
.
Jji = . . 0
..
0 0 0 . 1
0 0 0 j h
ij hij

2
Ejemplo 6.14 Sea A la matriz

3 1 1 1 0 0
1 1
1 1 0 0
0 0 2 0 1 1
A=
0 0
0 2 1 1

0 0 0 0 1 1
0 0 0 0 1 1
Para calcular los valores propios de A hacemos
det (A I) = [(3 )(1 ) + 1]( 2)2 [(1 )2 1] = ( 2)5 = 0
Es decir, A tiene un valor propio 2 de multiplicidad 5 y un valor propio 0 de
multiplicidad 1. Nos proponemos encontrar el diagrama de Matthew de los vectores
propios asociados a 1 = 2.
Para ello definimos B = (A 2I) y calculamos B0 , B1 , B2 , B3 , , sus rangos
y nulidades
B0 = I (A 2I)0 = 6 0 = 6 6 = 0

1 1 1 1 0 0
1 1 1 1 0 0

0 0 0 0 1 1 (A 2I) = 4
B=
0 0 0 0 1 1
1 =64=2
0 0 0 0 1 1
0 0 0 0 1 1

0 0 2 2 0 0
0 0 2 2 0 0

0 0 0 0 0 0 (A 2I)2 = 2
B2 =
0 0 0 0 0
0 2 = 6 2 = 4
0 0 0 0 2 2
0 0 0 0 2 2

0 0 0 0 0 0
0 0 0 0 0 0

3
0 0 0 0 0 0 (A 2I)3 = 1
B =
0 0 0 0 0 0 3 = 6 1 = 5
0 0 0 0 4 4
0 0 0 0 4 4
2 adaptado de [5, pp.: 43]

152

6.2. ALGUNOS RESULTADOS DE ALGEBRA LINEAL

Al calcular B4 encontramos 4 = 3 y por tanto no es necesario continuar. Con


la informaci
on anterior podemos calcular i :

3 = 3 2 = 54= 1
2 = 2 1 = 42= 2
1 = 1 0 = 20= 2

Con esta informaci


on podemos construir el diagrama de Matthew

De donde se deduce que q = 2, h1 = 3 y h2 = 2; en otras palabras, el valor


propio 2 tendra 2 bloques de Jordan, uno de tama no 3 3 y otro de tama
no 2 2.
Adicionalmente, el valor propio 0 tendra un u
nico bloque de Jordan de tamano 11,
por ser un valor propio de multiplicidad 1. En consecuencia la forma can onica de
Jordan de la matriz A sera

2 1 0 0 0 0
2 1 0 0 0 0


0 2 1 0 0 0 0 2 1 0 0 0

0 0 2 0 0 0
1 0 0 2 0 0 0
J = M AM = =
0 0 0 2 1 0 0 0 0 2 1 0

0 0 0 0 2 0 0 0 0 0 2 0

0 0 0 0 0 0
0 0 0 0 0 0

Matrices con valores propios complejos


Dado que los valores propios de una matriz pueden ser complejos, en general
las matrices de Jordan y Modal, J y M, ser an complejas.
No obstante, cuando existen valores propios complejos es posible efectuar
otro cambio de coordenadas diferente que produce tambien una matriz diagonal
por bloques, pero real, conocida como la forma canonica real de Jordan.
La nueva matriz modal MR reemplaza cada pareja de vectores propios com-
plejos conjugados de M por dos vectores reales, uno con la parte real y otro con
la parte imaginaria de los vectores reemplazados.
Para un valor propio complejo = a jb que no se repite, el bloque de
Jordan asociado tendr a la forma
 
a b
Ji =
b a

Ejemplo 6.15 Sea la matriz A



0 0.5 0
A = 0 0 2
1 1 2

153
OSCAR G. DUARTE

Los valores propios de A son


1 = 1 2,3 = 0.5 j0.866
La forma can
onica de Jordan de A y la matriz modal que la producen son:

1 0 0
J = 0 0.5 + j0.866 0
0 0 0.5 j0.866

0.408 (0.015 j0.408) (0.015 + j0.408)
M = 0.816 (0.721 + j0.382) (0.721 j0.382)
0.408 (0.346 j0.217) (0.346 + j0.217)
Para obtener la forma can
onica real de Jordan de A construimos la matriz real
MR remplazando las columnas complejas por columnas con la parte real e imaginaria
de estas, y verificamos.

0.408 0.015 0.408
MR = 0.816 0.721 0.382
0.408 0.346 0.217

1 0 0
JR = M1
R AMR =
0 0.5 0.866
0 0.866 0.5

6.2.4. Funciones de matrices cuadradas


Sea f () una funci
on que opera sobre un escalar, y sea A una matriz cua-
drada n n. En esta seccion se aborda el problema de c omo calcular f (A), es
decir, como extender f () de los escalares a las matrices.
Si f () es un polinomio, la extensi on a las matrices se fundamenta en la
definici
on
Ak = AA
| {z A} A0 = I (6.14)
k veces
Si la matriz A tiene una representaci
on can
onica de Jordan J obtenida con
la matriz modal M, es decir, si A = MJM1 entonces
Ak = (MJM1 )(MJM1 ) (MJM1 ) = M (J J) M1
| {z } | {z }
k veces k veces

Ak = MJk M1 (6.15)
k
Como J es un a matriz diagonal por bloques, el calculo de J puede efectuarse
como sigue:
k
J1 0 0 J1 0 0
0 J2 0 0 Jk2 0
k
J= . .. . . .. J = . .. . . ..
.. . . . .
. . . .
0 0 Jn 0 0 Jkn

154

6.2. ALGUNOS RESULTADOS DE ALGEBRA LINEAL

Empleando la definici
on (6.14), un polinomio generico

f () = a0 + a1 + a2 2 + + an n

puede calcularse en A como

f (A) = a0 I + a1 A + a2 A2 + + an An

o en funci
on de las matrices M y J:

f (A) = a0 MIM1 + a1 MJM1 + a2 MJ2 M1 + + an MJn M

f (A) = Mf (J)M1 (6.16)

Ejemplo 6.16 Calcular Ak cuando A es una matriz diagonal:


k
1 0 0 1 0 0
0 2 0 0 k2 0
Ak = .

A= . .. .. . .. . . ..
.. . . .. .. . . .
0 0 n 0 0 kn

Ejemplo 6.17 Calcular Ak cuando A es una matriz con la forma de los bloques
reales de Jordan para el caso en que los valores propios son imaginarios puros
 
0 b
A=
b 0

calculamos los primeros terminos A1 , A2 , A3 , A4 , A5 y A6 :


   2   
1 0 b 2 b 0 3 0 b3
A = A = A = 3
b 0 0 b2 b 0
 4     
4 b 0 5 0 b5 6 b6 0
A = A = A =
0 b4 b5 0 0 b6
Observando la secuencia se puede inferir que
" #
k

(1) 2 bk 0

k si k es par


0 (1) 2 bk
Ak = " #
k1
(1) 2 bk


0


(1) k+1 si k es impar
2 bk 0

Tambien es posible extender una funcion f () que no sea un polinomio de


los escalares a las matrices empleando la representacion de f () en series de
Taylor expandidas alrededor de 0 (series de MacLaurin):

X k dk f ()
f () = (6.17)
k! d k
k=0

155
OSCAR G. DUARTE

Empleando (6.17) se puede expresar f () como un polinomio de . Si A es


una matriz cuadrada, puede calcularse f (A) empleando ese polinomio.
Las siguientes son las expansiones de algunas funciones comunes:

t 2 t2 3 tk 4 tk
et = 1 + + + + + (6.18)
1! 2! 3! 4!

2 t2 4 t4 6 t6 8 t8
cos t = 1 + + + (6.19)
2! 4! 6! 8!

t 3 t3 5 t5 7 t7
sin t = + + (6.20)
1! 3! 5! 7!
Ejemplo 6.18 Sea A una matriz diagonal como la del ejemplo 6.16. Para calcular
eAt podemos emplear (6.18)

At A2 t2 A3 t k A4 t k
eAt = I + + + + +
1! 2! 3! 4!
que de acuerdo con
los resultados del ejemplo 6.16 se calculara asi:
2
1 0 0 1 0 0 1 0 0
0 1 2
0 0 2 0 t2 0 2 0
t
eAt = . . .

.. + .. .. . . .. + .. .. . . .. +
.. .. ... 1! . . . . 2! . . . .
0 0 1 0 0 n 0 0 2n

g1 (t) 0 0
0 g2 (t) 0
eAt

= . .. .. ..
.. . . .
0 0 gn (t)
i t 2i t2 3 t 3
gi (t) = (1 + + + i +)
1! 2! 3!
Cada uno de los terminos de la diagonal, gi (t), corresponde a la expansion en
series de Taylor de una exponencial como las de (6.18), por lo tanto e At sera:
t
e 1 0 0
0 e 2 t 0
At
e = . . . ..
.. .. .. .
n t
0 0 e

Ejemplo 6.19 Sea A una matriz con la forma de los bloques reales de Jordan para
el caso en que los valores propios son imaginarios puros, como la del ejemplo 6.17.
Para calcular eAt podemos emplear (6.18)

At A2 t2 A3 t k A4 t k
eAt = I + + + + +
1! 2! 3! 4!

156
6.3. VARIABLES DE ESTADO

que de acuerdo con los resultados del ejemplo 6.17 se calculara asi:
        4 4 
At 1 0 t 0 b t2 b2 0 t3 0 b3 t b 0
e = + + + + +
0 1 1! b 0 2! 0 b2 3! b3 0 4! 0 b4
" 2 2 4 4
#
t 3 b3 t 5 b5
At (1 t 2!b + t 2!b + ) ( tb
1! 3! + 5! + )
e = t 3 b3 t 5 b5 2 2 4 4
( tb
1! + 3! 5! + ) (1 t 2!b + t 2!b + )
Cada uno de los terminos de la matriz corresponde a la expansi
on de Taylor de una
sinusoide como las de (6.19) y (6.20), por lo tanto e At puede calcularse como
 
At cos(bt) sin(bt)
e =
sin(bt) cos(bt)

Ejemplo 6.20 Sea A una matriz con la forma de los bloques reales de Jordan
 
a b
A=
b a

Patra calcular eAt escribimos A como la suma de dos matrices:


     
a b a 0 0 b
A= =B+C= +
b a 0 a b 0

De tal manera que eAt = eBt eCt . Empleando los resultados de los ejemplos 6.18 y
6.19 se tiene que
 at   
Bt e 0 Ct cos(bt) sin(bt)
e = e =
0 eat sin(bt) cos(bt)

y por lo tanto
 at    at 
e 0 cos(bt) sin(bt) e cos(bt) eat sin(bt)
eAt = =
0 eat sin(bt) cos(bt) eat sin(bt) eat cos(bt)

6.3. Variables de estado


De acuerdo con la presentaci on de la secci
on 6.1, se estudiaran en este cap-
tulo sistemas din amicos de m ultiples entradas y m ultiples salidas como los de
las figuras 6.1 y 6.2.
El modelo matem atico de estos sistemas seran las ecuaciones (6.21) y (6.22)
para los casos continuos y discretos, respectivamente; en ambos casos la primera
ecuacion, que contiene la dinamica del sistema, se denomina ecuaci on de estado
y la segunda ecuaci on de salida.
(
x(t)
= Ax(t) + Bu(t)
(6.21)
y(t) = Cx(t) + Du(t)

157
OSCAR G. DUARTE

+
u(s) + sx(s) x(s) + y(s)
B 1/s C
+

Figura 6.5: Diagrama de Bloques de un sistema contnuo en representaci


on de
espacio de Estado

(
x(k + 1) = Ax(k) + Bu(k)
(6.22)
y(k) = Cx(k) + Du(k)

En las ecuaciones (6.21) y (6.22) A, B, C y D son matrices reales cuyas


dimensiones est an especificadas en (6.6), mientras que u, y, x son los vecto-
res definidos en (6.3), que contienen las variables de entrada, salida y estado
respectivamente.
N
otese que la dinamica del sistema esta representada en la ecuaci
on de esta-
do, pues es all en donde aparecen las derivadas o las diferencias, mientras que
la ecuacion de salida es algebr
aica.
Las figuras 6.5 y 6.6 muestran dos diagramas de bloques que representan las
ecuaciones 6.21 y 6.22 respectivamente. Para interpretar adecuadamente estos
diagramas es necesario tener en cuante que:

1. Las flechas representan vectores de se


nales y los bloques A, B, C y D
matrices.

2. El bloque 1/s en la figura 6.5 corresponde a la funci


on de transferencia de
Rt
un integrador y(t) = 0 x(t)dt que opera sobre cada una de las se nales de
entrada de forma independiente.

3. El bloque 1/z en la figura 6.6 corresponde a la funci


on de transferencia
de un bloque de retardo y(k) = x(k 1) que opera sobre cada una de las
se
nales de entrada de forma independiente.

4. Como en todo diagrama de bloques con funciones de transferencia, se han


supuesto condiciones iniciales nulas.

158
6.3. VARIABLES DE ESTADO

+
u(z) + zx(z) x(z) + y(z)
B 1/z C
+

Figura 6.6: Diagrama de Bloques de un sistema discreto en representaci


on de
espacio de Estado

6.3.1. El concepto de estado


Que son las variables de estado? una posible aproximaci on es pensar en
ellas como variables matem aticas auxiliares que permiten representar el com-
portamiento de sistemas mediante ecuaciones como (6.1) y (6.2), que en el caso
de sistemas lineales invariantes en el tiempo se convierten en (6.21) y (6.22).
No obstante, existe otra posible interpretaci on: Los sistemas dinamicos se
rigen por ecuaciones diferenciales y de diferencia; este tipo de ecuaciones tie-
nen una u nica soluci
on unicamente si se establece un conjunto de condiciones,
denominadas condiciones auxiliares; usualmente estas determinan en el instan-
te de tiempo considerado como inicial, y por tanto se denominan condiciones
iniciales.
De lo anterior se desprende que para conocer el comportamiento de un sis-
tema din amico se necesita cierta informacion adicional a la sola ecuaci
on dife-
rencial. Este hecho justifica la siguiente definici
on:

Definici
on 6.1 Estado
El Estado de un sistema en el tiempo t0 (o en k0 si es discreto) es la cantidad de
informaci
on necesaria en ese instante de tiempo para determinar de forma u nica,
junto con las entradas u, el comportamiento del sistema para todo t t 0 (o para
todo k k0 si es discreto)

De acuerdo con la definici


on 6.1, las variables de estado ser
an variables que
muestran c omo evoluciona el estado del sistema, es decir, ser an variables que
contienen la informaci
on necesaria para predecir la evolucion del comportamien-
to del sistema en forma u
nica.
Tambien suelen definirse las variables de estado como cualquier conjunto
de variables que describa el comportamiento del sistema, siempre y cuando ese
conjunto sea del menor tama no posible.

159
OSCAR G. DUARTE

R L

+ vR (t) +
+ iL (t)
v(t)
C vC (t)

Figura 6.7: Circuito RLC serie

Cualquiera que sea la interpretaci


on que se adopte, debe tenerse presente
que:
Las variables de estado pueden tener o no sentido fsico.
Las variables de estado pueden o no ser medibles.
Para un mismo sistema din amico las variables de estado no son unicas; de
hecho, se pueden definir infinitos conjuntos de variables que sirvan como
variables de estado.

Ejemplo 6.21 Para conocer el comportamiento de un circuito RLC serie como el


de la figura 6.7 es necesario establecer los valores de i L (0+ ) y vC (0+ ), por esta
raz
on, las variables iL (t) y vC (t) sirven como variables de estado.
La aplicaci
on de las leyes de Kirchhoff en el circuito da como resultado

diL (t)
RiL (t) + L
+ vC (t) = v(t)
dt
i (t) = C dvC (t)

L
dt
Estas ecuaciones pueden organizarse de la siguiente forma

diL (t) R 1 1

= iL (t) vC (t) + v(t)
dt L L L
dvC (t) = 1 i (t)

L
dt C
O en forma matricial:
      
diL (t)/dt R/L 1/L iL (t) 1/L  
= + v(t)
dvC (t)/dt 1/C 0 vC (t) 0
Supongase que en el circuito se quiere estudiar el comportamiento de las varia-
bles vR (t) e iL (t), es decir, que seleccionamos estas variables como las salidas del
sistema. Dado que vR (t) = RiL (t), podremos escribir la ecuaci on
    
vR (t) R 0 iL (t)
=
iL (t) 1 0 vC (t)

160
6.3. VARIABLES DE ESTADO

En resumen, una representaci


on en variable de estado del circuito estara dada
por las ecuaciones
      
diL (t)/dt R/L 1/L iL (t) 1/L  

= + v(t)
dvC (t)/dt
1/C 0 vC (t) 0
      

vR (t) R 0 iL (t) 0  

= + v(t)
iL (t) 1 0 vC (t) 0
que son de la forma (
x(t)
= Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)
en donde    
  vR (t) iL (t)
u(t) = v(t) y(t) = x(t) =
iL (t) vC (t)
     
R/L 1/L 1/L R 0  
A= B= C= D= 0
1/C 0 0 1 0
Ejemplo 6.22 Sup ongase un motor electrico de corriente continua controlado por
campo, como el que se muestra en la figura 6.8, con corriente de armadura cons-
tante, que mueva una carga de momento de inercia J, con coeficiente de fricci on
viscosa B a una velocodad angular (t).

Rf Lf

J, B
+
vs (t)

if (t) (t)

Figura 6.8: Motor DC controlado por campo

La ecuaci
on del circuito electrico de campo es
dif (t)
Rf if (t) + Lf = vs (t) (6.23)
dt
Al considerar que la corriente de armadura es constante, se tiene que el par
motor T (t) generado es directamente proporcional a la corriente de campo con una
cierta constante de proporcionalidad KT , es decir
T (t) = KT if (t) (6.24)
La aplicaci
on de las leyes de newton al sistema dan la ecuaci
on
d(t)
T (t) B(t) = J (6.25)
dt

161
OSCAR G. DUARTE

Las ecuaciones (6.23), (6.24) y (6.25) pueden escribirse como



dif (t) Rf 1

= if (t) + vs (t)
dt Lf Lf
(6.26)
d(t) = KT if (t) B (t)


dt J J
que en forma matricial se convierten en
      
dif (t)/dt Rf /Lf 0 if (t) 1/Lf  
= + vs (t) (6.27)
d(t)/dt KT /J B/J (t) 0
Si seleccionamos como variable de salida la velocidad angular, obtenemos una
representaci on en variable de estado del sistema:
      
dif (t)/dt Rf /Lf 0 if (t) 1/Lf  

= + vs (t)
d(t)/dt
KT /J B/J (t) 0
  (6.28)

    if (t)   


(t) = 0 1 + 0 vs (t)
(t)
No obstante, esta no es la unica representaci on posible; podemos, por ejemplo,
seleccionar como variables de estado T (t) y (t), en cuyo caso la representaci on en
variable de estado sera
      
dT (t)/dt Rf /Lf 0 T (t) KT /Lf  

= + vs (t)
d(t)/dt
1/J B/J (t) 0
  (6.29)

    T (t)   


(t) = 0 1 + 0 vs (t)
(t)
Ejemplo 6.23 A continuaci on se presenta un modelo lineal simple del crecimiento
demografico de una sociedad. Se ha distribuido el total de la poblaci
on por franjas
de edad:
x1 (k) : Poblaci
on con edades entre 0 y 10 a
nos
x2 (k) : Poblaci
on con edades entre 10 y 20 a
nos
.. ..
. .
xn (k) : on con edades entre (n 1) 10 y n 10 a
Poblaci nos

Si denotamos por y(k) la poblacion total de la sociedad en el periodo k se


tendra:
n
X
y(k) = x1 (k) + x2 (k) + + xn (k) = xi (k)
i=1
Si tomamos cada periodo como un intervalo de 10 a nos, en el periodo k + 1 las
personas que en el periodo k estan en la franja i, estaran en la franja k + 1 en el
periodo i + 1, salvo aquellos que mueran, es decir

xi (k + 1) = xi1 (k) i1 xi1 (k) i = 1, 2, 3, , n 1

162
6.3. VARIABLES DE ESTADO

en donde i es la rata de mortalidad para la franja de edades numero i.


Para encontrar x1 (k +1), es decir el n
umero de personas que nacen en el periodo
k, podemos suponer que cada franja de edades tiene una rata de reproductividad
diferente i , es decir
n
X
x1 (k + 1) = 1 x1 (k) + 2 x2 (k) + + n xn (k) = i xi (k)
i=1

De esta manera podemos escribir las ecuaciones matriciales



x1 (k + 1) x (k)


x2 (k + 1) 1 2 3 n1 n 1
x2 (k)






x3 (k + 1)
1 1 0 0 0 0 x3 (k)

0 1 0 0 0

.. = 2 ..

. . . . . .. .. .


.. .. .. .. . .

xn1 (k + 1) xn1 (k)

0 0 0 1 n1 0
xn (k + 1)
xn (k)



x1 (k)







x2 (k)



  

x3 (k)


y(k) = 1 1 1 1 1 ..






.

xn1 (k)



xn (k)

Ademas, podriamos considerar los fen omenos de migraci on como entradas al


sistema. Definamos ui (k) como la diferencia entre el numero de inmigrantes y
emigrantes de la franja i en el periodo k; con esta definici
on el modelo se convierte
en
8
0 0 0 2
2 3 2 3
>2 x1 (k + 1) 3 1 2 n 2
1 (k) u1 (k)
3 3
x
>
>
> 61 1 0 07 61 0 07
6 x2 (k + 1) 7 6 0
>
>
>6 7 6 7 6 x2 (k) 7 6 7 6 u2 (k) 7
1 2 07 7 6 . 7 + 60 1 07
>
=
>
> 6 7 6 6 7
>
> 6 .
.. 7 6 76 . 7
>
> 4 5 6 .. .. .. .. 7 4 .. 5 6 .. .. .. .. 7 4 .. 5
> 4 . . . 5 4. . .5
> xn (k + 1)
> .
xn (k)
.
un (k)
0 0 0 0 0 0
<
>
>
x1 (k)
>
> 2 3
>
>
6 x2 (k) 7
>
>
>
> 6 7
>
>
>
> y(k) = 1 1 1 6 . 7
>
> 4 .. 5
>
xn (k)
:

6.3.2. Representaci
on de estado a partir de E.D.
Existe un procedimiento sencillo para obtener una representaci
on en varia-
bles de estado de sistemas de una entrada y una salida de los cuales se conoce
la ecuaci
on diferencial o de diferencia que lo rige.

163
OSCAR G. DUARTE

Sup
ongase un sistema din
amico continuo descrito por la ecuaci
on diferencial
dn y(t) dn1 y(t) dy(t)
an + a n1 + + a1 + a0 y(t) = u(t) (6.30)
dtn dtn1 dt
El comportamiento del sistema queda u nivocamente determinado si se co-
nocen las condidiones iniciales y(0), y(0),
, y (n1) (0), por lo tanto podemos
seleccionar las siguientes variables de estado:
x1 (t) = y(t)
dy
x2 (t) = dt = x 1 (t)
d2 y
x3 (t) = dt2 = x 2 (t)
.. .. .. (6.31)
. . .
dn2 y
xn1 (t) = dtn2 = x n2 (t)
dn1 y
xn (t) = dtn1 = x n1 (t)
De tal manera que (6.30) puede escribirse como

an x n (t) + an1 xn (t) + + a1 x2 (t) + a0 x1 (t) = u(t)

a0 a1 an1 1
x n (t) = x1 (t) x2 (t) xn (t) + u(t) (6.32)
an an an an
Las ecuaciones (6.31) y (6.32) se escriben en forma matricial asi:

x 1 (t) 0 1 0 0 x1 (t) 0
x 2 (t) 0
0 1 0
x2 (t) 0

x 3 (t) 0
0 0 0 x3 (t) 0 

.. = .. .. .. .. .. .. + .. u(t)

. .
. . . .
. .

x n1 (t) 0 0 0 1 xn1 (t) 0
x n (t) aan0 aan1 aan2 an1
an xn (t) 1
an

x1 (t)



x2 (t)
   

 
x3 (t)

y(t) = 1 0 0 0 0 + 0 u(t) ..



.
xn1 (t)
xn (t)
De forma analoga puede obtenerse una representaci
on en variables de estado
de sistemas discreto de una entrada y una salida a partir de su ecuaci on de
diferencias
Supongase un sistema din
amico discreto descrito por la ecuaci
on de diferen-
cias
an y(k + n) + an1 y(k + n 1) + + a1 y(k + 1) + a0 y(k) = u(k) (6.33)

164
6.4. SISTEMAS CONTINUOS LIBRES

Podemos seleccionar las variables de estado:

x1 (k) = y(k)
x2 (k) = y(k + 1) = x1 (k + 1)
x3 (k) = y(k + 2) = x2 (k + 1)
.. .. .. (6.34)
. . .
xn1 (k) = y(k + n 2) = xn2 (k + 1)
xn (k) = y(k + n 1) = xn1 (k + 1)

de tal manera que la ecuaci


on (6.33) se convierte en

a0 a1 an1 1
xn (k + 1) = x1 (k) x2 (k) xn (k) + u(k) (6.35)
an an an an

Las ecuaciones (6.34) y (6.35) se escriben en forma matricial asi:



x1 (k + 1) 0 1 0 0 x1 (k) 0

x2 (k + 1)

0 0 1 0
x2 (k)

0

x3 (k + 1)

0 0 0 0
x3 (k)

 0
.. = .. .. .. .. ..
+ u(k)
.. ..

.
. . . . .



. .
xn1 (k + 1) 0 0 0 1 xn1 (k) 0
xn (k + 1) aan0 aan1 aan2 an1
an xn (k) 1
an

x1 (k)



x2 (k)
  
  
x3 (k)
y(k) = 1 0 0 0 0 + 0 u(k) ..



.
xn1 (k)
xn (k)

6.4. Sistemas continuos libres


Como un primer paso para el an alisis de la ecuaci
on (6.21), en esta secci
on
se estudia la ecuaci
on de estado con el sistema libre (sin entradas), es decir
estudiamos la ecuaci
on
x(t)
= Ax(t) (6.36)
La ecuaci
on matricial (6.36) recuerda la ecuaci
on escalar

dx
= ax(t)
dt
cuya soluci
on es
x(t) = eat x(0) (6.37)

165
OSCAR G. DUARTE

debido a que
d eat
= aeat ea0 x(0) = x(0) (6.38)
dt
Resulta entonces natural preguntarse si al reemplazar el escalar a por la
matriz A, y la variable x por el vector de variables x se mantienen las relaciones
(6.38) y asi encontrar una solucion de (6.36) similar a (6.37).
Es posible demostrar que
d eAt
= AeAt eA0 x(0) = x(0) (6.39)
dt
Para ello, empleamos la expansi
on en series de Taylor (6.18)

At A2 t2 A3 t 3 A4 t 4
eAt = I + + + + +
1! 2! 3! 4!
de donde se observa que eA0 = I, y por lo tanto x(0)eA0 = x(0). Adem
as,
podemos calcular la derivada de eAt :
 
d eAt d At A2 t2 A3 t 3 A4 t 4
= I+ + + + +
dt dt 1! 2! 3! 4!

d eAt A2 t A3 t 2 A4 t 3 A5 t 4
=0+A+ + + + +
dt 1! 2! 3! 4!
 
d eAt At A2 t2 A3 t 3 A4 t 4
=A I+ + + + +
dt 1! 2! 3! 4!
d eAt
= AeAt
dt
De esta forma hemos demostrado (6.39), y por lo tanto tambien hemos de-
mostrado que la soluci
on de (6.36) es

x(t) = eAt x(0) (6.40)

En (6.40) x(0) es el vector que contiene las condiciones iniciales de x(t). Por
otra parte, es posible calcular eAt por diversos metodos, de los cuales destacamos
los siguientes3 :

Series de Taylor: Podemos emplear la expansi


on en series de Taylor (6.18)
directamente:
At A2 t2 A3 t 3 A4 t 4
eAt = I + + + + + (6.41)
1! 2! 3! 4!
Este metodo no es practico, debido a la dificultad de calcular Ak ; sin em-
bargo, en algunos casos especiales este c
alculo es sencillo, como se muestra
en los ejemplos 6.18, 6.19 y 6.20
3 Los ejemplos 6.18, 6.19 y 6.20 ponen de manifiesto que si A = {a } entonces eAt 6=
ij
{eaij t }.

166
6.4. SISTEMAS CONTINUOS LIBRES

Forma canonica de Jordan: Si se ha obtenido la forma can onica de Jordan


de la matriz A, entonces se tienen dos matrices J y M tales que

J = M1 AM A = MJM1

y por lo tanto eAt puede calcularse asi:

(MJM1 )t (MJM1 )2 t2 (MJM1 )3 t3


eAt = MIM1 + + + +
1! 2! 3!
1 1
MJM1 t MJ2 M t2 MJ3 M t3
eAt = MIM1 + + + +
1! 2! 3!
 
Jt J2 t2 J3 t 3
eAt =M I+ + + + M1
1! 2! 3!

eAt = MeJt M1 (6.42)

La ventaja de emplear (6.42) radica en que J es una matriz diagonal por


bloques, y por lo tanto eJt es m
as f
acil de calcular, especialmente si J es
completamente diagonal

Transformada de Laplace: Podemos obtener la soluci on de (6.36) emplean-


do la transformada de Laplace, y asi deducir el valor de eAt .

L {x}
= L {Ax}

sx(s) x(0) = Ax(s)

sx(s) Ax(s) = x(0)

(sI A)x(s) = x(0)

x(s) = (sI A)1 x(0)



x(t) = L1 {x(s)} = L1 (sI A)1 x(0)

x(t) = L1 (sI A)1 x(0) = eAt x(0)

eAt = L1 (sI A)1 (6.43)

Jordan y Laplace: Pueden combinarse (6.42) y (6.43) para obtener



eAt = ML1 (sI J)1 M1 (6.44)

167
OSCAR G. DUARTE

Ejemplo 6.24 Obtener la soluci on de la ecuaci


on

x 1 (t) 2 0 0 x1 (t)
x 2 (t) = 0 1 0 x2 (t)
x 3 (t) 0 0 3 x3 (t)

sujeta a las condiciones iniciales x1 (0) = 2, x2 (0) = 1, x3 (0) = 1


La ecuaci on sera x(t) = e At x(0).
on es de la forma x = Ax, por lo tanto la soluci
At
El calculo de e es muy simple, debido a que A es una matriz diagonal (Ejemplo
6.18): 2t
e 0 0
eAt = 0 e1t 0
0 0 e3t
Este resultado tambien se habra podido obtener mediante la transformada de La-
place:
1
s2 0 0 s2 0 0
1
sI A = 0 s+1 0 (sI A)1 = 0 s+1 0
0 0 s3 1
0 0 s3

 e2t 0 0
1 1
eAt = L (sI A) = 0
e1t 0
0 0 e3t
por lo tanto la soluci
on de la ecuaci
on diferencial sera
2t
e 0 0 2
At 1t
x(t) = e x(0) = 0 e 0 1
0 0 e3t 1
2t
x1 (t) 2e
x(t) = x2 (t) = et
x3 (t) e3t
En un caso como este en el que la matriz A es diagonal, realmente la ecuaci on
diferencial matricial representa un conjunto de ecuaciones diferenciales sencillas en
el que las variables estan desacopladas; La ecuaci on matricial y las condiciones
iniciales pueden escribirse como:

x 1 (t) = 2x1 (t) x1 (0) = 2
x 2 (t) = 1x2 (t) x2 (0) = 1

x 3 (t) = 3x3 (t) x3 (0) = 1

cuyas soluciones son


x1 (t) = 2e2t
x2 (t) = et
x3 (t) = et

168
6.4. SISTEMAS CONTINUOS LIBRES

Ejemplo 6.25 Obtener la soluci on de la ecuaci


on
    
x 1 (t) 4 1 x1 (t)
=
x 2 (t) 2 1 x2 (t)

sujeta a las condiciones iniciales x1 (0) = x10 y x2 (0) = x20


En el ejemplo 6.10 se ha obtenido la forma can onica de Jordan de la matriz A,
que ha resultado ser la matriz , perfectamente diagonal; es decir se han encontrado
las matrices M y tales que

= M1 AM
   
1 1 2 0
M= =
2 1 0 3
lo que permite calcular eAt :

eAt = Met M1
   2t    
At 1 1 e 0 1 1 (e2t + 2e3t ) (e2t + e3t )
e = 3t =
2 1 0 e 2 1 (2e2t 2e3t ) (2e2t e3t )
Tambien podemos obtener este resultado mediante la Transformada de Laplace:
   
s 4 1 1 (s 1) 1
sI A = (sI A)1 = 2
2 s1 s 5s + 6 2 (s 4)
" #    
s1 1 1 2 1 1
+ +
(sI A)1 = (s2)(s3)
2
(s2)(s3)
s4 =  (s2) (s3)   (s2) (s3) 
2 2 2 1
(s2)(s3) (s2)(s3) (s2) + (s3) (s2) + (s3)
 
At 1
 1
(e2t + 2e3t ) (e2t + e3t )
e =L (sI A) =
(2e2t 2e3t ) (2e2t e3t )
por lo tanto la soluci
on de la ecuaci
on diferencial sera
  
At (e2t + 2e3t ) (e2t + e3t ) x10
x(t) = e x(0) =
(2e2t 2e3t ) (2e2t e3t ) x20
   
x1 (t) (e2t + 2e3t )x10 + (e2t + e3t )x20
x(t) = =
x2 (t) (2e2t 2e3t )x10 + (2e2t e3t )x20
   2t 
x1 (t) e (x10 x20 ) + e3t (2x10 + x20 )
x(t) = = 2t
x2 (t) e (2x10 + 2x20 ) + e3t (2x10 x20 )

Ejemplo 6.26 Obtener la soluci on de la ecuaci


on
    
x 1 (t) 1 4 x1 (t)
=
x 2 (t) 1 1 x2 (t)

sujeta a las condiciones iniciales x1 (0) = x10 y x2 (0) = x20

169
OSCAR G. DUARTE

Los valores propios de A son 1,2 = 1 j2, y dos vectores propios asociados
son    
j2 j2
v1 = v2 =
1 1
Debido a que los valores propios son complejos, es conveniente encontrar la forma
can
onica real de Jordan de A.

JR = M1
R AMR
   
0 2 1 2
MR = JR =
1 0 2 1
lo que permite calcular eAt :

eAt = MR eJR t M1
R

Empleando el resultado del ejemplo 6.20


   t  
0 2 e cos 2t et sin 2t 0 1
eAt =
1 0 et sin 2t et cos 2t 1/2 0
 
et cos 2t 2et sin 2t
eAt =
21 et sin 2t et cos 2t
Tambien podemos obtener este resultado mediante la Transformada de Laplace:
   
s + 1 4 1 1 (s + 1) 4
sI A = (sI A) = 2
1 s+1 s + 2s + 5 1 (s + 4)
" #
s+1 4
(s+1)2 +22 (s+1)2 +22
(sI A)1 = 1 s+1
(s+1)2 +22 (s+1)2 +22
 
 et cos 2t 2et sin 2t
eAt = L1 (sI A)1 = 1 t
2 e sin 2t et cos 2t
por lo tanto la soluci
on de la ecuaci
on diferencial sera
 t  
At e cos 2t 2et sin 2t x10
x(t) = e x(0) =
21 et sin 2t et cos 2t x20
   
x1 (t) x10 et cos 2t + 2x20 et sin 2t
x(t) = =
x2 (t) x210 et sin 2t + x20 et cos 2t

Ejemplo 6.27 Obtener la soluci on de la ecuaci


on
    
x 1 (t) 3 4 x1 (t)
=
x 2 (t) 1 1 x2 (t)

sujeta a las condiciones iniciales x1 (0) = x10 y x2 (0) = x20

170
6.4. SISTEMAS CONTINUOS LIBRES

Los valores propios de A son 1 = 2 = 1. Ademas se puede comprobar que no


es posible diagonalizar A. En consecuencia, la forma canonica de Jordan de A sera
un unico bloque de tama no 2. La obtenci
on de los vectores propios generalizados
con los que se obtiene la forma canonica de Jordan escapa al alcance de este texto.
No obstante, vamos a suponer que se han encontrado las matrices M y J:

J = M1 AM
   
2 1 1 1
M= J=
1 0 0 1
de tal manera que se puede calcular eAt :

eAt = MeJt M1

No obstante, como J no es diagonal, debemos calcular e Jt mediante la trans-


formada de Laplace.
  " #
1 1
s + 1 1 1 (s+1) (s+1)2
sI J = (sI J) = 1
0 s+1 0 (s+1)
 
Jt 1
 1
et tet
e =L (sI J) =
0 et
Retomando el calculo de eAt
     t 
At 2 1 et tet 0 1 e 2tet 4tet
e = t =
1 0 0 e 1 2 tet e + 2tet
t

Tambien podemos obtener este resultado mediante la Transformada de Laplace:


   
s + 3 4 1 1 (s 1) 4
sI A = (sI A) =
1 s1 (s + 1)2 1 (s + 3)
   
1 2 4
(s+1) + (s+1) 2 (s+1) 2
(sI A)1 =    
1 1 2
(s+1) 2 (s+1) + (s+1) 2

 t t

At 1
 1
e 2te 4tet
e =L (sI A) =
tet et + 2tet
por lo tanto la soluci
on de la ecuaci on diferencial sera
 t  
e 2tet 4tet x10
x(t) = eAt x(0) =
tet et + 2tet x20
   t 
x1 (t) (e 2tet )x10 + 4x20 tet
x(t) = =
x2 (t) x10 tet + (et + 2tet )x20
   
x (t) (x10 )et + (2x10 + 4x20 )tet
x(t) = 1 =
x2 (t) (x20 )et + (x10 + 2x20 )tet

171
OSCAR G. DUARTE

6.4.1. Retratos de fase


Sup
ongase ahora un sistema como (6.36) de dimension dos, es decir, supon-
gase    
x 1 (t) x (t)
=A 1 (6.45)
x 2 (t) x2 (t)
Una vez solucionada (6.45) es posible trazar las curvas x1 (t) vs t y x2 (t)
vs t. Tambien es posible trazar una curva x1 (t) vs x2 (t), en un plano x1 x2
conocido como el plano de fase (ver Ejemplo 6.28). La curva resultante es un
trayectoria de (6.45), y puede visualizarse como una curva parametrica definida
ametro t variando de 0 a .
por (x1 (t), x2 (t)) con el par
La soluci on de (6.45) depende de las condiciones iniciales, por lo tanto la
trayectoria depende de las condiciones iniciales. Sobre el mismo plano de fa-
se se pueden trazar diferentes trayectorias obtenidas con distintas condiciones
iniciales; el resultado es el retrato de fase de (6.45).

Ejemplo 6.28 La soluci


on de la ecuaci on
    
x 1 (t) 1 4 x1 (t)
=
x 2 (t) 1 1 x2 (t)

sujeta a las condiciones iniciales x1 (0) = 0 y x2 (0) = 2 es (Ejemplo 6.26)


   t 
x1 (t) 4e sin 2t
x(t) = =
x2 (t) 2et cos 2t

La figura 6.9 muestra las graficas de x1 (t) vs t, x2 (t) vs t, a partir de las cuales
se ha trazado x1 vs x2 tomando para cada tiempo el valor de x1 ( ) y x2 ( ) y
trasladandolos al plano de fase. La curva resultante es una trayectoria de la ecuaci on
diferencial.La flecha roja indica el sentido en el que se recorre la trayectoria cuando
el tiempo avanza.
Se ha repetido el procedimiento para varios juegos de condiciones iniciales, con
el fin de obtener el retrato de fase que se muestra en la figura 6.10. Las condiciones
iniciales seleccionadas han sido:
       
0 0 2 2
xa (0) = xb (0) = xc (0) = xd (0) =
2 2 1.5 1.5

La figura 6.11 muestra los retratos de fase tpicos de sistemas lineales es-
tables 4 , mientras que la figura 6.12 muestra los retratos de fase tpicos de los
sistemas lineales inestables. Debemos resaltar que la forma de estos retratos
depende de c omo son los valores propios de la matriz A.
En general, un sistema lineal como (6.45) tendr a un retrato de fase semejante
a alguno de los que se muestran en las figuras6.11 y 6.12. No obstante, el retrato
de fase no necesariamente ser a identico. La semejanza a la que nos referimos aqui
consiste en una equivalencia de forma (ser an topol
ogicamente equivalentes).
4 el centro se considera como un sistema marginalmente estable

172
6.4. SISTEMAS CONTINUOS LIBRES

x1 ( ) (, x1 ( ))
x1 (t)
Plano de Fase
x2

x2 ( ) (x1 ( ), x2 ( ))

x2 (t) x1 ( )x1

x2 ( ) (, x2 ( ))

Figura 6.9: Construcci


on de una trayectoria en el Plano de Fase

x2

x1

Figura 6.10: Retrato de Fase

173
OSCAR G. DUARTE

Nombre Retrato e-valores Ejemplo

 
Reales Negativos 1 0
A=
0 2
Estable
x1 (t) = x10 et
x2 (t) = x20 e2t
 
Reales Negativos 1 1
A=
Repetidos 0 1
Estable de
multiplicidad 2
x1 (t) = (x10 + tx20 )et
x2 (t) = x20 et
 
Complejos de Parte 1 2
A=
Real Negativa 2 1
Sif
on
x1 (t) = x10 e2t cos t + x20 e2t sin t
x2 (t) = x10 e2t sin t + x20 e2t cos t
 
0 1
Imaginarios puros A=
1 0
Centro
x1 (t) = x10 cos t + x20 sin t
x2 (t) = x10 sin t + x20 cos t

Figura 6.11: Retratos de Fase Estables tpicos

174
6.4. SISTEMAS CONTINUOS LIBRES

Nombre Retrato e-valores Ejemplo


Reales Positivos 1 0
A=
0 2
Inestable
x1 (t) = x10 et
x2 (t) = x20 e2t
 
Reales Positivos 1 1
A=
Repetidos 0 1
Inestable de
multiplicidad 2
x1 (t) = (x10 + tx20 )et
x2 (t) = x20 et
 
Complejos de Parte 1 2
A=
Real Positiva 2 1
Fuente
x1 (t) = x10 e2t cos t + x20 e2t sin t
x2 (t) = x10 e2t sin t + x20 e2t cos t
 
Reales de Signo 1 0
A=
Diferente 0 1
Punto de Silla
x1 (t) = x10 et
x2 (t) = x20 et

Figura 6.12: Retratos de Fase Inestables tpicos

175
OSCAR G. DUARTE

Ejemplo 6.29 La figura 6.13 muestra los retratos de fase de varios ejemplos. En
cada caso se ha anotado la matriz A y su formacanonica de Jordan J. N otese la
semejanza de forma con los ejemplos tpicos de las figuras 6.11 y 6.12.

En las figuras 6.11 y 6.12 se observa que el origen del plano de fase juega
un papel importante, atrayendo o repeliendo todas las trayectorias (o siendo el
centro de ellas en el caso especial en el que los valores propios son imaginarios
puros).
El origen del plano de fase es el punto de equilibrio de (6.45), que definimos
a continuacion.

Definicion 6.2 Punto de Equilibrio de Sistemas Continuos


x
es un Punto de Equilibrio de un sistema descrito por la ecuaci
on diferencial
x = f (x) si derivada es cero, es decir, si f (
x) = 0

Si la matrix A en (6.45) es no singular, el u


nico punto de equilibrio de (6.45)
es el origen del plano de fase. Lo anterior se demuestra al notar que un punto
de equilibrio x es la soluci
on del sistema de ecuaciones A x = 0, que tiene una
u
nica solucion en x = 0 si y s
olo si A es no singular.
Si la matriz A en (6.45) es singular pueden existir infinitos puntos de equi-
librio, y los retratos de fase ser
an diferentes a los contemplados en las figuras
6.11 y 6.12. Estos casos no se considerar an en este curso.

6.4.2. Espacio de estado


Dada una ecuaci on de la forma (6.36), podemos definir el conjunto formado
por todas las soluciones de (6.36). Este conjunto forma un espacio vectorial co-
nocido como el espacio de estado, tal como se especifica en el siguiente teorema.

Teorema 6.1 Dada una ecuaci on de la forma (6.36), el conjunto de todas las
soluciones forma un espacio vectorial sobre el campo C con las operaciones
usuales.

Demostraci on 6.1 El conjunto de todas las soluciones de (6.36) es un subconjunto


del espacio vectorial formado por las funciones vectoriales continuas de orden n. Por
lo tanto, s
olo es necesario demostrar que el conjunto es cerrado bajo las operaciones
usuales de suma de funciones y producto por escalar.
Supongase dos funciones x1 (t) y x2 (t) que son solucion de (6.36).

x 1 (t) = Ax1 (t) x 2 (t) = Ax2 (t)

Podemos multiplicar estas ecuaciones por cualesquiera escalares 1 , 2 C y su-


marlas
1 x 1 (t) = 1 Ax1 (t) 2 x 2 (t) = 2 Ax2 (t)
d
[1 x1 (t) + 2 x2 (t)] = A(1 x1 (t) + 2 x2 (t))
dt

176
6.4. SISTEMAS CONTINUOS LIBRES

1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 . 0 .

-0.2 -0.2

-0.4 -0.4

-0.6 -0.6

-0.8 -0.8

-1.0 -1.0
-1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0 -1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0


0 1 1 0 0 1 1 0
A= J= A= J=
2 3 0 2 2 3 0 2

1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 . 0 .

-0.2 -0.2

-0.4 -0.4

-0.6 -0.6

-0.8 -0.8

-1.0 -1.0
-1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0 -1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0


0 1 0.5 0.87 0 1 0.5 0.87
A= J= A= J=
1 1 0.87 0.5 1 1 0.87 0.5

1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 . 0 .

-0.2 -0.2

-0.4 -0.4

-0.6 -0.6

-0.8 -0.8

-1.0 -1.0
-1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0 -1.0 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1.0


0 1 j 0 0 1 1 0
A= J= A= J=
1 0 0 j 2 1 0 2

Figura 6.13: Ejemplos Retratos de Fase

177
OSCAR G. DUARTE

Esta expresion demuestra que cualquier combinaci on lineal de soluciones de (6.36)


es tambien una solucion de (6.36), es decir, es cerrada bajo la suma y el producto
por escalar, y por lo tanto forma un espacio vectorial.
Los siguientes son algunos conceptos importantes asociados al Espacio de
Estado. En todos los casos se ha supuesto que A es no singular y de tamano
n n:
Dimension del Espacio de Estado: El espacio vectorial tiene una dimen-
si
on igual al rango de la matriz A en (6.36). La dimensi
on de es n.
Soluciones linealmente independientes: Las soluciones de (6.36) dependen
de las condiciones iniciales. Si se utilizan dos condiciones iniciales lineal-
mente independientes, las soluciones que se obtienen tambien son lineal-
mente independientes. Por el contrario, Si se utilizan dos condiciones ini-
ciales linealmente dependientes, las soluciones que se obtienen tambien son
linealmente dependientes.
Base del espacio de estado: Una base de estar a formada por n solucio-
nes de (6.36) linealmente independientes. Denotemos estas funciones por
1 (t), 2 (t), , n (t). Estas soluciones pueden obtenerse seleccionando n
condiciones iniciales linealmente independientes.
Matriz Fundamental: Una matriz (t) que tenga n columnas formadas por
n soluciones de (6.36) linealmente ndependientes se denomina una Matriz
Fundamental de (6.36).
 
(t) = 1 (t) 2 (t) n (t)

Bases y vectores propios: Si la matriz A en (6.36) tiene n vectores propios


linealmente independientes, entonces estos pueden escogerse como el juego
de n condiciones iniciales que se necesitan para construir una base de .
Este cambio de base es equivalente a la obtenci on de la Forma can onica
de Jordan de A.
Ejemplo 6.30 Sup
ongase el sistema dinamico
    
x 1 (t) 1.5 0.5 x1 (t)
=
x 2 (t) 0.5 1.5 x2 (t)
que es de la forma (6.36). Los valores propios de la matriz A son 1 = 1 y
2 = 2, y unos vectores propios asociados a ellos son:
   
1 1
v1 = v2 =
1 1
de tal manera que la forma can
onica de Jordan y la matriz modal son
   
1 0 1 1
J= M=
0 2 1 1

178
6.4. SISTEMAS CONTINUOS LIBRES

La matriz eAt es la siguiente:


 
At (0.5et + 0.5e2t ) (0.5et 0.5e2t )
e =
(0.5et 0.5e2t ) (0.5et + 0.5e2t )

y por lo tanto la soluci


on de la ecuaci
on diferencial, para unas condiciones iniciales
x10 y x20 es
 
(0.5et + 0.5e2t )x10 + (0.5et 0.5e2t )x20
x(t) =
(0.5et 0.5e2t )x10 + (0.5et + 0.5e2t )x20
 
et (0.5x10 + 0.5x20 ) + e2t (0.5x10 0.5x20 )
x(t) = t
e (0.5x10 + 0.5x20 ) + e2t (0.5x10 + 0.5x20 )
El retrato de fase del sistema se muestra en la figura 6.14. Cada trayectoria
del retrato de fase es una soluci on de la ecuaci on diferencial para unas ciertas
condiciones iniciales. De esas trayectorias se destacan 2 que corresponden a lneas
rectas. No es casualidad que esas trayectorias rectas coincidan con los vectores
propios v1 y v2 . Veamos:
Si seleccionamos como condiciones iniciales las mismas coordenadas del vector
propio v1 , es decir, si hacemos x10 = 1 y x20 = 1 la solucion de la ecuaci
on sera
   t   t 
x (t) e (0.5 + 0.5) + e2t (0.5 0.5) e
1 (t) = 1 = t = t
x2 (t) e (0.5 + 0.5) + e2t (0.5 + 0.5) e

Es decir, se encuentra que x1 (t) = x2 (t) lo que corresponde a una recta en el


plano de fase. Ademas, la dinamica del sistema s olo depende de terminos e t , es
decir, s
olo depende del valor propio 1 al cual esta asociado v1 . Al seleccionar como
condicion inicial un punto del primer vector propio, toda la dinamica del sistema
depende exclusivamente del primer valor propio.
Un resultado similar obtendremos si seleccionamos como condiciones iniciales las
mismas coordenadas del vector propio v2 , es decir, si hacemos x10 = 1 y x20 = 1.
La solucion de la ecuaci on sera
   t   2t 
x1 (t) e (0.5 0.5) + e2t (0.5 + 0.5) e
2 (t) = = t =
x2 (t) e (0.5 0.5) + e2t (0.5 0.5) e2t

Es decir, se encuentra que x1 (t) = x2 (t) lo que corresponde a otra recta en el


plano de fase. Ademas, la dinamica del sistema s olo depende de terminos e 2t , es
decir, s
olo depende del valor propio 2 al cual esta asociado v2 . Al seleccionar como
condicion inicial un punto del segundo vector propio, toda la dinamica del sistema
depende exclusivamente del segundo valor propio.
Hay otra forma de comprender estos resultado: Sup ongase que en alg un instante
(por ejemplo en t = 0) el vector de estado x es un vector propio del primer valor
propio 1 ; su derivada podra calcularse como x = Ax, pero como es un vector
propio, entonces x = Ax = 1 x. En otras palabras, la derivada sera un vector con
la misma direcci on de x y por lo tanto el sistema evolucionara en esa direccion, que
es justamente la del vector propio.

179
OSCAR G. DUARTE

1.0

0.8

0.6

0.4

0.2

.
0

0.2

0.4

0.6

0.8

1.0
1.0 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1.0

Figura 6.14: Retrato de Fase de un Ejemplo

Las dos soluciones que se han obtenido 1 (t) y 2 (t) son linealmente indepen-
dientes, y por lo tanto sirven como base del espacio de estado . Construimos la
matriz fundamental
 t 
  e e2t
(t) = 1 (t) 2 (t) = t
e e2t
Lo que se ha hecho es equivalente a efectuar un cambio de base en el plano
de fase, tomando como nueva base la formada por los vectores propios. El nuevo
retrato de fase se muestra en la figura 6.15

6.4.3. Matriz de transici


on de estado
Definimos la matriz de transicion de estado (t2 , t1 ) como la matriz que-
permite obtener el estado en el tiempo t2 a partir del estado en el tiempo t1
on 5 :
mediante la expresi
x(t2 ) = (t2 , t1 )x(t1 ) (6.46)
Para un sistema como (6.36) es posible obtener (t2 , t1 ) calculando x(t1 ) y
x(t2 ):
x(t1 ) = eAt1 x(0)
5 Una definici
on alternativa que es equivalente emplea la matriz fundamental: (t 2 , t1 ) =
(t1 )1 (t1 )

180
6.5. SISTEMAS DISCRETOS LIBRES

1.0

0.8

0.6

0.4

0.2

.
0

0.2

0.4

0.6

0.8

1.0
1.0 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1.0

Figura 6.15: Retrato de Fase de un Ejemplo en la base de los vectores propios

x(t2 ) = eAt2 x(0)


x(0) = (eAt1 )1 x(t1 ) = eAt1 x(t1 )
x(t2 ) = eAt2 eAt1 x(t1 )
x(t2 ) = eA(t2 t1 ) x(t1 )
(t2 , t1 ) = eA(t2 t1 ) (6.47)

6.5. Sistemas discretos libres


Abordamos ahora el an alisis de la ecuaci
on (6.22) con el sistema libre (sin
entradas), es decir estudiamos la ecuaci on

x(k + 1) = Ax(k) (6.48)

La ecuaci
on matricial (6.48) recuerda la ecuaci
on escalar

x(k + 1) = ax(k)

cuya soluci
on es
x(k) = x(0)ak (6.49)

181
OSCAR G. DUARTE

debido a que
ak+1 = aak x(0)a0 = x(0) (6.50)
Al igual que en el caso continuo, nos preguntamos si al reemplazar el escalar
a por lamatriz A, y la variable x por el vector de variables x se mantienen las
relaciones (6.50) y asi encontrar una soluci
on de (6.48) similar a (6.49).
Evidentemente
Ak+1 = AAk x(0)A0 = x(0) (6.51)
En consecuencia la soluci
on de (6.48) es
x(k) = Ak x(0) (6.52)
En (6.52) x(0) es el vector que contiene las condiciones iniciales de x(k). Por
otra parte, es posible calcular Ak por diversos metodos, de los cuales destacamos
los siguientes
Definici on de Ak directamente:
on: Podemos emplear la definici
Ak = AAA A k veces (6.53)
Este metodo no es practico, debido a la dificultad de calcular Ak ; sin
embargo, en algunos casos especiales este c
alculo es sencillo (matrices dia-
gonales)
Forma canonica de Jordan: Si se ha obtenido la Forma can onica de Jordan
de la matriz A, entonces se tienen dos matrices J y M tales que
J = M1 AM A = MJM1
y por lo tanto Ak puede calcularse asi:
Ak = MJk M1 (6.54)

La ventaja de emplear (6.54) radica en que J es una matriz diagonal por


bloques, y por lo tanto Jk es m
as f
acil de calcular, especialmente si J es
completamente diagonal
Transformada Z: Podemos obtener la soluci on de (6.48) empleando la trans-
formada Z, y asi deducir el valor de Ak .
Z {x(k + 1)} = Z {Ax(k)} =
zx(z) zx(0) = Ax(z)
zx(z) Ax(z) = zx(0)
(zI A)x(z) = zx(0)
x(z) = z(zI A)1 x(0)

x(k) = Z 1 {x(z)} = Z 1 z(zI A)1 x(0)

x(k) = Z 1 z(zI A)1 x(0) = Ak x(0)

Ak = Z 1 z(zI A)1 (6.55)

182
6.6. SISTEMAS CONTINUOS EXCITADOS

Jordan y Transformada Z: Pueden combinarse (6.54) y (6.55) para obtener



Ak = MZ 1 z(zI J)1 M1 (6.56)

6.5.1. Matriz de transici


on de estado
Definimos la Matriz de Transicion de Estado (k2 , k1 ) como la matriz que
permite obtener el estado en el tiempo k2 a partir del estado en el tiempo k1
mediante la expresi
on
x(k2 ) = (k2 , k1 )x(k1 ) (6.57)
Para un sistema como (6.48) es posible obtener (k2 , k1 ) calculando x(k1 )
y x(k2 ):
x(k1 ) = Ak1 x(0)
x(k2 ) = Ak2 x(0)
x(0) = (Ak1 )1 x(k1 ) = Ak1 x(k1 )
x(k2 ) = Ak2 Ak1 x(k1 )
x(k2 ) = A(k2 k1 ) x(k1 )
(k2 , k1 ) = A(k2 k1 )

6.6. Sistemas continuos excitados


Estudiamos ahora el sistema continuo con excitaci
on, es decir el sistema
descrito por (6.58)

x(t)
= Ax(t) + Bu(t)
(6.58)
y(t) = Cx(t) + Du(t)

Para ello, aplicamos transformada de Laplace a cada lado de las ecuaciones

sx(s) x(0) = Ax(s) + Bu(s)


(6.59)
y(s) = Cx(s) + Du(s)

En la primera ecuaci
on podemos despejar x(s)

sx(s) Ax(s) = x(0) + Bu(s)

(sI A)x(s) = x(0) + Bu(s)


x(s) = (sI A)1 x(0) + (sI A)1 Bu(s) (6.60)

183
OSCAR G. DUARTE

Ahora podemos incorporar (6.60) en la segunda ecuaci


on de (6.59)
1 1
y(s) = C (sI A) x(0) + C ((sI A) Bu(s) + Du(s)

 
y(s) = C(sI A)1 x(0) + C(sI A)1 B + D u(s) (6.61)
| {z } | {z }
Rta de entrada cero Rta de estado cero
En (6.61) se observa que la respuesta y(s) tiene dos componentes6 :
Respuesta de estado cero: Es la primera parte de la ecuaci on (6.61). De-
pende de las entradas u(s) y no de las condiciones iniciales; de hecho, es
la respuesta que tiene el sistema si las condiciones iniciales son cero, es
decir, si su estado inicial es cero (de all su nombre).
Respuesta de entrada cero: Es la segunda parte de la ecuaci on (6.61). De-
pende de las condiciones iniciales y no de las entradas u(s); de hecho, es la
respuesta que tiene el sistema si las entradas son cero (de all su nombre).

6.6.1. Matriz de funciones de transferencia


Si se consideran condiciones iniciales nulas, la ecuaci
on (6.61) se convierte
en  
y(s) = C(sI A)1 B + D u(s)
Podemos definir la Matriz de Funciones de Transferencia como la matriz de
relaciona las entradas y las salidas, cuando las condiciones iniciales son nulas:
y(s) = G(s)u(s)| C.I.=0 G(s) = C(sI A)1 B + D (6.62)
La matriz G(s) en (6.62) es una matriz q p (p entradas y q salidas):

y1 (s) G11 (s) G12 (s) G1p (s) u1 (s)
y2 (s) G21 (s) G22 (s)
G2p (s) u2 (s)

.. = .. .. .. .. .
. . . . . ..
yq (s) Gq1 (s) Gq2 (s) Gqp (s) up (s)
El elemento Gij (s) de la matriz G(s) muestra c omo afecta la entrada uj (s)
a la salida yi (s).
En general, una entrada uj (s) afectara a todas las salidas y(s). No obstante,
existe un caso especial en que esto no es as: supongase que existe el mismo nu-
mero de entradas que de salidas p, y que la matriz de funciones de transferencia
es diagonal:

y1 (s) G11 (s) 0 0 u1 (s)
y2 (s) 0
G22 (s) 0 u2 (s)

.. = .. .. . .. .
.. ..
.
. . .
yp (s) 0 0 Gpp (s) up (s)
6 Comp
arese con las definiciones de la p
agina 45 para sistemas de una entrada y una salida

184
6.7. SISTEMAS DISCRETOS EXCITADOS

En este caso especial, la entrada uj (s) s


olo afecta la salida yj (s). Se dice entonces
que el sistema es desacoplado.

6.6.2. Variables de estado en el tiempo


Podemos obtener el comportamiento en el tiempo de las variables de estado
aplicando la transformada inversa de Laplace a (6.60)
   
x(t) = L1 [x(s)] = L1 (sI A)1 x(0) + L1 (sI A)1 Bu(s)
La primera de las transformadas corresponde a eAt = (t, 0) como puede
verse en (6.43) y (6.47). N
otese que la segunda transformada incluye el producto
de dos funciones de s. El resultado es:
Z t
x(t) = (t, 0)x(0) + (t, )Bu( )d (6.63)
0

En la secci
on 6.7.2 buscaremos aproximarnos a una interpretaci
on de (6.63)
apoy
andonos en el caso discreto.

6.7. Sistemas discretos excitados


Estudiamos ahora el sistema discreto con excitaci
on, es decir el sistema des-
crito por (6.64)
x(k + 1) = Ax(k) + Bu(k)
(6.64)
y(k) = Cx(k) + Du(k)
Para ello, aplicamos transformada Z a cada lado de las ecuaciones
zx(z) zx(0) = Ax(z) + Bu(z)
(6.65)
y(z) = Cx(z) + Du(z)
En la primera ecuaci
on podemos despejar x(z)
zx(z) Ax(z) = zx(0) + Bu(z)
(zI A)x(z) = zx(0) + Bu(z)
x(z) = z(zI A)1 x(0) + (zI A)1 Bu(z) (6.66)
Ahora podemos incorporar (6.66) en la segunda ecuaci
on de (6.65)
 1 1

y(z) = C z(zI A) x(0) + (zI A) Bu(z) + Du(z)

 
y(z) = Cz(zI A)1 x(0) + C(zI A)1 B + D u(z) (6.67)
| {z } | {z }
Rta de entrada cero Rta de estado cero
De forma an
aloga al caso continuo, (6.67) muestra que la respuesta y(z)
tiene dos componentes7 :
7 Comp
arese con las definiciones de la p
agina 46 para sistemas de una entrada y una salida

185
OSCAR G. DUARTE

Respuesta de estado cero: Es la primera parte de la ecuaci on (6.67). De-


pende de las entradas u(z) y no de las condiciones iniciales; de hecho, es
la respuesta que tiene el sistema si las condiciones iniciales son cero, es
decir, si su estado inicial es cero (de all su nombre).
Respuesta de entrada cero: Es la segunda parte de la ecuaci on (6.67). De-
pende de las condiciones iniciales y no de las entradas u(z); de hecho, es la
respuesta que tiene el sistema si las entradas son cero (de all su nombre).

6.7.1. Matriz de funciones de transferencia


Si se consideran condiciones iniciales nulas, la ecuaci
on (6.67) se convierte
en  
y(z) = C(zI A)1 B + D u(z)
Podemos definir la Matriz de Funciones de Transferencia como la matriz de
relaciona las entradas y las salidas, cuando las condiciones iniciales son nulas:
y(z) = G(z)u(z)|C.I.=0 G(z) = C(zI A)1 B + D (6.68)
La matriz G(z) en (6.68) es una matriz q p (p entradas y q salidas):

y1 (z) G11 (z) G12 (z) G1p (z) u1 (z)
y2 (z) G21 (z) G22 (z)
G2p (z) u2 (z)

.. = .. .. .. .
.. .. .
. . . .
yq (z) Gq1 (z) Gq2 (z) Gqp (z) up (z)
El elemento Gij (z) de la matriz G(z) muestra c omo afecta la entrada uj (z)
a la salida yi (z).
En general, una entrada uj (z) afectar
a a todas las salidas y(z). No obstante,
existe un caso especial en que esto no es as: supongase que existe el mismo nu-
mero de entradas que de salidas p, y que la matriz de funciones de transferencia
es diagonal:

y1 (z) G11 (z) 0 0 u1 (z)
y2 (z) 0
G22 (z) 0 u2 (z)

.. = .. .. .. . .
.. ..

. . . .
yp (z) 0 0 Gpp (z) up (z)
En este caso especial, la entrada uj (z) s
olo afecta la salida yj (z). Se dice entonces
que el sistema es desacoplado.

6.7.2. Variables de estado en el tiempo


Podemos obtener el comportamiento en el tiempo de las variables de estado
aplicando la Transformada inversa Z a (6.66)
   
x(k) = Z 1 [x(z)] = Z 1 z(zI A)1 x(0) + L1 (zI A)1 Bu(z)

186

6.8. INTRODUCCION AL CONTROL POR
VARIABLE DE ESTADO

La primera de las transformadas corresponde a Ak = (k, 0) como puede


verse en (6.55) y (6.57). N
otese que la segunda transformada incluye el producto
de dos funciones de z. El resultado es:
k1
X
x(k) = (k, 0)x(0) + (k, l + 1)Bu(l) (6.69)
l=0

La ecuaci
on (6.63) y (6.69) son an
alogas; sin embargo, es m
as f
acil de analizar
(6.69). Para ello, vamos a expandir la sumatoria:

x(k) = (k, 0)x(0) + (k, 1)Bu(0) + (k, 2)Bu(1) + + (k, k)Bu(k 1)

x(k) = (k, 0)x(0) + (k, 1)Bu(0) + (k, 2)Bu(1) + + Bu(k 1) (6.70)


La ecuaci on (6.70) muestra que x(k) esta formada por aportes de las condi-
ciones iniciales x(0), y de las entradas u(k). Adem as muestra cual es el aporte
exacto del valor de la entrada en un instante de tiempo especfico: por ejemplo,
la entrada en k = 1, que es u(1) aporta a la construcci on de x(k) justamente
(k, 2)Bu(1).
Un an alisis similar podra hacerse para el caso continuo con la ecuaci on
(6.63); para ello debe emplearse la funci on impulso (t ). Debido a que este
analisis no aporta ning un concepto nuevo, se ha omitido en este texto.

6.8. Introducci
on al control por
variable de estado
El esquema b asico de control por variable de estado se muestra en la figura
6.16. La estrategia, que es igualmente v alida para sistemas continuos y discretos
consiste en utilizar las variables de estado x para realimentar el sistema mediante
una matriz K, y comparar el estado con unas se nales de referencia r, de donde
se tiene que
u = r + Kx (6.71)
Para que (6.71) tenga sentido, las dimensiones de las variables involucradas
deben ser las siguientes:

up1 = rp1 + Kpn xn1

Podemos emplear los diagramas de bloques de la representaci on en variable


de estado para sistemas continuos y discretos que se muestran en las figuras 6.5
y 6.6 para complementar la figura 6.16. El resultado se muestra en las figuras
6.17 y 6.18
Combinando las ecuaciones (6.21) y (6.22) con (6.71) se obtienen las ecua-
ciones de estado para sistemas continuos y discretos con realimentaci on por
variable de estado:

187
OSCAR G. DUARTE

r + u y
Sistema
+
x

Figura 6.16: Realimentaci


on por Variable de Estado

+ y(s)
r(s)+ + sx(s) x(s) +
B 1/s C
u(s)
+ +

Figura 6.17: Realimentaci


on por Variable de Estado de un sistema contnuo

188

6.8. INTRODUCCION AL CONTROL POR
VARIABLE DE ESTADO

+ y(z)
r(z)+ + zx(z) x(z) +
B 1/z C
u(z)
+ +

Figura 6.18: Realimentaci


on por Variable de Estado de un sistema discreto

(
x(t)
= Ax(t) + B[r(t) + Kx(t)]
y(t) = Cx(t) + D[r(t) + Kx(t)]
(
x(k + 1) = Ax(k) + B[r(k) + Kx(k)]
y(k) = Cx(k) + D[r(k) + Kx(k)]
que pueden reescribirse como
(
x(t)
= [A + BK]x(t) + Br(t)
y(t) = [C + DK]x(t) + Dr(t)
(
x(k + 1) = [A + BK]x(k) + Br(k)
y(k) = [C + DK]x(k) + Dr(k)
Se obtienen entonces unos nuevos sistemas para los que las entradas son r,
las salidas son u y las variables de estado son x (ver figura 6.16). Si definimos
A = A + BK y C = C + DK las ecuaciones de estos nuevos sistemas ser an
(
x(t)

= Ax(t) + Br(t) = A + BK
A
(6.72)

y(t) = Cx(t) + Dr(t) = C + DK
C
(

x(k + 1) = Ax(k) + Br(k) A = A + BK
(6.73)
y(k) = Cx(k) + Dr(k) C = C + DK
Dado que el comportamiento de los sistemas descritos por (6.72) y (6.73)
se desprende que la estrategia de control
dependen de los valores propios de A,

189
OSCAR G. DUARTE

por variable de estado consiste en establecer un sistema como el de la figura 6.16


y seleccionar una matriz K tal que los valores propios de A en (6.72) y (6.73)
sean los deseados.
Como este no es un texto de control, no abordaremos el problema de c omo
obtener esa matriz K. Sin embargo, resaltamos que esta estrategia plantea al
menos dos interrogantes:
es decir,
1. Pueden asignarse con total libertad los valores propios de A?,
dado un conjunto de valores propios deseados, existir
a siempre una matriz
K que permita asignarle a A dichos valores propios?

2. Dado que las variables de estado no necesariamente tienen sentido fsico,


y en caso de tenerlo no necesariamente son medibles, Como pueden co-
nocerse los valores de las variables de estado para implementar el esquema
de la figura 6.16?

Las secciones 6.8.1 y 6.8.2 intentan dar respuesta a estas preguntas.

6.8.1. Controlabilidad
La nocion de controlabilidad de un sistema esta asociada con la posibilidad
de hacer que sus variables de estado tomen cualquier valor deseado, no importa
cuales sean las condiciones iniciales, en un tiempo finito.

Definicion 6.3 Controlabilidad


Un sistema dinamico es controlable en t1 si para cualquier estado x(t1 ) y cualquier
estado deseado xd es posible encontrar una entrada u(t) que aplicada entre t 1 y t2
produce x(t2 ) = xd , con t2 <

Ejemplo 6.31 Considerese el circuito de la figura 6.19, en el que la variable de en-


trada es v(t) y la variable de salida es vx (t). Es claro que para escribir las ecuaciones
de estado de ese circuito podemos escoger como variable de estado la tensi on en el
condensador vC (t).
Debido a la simetra del circuito, si las condiciones iniciales son nulas (v C (0) =
0), la tensi
on en el condensador siempre sera cero, sin importar que valor tome la
fuente v(t). Por lo tanto, no es posible modificar a nuestro antojo el valor de la
variable de estado, y en consecuencia el sistema es no controlable.

La definici
on 6.3 no brinda por s s
ola un mecanismo f
acil para determinar
si un sistema es controlable o no. No obstante, podemos aplicar un test de
controlabilidad para determinar si un sistema din amico lineal invariante en el
tiempo es o no controlable.

Test de controlabilidad
Para determinar si un sistema como (6.21) o como (6.22) es o no controlable,
con A una matriz n n y B una matriz n p, se construye la matriz de

190

6.8. INTRODUCCION AL CONTROL POR
VARIABLE DE ESTADO

1 1

+
1F
v(t)

1 1

Figura 6.19: Circuito

controlabilidad V y se verifica su rango:


 
V = B AB A2 B A3 B An1 B
(6.74)
El sistema es controlable s y s
olo si rank(V) = n

Anotaciones al concepto de Controlabilidad


1. La definicion 6.3 es realmente la definicion de controlabilidad de estado,
dado que se refiere a la posibilidad de obtener cualquier estado. Existe una
definici
on semejante para la controlabilidad de salida, que no se aborda en
este texto.
2. El test de controlabilidad (6.74) pone de manifiesto que la controlabilidad
s
olo depende de las matrices A y B, es decir, s
olo depende de la ecuaci on
de estado y no de la ecuacion de salida
3. Para determinar la controlabilidad de un sistema como(6.21) no es nece-
sario resolver la ecuaci
on diferencial. Se realiza un an
alisis cualitativo de
la ecuaci
on.
4. Si un sistema es controlable, entonces con un esquema de control por
realimentaci
on de variable de estado como el de la figura 6.16 siempre es
posible encontrar una matriz K real para que la matriz A en (6.72) o en
(6.73) tenga los valores propios deseados8 .
5. El test es igualmente v
alido para sistemas continuos y discretos.

6.8.2. Observabilidad
Al observar la estrategia de control por Realimentaci
on de Variable de Estado
sugerida en la figura 6.16 surge la cuesti
on de c
omo medir las variables de estado
x, ya que es posible que estas no tengan sentido fsico, o que no sean medibles.
8 Se supone en esta afirmaci
on que los valores propios deseados complejos aparecen en
parejas conjugadas.

191
OSCAR G. DUARTE

r + u y
Sistema
+

Observador

x

K

Figura 6.20: Realimentaci


on por Variable de Estado con Observador

Para solucionar este problema se plantea la utilizaci on de un estimador de


estado, u observador de estado, que es un elemento que intenta estimar el estado
del sistema a partir de mediciones de las entradas y salidas al sistema (se supone
que estas s tienen sentido fsico y son medibles), tal como se observa en la figura
6.20, en la que x es la estimaci on que el observador hace del estado x
La noci on de observabilidad de un sistema est a asociada con la posibilidad
de determinar el estado del sistema a partir de mediciones de sus entradas y
salidas durante un tiempo finito, es decir, con la posibilidad de construir un
observador.
Definicion 6.4 Observabilidad
Un sistema dinamico es observable en t1 si es posible conocer el estado x(t1 )
a partir de mediciones de las entradas u(t) y las salidas y(t) durante el periodo
comprendido entre t1 y t2 , con t2 <
Ejemplo 6.32 Considerese nuevamente el circuito de la figura 6.19, en el que la
variable de entrada es v(t), la variable de salida es v x (t) y la variable de estado la
tensi
on en el condensador vC (t).
Es claro que a partir de mediciones de v(t) y vx (t) (que son iguales) no es posible
conocer las condiciones iniciales del condensador y en consecuencia el sistema es no
observable.
La definici
on 6.4 no brinda por s s
ola un mecanismo f acil para determinar
si un sistema es observable o no. No obstante, podemos aplicar un test de obser-
vabilidad para determinar si un sistema din amico lineal invariante en el tiempo
es o no observable.

Test de observabilidad
Para determinar si un sistema como (6.21) o como (6.22) es o no observable,
con A una matriz n n y C una matriz q n, se construye la matriz de

192

6.8. INTRODUCCION AL CONTROL POR
VARIABLE DE ESTADO

observabilidad S y se verifica su rango:



C
CA

CA2

S = CA3 El sistema es observable s y s
olo si rank(S) = n (6.75)

..
.
CAn1

Anotaciones al concepto de observabilidad


1. El test de observabilidad (6.75) pone de manifiesto que la controlabilidad
s
olo depende de las matrices A y C.
2. Para determinar la observabilidad de un sistema como(6.21) no es necesaro
resolver la ecuaci
on diferencial. Se realiza un an
alisis cualitativo de la
ecuaci
on.
3. Si un sistema es observable, entonces puede construirse un observador
como el que se sugiere en la figura 6.20. En este texto no se aborda el
problema de c
omo construir dicho observador.
4. El test es igualmente v
alido para sistemas continuos y discretos.

Ejemplo 6.33 Tomemos nuevamente el circuito de la figura 6.19. Para escribir las
ecuaciones que rigen el sistema, n
otese que el equivalente Thevenin del circuito visto
por el condensador es una resitencia de valor R, de tal manera que:
d vC
vC = RiC = RC
dt
d 1
vC (t) = vC (t)
dt RC
La ecuaci
on de salida es trivial:

vx (t) = v(t)

De tal manera que la representaci on en variable de estado para el circuito es:


 1
v C = RC vC
vx = v(t)

Es decir, es un sistema como (6.21) con A = 1/RC, B = 0, C = 0, y D = 1.


Las matrices de controlabilidad y observabilidad definidas en (6.74) y (6.75) son:

V = [0] S = [0]

y por lo tanto tienen rango 0, lo que significa que el sistema es no controlable y no


observable

193
OSCAR G. DUARTE

194
Captulo 7

Introduccion a los sistemas no


lineales

Si bien el objetivo de este curso es el an


alisis de los sistemas din
amicos lineales
invariantes en el tiempo, en este captulo se hace una breve presentaci on de los
sistemas no lineales, con el prop osito principal de resaltar:

Que los resultados y las tecnicas presentadas en captulos anteriores tienen


una aplicabilidad limitada a los sistemas lineales.
Que el comportamiento de los sistemas lineales es limitado a un cierto
tipo de respuestas, mientras que los sistemas no lineales pueden tener un
comportamiento de mayor riqueza.

Para ello, hacemos inicialmente una distinci


on entre dos tipos de funciones
no lineales:
No linealidades est aticas: Se trata de sistemas no lineales sin memoria, es
decir, aquellos cuyas salidas y(t) solo dependen de las entradas en ese
mismo instante u(t). La figura 7.1 resume algunas de las no linealidades
est
aticas mas frecuentes. Algunos de los elementos que se pueden modelar
con este tipo de no linealidades est
aticas son:
V
alvulas de apertura gradual.
Transformadores y motores en regiones de saturaci
on magnetica.
Materiales ferromagneticos en general.
Huelgos en engranajes.
Cilindros hidra
ulicos y neum
aticos con cambio de direcci
on.
Linealizaciones de elementos electricos y electr
onicos.

195
OSCAR G. DUARTE

Saturaciones Rel
es

Hist
eresis Zonas Muertas

Zonas Muertas Trazos Rectos

Figura 7.1: No Linealidades Est


aticas m
as frecuentes

196

7.1. PERDIDA
DE SUPERPOSICICION Y PROPORCIONALIDAD

No linealidades din amicas: Se trata de sistemas no lineales con memoria, es


decir, aquellos cuyas salidas y(t) dependen no solo de las entradas en ese
mismo instante u(t), sino tambien de sus derivadas o diferencias finitas.
Es decir, consideramos ecuaciones diferenciales y de diferencia de la forma

x(t)
= f (x(t), u(t), t) x(k + 1) = f (x(k), u(k), k)

En donde el vector u contiene las entradas al sistema, x las variables de


estado, y f es un funcion vectorial no lineal (no necesariamente lineal).
Las secciones 7.1 a 7.8 se refieren a este tipo de no linealidades

7.1. Perdida de superposicici


on y proporciona-
lidad
Las propiedades de superposici on y proporcionalidad son inherentes a los
sistemas lineales. Estas dos propiedades se pierden en los sistemas no lineales.

Ejemplo 7.1 Consideremos un sistema continuo descrito por la ecuaci


on (7.1) que
no es lineal debido al termino x2

x + x2 = u(t) (7.1)

En la figura 7.2 se muestra el comportamiento del sistema con = 1 y condi-


ciones iniciales nulas ante dos entradas diferentes:

Se ha simulado la salida y1 (t) con una entrada u1 (t) = (t).

Se ha simulado la salida y2 (t) con una entrada u2 (t) = 4(t).

Notese que aunque se ha multiplicado por 4 la entrada, la salida no esta multi-


plicada por 4; de hecho, el valor estacionario tan s
olo se ha duplicado, con lo que
se demuestra que el sistema no tiene la propiedad de proporcionalidad.
Ahora trabajamos con el sistema suponiendo = 0.1 (es decir, haciendo mas pe-
queno el efecto no lineal) y manteniendo condiciones iniciales nulas. Se ha simulado
el comportamiento del sistema en tres condiciones diferentes:

Se ha simulado la salida y3 (t) con una entrada u3 (t) = (t).

Se ha simulado la salida y4 (t) con una entrada u4 (t) = sin(t)(t).

Se ha simulado la salida y5 (t) con una entrada u5 (t) = (t) + sin(t)(t).

La figura 7.3 muestra y3 (t), y4 (t), y3 (t) + y4 (t) y y5 (t). Se destaca como la
suma y3 (t) + y4 (t) es diferente de la salida que se obtiene cuando la entrada es
u3 (t) + u4 (t), con lo que se demuestra que el sistema no tiene la propiedad de
superposicion.

197
OSCAR G. DUARTE

3.0

2.5

y2 (t)
2.0

1.5

y1 (t)
1.0

0.5

0.0
0 1 2 3 4 5 6 7 8 9 10

Figura 7.2: Sistema No Lineal con dos entradas escal


on

4
y3 (t) + y4 (t)

2 y3 (t) y5 (t)

0
y4 (t)

1
0 1 2 3 4 5 6 7 8 9 10

Figura 7.3: Sistema No Lineal con una entrada escal


on y una sinusoide

198

7.2. MULTIPLES PUNTOS DE EQUILIBRIO

7.2. M
ultiples puntos de equilibrio
Un punto de equilibrio de un sistema continuo es un punto x0 tal que x(t)
en
ese punto valga cero, ya que en esas condiciones el sistema no cambiar a nunca
de estado.
Por otra parte, un punto de equilibrio de un sistema discreto es un punto x0
tal que x(k + 1) = x(k) en ese punto valga cero, ya que en esas condiciones el
sistema no cambiar a nunca de estado.
Si consideramos un sistema continuo lineal libre de la forma x = Ax, es claro
que el unico punto de equilibrio que existe1 corresponde a x = 0, sin embargo,
pueden existir sistemas no lineales con m as de un punto de equilibrio.

Ejemplo 7.2 Tomemos como ejemplo un pendulo simple de barra rgida como el
de la figura 7.4 cuyas ecuaciones dinamicas son

x 1 = x2
(7.2)
x 2 = a sin(x1 ) bx2

en donde

x1 representa el angulo de giro del pendulo medido respecto a la vertical en


el punto de giro.

x2 representa la velocidad angular.

a = g/l, b = k/m

g es la aceleraci
on de la gravedad.

l es la distancia del punto de giro al centro de gravedad del pendulo.

k es el coeficiente de fricci
on viscosa del punto de giro.

m es la masa del pendulo.

Para que x 1 y x 2 sean cero en (7.2) se necesita que x2 = 0 y sin(x1 ) = 0, es


decir que los puntos de equilibrio son:
       
0 2 3
, , , ,
0 0 0 0

Este resultado corresponde a nuestra experiencia: el pendulo esta en reposo s olo


en direcci
on vertical, bien sea hacia arriba o hacia abajo; si esta hacia abajo el angulo
x1 es 0 (que es igual a 2, 4, ) y si esta hacia arriba el angulo x 1 es (que
es igual a , 3, ), y en ambos casos la velocidad angular x 2 es 0.
Para mostrar graficamente la presencia de varios puntos de equilibrio se ha
trazado el retrato de fase del pendulo simple en la figura 7.5 con a = b = 1.
1 Salvo en los casos especiales en que A es singular.

199
OSCAR G. DUARTE

l
x1

Figura 7.4: Diagrama del pendulo simple

2.0

1.6

1.2

0.8

0.4

.
   

0.4

0.8

1.2

1.6

2.0
1 1 3 5 7 9 11

Figura 7.5: Retrato de Fase del pendulo simple con a = b = 1

200
7.3. ESTABILIDAD LOCAL

7.3. Estabilidad local


El concepto de estabilidad est a asociado con los puntos de equlibrio, es decir
se dice que un punto de equilibrio puede tener un cierto tipo de estabilidad (ser
estable, inestable, un punto de sila, etc.).
Como los sistemas lineales s olo tienen un punto de equilibrio, se dice que la
estabilidad del sistema es la de ese punto de equilibrio. Debido a que los sistemas
no lineales pueden tener m as de un punto de equilibrio, ya no es v alido hablar
de la estabilidad del sistema como un todo, sino que es necesario estudiar la
establidad de cada punto de equilibrio. A este tipo de estabilidad se le denomina
estabilidad local.

Ejemplo 7.3 Consideremos de nuevo el caso del pendulo simple descrito por (7.2)
y cuyo retrato de fase se muestra en la figura 7.5. Para conocer el comportamiento
del sistema en todos los puntos de equilibrio basta con analizarlo en dos de ellos
(un angulo es igual a un angulo 2n):
   
0
xa = xb =
0 0

La figura 7.6 muestra una ampliaci on del retrato de fase de la figura 7.5 cerca
al punto de equilibrio xa . El retrato de fase resultante es similar al de un sif
on de
un sistema lineal, por lo tanto diremos que xa es un punto de equilibrio del tipo
sif
on, y por lo tanto estable.
Por otra parte, la figura 7.7 muestra una ampliaci on del retrato de fase de la
figura 7.5 cerca al punto de equilibrio xb . El retrato de fase resultante es similar al
de un punto de silla de un sistema lineal, por lo tanto diremos que x b es un punto
de equilibrio del tipo punto de silla, es decir, es inestable.

7.4.
Orbitas peri
odicas no sinusoidales
En un sistema lineal la u
nica posibilidad de tener soluciones peri
odicas se da
cuando los valores propios son imaginarios puros; en estos casos las trayectorias
del retrato de fase son elipses y se denominan orbitas cerradas del sistema.
En los sistemas no lineales hay otras posibilidades de tener soluciones perio-
dicas, que no necesariamente corresponder an a elipses en los retratos de fase.

Ejemplo 7.4 Sup


ongase un sistema descrito por las ecuaciones de Lotka-Volterra

x 1 = x1 + x1 x2
x 2 = x 2 x 1 x2 (7.3)

La ecuacion (7.3) sirve como un modelo simplificado para predecir el crecimiento


de las poblaciones de dos especies en un ambito cerrado en la que una de ellas es
el predador de la otra (la presa). x1 representa la poblaci on del predador y x2 la
de la presa. La variaci
on de la poblaci
on esta afectada por cuantas veces se cruzan

201
OSCAR G. DUARTE

0.7

0.5

0.3

0.1

0.1

0.3

0.5

0.7
4.8 5.2 5.6 6.0 6.4 6.8 7.2 7.6 8.0

Figura 7.6: Retrato de Fase del pendulo simple alrededor de un punto de equilibrio
del tipo sif
on

0.7

0.5

0.3

0.1
.

0.1

0.3

0.5

0.7
2.1 2.5 2.9 3.3 3.7 4.1 4.5

Figura 7.7: Retrato de Fase del pendulo simple alrededor de un punto de equilibrio
del tipo punto de silla

202
7.5. CICLOS L
IMITE

0 .

1
1 0 1 2 3 4 5

Figura 7.8: Retrato de Fase del Sistema de Lotka-Volterra

miembros de una especie con los de la otra, que se supone que es proporcional al
producto x1 x2 .
La figura 7.8 muestra el retrato de fase del sistema descrito por (7.3). Se nota
un punto de equilibrio en (1, 1) que es un centro, y otro punto de equilibrio en (0, 0)
que es un punto de silla. Ademas, se destacan infinitas soluciones peri
odicas que no
tienen forma de elipse ni estan centradas en (0, 0)

7.5. Ciclos lmite


En ocasiones las trayectorias del sistema tienden a formar una o
rbita cerrada;
cuando esto sucede se dice que existe un ciclo lmite estable. Tambien se da el
caso en el que las trayectorias se desprenden de una orbita cerrada, en cuyo caso
se dice que se existe un ciclo lmite inestable.

Ejemplo 7.5 Sup


ongase un sistema descrito por las ecuaciones:

x 1 = x2
x 2 = (1 x21 )x2 x2 (7.4)

La ecuaci
on (7.4) representa al Oscilador de Van der Pol, y corresponde a un
oscilador con un amortiguamiento no lineal correspondiente al termino proporcional
a x21 x2 .

203
OSCAR G. DUARTE

0 .

4
3 2 1 0 1 2 3

Figura 7.9: Retrato de Fase del Oscilador de Van der Pol con = 1

La figura 7.9 muestra el retrato de fase del sistema descrito por (7.4) con = 1.
Notese que todas las trayectorias tienden a formar una o rbita cerrada (marcada en
rojo); esta o
rbita corresponde a un ciclo lmite del sistema.

7.6.
Orbitas homoclnicas
En un sistema lineal, cuando el punto de equilibrio es del tipo punto de silla,
una trayectoria que inicie en el vector propio inestable viajar a por ese vector
hasta el infinito.
En algunos sistemas no lineales puede darse un comportamiento especial:
una trayectoria que inicie en un punto de equilibrio del tipo punto de silla
puede llegar a terminar en el mismo punto de equilibrio. Cuando esto sucede,
la trayectoria descrita se denomina una orbita homoclnica
Ejemplo 7.6 Sup
ongase un sistema descrito por las ecuaciones:
x 1 = x2
x 2 = kx2 + x1 x31 (7.5)

La ecuaci
on (7.5) representa al Oscilador de Duffing, y corresponde a un oscilador
con una excitacion adicional; por ejemplo, (7.5) puede representar a un pendulo
simple como el de la figura 7.4 cuando el angulo es peque no, y adicionalmente se
ejerce una fuerza proporcional a x31 .

204
7.7. BIFURCACIONES

2.0

1.6

1.2

0.8

0.4

0 .

0.4

0.8

1.2

1.6

2.0
2.0 1.6 1.2 0.8 0.4 0 0.4 0.8 1.2 1.6 2.0

Figura 7.10: Retrato de Fase del Oscilador de Duffing con k = 0

La figura 7.10 muestra el retrato de fase del sistema descrito por (7.5) con
k = 0 (sin amortiguamiento). El sistema tiene tres puntos de equilibrio: en (1, 0)
y en (1, 0) hay unos puntos de equilbrio del tipo centro; en (0, 0) hay un punto
de equilibrio del tipo punto de silla. En este punto hay dos trayectorias especiales
(en rojo): una de ellas inicia en la direcci
on (1, 1) y despues de dar una vuelta hacia
la derecha regresa al punto (0, 0) desde la direcci on (1, 1); la otra inicia en la
on (1, 1) y despues de dar una vuelta hacia la izquierda regresa al punto
direcci
(0, 0) desde la direcci
on (1, 1). Estas dos trayectorias son orbitas homoclnicas del
sistema.

7.7. Bifurcaciones
Si las ecuaciones de un sistema din amico dependen de un par ametro, es
l
ogico pensar que el comportamiento de dicho sistema dependa del valor de ese
parametro. Esto es cierto tanto para sistemas lineales como no lineales.
Sin embargo, las variaciones de comportamiento que puede tener un sistema
lineal son menores en comparaci on con las que pueden suceder en sistemas no
lineales. Si al variar un par
ametro el comportamiento del sistema cambia es-
tructuralmente (de forma muy notoria), se dice que el par
ametro ha tomado un
valor de bifurcaci
on.

205
OSCAR G. DUARTE

Ejemplo 7.7 Consideremos el sistema descrito por la ecuaci


on

x = ( x2 )x (7.6)

Para valores negativos de el sistema tendra un u nico punto de equilibrio en


x = 0, porque es la u
nica condicion en la que x
= 0. Sin embargo,
si 0 existiran
tres puntos de equilibrio en x1 = 0, x2 = + a, x3 = a. Este cambio es muy
importante, y por lo tanto decimos que en = 0 hay una bifurcaci on del sistema,
o lo que es igual, que el valor de bifurcaci
on para el parametro es 0.

7.8. Comportamientos ca
oticos
El comportamiento de un sistema din amico, lineal o no lineal, depende de
las condiciones iniciales. En los sistemas lineales esta dependencia es suave, es
decir, que si se escogen dos condiciones iniciales cercanas el comportamiento del
sistema sera muy parecido.
Existen algunos sistemas no lineales en los que peque nas variaciones en las
condiciones iniciales desencadenan comportamientos muy diferentes; tales siste-
mas se denominan ca oticos.

Ejemplo 7.8 Consideremos el sistema discreto de primer orden descrito por la ecua-
ci
on:


(2 x)/4 x [0, 18/41)

10x 4 x [18/41, 1/2)
x(k + 1) = f (x(k)) f (x) = (7.7)


10x 5 x [1/2, 23/41)

(3 x)/4 x [23/41, 1]

f (x) se muestra en la figura 7.11. En la figura 7.12 se muestra el comportamiento


del sistema para tres condiciones iniciales muy cercanas: x a (0) = 0.445 + 1E
11 (en negro), xb (0) = 0.445 + 3E 11 (en azul) y xc (0) = 0.445 + 5E 11
(en rojo). Notese c
omo a partir de k = 35 el comportamiento del sistema difiere
notablemente aun cuando las tres condiciones iniciales se asemejan mucho. Este
tipo de comportamiento es ca otico.

206

7.8. COMPORTAMIENTOS CAOTICOS

1.00

0.75

0.50

0.25

0
0 0.25 0.50 0.75 1.00

Figura 7.11: Funci


on discreta que origina un sistema ca
otico

1.0

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 10 20 30 40 50

Figura 7.12: Respuesta de un sistema discreto ca otico a tres entradas diferentes:


xa = 0.445 + 1 1011 (negro), xb = 0.445 + 3 1011 (azul) y xc = 0.445 + 5 1011
(rojo)

207
OSCAR G. DUARTE

208
Apendice A

Demostraciones de las
Transformadas de Laplace y Z

A.1. Propiedades de la Transformada


de Laplace
La transformada de Laplace de una funci on f (t) f : R R es una funci
on
F (s) F : C C calculada como
Z
F (s) = L {f (t)} = f (t)est dt (A.1)
0

Sean f (t), f1 (t), f2 (t) tres funciones cuyas Transformadas de Laplace son,
respectivamente F (s), F1 (s), F2 (s), y a un escalar (real o complejo). Se cumplen
las siguientes propiedades:

A.1.1. Linealidad:

L {f1 (t) + f2 (t)} = F1 (s) + F2 (s) (A.2)


L {af (t)} = aF (s) (A.3)
Demostraci on A.1 La propiedad de Linealidad de la Trasformada de Laplace se
desprende de la propiedad de Linealidad de la integracion. Demostramos primero la
propiedad de superposicion (A.2).
La Transformada de Laplace de f1 (t) + f2 (t) es, seg un la definici
on (A.1):
Z
L {f1 (t) + f2 (t)} = [f1 (t) + f2 (t)]est dt
0

209
OSCAR G. DUARTE

Debido a que la Integracion es una operacion lineal, podemos separar la integral


de una suma en la suma de las integrales:
Z Z
L {f1 (t) + f2 (t)} = f1 (t)est dt + f2 (t)est dt
0 0

Las dos integrales corresponden a las transformadas de Laplace de f 1 (t) y f2 (t),


respectivamente, con lo que queda demostrada (A.2)

L {f1 (t) + f2 (t)} = F1 (s) + F2 (s)

Para demostrar A.3 tambien acudimos a la propiedad de linealidad de la inte-


graci
on. La Transformada de Laplace de af (t) es
Z Z
L {af (t)} = [af (t)]est dt = a f (t)est dt = aF (s)
0 0

A.1.2. Diferenciaci
on:
 
df (t)
L = sF (s) f (0+ ) (A.4)
dt
  n1
dn f (t) X
L = sn F (s) sni1 f (i) (0+ ) (A.5)
dtn i=0

Demostraci on A.2 Para demostrar A.4 calculamos la Transformada de Laplace de


la derivada df
dt   Z  
df (t) df st
L = e dt
dt 0 dt
h i
Esta integral puede resolverse por partes, haciendo u = e st y dv = df
dt dt y
por lo tanto du = sest dt y v = f (t) :
  Z
df (t)
st
L = f (t)e 0
(s)est f (t)dt
dt 0

La integral es respecto a t, y por tanto s es constante y puede salir de la integral


  Z
df (t)
st

L = f (t)e 0
+s est f (t(dt = f (t)est 0 + sF (s)
dt 0

 
df (t)
L = lm f (t)est f (0+ )es0 + sF (s)
dt t

El valor del lmite no esta determinado, hasta tanto no se conozca f (t). Sin em-
bargo, para todas aquellas funciones que decrezcan, sean constantes, o que crezcan

210
A.1. PROPIEDADES DE LA TRANSFORMADA
DE LAPLACE

mas lentamente que est el valor del lmite sera 0. Este tipo de funciones son las que
empleamos en Analisis de Sistemas Dinamicos, y en consecuencia podemos escribir
 
df (t)
L = f (0+ ) + sF (s)
dt
Esto concluye la demostracion de (A.4).
Para demostrar (A.5), hacemos notar que para n = 1 se reduce a (A.4), y por
tanto podemos emplear el metodo de inducci on para la demostracion: Calculemos
d(k+1) f
la transformada de dt(k+1) empleando (A.4):
 (k+1)    k   k
d f d df df df k
L =L = sL k
dt(k+1) d dtk dtk dt t=0+
  " k1
#
d(k+1) f k
X
ki1 (i) + df k
L = s s F (s) s f (0 ) k =
dt(k+1) i=0
dt t=0

  " k1
#
d(k+1) f (k+1)
X
(k+1)i1 (i)
L = s F (s) s f (0 ) f (k) (0)
+
dt(k+1) i=0

El termino f k (0) puede escribirse como s((k+1)i1) f (k) (0) cuando i = k, e


incorporarlo en la sumatoria
 (k+1)  " k
#
d f (k+1)
X
(k+1)i1 (i) +
L = s F (s) s f (0 )
dt(k+1) i=0

 (k+1)  (k+1)1
d f X
L = s(k+1) F (s) s(k+1)i1 f (i) (0+ )
dt(k+1) i=0

Esta expresi
on corresponde a (A.5) para (k +1) lo que completa la demostraci
on
por inducci
on.

A.1.3. Desplazamiento en la frecuencia:



L eat f (t) = F (s a) (A.6)

on A.3 La Transformada de Laplace de eat f (t) es


Demostraci
Z Z

L eat f (t) = est [eat f (t)]dt = e(sa)t f (t)dt
0 0

La integral corresponde a la definici


on de la Transformada de Laplace (A.1), pero
evaluada en s a en lugar de s, es decir

L eat f (t) = F (s a)

211
OSCAR G. DUARTE

A.1.4. Multiplicaci
on por t:

dF (s)
L {tf (t)} = (A.7)
ds
dn F (s)
L {tn f (t)} = (1)n (A.8)
dsn
Demostraci
on A.4 Para demostrar (A.7) calculamos la derivada de F (s) respecto
as Z 
dF (s) d st
= e f (t)dt
ds ds 0
La derivada se hace respecto a s y la integral respecto a t, por lo tanto la
derivada puede incorporarse dentro de la integral
Z
dF (s) d  st
= e f (t) dt
ds 0 ds
Como la derivada es respecto a s, t y f (t) son constantes:
Z Z
dF (s)
= tf (t)est dt = [tf (t)]est dt
ds 0 0
La integral corresponde a la Transformada de Laplace de tf (t), lo que completa
la demostracion de (A.7).
Para demostrar (A.8) resaltamos que cuando n = 1 se convierte en (A.7), y
por tanto podemos emplear el metodo de inducci on. Al evaluar (A.8) en n = k se
obtiene

 dk F (s)
L tk f (t) = (1)k
dsk
La derivada k + 1 de F (s) respecto a s es
 
d(k+1) F (s) d dk f
=
ds(k+1) ds dsk
 
d(k+1) F (s) d 1 k
= L t f (t)
ds(k+1) ds (1)k
Z 
d(k+1) F (s) 1 d 
st k

= e t f (t) dt
ds(k+1) (1)k ds 0
Como la integral es respecto a t y la derivada respecto a s se tiene
Z
d(k+1) F (s) 1 d  st k 
= e t f (t) dt
ds(k+1) (1)k 0 ds
Z
d(k+1) F (s) 1 k d  st 
= k
t f (t) e dt
ds(k+1) (1) 0 ds

212
A.1. PROPIEDADES DE LA TRANSFORMADA
DE LAPLACE

Z
d(k+1) F (s) 1
= t(k+1) f (t)est dt
ds(k+1) (1)(k+1) 0

La integral corresponde a la transformada de Laplace de t (k+1) f (t), es decir

d(k+1) F (s) n
(k+1)
o
= L t f (t)
ds(k+1)
Esta expresi
on resulta ser igual a (A.8) evaluada en n = k + 1 con lo que se
completa la demostraci
on.

A.1.5. Teorema de valor inicial:

lm f (t) = lm sF (s) (A.9)


t0+ s

Demostraci on A.5 Para demostrar (A.9) consideremos primero la propiedad de


diferenciacion (A.4) y calculemos el lmite cuando s a cada lado de la igualdad:
 
df (t)
L = sF (s) f (0+ )
dt
  
df (t)  
lm L = lm sF (s) f (0+ )
s dt s
Z 
df (t)  
lm est dt = lm sF (s) f (0+ )
s 0 dt s

Cuando s la integral de hace cero, y por lo tanto tenemos


 
lm sF (s) f (0+ )
s

Dado que f (0+ ) es independiente de s, y ademas f (0+ ) = limt0+ f (t) se tiene

lm sF (s) = f (0+ ) = lm+ f (t)


s t0

A.1.6. Teorema de valor final:

lm f (t) = lm sF (s) (A.10)


t s0

Demostraci on A.6 Para demostrar (A.10) consideremos primero la propiedad de


diferenciacion (A.4) y calculemos el lmite cuando s 0 a cada lado de la igualdad:
 
df (t)
L = sF (s) f (0+ )
dt
  
df (t)  
lm L = lm sF (s) f (0+ )
s0 dt s0

213
OSCAR G. DUARTE

Z 
df (t)  
lm est dt = lm sF (s) f (0+ )
s0 0 dt s0

Cuando s 0 la integral se simplifica


Z 
df (t)  
dt = lm f (t) f (0+ ) = lm sF (s) f (0+ )
0 dt t s0

Con lo que resulta

lm f (t) = lm sF (s)
t s0

A.1.7. Convoluci
on:

L {f1 (t) f2 (t)} = R F1 (s)F2 (s) (A.11)


f1 (t) f2 (t) = 0
f1 (t )f2 ( )d

Demostraci on A.7 Para demostrar (A.11) calculemos la transformada de Laplace


de la convoluci
on entre f1 (t) y f2 (t):
Z 
L {f1 (t) f2 (t)} = L f1 (t )f2 ( )d =
0
Z Z 
L {f1 (t) f2 (t)} = f1 (t )f2 ( )d est dt
0 0
Z Z
L {f1 (t) f2 (t)} = f1 (t )est f2 ( )d dt
0 0
Podemos interambiar el orden de integraci
on y reagrupar:
Z Z
L {f1 (t) f2 (t)} = f1 (t )est f2 ( )dtd
0 0

Z Z 
L {f1 (t) f2 (t)} = f2 ( ) f1 (t )est dt d
0 0

Ahora efectuamos un cambio de variable = t de tal manera que d = dt


y t=+
Z Z 
s(+ )
L {f1 (t) f2 (t)} = f2 ( ) f1 ()e d d
0
Z Z 
s s
L {f1 (t) f2 (t)} = f2 ( )e f1 ()e d d
0

Como es independiente de podemos sacar la integral


Z  Z 
L {f1 (t) f2 (t)} = f1 ()es d f2 ( )es d
0

214
A.2. PROPIEDADES DE LA TRANSFORMADA Z

Ademas, consideramos de f1 (t) vale cero para valores negativos de t, y por tanto
podemos modificar los lmites de la integral, completando asi la demostracion
Z  Z 
L {f1 (t) f2 (t)} = f1 ()es d f2 ( )es d
0 0

L {f1 (t) f2 (t)} = F1 (s)F2 (s)

A.1.8. Desplazamiento en el tiempo:

L {f (t T )} = esT F (s) (A.12)


on A.8 La transformada de Laplace de f (t T ) es
Demostraci
Z
L {f (t T )} = f (t T )est dt
0

Efectuando el cambio de variable = t T de tal manera que dt = d y


t = + T se tiene
Z Z
L {f (t T )} = f ( )es( +T ) d = f ( )es esT d
T T

Como la intergal es respecto a y T es constante, puede sacarse de la integral


el termino esT Z
L {f (t T )} = esT f ( )es d
T
Si asumimos que f (t) vale cero para todo valor negativo de t, entonces los
lmites de la integral pueden modificarse asi:
Z
L {f ( )} = esT f ( )es d
0

La integral corresponde a la transformada de Laplace de f , en d


onde la variable
en la que se calcula se ha denominado ahora en lugar de t, es decir

L {f ( )} = esT F (s)

A.2. Propiedades de la transformada Z


La transformada Z de una funci on f (k) f : Z R es una funci
on F (z)
F : C C calculada como

X
F (z) = Z {f (k)} = z k f (k) (A.13)
k=0

Sean f (k), f1 (k), f2 (k) tres funciones cuyas Transformadas Z son, respec-
tivamente F (z), F1 (z), F2 (z) y a un escalar (real o complejo). Se cumplen las
siguientes propiedades:

215
OSCAR G. DUARTE

A.2.1. Linealidad:

Z {f1 (k) + f2 (k)} = F1 (z) + F2 (z) (A.14)

Z {af (k)} = aF (z) (A.15)

Demostraci on A.9 La propiedad de Linealidad de la Trasformada Z se desprende


de la propiedad de Linealidad de la sumatoria. Demostramos primero la propiedad
de superposici
on (A.14).
La Transformada de Z f1 (k) + f2 (k) es, seg
un la definici
on (A.13):

X
Z {f1 (k) + f2 (k)} = z k [f1 (k) + f2 (k)]
k=0

Debido a que la sumatoria es una operaci


on lineal, podemos separarla en la suma
de dos sumatorias:

X
X
Z {f1 (k) + f2 (k)} = z k f1 (k) + z k f2 (k)
k=0 k=0

Las dos integrales corresponden a las transformadas Z de f 1 (k) y f2 (k), res-


pectivamente, con lo que queda demostrada (A.14)

Z {f1 (k) + f2 (k)} = F1 (z) + F2 (z)

Para demostrar A.15 tambien acudimos a la propiedad de linealidad de la suma-


toria. La Transformada Z de af (k) es

X
X
Z {af (k)} = z k [af (k)] = a z k [f (k)] = aF (z)
k=0 k=0

A.2.2. Diferencia positiva:

Z {f (k + 1)} = zF (z) zf (0) (A.16)

n1
X
Z {f (k + n)} = z n F (z) z ni f (i) (A.17)
i=0

Demostraci on A.10 Para demostrar A.16 calculamos la Transformada Z de la


diferencia f (k + 1)

X
Z {f (k + 1)} = z k f (k + 1) = z 0 f (1) + z 1 f (2) + z 2 f (3) +
k=0

216
A.2. PROPIEDADES DE LA TRANSFORMADA Z

Si dividimos a cada lado de la ecuaci


on por z tenemos
z 1 Z {f (k + 1)} = z 1 f (1) + z 2 f (2) + z 3 f (3) +
on z 0f (0) = f (0)
Si sumamos a cada lado de la ecuaci

X
z 1 Z {f (k + 1)} + f (0) = z 0 f (0) + z 1 f (1) + z 2 f (2) + = z k f (k)
k=0

La sumatoria resulta ser la Transformada Z de f (k), es decir


z 1 Z {f (k + 1)} + f (0) = F (z)
De donde se deduce que

z 1 Z {f (k + 1)} = F (z) f (0)


Z {f (k + 1)} = zF (z) zf (0)
Esto concluye la demostraci
on de (A.16).
Para demostrar (A.17) calculamos la Transformada Z de f (k + n)

X
Z {f (k + n)} = z k f (k + n) = z 0 f (n) + z 1 f (n + 1) + z 2 f (n + 2) +
k=0

on por z n tenemos
Si dividimos a cada lado de la ecuaci
z n Z {f (k + n)} = z n f (n) + z n1 f (n + 1) + z n2 f (n + 2) +
on z 0 f (0)+z 1f (1)+ +z n+1f (n1)
Si sumamos a cada lado de la ecuaci

z n Z {f (k + n)} + z 0 f (0) + z 1 f (1) + + z n1 f (n + 1) =


z 0 f (0) + z 1 f (1) + + z n+1 f (n 1)+
z n f (n) + z n1 f (n + 1) + z n2 f (n + 2) +

X
= z k f (k)
k=0

La sumatoria resulta ser la Transformada Z de f (k), es decir


z n Z {f (k + n)} + f (0) + z 1 f (1) + + z n+1 f (n 1) = F (z)
De donde se deduce que

z n Z {f (k + n)} = F (z) f (0) z 1 f (1) z n+1 f (n 1)


Z {f (k + n)} = z n F (z) z n f (0) z n1 f (1) z 1 f (n 1)
n1
X
Z {f (k + n)} = z n F (z) z ni f (i)
i=0
Esto concluye la demostraci
on de (A.17).

217
OSCAR G. DUARTE

A.2.3. Escalamiento en la frecuencia:



Z ak f (t) = F (z/a) (A.18)

on A.11 La Transformada Z de ak f (k) es


Demostraci
 k
 X X z
Z ak f (k) = z k [ak f (k)]dt = f (k)
a
k=0 k=0

on de la Transformada Z (A.13), pero evaluada


La integral corresponde a la definici
en z/a en lugar de z, es decir

Z ak f (t) = F (z/a)

A.2.4. Multiplicaci
on por k:

d
Z {kf (k)} = z {F (z)} (A.19)
dz
d n o
Z {k n f (k)} = z Z k (n1) f (k) (A.20)
dz
Demostraci
on A.12 Para demostrar (A.19) calculamos la derivada de F (z) res-
pecto a z ( )
dF (z) d X k
= z f (k)
dz dz
k=0

dF (z) X
= (k)z k1 f (k)
dz
k=0
Multiplicando por z a cada lado de la ecuaci
on se tiene

dF (z) X
z = z k kf (k)
dz
k=0

La sumatoria corresponde a la Transformada Z de kf (k), lo que completa la


demostraci
on de (A.19)
Para demostrar (A.20) definamos una funci on g(k) = k (n1) f (k) y apliquemos
(A.19)
d
Z {kg(k)} = z {G(z)}
dz
n o d
Z k[k (n1) f (k)] = z {Z {g(k)}}
dz
d n n (n1) oo
Z {k n f (k)]} = z Z k f (k)
dz
Lo que completa la demostraci on de (A.20)

218
A.2. PROPIEDADES DE LA TRANSFORMADA Z

A.2.5. Teorema de valor inicial:

f (0) = lm F (z) (A.21)


z

Demostracion A.13 La demostraci


on de (A.21) se desprende de la definici
on de
transformada Z (A.13)
X
F (z) = z k f (k)
k=0
0
F (z) = z f (0) + z 1 f (1) + z 2 f (2) +
F (z) = f (0) + z 1 f (1) + z 2 f (2) +
Cuando z cada uno de los terminos de la derecha se hace cero, salvo f (0)
lo que completa la demostraci
on

lm F (z) = f (0)
z

A.2.6. Teorema de valor final:

lm f (k) = lm (z 1)F (z) (A.22)


k z1

Demostraci on A.14 Para demostrar (A.22) calculemos la transformada Z de la


on f (k + 1) f (k) y apliquemos la propiedad de diferencia positiva (A.16)
expresi

X
Z {f (k + 1) f (k)} = [f (k + 1) f (k)] z k
k=0

j
X
zF (z) zf (0) F (z) = lm [f (k + 1) f (k)] z k
j
k=0

j
X
(z 1)F (z) zf (0) = lm [f (k + 1) f (k)] z k
j
k=0

Al tomar el lmite cuando z 1 se obtiene


j
X
lm (z 1)F (z) f (0) = lm [f (k + 1) f (k)]
z1 j
k=0

lm (z 1)F (z) f (0) =


z1
lm [f (1) f (0) + f (2) f (1) + + f (j) f (j 1) + f (j + 1) f (j)]
j

219
OSCAR G. DUARTE

lm (z 1)F (z) f (0) = lm [f (0) + f (j + 1)]


z1 j

Como f (0) es independiente de j puede salir del lmite, con lo que se completa
la demostraci
on
lm (z 1)F (z) f (0) = f (0) + lm f (j + 1)
z1 j

lm (z 1)F (z) = lm f (j + 1) = lm f (j)


z1 j j

A.2.7. Convoluci
on:

Z {f1 (k) f2 (k)}


P = F1 (z)F2 (z) (A.23)
f1 (k) f2 (k) = k=0 f1 (k)f2 (h k)
Demostraci on A.15 Para demostrar (A.23) calculemos la transformada Z de la
convoluci
on entre f1 (k) y f2 (k):
( )
X
Z {f1 (k) f2 (k)} = Z f1 (k)f2 (h k)
k=0

" #
X X
Z {f1 (k) f2 (k)} = f1 (k)f2 (h k) z h
h=0 k=0
Podemos intercambiar el orden de las sumatorias y reagrupar los terminos:

X
X
Z {f1 (k) f2 (k)} = f1 (k) f2 (h k)z h
k=0 h=0

Efectuamos el cambio de variable r = h k que implica h = r + k



X
X
Z {f1 (k) f2 (k)} = f1 (k) f2 (r)z r z k
k=0 r=k

X
X
Z {f1 (k) f2 (k)} = f1 (k)z k f2 (r)z r
k=0 r=k
"
#"
#
X X
k r
Z {f1 (k) f2 (k)} = f1 (k)z f2 (r)z
k=0 r=k

Si consideramos solo funciones f (k) que valgan cero para valores negativos de k
podemos cambiar los lmites de la sumatoria, con lo que se completa la demostraci
on
" #" #
X X
Z {f1 (k) f2 (k)} = f1 (k)z k f2 (r)z r
k=0 r=0

Z {f1 (k) f2 (k)} = F1 (z)F2 (z)

220
A.3. PAREJAS DE TRANSFORMADAS DE LAPLACE

A.3. Parejas de transformadas de Laplace


A.3.1. Escal
on unitario
Sea 
1 si t 0
f1 (t) = (t) =
0 si t < 0
La transformada de Laplace de f1 (t) sera
Z Z
st st est es es0
L {(t)} = e (t)dt = e dt = =
0 0 s 0 s s

1 1
L {(t)} = 0 ( )= (A.24)
s s

A.3.2. Exponenciales
Sea f2 (t) = eat (t). Para obtener la transformada de Laplace de f2 (t) apli-
camos la propiedad de desplazamiento en la frecuencia (A.6) a la transformada
del escal
on (A.24)

 at 1 1
L e (t) = L {(t)}sa = = (A.25)
s sa sa

A.3.3. Sinusoides
Seno
Sea f3 (t) = sin (t)(t). Para obtener la transformada de Laplace de f3 (t)
empleamos la Formula de Euler para reescribir la funci
on:

ejt ejt
f3 (t) = sin (t)(t) = (t)
2j
Al aplicar la transformada de Laplace a cada lado de la igualdad resulta
 jt 
e ejt 1   jt  
L {sin (t)(t)} = L (t) = L e (t) L ejt (t)
2j 2j
Cada una de las dos transformadas de Laplace pueden obtenerse empleando
A.25:  
1 1 1
L {sin (t)(t)} =
2j s j s + j
Al efectuar la suma se obtiene
   
1 s + j s + j 1 2j
L {sin (t)(t)} = =
2j s2 + 2 2j s2 + 2

L {sin (t)(t)} = (A.26)
s2 + 2

221
OSCAR G. DUARTE

Coseno
Sea f4 (t) = cos t. Para obtener la transformada de Laplace de f4 (t) podria-
mos emplear la formula de Euler; sin embargo, optamos por otra posibilidad:
empleamos la propiedad de diferenciciaci on (A.4) y la aplicamos a la transfor-
mada de sin t, (A.26):
1 d
f4 (t) = cos t = sin t
dt
 
1 d
L {cos (t)(t)} = L sin (t)(t)
dt
1
L {cos (t)(t)} = [sL{sin (t)(t)} sin t|t=0 ]

 
1
L {cos (t)(t)} = s 2 sin 0
s + 2
s
L {cos (t)(t)} = (A.27)
s2 + 2

A.3.4. Sinusoides amortiguadas


Sean f5 (t) = eat sin (t)(t) y f6 (t) = eat cos (t)(t) . Para obtener la trans-
formada de Laplace de f5 (t) y f6 (t) aplicamos la propiedad de desplazamiento
en la frecuencia (A.6) a las transformadas de seno y coseno (A.26) y (A.27):

L eat sin (t)(t) = (A.28)
(s a)2 + 2
 sa
L eat cos (t)(t) = (A.29)
(s a)2 + 2

A.3.5. Rampas, par


abolas y monomios de t
Sea f7 (t) = tn (t). Para calcular la transformada de Laplace de f7 (t) apli-
camos la propiedad de multiplicaci on por el tiempo (A.8) a la transformada del
escal
on unitario (A.24).
 
dn 1 n!
L {f7 (t) = tn (t)} = (1)n n = n+1 (A.30)
ds s s
Para los casos particulares en que n = 1 y n = 2, la funci on tn (t) se
convierte en las funciones rampa y par
abola unitarias, respectivamente:
1
L {f8 (t) = t(t)} = (A.31)
s2
 2
L f9 (t) = t2 (t) = 3 (A.32)
s

222
A.4. PAREJAS DE TRANSFORMADAS Z

A.3.6. Exponenciales por tn


Sea f10 (t) = tn eat (t). Para calcular la Transformada de Laplace de f10 (t)
aplicamos la propiedad de desplazamiento en la frecuencia (A.6) a la transfor-
mada del tn (t) (A.30)
 n!
L f10 (t) = tn eat (t) = (A.33)
(s a)n+1

A.3.7. Sinusoides por t


Sea f11 (t) = t sin (t)(t). Para calcular la Transformada de Laplace de
f11 (t) aplicamos la propiedad de multiplicacion por el tiempo (A.7) a la trans-
formada de sin(t)(t) (A.26)
 
d s
L {t sin (t)(t)} = 2 2
= 2 (A.34)
ds s + (s + 2 )2
Sea f12 (t) = t cos (t)(t). Para calcular la Transformada de Laplace de
f12 (t) aplicamos la propiedad de multiplicaci
on por el tiempo (A.7) a la trans-
formada de cos(t)(t) (A.27)
 
d s s2 2
L {t cos (t)(t)} = = (A.35)
ds s2 + 2 (s2 + 2 )2

A.3.8. Sinusoides amortiguadas multiplicadas por t


Sea f13 (t) = teat sin (t)(t). Para calcular la Transformada de Laplace de
f13 (t) aplicamos la propiedad de desplazamiento en la frecuencia (A.6) a la
transformada de t sin(t)(t) (A.34)
 (s a)
L teat sin (t)(t) = (A.36)
((s a)2 + 2 )2
Sea f14 (t) = teat cos (t)(t). Para calcular la Transformada de Laplace de
f14 (t) aplicamos la propiedad de desplazamiento en la frecuencia (A.6) a la
transformada de t cos(t)(t) (A.35)
 (s a)2 2
L teat cos (t)(t) = (A.37)
((s a)2 + 2 )2

A.4. Parejas de transformadas Z


A.4.1. Escal
on unitario
Sea 
1 si k 0
f1 (k) = (k) =
0 si k < 0

223
OSCAR G. DUARTE

La transformada Z de f1 (k) ser


a

X
X
X
Z {(k)} = z k (k) = (z 1 )k (k) = (z 1 )k
k=0 k=0 k=0
P 1
La sumatoria puede calcularse recordando que k=0 ak = 1a (siempre y
cuando la serie converja, es decir, con |a| < 1)

1 z
Z {(k)} = = (A.38)
1 z 1 z1

A.4.2. Series geom


etricas
Sea f2 (k) = ak (k). Para obtener la transformada Z de f2 (k) aplicamos la
propiedad de escalamiento en la frecuencia (A.18) a la transformada del escal
on
(A.38)


 k
z z/a z
Z a (k) = Z {(k)}z/a = = = (A.39)
z 1 z/a z/a 1 za

A.4.3. Sinusoides
Seno
Sea f3 (k) = sin (ak)(k). Para obtener la transformada Z de f3 (k) emplea-
mos la F
ormula de Euler para reescribir la funci
on:

ejak ejak (eja )k (eja )k


f3 (k) = sin (ak)(k) = (k) = (k)
2j 2j

Al aplicar la transformada Z a cada lado de la igualdad resulta


 ja k 
(e ) (eja )k
Z {sin (ak)(k)} = Z (k) =
2j

1   ja k  
Z {sin (ak)(k)} = Z (e ) (k) Z (eja )k (k)
2j
Cada una de las dos transformadas Z pueden obtenerse empleando A.39:
 
1 z z
Z {sin (ak)(a)} =
2j z eja z eja

Al efectuar la suma se obtiene


 
1 z 2 zeja z 2 + zeja
Z {sin (ak)(a)} = =
2j z 2 zeja zeja + eja eja

224
A.4. PAREJAS DE TRANSFORMADAS Z

" ja
eja
#
ze 2j
Z {sin (ak)(a)} = eja +eja
z2 2z 2 +1

Las fracciones que contienen exponenciales complejas pueden reescribirse


empleando la f
ormula de Euler:

z sin a
Z {sin (ak)(a)} = (A.40)
z2 2z cos a + 1

Coseno

Sea f4 (k) = cos (ak)(k). Para obtener la transformada Z de f4 (k) emplea-


mos la F
ormula de Euler para reescribir la funci
on:

ejak + ejak (eja )k + (eja )k


f4 (k) = cos (ak)(k) = (k) = (k)
2 2

Al aplicar la transformada Z a cada lado de la igualdad resulta


 
(eja )k + (eja )k
Z {cos (ak)(k)} = Z (k) =
2

1   ja k  
Z {cos (ak)(k)} = Z (e ) (k) + Z (eja )k (k)
2
Cada una de las dos transformadas Z pueden obtenerse empleando A.39:
 
1 z z
Z {cos (ak)(a)} = +
2 z eja z eja

Al efectuar la suma se obtiene


 
1 z s zeja + z 2 zeja
Z {cos (ak)(a)} = =
2 z 2 zeja zeja + eja eja

" ja
#
+eja
z2 z e 2
Z {cos (ak)(a)} = ja ja
z2 2z e +e2 + 1

Las fracciones que contienen exponenciales complejas pueden reescribirse


empleando la f
ormula de Euler:

z 2 z cos a
Z {cos (ak)(a)} = (A.41)
z 2 2z cos a + 1

225
OSCAR G. DUARTE

A.4.4. Sinusoides amortiguadas


Sean f5 (k) = bk sin (ak)(k) y f6 (k) = bk cos (ak)(k). Para obtener la
transformada Z de f5 (k) y f6 (k) aplicamos la propiedad de escalamiento en
la frecuencia (A.18) a las transformadas de seno y coseno (A.40) y (A.41):

z
 sin a zb sin a
Z bk sin (ak)(k) = b
= 2 (A.42)
( zb )2 2 zb cos a + 1 z 2b cos a + b2

z 2

 k
b zb cos a z 2 zb cos a
Z b cos (ak)(k) = = (A.43)
( zb )2 2 zb cos a + 1 z 2 2b cos a + b2

A.4.5. Rampas, y monomios de k


Sea f7 (k) = k(k). Para calcular la transformada Z de f7 (k) aplicamos la
propiedad de multiplicaci
on por el tiempo (A.19) a la transformada del escal
on
unitario (A.38).
 
d z (z 1) z
Z {k(k)} = z = z
dz z 1 (z 1)2

z
Z {k(k)} = (A.44)
(z 1)2

Para obtener la transformada Z de k n (k) es necesario aplicar en forma


iterativa la propiedad de multiplicaci
on por el tiempo (A.19).

A.4.6. etricas por k n


Series geom
Sea f8 (k) = kak (k). Para calcular la transformada Z de f8 (k) aplicamos la
propiedad de multiplicacion por el tiempo (A.19) a la transformada de las series
geometricas (A.39).
 
 d z (z a) z
Z kak (k) = z = z
dz z a (z a)2

az
Z {k(t)} = (A.45)
(z a)2

Para obtener la transformada Z de k n ak (k) es necesario aplicar en forma


iterativa la propiedad de multiplicaci
on por el tiempo (A.19)

226
A.4. PAREJAS DE TRANSFORMADAS Z

A.4.7. Sinusoides por k


Seno
Sea f9 (k) = k sin(ak)(k). Para calcular la transformada Z de f9 (k) aplica-
mos la propiedad de multiplicacion por el tiempo (A.19) a la transformada de
seno (A.40).
 
d sin a
Z {k sin(ak)(k)} = z =
dz z 2 2z cos a + 1

Z {k sin(ak)(k)} =
(z 2 2z cos a + 1) sin a z sin a(2z 2 cos a)
z
(z 2 2z cos a + 1)2

Z {k sin(ak)(k)} =
z 2 sin a 2z cos a sin a + sin a 2z 2 sin a + 2z sin a cos a
z
(z 2 2z cos a + 1)2

z 3 sin a + z sin a
Z {k sin(ak)(k)} = (A.46)
(z 2 2z cos a + 1)2
Para obtener la transformada Z de k n sin(ak)(k) es necesario aplicar en
forma iterativa la propiedad de multiplicaci
on por el tiempo (A.19).

Coseno
Sea f10 (k) = k sin(ak)(k). Para calcular la transformada Z de f10 (k) apli-
camos la propiedad de multiplicaci
on por el tiempo (A.19) a la transformada de
coseno (A.41).
 
d z 2 z cos a
Z {k cos(ak)(k)} = z =
dz z 2 2z cos a + 1

Z {k cos(ak)(k)} =
(z 2 2z cos a + 1)(2z cos)a (z 2 z cos a)(2z 2 cos a)
z
(z 2 2z cos a + 1)2

Z {k cos(ak)(k)} =
 3 
2z z 2 cos a 4z 2 cos a + 2z cos2 a + 2z cos a
2z 3 + 2z 2 cos a + 2z 2 cos a 2z cos2 a
z
(z 2 2z cos a + 1)2

227
OSCAR G. DUARTE

(z 2 1) cos a + 2z
Z {k cos(ak)(k)} = z
(z 2 2z cos a + 1)2

(z 3 + z) cos a 2z 2
Z {k cos(ak)(k)} = (A.47)
(z 2 2z cos a + 1)2
Para obtener la transformada Z de k n cos(ak)(k) es necesario aplicar en
forma iterativa la propiedad de multiplicaci
on por el tiempo (A.19).

A.4.8. Sinusoides amortiguadas por k


Sean f11 (k) = kbk sin (ak)(k) y f12 (k) = kbk cos (ak)(k). Para calcular la
Transformada Z de f11 (k) y f12 (k) aplicamos la propiedad de escalamiento en la
frecuencia (A.18) a las transformadas de k sin(ak)(k), (A.46) y k cos(ak)(k),
(A.47)
 (z/b)3 sin a + (z/b) sin a
Z kbk sin (ak)(k) =
((z/b)2 2(z/b) cos a + 1)2
 bz 3 sin a + b3 z sin a
Z kbk sin (ak)(k) = 2 (A.48)
(z 2bz cos a + b2 )2
 ((z/b)3 + (z/b)) cos a 2(z/b)2
Z kbk cos (ak)(k) =
((z/b)2 2(z/b) cos a + 1)2
 (bz 3 + b3 z) cos a 2b2 z 2
Z kbk cos (ak)(k) = (A.49)
(z 2 2bz cos a + b2 )2
Para obtener las transformadas Z de k n bk sin(ak)(k) y k n bk cos(ak)(k)es
necesario aplicar en forma iterativa la propiedad de multiplicaci
on por el tiempo
(A.19).

228
Apendice B

Diagramas de Bode para sistemas


continuos

B.1. Definici
on
El valor de una funci
on de transferencia F (s), para un s especfico, es un
numero complejo cuya amplitud es |F (s)| y cuyo a ngulo es arg {F (s)}. Los
diagramas de Bode para sistemas continuos muestran c omo vara la amplitud y
el a
ngulo de ese n
umero complejo, cuando s toma todos los posibles valores del
eje imaginario positivo (s = j; w (0, )). Especficamente se definen los
siguientes diagramas:

Diagrama de magnitud:

La abscisa (eje horizontal) muestra el valor de en escala logartmica.


La ordenada (eje vertical) muestra la magnitud de F (j) medida en
decibeles:
|F (j)|en db = 20 log10 |F (j)|

Diagrama de fase:

La abscisa (eje horizontal) muestra el valor de en escala logartmica.


La ordenada (eje vertical) muestra el a
ngulo de F (j) medida en
grados o radianes.

229
OSCAR G. DUARTE

B.2. Construcci
on de los diagramas de Bode
Debido a las escalas empleadas en los diagramas de Bode, estos pueden ser
construidos en forma aproximada mediante trazos rectos. La figura B.1 muestra
los diagramas de Bode aproximados para funciones sencillas de orden 1.
La figura B.2 muestra los diagramas de bode para funciones de orden 2; en
estos casos, las aproximaciones pueden ser bastante lejanas de los diagramas
exactos, dependiendo del factor de amortiguamiento . Por esta raz on se han
trazado los diagramas exactos para una funci on de segundo orden (para el primer
caso de la figura B.2), en las figuras B.3 y B.4
Para funciones de transferencia m as sofisticadas que las de las figuras B.1 y
B.2 se descompone la funci on de trasferencia como productos de terminos m as
sencillas, se trazan los diagramas de bode estas de funciones y luego se suman
punto a punto para obtener los diagramas de la funci on original

Ejemplo B.1 Considerese la funci


on de transferencia

(s + 10)
F (s) =
(s + 1)(s + 100)

Esta funci
on puede descomponerse como el producto de cuatro funciones de
transfenecia mas sencillas:
s + 10 1 100 1
F (s) =
10 s + 1 s + 100 10
| {z } | {z } | {z } |{z}
FA (s) FB (s) FC (s) FD (s)

Cada una de las funciones FA (s), FB (s), FC (s) y FD (s) son de la forma que se
muestra en las figuras B.1 y B.2. Pueden trazarse los diagramas de bode aproximados
de estas funciones, y luego sumarlos punto a punto para obtener los diagramas de
F (s)

230

B.2. CONSTRUCCION DE LOS DIAGRAMAS DE BODE

F (s) |F (jw)| arg F (jw)


2
K>0
2


K<0


20db/dc 2
s
1
2


2
1 1
s
20db/dc 2


20db/dc 2
s+a
a a>0 a a a 10a
2 10


2 a
a
a>0 a 10 a 10a
s+a
20db/dc 2


20db/dc 2 a
sa
a>0 10 a 10a
a a
2


2
a
a>0 a
sa a a 10a
20db/dc 2 10

Figura B.1: Resumen de los diagramas de Bode aproximados para sistemas


continuos de primer orden (los cuatro primeros casos son exactos)

231
OSCAR G. DUARTE

F (s) |F (jw)| arg F (jw)



2 n
2
n 10 n 10n
s2 +2n s+n
2
n 2
n > 0
40db/dc



2 2
n
s2 +2n s+n
2
n
n n 10n
2 10
n < 0
40db/dc

40db/dc


n 2
s2 +2n s+n
2
2
n n n 10n
2 10
n > 0

40db/dc


n 2 n
n 10n
s2 +2n s+n
2
10
2
n
2
n < 0

Figura B.2: Resumen de los diagramas de Bode aproximados para sistemas


continuos de segundo orden

232

B.2. CONSTRUCCION DE LOS DIAGRAMAS DE BODE

Diagrama de Bode de magnitud


|F(jw)|
20

10

10

20
: = 0.01
: = 0.1
: = 0.3
30
: = 0.5
: = 1.0 w/wn

40
1 0 1
10 10 10
0.01 0.5
0.1 1.0
0.3

Figura B.3: Diagrama de Bode de magnitud para un sistema continuo de segundo


orden con distintos factores de amortiguamiento

233
OSCAR G. DUARTE

Diagrama de Bode de fase


ang(F(jw))
0

30

60

90

120
: = 0.01
: = 0.1
: = 0.3
150
: = 0.5
: = 1.0 w/wn

180
1 0 1
10 10 10
0.01 0.5
0.1 1.0
0.3

Figura B.4: Diagrama de Bode de fase para un sistema continuo de segundo orden
con distintos factores de amortiguamiento

234
Apendice C

Carta de Nichols

Sup
ongase la funci
on de transferencia (C.1), que corresponde a un sistema
realimentado simple con realimentacion unitaria,
G(s)
F (s) = (C.1)
1 + G(s)
Al evaluar F (s) en s = j la ecuaci
on (C.1) se convierte en

G(j)
F (j) = (C.2)
1 + G(j)
Podemos calcular la magnitud y el a
ngulo de F (j), a partir de la parte real
y la parte imaginaria de G(j):

G(j) = X + jY (C.3)

Al remplazar (C.3) en (C.2) se obtiene


X + jY
F (j) = (C.4)
1 + X + jY
La magnitud de F (j) ser
a

X2 + Y 2
M = |F (j)| = p (C.5)
(1 + X)2 + Y 2

El a
ngulo de F (j) ser
a
   
Y Y
= arg F (j) = tan1 tan1 (C.6)
X (1 + X)

235
OSCAR G. DUARTE

La tangente del a
ngulo de F (j) ser
a

N = tan() = tan (arg F (j)) (C.7)


En las secciones C.1 y C.2 se muestra como (C.5) y (C.7) corresponden a las
ecuaciones de unas circunferencias, para M y N constantes.

C.1. M -circunferencias
Al elevar al cuadrado la ecuaci
on (C.5) se tiene

X2 + Y 2 X2 + Y 2
M2 = = (C.8)
(1 + X)2 + Y 2 1 + 2X + X 2 + Y 2

Que puede reescribirse como

M 2 + 2XM 2 + X 2 M 2 + Y 2 M 2 = X 2 + Y 2
X 2 (1 M 2 ) 2M 2 X M 2 + (1 M 2 )Y 2 = 0

2M 2 M2
X2 + 2
X+ +Y2 =0 (C.9)
(M 1) (M 2 1)
La ecuaci
on C.9 es una cuadr
atica, y para analizarla completamos el cua-
drado en X:

2M 2 M4 M4 M2
X2 + X + + Y 2
= =
(M 2 1) (M 2 1)2 (M 2 1)2 (M 2 1)
M 4 M 2 (M 2 1)
(C.10)
(M 2 1)2

 2  2
M2 M2 M
X+ +Y2 = = (C.11)
(M 2 1) (M 2 1)2 (M 2 1)

 La ecuaci
2
on (C.11) corresponde a la de una circunferencia con centro en
(MM2 1) , 0 y radio (MM 2 1) . Estas circunferencias se conocen como las M-

circunferencias.

C.2. N -circunferencias
Empleando (C.6) y la identidad trigonometrica

tan A tan B
tan A B =
1 + tan A tan B
la ecuaci
on (C.7) se convierte en

236
C.3. CARTA DE NICHOLS

Y Y
X 1+X
N= Y Y
1+ X 1+X

que puede reescribirse como


Y +XY XY
X(1+X) Y + XY XY
N= X+X 2 +Y 2
=
X(1+X)
X + X2 + Y 2

Y
X2 + X + Y 2 =0 (C.12)
N
La ecuaci
on (C.12) corresponde a una cuadr
atica y para analizarla comple-
tamos los cuadrados en X y en Y

 2  2
1 Y 1 1 1 N2 + 1
X2 + X + +Y2 + = + = (C.13)
4 N 2N 4 2N 4N 2
 2  2
1 1 N2 + 1
X+ + Y = (C.14)
2 2N 4N 2
La ecuaci
 on (C.14) corresponde a la de una circunferencia con centro en
1
21 , 2N 1
y radio 2N N 2 + 1. Estas circunferencias se conocen como las N-
circunferencias.

C.3. Carta de Nichols


Las ecuaciones (C.11) y (C.14) muestran que en un plano que tenga por ejes
X y Y , es decir la parte real y la parte imaginaria de G(j), el lugar geometrico
de las magnitudes y a ngulos de F (j) constantes son las M-circunferencias y
N-circunferencias respectivamente.
En la figura C.1 se muestran algunas de estas circunferencias, para unos
valores especficos de la magnitud y el a ngulo de F (j). Esta figura se conoce
como la Carta de Nichols en coordenadas rectangulares. La principal utilidad de
esta carta es la de poder determinar en forma gr afica el valor de F (j) a partir
de G(j), es decir, calcular de forma gr afica la ecuacion (C.2).
Sin embargo, resulta m as sencillo conocer la magnitud y el a ngulo de G(j)
que sus partes real e imaginaria, empleando para ello los diagramas de Bode; por
esta razon se propone trabajar con la carta de Nichols en coordenadas polares
que se muestra en la figura C.2, cuyos ejes corersponden a la magnitud y a ngulo
de G(j). En estos ejes las M-circunferencias y N-circunferencias se distorsionan,
y pierden su forma de circunferencia.

237
OSCAR G. DUARTE

3.0

Im{G(j)}
2.4

30o
1.8

1.2
60o

0.6 2db 90o

3db 5db 5db 3db 2db


0.0

0.6 90o
60o
1.2

1.8
30o

2.4

Re{G(j)}
3.0
4.80 3.84 2.88 1.92 0.96 0.00 0.96 1.92 2.88 3.84 4.80

:|F (j)|en db :arg{F (j)}

Figura C.1: Diagrama de Nichols en coordenadas rectangulares

20

|G(j)|en db
16
2db
12 2db

3db
8
3db 5db
4
5db

12

16
30o 60o 90o 90o 60o 30o
20
0 36 72 108 144 180 216 252 288 324 360

arg{G(j)}
:|F (j)|en db :arg{F (j)}

Figura C.2: Diagrama de Nichols en coordenadas polares

238
Apendice D

Apuntes de algebra lineal

D.1. Espacios vectoriales


D.1.1. Estructuras algebr
aicas b
asicas
Definici
on D.1 Grupo
Un conjunto dotado de una operaci on binaria tiene estructura de grupo si la
operaci
on satisface las siguientes propiedades:

G.1 Clausurativa (Cerradura): x, y x y

G.2 Asociativa: x, y, z (x y) z = x (y z)

G.3 Modulativa: 0 | x x 0 = x

G.4 Invertiva: x (x) | x (x) = 0

Definici
on D.2 Grupo conmutativo
Un conjunto dotado de una operaci on binaria tiene estructura de grupo con-
mutativo o grupo abeliano si la operaci
on satisface las propiedades de grupo y:

G.5 Conmutativa: x, y x y = y x

Ejemplo D.1 El conjunto = {a, b, c} dotado con la operaci


on descrita en la
tabla
a b c
a a b c
b b c a
c c a b

239
OSCAR G. DUARTE

odulo 0 de es el
tiene estructura algebraica de grupo conmutativo, en donde el m
elemento a
Ejemplo D.2 El conjunto = {0, 1} dotado con la operaci on suma usual no tiene
estructura de grupo porque no se satisface la propiedad clausurativa (1+1 = 2 6 ).
Sin embargo, con la operacion descrita en la tabla s tiene estructura de grupo
0 1
0 1 0
1 0 1
Definicion D.3 Anillo
Un conjunto dotado de dos operaciones binarias y tiene estructura de anillo
si las operaciones satisfacen las siguientes propiedades.
on
Para la operaci
R.1 Clausurativa: x, y x y
R.2 Asociativa: x, y, z (x y) z = x (y z)
R.3 Modulativa: 0 | x x 0 = x
R.4 Invertiva: x (x) | x (x) = 0
R.5 Conmutativa: x, y x y = y x
on
Para la operaci
R.6 Clausurativa: x, y x y
R.7 Asociativa: x, y, z (x y) z = x (y z)
Para las dos operaciones
R.8 Distributiva respecto a : x, y, z x (y z) = (x y) (x z)
Definicion D.4 Anillo modulativo (anillo con unidad)
Un conjunto dotado de dos operaciones binarias y tiene estructura de anillo
modulativo o de anillo con unidad si las operaciones satisfacen las propiedades de
on satisface:
anillo y ademas la operaci
R.9 Modulativa: 1 | x x 1 = 1 x = x
Definici
on D.5 Anillo conmutativo
Un conjunto dotado de dos operaciones binarias y tiene estructura de anillo
conmutativo si las operaciones satisfacen las propiedades de anillo y ademas la
on satisface:
operaci
R.10 Conmutativa: x, y x y = y x
Definicion D.6 Campo
Un conjunto dotado de dos operaciones binarias y tiene estructura de campo
si tiene estructura de anillo conmutativo con unidad.
Ejemplo D.3 Algunos de los campos mas conocidos son los reales R, los complejos
C y el conjunto de las funciones racionales de s con coeficientes reales R(s).

240
D.1. ESPACIOS VECTORIALES

D.1.2. Definici
on de espacio vectorial
Definicion D.7 espacio vectorial
Sea un conjunto y F : (, , ) un campo. A los elementos de se les denomina
vectores, y a los elementos de escalares. tiene estructura de espacio vectorial
sobre F si esta dotado de una operacion binaria + (suma vectorial) y una opera-
on entre elementos de y (producto por escalar) que cumplen las siguientes
ci
propiedades:
Para la suma vectorial

V.1 Clausurativa: x, y x + y

V.2 Asociativa: x, y, z (x + y) + z = x + (y + z)

V.3 Modulativa: 0 | x x + 0 = x

V.4 Invertiva: x (x) | x + (x) = 0

V.5 Conmutativa: x, y x + y = y + x

Para el producto por escalar

V.6 Clausurativa: x , x

V.7 Asociativa: x , , ( ) x = ( x)

V.8 Modulativa: x , 1 x = x. 1 es el m
odulo de

V.9 Anulativa: x , 0 x = 0.En donde 0 es el m


odulo de , y 0 es el m
odulo
de +

Para las dos operaciones

V.10 Distributiva respecto a +: x, y , (x + y) = ( x) + ( y)

V.11 Distributiva respecto a : x , , ( ) x = ( x) + ( x)

Ejemplo D.4 Uno de los espacios vectoriales mas conocidos, y que servira para
futuros ejemplos en este captulo es el formado por R 2 sobre el campo R con las
operaciones usuales. En general, Cn sobre el campo C con las operaciones usuales
forma un espacio vectorial.

Ejemplo D.5 El conjunto de todos los polinomios sobre el campo R con las ope-
raciones usuales entre polinomios forma un espacio vectorial.

Ejemplo D.6 El conjunto de todas las funciones contnuas a trozos sobre el campo
C con la operaci
on + definida como la suma punto a punto forma un espacio
vectorial.

241
OSCAR G. DUARTE

Ejemplo D.7 El conjunto de todas las matrices de tama no fijo m n sobre el


campo C con las operaciones usuales entre matrices forma un espacio vectorial.

Definici
on D.8 Subespacio
Sea V : (, +, , F) un espacio vectorial sobre F; sea un subconjunto de . Si
W : (, +, , F) forma un espacio vectorial sobre F se dice que W es un subespacio
de V .

Teorema D.1 Sea V : (, +, , F) un espacio vectorial sobre F; sea un subcon-


junto de . W : (, +, , F) es un subespacio de V si y s
olo si +, son cerradas en
.

Demostraci on D.1 Si +, son cerradas en se satisfacen V.1 y V.6. Las demas


propiedades contenidas en la definicion D.7 se satisfacen porque V : (, +, , F) es
un espacio vectorial; por lo tanto W (, +, , F) es un Espacio vectorial y de acuerdo
con la definici
on D.8, es un subespacio de V .

Ejemplo D.8 (R2 , R) es un subespacio de (R3 , R), ya que la suma y el producto


por escalar son operaciones cerradas en R2 . En general si n m se tiene que
(Rn , R) es un subespacio de (Rm , R)

Ejemplo D.9 Una lnea recta que cruce por el origen es un subsepacio de (R 2 , R),
ya que: i) la suma de dos vectores que esten sobre una misma recta da otro vector
sobre esa recta y ii) el producto por escalar de un vector da otro vector sobre la
misma recta.

Ejemplo D.10 El conjunto de los polinomios de orden 2, es un subespacio del


conjunto de los polinomios de orden 4 (con las operaciones usuales y sobre R), ya
que: i) la suma de dos polinomios de orden 2 da otro polinomio de orden 2 y ii) el
producto de un polinomio de orden 2 por un escalar da otro polinomio de orden 2.
Se entiende que un polinomio de orden n es un polinomio que no tiene monomios
de orden superior a n.

D.1.3. Bases
Definici on D.9 Combinaci on lineal
Sea V : (, F) un espacio vectorial. Sean x1 , x2 , , xn cualesquiera vectores y
1 , 2 , , n cualesquiera escalares de F denominados coeficientes. Una combi-
nacion lineal de x1 , x2 , , xn es la operaci
on
n
X
1 x1 + 2 x2 + + n xn = i xi
i=1

Definici
on D.10 Independencia lineal
Un conjunto de vectores {x1 , x2 , , xn } es linealmente independiente si la u
nica
combinacion lineal nula se obtiene con coeficientes nulos. Es decir, si

1 x1 + 2 x2 + + n xn = 0 1 = 2 = = n = 0

242
D.1. ESPACIOS VECTORIALES

Definicion D.11 Dimension


El maximo n
umero de vectores linealmente independientes en un espacio vectorial
V se denomina la dimensi
on de V .
Definici
on D.12 Conjunto generador
Dado un conjunto de vectores X = {x1 , x2 , , xn }; S es un Conjunto generado
por X si es el conjunto de todas las posibles combinaciones lineales de elementos
de X; se dice que X es un Conjunto generador de S y se denota por
( n
)
X
S = span(X) = y | 1 , 2 , , n y = i xi
i=1

Definicion D.13 Base de un espacio vectorial


Un conjunto de vectores B = {b1 , b2 , , bn } es una base del espacio vectorial
V : (, F) si B es linealmente independiente y genera a .
Teorema D.2 En un espacio vectorial V de dimensi on n, cualquier conjunto de n
vectores linealmente independientes es una base de V .
Demostraci on D.2 Sea A = {a1 , a2 , , an } un conjunto arbitrario de n vecto-
res linealmente independientes en V . Para demostrar que A es una base de V es
necesario demostrar que cubre a V , es decir, que cualquier elemento x de V puede
expresarse como una combinaci on lineal de los elementos de A.
Debido a que A tiene n elementos, el conjunto {x, a1 , a2 , , an } es linealmente
dependiente (tiene n+1 elementos y n es el maximo n umero de vectores linealmente
independientes) y por tanto existe una combinaci on lineal
0 x + 1 a 1 + 2 a 2 + + n a n = 0 (D.1)
con algunos de los i 6= 0. Es claro que 0 6= 0 por que de lo contrario se obtendra
1 a 1 + 2 a 2 + + n a n = 0 (D.2)
lo que implica que todos los i deberan ser cero ya que los elementos de A son
linealmente independientes (son una base). Como 0 6= 0 podemos despejar x
1 2 n
x= a1 + a2 + + an (D.3)
0 0 0
es decir, que existe una combinaci
on lineal de los elementos de A cuyo resultado es
x, y por lo tanto A genera el espacio vectorial V .
Definicion D.14 Coordenadas de un vector
Sea x un elemento del espacio vectorial V , y B = {b1 , b2 , , bn } una base de
V . Si x = 1 b1 + 2 b2 + + n bn se dice que las coordenadas de x en la base
B son los coeficientes de esa combinaci on lineal { 1 , 2 , , n }. Usualmente se
agrupan en un vector
1
2

= .
..
n

243
OSCAR G. DUARTE

Teorema D.3 Todo elemento x de un espacio vectorial V tiene unas u


nicas coor-
denadas en una determinada base B = {b1 , b2 , , bn }

Demostraci on D.3 Seg un la definici


on D.14 B genera a V y por lo tanto existe al
menos una combinaci on lineal de los elementos de B cuyo resultado es x, es decir,
existen al menos unas coordenadas de x en la base B.
Para demostrar que estas coordenadas son u nicas, supongamos que existen dos
juegos de coordenadas diferentes {1 , 2 , , n } y {1 , 2 , , n }. Seg
un la
definici
on D.14 se tiene

1 b 1 + 2 b2 + + n bn =x
1 b 1 + 2 b2 + + n bn =x
Al restar estas dos expresiones se obtiene

(1 1 )b1 + (2 2 )b2 + + (n n )bn = 0

De acuerdo con la definici on D.13, el conjunto B = {b 1 , b2 , , bn } es lineal-


mente independiente, y por lo tanto la u nica combinaci on lineal de sus elementos
que es nula es la que tiene todos sus coeficientes nulos, por lo tanto i = i para
i = 1, 2, , n lo que significa que los dos juegos de coordenadas deben ser iguales.

Teorema D.4 Al aumentar los elementos de una base el conjunto resultante es


linealmente dependiente.

Demostraci on D.4 Sea B = {b1 , b2 , , bn } una base de V y sea x un elemento


cualquiera de V . Debido a que B genera a V es posible encontrar i tales que

x = 1 b1 + 2 b2 + + n bn

y por tanto puede escribirse

1 b 1 + 2 b 2 + + n b n x = 0

Esta es una combinaci


on lineal nula con coeficientes no nulos (al menos el coeficiente
de x es 1) y por tanto el conjunto {b1 , b2 , , bn , x} es linealmente dependiente.

Teorema D.5 Todas las bases de un mismo espacio vectorial tienen el mismo n
u-
mero de elementos que coincide con la dimensi
on del espacio vectorial.

Demostraci on D.5 Por el teorema D.2 sabemos que pueden existir bases de tama-
n
o igual a la dimensi
on. Segun las definiciones D.11 y D.13 no puede haber bases
con un numero mayor de elementos, debido a que este conjunto sera linealmente
dependiente, por lo tanto s
olo es necesario probar que no puede haber bases con un
numero de elementos inferior a la dimension del espacio.
Sea V un espacio vectorial de dimensi on n. Supongamos dos bases B y A:

B = {b1 , b2 , , bn } A = {a1 , a2 , , ar }

244
D.1. ESPACIOS VECTORIALES

con r < n. Seg un el teorema D.4 el conjunto C1 = {b1 , a1 , a2 , , ar } es lineal-


mente dependiente y alguno de los elementos ai es una combinaci on lineal de los
otros elementos de C1 ; supongamos que este ai es justamente ar , (en caso de que
no lo sea, reorganizamos el conjunto y cambiamos los subndices).
El espacio cubierto por C1 es el mismo espacio cubierto por A y por {b1 , a1 , a2 ,
, ar1 }, por lo tanto el conjunto C2 = {b2 , b1 , a1 , a2 , , ar1 } es linealmente
dependiente; de nuevo podemos argumentar que alguno de los elementos a i es
una combinaci on lineal de los otros elementos de C 2 ; supongamos que este ai es
justamente ar1 .
Efectuando este procedimiento podemos construir en forma consecutiva C 3 , C4 ,
, Cr , todos los cuales seran conjuntos linealmente dependientes. Sin embargo,
Cr es
Cr = {br , br1 , , b2 , b1 }
que es un subconjunto de la base B y por lo tanto no puede ser linealmente de-
pendiente. De esta forma demostramos que r < n es una contradicci on. Como
consecuencia, todas las bases del espacio vectorial deben tener el mismo tama
no,
que coincide con la dimensi
on del espacio.

Ejemplo D.11 Cualquier pareja de vectores no paralelos en el plano es una base


del espacio vectorial R2

Ejemplo D.12 El conjunto formado por los polinomios {1, t, t 2 , t3 } forma una base
del espacio vectorial de los polinomios de orden 3.

Ejemplo D.13 El espacio vectorial de todos los polinomios tiene dimensi on infinita.
Una base de ese espacio es la formada por los polinomios {1, t, t 2 , t3 , }

D.1.4. Cambio de base


Sean A = {a1 , a2 , , an } y B = {b1 , b2 , , bn } dos bases del mismo espacio
vectorial V de dimensi on n. Definimos las matrices A y B como las matrices
que tienen en sus columnas cada uno de los elementos de las bases A y B
respectivamente:  
A = a1 a2 an
 
B = b1 b2 bn
Un vector x tendr
a coordenadas i en la base A y i en la base B, de tal manera
que
x = 1 a1 + 2 a2 + + n an
(D.4)
x = 1 b1 + 2 b2 + + n bn
Definimos los vectores columna y que contienen las coordenadas:

1 1
2 2

= . = .
.. ..
n n

245
OSCAR G. DUARTE

de tal manera que podemos reescribir (D.4) como



1
 2

x = a1 a2 an . = A
..
n

1
2


x = b1 b2 bn . = B
..
n
Igualando estas dos expresiones se encuentran las expresiones que permiten
encontrar las coordenadas de x en una base a partir de sus coordenadas en la
otra:
A = B = A1 B = B1 A (D.5)
En caso de que A sea la base est andar, la matriz A resulta ser la matriz
identidad de orden n y (D.5) se convierte en

= B = B1 (D.6)

Ejemplo D.14 En R2 puede definirse una base con cualquier pareja de vectores
no paralelos. Definamos por ejemplo A = {(1, 0), (0, 1)}, B = {(3, 1), (2, 2)} y
C = {(1, 1)(1, 1)} (vectores rojos en la figura D.1).
Consideremos ahora el vector x en la figura D.1. Sus coordenadas en la base
estandar A seran    
1
= 1 =
2 3
Para obtener las coordenadas de x en las bases B y C construimos las matrices
B y C y empleamos (D.6)
   
3 2 1 1
B= C=
1 2 1 1
      
1 1/2 1/2 1 1
= = B1 = =
2 1/4 3/4 3 2
      
1 1/2 1/2 1 1
= = C1 = =
2 1/2 1/2 3 2
Puede verificarse que las coordenadas en las bases B y C satisfacen las relaciones
(D.5)
= B1 C = C1 B

246
D.2. TRANSFORMACIONES LINEALES

1 =1
1 =1
2 =3
2 =2 2 =-2

1 =-1

: base : vector

Figura D.1: Cambio de base de un Vector

D.2. Transformaciones lineales


Definici
on D.15 Transformaci on Lineal
Una transformaci
on lineal es una funci
on lineal entre dos espacios vectoriales. Sean
V y W dos espacios vectoriales sobre el mismo campo F. Sea T una funci on que
toma elementos de V y les asigna elementos de W

T :V W y = T (x) x V yW

Si T satisface las condiciones de linealidad se dice que T es una transformaci


on
Lineal. T debe satisfacer:

x1 , x2 V 1 , 2 F T (1 x1 + 2 x2 ) = 1 T (x1 ) + 2 T (x2 ) (D.7)

Ejemplo D.15 La funci on T : R3 R2 consistente en la proyeccion de los puntos


en el plano xy es una transformacion lineal. Esta funci
on toma un punto (a, b, c) en
R3 y le asigna la pareja (a, b) en R2 .

Ejemplo D.16 La funci on T : R2 R2 consistente en la rotaci


on de vectores
t
90 exto en sentido horario es una transformaci
on lineal.

Ejemplo D.17 La funci on T : R3 P , en donde P es el espacio vectorial de los


polinomios, consistente en la construccion de polinomios a partir de sus coeficientes
es una transformaci on toma un punto (a, b, c) en R 3 y le asigna
on lineal. Esta funci
un polinomio a + bx + cx2 en P.

Teorema D.6 Una transformaci on lineal T de un espacio V de dimension n a un


espacio W de dimensi on m puede representarse por una matriz T de orden m n.
La columna iesima de T contiene las coordenadas del resultado de aplicar T sobre
el elemento i-esimo de la base de V .

Demostraci
on D.6 Sea x un elemento de V sobre el que se aplica la transforma-
ci
on T
y = T (x) (D.8)

247
OSCAR G. DUARTE

Sea B = {b1 , b2 , , bn } una base sobre la cual x tiene coordenadas 1 , 2 , n ,


es decir, x puede escribirse como
x = 1 b1 + 2 b2 + + n bn
de tal manera que (D.8) es
y = T (1 b1 + 2 b2 + + n bn ) (D.9)
Debido a que T es una operaci
on lineal y satisfece (D.7), la ecuaci
on (D.9)
puede escribirse como
y = 1 T (b1 ) + 2 T (b2 ) + + n T (bn ) (D.10)
o en forma matricial

1
2


y = T (b1 ) T (b2 ) T (bn ) .. = T (D.11)
.
n
Esto demuestra que La transformaci on lineal T se puede representar por T, una
matriz cuyas columnas son el resultado de aplicar T en cada una de las bases b i .
el tamano de cada columna debe ser m, ya que el resultado esta en W , que es de
dimension m, por lo tanto el orden de T es m n. Debe destacarse que el resultado
= u 1T realmente son las coordenadas de y en el espacio W en la base u.
Ejemplo D.18 Podemos definir la transformaci on lineal T de R 2 a R2 consistente
on de vectores 90t exto en sentido horario (figura D.2). Si empleamos la
en la rotaci
base estandar, podemos construir la matriz T calculando la transformaci on de cada
uno de los vectores de la base:
      
1 0 0 1
T= T T =
0 1 1 0
Si deseamos efectuar la rotaci
on sobre un vector x de coordenadas (1, 3) debe-
mos efectuar la operaci
on
    
0 1 1 3
y = Tx = =
1 0 3 1

D.2.1. Transformaciones y cambios de base


El teorema D.6 permite efectuar transformaciones lineales mediante produc-
tos matriciales. Al cambiar de base, la matriz T que representa la transformaci
on
lineal sufre unos cambios, segun se presenta a continuacion.
Teorema D.7 Sea T una transformaci on lineal, que en la base estandar se repre-
senta por la matriz T . La misma transformaci on se representara en otra base
B = {b1 , b2 , , bn } por T = B1 T B en donde B = [b1 b2 bn ]

248
D.2. TRANSFORMACIONES LINEALES

: base : vector

on de 90o en sentido horario


Figura D.2: Rotaci

Demostraci on D.7 Sup ongase que el vector x se transforma en el vector y me-


diante la transformaci
on T . Sean x y x las coordenadas de x en la base estandar
y en la base B, respectivamente. Sean tambien y y y las coordenadas de y en
esas mismas bases. De acuerdo con el teorema D.6 T podra representarse en cada
una de esas bases como
y = T x y = T x
Las coordenadas en la base B pueden escribirse en funci
on de las coordenadas de
la base estandar empleando (D.6)
y = B1 y x = B1 x
y por tanto
B1 y = T B1 x
y = BT B1 x
de donde se deduce que
T = BT B1 T = B1 T B (D.12)
Teorema D.8 Sea T una transformaci on lineal, que en la base estandar se re-
presenta por T . La misma transformaci on se representara en otra base B =
{b1 , b2 , , bn } por la matriz T . La misma transformaci
on se representara en otra
base C = {c1 , c2 , , cn } por T = C1 BT B1 C en donde B = [b1 b2 bn ]
y C = [c1 c2 cn ]
Demostraci
on D.8 Empleando D.12 podemos escribir T como
T = BT B1 T = CT C1
Igualando se tiene
BT B1 = CT C1

T = C1 BT B1 C

249
OSCAR G. DUARTE

Ejemplo D.19 En el ejemplo D.18 se mostr on de 90 t exto en sentido


o que la rotaci
horario estaba representada en la base estandar por la matriz
 
0 1
T =
1 0

on se representara en la base B = {(3, 1), (2, 2)} por la


La misma transformaci
matriz
T = B1 T B
     
1/2 1/2 0 1 3 2 2 2
T = =
1/4 3/4 1 0 1 2 2.5 2
Sup
ongase ahora el vector x, cuyas coordenadas en la base estandar son x =
(1, 3) y en la base B son x = (1, 2) (ejemplo D.14). Al efectuar la rotacion de
90t exto en sentido horario se obtendra un vector y cuyas coordenadas en la base
estandar seran y y en la base B seran y :
         
0 1 1 3 2 2 1 2
y = = y = =
1 0 3 1 2.5 2 2 1.5

D.3. Normas de vectores y matrices


Definicion D.16 Producto interno
Sea V : (, +, , F) un espacio vectorial sobre F : (, , ). Una operaci
on P :
F se denomina producto interno o producto interior si satisface las
siguientes condiciones
P.1 x1 P (x1 , x1 ) 0 La igualdad se cumple s
olo si x1 = 0
P.2 x1 , x2 , x3 P (x1 + x2 , x3 ) = P (x1 , x3 ) P (x2 , x3 )
P.3 x1 , x2 F P (x1 , x2 ) = P (x1 , x2 )
P.4 x1 , x2 P (x1 , x2 ) = P (x2 , x1 )

Ejemplo D.20 El producto escalar usual es un producto interno. Se define como


n
X
hx, yi = xi y i
i=1

en donde xi , yi son las coordenadas de x, y respectivamente, y la dimension del


espacio es n,

Definici
on D.17 Norma de un vector
Sea V : (, +, , F) un espacio vectorial sobre F : (, , ). Una operaci
on k k :
F es una funci on de Norma si satisface las siguientes condiciones
N.1 x kxk 0

250
D.3. NORMAS DE VECTORES Y MATRICES

N.2 kxk = 0 si y s
olo si x = 0
N.3 x F kxk = || kxk
N.4 x1 , x2 kx1 + x2 k kx1 k kx2 k
Ejemplo D.21 Sea V : (, +, , F) un espacio vectorial sobre F, y sea P (x1 , x2 )
un producto interno de ese espacio. Si la cantidad
p
kxk = + P (x, x)
es una funci
on de norma se dice que es una norma inducida por el producto interno
P . El signo + resalta que se trata de la raiz positiva del producto interno de x
consigo mismo.
Ejemplo D.22 Sea V un espacio vectorial de dimensi on n, y sean x 1 , x2 , , xn las
coordenadas del vector x. En esas condiciones, las siguientes funciones son funciones
de normas:
Pn
1. kxk1 = i=1 |xi |
pPn
2. kxk2 = 2
i=1 xi
pP
3. kxkp = p ni=1 xpi
4. kxk = m
axi xi
Definicion D.18 Distancia entre vectores
Sea V : (, +, , F) un espacio vectorial sobre F : (, , ), y sea k k una norma
definida en ese espacio vectorial. Se define la distancia entre los vectores x 1 y x2
como la operaci on d : F tal que
d(x1 , x2 ) = kx1 x2 k
Toda funci
on de distancia satisface las siguientes propiedades:
d.1 x1 , x2 d(x1 , x2 ) 0
d.2 d(x1 , x2 ) = 0 si y s
olo si x1 = x2
d.3 x1 , x2 d(x1 , x2 ) = d(x2 , x1 )
d.4 x1 , x2 , x3 d(x1 , x2 ) d(x1 , x3 ) d(x3 , x2 )
Definici
on D.19 Vector normal
Un vector es normal si su norma es 1
Definici on D.20 Bola unitaria
Sea V : (, +, , F) un espacio vectorial sobre F, y sea d(x1 , x2 ) una funci on de
distancia definida en ese espacio vectorial. Se define la bola unitaria como el conjunto
de todos los vectores cuya distancia al origen sea 1. Tambien puede definirse de forma
equivalente como el conjunto de todos los vectores cuya norma sea 1, o lo que es
igual, el conjunto de todos los vectores normales.

251
OSCAR G. DUARTE

k k1 k k2 k k

Figura D.3: Circunferencias Unitarias para diferentes normas

Ejemplo D.23 La figura D.3 muestra las bolas unitarias para tres funciones de
distancia diferentes, originadas las siguientes normas kxk 1 , kxk2 y kxk definidas
en el Ejemplo D.22, para el espacio vectorial R2 . Como se trata de un espacio de
dimension 2 se emplea el termino circunferencia unitaria en lugar de bola unitaria
Definici
on D.21 Angulo entre vectores
Sea V : (, +, , F) un espacio vectorial sobre F, sea P (x1 , x2 ) un producto interno
definido en ese espacio, y k k la norma inducida por P . Se define el angulo entre
los vectores x1 y x2 mediante cos asi:
P (x1 , x2 )
cos =
kx1 k kx2 k
Definici
on D.22 Vectores ortogonales
Un conjunto de vectores x1 , x2 , , xk es ortogonal si
(
= 0 si i 6= j
P (xi , xj )
6= 0 si i = j

Definici
on D.23 Vectores ortonormales
Un conjunto de vectores x1 , x2 , , xk es ortonormal si es ortogonal y todos sus
vectores son normales, es decir, si
(
0 si i 6= j
P (xi , xj ) = ij =
1 si i = j

en donde ij se conoce como la funci


on delta de Kronecker
Teorema D.9 Los elementos de un conjunto ortogonal de vectores son linealmente
independientes.
Demostracion D.9 Sup ongase un conjunto ortogonal x 1 , x2 , , xk y construya-
mos una combinaci
on lineal nula de ellos:
1 x1 + 2 x2 + + n xn = 0

252
D.3. NORMAS DE VECTORES Y MATRICES

Si seleccionamos un vector cualquiera xj y efectuamos el producto interno a cada


lado de la ecuaci
on tenemos
1 P (x1 , xj ) + 2 P (x2 , xj ) + + n P (xn , xj ) = 0
Como se trata de un sistema ortogonal el u nico P (xi , xj ) 6= 0 es P (xj , xj ) = Pi y
por lo tanto
j P (xj , xj ) = j Pi = 0
Y por tanto
j = 0
Este conclusion se puede obtener para todos los coeficientes , por lo tanto la unica
combinacion lineal nula de los vectores es la que tiene coeficientes nulos, es decir,
los vectores son linealmente independientes.
Definici
on D.24 Proceso de ortonormalizaci on de Gram-Schmidt
Sea V : (, +, , F) un espacio vectorial sobre F, sea P (x1 , x2 ) un producto interno
definido en ese espacio, y k k la norma inducida por P .Dado un conjunto de
vectores linealmente independientes x1 , x2 , , xk es posible encontrar un conjunto
de vectores ortonormales y1 , y2 , , yk siguiendo el proceso de ortonormalizaci on
de Gram-Schmidt:

x1
y1 =
kx1 k
x2 P (x2 , y1 )y1
y2 =
kx2 P (x2 , y1 )y1 k
x3 P (x3 , y1 )y1 P (x3 , y2 )y2
y3 =
kx3 P (x3 , y1 )y1 P (x3 , y2 )y2 k
....
..
P
xk j=1 k 1P (xk , yj )yj
yk = P
kxk j=1 k 1P (xk , yj )yj k

Definicion D.25 Norma de una matriz cuadrada


Sea A una matriz que representa una transformaci on lineal A : C n Cn . Se
define la norma de la matriz A inducida por una norma vectorial como
kAxk
kAk = sup = sup kAxk
x6=0 kxk kxk=1

Es decir, la norma de una matriz es la norma mas grande que se obtiene al aplicar
la transformacion lineal sobre los elementos de la bola unitaria.
Ejemplo D.24 Sea A la matriz
 
2 1
A=
0 3

253
OSCAR G. DUARTE

Figura D.4: Norma de una matriz basada en k k1

Para calcular kAk1 aplicamos la transformaci on A a la circunferencia unitaria


de la norma k k1 , tal como se muestra en la figura D.4.
un la norma k k 1 , la correspon-
La mayor distancia al origen que resulta es, seg
diente a los puntos (1, 3) y (1, 3), por lo tanto

kAk1 = |1| + |3| = 4

Ejemplo D.25 Sea A la matriz


 
2 1
A=
0 3

Para calcular kAk2 aplicamos la transformaci on A a la circunferencia unitaria


de la norma k k2 , tal como se muestra en la figura D.5.
La mayor distancia al origen que resulta es, segun la norma k k 2 , la marcada
en la figura D.5 como d. Es un ejercicio interesante demostrar que esta distancia
corrresponde a los puntos (1.536, 2.871) y (1.536, 2.871) por lo tanto 1
p
kAk2 = 1.5362 + 2.8712 = 3.256
Tambien puede demostrarse que
q

kAk2 = 13 + 7 = 3.256

Ejemplo D.26 Sea A la matriz


 
2 1
A=
0 3
1 Un punto de (cos , sin ) de la circunferencia unitaria se transforma en (2 cos +

sin , 3 sin ); su distancia al origen r es tal que r 2 = (2 cos + sin )2 + (3 sin )2 , que puede
escribirse como r 2 = 2 sin 2 3 cos 2 + 7. Los puntos crticos corresponden a dr 2 /d = 0,
es decir a = 21 tan1 ( 23 ); el maximo corresponde a = 73.15t exto

254

D.4. SISTEMAS DE ECUACIONES ALGEBRAICAS

A d

Figura D.5: Norma de una matriz basada en k k2

Figura D.6: Norma de una matriz basada en k k

Para calcular kAk aplicamos la transformaci on A a la circunferencia unitaria


de la norma k k , tal como se muestra en la figura D.6.
un la norma k k , la correspon-
La mayor distancia al origen que resulta es, seg
diente a cualquiera de los puntos cuya segunda coordenada es 3 o 3, por ejemplo
(1, 3), por lo tanto
kAk = m ax{1, 3} = 3

D.4. Sistemas de ecuaciones algebr


aicas
El prop osito de esta secci
on es el de presentar algunas propiedades de las
matrices. Para ello, consideramos el sistema de ecuaciones algebr
aicas:

a11 x1 + a12 x2 + + a1n xn = y1


a21 x1 + a22 x2 + + a2n xn = y2
.. (D.13)
.
am1 x1 + am2 x2 + + amn xn = ym

255
OSCAR G. DUARTE

que puede escribirse en forma matricial como



a11 a12 a1n x1 y1
a21
a22 a2n

x1

y1

Ax = y A= . .. .. .. x= . y= . (D.14)
.. . . . .. ..
am1 am2 amn xn ym

La ecuacion (D.14) puede interpretarse como el sistema de ecuaciones al-


gebracas (D.13), como una transformaci on lineal A : Rn Rm , o en general
como una transformaci on lineal de un espacio vectorial de dimensi on n a otro
espacio vectorial de dimensiom m A : V W con dim(V) = n y dim(W) = m.
Empleamos esta m ultiple interpretaci
on para hacer algunas definiciones y
obtener ciertas conclusiones acerca de la existencia y unicidad del sistema de la
soluci
on del sistema de ecuaciones algebr aicas.

Definici
on D.26 Codominio
El Codominio de un operador lineal A es el conjunto R(A) definido como

R(A) = {y|x, y = Ax}

Teorema D.10 El codominio de un operador lineal A : V W es un subespacio


de W.

Demostraci on D.10 Es claro que el codominio A es un subconjunto de W, es


decir R(A) W. Sup onganse dos vectores y1 , y2 de R(A). Seg
un la definici
on
D.26 existen dos vectores x1 , x2 en V tales que

y1 = Ax1 y2 = Ax2

Gracias a la linealidad de A cualquier combinaci


on lineal de y 1 , y2 puede escri-
birse como

1 y1 + 2 y2 = 1 Ax1 + 2 Ax2 = A(1 x1 + 2 x2 )

es decir, para cualquier combinaci


on lineal de y 1 , y2 es posible encontrar un ele-
mento x V tal que y = Ax y por lo tanto seg un el teorema D.1 R(A) es un
subespacio de W.

Definici
on D.27 Rango
El rango de una matriz A, denotado por (A) es la dimensi
on del codominio del
operador lineal representado por A (ver figura D.7).

Teorema D.11 El rango de una matriz A es igual el n


umero de columnas lineal-
mente independientes de A.

256

D.4. SISTEMAS DE ECUACIONES ALGEBRAICAS

dim(V) = n dim(W) = m
V W
R(A)
A

(A) = dim(R(A))

Figura D.7: Codominio y rango de un operador lineal

Demostracion D.11 Si denotamos la iesima columna de A como a i , es decir


A = [a1 a2 an ] la ecuaci
on D.14 puede escribirse como

y = x 1 a1 + x 2 a2 + + x n an

es decir, y es una combinaci on lineal de las columnas de A cuyos coeficientes son


x1 , x2 , , xn . El codominio de A sera entonces el conjunto de todas las posibles
combinaciones lineales de las columnas de A, es decir R(A) = span{a 1 , a2 , , an };
por lo tanto la dimensi on de R(A), que es (A), sera igual al n
umero de elementos
linealmente independientes en el conjunto {a 1 , a2 , , an }.

on lineal de R 2 en R2 representada por


Ejemplo D.27 Considerese la transformaci
y = Ax en donde A es la matriz
 
1 1
A=
0 0

Esa transformaci on toma un punto (x1 , x2 ) en el plano y lo convierte en un


punto sobre el eje horizontal (figura D.8):
    
1 1 x1 (x1 + x2 )
y= =
0 0 x2 0

El codominio de A, que denotamos por R(A) resulta ser el eje horizontal,


es decir, un subespacio de R2 . La dimensi
on de R(A), que es el rango de A,
denotado por (A) es entonces 1. Notese que el n
umero de columnas linealmente
independientes de A tambien es 1.

on lineal de R 2 en R2 representada por


Ejemplo D.28 Considerese la transformaci
y = Ax en donde A es la matriz
 
1 2
A=
1 2

257
OSCAR G. DUARTE

}
(A) = 1

Figura D.8: Codominio y Rango del Operador Lineal del ejemplo D.27

}
(A) = 1

Figura D.9: Codominio y Rango del Operador Lineal del ejemplo D.27

Esa transformaci on toma un punto (x1 , x2 ) en el plano y lo convierte en un


punto sobre la recta de pendiente 1 (figura D.9):
    
1 2 x1 (x1 + 2x2 )
y= =
1 2 x2 (x1 + 2x2 )

El codominio de A, que denotamos por R(A) resulta ser la recta identidad,


es decir, un subespacio de R2 . La dimensi
on de R(A), que es el rango de A,
denotado por (A) es entonces 1. Notese que el n
umero de columnas linealmente
independientes de A tambien es 1.

En el teorema D.14 se demuestra que el rango de una matriz no se altera


al premultiplicarla o posmultiplicarla por matrices no singulares. Esto significa
que las operaciones elementales sobre matrices no alteran el rango de una matriz
y por lo tanto puede comprobarse que el rango tambien es igual el n umero de
filas linealmente independientes de la matriz, es decir, para una matriz A de
dimensiones m n se tiene que

(A) = N
umero de columnas L.I.
(A) = N
umero de filas L.I. (D.15)
(A) mn (m, n)

258

D.4. SISTEMAS DE ECUACIONES ALGEBRAICAS

dim(V) = n dim(W) = m
V W
N (A) R(A)
A
0

A
(A) = dim(N (A)) (A) = dim(R(A))

Figura D.10: Codominio, espacio nulo, rango y nulidad de un operador lineal

Adem as, puede demostrarse que una matriz es no singular si y s


olo si todas
sus filas y todas sus columnas son linealmente independientes,
Teorema D.12 El sistema de ecuaciones (D.14) donde A es una matriz m n
tiene solucion para todo y en W si y solo si R(A) = W, o lo que es equivalente,
si y s
olo si (A) = m
Demostraci on D.12 La demostraci
on se desprende directamente de las definicio-
nes D.26 y D.27
Definici
on D.28 Espacio Nulo
El Espacio Nulo de un operador lineal A : V W es el conjunto N (A) definido
como
N (A) = {x V| Ax = 0}
La linealidad del operador permite demostrar que el Espacio Nulo es un
Subespacio de V. Esto permite hacer la siguiente definici
on
Definici
on D.29 Nulidad
La Nulidad de un operador lineal A : V W, denotada por (a) es la dimensi
on
del espacio nulo de A
El ejemplo D.29 muestra la relaci
on existente entre el rango y la nulidad de
un operador lineal A : V W, con dim(V) = n y dim(W) = m (figura D.10).
(A) + (A) = n = dim(V) (D.16)

Teorema D.13 El sistema de ecuaciones Ax = 0 con A una matriz m n tiene


una solucion distinta de la trivial si y s
olo si (A) < n. Si m = n esto es equivalente
a decir si y s
olo si det(A) = 0
Demostraci on D.13 De la definici
on D.29 se desprende que el n
umero de solucio-
nes linealmente independientes de Ax = 0 es (A). Para que exista una soluci on
no trivial se necesita que (A) 1. Empleando (D.16) esta condicion se convierte
en (A) < n. Si m = n entonces A es cuadrada y la condici on es equivalente a
det(A) = 0, ya que las columnas de A seran linealmente dependientes.

259
OSCAR G. DUARTE

Ejemplo D.29 Sup


ongase el sistema de ecuaciones Ax = 0 donde A es la matriz
53
0 1 1 0 1  
A = 2 1 3 4 1 = a1 a2 a3 a4 a5
1 0 1 2 1
en donde las dos primeras columnas son linealmente independientes, pero las u
ltimas
tres no lo son ((A) = 2), ya que pueden escribirse como combinaciones lineales
de las dos primeras:

a3 = a 1 + a 2 a4 = 2a1 a5 = a 1 a 2 (D.17)

El sistema de ecuaciones Ax = 0 puede escribirse como

x 1 a1 + x 2 a2 + x 3 a3 + x 4 a4 + x 5 a5 = 0

0 1 1 0 1 0
x1 2 + x2 1 + x3 3 + x4 4 + x5 1 = 0 (D.18)
1 0 1 2 1 0
Empleando (D.17) la ecuacion (D.18) se convierte en

0 1 0
(x1 + x3 + 2x4 + x5 ) 2 + (x2 + x3 x5 ) 1 = 0 (D.19)
1 0 0

(x1 + x3 + 2x4 + x5 )a1 + (x2 + x3 x5 )a2 = 0 (D.20)


Como a1 y a2 son linealmente independientes, (D.20) s
olo puede cumplire si los
coeficientes son cero, es decir si

x1 + x3 + 2x4 + x5 = 0
(D.21)
x2 + x 3 x 5 =0

El sistema de ecuaciones (D.21) tiene 5 inc ognitas y 2 ecuaciones linealmente


independientes, es decir, existen 3 grados de libertad para escoger los valores de
xi . Dicho de otra forma, (A) = 3. N otese que (A) + (A) = n (2 + 3 = 5),
cumpliendo con la ecuaci on (D.16).
Podemos escoger arbitrariamente los valores de 3 de las inc ognitas x i y deducir
el valor de las otras dos, para construir una base de N (A). Si seleccionamos x 1 , x2
y x3 como los trios (1, 0, 0), (0, 1, 0) y (0, 0, 1) tendremos los tres vectores base de
N (A):

1 0 0
0 1 0

0 0 1

1/2 1/2 1
0 1 1

260
D.5. VALORES Y VECTORES PROPIOS

Teorema D.14 Sea A una matriz m n y C, D dos matrices no singulares cua-


lesquiera n n y m m respectivamente. En esas condiciones se tiene que
(AC) = (A) (DA) = (A)
Demostraci on D.14 La demostraci on se apoya en la desigualdad de Sylvester, que
establece que si existen dos matrices A y B de dimensiones q n y n p entonces
(A) + (B) n (AB) mn((A), (B)) (D.22)
Al aplicar (D.22) a AC y DA se tiene que
(A) + (C) n (AC) mn((A), (C))
(D) + (A) m (DA) mn((D), (A))
como C y D son no singulares, sus rangos son n y m respectivamente:
(A) + n n (AC) mn((A), n)
m + (A) m (DA) mn(m, (A))
Por (D.15) se sabe que (A) mn (m, n), por lo tanto
(A) (AC) (A)
(A) (DA) (A)
Las desigualdades s
olo pueden cumplirse simultaneamente si se tiene que
(A) = (AC) (A) = (DA)

D.5. Valores y vectores propios


on D.30 Valor propio y vector propio2
Definici
Sea A una transformaci on lineal (Cn , C) (Cn , C). Un escalar es un valor
propio si existe un vector no nulo v tal que Av = v. Cualquier vector no nulo v
que satizfaga
Av = v (D.23)
es un vector propio asociado al valor propio .
La definici
on D.30 implica que para un vector propio v el efecto de aplicarle
la transformacion lineal A es igual que amplificarlo por el escalar . Esto implica
que un vector y el vector transformado son colineales o paralelos y por lo tanto
linealmente dependientes.
La definici
on D.30 se refiere estrictamente a valores y vectores propios por
derecha, para distinguirlos de los valores y vectores propios por izquierda, que
deben satisfacer vt A = vt . En este texto s
olo se consideran los primeros, y por
tanto se hace referencia a ellos simplemente como valores y vectores propios.
2 Tambi en se conocen como autovalores y autovectores o valores caractersticos y vectores
caractersticos.

261
OSCAR G. DUARTE

Teorema D.15 es un valor propio de A si y s


olo si satisface la ecuaci
on

det(I A) = 0 (D.24)

donde I es la matriz identidad de igual orden que A.

Demostraci
on D.15 Si es un valor propio de A entonces existe un vector v tal
que
Av = v Av v = 0
El termino v puede escribirse como Iv para facilitar la factorizaci
on de v

Av Iv = 0 (A I)v = 0

De acuerdo con el teorema D.13 esta ecuaci


on tiene soluci
on no trivial (existe un
vector propio v) si y s
olo si
det(A I) = 0
Como el determinante de una matriz no se afecta al multilpicar esta por un escalar
no nulo, podemos escribir
det(I A) = 0

El teorema D.15 brinda una posibilidad para calcular los valores propios
de A: podemos construir el polinomio caracterstico () = det(I A) y
encontrar sus raices. Cada raiz de () ser a un valor propio de A. Los vectores
propios pueden obtenerse directamente de (D.23).
Debido a que los valores propios resultan ser las raices del polinomio carac-
terstico, estos pueden ser reales o complejos, diferentes o repetidos.

Definici
on D.31 Multiplicidad
La multiplicidad ri de un valor propio i es el n
umero de veces que este aparece
como raiz del polinomio caracterstico.

Ejemplo D.30 Obtener los valores y vectores propios de la matriz


 
4 1
A=
2 1

Construimos la matriz B = (I A) y hallamos su determinante:


     
1 0 4 1 ( 4) 1
B = (I A) = =
0 1 2 1 2 ( 1)

(A) = det(B) = ( 4)( 1) + 2 = 2 5 + 6 = ( 2)( 3)


Los valores propios de A seran las raices de (A)

1 = 2 2 = 3

Los vectores propios asociados a 1 = 2 deben cumplir (D.23):

Av1 = 1 v1

262
D.5. VALORES Y VECTORES PROPIOS

        
4 1 v11 v 4v11 + v21 2v11
= 2 11 =
2 1 v21 v21 2v11 + v21 2v21
Se crea entonces un sistema de ecuaciones con infinitas soluciones:

4v11 + v21 = 2v11
2v11 + v21 = 2v21
Para obtener un vector propio asociado a 1 = 2 podemos escoger arbitrariamente
un valor para v11 o para v21 . Por ejemplo, si escogemos v11 = 1 obtenemos v21 =
2. En consecuencia, un vector propio asociado a 1 = 2 sera
   
1 a
v1 = en general v1 =
2 2a
Los vectores propios asociados a 2 = 3 tambien deben cumplir (D.23):
Av2 = 1 v2
        
4 1 v12 v 4v12 + v22 3v12
= 3 12 =
2 1 v22 v22 2v12 + v22 3v22
Se crea entonces un segundo sistema de ecuaciones con infinitas soluciones:

4v12 + v22 = 3v12
2v12 + v22 = 3v22
Para obtener un vector propio asociado a 2 = 3 podemos escoger arbitrariamente
un valor para v12 o para v22 . Por ejemplo, si escogemos v12 = 1 obtenemos v22 =
1. En consecuencia, un vector propio asociado a 2 = 3 sera
   
1 a
v2 = en general v2 =
1 a
Ejemplo D.31 Obtener los valores y vectores propios de la matriz
 
2 1
A=
1 2
Construimos la matriz B = (I A) y hallamos su determinante:
     
1 0 2 1 ( 2) 1
B = (I A) = =
0 1 1 2 1 ( 2)

() = det(B) = ( 2)2 + 1 = 2 4 + 5
Los valores propios de A seran las raices de ()
1,2 = 2 j
Al aplicar (D.23) para 1 y 2 se obtienen dos sistemas de ecuaciones con infinitas
soluciones
 
2v11 + v21 = (2 + j)v11 2v12 + v22 = (2 j)v12
v11 + 2v21 = (2 + j)v21 v12 + 2v22 = (2 j)v22

263
OSCAR G. DUARTE

Seleccionando arbitrariamente v11 = 1 y v12 = 1 se obtiene


   
1 1
v1 = v2 =
j j

o en general    
a a
v1 = v2 =
ja ja

D.5.1. Valores propios diferentes


Teorema D.16 Sea A una transformaci on lineal con valores propios no repetidos,
y sea vi un vector propio de A asociado al valor propio i . En esas condiciones vi
es directamente proporcional a cualquier columna no nula de adj( i I A)

Demostraci
on D.16 La demostraci
on se basa en que para una matriz P se tiene
que
PadjP = det (P)I (D.25)
Al aplicar (D.25) a la matriz (i I A) se tiene

(i I A)adj(i I A) = det (i I A)I

Como vi es un vector propio de A asociado al valor propio i , entonces Avi = i vi


o lo que es igual
(i I A)vi = 0 (D.26)
lo que implica que det (i I A) = 0 y por tanto

(i I A)adj(i I A) = 0 (D.27)

Comparando (D.26) y (D.27) se concluye que vi es directamente proporcional


a cualquier columna no nula de adj(i I A).

Ejemplo D.32 Para obtener los vectores propios del ejemplo D.30 construimos

     
2 1 1 1 a
adj(1 I A) = adj(2I A) = adj = v1 =
2 1 2 2 2a


    
1 1 2 1 a
adj(2 I A) = adj(3I A) = adj = v2 =
2 2 2 1 a

Teorema D.17 Sean 1 , 2 , , r valores caractersticos diferentes de A, y sea


vi un vector caractersitico asociado a i con i = 1, 2, , r. El conjunto {v1 , v2 ,
, vr } es linealmente independiente.

264
D.5. VALORES Y VECTORES PROPIOS

Demostraci on D.17 Efectuamos la demostraci on por contradiccion. Suponemos


que los vi son linealmente dependientes, y por lo tanto existen i algunos de los
cuales no son nulos, tales que
X r
i vi = 0
i=1

Suponemos que 1 6= 0, (si es necesario


Qr reordenamos los vectores) y multiplicamos
on por j=2 (A j I)
a cada lado de la ecuaci
r
Y r
X
(A j I) i vi = 0 (D.28)
j=2 i=0

El producto (A j I)vi se puede calcular como


(
(i j )vi si i 6= j
(A j I)vi =
0 si i = j

Y por lo tanto (D.28) se convierte en

1 (1 2 )(1 3 ) (1 r )v1 = 0

Por hip
otesis, todos los i son diferentes y v1 es no nulo (es un vector propio), lo
que significa que 1 = 0. Con esta contradiccion se concluye la demostracion.

Teorema D.18 Sea A una transformaci on lineal A : Cn Cn ; sean i los valores


propios de A y vi un vector propio asociado a i , con i = 1, 2, , n . Si todos los
i son diferentes, entonces el conjunto {v1 , v2 , , vn } es una base de Cn .

Demostracion D.18 Seg un el teorema D.17 el conjunto es linealmente indepen-


diente. Como ademas tiene n elementos, seg
un el teorema D.2 el conjunto es una
base.

Teorema D.19 Sea A una transformaci on lineal A : Cn Cn ; sean i los valores


propios de A y vi un vector propio asociado a i , con i = 1, 2, , n. Si todos
los i son diferentes, entonces la transformaci on lineal A se representa en la base
{v1 , v2 , , vn } por una matriz diagonal en la que el elemento iesimo de la
diagonal es i .
 
= M1 AM M = v1 v2 v n (D.29)

Demostraci on D.19 El teorema D.7 permite obtener la representaci


on de A en la
nueva base. Si denotamos esta representaci tendremos
on por A
= M1 AM
A

con M la matriz modal que contiene los vectores propios


 
M = v1 v2 v n

265
OSCAR G. DUARTE

Para demostrar el teorema construimos A = y demostramos A


= MAM1 , o

lo que es equivalente, MA = AM:

1 0 0
0 2 0
==
A .. .. . .

..
. . . .
0 0 n
y AM:
Calculamos por separado MA

1 0 0
  0 2 0  
MA = v1 v2 v n .. .. .. ..

= 1 v 1 2 v 2 n vn
. . . .
0 0 n
(D.30)

   
AM = A v1 v2 vn = Av1 Av2 Avn (D.31)
=
Como Avi = i vi entonces las ecuaciones (D.30) y (D.31) se reducen a MA
AM o lo que es igual
= = M1 AM
A
Ejemplo D.33 La transformaci
on lineal representada por la matriz
 
4 1
A=
2 1
cuyos valores propios son (Ejemplo D.30) 1 = 2, 2 = 3 con vectores propios v1
v2 :    
1 1
v1 = v2 =
2 1
on en la base {v1 v2 } por la matriz diagonal
Tiene una representaci
       
1 1 4 1 1 1 2 0 0
1
= M AM = = = 1
2 1 2 1 2 1 0 3 0 2
Ejemplo D.34 La transformaci
on lineal representada por la matriz
 
2 1
A=
1 2
cuyos valores propios son (Ejemplo D.31) 1,2 = 2 j con vectores propios v1 v2 :
   
1 1
v1 = v2 =
j j
on en la base {v1 v2 } por la matriz diagonal
Tiene una representaci

= M1 AM =
       
j/2 j/2 2 1 1 1 2+j 0 0
= = 1
j/2 j/2 1 2 j j 0 2j 0 2

266
D.5. VALORES Y VECTORES PROPIOS

D.5.2. Valores propios repetidos


La diagonalizaci on planteada en el teorema D.19 no siempre es posible si
existen valores propios repetidos. Esto se debe a que el teorema D.17 se refiere a
valores propios distintos, y sin ese resultado no puede asegurarse que el conjunto
{v1 , v2 , , vn } sea una base. Esto se traduce en que la matriz modal M puede
ser singular, y por tanto (D.29) no puede usarse debido a que M1 puede no
existir.

Definicion D.32 Degeneracidad


El numero de vectores propios de una transformaci on lineal A de orden n n
linealmente independientes asociados a un valor propio i es la degeneracidad del
valor propio i , denotada por di .

Teorema D.20 La degeneracidad de i , un valor propio de una transformaci


on
lineal A de orden n n es igual a

di = n (i I A) (D.32)

Demostraci
on D.20 Un vector propio vi de A asociado a i debe cumplir

Avi = i v (i I A)vi = 0

Seg un la definici
on D.29, el n
umero de vectores propios linealmente independientes
seran entonces la nulidad de la matriz que premultiplica al vector,

di = (i I A)

Podemos emplear (D.16) para escribir

di = n (i I A)

Ejemplo D.35 Obtener los valores y vectores propios de la matriz A y diagonali-


zarla  
1 2
A=
2 5
Construimos la matriz B = (I A) y hallamos su determinante:
     
1 0 1 2 ( 1) 2
B = (I A) = =
0 1 2 5 2 ( 5)

() = det(B) = ( 1)( 5) + 4 = 2 6 + 9 = ( 3)2


Los valores propios de A seran las raices de (A)

1 = 2 = 1,2 = 3

La degeneracidad de 1,2 = 3 se obtiene con (D.32):

d1 = 2 (3I A)

267
OSCAR G. DUARTE

   
31 2 2 2
d1 = 2 =2 =21=1
2 35 2 2
Lo anterior significa que aunque tiene multiplicidad 2, s
olo es posible encontrar
un vector linealmente independiente. Este se obtiene empleando (D.23), y resulta
ser    
1 a
v1 = en general v1 =
1 a
No es posible construir una base para el espacio de dimensi
on 2 con un s
olo
vector, por lo tanto no es posible diagonalizar A.

Ejemplo D.36 Obtener los valores y vectores propios de la matriz A y diagonali-


zarla
3 0 1
A= 1 2 1
1 0 3
Construimos (I A):

( 3) 0 1
I A = 1 ( 2) 1
1 0 ( 3)

Su polinomio caracterstico resulta ser

() = ( 3)2 ( 2) ( 2) = 3 82 + 20 16

Las raices del polinomio son 1 = 2 = 2 3 = 4. Para determinar la degeneracidad


de 1 calculamos 1 I A

(2 3) 0 1 1 0 1
I A = 1 (2 2) 1 = 1 0 1
1 0 (2 3) 1 0 1

d1 = n (I A) d1 = 3 1 = 2
Lo anterior significa que existen dos vectores propios linealmente independientes
asociados a 1 = 2 = 2. Estos dos vectores junto con el vector propio asociado a
3 = 4 pueden formar una base y por tanto es posible diagonalizar A. Para obtener
los tres vectores propios empleamos (D.23):

3 0 1 a a 3 0 1 d d
1 2 1 b = 2 b 1 2 1 e = 2 e
1 0 3 c c 1 0 3 f f

Se originan los sistemas de ecuaciones



3a c = 2a 3d f = 4a
a + 2b c = 2b d + 2e f = 4e

a + 3c = 2c d + 3f = 4f

268
D.5. VALORES Y VECTORES PROPIOS

Que se convierten en
a=c d = e = f
Podemos construir dos vectores linealmente independientes v 1 , v2 que satisfacen
a = c y un tercero v3 que satisface d = e = f , por ejemplo

1 1 1
v1 = 0 v2 = 1 v3 = 1
1 1 1

En la base {v1 v2 v3 } la transformaci


on A se representa por :

1 1 0 3 0 1 1 1 1
= M1 AM = 1/2 1 1/2 1 2 1 0 1 1
1/2 0 1/2 1 0 3 1 1 1


2 0 0 1 0 0
= M1 AM == 0 2 0 = 0 2 0
0 0 4 0 0 3

Definici
on D.33 Vectores propios generalizados
Sea A una transformaci on lineal A : Cn Cn y sea un valor propio de A. v es
un vector propio generalizado de grado k de A asociado a si y s
olo si

(A I)k v =0
(D.33)
(A I)k1 v 6= 0

N
otese que para k = 1 la ecuaci on (D.33) se reduce a (A I) = 0 con
v 6= 0, que coincide con la definici
on D.30 de vector propio.

Definicion D.34 Cadena de vectores propios generalizados


Sea A una transformaci on lineal A : Cn Cn y sea v un vector propio gene-
ralizado de orden k asociado a . Los vectores vk , vk1 , vk2 , , v1 forman una
cadena de vectores propios generalizados de longitud k si y solo si

vk = v
vk1 = (A I)v = (A I)vk
vk2 = (A I)2 v = (A I)vk1 (D.34)
.. ..
. .
v1 = (A I)k1 v = (A I)v2

Teorema D.21 Sea Ni el espacio nulo de (A I)i . Ni es un subespacio de Ni+1 .

Demostraci on D.21 Sea x un vector en Ni , por lo tanto (A I)i x = 0; al


multiplicar a cada lado por (A I) se tiene que (A I) i+1 x = 0 y por lo tanto
x esta en Ni+1 . Esto demuestra que Ni Ni+1 , y por lo tanto Ni es un subespacio
de Ni+1 .

269
OSCAR G. DUARTE

..
.

vi

vi1

..
.
Ni1 Ni Ni+1

Figura D.11: Espacios Nulos de (A I)i y cadenas de vectores propios


generalizados

Teorema D.22 Sea Ni el espacio nulo de (A I)i . Sea vi el iesimo vector de


una cadena como las definidas en (D.34). El vector vi esta en Ni pero no en Ni1 .

Demostraci
on D.22 La demostraci on se obtiene calculando (A I) i vi y (A
i1
I) vi y utilizando (D.34) y (D.33):

(A I)i vi = (A I)i (A I)ki v = (A I)k v = 0

(A I)i1 vi = (A I)i1 (A I)ki v = (A I)k1 v 6= 0

Los teoremas D.21 y D.22 se visualizan en la figura D.11. Cada subespacio


nulo Ni esta embebido dentro del subespacio nulo Ni+1 , y el vector vi est
a justo
en la diferencia entre Ni y Ni1 .

Teorema D.23 Los vectores de una cadena de vectores propios generalizados como
los de la definici
on D.34 son linealmente independientes.

Demostraci on D.23 Dado que cada vector vi pertenece a un subespacio diferen-


te, seg
un se muestra en la figura D.11, estos vectores no pueden ser linealmente
dependientes.

on 2 2
Ejemplo D.37 Sea A la transformaci
 
1 2
A=
2 5

270
D.5. VALORES Y VECTORES PROPIOS

que tiene un valor propio repetido = 3 Para encontrar los espacios nulos N 1 y N2
construimos las matrices B y B2 :
   
2 2 0 0
2
B = (A I) = B =
2 2 0 0

El espacio nulo N1 es el conjunto de los vectores v1 tales que Bv1 = 0, mientras


que el espacio nulo N2 es el conjunto de los vectores v2 tales que B2 v2 = 0.
Claramente se ve que
   
a b
v1 = v2 =
a c

Es decir, el espacio nulo N1 es la recta de pendiente 1, mientras que el espacio


nulo N2 corresponde a R2 , tal como se muestra en la figura D.12.
Un vector propio generalizado de orden 2 debe estar en N 2 , pero no en N1 , por
ejemplo
 
1
v=
0

Lo que origina una cadena de vectores generalizados

v2 = v
v1 = (A I)v2

   
1 2
v2 = v1 = N1
0 2

Teorema D.24 Sea A una transformaci on lineal n n con un unico valor propio
repetido, 1 = 2 = = n = . Sea v un vector propio generalizado de
orden n asociado a . En esas condiciones, se cumple que J = M 1 AM en donde
M es la matriz modal formada por los vectores de la cadena de vectores propios
generalizados creada por v y J es una matriz n n casi-diagonal que tiene a en
la diagonal, 1 encima de la diagonal, y 0 en cualquier otro lugar. Es decir

1 0 0
0
1 0

0 0
0

J = . . .. . . .
.. .. . . ..

0 0 0 1
0 0 0
 1  
= v1 v2 vn A v1 v2 vn (D.35)

Demostraci
on D.24 Demostrar (D.35) equivale a demostrar MJ = AM, por lo

271
OSCAR G. DUARTE

B
0

1 = dim(N1 ) = 1

B2

} 0

2 = dim(N2 ) = 2

Figura D.12: Espacios Nulos del ejemplo

tanto calculamos por separado MJ y AM y comparamos los resultados:



1 0 0
0 1
0
 0 0
 0
MJ = v1 v2 v3 vn . . . .. ..
.. .. .. . .

0 0 0 1
0 0 0
 
MJ = v1 (v1 + v2 ) (v2 + v3 ) (vn1 + vn )
   
AM = A v1 v2 v3 vn = Av1 Av2 Av3 Avn
De acuerdo con la definici
on D.34, el vector vi de la cadena se calcula como
vi = (A I)vi+1 , por lo tanto

Avi+1 = vi + vi+1 i = 1, 2, , n 1

lo que significa que las columnas 2, 3, , n de MJ son iguales a las de AM. Para
demostrar que la primera columna tambien es igual, empleamos el teorema D.22,
segun el cual v1 N1 , es decir

(A I)1 v1 = 0

y por lo tanto Av1 = v1 , lo que concluye la demostraci


on.

272
D.5. VALORES Y VECTORES PROPIOS







Nr   r


N2 2

N1 { } 1

Figura D.13: Diagrama de Matthew vaco

on 2 2
Ejemplo D.38 Sea A la transformaci
 
1 2
A=
2 5

que tiene un valor propio repetido = 3 y una cadena de vectores propios genera-
lizados (ejemplo D.37):    
2 1
v1 = v2 =
2 0

El resultado de calcular M1 AM es
 1     
2 1 1 2 2 1 3 1
M1 AM = =
2 0 2 5 2 0 0 3

D.5.3. Obtenci
on de vectores propios generalizados
El teorema D.24 supone que la matriz A de tama no n n tiene un vector
propio generalizado de orden n asociado al valor propio , a partir del cual se
construye una unica cadena de vectores. Esto no siempre sucede, por lo tanto,
es necesario contar con un procedimiento para encontrar el conjunto de vectores
propios asociados a .
un el teorema D.21, Ni es un subespacio de Ni+1 , si denotamos por i la
Seg
dimension de Ni , lo anterior significa que i < i+1 .
Este hecho permite construir el diagrama de Matthew (figura D.13) en el que
se muestran las nulidades 1 , 2 , , r mediante casillas de un arreglo (i ser
a
umero de casillas para Ni en el arreglo).
igual al n
Debido a que Ni es el espacio nulo de B = (A I)i , es posible calcular i
empleando (D.16) y de esa manera establecer la forma del diagrama de Matthew

i = n (Bi )

Si definimos i = i i1 el diagrama de Matthew tendr


a la forma que se
muestra en la figura D.14

Ejemplo D.39 Forma del arreglo

273
OSCAR G. DUARTE

r

2
1

Figura D.14: Diagrama de Matthew vaco simple

r v1 v2
r1 Bv1 Bv2
.. .. ..
. . .
2 Br1 2 v1 Br2 2 v2 vq1
1 Br1 1 v1 Br1 1 v2 Bvq1 vq

Figura D.15: Diagrama de Matthew lleno

Cada casilla del diagrama de Matthew podra contener un vector de la base


para un Ni . Los vectores que sirven de base para Ni tambien pueden formar
parte de la base de Ni+1 , ya que Ni Ni+1 .
Debido al teorema D.22, un vector vi de una cadena de vectores puede formar
parte de una base para Ni que no pueden formar parte de una base para Ni1 .
Esto permite disenar una estrategia para buscar las bases de los Ni y asi llenar
el diagrama de Matthew. Para ello empleamos las siguientes convenciones .

1. Identificar el n
umero de columnas del diagrama como q.

2. Identificar las columnas del diagrama como c1 , c2 , , cq de izquierda a


derecha.

no de cada columna como h1 , h2 , , hq .


3. Identificar el tama

4. Identificar cada celda por los subndices i, j, con j = 1, 2, , q e i =


1, 2, , rj de arriba a abajo.

5. Identificar el vector de la celda i, j por xi,j .

Para llenar el diagrama de Matthew deben buscarse q vectores propios ge-


neralizados v1 , v2 , , vq de orden h1 , h2 , , hq respectivamente. Cada uno
de estos vectores estar a ubicado en la primera celda de las columnas, es decir
xi,1 = vi . Cada columna se completa con la cadena de vectores propios gene-
ralizados creada por el primer elemento de la columna. La forma que adopta el
diagrama de Matthew se muestra en la figura D.15.

274
D.5. VALORES Y VECTORES PROPIOS

Ejemplo D.40 Sea A la matriz3



3 1 1 1 0 0
1 1 1 1 0 0

0 0 2 0 1 1
A=
0 0
0 2 1 1

0 0 0 0 1 1
0 0 0 0 1 1
Para calcular los valores propios de A hacemos

det (A I) = [(3 )(1 ) + 1]( 2)2 [(1 )2 1] = ( 2)5 = 0

Es decir, A tiene un valor propio 2 de multiplicidad 5 y un valor propio 0 de


multiplicidad 1. Nos proponemos encontrar el diagrama de Matthew de los vectores
propios asociados a 1 = 2.
Para ello definimos B = (A 2I) y calculamos B0 , B1 , B2 , B3 ,

B0 = I (A 2I)0 = 6 0 = 6 6 = 0

1 1 1 1 0 0
1 1 1 1 0 0

0 0 0 0 1 1 (A 2I) = 4
B1 =
0 0
0 0 1 1 1 =64=2
0 0 0 0 1 1
0 0 0 0 1 1

0 0 2 2 0 0
0 0 2 2 0 0

2
0 0 0 0 0 0 (A 2I)2 = 2
B =
0 0
0 0 0 0 2 = 6 2 = 4
0 0 0 0 2 2
0 0 0 0 2 2

0 0 0 0 0 0
0 0 0 0 0 0

0 0 0 0 0 0 (A 2I)3 = 1
B3 =
0 0
0 0 0 0 3 = 6 1 = 5
0 0 0 0 4 4
0 0 0 0 4 4
Puede comprobarse que 4 = 3 = 5 y por tanto no es necesario continuar. Con
la informaci
on anterior podemos calcular i :
3 = 3 2 = 54= 1
2 = 2 1 = 42= 2
1 = 1 0 = 20= 2
Con esta informaci
on podemos construir el diagrama de Matthew
3 adaptado de [5, pp.: 43]

275
OSCAR G. DUARTE

v1
Bv1 v2
B2 v 1 Bv2

De donde se deduce que q = 2, h1 = 3 y h2 = 2.

El algoritmo para encontrar v1 , v2 , , vq es el siguiente:

1. c = 1.

2. V una matriz vaca.

3. P una matriz vaca.

4. Encontrar Nhc , una base para Nhc .


 
5. Construir Q = P Bhc 1 Nhc .

6. Emplear el algoritmo izquierda-a-derecha para extraer las columnas de Q


linealmente independientes y adicion
arselas a P. Por cada columna que se
extraiga de Q se extrae la columna correspondiente de Nhc y se adiciona
a la matriz V.

7. Sea d la siguiente columna con hd < hc . Hacer c = d y repetir desde 4


hasta terminar las columnas

8. V es la matriz que contiene a v1 , v2 , , vq .

Ejemplo D.41 Para obtener los vectores v1 y v2 del ejemplo D.40 identificamos
q = 2, h1 = 3, h2 = 2, y empleamos el algoritmo siguiendo los siguientes pasos

1. Para c = 1 se tiene que hc = 3, por lo tanto buscamos N3 una base para N3 ,


es decir buscamos los vectores x tales que B3 x = 0:

0 0 0 1 0
0 0 1 0 0

0 1 0 0 0
N3 =
1 0 0 0 0

0 0 0 0 0.707
0 0 0 0 0.707
 
2. Construimos Q = B2 N3

2 2 0 0 0
2 2 0 0 0

0 0 0 0 0
Q=
0

0 0 0 0
0 0 0 0 0
0 0 0 0 0

276
D.5. VALORES Y VECTORES PROPIOS

3. Al aplicar el algoritmo izquierda-a-derecha s


olo se extrae la primera columna
de Q, por lo tanto las matrices P y V seran:

2 0
2 0

0 0
P= V=
0

1

0 0
0 0
4. La siguiente columna de altura menor a 3 es la columna 2, con h 2 = 2, por lo
tanto buscamos N2 una base para N2 , es decir buscamos los vectores x tales
que B2 x = 0:
0 0 0 1
0.707 0.707 0 0

0.5 0.5 0 0
N2 =
0.5
0.5 0 0

0 0 0.707 0
0 0 0.707 0
 
5. Construimos Q = P BN2

2 0.707 0.707 0 1
2 0.707 0.707 0 1

0 0 0 1.414 0
Q=
0 0 0 1.414 0
0 0 0 0 0
0 0 0 0 0
6. Al aplicar el algoritmo izquierda-a-derecha s
olo se extraen la primera y la
cuarta columnas de Q, por lo tanto las matrices P y V seran:

2 0 0 0
2 0 0 0

0 1.414 0 0
P= V=
0 1.414 1 0


0 0 0 0.707
0 0 0 0.707
 
7. La matriz V = v1 v2 contiene los dos vectores necesarios para construir el
diagrama de Matthew, por lo tanto el conjunto completo de vectores propios
generalizados de A asociados a 1 = 2 son los que aparecen en el diagrama
de Matthew:

2 1 0 0 0
2 1 0 0 0

 2  0 0 0 1.414 0
B v1 Bv1 v1 Bv2 v2 =
0 0 1 1.414 0
0 0 0 0 0.707
0 0 0 0 0.707

277
OSCAR G. DUARTE

D.6. Forma can


onica de Jordan
Sea A una transformaci on lineal A : Cn Cn . Sean 1 , 2 , , m los va-
lores propios diferentes de A. Sea j uno de esos valor propios, de multiplicidad
rj cuyo diagrama de Matthew, tiene qj columnas; la iesima columna tendr a
altura hij ; ademas los vectores propios generalizados asociados a j obtenidos
con este diagrama son vj1 , vj2 , , vjrj .
En esas condiciones, es posible encontrar dos matrices M y J tales que
J = M1 AM (D.36)


J11 0 0
0
J12 0

.. .. .. ..
.
. . . 0

0
0 J1q1


J= ..
(D.37)
.


Jm1 0 0


0 Jm2 0

.. .. .. ..
0 . . . .
0 0 Jmqm

j 1 0 0
0
j 1 0
.. .. ..
.
Jji = . . 0 (D.38)
..
0 0 0 . 1
0 0 0 j h
ij hij

 
M = v11 v12 v1r1 vm1 vm2 vmrm (D.39)
J es conocida como la forma can onica de Jordan de A. La ecuaci on D.37
muestra que la matriz J es diagonal por bloques, es decir, esta formada por
bloques organizados en la diagonal. Por fuera de estos bloques s
olo hay ceros
en la matriz. M es la matriz modal, y esta formada por los vectores propios
generalizados de A. La matriz modal no es unica.
Los bloques Jji que forman J tienen las siguientes propiedades:
Cada valor propio diferente j tendr
a asociados uno o varios bloques Jji .
El n
umero de bloques asociados a j ser
a igual al n
umero de columnas de
su diagrama de matthew, qj .
Los bloques Jji son cuadrados, y el tama
no del bloque (el n
umero de filas
o de columnas) es igual a la altura de la columna correspondiente en el
diagrama de Matthew, hij .

278

D.6. FORMA CANONICA DE JORDAN

Cada bloque Jji tiene en la diagonal al valor propio j , tiene 1 por encima
de la diagonal, y cero en las restantes casillas.

Cada valor propio que no se repita tendr


a asociado un u
nico bloque de
tama
no 1.

En el caso sencillo en que ningun valor propio se repita J ser a una matriz
diagonal que tendr a en la diagonal a los valores propios 1 , 2 , , n .

Ejemplo D.42 Para obtener la forma can onica de Jordan de la matriz A del ejem-
plo D.40, se necesita construir la matriz modal M con todos los vectores propios
generalizados. En el ejemplo D.41 se calcularon los vectores asociados a 1 = 2. En
vector propio asociado a 2 = 0 sera:

0
0

0
v=
0


0.707
0.707

Por lo tanto la matriz modal sera



2 1 0 0 0 0
2 1 0 0 0 0

0 0 0 1.414 0 0
M=
0 0
1 1.414 0 0
0 0 0 0 0.707 0.707
0 0 0 0 0.707 0.707

La forma can
onica de Jordan sera

2 1 0 0 0 0
2 1 0 0 0 0


0 2 1 0 0 0
0 2 1 0 0 0
0 0 2 0 0 0
0 0 2 0 0 0
J = M1 AM =

=
0 0 0 2 1 0 0 0 0 2 1 0

0 0 0 0 2 0
0 0 0 0 2 0

0 0 0 0 0 0
0 0 0 0 0 0

Notese que el valor propio 1 = 2 tiene dos bloques de Jordan asociados de


tamano 3 y 2 respectivamente, tal como se podra infereir de su diagrama de Matt-
hew: el diagrama tiene dos columnas, la primera de altura 3 y la segunda de altura
2.
El valor propio 2 = 0 no se repite, y por tanto tiene un unico bloque de jordan
asociado de tama no 1.

279
OSCAR G. DUARTE

D.7. Forma can


onica real de Jordan
Dado que los valores propios de una matriz pueden ser complejos, en general
las matrices J y M que aparecen en las ecuaciones (D.37), (D.38) y (D.39) ser
an
complejas.
No obstante, cuando existen valores propios complejos es posible efectuar
otro cambio de coordenadas diferente que produce tambien una matriz diagonal
por bloques, pero real, conocida como la forma canonica Real de Jordan.

D.7.1. Bloques de Jordan de tama


no 1
Supongase que la matriz A tiene dos valores propios complejos conjugados
i = a + jb y i+1 = a jb, y que cada uno de estos valores tiene un bloque
de Jordan de tamano 1 asociado a los vectores propios generalizados v k y vk+1 ,
que tambien son complejos conjugados. Es decir, la forma can onica de Jordan
de A es de la forma

..
.
1
a + jb 0
J = M AM =
0 a jb

..
.
 
M = vk vk+1
La forma can
onica real de Jordan remplaza los dos bloques de tama
no 1 por
uno de tama
no 2 de la forma  
a b
b a
Es decir, la forma can
onica real de Jordan de A ser
a

..
.
1
a b
JR = MR AMR =
b a

..
.
La matriz modal real MR se obtiene remplazando en M los vectores com-
plejos conjugados vk y vk+1 por dos vectores reales con la parte real y la parte
imaginaria de v, es decir
 
MR = Re(vk ) Im(vk )

Ejemplo D.43 Sea la matriz A



0 0.5 0
A = 0 0 2
1 1 2

280

D.7. FORMA CANONICA REAL DE JORDAN

Los valores propios de A son


1 = 1 2,3 = 0.5 j0.866
La forma can
onica de Jordan de A y la matriz modal que la producen son:

1 0 0
J = 0 0.5 + j0.866 0
0 0 0.5 j0.866

0.408 (0.015 j0.408) (0.015 + j0.408)
M = 0.816 (0.721 + j0.382) (0.721 j0.382)
0.408 (0.346 j0.217) (0.346 + j0.217)
Para obtener la Forma Can
onica Real de Jordan de A construimos la matriz real
MR , y verificamos.

0.408 0.015 0.408
MR = 0.816 0.721 0.382
0.408 0.346 0.217

1 0 0
JR = M1
R AMR
0 0.5 0.866
0 0.866 0.5

Otra alternativa
dado un bloque  
a + jb 0
Ji =
0 a jb
existe una matriz N tal que NAN1 es real, con la forma can
onica real de
Jordan:    
(1 j) (1 + j) a b
N= NAN1 =
(1 + j) (1 j) b a

Una interpretaci
on
Un bloque real de jordan Jr asociado a un valor propio a + jb puede reescri-
birse de la siguente forma:
     
a b a 0 0 b
Ji = = + = aI + bL
b a 0 a b 0
En donde pI es la matriz identidad, y L es una matriz que cumple un papel
similar a j = (1), ya que
 
0 1
J= J2 = I
1 0
De esta manera, un bloque de real de Jordan puede interpretarse como un
n
umero complejo matricial.

281
OSCAR G. DUARTE

D.7.2. Bloques de Jordan de tama


no mayor que 1
dado un bloque

a + jb 1 0 0
0 a + jb 0 0
Ji =
0 0 a jb 1
0 0 0 a jb

Su forma can
onica real de Jordan es

a b 1 0
b a 0 1
JRi =
0 0

a b
0 0 b a

En la diagonal esta la nueva presentaci on de los e-valores, como bloques


reales de Jordan y sobre la diagonal esta la matriz identidad. Para obtener est
a
matriz puede procederse de forma similar a como se hace con los bloques de
tamano 1, es decir, remplazar los vectores propios complejos conjugados por
vectores con las partes real e imaginaria de estos.
En general JRi sera de la forma:

(aI + bL) I 0 0 0

0 (aI + bL) I 0 0

.. .. .. .. .. ..
(D.40)

. . . . . .

0 0 0 (aI + bL) I
0 0 0 0 (aI + bL)

D.8. Funciones de matrices cuadradas


Sea f () una funci
on que opera sobre un escalar, y sea A una matriz cua-
drada n n. En esta seccion se aborda el problema de c omo calcular f (A), es
decir, c
omo extender f () de los escalares a las matrices.

D.8.1. Polinomios de matrices


Si f () es un polinomio, la extensi on a las matrices se fundamenta en la
definici
on
Ak = AA
| {z A} A0 = I (D.41)
k veces

Si la matriz A tiene una representaci


on can
onica de Jordan J obtenida con
la matriz modal M, es decir, si A = MJM1 entonces

Ak = (MJM1 )(MJM1 ) (MJM1 ) = M (J J) M1


| {z } | {z }
k veces k veces

282
D.8. FUNCIONES DE MATRICES CUADRADAS

Ak = MJk M1 (D.42)
k
Como J es una matriz diagonal por bloques, el calculo de J puede efectuarse
como sigue:
k
J1 0 0 J1 0 0
0 J2 0 0 Jk2 0
Jk = .

J= . . . . .. . . .
.. .. . . .. .. . . ..
0 0 Jn 0 0 Jkn
Empleando la definici
on (D.41), un polinomio generico
f () = a0 + a1 + a2 2 + + an n
puede calcularse en A como
f (A) = a0 I + a1 A + a2 A2 + + an An
o en funci
on de las matrices M y J:
f (A) = a0 MM1 + a1 MJM1 + a2 MJ2 M1 + + an MJn M
f (A) = Mf (J)M1 (D.43)
Ejemplo D.44 Calcular Ak cuando A es una matriz diagonal:
k
1 0 0 1 0 0
0 2 0 0 k2 0
Ak = .

A= . .. . . .. .. . . ..
.. . . . .. . . .
0 0 n 0 0 kn
Ejemplo D.45 Calcular Ak cuando A es una matriz con la forma de los bloques
reales de Jordan para el caso en que los valores propios son imaginarios puros
 
0 b
A=
b 0
calculamos los primeros terminos A1 , A2 , A3 , A4 , A5 y A6 :
   2   
1 0 b 2 b 0 3 0 b3
A = A = A = 3
b 0 0 b2 b 0
 4     
4 b 0 5 0 b5 6 b6 0
A = A = A =
0 b4 b5 0 0 b6
Observando la secuencia se puede inferir que
" #
k

(1) 2 bk 0

k si k es par


0 (1) 2 bk
Ak = " #
k1
2 bk


0 (1)


(1) k+1 si k es impar
2 bk 0

283
OSCAR G. DUARTE

Ejemplo D.46 Calcular Ak cuando A es una matriz con la forma de los bloques
no 5 5
de Jordan; para ilustrar este caso supongamos una matriz de tama

1 0 0 0
0 1 0 0

A=
0 0 1 0
0 0 0 1
0 0 0 0

Calculamos los primeros terminos A1 , A2 , A3



1 0 0 0 2 2 1 0 0
0
1 0 0
0
2 2 1 0
A1 =
0 0 1 0 A2 =
0 0 2 2 1
0 0 0 1 0 0 0 2 2
0 0 0 0 0 0 0 0 2

3 32 3 1 0 4 43 62 4 1
0
3 32 3 1
0
4 43 62 4
A3 =
0 0 3 32 3 A4 =
0 0 4 43 62

0 0 0 3 32 0 0 0 4 43
0 0 0 0 3 0 0 0 0 4
6
5 54 103 102 5 65 154 203 152
0
5 54 103 102
0
6 65 154 203

A5 =
0 0 5 54 103 6
A =0
0 6 65 154

0 0 0 5 5 4 0 0 0 6 65
5
0 0 0 0 0 0 0 0 6

Puede verse que Ak es una matriz triangular superior, en la que los elementos
de la fila i son los mismos elementos de la fila i + 1 pero estan desplazados una
casilla a la derecha.
Los terminos de la diagonal son k . Denotemos por aj un elemento que este
desplazado j casillas de la diagonal en cualquier fila; a j sera
  
0 si j < k k
aj = k! kj aj = kj
j!(kj)! si j k j

Este resultado se puede generalizar para una matriz n n con la forma de los
bloques de Jordan:

1 0 0
0 1 0

A = ... ... . . . .. ..

. .
0 0 1
0 0 0

284
D.8. FUNCIONES DE MATRICES CUADRADAS

k! k! k!

k 1!(k1)!
k1
2!(k2)!
k2
(n1)!(kn+1)!
kn+1
0 k k! k1 k! kn+2
1!(k1)! (n2)!(kn+2)!
. .. .. ..
Ak = .. (D.44)
.. . . . .
k!
0 0 0 k 1!(k1)!
k1
k
0 0 0 0
En caso de que un exponente k j sea negativo, el termino correspondiente en
D.44 sera 0

D.8.2. Funciones como series de potencias


Es posible extender una funcion f () de los escalares a las matrices em-
pleando la representaci
on de f () en series de Taylor expandidas alrededor de
0 (series de MacLaurin):

X k dk f ()
f () = (D.45)
k! d k
k=0

Empleando (D.45) se puede expresar f () como un polinomio de . Si A es


una matriz cuadrada, puede calcularse f (a) empleando ese polinomio.
Las siguientes son las expansiones de algunas funciones comunes:

t 2 t2 3 tk 4 tk
et = 1 + + + + + (D.46)
1! 2! 3! 4!

2 t2 4 t4 6 t6 8 t8
cos t = 1 + + + (D.47)
2! 4! 6! 8!

t 3 t3 5 t5 7 t7
sin t = + + (D.48)
1! 3! 5! 7!

Ejemplo D.47 Sea A una matriz diagonal como la del ejemplo D.44. Para calcular
eAt podemos emplear (D.46)

At A2 t2 A3 t k A4 t k
eAt = I + + + + +
1! 2! 3! 4!
que de acuerdo con
los resultados del ejemplo D.44 se calculara asi:
2
1 0 0 1 0 0 1 0 0
0 1 2
0 0 2 0 t2 0 2 0
t
eAt = . . .

.. + .. .. . . .. + .. .. . . .. +
.. .. .. . 1! . . . . 2! . . . .
0 0 1 0 0 n 0 0 2n

285
OSCAR G. DUARTE


1 t 21 t2
(1 + 1! + 2! +) 0 0
2 t 22 t2
At
0 (1 + 1! + 2! + ) 0
e =
.. .. .. ..


. . . .
1 t
0 0 (1 + 1! +)
Cada uno de los terminos de la diagonal corresponde a la expansi
on de en series
de Taylor de una exponencial como las de (D.46), por lo tanto e At sera:
t
e 1 0 0
0 e 2 t 0
eAt = .

. . ..
.. .. .. .
0 0 e n t
Ejemplo D.48 Sea A una matriz con la forma de los bloques reales de Jordan para
el caso en que los valores propios son imaginarios puros, como la del ejemplo D.45.
Para calcular eAt podemos emplear (D.46)
At A2 t2 A3 t k A4 t k
eAt = I + + + + +
1! 2! 3! 4!
que de acuerdo con los resultados del ejemplo D.45 se calculara asi:
    2 2  3  4 4 
At 1 0 t 0 b t b 0 t 0 b3 t b 0
e = + + + + +
0 1 1! b 0 2! 0 b2 3! b3 0 4! 0 b4
" 2 2 4 4 3 3 5 5
#
At (1 t 2!b + t 2!b + ) ( tb
1! t 3!b + t 5!b + )
e = t 3 b3 t 5 b5 2 2 4 4
( tb
1! + 3! 5! + ) (1 t 2!b + t 2!b + )
Cada uno de los terminos de la matriz corresponde a la expansi
on de Taylor de una
sinusoide como las de (D.47) y (D.48), por lo tanto eAt puede calcularse como
 
cos(bt) sin(bt)
eAt =
sin(bt) cos(bt)
Ejemplo D.49 Sea A una matriz con la forma de los bloques de jordan como la
del ejemplo D.46. Para calcular eAt podemos emplear (D.46)
At A2 t2 A3 t k A4 t k
eAt = I + + + + +
1! 2! 3! 4!
que de acuerdo con los resultados del ejemplo D.46 se calculara asi:
2 1
1 0 0 1 0 2! 1
t t k 1!
+ 0 1 + 0 2! +
At 0 1 0
e =
.. .. . . .. 1! .. .. . . .. 2! .. .. .. ..
. . . . . . . . . . . .
P k k P k1 k P k2 k
t t t
k=0 k! k=1 k=2 2!(k2)!
P 1!(k1)!
k k
t P k1
t k
eAt =

0 k=0 k! k=1 1!(k1)!

.. .. .. ..
. . . .

286
D.8. FUNCIONES DE MATRICES CUADRADAS

P P P
k t k t k1 tk1 t2 k2 tk2
k=0 k! 1! k=1 (k1)! 2! k=2 (k2)!
P k tk t
P k1 tk1
eAt =

0 k=0 k! 1! k=1 (k1)!

.. .. .. ..
. . . .
Efectuando el cambio de variable m = k j se tiene
P k k
t t P m t m t2 P m t m
k=0 k! 1! m=0 m=0 (m)!
P k(m)!
tk
2!
t
P m tm
eAt =

0 k=0 k! 1! m=0 (m)!

.. .. .. ..
. . . .

Cada una de las sumatorias corresponde a la expansi on de taylor de una expo-


nencial como la de (D.46), por lo tanto
t t t t2 t
e 1! e 2! e
t t
eAt = 0
et 1! e
(D.49)
.. .. .. ..
. . . .

Ejemplo D.50 Sea A una matriz con la forma de los bloques reales de Jordan
 
a b
A=
b a

Para calcular eAt escribimos A como la suma de dos matrices:


     
a b a 0 0 b
A= =B+C= +
b a b 0 b 0

De tal manera que eAt = eBt eCt . Empleando los resultados de los ejemplos D.47 y
D.48 se tiene que
 at   
e 0 cos(bt) sin(bt)
eBt = e Ct
=
0 eat sin(bt) cos(bt)

y por lo tanto
 at    at 
At e 0 cos(bt) sin(bt) e cos(bt) eat sin(bt)
e = =
0 eat sin(bt) cos(bt) eat sin(bt) eat cos(bt)

D.8.3. Definici
on de funciones mediante polinomios
Definici
on D.35 Polinomio mnimo de una matriz
Sea A una matriz cuadrada. El polinomio mnimo de A es el polinomio m
onico
() de menor orden tal que (A) = 0

Teorema D.25 El polinomio mnimo de una matriz cuadrada A es el mismo poli-


nomio mnimo de su representaci
on can
onica de Jordan J.

287
OSCAR G. DUARTE

Demostraci
on D.25 En virtud de (D.43), es claro que (A) = 0 si y s
olo si
(J) = 0.

Definicion D.36 Indice de una matriz


Sea A una matriz cuadrada, cuya forma can onica de Jordan es J, de la forma de
(D.37). Cada valor propio j es de multiplicidad rj y tiene asociados qj bloques de
Jordan de la forma de (D.38). Cada bloque es de tama no h ij . Se define el ndice
del valor propio j , denotado por n
j como el tamano mas grande de los bloques de
jordan Jji asociados al valor propio j . Claramente n j rj y n j = maxi {hij }.

Teorema D.26 Sean 1 , 2 , , m , los valores propios de una matriz A con n-


dices n 2, , n
1, n m respectivamente. El polinomio mnimo de A es

m
Y
() = ( j )n j (D.50)
j=1

Demostraci on D.26 De acuerdo con el teorema D.25, basta con demostrar que
(D.50) es el polinomio mnimo de J, la forma canonica de Jordan de A.
Consideremos primero la matriz Jj con los bloques de Jordan asociados al valor
propio j :

Jj1 0 0
0 Jj2 0

Jj = . . . ..
.. .. .. .
0 0 Jjqj

El polinomio mnimo de Jj es j () = ( j )n j como puede comprobarse al


calcular (Jji j I)hij :

0 1 0 0 0
0
0 1 0 0
0
0 0 0 0
(Jji j I) = . .. .. . . .. ..
.. . . . . .

0 0 0 0 1
0 0 0 0 0 h ij hij


0 0 1 0 0
0
0 0 0 0

0 0 0 0 0
2
(Jji j I) = . .. .. . . .. ..
.. . . . . .

0 0 0 0 0
0 0 0 0 0 hij hij

288
D.8. FUNCIONES DE MATRICES CUADRADAS


0 0 0 1 0
0
0 0 0 1

0 0 0 0 0
(Jji j I)hij 2

= . .. .. . . .. ..
.. . . . . .

0 0 0 0 0
0 0 0 0 0 hij hij

0 0 0 0 1
0
0 0 0 0

0 0 0 0 0
(Jji j I)hij 1

= . .. .. . . .. ..
.. . . . . .

0 0 0 0 0
0 0 0 0 0 hij hij

(Jji j I)hij = 0

De acuerdo con la definici on D.36 n j es el tama


no del bloque de Jordan asociado
a j mas grande, es claro que (Jji j I)n j = 0 para todos los bloques de Jordan
asociados a j . Como Jj es diagonal por bloques, y sus bloques son Jji se desprende
que (Jj j I)n j = 0 es decir, que el polinomio mnimo de Jj es ( j )n j .
Siguiendo un argumento similar, como J es diagonal por bloques, y sus bloques
son Jj , se tiene que el polinomio mnimo de J es
m
Y
() = ( j )n j
i=j

Ejemplo D.51 Las matrices,



a 0 0 0 a 0 0 0 a 1 0 0
0 a 0 0 0 a 1 0 0 a 1 0
0 0 a 0 A2 = 0 0 a 0 A3 = 0 0 a 0
A1 =

0 0 0 b 0 0 0 b 0 0 0 b

que estan en la forma can onica de Jordan, tienen todas el mismo polinomio carac-
terstico () = ( a)3 ( b). Sin embargo, el polinomio mnimo de cada una
de ellas es diferente, debido a que el ndice de a es diferente:

para A1 es 1 () = ( a)( b)

para A2 es 2 () = ( a)2 ( b)

para A3 es 3 () = ( a)3 ( b)

Teorema D.27 (Teorema de Caley-Hamilton) Si () es el polinomio caracters-


tico de una matriz cuadrada A, entonces (A) = 0

289
OSCAR G. DUARTE

Demostraci
on D.27 El polinomio mmino de A es
m
Y
() = ( j )n j
i=j

Mientras que el polinomio caracterstico es


m
Y
() = ( j )nj
i=j

j nj , y como (A) = 0, queda demostrado que (A) = 0


Como n

Definicion D.37 Valores de una funci on en el espectro de una matriz


Sean 1 , 2 , , m , los valores propios de una matriz A conndices n 2, , n
1, n m
respectivamente. Sea el polinomio mnimo de A y sea f un polinomio cualquiera.
(l)
El conjunto de valores de f en el espectro de A son los valores: f (i ) para
l
i 1; i = 1, 2, , m en donde f (l) (i ) = d d
f ()
l = 0, 1, 2, , n l y en total
Pm =i
son n = i=1 n i valores.

Teorema D.28 Sean 1 , 2 , , m , los valores propios de una matriz A con n-


dices n 2, , n
1, n m respectivamente. Sea el polinomio mnimo de A y sean f
y g dos polinomios cualesquiera. En esas condiciones cualquiera de las siguientes
afirmaciones es equivalente
1. f (A) = g(A)
2. Una de dos condiciones se cumple: o bien f = h1 + g o
g = h2 + f para
algunos polinomios h1 , h2 .
3. Los valores de f y de g en el espectro de A son iguales f (l) (i ) = g (l) (i )
para l = 0, 1, 2, , n
i 1; i = 1, 2, , m.

Demostracion D.28 Dado que (A) = 0 es evidente la equivalencia de las afir-


macionesQ1 y 2. Para demostrar la equivalencia entre 2 y 3 basta recordar que
m
() = j=1 ( j )n j y calcular las derivadas f (l) (i ) y g (l) (i ).

Definici
on D.38 Funciones de matrices cuadradas
Sea f () una funci on, no necesariamente un polinomio, definida en el espectro
de A. Si g() es un polinomio que tiene los mismos valores en el espectro de A
entonces se define f (A) = g(A).

La definici
on D.38 brinda una posibilidad para extender a las matrices cua-
dradas una funci on f () definida para escalares. Es decir, permite calcular f (A)
buscando un polinomio adecuado g y calculando g(A). El procedimiento com-
pleto puede resumirse asi:
Sea f () una funcion, y sea A una matriz n n. Para calcular f (A) deben
seguirse los siguientes pasos

290
D.8. FUNCIONES DE MATRICES CUADRADAS

1. Obtener el polinomio caracterstico de A


m
Y
= ( i )ni
i=1

2. Definir el polinomio g()

g() = 0 + 1 + 2 2 + + n1 n1

en donde 0 , , n1 son desconocidas. Cualquier otro polinomio de or-


den n 1 es igualmente v alido.

3. Plantear n ecuaciones igualando los valores de f y g en el espectro de A


f (l) (i ) = g (l) (i ) para l = 0, 1, 2, , n
i 1; i = 1, 2, , m

4. Obtener 0 , , n1 a partir de las n ecuaciones del punto anterior

5. Calcular f (A) = g(A) = 0 I + 1 A + 2 A2 + , +n1 An1

Ejemplo D.52 Calcular A50 con


 
1 3
A=
0 1

El problema puede plantearse tambien de la siguiente forma: dada f () = 50


calcular f (A). Empleamos el procedimiento propuesto:

1. El polinomio caracterstico de A es

= ( 1)2

2. Definimos el polinomio
g() = 0 + 1

3. Obtenemos las ecuaciones

f (0) (1) = 150 = 1 g (0) (1) = 0 + 11


f (1) (1) = 50 149 = 50 g (1) (1) = 1
f (0) (1) = g (0) (1) 0 + 1 = 1
f (1) (1) = g (1) (1) 1 = 50

4. obtenemos 0 y 1 :
( (
0 + 1 = 1 0 = 49

1 = 50 1 = 50

291
OSCAR G. DUARTE

5. Calculamos f (A) = g(A)


     
1 0 1 3 1 150
f (A) = g(A) = 49 + 50 =
0 1 0 1 0 1

Ejemplo D.53 Calcular f (A) cuando A es una matriz con la forma de los bloques
de Jordan. Para ilustrar suponemos una matriz de orden 4 4

1 1 0 0
0 1 1 0

0 0 1 1
0 0 0 1

Empleamos el procedimiento propuesto:

1. El polinomio caracterstico es

() = ( 1 )4

2. Definimos un polinomio de orden 3

g() = 0 + 1 ( 1 ) + 2 ( 1 )2 + 3 ( 1 )3

3. Obtenemos 4 ecuaciones
f (1 ) = g(1 ) = 0
f (1) (1 ) = g (1) (1 ) = 1!1
f (2) (1 ) = g (2) (1 ) = 2!2
f (3) (1 ) = g (3) (1 ) = 3!3

4. Obtenemos los valores de i :




0 = f (1 )


1 = f (1) (1 )/1!


2 = f (2) (1 )/2!

3 = f (3) (1 )/3!

5. Calculamos f (A) = g(A)

f (1) (1 ) f (2) (1 ) f (3) (1 )


f (A) = f (1 )I+ (AI)+ (AI)2 + (AI)3
1! 2! 3!

1 0 0 0 0 1 0 0
0 1 0 0 f (1) (1 ) 0 0 1 0
f (A) = f (1 )
0 0 1 0 +

0 0 0 1 +

1!
0 0 0 1 0 0 0 0

292
D.8. FUNCIONES DE MATRICES CUADRADAS


0 0 1 0 0 0 0 1
f (2) (1 )
0 0 0 1
+ f (3)
( 1 ) 0
0 0 0

2! 0 0 0 0 3! 0 0 0 0
0 0 0 0 0 0 0 0
f (1) (1 ) f (2) (1 ) f (3) (1)

f (1 ) 1! 2! 3!
f (1) (1 ) f (2) (1 )
f (A) = 0 f (1 )
1! 2!


0 f (1) (1 )
0 f (1 ) 1!
0 0 0 f (1 )

Siguiendo un procedimiento similar puede obtenerse f (A) cuando A es una


matrix n n con la forma de los bloques de Jordan
(1) (2) (n1)
f (1 ) f 1!(1 ) f 2!(1 ) f (n1)! (1 )
(1) (n2)
0
f (1 ) f 1!(1 ) f (n2)! (1 )


f (A) = 0 f (n3) (1 ) (D.51)
0 f (1 ) (n3)!

. .. .. .. ..
.. . . . .
0 0 0 f (1 )

Ejemplo D.54 Calcular f (A) cuando A es una matriz con la forma de los bloques
de Jordan y f () = et .
Empleando (D.51) se obtiene directamente eAt
t t t2 t

et 1! e 2! e
t t t
eAt
0
= e 1! e
(D.52)
.. .. .. ..
. . . .

Notese que las derivadas en (D.51) son respecto a . Vale la pena comparar los
resultados (D.49) y (D.52)

Ejemplo D.55 Calcular f (A) cuando A es una matriz con la forma de los bloques
de Jordan y f () = (s )1 .
Empleando (D.51) se obtiene directamente (sI A)1 :
1 1 1

(s1 ) (s1 )2 (s1 )3
1 1
0
(s1 ) (s1 )2
1
(sI A) = 0
0 1


(D.53)
(s1 )
.. .. .. ..
. . . .

293
OSCAR G. DUARTE

294
Bibliografa

[1] Fabiola Angulo. An alisis de Sistemas de Control No Lineales. Facultad de


Ingeniera Universidad Nacional de Colombia, Sede Manizales, 1999.

[2] Antsaklis y Michel. Linear Systems. Mc GrawHill.

[3] Karl J. Astrom y Bjorn Wittenmark. Computer Controlled Systems. Theory


and Design. Prentice Hall, 1997.

[4] Thomas J. Cavicchi. Digital Signal Processing. John Wiley and Sons, 2000.

[5] Chi-Tsong Chen. Linear System Theory and Design. Oxford Press.

[6] Chi-Tsong Chen. Analog and Digital Control System Design. Saunders
College Pubkishing, 1993.

[7] John J. Dazzo y Constantine Houpis. Linear Control Systems Analysis


and Design. Mc GrawHill, 1988.

[8] Eronini, Umez, y Eronini. Din


amica de Sistemas y Control. Thomson
Learning, 2001.
Frederick. The Control Handbook, chapter Graphical Modeles, pa-
[9] CloseN.
ges 8598. CRC Press and IEEE Press, 1996.

[10] John Guckemheimer y Philip Holmes. Nonlinear Oscillations, Dynamical


Systems and Bifurcations of Vector Fields. Springer Verlag, 1983.

[11] G.H. Hostetter, C.J. Savant, y R.T. Stefani. Sistemas de Control. Intera-
mericana, 1987.

[12] Benjamin Kuo. Digital Control Systems. Oxford press, 1992.

[13] Benjamin Kuo. Sistemas Autom


aticos de Control. Mc. GrawHill, 1995.

[14] William S. Levine. The Control Handbook. CRC Press and IEEE Press,
1996.

[15] Douglas K. Lindner. Introducci


on a las se
nales y los sistemas. Mc. Graw
Hill, 2002.

295
OSCAR G. DUARTE

[16] Lennart Ljung. System Identification. Prentice hall.


[17] William L. Luyben, Bjorn D. Tyreus, y Michel L. Luyben. Plantwide Pro-
cess Control. Mc Graw Hill, 1999.
[18] Adolfo Mora. Tecnologa del Control de Procesos Industriales. Facultad de
Ingeniera Universidad Nacional de Colombia, 1987.
[19] Babatunde A. Ogunnaike y W. Harmon Ray. Process Dynamics, Modeling,
and Control. Oxford Press, 1994.
[20] Alan V. Oppenheim, Alan S. Willsky, y Hamid Nawab. Signals and Sys-
tems. Prentice Hall, 1996.
[21] Alexander D. Poularikas. The Transforms and Applications Handbook.
CRC Press and IEEE Press, 2000.
[22] M..V.C Rao y A.K. Subramanian. Elimination of singular cases in jurys
test. IEEE Transactions on Automatic Control, AC-21(Feb. 1976):114115.
[23] Mathukumalli Vidyasagar. Nonlinear Systems Analysis. Prentice Hall,
1993.

296
Indice analtico

Ak , 282285 Caley-Hamilton, 289


a
lgebra lineal, 140157, 239293 campo, 140, 240
amortiguamiento viscoso, 11 caos, 206
amortiguamiento viscoso rotacional, 11 capacitancia, 9, 11
a
ngulo entre vectores, 252 capacitancia termica, 11
anillo, 240 carta de Nichols, 235237
con unidad, 240 coordenadas polares, 237
conmutativo, 240 coordenadas rectangulares, 237
modulativo, 240 caudal, 11
anulativa, 140, 241 causalidad, vease modelos causales
a
rea de tanque, 11 condicionada, 17
asociativa, 140, 239241 en grafos de enlace de potencia, 17
autovalor, vease valores propios fija, 17
autovector, vease vectores propios indiferente, 18
preferida, 17
base, 141, 178, 242246
centro, 172
cambio de, 141, 180, 245246
ceros, vease funci on de transferencia,
y transformaciones lineales, 248
efecto de los ceros
250
cerradura, vease clausurativa
bifurcaciones, 205
ciclos lmite, 203
Bode
circunferencia unitaria, 252
caso continuo, 107112
criterio, 109 clausurativa, 140, 239241
diagramas, 109, 229230 codominio, 256
caso discreto, 129131 combinaci on lineal, 141, 242
diagramas, 130 condiciones auxiliares, 21, 22, 159
bola unitaria, 251 condiciones iniciales, 21, 22, 24, 159
Bond Graphs, vease grafos de enlaces conductancia, 11
de potencia conjunto generado, 141, 243
conjunto generador, 141, 243
caja blanca, vease modelos de caja blan- conmutativa, 140, 239241
ca continuos
caja gris, vease modelos de caja gris modelos, vease modelos continuos
caja negra, vease modelos de caja ne- control
gra por realimentaci on, 89

297
OSCAR G. DUARTE

por variable de estado, 187193 eAt , 156, 157, 166, 285287


controlabilidad, 190191 ecuaci on
de estado, 191 de estado, 157
de salida, 191 de salida, 157
test de, 190 ecuaciones de diferencia, 2223
convolucion, 214, 220 condiciones auxiliares, 22
continua, 63 condiciones iniciales, 22
discreta, 57 lineales, 2324
coordenadas, 141, 243 metodos de solucion, 2427
unicidad, 244 ordinarias de coeficientes constan-
corriente, 11 tes, 8
de armadura, 161 representacion de estado, 163
de campo, 161 on mediante transformada Z,
soluci
crecimiento demogr afico, 162 3941
y sistemas discretos, 45
degeneracidad, 148, 267 ecuaciones de diferencias finitas, vease
desigualdad de Sylvester, 261 ecuaciones de diferencia
desplazamiento en el tiempo, 215 ecuaciones diferenciales, 21
desplazamiento en la frecuencia, 211 condiciones auxiliares, 21
determinsticos, vease modelos deter- condiciones iniciales, 21
minsticos lineales, 2324
diagonalizaci on, 146, 265 metodos de solucion, 2427
por bloques, 148, 150 ordinarias de coeficientes constan-
diagrama de Matthew, 151, 273275 tes, 8
diagramas de bloques, 48 representacion de estado, 163
equivalencias, 48 soluci
on mediante transformada de
diagramas de flujo de se nal, 4855 Laplace, 3941
camino directo, 50 y sistemas continuos, 43
ganancia de camino directo, 50 entalpa, 11
ganancia de lazo cerrado, 50 entrada-salida, vease modelos de entrada-
lazo cerrado, 50 salida
lazos adyacentes, 50, 52 error de estado estacionario, 9193
lazos no adyacentes, 50, 52 escalamiento en la frecuencia, 218
regla de Mason, 52 escalares, 140
diferencia de temperatura, 11 esfuerzo, 911
diferencia positiva, 216 fuentes de, 12
diferenciaci
on, 210 espacio de estado, 176180
diferencias finitas, vease ecuaciones de espacio vectorial, 140144, 176, 239
diferencias 246
dimension, 141, 178, 243 base, 141, vease base, 243
dinamicos, vease modelos din amicos cambio de, 141, 245246
discretos definici
on, 241
modelos, vease modelos discretos dimensi on, 141, 243
distancia entre vectores, 251 estabilidad
distributiva, 140, 240, 241 BIBO, 93
Duffing, 204 de entrada-salida, 93

298

INDICE ANAL
ITICO

local, 201 forma can onica de Jordan, 146154, 167,


marginal, 98 178, 182, 183, 278282
merginal, 94 forma real, 280282
sistemas realimentados continuos, fracciones parciales, 3639
93121 fuente, 172
Bode, diagramas y criterio de, fuentes
vease Bode, caso continuo de esfuerzo, 12
lugar geometrico de raices, vea- de flujo, 12
se root-locus, caso continuo fuerza, 11
Nyquist, diagrama y criterio de, fuerza magnetomotriz, 11
vease Nyquist, caso continuo funci on de transferencia, 47
Root-Locus, vease root-locus efecto de los ceros, 8386
Routh-Hurwitz, arreglo y crite- matriz de funciones, 184, 186
rio de, vease Routh-Hurwitz y respuesta al impulso, 56, 62, 63
sistemas realimentados discretos, funci
o n impulso unitario, 56, 59
122135 caso continuo, 59
Bode, diagramas y criterio de, caso discreto, 56
vease Bode, caso discreto funciones de matrices cuadradas, 154
Jury, arreglo y criterio de, vease 157, 282293
Jury
lugar geometrico de races, vea- grafos de enlaces de potencia, 1120
se root-locus, caso discreto aplicados a circuitos electricos, 20
Nyquist, diagrama y criterio de, aplicados a sistemas traslaciona-
vease Nyquist, caso discreto les, 20
root-locus, vease root-locus, ca- causalidad, vease causalidad
so discreto ecuaciones, 18
transformaci on bilineal, vease trans- elementos, 11
formacion bilineal activos, 11
estado, 137193 de 1 puerto, 11
definicion, 159 de 2 puertos, 11
multipuerto, 11
ecuaciones de, 138139
pasivos, 11
ventajas, 137
transformadores de potencia, 11
est
aticos, vease modelos est aticos
fuente, vease fuentes
estimador de estado, 192
rotador, 12
estocasticos, vease modelos estoc asti-
transformador, 12
cos
uniones, 11, vease uniones
estrategia hbrida, 4
variables, 11
estructuras algebr aicas, 239
Gram-Schmidt, 253
grupo, 239
fase mnima, vease sistemas de fase mi-
nima identificacion de sistemas, 4
flujo, 911 impulso, vease respuesta al impulso
fuentes de, 12 independencia lineal, 141, 178, 242
flujo de calor, 11 ndice de una matriz, 288
flujo magnetico, 11 inductancia, 9, 11

299
OSCAR G. DUARTE

integrador, 158 de entrada-salida, 4


interno, vease modelos interno de par ametros concentrados, 6
invariantes, vease modelos invariantes de par ametros distribuidos, 6
en el tiempo de sistemas, 2
invertiva, 140, 239241 de software, 3
definici on, 23
Jordan, vease forma can onica de Jor- determinsticos, 6
dan discretos, 7
Jury, 124128 el mejor, 3
arreglo estaticos, 6
construccion, 124 estoc asticos, 6
problemas, 128 graficos, 3
criterio, 125 interno, 4
invariantes en el tiempo, 7
Laplace, vease transformada de Lapla- lineales, 6
ce lingusticos, 2
linealidad, 6, 23, 209, 216 matem aticos, 3
Lotka-Volterra, 201 mentales, 2
no causales, 4
M -circunferencias, 236 no estaticos, 6
MacLaurin, 155 no lineales, 6
margenes de estabilidad, 109 perfectos, 3
margen de fase, 109 u
tiles, 3
margen de ganancia, 109 utilizados, 89
masa de inercia, 11 variantes en el tiempo, 7
Mason, vease regla de Mason modulativa, 140, 239241
matriz de funciones de transferencia, momento de inercia, 11
184, 186 motor electrico, 161
matriz de transici on de estado, 180 multiplicidad, 262
181, 183
matriz diagonalizada, 146, 265 N -circunferencias, 236237
matriz fundamental, 178, 180 Nichols, vease carta de Nichols
matriz modal, 147, 265 nivel de lquido, 11
Matthew, vease diagrama de Matthew no linealidades
migraci on, 163 dinamicas, 197
MIMO, vease sistemas MIMO estaticas, 195
MISO, vease sistemas MISO norma
modelamiento de sistemas, 4 de un vector, 250
modelos de una matriz, 253
causales, 4 inducida, 251
clasificaci
on, 47 normas
construcci on, 34 de matrices, 250255
continuos, 7 de vectores, 250255
de caja blanca, 4 nulidad, 151, 259, 269, 270
de caja gris, 4 Nyquist
de caja negra, 4 casi discreto

300

INDICE ANAL
ITICO

trayectoria, 133 rango, 256, 257


caso continuo, 112121 regi
on de estabilidad
criterio, 119 sistemas continuos de primer or-
diagrama, 117 den, 66
trayectoria, 117 sistemas discretos de primer orden,
caso discreto, 133135 68
regi
on de inestabilidad
observabilidad, 191193 sistemas continuos de primer or-
test de, 192 den, 66
observador de estado, 192 sistemas discretos de primer orden,
o
rbitas 68
homoclnicas, 204 regi
on de tiempo de asentamiento m a-
periodicas, 201 ximo
ortogonalidad, 252 sistemas continuos de primer or-
ortonormalidad, 252 den, 67
ortonormalizaci on sistemas siscretos de primer orden,
proceso de Gram-Schmidt, 253 70
oscilador regla de Mason, 5255
de Duffing, 204 representaci on de estado, vease estado
de Van der Pol, 203 representaci on en espacio de estado, vea-
se estado
parametros, 9, 11 representaci on en variables de estado,
parametros concentrados, vease mode- vease estado
los de parametros concentra- resistencia, 9, 11
dos resistencia hidraulica, 11
parametros distribuidos, vease mode- resistencia termica, 11
los de par
ametros distribuidos resorte, 11
pendulo, 199, 201 resorte torsional, 11
plano de fase, 172 respuesta
polinomio al impulso, 5563
ubicaci on de las raices, 94 y funcion de transferencia, 56,
polinomio caracterstico, 24, 144, 262 62, 63
polinomio mnimo, 287 de entrada cero, 4346, 184, 186
polinomios de matrices, 282 de estado cero, 4346, 184, 186
polos dominantes, 8788 retardo, 158
potencial qumico, 11 retrato de fase, 179
presi
on, 11 retratos de fase, 172176
principio del argumento, 114 root-locus
producto caso continuo, 101107
interior, 250 caso discreto, 128129
interno, 250 complementario, 101
proporcionalidad, 6, 23 condiciones, 103
perdida de 197 criterio, 101

punto de equilibrio, 176 reglas de construcci on, 105
m ultiples, 199 rotador, 12
punto de silla, 172 Routh-Hurwitz

301
OSCAR G. DUARTE

arreglo, 95 frecuencia m axima de oscilaci on,


construccion, 95 73
divisi
on por cero, 99 funci on de transferencia, 70
problemas, 99 polos, 70
terminacion prematura, 100 region de dise no, 76
criterio, 97 region de estabilidad, 71
region de frecuencia m axima de
senales oscilacio n, 73
definici on, 2 region de sobrepico m aximo, 75
series de MacLaurin, 155, 285 regio n tiempo ma ximo de asen-
series de potencias, 285 tamiento, 73
series de Taylor, 155, 166, 285 sobrepico m aximo, 75
sif
on, 172 tiempo ma ximo de asentamien-
SIMO, vease sistemas SIMO to, 73
error de estado estacionario, 9192
SISO, vease sistemas SISO
excitados, 183185
sistema, 11
libres, 165181
desacoplado, 185, 186
polos dominantes, 87
sistemas
realimentados, vease sistemas rea-
de fase mnima, 8386
limentados
definici on, 12
respuesta al impulso, 5963
electricos, 11
tipo de sistema, 9192
fsicos, 911
y ecuaciones diferenciales, 43
hidra ulicos, 11
Sistemas de ecuaciones algebr aicas, 255
magneticos, 11 261
mec anicos rotacionales, 11 sistemas discretos
mec anicos traslacionales, 11 de primer orden, 6870
MIMO, 2 estabilidad, 68
MISO, 2 funci on de transferencia, 68
modelos de, 2 polos, 68
no lineales, 195206 region de estabilidad, 68
SIMO, 2 region de inestabilidad, 68
SISO, 2 region de tiempo de asentamien-
termicos, 11 to m aximo, 70
sistemas continuos tiempo de asentamiento, 70
de primer orden, 6667 de segundo orden, 7883
estabilidad, 66 estabilidad, 80
funcion de transferencia, 66 frecuencia m axima de oscilaci on,
polos, 66 82
region de estabilidad, 66 funci on de transferencia, 78
region de inestabilidad, 66 polos, 78
region de tiempo de asentamien- region de dise no, 83
to maximo, 67 region de estabilidad, 80
tiempo de asentamiento, 67 region de frecuencia m axima de
de segundo orden, 7078 oscilacion, 82
estabilidad, 71 region de sobrepico m aximo, 82

302

INDICE ANAL
ITICO

region de tiempo m aximo de asen- transformada de Laplace, 24, 2741, 167,


tamiento, 80 209215, 221223
sobrepico m aximo, 82 convoluci on, 214
tiempo m aximo de asentamien- definici
on, 27
to, 80 desplazamiento en el tiempo, 215
error de estado estacionario, 9293 desplazamiento en la frecuencia, 211
excitados, 185187 diferenciaci on, 210
libres, 181183 inversa, 28
polos dominantes, 88 inversas por fracciones parciales,
realimentados, vease sistemas rea- 3639
limentados linealidad, 209
respuesta al impulso, 5659 multiplicaci on por t, 212
tipo de sistema, 9293 parejas, 3135, 221223
y ecuaciones de diferencia, 45 propiedades, 29, 31, 209215
sistemas realimentados, 89135 teorema de valor final, 91, 213
error de estado estacionario, 9193 teorema de valor inicial, 213
estabilidad, vease estabilidad transformada bilateral, 28
funcion de transferencia, 89 transformada Z, 24, 2741, 182, 183,
funcion de transferencia del error, 215220, 223228
90 convoluci on, 220
tipo de sistema, 9193 definici
o n, 28
sistemas retroalimentados, vease siste- diferencia positiva, 216
mas realimentados escalamiento en la frecuencia, 218
solucion homogenea, 24 inversa, 28
solucion particular, 24 inversas por fracciones parciales,
subespacio, 141, 242 3639
subpicos, 85 linealidad, 216
superposici on, 7, 23 multiplicaci on por k, 218
perdida de 197 parejas, 3135, 223228
propiedades, 29, 31, 215220
Sylvester, 261
teorema de valor final, 92, 219
teorema de valor inicial, 219
Taylor, 155, 166 transformada bilateral, 29
temperatura, 11 transformador, 12
tensi
on, 11 transmitancia del error, vease sistemas
teorema de Caley-Hamilton, 289 realimentados, funci on de trans-
tiempo continuo, 7 ferencia del error
tiempo de asentamiento, 67, 70 trayectoria, 172
tiempo de estabilizaci on, vease tiempo
de asentamiento undershootvease subpicos 85
tiempo discreto, 7 uniones, 12
tipo de sistema, 9193 Tipo 0, 12
torque, 11 Tipo 1, 12
transformaci on bilineal, 122124
transformaciones lineales, 142, 247250 valor caracterstico, vease valores pro-
y cambio de base, 248250 pios

303
OSCAR G. DUARTE

valor final velocidad angular, 11


transformada de Laplace, 91, 213
transformada Z, 92, 219 Z, vease transformada z
valor inicial
transformada de Laplace, 213
transformada Z, 219
valor propio
c
alculo, 144
por derecha, 144, 261
por izquierda, 144, 261
valores de una funci on en el espectro
de una matriz, 290
valores propios, 144146, 179, 261278
complejos, 153
diferentes, 146, 264266
generalizados, 273278
repetidos, 148, 267273
Van der Pol, 203
variables, 9, 11
en grafos de enlaces de potencia,
11
variables de estado, 137, 157165
en el tiempo, 185187
variaci
on de cambio de volumen, 11
variaci
on de diferencia de entropa, 11
variaci
on de flujo m asico, 11
variaci
on de flujo molar, 11
variaci
on de flujo volumetrico, 11
variantes, vease modelos variantes en
el tiempo
vector
coordenadas, 141, 243
normal, 251
vector caracterstico, vease vectores pro-
pios
vector propio
por derecha, 144, 261
por izquierda, 144, 261
vectores, 140
ortogonales, 252
ortonormales, 252
vectores propios, 144146, 178, 179, 261
278
generalizados, 150, 269
cadena, 269
velocidad, 11

304

You might also like