You are on page 1of 62

Métodos Matemáticos I

Ecuaciones Diferenciales Ordinarias

Gabriel Álvarez

25 de septiembre de 2014
ii
Índice general

1. INTRODUCCIÓN 3
1.1. Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Sistemas de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Reducción a sistemas de ecuaciones de primer orden . . . . . . . . . . . . . . . . . . . 4
1.4. Ecuaciones y sistemas autónomos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Ecuaciones y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.6. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2. ECUACIONES DE PRIMER ORDEN 7


2.1. Campos de direcciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Existencia, unicidad y prolongación de soluciones . . . . . . . . . . . . . . . . . . . . 8
2.2.1. Teorema de existencia y unicidad locales . . . . . . . . . . . . . . . . . . . . . 8
2.2.2. Prolongación y existencia de soluciones maximales . . . . . . . . . . . . . . . . 9
2.3. Teorema fundamental del cálculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4. Ecuaciones con variables separables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.1. Método de separación de variables . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.2. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4.3. Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.5. Ecuaciones autónomas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5.1. Propiedades elementales de las soluciones . . . . . . . . . . . . . . . . . . . . . 14
2.5.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5.3. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Ecuación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6.1. Ecuación lineal homogénea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6.2. Método de variación de constantes . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6.3. Fórmula de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.7. Formas diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.8. Ecuaciones exactas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.9. Factores integrantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.9.1. Factores integrantes locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3. ECUACIONES LINEALES 25
3.1. Funciones complejas de variable real . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2. Ecuaciones lineales de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1. Operadores diferenciales lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2. Dependencia lineal de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.3. Soluciones de la ecuación homogénea . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.4. Teorema de separación de Sturm . . . . . . . . . . . . . . . . . . . . . . . . . 29

1
2 ÍNDICE GENERAL

3.2.5. Forma autoadjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


3.2.6. Teorema de comparación de Sturm . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.7. Ecuación de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.8. Reducción del orden de la ecuación . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.9. Soluciones de la ecuación no homogénea . . . . . . . . . . . . . . . . . . . . . 32
3.2.10. Fórmula de variación de constantes . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3. Ecuaciones con coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.1. Soluciones de la ecuación homogénea . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.2. Estabilidad de las soluciones de la ecuación homogénea real . . . . . . . . . . . 35
3.3.3. Método de coeficientes indeterminados . . . . . . . . . . . . . . . . . . . . . . 36
3.4. Osciladores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.1. Oscilador mecánico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.2. Oscilador eléctrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.3. Oscilador armónico simple: amplitud y fase . . . . . . . . . . . . . . . . . . . . 39
3.4.4. Oscilador amortiguado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.4.5. Oscilador amortiguado con fuerza externa armónica . . . . . . . . . . . . . . . 42
3.4.6. Oscilador no amortiguado con fuerza externa periódica . . . . . . . . . . . . . 43
3.5. Ecuaciones lineales de orden superior . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4. SISTEMAS LINEALES 49
4.1. Notación matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2. Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.3. Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.1. Matrices fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4. Sistemas no homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5. Fórmula de variación de constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.6. Sistemas lineales con coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.1. Exponencial de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.2. Solución general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6.3. Cálculo de la exponencial de una matriz . . . . . . . . . . . . . . . . . . . . . 56
Capı́tulo 1

INTRODUCCIÓN

1.1. Ecuaciones diferenciales


Definición 1.1 Se llama ecuación diferencial de primer orden explı́cita a una ecuación de la forma

dx
= f (t, x)
dt
o abreviadamente x0 = f (t, x), donde x es función de la variable t y f está definida en una región D
del plano (t, x).

El término “explı́cita” indica que la derivada x0 está dada como función explı́cita de (t, x) en la
región D. La forma general de una ecuación diferencial de primer orden es F (t, x, x0 ) = 0, que no
necesariamente determina x0 como función unı́voca de (t, x).

Definición 1.2 Se llama ecuación diferencial de orden n explı́cita a una ecuación de la forma

dn x dx dn−1 x
= f (t, x, , . . . , )
dtn dt dtn−1

o abreviadamente x(n) = f (t, x, x0 , . . . , x(n−1) ), donde x es función de la variable t y f está definida


en una región D del espacio (t, x0 , x1 , . . . , xn−1 ).

De nuevo el término “explı́cita” indica que el segundo miembro determina la derivada de orden más
alto (el orden de la ecuación) como función explı́cita de la variable t, de la propia función x y de sus
derivadas x(k) hasta el orden n − 1.

Ejemplo 1.1 Las ecuaciones diferenciales de primer orden

dx dx
= t − 2x y = x2
dt dt
son explı́citas. Las ecuaciones de primer orden
 2  2
dx dx
+1=0 y + x2 = 0
dt dt

no son explı́citas.

3
4 CAPÍTULO 1. INTRODUCCIÓN

1.2. Sistemas de ecuaciones diferenciales


Definición 1.3 Un sistema de ecuaciones diferenciales de primer orden es un sistema de la forma
dx1
= f1 (t, x1 , . . . , xn )
dt
..
.
dxn
= fn (t, x1 , . . . , xn )
dt
o abreviadamente x01 = f1 (t, x1 , . . . , xn ), . . . , x0n = fn (t, x1 , . . . , xn ), en el que el número de ecuaciones
es igual al número de funciones x1 , . . . , xn de la variable t y las funciones f1 , . . . , fn están definidas
en una misma región D del espacio (t, x1 , . . . , xn ).
En Mecánica Clásica también se presentan sistemas de ecuaciones diferenciales de segundo orden de
la forma
d2 x 1 dx1 dxn
= f 1 (t, x1 , . . . , x n , , . . . , )
dt2 dt dt
..
.
d 2 xn dx1 dxn
2
= fn (t, x1 , . . . , xn , ,..., ).
dt dt dt
Definición 1.4 Se denomina orden de un sistema de ecuaciones diferenciales a la suma de los
órdenes de las ecuaciones del sistema.

1.3. Reducción a sistemas de ecuaciones de primer orden


Cualquier ecuación diferencial o sistema de ecuaciones diferenciales se puede escribir como sistema
de ecuaciones diferenciales de primer orden mediante la introducción de funciones auxiliares.

Ejemplo 1.2 Si en la ecuación


x00 = f (t, x, x0 )
se denota x1 = x y se introduce la función auxiliar x2 = x0 , la ecuación es equivalente al sistema
x01 = x2
x02 = f (t, x1 , x2 ).
Ejemplo 1.3 Si en el sistema
x001 = f1 (t, x1 , x2 , x01 , x02 )
x002 = f2 (t, x1 , x2 , x01 , x02 )
se introducen las funciones auxiliares x3 = x01 , x4 = x02 , el sistema de dos ecuaciones de segundo
orden es equivalente al sistema de cuatro ecuaciones de primer orden
x01 = x3
x02 = x4
x03 = f1 (t, x1 , x2 , x3 , x4 )
x04 = f2 (t, x1 , x2 , x3 , x4 ).
1.4. ECUACIONES Y SISTEMAS AUTÓNOMOS 5

1.4. Ecuaciones y sistemas autónomos


Definición 1.5 Una ecuación diferencial se denomina autónoma si la función f no depende de t,
es decir, si la ecuación es de la forma

x(n) = f (x, x0 , . . . , x(n−1) ).

Un sistema de ecuaciones diferenciales de primer orden se denomina autónomo si las funciones


f1 ,. . . ,fn no dependen de t, es decir, si el sistema es de la forma

x01 = f1 (x1 , . . . , xn )
..
.
0
xn = fn (x1 , . . . , xn ).

1.5. Ecuaciones y sistemas lineales


Definición 1.6 Una ecuación diferencial de orden n se denomina lineal si es de la forma

x(n) + a1 (t)x(n−1) + · · · + an (t)x = b(t).

Si además b(t) ≡ 0, la ecuación se denomina homogénea.

Ejemplo 1.4 La ecuación


dx
= x.
dt
es lineal homogénea. La ecuación
dx
= t2 .
dt
es lineal no homogénea. La ecuación
dx
= x2
dt
no es lineal.

Definición 1.7 Un sistema de ecuaciones diferenciales de primer orden se denomina lineal si es de


la forma

x01 = a11 (t)x1 + · · · + a1n (t)xn + b1 (t)


..
.
x0n = an1 (t)x1 + · · · + ann (t)xn + bn (t).

Si además b1 (t) = · · · = bn (t) ≡ 0, el sistema se denomina homogéneo.

Los usos del término lineal para ecuaciones y para sistemas son compatibles, ya que el sistema
de ecuaciones diferenciales de primer orden asociado a una ecuación diferencial lineal (homogénea)
mediante el método de la sección 1.3 es un sistema lineal (homogéneo).
6 CAPÍTULO 1. INTRODUCCIÓN

1.6. Soluciones
Definición 1.8 Una solución de la ecuación diferencial

x0 = f (t, x)

es una función u definida en un intervalo I de la recta real tal que

u0 (t) = f (t, u(t))

para todo t del intervalo I.

Ejemplo 1.5 La función


1
u1 (t) = , t<1
1−t
es una solución de la ecuación diferencial
x0 = x2 ,
mientras que la función
1
u2 (t) = , t>1
1−t
es otra solución distinta de la misma ecuación diferencial. Sin embargo la función
1
v(t) = , t 6= 1
1−t
no es una solución (a pesar de que satisface la ecuación diferencial) ya que su dominio de definición
no es un intervalo.

Definición 1.9 Una solución de la ecuación diferencial

x(n) = f (t, x, x0 , . . . , x(n−1) )

es una función u definida en un intervalo I de la recta real tal que

u(n) (t) = f (t, u(t), u0 (t), . . . , u(n−1) (t))

para todo t del intervalo I.

Definición 1.10 Una solución del sistema de ecuaciones diferenciales de primer orden

x01 = f1 (t, x1 , . . . , xn )
..
.
0
xn = fn (t, x1 , . . . , xn )

es un conjunto de funciones u1 , . . . , un definidas en el mismo intervalo I de la recta real y tales que

u01 (t) = f1 (t, u1 (t), . . . , un (t))


..
.
u0n (t) = fn (t, u1 (t), . . . , un (t))

para todo t del intervalo I.


Capı́tulo 2

ECUACIONES DE PRIMER ORDEN

2.1. Campos de direcciones


La ecuación diferencial
x0 = f (t, x)
define un campo de direcciones en la región D del plano (t, x). Esto es, a cada punto (t, x) de la
región D le hace corresponder una pendiente, que se puede representar gráficamente mediante un
segmento de la recta que pasa por (t, x) con pendiente f (t, x). Nótese que hay una restricción en
estos campos de direcciones: una ecuación diferencial explı́cita no puede representar una dirección
vertical.
Una solución de la ecuación diferencial es una curva derivable definida en un intervalo y tal que
la tangente en cada punto de la curva tiene la pendiente del campo de direcciones en ese punto.

Ejemplo 2.1 En la figura 2.1 aparece el campo de direcciones de la ecuación


x0 = t − 2x
junto con algunas soluciones.
La ecuación diferencial x0 = t − 2x tiene infinitas soluciones distintas definidas en el mismo intervalo
(en este caso toda la recta real). Sin embargo, existe una única solución que pasa por cada punto del
plano (t, x). Este modo de identificar soluciones se conoce como problema de valores iniciales, y se
formula en los siguientes términos:

Definición 2.1 (Problema de valores iniciales) Dado un punto (t0 , x0 ) de la región D en que
está definida la ecuación diferencial x0 = f (t, x), encontrar un intervalo I que contenga a t0 y una
solución u definida en I tal que u(t0 ) = x0 .

Ejemplo 2.2 Mediante una fórmula debida a Leibniz que se estudiará en la sección 2.6 se encuentra
que la solución del problema de valores iniciales para la ecuación x0 = t − 2x es
 
1 t −2(t−t0 ) 1 t0
u(t) = − + + e x0 + − .
4 2 4 2
En particular la solución que pasa por el punto (t0 , x0 ) = (1/2, 0), o equivalentemente, que cumple
la condición inicial u(1/2) = 0, es la recta
1 t
u(t) = − + .
4 2

7
8 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN

2 2

1 1

0 0

-1 -1

-2 -2
-2 -1 0 1 2 -2 -1 0 1 2

Figura 2.1: Campo de direcciones y seis soluciones de la ecuación diferencial x0 = t − 2x.

2.2. Existencia, unicidad y prolongación de soluciones


En general es preciso restringir el intervalo I en el que está definida una solución u, como ilustra
el ejemplo 1.5 con la ecuación diferencial
x0 = x2 .
La solución que cumple u(0) = 1 es

1
u(t) = , t<1
1−t

que deja de estar definida en t = 1 aunque la función f (t, x) = x2 es continua en todo el plano (t, x).
Y en general tampoco basta con la continuidad de f para que la solución del problema de valores
iniciales sea única.

Ejemplo 2.3 Las dos funciones definidas en toda la recta real

u1 (t) ≡ 0, u2 (t) = t3

son ambas soluciones del problema de valores iniciales

x0 = 3x2/3 , u(0) = 0.

2.2.1. Teorema de existencia y unicidad locales


Teorema 2.1 Si f y ∂f /∂x son continuas en la región D del plano (t, x), entonces para cada punto
(t0 , x0 ) de D existe una solución u de la ecuación diferencial dx/dt = f (t, x) definida en un cierto
intervalo I que contiene a t0 y que cumple u(t0 ) = x0 . La solución u es además única, en el sentido de
que no existe ninguna otra solución definida en el mismo intervalo y que verifique la misma condición
inicial (el intervalo I en general depende del punto (t0 , x0 )).
2.2. EXISTENCIA, UNICIDAD Y PROLONGACIÓN DE SOLUCIONES 9

2.2.2. Prolongación y existencia de soluciones maximales


Definición 2.2 Sean u y v soluciones de la ecuación diferencial x0 = f (t, x) definidas en los in-
tervalos Iu e Iv respectivamente. Se dice que v es una prolongación de u si Iu está estrictamente
contenido en Iv y u(t) = v(t) para todo t en Iu .

Definición 2.3 Una solución u de la ecuación diferencial x0 = f (t, x) se denomina maximal cuando
no admite prolongación.

Ejemplo 2.4 Soluciones no maximales se suelen presentar en la práctica al resolver ecuaciones


diferenciales mediante desarrollo en serie de Taylor. Por ejemplo, si se busca la solución del problema
de valores iniciales
dx
= x2 , u(0) = 1
dt
escribiendo ∞
X u(n) (0) n
u(t) = t ,
n=0
n!

al derivar reiteradamente la ecuación se obtiene u(n) (0) = n!, es decir,



X
u(t) = tn , −1 < t < 1.
n=0

La solución maximal correspondiente es v(t) = 1/(1 − t), t < 1 que coincide con la suma de la serie
de Taylor u(t) en el intervalo −1 < t < 1 en el que esta serie converge.

Teorema 2.2 Si f y ∂f /∂x son continuas en una región D del plano (t, x), entonces para todo
(t0 , x0 ) en la región D existe una única solución maximal u que verifica u(t0 ) = x0 . El intervalo I en
el que está definida esta solución maximal es abierto.

Teorema 2.3 Si f y ∂f /∂x son continuas en todo el plano y el intervalo de definición I de una
solución maximal u tiene un extremo α, entonces |u(t)| → ∞ cuando t → α.

Ejemplo 2.5 La ecuación diferencial


dx
= x − x3
dt
tiene las soluciones constantes u1 (t) ≡ 1, u2 (t) ≡ 0 y u3 (t) ≡ −1. Los dos teoremas anteriores
implican que cualquier solución maximal u que cumpla −1 ≤ u(t0 ) ≤ 1 para algún t0 está definida
para todo t real.
En adelante y salvo que se indique explı́citamente lo contrario, el término “solución” significará
“solución maximal”.
10 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN

2 2

1 1

0 0

-1 -1

-2 -2
-2 -1 0 1 2 -2 -1 0 1 2

Figura 2.2: Campo de direcciones y siete soluciones de la ecuación diferencial x0 = t.

2.3. Teorema fundamental del cálculo


Las ecuaciones diferenciales de primer orden más sencillas son de la forma

dx
= f (t)
dt
donde la función f es continua en un intervalo I. Geométricamente describen campos de direcciones
invariantes bajo traslaciones a lo largo del eje x.
La solución del problema de valores iniciales se obtiene aplicando el teorema fundamental del
cálculo: si t0 está en I entonces
Z t
u(t) = x0 + f (s) ds
t0

es la solución definida en I que cumple la condición u(t0 ) = x0 (en general esta solución no se puede
expresar como combinación finita de funciones elementales). La aparición de x0 como constante
aditiva muestra que si una curva es solución de la ecuación diferencial, cualquier curva obtenida
trasladando verticalmente la dada también es solución, de acuerdo con la simetrı́a del campo de
direcciones.

Ejemplo 2.6 La solución al problema de valores iniciales de

dx
=t
dt
es
t2 t20
u(t) = x0 + − .
2 2
El campo de direcciones y siete soluciones de la ecuación aparecen en la figura 2.2.
2.4. ECUACIONES CON VARIABLES SEPARABLES 11

2.4. Ecuaciones con variables separables


Definición 2.4 La ecuación de primer orden x0 = f (t, x) se denomina de variables separables si la
función f es producto de una función de t y una función de x, es decir, si la ecuación es de la forma
dx
= g(t)h(x).
dt
Como hemos visto en la sección anterior, el caso h(x) ≡ 1 se resuelve mediante el teorema fundamental
del cálculo. Las ecuaciones de primer orden autónomas, que corresponden a g(t) ≡ 1, también son
de variables separables.
Esquemáticamente, el método de separación de variables consiste en “dividir” la ecuación dife-
rencial por h(x) e integrar:
Z Z
dx dx dx
= g(t)h(x), = g(t)dt, = g(t) dt + c
dt h(x) h(x)

donde c es una constante arbitraria. Denotando por H y G primitivas de 1/h y g respectivamente,


la ecuación anterior se escribe
H(x) = G(t) + c
y cabe esperar que mediante restricciones adecuadas esta ecuación determine x en función de t.
La demostración de que la separación de variables conduce a soluciones de la ecuación de partida
se puede hacer aplicando la regla de la cadena a la ecuación anterior:
1 0
H 0 (x)x0 (t) = G0 (t), x (t) = g(t), x0 (t) = g(t)h(x)
h(x)

y las restricciones mencionadas en el párrafo anterior se deben a posibles ceros de la función h(x),
que dan lugar a soluciones constantes.

2.4.1. Método de separación de variables


1. Resolver la ecuación h(x) = 0 para obtener las soluciones constantes.

2. Restringir x a un intervalo en el que h(x) no se anule, separar variables e integrar.

3. Restringir la constante de integración c de modo que la ecuación H(x) = G(t) + c tenga al


menos una solución (t, x).

4. Separar en intervalos los valores de t obtenidos en el paso anterior.

Se puede demostrar que si la ecuación tiene la propiedad de unicidad (para lo cual es suficiente que
g sea continua y h tenga derivada continua) este método da todas las soluciones (maximales) de la
ecuación.
12 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN

-1

-2

-2 -1 0 1 2 3

Figura 2.3: Soluciones de la ecuación x0 = x.

2.4.2. Ejemplo 1
La ecuación
dx
=x
dt
tiene la solución constante u(t) ≡ 0. Si x 6= 0, mediante separación de variables se obtiene
Z
dx
= t + c, ln |x| = t + c, |x| = et+c = ket
x
con k = ec > 0, o lo que es equivalente
x = cet
con c arbitraria (c = 0 da la solución constante). La solución del problema de valores iniciales es

u(t) = x0 et−t0 .

Estas soluciones están definidas para todo t real y cubren el plano (t, x).
2.4. ECUACIONES CON VARIABLES SEPARABLES 13

-1

-2

-2 -1 0 1 2 3

Figura 2.4: Soluciones de la ecuación x0 = 2tx2 .

2.4.3. Ejemplo 2
La ecuación
dx
= 2tx2
dt
tiene la solución constante u(t) ≡ 0. Si x 6= 0, mediante separación de variables se obtiene
Z Z
dx 1 2 1
= 2t dt, − = t + c, x = − .
x2 x t2 + c
A continuación es preciso extraer de esta relación soluciones de la ecuación diferencial:
Si c es positivo se obtiene una solución definida para todo t real.

Si c = 0 se obtienen dos soluciones, una definida para t > 0 y otra definida para t < 0.
√ √
Si c es negativo se obtienen tres soluciones,
√ una (positiva)
√ definida si − −c < t < −c y dos
soluciones (negativas) definidas en t < − −c y en −c < t respectivamente.
El teorema de existencia y unicidad implica que por cada punto (t0 , x0 ) del plano pasa una y sólo
una solución, que si x0 6= 0 corresponde al valor
1
c = −t20 − (x0 6= 0).
x0
En resumen, la solución al problema de valores iniciales es
1
u(t) = − si x0 6= 0,
t2 t20
− − 1/x0
u(t) ≡ 0 si x0 = 0.

Las soluciones aparecen en la figura 2.4.


14 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN

2.5. Ecuaciones autónomas


En el caso de una ecuación autónoma de primer orden
dx
= f (x)
dt
se puede obtener una descripción cualitativa completa de las soluciones aunque no se puedan calcular
sus fórmulas en términos de funciones elementales. En adelante supondremos que f 0 es continua para
todo x, de modo que la ecuación tenga una única solución para cada condición inicial u(t0 ) = x0 .

2.5.1. Propiedades elementales de las soluciones


Geométricamente, el campo de direcciones que define la ecuación es invariante bajo traslaciones
a lo largo del eje t, lo que tiene las siguientes consecuencias inmediatas:
Si una curva solución se traslada paralelamente al eje t se obtiene otra curva solución. Es decir,
si u es una solución y c un número real cualquiera, la función v definida por v(t) = u(t + c) es
una solución:
v 0 (t) = u0 (t + c) = f (u(t + c)) = f (v(t)).

Si para algún t0 se tiene u0 (t0 ) = 0, entonces se cumple f (u(t0 )) = 0, y como consecuencia de


la unicidad u es la solución constante u(t) ≡ u(t0 ).

Salvo las soluciones constantes, ninguna solución puede tener máximos o mı́nimos relativos. Es
decir, toda solución o es constante, o es estrictamente creciente o es estrictamente decreciente.

Si una solución permanece acotada debe tender asintóticamente a una solución constante.
En efecto, si |u(t)| ≤ K para todo t ≥ t0 y u no es constante, es estrictamente monótona. Pero
toda función monótona y acotada tiende a un lı́mite, luego existe

lı́m u(t) = a.
t→∞

Además, como la función f es continua,

lı́m f (u(t)) = f (a) = lı́m u0 (t).


t→∞ t→∞

Si fuera f (a) > 0, entonces para t ≥ T suficientemente grande se tendrı́a


f (a)
u0 (t) >
2
e integrando entre T y t
f (a)
u(t) > u(T ) + (t − T ) t > T
2
en contra de la hipótesis de que u(t) está acotada. Análogamente se demuestra que no es posible
f (a) < 0, con lo que se concluye que f (a) = 0 y por tanto v(t) ≡ a es una solución constante.
Un razonamiento análogo es válido cuando t → −∞.
Como consecuencia de estas propiedades, si la ecuación diferencial no tiene soluciones constantes
toda solución toma todos los valores reales, ya que las soluciones son monótonas y de estar acotadas
tenderı́an a soluciones constantes.
2.5. ECUACIONES AUTÓNOMAS 15

3 3 3
2 2 2
1 1 1
0

x
0 0
x

x
-1 -1 -1
-2 -2
-2
-3
2 1 0 -1 -2 -3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
x - x3 t t

Figura 2.5: Gráfica de la función f (x) = x − x3 y soluciones de la ecuación autónoma x0 = x − x3 .

2.5.2. Ejemplo
Como ilustración de estos resultados, en la figura 2.5 aparecen las soluciones de la ecuación
autónoma
dx
= x − x3 .
dt
Las soluciones constantes son u(t) ≡ −1, u(t) ≡ 0 y u(t) ≡ 1.

Todas las soluciones u tales que −1 ≤ u(t) ≤ 1 para algún t están definidas para todo t real.

Puesto que f (x) < 0 si −1 < x < 0, las soluciones comprendidas entre x = −1 y x = 0 son
decrecientes, tienden a −1 cuando t → ∞, y tienden a 0 cuando t → ∞.

Puesto que f (x) > 0 si 0 < x < 1, las soluciones comprendidas entre x = 0 y x = 1 son
crecientes, tienden a 1 cuando t → ∞, y tienden a 0 cuando t → −∞.

Puesto que f (x) < 0 si x > 1, las soluciones con valores iniciales x0 > 1 son decrecientes y
tienden a 1 cuando t → ∞.

Puesto que f (x) > 0 si x < −1, las soluciones con valores iniciales x0 < −1 son crecientes y
tienden a −1 cuando t → ∞.

Todas las curvas de cada una de las cuatro bandas se obtiene mediante traslación horizontal
de una curva cualquiera de esa banda.

En este ejemplo el método de separación de variables permite obtener fórmulas para las soluciones
no constantes: Z Z   Z
dx 1 2 1 1
= − − dx = dt,
x − x3 2 x x−1 x+1

1 (x − 1)(x + 1) 1 1
− ln = − 2 ln 1 − x2 = t − c,
2 x2
1
x = ±√
1 ± e−2(t−c)
16 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN

que da lugar a las siguientes soluciones (en el orden de las bandas):


1
u(t) = √ , t>c
1 − e−2(t−c)
1
u(t) = √
1 + e−2(t−c)
1
u(t) = − √
1 + e−2(t−c)
1
u(t) = − √ , t > c.
1 − e−2(t−c)

2.5.3. Estabilidad
Definición 2.5 Sea u(t) ≡ c una solución constante de la ecuación autónoma x0 = f (x).

Se dice que la solución constante u(t) ≡ c es estable si para todo  > 0 existe un δ > 0 tal que
si v es una solución que satisface la condición inicial |v(t0 ) − c| < δ entonces |v(t) − c| <  para
todo t ≥ t0 .

Si además existe un δ > 0 tal que |v(t0 ) − c| < δ implique lı́mt→∞ v(t) = c, se dice que la
solución constante u(t) ≡ c es asintóticamente estable.

Cuando se quiere especificar que una solución es estable pero no asintóticamente estable se dice
que es débilmente estable.

Una solución constante no estable se dice que es inestable.

Ejemplo 2.7 La figura 2.5 ilustra que las soluciones constantes u(t) ≡ −1 y u(t) ≡ 1 son asintóti-
camente estables, mientras que u(t) = 0 es inestable.

Teorema 2.4 Condición necesaria y suficiente para que u(t) ≡ c sea asintóticamente estable es
que f (x) > 0 para todo x suficientemente próximo a c y menor que c y que f (x) < 0 para todo x
suficientemente próximo a c y mayor que c.
En particular, si f (c) = 0 y f 0 (c) < 0 entonces u(t) ≡ c es asintóticamente estable, y si f (c) = 0
0
y f (c) > 0 entonces u(t) ≡ c es inestable.
Si f (c) = 0 y f 0 (c) = 0 la solución puede ser débilmente estable (por ejemplo, cualquier solución
de x0 = 0), inestable (por ejemplo, la solución nula de x0 = x3 ), e incluso asintóticamente estable
(por ejemplo, la solución nula de x0 = −x3 ).
2.6. ECUACIÓN LINEAL 17

2
2

1 1

0 0

-1 -1

-2
-2

0 1 2 3 4 5 1 2 3 4

Figura 2.6: Campo de direcciones y siete soluciones de la ecuación lineal homogénea de primer orden
x0 = (t/10 + sen(πt))x.

2.6. Ecuación lineal


La ecuación diferencial lineal de primer orden es
x0 = a(t)x + b(t)
y sus soluciones pueden expresarse mediante integrales con una fórmula debida a Leibniz. En adelante
supondremos que a(t) y b(t) están definidas y son continuas en un intervalo I, con lo que la ecuación
diferencial tiene la propiedad de unicidad, ya que f (t, x) = a(t)x+b(t) y ∂f /∂x = a(t) son continuas.

2.6.1. Ecuación lineal homogénea


La ecuación lineal homogénea
x0 = a(t)x
se puede resolver mediante separación de variables:
Rt
a(τ ) dτ
u(t) = c e
donde c = 0 da la solución constante idénticamente nula (también llamada solución trivial). En
particular, salvo la solución idénticamente nula, ninguna solución se anula en el intervalo I. Todas
las soluciones están definidas para todo t del intervalo I. Como todas las soluciones son múltiplos de
una cualquiera no nula u1 (t) 6≡ 0, es decir,
u(t) = cu1 (t),
sus gráficas tienen el aspecto ilustrado en la figura 2.6.

Teorema 2.5 Si t0 está en I y x0 es un número cualquiera, entonces la solución de la ecuación


x0 = a(t)x que cumple u(t0 ) = x0 es Rt
a(τ )dτ
u(t) = x0 e t0 .
18 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN

2.6.2. Método de variación de constantes


Sea u1 (t) una solución no nula de la ecuación homogénea x0 = a(t)x. El método de variación de
constantes consiste en buscar una función c(t) tal que x(t) = c(t)u1 (t) sea solución de la ecuación no
homogénea x0 = a(t)x + b(t). Para ello es suficiente que
c0 u1 + cu01 = a(t)cu1 + b(t)
y puesto que u1 (t) es solución de la ecuación homogénea, es decir, u01 = a(t)u1 , la condición anterior
se reduce a
c0 (t)u1 (t) = b(t).
Como u1 (t) 6= 0, basta con tomar Z t
b(s)
c(t) = ds + c1
u1 (s)
para todo t del intervalo I, donde c1 es una constante arbitraria.
Teorema 2.6 La solución general w de la ecuación lineal x0 = a(t)x + b(t) es la suma de la solución
general de la ecuación reducida x0 = a(t)x y de una solución particular de la solución completa:
Z t
b(s)
w(t) = c1 u1 (t) + u1 (t) ds.
u1 (s)
La diferencia entre dos soluciones de la ecuación completa es una solución de la ecuación homogénea.
En efecto, fijada una primitiva de b(t)/u1 (t), al ser u1 (t0 ) 6= 0 cualquier problema de valores iniciales
w(t0 ) = x0 con t0 en el intervalo I se puede resolver despejando c1 en la expresión anterior.

2.6.3. Fórmula de Leibniz


Teorema 2.7 La solución general de la ecuación lineal x0 = a(t)x + b(t) es
Rt Rt
Z t R
s
w(t) = ce a(τ )dτ
+e a(τ )dτ
e− a(τ )dτ b(s)ds

donde t pertenece a I y c es una constante arbitraria. La solución que cumple w(t0 ) = x0 es


Rt Rt Z t R
t0 a(τ )dτ t0 a(τ )dτ − s a(τ )dτ
w(t) = x0 e +e e t0 b(s)ds
t0

o equivalentemente
Rt Z t R
a(τ )dτ t
a(τ )dτ
w(t) = x0 e t0
+ e s b(s)ds.
t0
En particular si 0 está en el intervalo I, la solución que cumple v(0) = 0 está dada por
Z t
v(t) = G(t, s)b(s)ds.
0
Rt
a(τ )dτ
donde G(t, s) = e s se denomina función de Green para el problema de valores iniciales.
Ejemplo 2.8 La ecuación diferencial que se utilizó para ilustrar el concepto de campo de direcciones
x0 = t − 2x
es una ecuación lineal. Poniendo a(t) = −2, b(t) = t en la fórmula de Leibniz se obtiene
 
1 t −2(t−t0 ) 1 t0
w(t) = − + + e x0 + − .
4 2 4 2
2.7. FORMAS DIFERENCIALES 19

2.7. Formas diferenciales


Las ecuaciones diferenciales explı́citas no permiten describir curvas con tangente vertical en alguno
de sus puntos, que requieren una representación implı́cita (es decir, como soluciones de una ecuación
del tipo F (x, y) = 0) o paramétrica (es decir, en la forma (x, y) = (u(t), v(t))).

Ejemplo 2.9 Las circunferencias centradas en el origen se pueden describir mediante x2 + y 2 = r2


o mediante (x, y) = (r cos t, r sen t) con r > 0. La ecuación diferencial normal correspondiente para
y en función de x es dy/dx = −x/y que es singular en los puntos (x, y) = (±r, 0).
Las formas diferenciales van a permitir expresar condiciones sobre los vectores tangentes a una curva
(x, y) = (u(t), v(t)) sin la restricción de que la curva carezca de tangentes verticales.

Definición 2.6 Una forma diferencial

ω = P (x, y) dx + Q(x, y) dy

define en cada punto del plano (x, y) una forma lineal que actúa sobre los vectores tangentes en dicho
punto del plano: si v = (v1 , v2 ) es un vector tangente en el punto (x0 , y0 ), entonces

ω(v) = P (x0 , y0 )v1 + Q(x0 , y0 )v2 .

En particular, si (u(t), v(t)) es una curva con vector tangente v = (u0 (t), v 0 (t)), entonces la forma ω
hace corresponder al vector tangente v en el punto (x, y) = (u(t), v(t)) el número

ω(v) = P (u(t), v(t))u0 (t) + Q(u(t), v(t))v 0 (t).

Ejemplo 2.10 Sean las formas diferenciales

ω1 = dx,
ω2 = xdy,
ω3 = 2xdx + 2ydy.

La acción de cada una de estas formas diferenciales sobre los vectores tangentes v1 , v2 y v3 de la
figura 2.7 está dada en la siguiente tabla:

v 1 v2 v 3
ω1 0 −1 1
ω2 0 −2 −2
ω3 0 −8 0

Definición 2.7 Se denomina integral de la forma diferencial ω = P (x, y) dx + Q(x, y) dy a lo largo


de la curva γ definida por las funciones (u(t), v(t)) en el intervalo [a, b] a la integral
Z Z b
ω= ω(v)dt
γ a
Z b
= [P (u(t), v(t))u0 (t) + Q(u(t), v(t))v 0 (t)]dt.
a
20 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN

v2 v3

v1

1 2 3

Figura 2.7: Tres vectores tangentes en el plano (x, y).

Definición 2.8 Una forma diferencial ω = P (x, y) dx + Q(x, y) dy se denomina exacta si existe una
función H(x, y) tal que
∂H ∂H
P (x, y) = , Q(x, y) =
∂x ∂y
de modo que ω = dH.

Teorema 2.8 La integral de una forma diferencial exacta ω = dH a lo largo de una curva γ sólo
depende del punto inicial y del punto final de la curva:
Z
ω = H(u(b), v(b)) − H(u(a), v(a)).
γ

En efecto:
Z Z b
ω= [P (u(t), v(t))u0 (t) + Q(u(t), v(t))v 0 (t)]dt
γ a
Z b
= [Hx (u(t), v(t))u0 (t) + Hy (u(t), v(t))v 0 (t)]dt
a
Z b
d
= [H(u(t), v(t))]dt
a dt
= H(u(b), v(b)) − H(u(a), v(a)).

Teorema 2.9 Si la forma diferencial ω = P (x, y) dx + Q(x, y) dy está definida en todo el plano, la
condición necesaria y suficiente para que sea exacta es la igualdad de las derivadas parciales cruzadas:

∂Q ∂P
= .
∂x ∂y

Entonces
Z 1 Z 1
H(x, y) = x P (tx, ty)dt + y Q(tx, ty)dt
0 0
Z x Z y
= P (t, 0)dt + Q(x, t)dt.
0 0
2.8. ECUACIONES EXACTAS 21

2.8. Ecuaciones exactas


En el resto del capı́tulo se van a estudiar ecuaciones de la forma

P (x, y) dx + Q(x, y) dy = 0.

Geométricamente la ecuación impone que (salvo en los puntos en los que P y Q se anulen simultánea-
mente) el vector tangente (x0 (t), y 0 (t)) a la curva solución en el punto (x0 , y0 ) sea perpendicular al
vector (P (x0 , y0 ), Q(x0 , y0 )).

Definición 2.9 Se dice que la ecuación

P (x, y) dx + Q(x, y) dy = 0

es exacta si la forma diferencial asociada

ω = P (x, y) dx + Q(x, y) dy

es exacta.

Teorema 2.10 Si la ecuación


P (x, y) dx + Q(x, y) dy = 0
es exacta y las funciones P y Q son continuas, entonces en un entorno de cada punto (x0 , y0 ) en el
que no se anulen simultáneamente P (x0 , y0 ) y Q(x0 , y0 ) las curvas solución pueden escribirse en la
forma H(x, y) = c, con c real y

∂H ∂H
= P (x, y), = Q(x, y).
∂x ∂y

Ejemplo 2.11 La ecuación

(x − y 2 ) dx + (2y − 2xy) dy = 0

es exacta, ya que
∂Q ∂P
= −2y = .
∂x ∂y
Aplicando la fórmula de la sección anterior se obtiene
Z 1 Z 1
2 2
H(x, y) = x (tx − t y )dt + y (2ty − 2t2 xy)dt
0 0
2
x
= + y 2 − xy 2 .
2
y las soluciones están definidas implı́citamente por

x2
+ y 2 − xy 2 = c.
2
22 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN

2.9. Factores integrantes


Sea M (x, y) una función con derivadas parciales continuas y tal que M (x, y) > 0 para todo (x, y)
del plano. Es inmediato que
P (x, y) dx + Q(x, y) dy = 0
si y sólo si
M (x, y)P (x, y) dx + M (x, y)Q(x, y) dy = 0,
y en ciertos casos una ecuación no exacta puede transformarse en una exacta multiplicando por un
factor M (x, y).

Definición 2.10 Una función M (x, y) > 0 se dice que es un factor integrante de la ecuación
P (x, y) dx + Q(x, y) dy = 0
si la ecuación
M (x, y)P (x, y) dx + M (x, y)Q(x, y) dy = 0
es exacta, es decir, si
∂(M Q) ∂(M P )
= .
∂x ∂y
Equivalentemente, M (x, y) es un factor integrante de la forma diferencial ω si M ω = dH, en cuyo
caso las soluciones de ambas ecuaciones están definidas implı́citamente por H(x, y) = c.
No existe un método general para calcular un factor integrante, aunque existen criterios válidos
en algunos casos particulares. Por ejemplo, para que una ecuación admita un factor integrante M (x)
que sea función sólo de x, el segundo miembro de
M 0 (x)
 
1 ∂Q ∂P
=− −
M (x) Q(x, y) ∂x ∂y
debe ser independiente de y y función continua de x, en cuyo caso se obtiene
R Qx (x,y)−Py (x,y)
M (x) = e− Q(x,y)
dx
.
También se pueden utilizar factores integrantes negativos (M (x, y) < 0).

Ejemplo 2.12 En el caso de la ecuación


−(xy − y + sen y) dx + (x + cos y) dy = 0
se tiene que  
1 ∂Q ∂P
− − = −1
Q(x, y) ∂x ∂y
y por tanto M (x) = e−x es un factor integrante. En otras palabras, la forma diferencial
ω = −(xy − y + sen y) dx + (x + cos y) dy
no es exacta, mientras que
M ω = −e−x (xy − y + sen y) dx + e−x (x + cos y) dy
sı́ lo es, es decir, M ω = dH para una cierta función H(x, y). Con la fórmula usual se obtiene
H(x, y) = e−x (xy + sen y)
y las soluciones están definidas implı́citamente por la ecuación H(x, y) = c.
2.9. FACTORES INTEGRANTES 23

2.9.1. Factores integrantes locales


Hasta ahora se han considerado únicamente factores integrantes globales, en el sentido de que la
función M (x, y) cumple en todo el plano las condiciones exigidas a un factor integrante. También
existen factores integrantes locales, que cumplen las condiciones exigidas solamente en una región
del plano, a la que por tanto se restringe su uso.

Ejemplo 2.13 La ecuación


(cy + dxy) dx + (ax + bxy) dy = 0
admite un factor integrante local M (xy) que depende sólo del producto xy.
Para que esto sea cierto en general es preciso que el segundo miembro de

M 0 (xy)
 
1 ∂Q ∂P
=− −
M (xy) yQ(x, y) − xP (x, y) ∂x ∂y

sea función únicamente del producto xy. En este caso se comprueba que
 
1 ∂Q ∂P 1
− − =−
yQ(x, y) − xP (x, y) ∂x ∂y xy

luego
1
M (xy) =
|xy|
es un factor integrante en el interior de cada uno de los cuatro cuadrantes.
Por último, nótese que los factores integrantes (globales o locales) en general no son únicos y
pueden existir factores integrantes de una misma forma diferencial con dependencia distinta en las
variables (x, y).

Ejemplo 2.14 Sea ω = y dx − x dy.


 
y dx − x dy x
2
=d ,
y y
  
y dx − x dy x
2 2
= d arctan ,
x +y y
  
y dx − x dy x
= d ln .
xy y
24 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN
Capı́tulo 3

ECUACIONES LINEALES

3.1. Funciones complejas de variable real


Tanto desde el punto de vista teórico como de las aplicaciones es conveniente admitir desde
un principio que los coeficientes y las soluciones de las ecuaciones lineales puedan tomar valores
complejos. Más concretamente, se considerarán funciones f cuyo dominio es un intervalo I de la
recta real y cuyos valores son números complejos. Designando por g y h la parte real y la parte
imaginaria de f respectivamente, se tiene que

f (t) = g(t) + ih(t), t ∈ I.

Nótese que g y h son funciones reales definidas en el intervalo real I. Los lı́mites se definen mediante

lı́m f (t) = α + iβ ≡ lı́m g(t) = α y lı́m h(t) = β.


t→t0 t→t0 t→t0

Se dice que f es continua, derivable o integrable si lo son tanto su parte real como su parte imaginaria.
La derivada de f está dada por
f 0 (t) = g 0 (t) + ih0 (t).
Análogamente, Z Z Z
f (t) dt = g(t) dt + i h(t) dt.

Finalmente, se define la conjugada de f como

f¯(t) = g(t) − ih(t), t ∈ I.

Entre las funciones de variable real con valores complejos que se usarán con más frecuencia figuran
los polinomios con coeficientes complejos a0 , . . . , an ,

p(t) = a0 + a1 t + · · · + an tn , t ∈ I,

y la exponencial compleja. Si a = α + iβ es un número complejo y t ∈ I se define la exponencial


compleja eat mediante
eat = eαt cos(βt) + ieαt sen(βt).
(El número real t podrı́a omitirse en esta definición, ya que tanto α como β son números reales
arbitrarios, pero se mantiene explı́citamente para facilitar su uso posterior.) Cálculos directos con
esta definición permiten comprobar cinco propiedades que se usarán repetidamente (a = α + iβ y
b = γ + iδ denotan números complejos, y t ∈ I):

25
26 CAPÍTULO 3. ECUACIONES LINEALES

eat ebt = e(a+b)t .


d at
e = aeat .
dt
Z
1
Si a 6= 0, eat dt = eat . Si a = 0 entonces eat = 1 y la integral es t.
a
eat = eāt .
eiβt + e−iβt eiβt − e−iβt
cos(βt) = , sen(βt) = .
2 2i

3.2. Ecuaciones lineales de segundo orden


La forma general de la ecuación diferencial lineal de segundo orden es
x00 + a1 (t)x0 + a2 (t)x = b(t).
Como se ha indicado en la sección anterior, tanto desde el punto de vista teórico como de las
aplicaciones es conveniente admitir desde un principio que los coeficientes a1 (t), a2 (t) y b(t) y las
soluciones w(t) puedan tomar valores complejos. El teorema de existencia y unicidad correspondiente
es el siguiente:

Teorema 3.1 Sean a1 (t), a2 (t) y b(t) funciones complejas continuas definidas en un intervalo I.
Dado un número real t0 en I y dos números complejos cualesquiera x0 , x1 , existe una única solución
maximal w de la ecuación diferencial x00 + a1 (t)x0 + a2 (t)x = b(t) que cumple las condiciones iniciales
w(t0 ) = x0 , w0 (t0 ) = x1 . El intervalo de definición de w es el intervalo I.
Geométricamente, dos soluciones reales distintas pueden cortarse en un punto pero no pueden tener
además la misma tangente en el punto.

3.2.1. Operadores diferenciales lineales


Es conveniente escribir las ecuaciones diferenciales lineales en términos del operador diferencial
d2 d
L=
2
+ a1 (t) + a2 (t)
dt dt
cuya acción sobre una función x dos veces derivable es
d2 x dx
L(x) =
2
+ a1 (t) + a2 (t)x = x00 + a1 (t)x0 + a2 (t)x.
dt dt
La propiedad fundamental del operador L es la linealidad: si x, y son funciones dos veces derivables
y c es una constante real o compleja
L(x + y) = L(x) + L(y)
L(cx) = cL(x).
Con esta notación la ecuación lineal no homogénea (ecuación completa) se escribe
L(x) = b(t)
y la ecuación homogénea asociada (ecuación reducida) se escribe
L(x) = 0.
3.2. ECUACIONES LINEALES DE SEGUNDO ORDEN 27

3.2.2. Dependencia lineal de funciones


Sean u, u1 , . . . , un funciones definidas en un mismo intervalo I de la recta real.

Definición 3.1 Se dice que la función u es combinación lineal de u1 , . . . , un con coeficientes c1 , . . . , cn


si u(t) = c1 u1 (t) + · · · + cn un (t) para todo t de I.

Definición 3.2 Se dice que las funciones u1 , . . . , un son linealmente dependientes si existen constan-
tes c1 , . . . , cn no todas nulas tales que c1 u1 (t) + · · · + cn un (t) = 0 para todo t de I. En caso contrario
se dice que las funciones son linealmente independientes.
En particular dos funciones u1 y u2 son linealmente dependientes si y sólo si una de ellas es un
múltiplo de la otra. Es decir, si existe una constante c tal que u1 (t) = cu2 (t) o u2 (t) = cu1 (t) para
todo t de I.

Ejemplo 3.1 Las funciones u1 (t) ≡ 1, u2 (t) = cos(2t) y u3 (t) = sen2 t son linealmente dependientes
ya que
u1 (t) − u2 (t) − 2u3 (t) ≡ 0.

Teorema 3.2 Si las funciones u1 , . . . , un son linealmente dependientes y derivables hasta el orden
n − 1, entonces su wronskiano

u1 (t)
0 · · · un (t)

0
u1 (t) ··· un (t)
W (t) = .. ..

...
. .
(n−1) (n−1)

u1 (t) · · · un (t)

es idénticamente nulo en I.
Si las funciones son linealmente dependientes, existen constantes c1 , . . . , cn no todas nulas tales que
c1 u1 (t) + · · · + cn un (t) = 0 para todo t de I. Derivando n − 1 veces esta identidad se obtiene el sistema
homogéneo de n ecuaciones lineales con n incógnitas

c1 u1 (t) + · · · + cn un (t) = 0
c1 u01 (t) + · · · + cn u0n (t) = 0
..
.
(n−1)
c1 u 1 (t) + · · · + cn u(n−1)
n (t) = 0.

Puesto que este sistema tiene soluciones c1 , . . . , cn no triviales, el determinante de su matriz de


coeficientes, que es el wronskiano, ha de ser nulo para todo t del intervalo I.
El recı́proco de este teorema en general es falso.1 Por ejemplo, las funciones u1 (t) = t2 y u2 (t) = t|t|
son derivables, su wronskiano es 2
t t|t|
W (t) = =0
2t 2|t|
y sin embargo son linealmente independientes. Veremos que esta situación no se da si las funciones
son soluciones de la misma ecuación diferencial lineal homogénea.
1
Es condición suficiente para que las funciones sean linealmente dependientes que W (t) se anule idénticamente en
el intervalo I sin que en ningún punto del intervalo I se anulen simultáneamente los cofactores de los elementos de la
última fila de W (t).
28 CAPÍTULO 3. ECUACIONES LINEALES

3.2.3. Soluciones de la ecuación homogénea


Teorema 3.3 Toda combinación lineal de soluciones de la ecuación homogénea L(x) = 0 es también
solución de dicha ecuación homogénea.
Si L(u1 ) = 0, . . . , L(um ) = 0 y c1 , . . . , cm son constantes reales o complejas, entonces

L(c1 u1 + · · · + cm um ) = c1 L(u1 ) + · · · + cm L(um ) = 0.

Teorema 3.4 Si u es una solución de la ecuación homogénea L(x) = 0 que para cierto t0 cumple
u(t0 ) = 0, u0 (t0 ) = 0, entonces u(t) ≡ 0.
Es consecuencia inmediata de la unicidad.

Teorema 3.5 Dos soluciones u1 y u2 de la ecuación homogénea L(x) = 0 son linealmente depen-
dientes si y sólo si su wronskiano se anula para algún valor t0 .
En la sección anterior hemos demostrado que si u1 y u2 son linealmente dependientes, su wronskiano
es idénticamente nulo (es decir, se puede tomar como t0 cualquier punto). Recı́procamente, si el
wronskiano se anula en un punto t0 , el sistema de ecuaciones

c1 u1 (t0 ) + c2 u2 (t0 ) = 0
c1 u01 (t0 ) + c2 u02 (t0 ) = 0

tiene solución c1 , c2 no nula. Por tanto la función u(t) = c1 u1 (t) + c2 u2 (t) es solución de la ecuación
homogénea y cumple la condición inicial u(t0 ) = 0, u0 (t0 ) = 0. La unicidad implica que u(t) ≡ 0 y
por tanto u1 y u2 son linealmente dependientes.

Teorema 3.6 (Fórmula de Abel) El wronskiano W (t) de dos soluciones u1 y u2 de la ecuación


homogénea L(x) = 0 cumple R t
− a1 (s) ds
W (t) = W (t0 )e t0
.
En particular si a1 (t) ≡ 0 (es decir, si la ecuación carece de término en x0 ) el wronskiano es constante.
Derivando el wronskiano
W (t) = u1 (t)u02 (t) − u2 (t)u01 (t)
y utilizando que u1 y u2 son soluciones de la ecuación homogénea se obtiene:

W 0 (t) = u1 u002 − u2 u001


= u1 (−a1 (t)u02 − a2 (t)u2 ) − u2 (−a1 (t)u01 − a2 (t)u1 )
= −a1 (t)(u1 u02 − u2 u01 )
= −a1 (t)W (t),

de donde se sigue inmediatamente el teorema.

Teorema 3.7 El wronskiano de dos soluciones de la ecuación homogénea L(x) = 0 o es nulo para
todo t o no lo es para ningún t. En el primer caso las soluciones son linealmente dependientes; en el
segundo caso son linealmente independientes. En particular las soluciones u1 y u2 que cumplen las
condiciones iniciales u1 (t0 ) = 1, u01 (t0 ) = 0 y u2 (t0 ) = 0, u02 (t0 ) = 1 son linealmente independientes,
ya que W (t0 ) = 1.
3.2. ECUACIONES LINEALES DE SEGUNDO ORDEN 29

Teorema 3.8 Sean u1 y u2 dos soluciones linealmente independientes de la ecuación homogénea


L(x) = 0. Toda solución de dicha ecuación homogénea es combinación lineal de u1 y u2 .
Sea u una solución arbitraria de la ecuación homogénea. Puesto que el sistema de ecuaciones
c1 u1 (t0 ) + c2 u2 (t0 ) = u(t0 )
c1 u01 (t0 ) + c2 u02 (t0 ) = u0 (t0 )
tiene determinante de su matriz de coeficientes W (t0 ) 6= 0, existe una única solución (c1 , c2 ). Sea
v(t) = c1 u1 (t) + c2 u2 (t). La función v es combinación lineal de u1 y u2 , y por tanto solución de la
ecuación. Además v(t0 ) = u(t0 ) y v 0 (t0 ) = u0 (t0 ), luego u = v.

3.2.4. Teorema de separación de Sturm


El teorema de separación de Sturm muestra que si dos soluciones reales u1 y u2 de la ecuación
homogénea son linealmente independientes sus ceros están intercalados, en el sentido de que u1 se
anula exactamente una vez entre cada dos ceros consecutivos de u2 y recı́procamente.

Teorema 3.9 Sean u1 , u2 soluciones reales linealmente independientes de la ecuación homogénea


x00 + a1 (t)x0 + a2 (t)x = 0
tales que u1 (t) 6= 0 en a < t < b, u1 (a) = 0 y u1 (b) = 0. Entonces existe un número c tal que
a < c < b y u2 (c) = 0.
Nótese que u2 (a) 6= 0 y u2 (b) 6= 0, ya que en caso contrario el wronskiano de u1 y u2 se anuları́a y
las soluciones no serı́an linealmente independientes (en otras palabras, dos soluciones de la ecuación
homogénea linealmente independientes no pueden tener un cero común).
Si además fuera u2 (t) 6= 0 en todo t tal que a < t < b, entonces u2 (t) no se anuları́a en a ≤ t ≤ b.
Aplicando el teorema de Rolle a la función f = u1 /u2 en dicho intervalo, existirı́a un número c tal
que a < c < b y
u0 (c)u2 (c) − u1 (c)u02 (c)
f 0 (c) = 1 = 0.
[u2 (c)]2
Pero el numerador es menos el wronskiano de u1 y u2 , con lo que estas soluciones serı́an linealmente
dependientes en contra de la hipótesis.

3.2.5. Forma autoadjunta


Si la función a1 (t) es derivable, la sustitución
1
Rt
x = e− 2 0 a1 (s) ds
y
transforma la ecuación homogénea de segundo orden
x00 + a1 (t)x0 + a2 (t)x = 0
en la ecuación sin término en la primera derivada
y 00 + a(t)y = 0
donde
1 1
a(t) = a2 (t) − a01 (t) − a1 (t)2 .
2 4
Cuando se estudian problemas de contorno es conveniente utilizar esta forma de la ecuación, que se
conoce como forma autoadjunta.
30 CAPÍTULO 3. ECUACIONES LINEALES

3.2.6. Teorema de comparación de Sturm


Teorema 3.10 Sean u y v soluciones reales no nulas de las ecuaciones

x00 + p(t)x = 0

y
x00 + q(t)x = 0
respectivamente, donde p(t) > q(t) > 0 para todo t del intervalo I. Entonces u se anula al menos
una vez entre cada dos ceros sucesivos de v.

6 0
En efecto, sean t1 y t2 dos ceros sucesivos de v, de modo que v(t1 ) = 0, v(t2 ) = 0 y v(t) =
si t1 < t < t2 . No hay restricción en tomar v(t) > 0. Supóngase además que fuera u(t) > 0 en
t1 < t < t2 y sea W (t) el wronskiano

W (t) = u(t)v 0 (t) − u0 (t)v(t).

Entonces si t1 < t < t2

W 0 (t) = u0 (t)v 0 (t) + u(t)v 00 (t) − u00 (t)v(t) − u0 (t)v 0 (t)


= (p(t) − q(t))u(t)v(t) > 0

e integrando esta desigualdad entre t1 y t2 se obtiene

ϕ(t2 ) − ϕ(t1 ) > 0.

Pero
ϕ(t1 ) = u(t1 )v 0 (t1 ) ≥ 0 ϕ(t2 ) = u(t2 )v 0 (t2 ) ≤ 0
lo que conduce a una contradicción.

3.2.7. Ecuación de Riccati


La ecuación lineal homogénea de segundo orden se puede transformar en una ecuación no lineal
de primer orden denominada ecuación de Riccati, cuya forma general es

y 0 = A(t)y 2 + B(t)y + C(t).

Si u es una solución de la ecuación lineal

x00 + a1 (t)x0 + a2 (t)x = 0

y u no se anula en un intervalo I, entonces se puede escribir


Rt
v(s) ds
u(t) = e t0

donde t0 y t están en I. Sustituyendo en la ecuación lineal, la función v es una solución de la ecuación


de Riccati:
v 0 (t) + v(t)2 + a1 (t)v(t) + a2 (t) = 0.
3.2. ECUACIONES LINEALES DE SEGUNDO ORDEN 31

3.2.8. Reducción del orden de la ecuación


Teorema 3.11 Sean u1 una solución no nula de la ecuación homogénea
x00 + a1 (t)x0 + a2 (t)x = 0
y t0 tal que u1 (t0 ) 6= 0. Entonces la función
Z t
1 − ts a1 (τ ) dτ
R
u2 (t) = u1 (t) e 0 ds
t0 u1 (s)2
es otra solución de la ecuación homogénea linealmente independiente de u1 .
Aunque este resultado se puede obtener más rápidamente mediante la fórmula de Abel, lo deduciremos
aplicando una vez más el método de variación de constantes. Esto es, buscamos una segunda solución
de la ecuación homogénea de la forma x(t) = c(t)u1 (t), de modo que
x = cu1
x0 = c0 u1 + cu01
x00 = c00 u1 + 2c0 u01 + cu001 .
Sustituyendo x, x0 y x00 en la ecuación homogénea se obtiene una ecuación diferencial para c(t):
c00 u1 + c0 (2u01 + a1 (t)u1 ) = 0
o bien
2u01 (t)
 
00 0
c (t) = c (t) − − a1 (t) .
u1 (t)
Integrando esta ecuación se obtiene
u1 (t0 )2 − Rtt a1 (τ )dτ
c0 (t) = c0 (t0 ) e 0
u1 (t)2
y por sencillez tomaremos c0 (t0 )u1 (t0 )2 = 1, ya que todas las demás soluciones para c0 son múltiplos
de ésta. Finalmente una segunda integración conduce a
Z t
1 − ts a1 (τ )dτ
R
c(t) = 2
e 0 ds + c(t0 ),
t0 u1 (s)

donde se puede tomar c(t0 ) = 0, ya que c(t0 ) simplemente suma a la solución un múltiplo de u1 .
Se obtiene ası́ la fórmula para u2 que aparece en el teorema. Nótese que la integral que da c(t) en
principio está definida únicamente en un entorno de t0 en el que u1 (t) no se anule, pero debido a la
unicidad, la solución u2 (t) = c(t)u1 (t) está bien definida en todo el intervalo de definición de u1 .
Para comprobar que u2 es linealmente independiente de u1 basta con calcular el wronskiano:
W (t) = u1 u02 − u01 u2
= u1 (c0 u1 + cu01 ) − u01 cu1
= c0 u21
Rt
− a1 (τ )dτ
=e t0
6= 0.
Ejemplo 3.2 Aplicando este resultado a la ecuación
x00 + x = 0
con u1 (t) = cos t se obtiene como segunda solución linealmente independiente
Z
1
u2 (t) = cos t dt = cos t tan t = sen t.
cos2 t
32 CAPÍTULO 3. ECUACIONES LINEALES

3.2.9. Soluciones de la ecuación no homogénea


Teorema 3.12 La diferencia de dos soluciones de la ecuación completa L(x) = b(t) es una solución
de la ecuación reducida L(x) = 0.
Si L(v1 ) = b(t), L(v2 ) = b(t) y u = v1 − v2 , entonces

L(u) = L(v1 − v2 ) = L(v1 ) − L(v2 ) = b(t) − b(t) = 0.

Teorema 3.13 La suma de una solución de la ecuación completa L(x) = b(t) y una solución de la
ecuación reducida L(x) = 0 es una solución de la ecuación completa.
Si L(v) = b(t) y L(u) = 0 entonces

L(v + u) = L(v) + L(u) = b(t) + 0 = b(t).

Teorema 3.14 Las solución general de la ecuación completa L(x) = b(t) es

w = v + c1 u 1 + c2 u 2

donde v es una solución de la ecuación completa, u1 y u2 son soluciones linealmente independientes


de la ecuación reducida L(x) = 0, y c1 y c2 son constantes arbitrarias.

Ejemplo 3.3 La ecuación


x00 − x = 1
admite como solución particular la solución constante v(t) = −1, y la ecuación reducida

x00 − x = 0

admite como soluciones linealmente independientes las funciones u1 (t) = et y u2 (t) = e−t (o equiva-
lentemente u1 (t) = cosh t y u2 (t) = senh t). Por tanto la solución general de la ecuación completa
x00 − x = 1 es

w(t) = c1 et + c2 e−t − 1 (o equivalentemente w(t) = c1 cosh t + c2 senh t − 1).

Teorema 3.15 (Principio de superposición) Si v1 es una solución de la ecuación no homogénea


L(x) = b1 (t) y si v2 es una solución de la ecuación no homogénea L(x) = b2 (t) entonces v = v1 + v2
es una solución de la ecuación no homogénea L(x) = b1 (t) + b2 (t).
L(v) = L(v1 + v2 ) = L(v1 ) + L(v2 ) = b1 (t) + b2 (t).

Ejemplo 3.4 La ecuación


x00 − x = 1
admite como solución v1 (t) = −1, y la ecuación

x00 − x = 2et

admite como solución v2 (t) = tet . Por tanto la ecuación

x00 − x = 1 + 2et

admite como solución v(t) = v1 (t) + v2 (t) = −1 + tet .


3.2. ECUACIONES LINEALES DE SEGUNDO ORDEN 33

3.2.10. Fórmula de variación de constantes


Teorema 3.16 Sean u1 , u2 soluciones linealmente independientes de la ecuación homogénea
x00 + a1 (t)x0 + a2 (t)x = 0
y sea W (t) su wronskiano. Entonces
Z t Z t
u1 (s)b(s) u2 (s)b(s)
v(t) = u2 (t) ds − u1 (t) ds
W (s) W (s)
es una solución de la ecuación
x00 + a1 (t)x0 + a2 (t)x = b(t).
En particular si 0 está en I la solución que cumple v(0) = 0, v 0 (0) = 0 está dada por
Z t
v(t) = G(t, s)b(s) ds
0

donde G(t, s) es la función de Green definida por


u1 (s)u2 (t) − u1 (t)u2 (s)
G(t, s) = .
W (s)
En este caso el método de variación de constantes consiste en buscar soluciones de la ecuación
completa de la forma x(t) = c1 (t)u1 (t) + c2 (t)u2 (t), con lo que hay dos funciones c1 (t) y c2 (t) a
determinar por una única condición, y por tanto se puede imponer a estas funciones una condición
adicional (cuya compatibilidad deberá comprobarse). Derivando
x = c1 u1 + c2 u2
se obtiene
x0 = c01 u1 + c1 u01 + c02 u2 + c2 u02 .
Imponemos como primera condición para determinar c1 y c2
c01 u1 + c02 u2 = 0
con lo que la expresión de las derivadas se reduce a
x0 = c1 u01 + c2 u02
x00 = c1 u001 + c01 u01 + c2 u002 + c02 u02 .
Sustituyendo x, x0 y x00 en la ecuación completa se obtiene la segunda condición para determinar c1
y c2
c01 u01 + c02 u02 = b(t).
Ambas condiciones constituyen un sistema de ecuaciones lineales para c01 y c02
c01 u1 + c02 u2 = 0
c01 u01 + c02 u02 = b(t)
que tiene solución única, ya que u1 y u2 son linealmente independientes y por tanto su wronskiano
no se anula:
u2 (t)b(t) u1 (t)b(t)
c01 (t) = − , c02 (t) = .
W (t) W (t)
Integrando estas expresiones se obtiene inmediatamente
Z t Z t
u2 (s)b(s) u1 (s)b(s)
c1 (t) = − ds, c2 (t) = ds.
W (s) W (s)
34 CAPÍTULO 3. ECUACIONES LINEALES

Ejemplo 3.5 Ya se ha visto que la ecuación reducida de

x00 − x = t2 et

admite como soluciones linealmente independientes u1 (t) = et y u2 (t) = e−t , cuyo wronskiano es
W (t) = −2. Aplicando la fórmula de variación de constantes se obtiene la solución particular de la
ecuación completa
Z t2 t Z −t 2 t
−t et e t e te
v(t) = e dt − e dt
(−2) (−2)
e−t et
Z Z
2t 2
=− e t dt + t2 dt
2 2
 3
t2

t t t 1
=e − + − .
6 4 4 8

3.3. Ecuaciones con coeficientes constantes


En esta sección se estudia la ecuación diferencial lineal de segundo orden

x00 + a1 x0 + a2 x = b(t)

en la que a1 y a2 son constantes.

3.3.1. Soluciones de la ecuación homogénea


El operador lineal correspondiente es
d2 d
L= + a 1 + a2 .
dt2 dt
Aplicando este operador lineal a la función eλt se obtiene

L(eλt ) = (λ2 + a1 λ + a2 )eλt .

Se denomina polinomio caracterı́stico de este operador L al polinomio

p(λ) = λ2 + a1 λ + a2 ,

de modo que se puede escribir


L(eλt ) = p(λ)eλt .
La búsqueda de soluciones de la ecuación lineal con coeficientes constantes se reduce al cálculo de
las raı́ces del polinomio caracterı́stico, ya que si λ1 es una raı́z, es decir, si p(λ1 ) = 0, entonces

L(eλ1 t ) = p(λ1 )eλ1 t = 0

y la función u1 (t) = eλ1 t es una solución de la ecuación diferencial. Hay dos posibilidades:
Si el polinomio caracterı́stico p(λ) tiene dos raı́ces distintas λ1 y λ2 , entonces las funciones
u1 (t) = eλ1 t y u2 (t) = eλ2 t son dos soluciones linealmente independientes de la ecuación, y la
solución general se puede escribir

u(t) = c1 eλ1 t + c2 eλ2 t .


3.3. ECUACIONES CON COEFICIENTES CONSTANTES 35

Si el polinomio caracterı́stico p(λ) tiene una única raı́z λ1 doble, solamente hay una solución
exponencial u1 (t) = eλ1 t linealmente independiente, pero se puede obtener una segunda solución
derivando la ecuación L(eλt ) = p(λ)eλt con respecto a λ:
 
∂ ∂ λt
λt
L(e ) = L e = L(teλt ) = p0 (λ)eλt + p(λ)teλt .
∂λ ∂λ

Al ser λ1 raı́z doble se cumple p(λ1 ) = 0, p0 (λ1 ) = 0, y

u2 (t) = teλ1 t

es una segunda solución linealmente independiente de u1 (t).

Teorema 3.17 Sea la ecuación homogénea con coeficientes constantes

x00 + a1 x0 + a2 x = 0

y sea p(λ) = λ2 + a1 λ + a2 su polinomio caracterı́stico.

Si el polinomio caracterı́stico tiene raı́ces distintas λ1 6= λ2 , las funciones u1 (t) = eλ1 t y u2 (t) =
eλ2 t son dos soluciones linealmente independientes de dicha ecuación homogénea, cuya solución
general es
u(t) = c1 eλ1 t + c2 eλ2 t .

Si el polinomio caracterı́stico tiene una raı́z doble λ1 , las funciones u1 (t) = eλ1 t y u2 (t) = teλ1 t
son dos soluciones linealmente independientes de dicha ecuación homogénea, cuya solución
general es
u(t) = (c1 + c2 t)eλ1 t .

En el caso de que las constantes a1 y a2 sean reales y el polinomio caracterı́stico tenga raı́ces no
reales, estas raı́ces han de ser complejas conjugadas: λ1 = γ + iω y λ2 = λ̄1 = γ − iω, y las soluciones
de la ecuación pueden escribirse en forma real mediante funciones trigonométricas:

u(t) = c1 e(γ+iω)t + c2 e(γ−iω)t


= eγt [(c1 + c2 ) cos(ωt) + (ic1 − ic2 ) sen(ωt)]
= eγt [k1 cos(ωt) + k2 sen(ωt)] .

En otras palabras, se pueden tomar u1 (t) = eγt cos(ωt) y u2 (t) = eγt sen(ωt).

3.3.2. Estabilidad de las soluciones de la ecuación homogénea real


Sea la ecuación homogénea
x00 + a1 x0 + a2 x = 0
con a1 y a2 reales, y sean λ1 , λ2 las raı́ces del polinomio caracterı́stico.

Si λ1 y λ2 son reales y distintas, la soluciones son u(t) = c1 eλ1 t + c2 eλ2 t . Si ambas raı́ces son
negativas, todas las soluciones tienden a cero cuando t → ∞. Si una raı́z es cero y la otra
negativa, todas las soluciones están acotadas para t ≥ 0, pero no todas tienden a cero. Si
alguna raı́z es positiva, entonces existen soluciones que no están acotadas para t ≥ 0.
36 CAPÍTULO 3. ECUACIONES LINEALES

Si λ1 es raı́z doble, las soluciones son u(t) = (c1 + c2 t)eλ1 t . Si λ1 es negativa, todas las soluciones
tienden a cero cuando t → ∞. Si λ1 ≥ 0, hay soluciones que no están acotadas para t ≥ 0.

Si las raı́ces γ ± iω son complejas conjugadas, las soluciones son u(t) = eγt (c1 cos ωt + c2 sen ωt).
Si γ es negativa, todas las soluciones tienden a cero cuando t → ∞. Si γ es positiva, todas las
soluciones no nulas no están acotadas para t ≥ 0. Si γ = 0, las soluciones son periódicas con
periodo 2π/ω, y por tanto acotadas para todo t.

O con la terminologı́a de estabilidad:

Teorema 3.18 La condición necesaria y suficiente para que todas las soluciones tiendan a cero
cuando t → ∞ es que todas las raı́ces del polinomio caracterı́stico tengan parte real negativa. En este
caso la solución nula es asintóticamente estable. Si alguna raı́z tiene la parte real positiva o si cero
es una raı́z doble, la solución nula es inestable. En los casos restantes, la solución nula es débilmente
estable.

3.3.3. Método de coeficientes indeterminados


Mediante la fórmula de variación de constantes se puede demostrar el siguiente resultado:

Teorema 3.19 Si f (t) es un polinomio de grado d, la ecuación

x00 + a1 x0 + a2 x = f (t)eµt

tiene una solución de la forma


v(t) = tm r(t)eµt
donde m es la multiplicidad de µ como raı́z caracterı́stica y r(t) es un polinomio de grado d. (Si µ
no es raı́z del polinomio caracterı́stico se sobrentiende que m = 0.)

Ejemplo 3.6 En la ecuación


x00 − x = t2 et
se tiene que d = 2 y m = 1, de forma que existe una solución de la forma

v(t) = (at3 + bt2 + ct)et .

Sustituyendo en la ecuación e igualando coeficientes se obtiene a = 1/6, b = −1/4, c = 1/4, con lo


que  3
t2

t t t
v(t) = e − + .
6 4 4
Nótese que esta solución particular se diferencia de la obtenida anteriormente mediante la fórmula
de variación de constantes en la solución de la ecuación homogénea −et /8.
Aplicando el principio de superposición lineal se obtiene la siguiente generalización:

Teorema 3.20 Si fk (t) es un polinomio de grado dk y µk es una raı́z caracterı́stica de multiplicidad


mk , entonces la ecuación
XN
00 0
x + a1 x + a2 x = fk (t)eµk t
k=1
3.3. ECUACIONES CON COEFICIENTES CONSTANTES 37

tiene una solución de la forma


N
X
v(t) = tmk rk (t)eµk t
k=1

donde rk (t) es un polinomio de grado dk .


Este teorema incluye los casos en los que el segundo miembro de la ecuación es de la forma
f (t)eγt cos ωt o f (t)eγt sen ωt. Sin embargo, si todos los coeficientes son reales hay un método más
eficaz para encontrar una solución particular.

Teorema 3.21 (Método de la amplitud compleja) Si a1 , a2 y los coeficientes del polinomio


f (t) son reales, y si v̂ es una función (compleja) tal que L(v̂) = f (t)eγ+iωt , entonces

L(v1 ) = f (t)eγt cos ωt


L(v2 ) = f (t)eγt sen ωt

donde v1 = Re(v̂) y v2 = Im(v̂).


Si a1 y a2 son reales, entonces L(v1 + iv2 ) = L(v1 ) + iL(v2 ) con L(v1 ) y L(v2 ) reales. Como además
todos los coeficientes de f (t) son reales, igualando las partes reales e imaginarias de

L(v̂) = f (t)eγt+iωt
= f (t)eγt cos ωt + if (t)eγt sen ωt

se obtiene

L(v1 ) = f (t)eγt cos ωt


L(v2 ) = f (t)eγt sen ωt.

Ejemplo 3.7 Sea la ecuación


x00 + 4x = sen 2t.
El polinomio caracterı́stico de la ecuación reducida x00 + 4x = 0 es

p(λ) = λ2 + 4 = (λ − 2i)(λ + 2i)

de donde se sigue que


u1 (t) = cos 2t, u2 (t) = sen 2t
son dos soluciones reales linealmente independientes de dicha ecuación reducida. Para encontrar una
solución particular de la ecuación completa consideramos en su lugar

x00 + 4x = e2it .

De acuerdo con el método de coeficientes indeterminados, esta ecuación admite una solución de la
forma
v̂(t) = cte2it .
Sustituyendo v̂(t) y v̂ 00 (t) en la ecuación se obtiene

ce2it (4i − 4t) + 4cte2it = e2it


38 CAPÍTULO 3. ECUACIONES LINEALES

de donde c = −i/4 y
i
v̂(t) = − te2it
4
t t
= sen 2t − i cos 2t.
4 4
Por tanto la solución general de la ecuación de partida
x00 + 4x = sen 2t
es
w(t) = Im[v̂(t)] + c1 u1 (t) + c2 u2 (t)
t
= − cos 2t + c1 cos 2t + c2 sen 2t.
4

3.4. Osciladores
En esta sección estudiamos la ecuación
x00 + a1 x0 + a2 x = b(t)
con a1 ≥ 0, a2 > 0 y b(t) real, continua y periódica.

3.4.1. Oscilador mecánico


La segunda ley de Newton para el movimiento de una partı́cula de masa m sometida a una fuerza
armónica de constante k, a una fricción de constante µ, y a una fuerza externa F (t) es
d2 x dx
m 2
= −kx − µ + F (t).
dt dt
Con las definiciones usuales
p
ω0 = k/m > 0, γ = µ/(2m) ≥ 0, b(t) = F (t)/m
la ecuación del movimiento es:
x00 + 2γx0 + ω02 x = b(t).

3.4.2. Oscilador eléctrico


Sumando las diferencial de potencial en un circuito LRC en serie con un condensador de capacidad
C y carga Q, una resistencia R, una inducción L y una fuerza electromotriz ε(t) se obtiene la ecuación
d2 Q dQ 1
L + R + Q = ε(t).
dt2 dt C
Con las definiciones

x = Q, ω0 = 1/ LC, γ = R/(2L), b(t) = ε(t)/L
la ecuación del movimiento es de nuevo
x00 + 2γx0 + ω02 x = b(t).
3.4. OSCILADORES 39

3.4.3. Oscilador armónico simple: amplitud y fase


El polinomio caracterı́stico de la ecuación

x00 + ω02 x = 0, ω0 > 0

es
p(λ) = λ2 + ω02 = (λ − iω0 )(λ + iω0 ).

Por tanto la solución general escrita en forma real es

u(t) = c1 cos(ω0 t) + c2 sen(ω0 t)

de forma que c1 = u(0) y c2 = u0 (0)/ω0 .


Todas las soluciones no triviales del oscilador armónico simple son periódicas con periodo


T0 = .
ω0

El inverso del periodo se denomina frecuencia,


ω0
ν0 =

y la constante ω0 se denomina frecuencia angular.


En Fı́sica es frecuente expresar esta solución general de un modo distinto mediante la siguiente
transformación:

u(t) = c1 cos(ω0 t) + c2 sen(ω0 t)


" #
c c
q
1 2
= c21 + c22 p 2 2
cos(ω0 t) + p 2 sen(ω0 t) .
c1 + c2 c1 + c22

Por tanto la solución general también se puede escribir en la forma

u(t) = A sen(ω0 t + φ)

donde
c1 c2
q
A = c21 + c22 , sen φ = p , cos φ = p 2 ,
c21 + c2 2
c1 + c22
de manera que A ≥ 0 y φ se puede elegir en el intervalo 0 ≤ φ < 2π. Recı́procamente

c1 = A sen φ, c2 = A cos φ.

El coeficiente A se denomina amplitud, ya que el máximo de la solución u es A y el mı́nimo es


−A. El coeficiente φ se denomina fase, desfase o desfasaje, y mide el retraso de la oscilación respecto
de la función u0 (t) = A sen(ω0 t), ya que la gráfica de la función u se obtiene trasladando la gráfica
de u0 en φ/ω0 unidades hacia la izquierda.
40 CAPÍTULO 3. ECUACIONES LINEALES

 
x
x
1 1

0.5 0.5

t -1 -0.5 0.5 1 x
Π 2Π
-0.5 -0.5

-1

Figura 3.1: Oscilador armónico simple con amplitud A = 1, frecuencia angular ω = 1 y fase φ = π/4,
es decir, u(t) = sen(t + π/4).

3.4.4. Oscilador amortiguado


Se conoce como oscilador amortiguado al descrito por la ecuación
x00 + 2γx0 + ω02 x = 0
con ω0 > 0 y γ > 0. Las raı́ces del polinomio caracterı́stico
p(λ) = λ2 + 2γλ + ω02
son  p

 −γ ± γ 2 − ω02 < 0 si γ > ω0
λ1,2 = −γ (doble) si γ = ω0
 p
−γ ± i ω02 − γ 2 si γ < ω0 .

En los tres casos las raı́ces caracterı́sticas λ1 y λ2 tienen parte real negativa. Por tanto todas las
soluciones tienden a cero para t → ∞ y la única solución periódica es la trivial u(t) ≡ 0.
Si γ < ω0 el movimiento es oscilatorio con amplitud decreciente:
q  q 
−γt 2 2 −γt 2 2
u(t) = c1 e cos t ω0 − γ + c2 e sen t ω0 − γ ,

que también se puede escribir en la forma


q 
−γt 2 2
u(t) = Ae sen t ω0 − γ + φ .
p
El factor oscilante de la solución tiene periodo T = 2π/ ω02 − γ 2 .
Si γ ≥ ω0 las soluciones son
√ 2 2 √ 2 2
u(t) = c1 e(−γ+ γ −ω0 )t + c2 e(−γ− γ −ω0 )t si γ > ω0
u(t) = (c1 + c2 t)e−γt si γ = ω0
y son monótonas para valores grandes de t. En efecto, si una solución no nula es suma de dos
exponenciales reales, entonces c1 eλ1 t + c2 eλ2 t = 0 si y sólo si c1 y c2 tienen signos opuestos,
en cuyo caso la única solución es t = ln(−c2 /c1 )/(λ1 − λ2 ), mientras que si −γ es raı́z doble,
(c1 + c2 t)e−γt = 0 o no se anula (si c2 = 0 y c1 6= 0) o se anula a lo sumo una vez en t = −c1 /c2 .
En resumen, si γ ≥ ω0 la solución se anula a lo sumo una vez (y la velocidad cambia de signo
a lo sumo una vez).
3.4. OSCILADORES 41

 
x
x
1
0.5

0.5
x
-0.5 0.5 1
t
2Π 4Π 6Π
-0.5
-0.5

Figura 3.2: Oscilador


p armónico subamortiguado, γ < ω0 . El factor oscilante de la solución tiene
2
periodo T = 2π/ ω0 − γ 2 .

x x
 

t 2
0.5 1 1.5 2 2.5 3
-0.25
-0.5
-0.75 1
-1
-1.25 x
-0.25 0.25
-1.5

Figura 3.3: Oscilador armónico superamortiguado, γ ≥ ω0 . Posición y velocidad cambian de signo a


lo sumo una vez.
42 CAPÍTULO 3. ECUACIONES LINEALES

3.4.5. Oscilador amortiguado con fuerza externa armónica


Se puede demostrar que un oscilador amortiguado con fuera externa periódica tiene una única
solución periódica. Además, la diferencia entre esta solución periódica y cualquier otra es una solución
de la ecuación homogénea, y por tanto tiendo a cero cuando t → ∞. La solución periódica se
conoce también como solución estacionaria, y la diferencia entre cualquier otra solución y ella como
transitorio. En algunas aplicaciones la aproximación a la solución periódica es tan rápida que no hay
que tener en cuenta ninguna otra solución, es decir, que las condiciones iniciales son irrelevantes.
La solución periódica depende de modo complicado de la fuerza externa. En el caso de una fuerza
externa armónica b(t) = B sen(ωt) con B constante, la ecuación del movimiento es

x00 + 2γx0 + ω02 x = B sen(ωt)

y el método de la amplitud compleja proporciona la solución explı́cita. Sustituyendo en la ecuación

x00 + 2γx0 + ω02 x = Beiωt

una función de la forma


v̂(t) = ceiωt

se obtiene
B
c= .
ω02 − ω 2 + 2iγω
Por tanto una solución particular de la ecuación de partida es v(t) = Im(ceiωt ), es decir,

B
v(t) = p sen(ωt + φ)
4γ 2 ω 2 + (ω02 − ω 2 )2

donde π < φ < 2π,

3π 2γω
φ= si ω = ω0 , tan φ = si ω 6= ω0 .
2 ω2 − ω02

El factor
1
F (ω) = p
4γ ω + (ω02 − ω 2 )2
2 2

se denomina función de respuesta, y sus gráficas para distintos valores de γ se llaman curvas de
respuesta. La solución general en el caso subamortiguado γ < ω0 es
q  q 
−γt 2 2 −γt 2 2
w(t) = c1 e cos t ω0 − γ + c2 e sen t ω0 − γ + F (ω)B sen(ωt + φ).

Como hemos dicho en la sección anterior, si la aproximación a la solución periódica es muy rápida,
en la práctica no hay que tener en cuenta ninguna otra solución. Es decir, las condiciones iniciales
que fijan c1 y c2 son irrelevantes.
Perturbaciones periódicas más generales se estudian utilizando series de Fourier y el principio de
superposición.
3.4. OSCILADORES 43

1.5

0.5

0
0 0.5 1 1.5 2 2.5 3


Figura 3.4: Curvas de respuesta para un oscilador con ω0 = 1 y γ = 2, 1/ 2, 1/2 y 1/4.

3.4.6. Oscilador no amortiguado con fuerza externa periódica


Ya se ha visto que las soluciones del oscilador no amortiguado

x00 + ω02 x = 0

son periódicas con periodo T0 = 2π/ω0 :

u(t) = c1 cos(ω0 t) + c2 sen(ω0 t).

La solución general de la ecuación no homogénea

x00 + ω02 x = b(t)

se calcula fácilmente mediante la función de Green:


t
u0 (0)
Z
1
u(t) = u(0) cos(ω0 t) + sen(ω0 t) + b(s) sen[ω0 (t − s)] ds.
ω0 ω0 0

La discusión general de las soluciones periódicas de esta ecuación cuando b(t) es periódica con periodo
T se complica por la periodicidad de las soluciones de la ecuación reducida. Se puede demostrar lo
siguiente:
Si T /T0 es irracional, existe una única solución periódica, que tiene periodo T .

Si T /T0 = m/n es racional (irreducible) pero no es entero, existe una única solución con periodo
T y todas las soluciones tienen periodo nT .

Si T = nT0 o toda solución tiene periodo T o ninguna solución es periódica, según que las
integrales Z T Z T
b(t) sen(ω0 t) dt b(t) cos(ω0 t) dt
0 0
se anulen o no simultáneamente.
Estudiaremos la solución explı́cita en el caso de una fuerza externa armónica

x00 + ω02 x = B sen(ωt).


44 CAPÍTULO 3. ECUACIONES LINEALES

x x
10 75
50
5
25
t t
25 50 75 100 125 150 25 50 75 100 125 150
-25
-5
-50
-10 -75

Figura 3.5: Batidos y resonancia en el oscilador armónico forzado. La duración de cada batido es
2π/|ω0 − ω|.

De nuevo las soluciones se obtiene fácilmente:


B
u(t) = c1 cos(ω0 t) + c2 sen(ω0 t) + sen(ωt) si ω 6= ω0
ω02 − ω2
B
u(t) = c1 cos(ω0 t) + c2 sen(ω0 t) − t cos(ω0 t) si ω = ω0 .
2ω0
Si ω0 /ω es irracional, la única solución periódica es
B
u(t) = sen(ωt).
ω02 − ω2

Si ω0 /ω = m/n todas las soluciones tienen periodo 2πn/ω.


Si ω0 = ω el término proporcional a t cos(ω0 t) no está acotado y no existen soluciones periódicas.
Esta situación se denomina resonancia.
Un caso particular de cierta importancia es el de soluciones de la forma
u(t) = B(sen(ω0 t) + sen(ωt))
con ω0 ≈ ω pero ω0 6= ω. Escribiendo esta solución en la forma
   
ω0 + ω ω0 − ω
u(t) = 2B sen t cos t
2 2
se ve que la solución se puede describir como una oscilación de frecuencia angular (ω0 + ω)/2 ≈ ω0
con amplitud modulada por un coseno con una frecuencia angular |ω0 − ω|/2. Este tipo de soluciones
se conocen en Fı́sica como “batidos.”

3.5. Ecuaciones lineales de orden superior


La ecuación lineal de orden n es
x(n) + a1 (t)x(n−1) + · · · + an (t)x = b(t)
y su estudio es una generalización directa del estudio de la ecuación de segundo orden. Por sencillez
supondremos que todas las funciones aj (t) y b(t) son funciones continuas de t para todo t real, y que
pueden tomar valores complejos.
3.5. ECUACIONES LINEALES DE ORDEN SUPERIOR 45

Teorema 3.22 Sean a1 (t), . . . , an (t) y b(t) funciones complejas continuas definidas para todo t real.
Dado un número real t0 y n − 1 números complejos x0 , . . . , xn−1 existe una única solución maximal w
de la ecuación diferencial x(n) + a1 (t)x(n−1) + · · · + an (t)x = b(t) que cumple las condiciones iniciales
w(t0 ) = x0 , w0 (t0 ) = x1 , . . . , w(n−1) (t0 ) = xn−1 . El intervalo de definición de w es toda la recta real.

El operador diferencial lineal correspondiente es

dn dn−1
L= + a 1 (t) + · · · + an (t).
dtn dtn−1
Con esta notación, la ecuación lineal completa se escribe de nuevo L(x) = b(t) y la ecuación lineal
reducida es L(x) = 0.
El wronskiano de n soluciones u1 , . . . , un de la ecuación homogénea es ahora el determinante

u1 (t)
0 u2 (t) · · · un (t)

0 0
u1 (t) u2 (t) ··· un (t)
W (t) = .. .. .. .

...
. . .
(n−1) (n−1) (n−1)

u1 (t) u2 (t) · · · un (t)

Derivando este determinante e integrando la ecuación diferencial resultante se obtiene de nuevo la


fórmula de Abel
− t a (s)ds
R
W (t) = W (t0 )e t0 1 .

Teorema 3.23 El wronskiano de n soluciones de la ecuación homogénea L(x) = 0 o es nulo para


todo t o no lo es para ningún t. En el primer caso las soluciones son linealmente dependientes; en el
segundo caso las soluciones son linealmente independientes.

Teorema 3.24 Las n soluciones de la ecuación homogénea L(x) = 0 que cumplen las condiciones
iniciales (
(j) 1 si j = k − 1
uk (0) =
0 si j 6= k − 1

donde k = 1, . . . , n y j = 0, . . . , n − 1 son linealmente independientes, ya que W (0) = det I = 1.

Teorema 3.25 Sean u1 , . . . , un n soluciones de la ecuación homogénea L(x) = 0 linealmente inde-


pendientes. Toda solución de la ecuación homogénea es combinación lineal de u1 , . . . , un .

En otras palabras, la solución general de la ecuación homogénea es

u(t) = c1 u1 + · · · + cn un

donde u1 , . . . , un son n soluciones linealmente independientes.

Teorema 3.26 La solución general de la ecuación completa L(x) = b(t) está dada por

w = v + c1 u1 + · · · + cn un

donde v es una solución de la ecuación completa y u1 , . . . , un son n soluciones linealmente indepen-


dientes de la ecuación reducida L(x) = 0.
46 CAPÍTULO 3. ECUACIONES LINEALES

Para encontrar una solución v de la ecuación completa L(x) = b(t) conocidas n soluciones linealmente
independientes u1 , . . . , un de la ecuación reducida L(x) = 0 de nuevo se puede utilizar el método de
variación de constantes, que en este caso se expresa de forma más concisa con la notación matricial
del capı́tulo siguiente.
La estudio de las ecuaciones con coeficientes constantes también es análogo. La acción del operador
diferencial L sobre una función exponencial eλt es

L(eλt ) = p(λ)eλt

donde el polinomio caracterı́stico es ahora

p(λ) = λn + a1 λn−1 + · · · + an .

Su factorización
p(λ) = (λ − λ1 )n1 · · · (λ − λs )ns
junto con sucesivas derivaciones con respecto a λ en el caso de raı́ces múltiples conduce al siguiente
resultado.

Teorema 3.27 Sea la ecuación homogénea con coeficientes constantes

x(n) + a1 x(n−1) + · · · + an x = 0

y sea p(λ) = λn + a1 λn−1 + · · · + an = (λ − λ1 )n1 · · · (λ − λs )ns su polinomio caracterı́stico. Las n


funciones
tj eλk t j = 0, 1, . . . , nk − 1 k = 1, . . . , s
son soluciones linealmente independientes de dicha ecuación.

La estabilidad de la solución nula de la ecuación homogénea se discute también de forma análoga al


caso de segundo orden.

Teorema 3.28 La condición necesaria y suficiente para que todas las soluciones de la ecuación
homogénea x(n) + a1 x(n−1) + · · · + an x = 0 tiendan a cero cuando t → ∞ es que todas las raı́ces
del polinomio caracterı́stico tengan parte real negativa. Si alguna raı́z tiene parte real positiva, o si
existe una raı́z múltiple con parte real nula, algunas soluciones son no acotadas para t ≥ 0. En todos
los demás casos todas las soluciones están acotadas para t ≥ 0, pero no todas tienden a cero cuando
t → ∞.

También se generalizan inmediatamente el método de coeficientes indeterminados y el método de la


amplitud compleja.

Teorema 3.29 Si f (t) es un polinomio de grado d, la ecuación

x(n) + a1 x(n−1) + · · · + an x = f (t)eµt

tiene una solución de la forma


v(t) = tm r(t)eµt
donde m es la multiplicidad de µ como raı́z caracterı́stica y r(t) es un polinomio de grado d.
3.5. ECUACIONES LINEALES DE ORDEN SUPERIOR 47

Ejemplo 3.8 Sea la ecuación


x000 + x0 = cos t.
El polinomio caracterı́stico es p(λ) = λ(λ−i)(λ+i), por lo que las soluciones de la ecuación homogénea
expresadas en forma real son
u(t) = c1 + c2 cos t + c3 sen t.
Para hallar una solución de la ecuación completa de nuevo es más conveniente reemplazar dicha
ecuación completa por
x000 + x0 = eit
de modo que la parte real de una solución de esta ecuación será solución de la ecuación original. Ya
que i es raı́z caracterı́stica simple, existe una solución de la forma

v̂(t) = cteit .

Por sustitución se obtiene c = −1/2 y en consecuencia la solución general de la ecuación de partida


es
t
w(t) = c1 + c2 cos t + c3 sen t − cos t.
2
48 CAPÍTULO 3. ECUACIONES LINEALES
Capı́tulo 4

SISTEMAS LINEALES

4.1. Notación matricial


En este capı́tulo es conveniente utilizar la notación matricial. Además, para poder utilizar su-
perı́ndices, también se denotará la derivada mediante un punto:

u0 (t) = u̇(t).

La derivada y la integral de una función vectorial u(t) = (u1 (t), . . . , un (t)) se definen término a
término:

u̇(t) = u̇1 (t), . . . , u̇n (t) ,




Z b Z b Z b 
1 n
u(t)dt = u (t)dt, . . . , u (t)dt .
a a a

Tal como se hizo en Álgebra Lineal, se denotará por u(t) el vector columna correspondiente:


u1 (t)
u(t) =  ...  .
 
un (t)

La derivada de una matriz  


v11 (t) · · · v1n (t)
 .. .. .. 
V (t) =  . . . 
vn1 (t) · · · vnn (t)
se define mediante  
v̇11 (t) · · · v̇1n (t)
V̇ (t) =  ... .. .. 

. . 
v̇n1 (t) · · · v̇nn (t)
y se verifica la regla de Leibniz

d
[V (t)U (t)] = V̇ (t)U (t) + V (t)U̇ (t).
dt
49
50 CAPÍTULO 4. SISTEMAS LINEALES

Como consecuencia, si la matriz V (t) además de derivable es invertible

d  −1 
V (t) = −V −1 (t)V̇ (t)V −1 (t).
dt
Finalmente, la derivada del determinante W (t) = det V (t) está dada por

V̇11 (t) · · · V1n (t) V11 (t) · · · V̇1n (t)

.. . . .
. .. . . .
.
Ẇ (t) = . + ··· + .

. . . .

V̇n1 (t) · · · Vnn (t) Vn1 (t) · · · V̇nn (t)


V̇ (t) · · · V̇ (t) V11 (t) · · · V1n (t)
11 1n
. .

.. . .. .
.. + · · · + . . . . .
= . . .

.
Vn1 (t) · · · Vnn (t) V̇n1 (t) · · · V̇nn (t)

4.2. Sistemas lineales


Un sistema de n ecuaciones diferenciales lineales de primer orden es un sistema de la forma

ẋ1 = a1 1 (t)x1 + · · · + a1 n (t)xn + b1 (t)


ẋ2 = a2 1 (t)x1 + · · · + a2 n (t)xn + b2 (t)
..
.
ẋ = an 1 (t)x1 + · · · + an n (t)xn + bn (t).
n

Empleando la notación matricial


       
x1 ẋ1 a1 1 (t) · · · a1 n (t) b1 (t)
 ..   ..   .. ..  ,
x =  . , ẋ =  .  , A(t) =  . ... b(t) =  ... 
 
. 
n
x ẋn an 1 (t) · · · an n (t) bn (t)

el sistema de ecuaciones diferenciales lineales de primer orden se escribe

ẋ(t) = A(t)x + b(t).

Por sencillez supondremos que todas las funciones ai j (t) y bi (t) son funciones continuas de t para
todo t real, y que pueden tomar valores complejos.

Teorema 4.1 Sean A(t) una matriz n × n de funciones complejas continuas ai j (t) definidas para
todo t real, y b(t) un vector de n funciones complejas continuas bi (t) definidas para todo t real. Dado
un número real t0 y un vector de n números complejos η = (η 1 , . . . , η n ), existe una única función
vectorial u = (u1 , . . . , un ) definida para todo t real que es solución del sistema

ẋ = A(t)x + b(t)

con la condición inicial u(t0 ) = η, es decir

u1 (t0 ) = η 1 , . . . , un (t0 ) = η n .
4.3. SISTEMAS HOMOGÉNEOS 51

En el primer capı́tulo se demostró que toda ecuación diferencial lineal o sistema de ecuaciones dife-
renciales lineales puede escribirse de esta forma. Ası́, las ecuaciones estudiadas en el capı́tulo anterior
son casos particulares de estos sistemas lineales. Con la notación (x1 , x2 , . . . , xn ) = (x, x0 , . . . , x(n−1) )
la ecuación lineal
x(n) + a1 (t)x(n−1) + · · · + an (t)x = b(t)
es equivalente al sistema de ecuaciones lineales
      
ẋ1 0 1 0 ··· 0 x1 0
 ẋ2   0 0 1 ··· 0   x2  0
      
 ..   .. .
.. .. .. .. .. ..
 . = . +
   
. .  . . .
 n−1     n−1   
ẋ   0 0 0 ··· 1  x   0 
ẋn −an (t) −an−1 (t) −an−2 (t) ··· −a1 (t) xn b(t)

y se comprueba inmediatamente que las definiciones y teoremas dados en el estudio de las ecuaciones
lineales son un caso particular de las correspondientes a sistemas de ecuaciones lineales (por ejemplo,
la definición de wronskiano o la fórmula de Liouville).

4.3. Sistemas homogéneos


Teorema 4.2 Toda combinación lineal de soluciones del sistema homogéneo ẋ = A(t)x es también
solución de dicho sistema homogéneo.
Si u̇1 = A(t)u1 , . . . , u̇k = A(t)uk y u = c1 u1 + · · · + ck uk entonces

u̇ = c1 u̇1 + · · · + ck u̇k
= c1 A(t)u1 + · · · + ck A(t)uk
= A(t)(c1 u1 + · · · + ck uk )
= A(t)u.

Teorema 4.3 Si u es una solución del sistema homogéneo ẋ = A(t)x que para cierto t0 cumple la
condición inicial u(t0 ) = (0, . . . , 0), entonces u(t) ≡ (0, . . . , 0).
Es consecuencia de la unicidad.

Teorema 4.4 Las n soluciones u1 , . . . , un del sistema homogéneo ẋ = A(t)x son linealmente depen-
dientes si y sólo si su wronskiano

u1 1 (t) · · · u1 n (t)

.. . . .
.
W (t) = det[u1 (t)| · · · |un (t)] = .

. .
n n

u 1 (t) · · · u n (t)

se anula para algún valor t0 .

Teorema 4.5 (Fórmula de Liouville) El wronskiano W (t) de n soluciones u1 , . . . , un de la ecua-


ción homogénea ẋ = A(t)x cumple
Rt
t0 [tr A(s)]ds
W (t) = W (t0 )e .

Por tanto W (t) o es nulo para todo t o no se anula para ningún t. En el primer caso las soluciones
son linealmente dependientes; en el segundo caso son linealmente independientes.
52 CAPÍTULO 4. SISTEMAS LINEALES

Derivando el wronskiano se obtiene directamente


W 0 (t) = [a11 (t) + · · · + ann (t)]W (t) = [tr A(t)]W (t).
Integrando esta ecuación diferencial lineal homogénea se obtiene la fórmula de Liouville, de donde se
sigue inmediatamente el teorema.

Teorema 4.6 Las soluciones u1 , . . . , un del sistema homogéneo ẋ = A(t)x que cumplen las condi-
ciones iniciales ui (0) = ei (donde ei es el i-ésimo vector de la base canónica) son linealmente inde-
pendientes, ya que W (0) = det I = 1. Cualquier otra solución se puede escribir como combinación
lineal de u1 , . . . , un .

Teorema 4.7 Sean u1 , . . . , un soluciones linealmente independientes del sistema homogéneo ẋ =


A(t)x. Toda solución de dicho sistema homogéneo es combinación lineal de u1 , . . . , un .

4.3.1. Matrices fundamentales


El teorema anterior establece que la solución general del sistema homogéneo ẋ = A(t)x es
u(t) = c1 u1 (t) + · · · + cn un (t)
donde u1 , . . . , un son n soluciones (vectores columna) linealmente independientes del sistema y donde
c1 , . . . , cn son constantes arbitrarias. En muchos casos es conveniente escribir estas combinaciones
lineales como producto de una matriz por un vector constante:
 
c1
 .. 
u(t) = c1 u1 (t) + · · · + cn un (t) = [u1 (t)| · · · |un (t)]  .  = U (t)c.
cn
Es más, recordando la regla de multiplicación de matrices por bloques
A(t)U (t) = A(t)[u1 | · · · |un ] = [A(t)u1 | · · · |A(t)un ]
se comprueba que la matriz U (t) satisface el sistema matricial
U̇ (t) = A(t)U (t).
Con esta notación, el wronskiano de las soluciones u1 , . . . , un es
W (t) = det U (t).
Definición 4.1 (Matrices fundamentales) Se llama matriz fundamental del sistema homogéneo
ẋ = A(t)x a toda matriz U (t) = [u1 (t)| · · · |un (t)] cuyas columnas sean n soluciones linealmente
independientes de dicho sistema.

Teorema 4.8 Si U (t) es una matriz fundamental del sistema homogéneo ẋ = A(t)x, cualquier so-
lución del sistema se puede expresar en la forma u(t) = U (t)c, donde c es un vector constante.

Definición 4.2 (Matriz fundamental canónica) Se llama matriz fundamental canónica del sis-
tema homogéneo ẋ = A(t)x a la matriz fundamental U (t) = [u1 (t)| · · · |un (t)] que cumple U (0) = I,
es decir, a la matriz fundamental cuyas columnas son las soluciones de dicho sistema que cumplen
las condiciones iniciales ui (0) = ei , (i = 1, . . . , n).

Teorema 4.9 Si U (t) es la matriz fundamental canónica del sistema homogéneo ẋ = A(t)x, la
solución u del sistema que cumple la condición inicial u(0) = η es u(t) = U (t)η.
4.4. SISTEMAS NO HOMOGÉNEOS 53

4.3.2. Ejemplo
Sea el sistema
ẋ1 = −x1
ẋ2 = (sen t)x1 − x2
que escrito en forma matricial es
 1    1
ẋ −1 0 x
2 = .
ẋ sen t −1 x2
La solución u1 que cumple la condición inicial
e−t
   
1
u1 (0) = es u1 (t) = −t .
0 e (1 − cos t)
La solución u2 que cumple la condición inicial
   
0 0
u2 (0) = es u2 (t) = −t .
1 e
Por tanto la matriz fundamental canónica es
e−t
 
0
U (t) = −t
e (1 − cos t) e−t
y la solución u que cumple la condición inicial
e−t
 1    1
η 0 η
u(0) = 2 es u(t) = −t .
η e (1 − cos t) e−t η 2

4.4. Sistemas no homogéneos


Teorema 4.10 Si U (t) es una matriz fundamental del sistema reducido ẋ = A(t)x y v es una
solución del sistema completo ẋ = A(t)x + b(t), entonces para todo vector constante c la función
w(t) = U (t)c + v(t)
es una solución del sistema completo. Recı́procamente, si w es una solución del sistema completo,
existe un único vector constante c tal que w(t) = U (t)c + v(t).

4.5. Fórmula de variación de constantes


La fórmula de variación de constantes se generaliza a sistemas lineales: si U (t) es una matriz
fundamental del sistema homogéneo ẋ = A(t)x, se busca un vector columna c(t) tal que el vector
columna v(t) = U (t)c(t) sea solución del sistema no homogéneo ẋ = A(t)x + b(t). El cálculo es el
mismo que en el caso de la ecuación lineal con la salvedad de la no conmutatividad de los productos
matriciales:
U̇ c + U ċ = AU c + b, U ċ = b, ċ = U −1 b,
y basta tomar Z t
c(t) = U −1 (s)b(s) ds + C

donde C es un vector columna constante arbitrario.


54 CAPÍTULO 4. SISTEMAS LINEALES

Teorema 4.11 Sea U (t) una matriz fundamental del sistema homogéneo ẋ = A(t)x. La solución
general del sistema no homogéneo
ẋ = A(t)x + b(t)
es Z t
w(t) = U (t)C + U (t) U −1 (s)b(s)ds.

En particular, la solución que cumple v(0) = (0, . . . , 0) está dada por


Z t
v(t) = G(t, s)b(s)ds
0

donde G(t, s) es la función matricial de Green definida por

G(t, s) = U (t)U −1 (s).

Si además U (t) es la matriz fundamental canónica, entonces la solución de

ẋ = A(t)x + b(t)

que verifica w(0) = η es


 Z t 
−1
w(t) = U (t) η + U (s)b(s)ds
0

o equivalentemente
Z t
w(t) = U (t)η + G(t, s)b(s)ds.
0

4.5.1. Ejemplo
Sea el sistema

ẋ1 = −x1
ẋ2 = (sen t)x1 − x2 + t

que escrito en forma matricial es


 1    1  
ẋ −1 0 x 0
2 = 2 + .
ẋ sen t −1 x t

La matriz fundamental canónica del sistema reducido es

e−t
 
0
U (t) = −t
e (1 − cos t) e−t

con la que se calcula inmediatamente


 
−1 es 0
U (s) = s .
e (cos s − 1) es
4.6. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES 55

Por tanto la solución particular que cumple la condición inicial v(0) = (0, 0) es
Z t
v(t) = U (t) U −1 (s)b(s)ds
Z0 t   
es 0 0
= U (t) ds
0 es (cos s − 1) es s
Z t 
0
= U (t) ds
0 ses
 
0
= U (t) t
e (t − 1) + 1
 
0
= −t .
e +t−1

4.6. Sistemas lineales con coeficientes constantes


4.6.1. Exponencial de una matriz
En la teorı́a de sistemas de ecuaciones diferenciales lineales con coeficientes constantes es esencial
el estudio de las familias de matrices de la forma etA , donde t es un parámetro real. Aplicando el
criterio de Weierstrass se puede demostrar el siguiente teorema.

Teorema 4.12 La serie de matrices dependiente del parámetro t



tA
X tk
e = Ak
k=0
k!

converge (en el sentido de que todos los elementos de la matriz son convergentes) absolutamente y
uniformemente en conjuntos acotados, lo mismo que la serie que se obtiene derivando término a
término la serie anterior con respecto a t.
Multiplicando las series correspondientes a esA y a etA y agrupando potencias se obtiene
e(s+t)A = esA etA .

En particular etA es siempre invertible y


(etA )−1 = e−tA .

Mediante reducción a forma normal se demuestra que


det(etA ) = et tr A .

Derivando término a término la serie etA se obtiene


d tA 
e = AetA .
dt
Si AB = BA entonces eA eB = eA+B . Si A y B no conmutan, en general eA eB 6= eA+B .
Si A diagonaliza,
etA = P etD P −1 .
donde P = [v1 | · · · |vn ] es la matriz de vectores propios y D = diag(λ1 , . . . , λn ).
56 CAPÍTULO 4. SISTEMAS LINEALES

4.6.2. Solución general


Teorema 4.13 La matriz fundamental canónica del sistema lineal homogéneo con coeficientes cons-
tantes
ẋ = Ax
es
U (t) = etA ,
y la solución que cumple u(t0 ) = η es
u(t) = e(t−t0 )A η.
La solución del sistema no homogéneo
ẋ = Ax + b(t)
que cumple la condición inicial u(t0 ) = η es
Z t
(t−t0 )A
u(t) = e η+ e(t−s)A b(s) ds.
t0

4.6.3. Cálculo de la exponencial de una matriz


Existen varios métodos generales para calcular la exponencial de una matriz, y cada uno de ellos
presenta ventajas e inconvenientes difı́ciles de juzgar a priori. Antes de estudiar uno de estos métodos
generales se verán algunos casos particulares que aparecen en la práctica.

Matrices nilpotentes
Si una matriz es nilpotente, es decir, si Ak 6= 0 pero Ak+1 = 0, entonces todas las potencias
superiores se anulan, y la serie para la exponencial se reduce a un polinomio en A:

tk k
etA = I + tA + · · · + A , (Ak+1 = 0).
k!
Ejemplo 4.1 Considérese el sistema correspondiente a la ecuación x00 = 0:

ẋ1 = x2
ẋ2 = 0

cuya matriz es 
0 1
A= .
0 0
Como A2 = 0, la serie que da la matriz fundamental canónica termina en el segundo término:
 
tA 1 t
e = I + tA = .
0 1

Las soluciones (linealmente independientes) que cumplen u1 (0) = e1 y u2 (0) = e2 son las columnas
de etA :    
1 t
u1 (t) = , u2 (t) = .
0 1
4.6. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES 57

Finalmente, la solución general u(t) = c1 u1 (t) + c2 u2 (t) sin notación matricial se escribe

u1 (t) = c1 + c2 t
u2 (t) = c2 .

Naturalmente x(t) = c1 + c2 t = u1 (t) es la solución general inmediata de la ecuación de partida


x00 = 0, y u2 (t) = c2 = x0 (t).

Suma de la serie
En algunos casos que aparecen en Mecánica Clásica y sobre todo en Mecánica Cuántica es posible
sumar explı́citamente la serie que define la exponencial.

Ejemplo 4.2 Considérese el sistema correspondiente al oscilador armónico x00 + x = 0:

ẋ1 = x2
ẋ2 = −x1

cuya matriz es  
0 1
A= .
−1 0
Esta matriz cumple A2 = −I, de modo que

A2 = −I, A3 = −A, A4 = I, A5 = A, . . .

y en adelante las potencias se repiten cı́clicamente. Por tanto la matriz fundamental canónica del
sistema es:
t t2
etA = I + A + A2 + · · ·
 1! 2 2! 4
t3 t5
  
t t
= I 1 − + − ··· + A t − + − ···
2! 4! 3! 5!
= I cos t + A sen t
 
cos t sen t
= .
− sen t cos t

Las soluciones que cumplen u1 (0) = e1 y u2 (0) = e2 son las columnas de etA :
   
cos t sen t
u1 (t) = , u2 (t) = .
− sen t cos t

Finalmente, la solución general u(t) = c1 u1 (t) + c2 u2 (t) sin notación matricial se escribe

u1 (t) = c1 cos t + c2 sen t


u2 (t) = −c1 sen t + c2 cos t.

De nuevo x(t) = c1 cos t + c2 sen t = u1 (t) es la solución general inmediata de la ecuación de partida
x00 + x = 0, y u2 (t) = x0 (t).
58 CAPÍTULO 4. SISTEMAS LINEALES

Matrices diagonalizables
El caso más frecuente en la práctica es aquel en que la matriz A es diagonalizable.

Teorema 4.14 Si la matriz A es diagonalizable con valores propios λ1 , . . . , λn y vectores propios


respectivos linealmente independientes v1 , . . . , vn , entonces la solución general del sistema ẋ = Ax es

u(t) = c1 v1 eλ1 t + · · · + cn vn eλn t .

En este caso es evidente que

u̇ = c1 v1 λ1 eλ1 t + · · · + cn vn λn eλn t
= c1 (Av1 )eλ1 t + · · · + cn (Avn )eλn t
= A(c1 v1 eλ1 t + · · · + cn vn eλn t )
= Au.

Y puesto que los vectores propios v1 , . . . , vn son linealmente independientes, cualquier vector condi-
ción inicial se puede escribir como combinación lineal de ellos.
En notación matricial, esta solución equivale a tomar como matriz fundamental del sistema

U (t) = P etD ,

donde P = [v1 | · · · |vn ] es la matriz de vectores propios y D = diag(λ1 , . . . , λn ). La matriz fundamental


canónica de este sistema es
etA = P etD P −1 .

Ejemplo 4.3 Sea el sistema

ẋ1 = x1 + x2 ,
ẋ2 = 3x1 − x2 + et .

En este caso 
  
1 1 0
A= , b(t) = t .
3 −1 e
Los valores propios de la matriz A son λ1 = 2 y λ2 = −2, y la matriz de vectores propios (por
columnas) es  
1 1
P = .
1 −3
El sistema de ecuaciones para y es  1    1
ẏ 2 0 y
2 =
ẏ 0 −2 y 2
y una matriz fundamental (dos soluciones linealmente independientes por columnas)
 2t 
e 0
V (t) = .
0 e−2t

Por tanto, una matriz fundamental del sistema de partida es

e−2t
 2t 
e
W (t) = P V (t) = 2t ,
e −3e−2t
4.6. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES 59

y las soluciones del sistema reducido son w(t) = W (t)c, o explı́citamente

w1 (t) = c1 e2t + c2 e−2t ,


w2 (t) = c1 e2t − 3c2 e−2t .

Para hallar una solución particular del sistema completo se usa la fórmula de variación de constantes:
1 3e−2s e−2s
 
−1
W (s) = ,
4 e2s −e2s

1 e−s
 
−1
W (s)b(s) = ,
4 −e3s
Z t
1 3e−t
 
−1
W (s)b(s) ds = − ,
12 −e3t
Z t  
−1 1 et
v(t) = W (t) W (s)b(s) ds = − ,
3 0
o explı́citamente
1
v 1 (t) = − et .
3
2
v (t) = 0.

Finalmente, la solución general del sistema de partida ẋ = Ax + b(t) es


1
u1 (t) = c1 e2t + c2 e−2t − et ,
3
u2 (t) = c1 e2t − 3c2 e−2t .

Caso general: el método de Putzer


El teorema de Hamilton-Cayley demuestra que la potencia n-ésima de cualquier matriz n × n se
puede expresar como combinación lineal de las potencias inferiores I, A, . . . , An−1 . Por lo tanto cabe
pensar que etA se pueda expresar también como un polinomio de la forma

etA = q0 (t)I + q1 (t)A + q2 (t)A2 + · · · + qn−1 (t)An−1 ,

para ciertas funciones qk (t). Putzer dio dos métodos para expresar etA como un polinomio en A sin
necesidad de calcular la forma normal de Jordan de la matriz A. De ellos, se estudiará el más sencillo.

Teorema 4.15 Sean λ1 , . . . , λn los valores propios de la matriz A, y sean los polinomios

P0 (A) = I, Pk (A) = (A − λ1 I) · · · (A − λk I), k = 1, 2, . . . , n − 1.

Entonces
etA = r1 (t)P0 (A) + r2 (t)P1 (A) + · · · + rn (t)Pn−1 (A)
donde las funciones rk (t) se determinan por recurrencia a partir del sistema de ecuaciones diferen-
ciales lineales
r10 (t) = λ1 r1 (t), r1 (0) = 1,
0
rk+1 (t) = λk+1 rk+1 (t) + rk (t), rk+1 (0), k = 1, . . . , n − 1.
60 CAPÍTULO 4. SISTEMAS LINEALES

La demostración se reduce a un cálculo directo utilizando el teorema de Hamilton-Cayley. A conti-


nuación se estudiarán dos ejemplos generales que ilustran el uso del método.

Ejemplo 4.4 Sea A una matriz 2×2 con un único valor propio λ doble. El método de Putzer permite
obtener fácilmente una fórmula general para etA . Poniendo λ1 = λ2 = λ en el sistema anterior se
tiene,
r10 (t) = λr1 (t), r1 (0) = 1 ⇒ r1 (t) = eλt .
r20 (t) = λr2 (t) + eλt , r2 (0) = 0 ⇒ r2 (t) = t eλt .
Como P0 (A) = I y P1 (A) = A − λI,

etA = eλt I + t eλt (A − λI) = eλt (1 − λt)I + teλt A.

Un caso particular de esta fórmula con λ = 0 se estudió en el ejemplo 4.1:

etA = I + tA.

Ejemplo 4.5 Sea A una matriz 2 × 2 con dos valores propios distintos λ 6= µ. El método de Putzer
permite obtener fácilmente una fórmula general para etA . Del sistema correspondiente se obtiene,

r10 (t) = λr1 (t), r1 (0) = 1 ⇒ r1 (t) = eλt .

eλt − eµt
r20 (t) = µr2 (t) + eλt , r2 (0) = 0 ⇒ r2 (t) = .
λ−µ
Como P0 (A) = I y P1 (A) = A − λI,

eλt − eµt λeµt − µeλt eλt − eµt


etA = eλt I + (A − λI) = I+ A.
λ−µ λ−µ λ−µ
Un caso particular de esta fórmula con λ = i, µ = −i se estudió en el ejemplo 4.2:
ie−it + ieit eit − e−it
etA = I+ A = (cos t)I + (sen t)A.
i − (−i) i − (−i)
Con cálculos del mismo tipo que los de estos ejemplos, aunque algo más laboriosos, se pueden
encontrar fácilmente fórmulas generales para cualquier matriz 3 × 3:
Si la matriz A 3 × 3 tiene un único valor propio λ triple, entonces
t2
 
tA λt 2
e = e I + t(A − λI) + (A − λI) .
2

Si la matriz A 3 × 3 tiene tres valores propios distintos λ, µ y ν, entonces


(A − µI)(A − νI) (A − λI)(A − νI) (A − λI)(A − µI)
etA = eλt + eµt + eνt .
(λ − µ)(λ − ν) (µ − λ)(µ − ν) (ν − λ)(ν − µ)

Si la matriz A 3 × 3 tiene un valor propio doble λ y uno simple µ, entonces

eµt − eλt teλt


etA = eλt [I + t(A − λI)] + (A − λI) 2
− (A − λI)2 .
(µ − λ)2 µ−λ

You might also like