AMPLIACION DE ANALISIS MATEMATICO:
ECUACIONES DIFERENCIALES ORDINARIAS
x
x + ω 2x = f0 cos(a„¦t)
£
¢
t
t
´ Indice
Programa de la asignatura o 1. Introducci´n a las EDOs: la EDO
lineal de primer 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . .
1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas
aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . .
. . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35
38 39 41 43 49 51 52 53 55 56 58 58 60 64 65
2. Otras EDOs de primer orden 2.1. Ecuacionesseparables . . . . . . . . . . . .
. . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs
homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer
orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes
. . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e
2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de
EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales
con coeï¬cientes constantes 3.3. La exponencial matricial exp(xA) . . . . . .
. 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales
no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal
homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO
lineal de segundo orden no homog´nea con coeï¬cientes constantes e 4.3.
Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . 4.4. Problemas . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . .
. . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de
reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e
5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . .
. o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los
polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .
6.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . 7. El teorema de existencia y unicidad para las EDOs 7.1. Problemas .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8. La
transformada de Laplace 8.1. Problemas . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . A. Anexo: C´lculo de primitivas a A.1.
M´todos de integraci´n.. . . . . . e o A.2. Integraci´n de funciones
racionales. o A.3. Integrales trigonom´tricas. . . . . . e A.4. Integrales
irracionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102
´ B. Anexo: Algebra lineal B.1. Sistemas lineales y matrices. . . . . . . . . .
. . . . . . . B.2. Formas escalonadas y el algoritmo de reducci´n por ï¬las. o
B.3. Soluci´n de un sistema de ecuaciones lineales. . . . . . . o B.4. Vectores
y ecuaciones matriciales. . . . . . . . . . . . . . ´ B.5. Algebra de matrices.
. . . . . . . . . . . . . . . . . . . . B.6. Determinantes. . . . . . . . . . .
. . . . . . . . . . . . . B.7. Espacios Vectoriales. . . . . . . . . . . . . .
. . . . . . . B.8. El problema de autovalores de una matriz. . . . . . . . .
C. Anexo: Series de potencias 105 C.1. Propiedades de las series de potencias .
. . . . . . . .. . . . . . . . . . . . . 105
Diplomatura de Estad´ A±stica “Ampliaci´n de An´lisis Matem´tico”. o a a
Programa de la asignatura. Curso 2003/2004
Cap´ A±tulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. La EDO lineal o de primer orden. Motivaci´n de las
ecuaciones diferenciales ordinarias (EDO). La EDO lineal de primer o orden. Teorema de existencia y
unicidad para la EDO lineal de orden 1.
Aplicaciones. Cap´ A±tulo 2: Ecuaciones diferenciales ordinarias de primer
orden. Ecuaciones diferenciales de primer orden. Ecuaciones separables.
Ecuaciones lineales. Ecuaciones de Bernoulli y de Ricati. Ecuaciones
diferenciales exactas. Aplicaciones. M´todos e en diferencias para resolver
EDOs de primer orden: El m´todo de Euler. e Cap´ A±tulo 3: Sistemas de
ecuaciones diferenciales ordinarias de primer orden. Sistemas de ecuaciones
diferenciales ordinarias de primer orden. Sistemas lineales con coeï¬cientes
constantes. La matriz exponencial eA y sus propiedades. Ejemplos y
aplicaciones. Cap´ A±tulo 4: Ecuaciones diferenciales de orden n. EDOs de orden
n. Relaci´n con los sistemas de ecuaciones de primer orden. Ecuaciones o
lineales. EDOs lineales de orden 2. M´todo de variaci´n de coeï¬cientes.
Reducci´nde orden. e o o Cap´ A±tulo 5: M´todo de las series de potencias. e
M´todo de integraci´n por series. Puntos regulares y singulares. La ecuaci´n
hipere o o geom´trica de Gauss. La ecuaci´n de Bessel. Aplicaciones. e o Cap´
A±tulo 6: Polinomios ortogonales cl´sicos. a La ecuaci´n de tipo
hipergeom´trico y sus soluciones polin´micas. Los polinomios cl´sio e o a cos.
Ortogonalidad y relaci´n de recurrencia. F´rmula de Rodrigues. Los momentos de
las o o distribuciones continuas de probabilidad. Funciones generatrices. Cap´
A±tulo 7: EDOs: Existencia y unicidad de las soluciones. M´todo de Pic´rd.
Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria
de primer orden. Los sistemas lineales y la EDO
de orden n. Cap´ A±tulo 8: Ecuaciones en diferencias ï¬nitas. Introducci´n a
las ecuaciones en diferencias ï¬nitas: Ejemplos. Existencia de la soluci´n. o
o o e a La ecuaci´n de segundo orden de tipo hipergeom´trico. Polinomios
cl´sicos discretos. La ecuaci´n de Pearson y los momentos de las distribuciones
discretas de probabilidad. Funcioo nes generatrices.
Metodolog´ y Evaluaci´n A±a o
La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales.
Las horas a o a de teor´ sededicar´n a la explicaci´n de los principales
conceptos y m´todos de resoluci´n A±a a o e o de EDOs tanto de orden uno como de ordenes
superiores. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan
aplicar y profundizar los m´todos aprendidos. Las horas pr´cticas se e a
dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una
comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de
complemento a las clases te´ricas. o a o o Al ï¬nal del cuatrimestre se se efectuar´ un ex´men
ï¬nal constituido por una parte te´ricaa a o a pr´ctica y otra de problemas. Para aprobar el examen es necesario obtener al menos 5
puntos. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el
programa e a que complementen los tratados en clase. Dichos proyectos son
totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden
complementar la nota de ´ste, s´lo en caso a a e o de mejorarla.
Bibliograf´ A±a
Bibliograf´ b´sica A±a a
C. H. Edwards, Jr y David E. Penney, Ecuaciones diferenciales elementales.
Pearson Educaci´n o Nagle R.K. y Saff E.B. Fundamentos de ecuaciones
diferenciales. Pearson Educaci´n. o
Colecciones de problemas
A. K. BOIARCHUK y G. P.GOLOVACH, Matem´tica Superiores. Problemas Resuea tos:
Ecuaciones diferenciales (Anti-Demidovich) Vol 8, 9 y 10 (URSS, 2002).
Bibliograf´ complementaria A±a
Braun M. Differential Ecuations and their Applications. Springer Verlag.
Bugrov Ya.S., Nikolski S.M. Ecuaciones diferenciales. Integrales mltiples.
Series. Funciones de variable compleja. MIR. Elsgoltz L. Ecuaciones
diferenciales y c´lculo variacional. MIR. a Kisilev A., Krasnov M. y Makarenko
G. Problemas de Ecuaciones diferenciales ordinarias. Ed. MIR. Marcell´n, F.,
Casas´s, L. y Zarzo, A., Ecuaciones diferenciales: Problemas lineales y a u
aplicaciones. McGraw-Hill. Rainville E.D., Bedient P.E. y Bedient R.E.
Ecuaciones diferenciales. Prentice Hall. Simmons, G.F. Ecuaciones diferenciales
: con aplicaciones y notas hist´ricas. McGrawo Hill. ´ Renato Alvarez Nodarse.
Facultad de Matem´ticas. Despacho: 1er piso, Mod 15, No. 15-06 a
´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN
1
1.
Introducci´n a las EDOs: la EDO lineal de
primer o orden
Todos sabemos que es una ecuaci´n. Por ejemplo o 3x + 2 = 5, x2 + 4x = −3,
x2 + 1 = 0, x2 − 2x + 1 = 0. x2 − 1
Estas ecuaciones, quiz´ las m´s sencillas, son ecuaciones algebraicas ya
queinvolucran s´lo a a o las operaciones suma, resta, multiplicaci´n y
divisi´n. La inc´gnita en este caso es una unica o o o ´ variable x que puede
ser real o compleja. Por ejemplo, para la primera ecuaci´n es f´cil ver o a que
x = 1 es la unica soluci´n posible, mientras que la segunda tiene dos
soluciones reales ´ o x = 1 y x = 3. La tercera sin embargo no tiene soluciones
reales, pero si complejas x = ±i. Finalmente la ultima no tiene ninguna
soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ A±a puede ser soluci´n
ya que la propia ecuaci´n no est´ deï¬nida en x = 1 (divisi´n por cero). o o a
o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n
es un conjuno to de n´meros determinado. Existen ecuaciones m´s “complicadas”,
las ecuaciones funcionau a o e les donde las inc´gnitas son funciones. En
ejemplo de ´stas son las ecuaciones diferenciales ´ “ordinarias”. Estas son
ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. Por ejemplo,
y (x) = sen x, y (x) = y, y (x) − ey(x) + 7 cos x = 0, y (x) + 3y (x) +
2y(x) = 2 cos(2x).
Estas ecuaciones son el objetivo del
presente curso. Es f´cil entender que el problema de a encontrar la soluci´n de
lasecuaciones diferenciales es m´s complicado que el de los casos o a
anteriores. En primer lugar por que estamos buscando funciones de x y no
simples valores de x. En segundo, porque tarde o temprano tendremos que
calcular primitivas lo cual es bastante complicado en general.
1.1.
Ecuaciones diferenciales “ordinarias”
F (x, y, y , y , . . . , y (n) ) = 0,
Nos centraremos en las ecuaciones del tipo (1.1)
donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I R. Diremos que o u una
ecuaci´n diferencial del tipo (1.1) es de orden n si en ella aparece la
derivada y (n) , es o decir el orden de una EDO coincide con el mayor orden de
la derivada de la funci´n inc´gnita o o y y. As´ por ejemplo la ecuaci´n y + 3y
= 2 es de orden uno, y + e − 1 = 0 es de orden dos, A±, o y (5) + 3 sen x
− y = 0 es de orden cinco. Diremos que y = y(x) es una soluci´n de la
(1.1) en cierto dominio A R si al sustituir o la funci´n y = y(x), (1.1) se
transforma en una identidad para todo x A, o sea o y = y(x) es soluci´n en A o F (x, y(x), y (x), . . .
, y (n) (x)) = 0, x A.
Nuestro principal objetivo es aprender a resolver EDOs. En particular el
denominado problema de valores iniciales (PVI), esdecir encontrar aquella
soluci´n y de la ecuaci´n o o (n) F (x, y, y , y , . . . , y ) = 0 que cumpla
con las condiciones iniciales y(x0 ) = y0 , y (x0) = y0, , y (n−1)
(x0) = y0
(n−1)
.
´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE
PRIMER ORDEN
2
1.2.
La EDO lineal de primer orden
d y(x) + a(x)y(x) = b(x), dx
Deï¬nici´n 1.1 La ecuaci´n o o a(x), b(x) CI . (1.2)
(como inc´gnita
tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o
o o de primer orden. Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n
homog´nea y si b(x) = 0, o o e ecuaci´n no homog´nea. o e La soluci´n general
de (1.2) se expresa de la forma o y(x) = Ce−
a(x) dx
+ e−
a(x) dx
e
a(x) dx
b(x) dx
(1.3)
Ejemplo 1.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce−
2 + e− 2
x2 x2
dy + x y = 2x. dx
e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2.
x2
x2
x2
x2
x2
Deï¬nici´n 1.3 El problema de encontrar una soluci´n de la ecuaci´n (1.2) con
la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina
problema de valores iniciales PVI para la EDO lineal de primer orden, o sea, d
y(x) + a(x)y(x) = b(x), dx a(x), b(x) CI , y(x0) = y0.(1.4)
o Ejemplo 1.4 Resolver la EDO del ejemplo 1.2 con la condici´n inicial y(0) =
1. Como la
soluci´n general es y(x) = Ce− 2 + 2, tenemos y(0) = 1 = C + 2, de donde
C = −1 o
x2 x2
y y(x) = 2 − e− 2 .
Teorema 1.5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores
iniciales (1.4). Si a(x) y b(x) son funciones continuas en cierto intervalo I R que contenga al punto
x0
I, entonces, para cualquiera sea el valor y0 , existe una unica soluci´n del problema de valores
iniciales (1.4). ´ o En general, la soluci´n del PVI es o
x t x t
y(x) = y0 exp −
x0
a(s) ds + exp −
a(s) ds
x0 x0
exp
x0
a(s) ds b(t) dt .
(1.5)
´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE
PRIMER ORDEN
3
1.3.
Algunas aplicaciones de las EDOs lineales de primer orden
Ejemplo 1.6 Encontrar una familia de curvas y(x) tal que el segmento de la
tangente t a la curva y en un punto cualquiera P (x, y) dibujado entre P y el
eje 0y quede bisecado por el eje Ox. y = 2y/x Ejemplo 1.7 Encontrar una familia
de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto
sea la suma de las coordenadas del punto. Encuentra adem´s la acurva que pasa
por el origen. Ejemplo 1.8 Se sabe que la intensidad i del
circuito el´ctrico representado en la ï¬gura 1 e est´ gobernada por la
ecuaci´n diferencial a o L di + Ri = U, dt
donde L es la impedancia, R la resistencia
y U el voltaje. Supongamos que el voltaje U es constante y que i(0) = i0.
Encontrar la dependencia de i respecto al tiempo t. Realizar el mismo estudio
si U = U0 sen(ωt).
y t y(x)
P(x,y)
R
0 (x/2,0) x
U
L
Q
Figura 1: Curva del ejemplo 1.6 (derecha) y circuito el´ctrico del ejemplo 1.8
(izquierda) e
Ejemplo 1.9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h),
λ > 0,
donde p es la presi´n en funci´n de la altura h. Si h = 0, la presi´n al nivel
del mar (1 atm). o o o sC´mo var´ la presi´n con la altura? o A±a o Ejemplo
1.10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una
substancia radioactiva, entonces u ´ N (t + h) − N (t) = −λN
(t)h N (t + h) − N (t) = −λN (t). h
´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema
(C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife)
Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710
8848 0.81 0.710.64 0.62 0.32
4
Si h → 0, entonces podemos aproximar la ecuaci´n anterior mediante la
siguiente EDO o N (t) = −λN (t), N (t0) = N0. (1.6)
Se llama per´ A±odo de semi-desintegraci´n al tiempo necesario para disminuir
en la mitad o el n´mero de atomos, u ´ N0 = N0 e−λT , 2 = λ= log 2 0,693147 =
. T T
Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 →
Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o
Uranio 238 → Torio 234
Per´ A±odo T λ 1600 a˜os n 0.000433217 1/a˜os n 47 min 0.0147478 1/min 22
a˜os n 0.0315067 1/a˜os n 138 d´ A±as .00502281 1/dias 5568 a˜os n 0.000124488
1/a˜os n 9 −10 4,5110 a˜os 1,5101210 n 1/a˜os n
En muchos casos un elemento radioactivo puede obtenerse a partir de otros
mediante una cadena radioactiva. E.g.
Uranio 238
Torio 234
Uranio 234
Radio 226
Plomo 206
Polonio 210
Plomo 210
Plomo 214
As´ por ejemplo, si estudiamos la cantidad de Plomo 210 que hay en una muestra
tenemos A±, que tener en cuenta no s´lo la cantidad que se desintegra sino la
que aporta cualquiera de los o elementos que aparecen por encima de ´l en la
cadena radioactiva. Por ejemplo, pr´cticamente e a en cualquier muestra que
tomemos siempre hay unadeterminada cantidad de Radio 226, lo que implica una
aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones. o e
Si llamamos a esa aportaci´n r(t), entonces la ecuaci´n que gobierna la
desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) +
r(t), N (t0) = N0, (1.7)
´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN
5
donde r(t) representa la cantidad de atomos de Radio que se desintegra en la
muestra. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la
f´rmula (1.5). o o a o
1.4.
Problemas
Problema 1.11 Decide si las funciones y(x) deï¬nidas expl´ A±citamente o impl´
A±citamente son soluciones de la EDO F (x, y, y) = 0 dada y determina la regi´n
de R donde dicha soluci´n o o est´ deï¬nida: a 1. f (x, y) = y − ex + 2
= 0, 2. f (x, y) = y −
2 2+x
F (x, y, y ) = y − y = 0 F (x, y, y ) = xy + y − y 2 = 0 F (x, y, y
) = yy + x = 0 F (x, y, y ) = (y 2 − x)y − y + x2 = 0 F (x, y, y )
= yy + x = 0 F (x, y, y ) = (1 + x2)y − xy = 0 F (x, y, y ) = ex−y
+ ey−xy = 0 F (x, y, y ) = y + y/x = 0
= 0,
3. f (x, y) = x2 + y 2 − 25 = 0, 4. f (x, y) = x3 + y 3 − 3xy = 0,
5. f (x, y) = x2 + y 2 − 25 = 0, √ 6. f (x, y) = 1 + x2 − y =
0, 7. f (x, y) =e2x + ey−x − 1 = 0, 8. f (x, y) = x2 + y 2 + 1 = 0,
Problemas de EDOs lineales
Problema 1.12 Encuentra la soluci´n general de las siguientes EDO lineales de
primer o orden 1. y + y cos x = 0 √ 2. y + y x = 0 3. y + 2xy = x 4. y +
y = xex 5. y + x2y = x2 6. x y + y = x3 7. y = (y + e−x ) tan x 8. y + 2y
= f (x), f (x) = 3e−2x , 9. y + xy = f (x), f (x) = 3/4e−2x , f (x)
= sen x 10. x y + y cos x = 1/2 sin(2x) 11. x y + y = x sen x Problema 1.13
Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la
soluci´n correspondiente a las condiciones iniciales indicadas: o 1. y = 3y +
e5x , 2. y = 6y + x2, y(1) = 0. y(0) = 2.
´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE
PRIMER ORDEN 3. y = y + e−x sen(2x), y(0) = 1. 4. (1 + x2)y + 4xy = x,
y(1) = 1/4. g(x) = 2, 0 ≤ t ≤ 1 0, t > 1
6
5. y + y = g(x), y(0) = 0,
Problema 1.14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento
de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x.
Encontrar la curva que pasa por (4, 2). (sol. x2 + 2y 2 = 24).
y
0 (x/2,0) y(x) t P(x,y) Q x
n
Curva del problema 1.14. Problema 1.15 a) Prueba que cualquier soluci´n y(x) de
la ecuaci´n o o y + ay = be−cx ,x→∞
a, c
(0, ∞),
b
R,
es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. A±m b) Prueba
que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x),
x→∞
a(x) ≥ c > 0,
x
R,
x→∞
l´ b(x) = 0, A±m
a(x), b(x)
CR ,
es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. A±m
2 OTRAS EDOS DE PRIMER ORDEN
7
2.
2.1.
Otras EDOs de primer orden
Ecuaciones separables
Comenzaremos por las ecuaciones separables. Supongamos que la funci´n f (x, y)
en la o EDO y = f (x, y) (2.1) admite la
factorizaci´n f (x, y) = a(x)b(y). Cuando esto ocurre se dice que la EDO (2.1) es o una ecuaci´n separable. Un ejemplo trivial
de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal
homog´nea (1.2) cuando b ≡ 0. e En general tenemos dy = a(x)b(y) dx dy = a(x)dx b(y) dy dy = b(y) a(x)dx,
luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C, donde
G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x). Ejemplo 2.1
Resolver la ecuaci´n y = x/y. o Usando lo anterior tenemos ydy = xdx y 2 = x2 + C.
La expresi´n anterior deï¬ne una familia de curvas en R2 √ son soluci´n
de la ecuaci´n o que o o 2 ,donde el signo + o − o diferencial propuesta.
En general la soluci´n es y(x) = ± C + x depender´ de las condiciones
iniciales. Por ejemplo, si nos interesa el PVI con la condici´n a o √ 2.
y(0) = 3, entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2.1.1.
Aplicaciones
Ejemplo 2.2 Supongamos que tenemos una reacci´n qu´ o A±mica A + B → C y
que en t = 0 la concentraci´n de A es a y la de B es b. Se sabe que la
velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n
de A y B. Lo anterior nos conduce a la EDO o x = κ(a − x)(b −
x), donde κ es la constante de proporcionalidad. Supongamos que a = b,
entonces tenemos dx = κdt (a − x)(b − x) = log a−x = (a −
b)κt + C, b−x 1 − e(a−b)κt . b − ae(a−b)κt
=
a−x = Ce(a−b)κt , b−x x(0) = 0, (2.2)
como x(0) = 0, C = a/b, luego x(t) = ab
Ejemplo 2.3 La velocidad de escape de la Tierra
2 OTRAS EDOS DE PRIMER ORDEN
8
Nos interesa resolver el problema de encontrar la velocidad de escape al
espacio exterior de un cuerpo que se encuentre en la superï¬cie de la tierra.
Si usamos la ley de Newton
tenemos dv GMT =− 2 , dt r donde G es la constante universal gravitatoria
y MT es la masa de la tierra. Como
g = GMT /R2 , siendo R el radio dela tierra (que supondremos una esfera),
tenemos GM T = gR2. Obviamente r varia con el tiempo por lo que la ecuaci´n
anterior se torna algo complicada o a simple vista. Usando la regla de la
cadena tenemos v gR2 dv =− 2 . dr r
La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 =
2gR2 /R + C. o e o Supongamos que v0 es la velocidad inicial del
cuerpo sobre la superï¬cie terrestre, entonces, la velocidad del cuerpo a cualquier distancia de la
tierra viene dada por v2 = 2gR 2 + v0 − 2gR. r
Para que nuestra nave escape deï¬nitivamente de la tierra es suï¬ciente que v
≥ 0 cuando √ r → ∞, lo cual nos conduce al valor v0 ≥
2gR. Poniendo los datos R = 6400000 metros g = 9,8m/s2 obtenemos v0 = 11200m/s
= 11,2Km/s. Ejemplo 2.4 La ca´ de un cuerpo en un medio viscoso se puede
modelizar mediante la A±da ecuaci´n para la velocidad v(t) o v = g −
κv r , v(0) = v0, (2.3)
donde g y κ son ciertas constantes (la gravedad y la viscosidad). o
Resolvamos la ecuaci´n dv = dt g − κv r
v v0 v
=
t − t0 =
v0
dv 1 = g − κv r g
v v0
dv , 1 − ω2 vr
ω2 =
κ . g
Escojamos r = 2, por ejemplo. Entonces dv 1 (1 + ωv) (1 − ωv0 )
= log = g(t − t0 ). 2 vr 1−ω 2ω (1 − ωv) (1 +
ωv0 )Despejando v tenemos la soluci´n o 1 v(t) = ω
1+ωv0 1−ωv0 1+ωv0 1−ωv0
e2gω(t−t0) − 1 e2gω(t−t0) + 1
,
ω=
κ > 0. g
Como ω > 0, entonces si t → ∞
el cuerpo s´lo podr´ alcanzar la velocidad l´ o a A±mite vmax = 1/ω independiente
del valor v0
inicial. Ejercicio 2.5 Resolver el caso r = 3.
2 OTRAS EDOS DE PRIMER ORDEN 2.1.2. El modelo de crecimiento de poblaciones
9
Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que
tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de
individuos de dicha especie en u u el momento t (evidentemente p(t) N). Sea r(t, p) la
diferencia entre en ´ A±ndice de natalidad y mortalidad de la poblaci´n.
Supongamos que la poblaci´n est´ aislada (o sea, no hay o o a emigraci´n ni
inmigraci´n). Entonces la variaci´n p(t + h) − p(t) es proporcional a
p(t)h y o o o el coeï¬ciente de proporcionalidad es r(t, p). Luego p(t + h) −
p(t) = r(t, p)p(t)h, h → 0, = p (t) = r(t, p)p(t).
La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t, p) = r,
constante. As´ la o a A±, poblaci´n de individuos de la especie puede ser
modelizada mediante el PVI o p (t) = r p(t), p(t0) = p0 , r > 0, (2.4)
cuya soluci´n p(t) = p0 er(t−t0). El modelo anterior se conoce como modelo de Malthus o
o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R.
Malthus (1766– e e 1834). Si r < 0 la especie esta condenada a la extinci´n
y si r > 0 ´sta crece en proporci´n o e o geom´trica. e Aunque el modelo
funciona razonablemente bien para poblaciones grandes, hay que hacer varias
correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros
factores como a
la falta de espacio o de alimentos que frenar´ el crecimiento. Por tanto varios
a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s, P. F. Verhulst,
propuso un modelo algo m´s realista a o e a conocido como el modelo log´
A±stico. Verhulst razon´ que como estad´ o A±sticamente el encuentro 2 de dos
individuos es proporcional a p (spor qu´?) entonces tendremos que sustraerle al
e t´rmino rp un t´rmino cp2 , de forma que la EDO que modeliza una poblaci´n
ser´ e e o a p (t) = r p(t) − cp2 (t),
p r/c
p(t0) = p0,
r, c > 0.
(2.5)
En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande
la EDO (2.4) es una aproximaci´n bastante
buena, pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp
no se puede obviar y terminafrenando el crecimiento exponencial. Resolviendo la
EDO (2.5) tenemos p(t) = rp0er(t−t0) . r
− cp0 + cp0 er(t−t0) (2.6)
Adem´s, l´ t→∞ p(t) = r/c independientemente a A±m de p0 . En el
caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n
luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´
A±stico 2.5. gr´ï¬ca 2. a
0
t0
t
Este modelo se ha comprobado con varias especies y ha dado muy buenos
resultados, en particular, el hecho de que la poblaci´n se o estabilice ha sido
comprobado en distintos experimentos con paramecios obteni´ndose una e gran
concordancia entre los resultados te´ricos y experimentales. o
2 OTRAS EDOS DE PRIMER ORDEN
10
2.2.
Problemas
Problema 2.6 Encuentra a ser posible todas las soluciones y(x) deï¬nidas expl´
A±citamente si se puede o impl´ A±citamente de las EDOs siguientes 1. (1 + x2)y
= 1 + y 2 2. y = xy(y + 2) 3. y(1 + x2)y + x(1 + y 2 ) = 0 4. y = 1 − x +
y 2 − xy 2 5. cotg(y)y = x2 + 2 6. (x log x)y + 1 + y2 = 0
7. cos(y)y + ex+1 tan y = 0 8. (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2.7
Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales:
1. y = y(a + by), y(x0) = y0 > 0, a, b > 0. 2. (1 − x)y =(x + 1)y,
y(0) = 0 3. yy + x − 3xy 2 = 0, y(2) = 1 4. cos(y)y = − x sen2y ,
y(1) = π/2 1+x 5. 3xy = y cos x, y(1) = 0 6. x2y − 1 = cos(2y), l´ x→∞
y(x) = 5π/4 A±m
2
2 OTRAS EDOS DE PRIMER ORDEN
11
2.3.
2.3.1.
Ecuaciones que se reducen a EDOs lineales o separables
Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati
En 1695 Johann Bernoulli propuso la resoluci´n de la EDO
o y + a(x)y = b(x)y n, n = 0, 1. (2.7)
La resolvi´ su hermano Jacob en 1696. Ese mismo a˜o Leibniz propuso el cambio z
= y 1−n o n que transformaba la EDO (2.7) en una EDO
lineal. En efecto, haciendo z = y 1−n , z = (1 − n)y −n y , = z + (1 − n)a(x)z =
(1 − n)b(x),
que es lineal y por tanto podemos usar la f´rmula (1.3) para resolverla. o
Ejemplo 2.8 Resolver la EDO y − 1/(3x)y
= y 4 log x. Esta ecuaci´n es una EDO de Bernoulli con n = 4. Hacemos el cambio
z = y −3 , y tenemos o 4 y = −y y /3, y = y 4 z, luego la EDO se transforma en 1 z + z = −3 log x, x de donde
obtenemos y= C 3 3 − − x log x + x x 2 4 = z=− C 3 3 −
x log x + x, x 2 4
−1/3
.
Pasemos a estudiar la EDO de Riccati. En 1724 Jacopo Francesco Riccati estudi´
la EDO o y + p(x)y + q(x)y 2 = f (x), (2.8)
que hab´ consideradoa˜os antes Jacob Bernoulli. La ecuaci´n anterior
generalmente es A±a n o imposible de resolver anal´ A±ticamente (en
cuadraturas) a no ser que se sepa una soluci´n o particular yp . Supongamos que
yp es una soluci´n particular de (2.8), y hagamos el cambio o z = y − yp
. Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0, que es una ecuaci´n de Bernoulli
la cual mediante el cambio w = 1/z podemos convertir en o una lineal. En
general, dada una EDO de Riccati (2.8), mediante el cambio y = yp + 1/z, la
podemos convertir en una EDO lineal. Veamos un
ejemplo. Ejemplo 2.9 Resolver la EDO de Riccati y = y 2 − 2/x2. La forma
de la EDO nos induce a buscar una soluci´n del
tipo y = c/x. Sustituyendo en la o EDO
descubrimos que las funciones y = 1/x e y = −2/x son soluciones
particulares. Usemos la primera para resolver la EDO.
Hacemos el cambio y = 1/x + 1/z, y =− 1 z − 2, 2 x z = 2 z + z = −1. x
La soluci´n la encontramos usando la f´rmula (1.3) que nos da o o x C z = −
+ 2, 3 x =
y= 3x2 1 + . x C − x3
2 OTRAS EDOS DE PRIMER ORDEN 2.3.2. Ecuaciones del tipo y = F (αx +
βy) y = F (αx + βy),
12
Sea la EDO (2.9) y hagamos el cambio z = αx + βy, entonces z = α
+ βy , luego (2.9) se transforma en la EDO separable dz= x + C. z = α
+ βF (z), =
α + βF (z) Ejemplo 2.10 Resolver la EDO
y = y − x − 1 +
1 . x−y+2
Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si
hacemos z = y − x, entonces o F (z) = z − 1 + 1/(2 − z). Como
z = y − 1 tenemos z = z−2− 1 , z−2 = (z − 2)dz = x + C,
(z − 2)2 − 1
luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| =
x + C, =
(z − 2)2 − 1 = Cex , = z = 2 ± 1 + Cex , √ por tanto y = 2 + x ± 1
+ Cex . N´tese que hemos dividido por (z − 2)2 − 1 por lo que o
podemos haber perdido soluciones. En efecto, como (z − 2)2 − 1 = 0 se anula en
z = 1 y 3, podemos perder las soluciones y = x + 1 e y = x + 3.
2.4.
Las EDOs homog´neas e
Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas. Una
funci´n e o f (x, y) se denomina homog´nea de orden k si para todo x, y y para
todo t
R, f (tx, ty) = e tk f (x, y). Adem´s, si f es homog´nea de orden 0, entonces f
(tx, ty) = f (x, y). Sea f una a e funci´n homog´nea de orden 0. Sea y = u x.
Entonces o e f (x, y) = f (x, ux) = x0f (1, u) = g(u) = g(y/x), o sea, toda funci´n
homog´nea de orden 0 es una funci´n de y/x. o e o Supongamos que tenemos la EDO
y = f (x, y) y f es una funci´n homog´nea de orden o e 0,entonces la EDO
anterior se transforma en la EDO y = f (y/x). (2.10)
A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO
homog´nea. Si hacemos el o e cambio y = ux, entonces y = xu + u y la EDO (2.10)
se transforma el la EDO separable xu + u = f (u), u = y/x,
que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| +
C. f (u) − u Ejemplo 2.11 Resolver la EDO
y = (y + x2 − y 2 )/x.
2 OTRAS EDOS DE PRIMER ORDEN
13
Sea f (x, y) = (y + x2 − y 2 )/x, es f´cil comprobar que f (tx, ty) = f
(x, y), as´ que hacemos a A± el cambio y = u x y obtenemos, si u = ±1, xu = de
donde se deduce que arc sen u = log |x| + C arc sen(y/x) = log |x| +
C. √ 1 − u2 , = √ dx du = , x 1 − u2
Ahora bien, como hemos visto u = ±1, lo que puede hacernos perder las
soluciones y = ±x. Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x
e y = −x son tambi´n dos e soluciones de la EDO original.
2.5.
Otras EDOs de primer orden: la EDO de Clairaut
La EDO y = xy + f (y ), f derivable y con primera derivada continua (2.11)
se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734.
Vamos a o o intentar encontrar alguna soluci´n de la EDO Clairaut para locual
derivamos (2.11) y = xy + y + f (y )y [x + f (y)]y = 0,
de donde deducimos que o y = 0 o x + f (y ) = 0. La primera condici´n nos da
una familia o de rectas y = mx + n. Lo curioso de esta EDO es que la
envolvente1 de todas las rectas tambi´n es soluci´n. Para descubrir cuales son
las rectas soluci´n basta notar que si y = c, e o o entonces la EDO nos da la
ecuaci´n y = xc + f (c), c R. Para encontrar la otra soluci´n o o usamos que
x = −f (y ). Luego si hacemos y = t, siendo t un par´metro real tenemos
la a siguiente soluci´n param´trica conocida com´nmente como
soluci´n singular o e u o   x = −f (t), Ejemplo 2.12 Resolver la EDO y = xy + (y )2. Esta es una EDO de Clairaut con f (z)
= z 2, luego las soluciones son las familias de rectas y = cx + c2 , y la
soluci´n singular o   x = −2t
1

y = xt + f (t).
La envolvente de una familia de rectas (curvas en general) es una curva que es
tangente a todas dichas rectas (curvas).

=
y = xt + t2
x t=− , 2
y=−
x2 . 4
2 OTRAS EDOS DE PRIMER ORDEN
14
2.6.
Ecuaciones exactas y factores integrantes
Sea una EDO del tipo y = f
(x, y). Est´ claro que si la EDO anterior la podemos a d reescribir en la forma
dx (φ(x,y)) = 0, para cierta funci´n φ(x, y), entonces la soluci´n de
la o o EDO ser´ φ(x, y) = C. a Nuestro objetivo en este apartado es
estudiar cuando una EDO se puede escribir de
la forma anterior. Por conveniencia reescribiremos la EDO
y = f (x, y) en la forma equivalente N (x, y)y + M (x, y) = 0. (2.12)
La EDO (2.12) tendr´ una soluci´n en cuadraturas del tipo φ(x, y) = C si y
s´lo si (2.12) a o o d es equivalente a la expresi´n dx (φ(x, y)) = 0, o
lo que es lo mismo, φ(x, y) = C es una o d soluci´n de (2.12) si y s´lo si
(2.12) se puede reescribir de la forma dx (φ(x, y)) = 0. o o Como 0= d ∂φ(x,
y) ∂φ(x, y) ∂y ∂φ(x, y) ∂φ(x, y)
(φ(x, y)) = + = + y, dx ∂x ∂y ∂x ∂x ∂y
d entonces la EDO (2.12) se puede escribir de la forma dx (φ(x, y)) = 0 si
y s´lo si, dadas dos o funciones M (x, y) y N (x, y) existe una funci´n
φ(x, y) tal que o
∂φ(x, y) = M (x, y), ∂x
∂φ(x, y) = N (x, y). ∂y
(2.13)
d Por ejemplo, la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] =
0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir
como dx [x2 + y 2 − exp(x + y)] = 0. En general no es trivial deducir si
una EDO del tipo (2.12) se puede expresar de la forma d (φ(x, y)) = 0. Por
ejemplo, noes f´cil intuir que la EDO a dx
y 3 + yey cos(xy) − se puede escribir como
3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2
3 d xy 3 + ey sen(xy) + = 0. dx x Obviamente no cualquier EDO del tipo (2.12)
se puede escribir de la forma 0, por ejemplo, la EDO
lineal (1.2) y + [a(x)y − b(x)] = 0. As´ surge la pregunta scu´ndo la EDO (2.12) se puede escribir de la forma A± a y por tanto
su soluci´n es φ(x, y) = C?. La respuesta la da el siguiente o
d (φ(x, y)) dx
=
d (φ(x, y)) dx
= 0,
Teorema 2.13 Sean M (x, y) y N (x, y) dos funciones tales que existan todas las
derivadas parciales ∂M , ∂N , ∂M y ∂N y sean funciones
continuas en cierto dominio2 a„¦ R2 . Entonces, ∂x ∂x ∂y ∂y
para que exista una funci´n φ(x, y) tal que se cumpla la condici´n (2.13)
o o ∂φ(x, y) = M (x, y), ∂x es necesario y suï¬ciente que ∂N
(x, y) ∂M (x, y) = , ∂x ∂y
2
∂φ(x, y) = N (x, y), ∂y
(x,
y)
a„¦.
(2.14)
Por dominio entenderemos un conjunto abierto de R2 y convexo, o sea, sin
agujeros.
2 OTRAS EDOS DE PRIMER ORDEN
15
Deï¬nici´n 2.14 Una EDO del tipo (2.12) se llama exacta si N y M son funciones
tales o (x,y) (x,y) que ∂N∂x = ∂M∂y . Corolario 2.15
Para que la EDO (2.12) sea exacta es necesario
ysuï¬ciente que se cumpla la condici´n (2.14) en cierto dominio a„¦ R2. Adem´s, toda EDO exacta tiene una soluci´n o a o en cuadraturas en
a„¦, es decir existe una funci´n φ(x, y) tal que φ(x, y) = C, deï¬ne
la o soluci´n de (2.12) en a„¦. o Ejemplo 2.16 Decidir si la EDO (2x + y −
sen x) + (3y 2 + cos y + x)y = 0, es exacta, y encontrar su soluci´n. o
(x,y) (x,y) En este caso M (x, y) = 2x + y − sen x y N (x, y) = 3y 2 +
cos y + x, luego ∂M∂y = 1 = ∂N∂x , luego seg´n el
corolario 2.15 es exacta. Vamos a resolverla. Como
la EDO es exacta entonces u existe φ(x,
y) tal que se cumple (2.13), o sea,
∂φ(x, y) = 2x + y − sen x, ∂x De la primera deducimos
∂φ(x, y) = 3y 2 + cos y + x. ∂y
φ(x, y) = x2 + xy + cos x + h(y). Para calcular h(y) usamos que φ(x,
y) = C, luego ∂φ(x, y) = x+h (y) = 3y 2 +cos y +x, ∂y = h (y) = 3y 2 +cos y, = h(y) = y 3 +sen y,
y la soluci´n, en cuadraturas, es φ(x, y) = x2 + xy + cos x + y 3 + sen y
= C. o Obviamente pod´ A±amos haber comenzado por la segunda ecuaci´n o
entonces φ(x, y) = y 3 + sen y + xy + g(x), pero ∂φ(x, y) = y +
g (x) = 2x + y − sen x, ∂x as´ φ(x, y) = y 3 + sen y + xy + x2
+ cos x = C. A± = g(x) = x2 + cos x,
∂φ(x,y) ∂y
= 3y 2 +cos y +x,
Ejemplo 2.17 Comprobarsi la EDO lineal (1.2) es exacta. En este caso y + [a(x)y
− b(x)] = 0, luego M (x, y) = a(x)y − b(x) y N (x, y) = 1, luego
(x,y) ∂M (x,y) = ∂N∂x , as´ que no es exacta. sQu´ hacer en
este caso? A± e ∂y Deï¬nici´n 2.18 Una EDO del tipo (2.12) es inexacta
(o no es exacta) si o
∂M (x,y) ∂y
=
∂N (x,y) . ∂x
2 OTRAS EDOS DE PRIMER ORDEN 2.6.1. Factores integrantes
16
Deï¬nici´n 2.19 En general, dada la EDO (2.12), se dice que ρ(x, y) ≡
0 es un factor o integrante de (2.12) si la EDO ρ(x, y)M (x, y) +
ρ(x, y)N (x, y)y es exacta. Ahora bien, una EDO es exacta si y s´lo si se
tiene la condici´n (2.14), luego ρ(x, y) ha o o de satisfacer la ecuaci´n
o ∂ρ(x, y)M (x, y) ∂ρ(x, y)N (x, y) = ∂y ∂x
si y s´lo si o M (x, y) ∂ρ(x, y) ∂M (x, y) ∂ρ(x, y)
∂N (x, y) + ρ(x, y) = N (x, y) + ρ(x, y) . ∂y ∂y ∂x
∂x (2.15)
Es decir, una ecuaci´n inexacta tiene un factor integrante ρ(x, y) si y
s´lo si ρ(x, y) cumple o o o con la condici´n (2.15). Por ejemplo
consideremos la EDO x2 sen y + xey y = 0.
Obviamente no es exacta. Entonces, para que admita un factor integrante
ρ(x, y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x, y) ∂ρ(x,
y) + ρ(x, y)x2 cos y = xey + ρ(x, y)ey , ∂y ∂x
la cual es no trivial deresolver. De hecho en la mayor´ de los casos la
ecuaci´n (2.15) es A±a o m´s complicada de resolver que la EDO
original, por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en
los que (2.15) es f´cilmente resoluble. Veamos a continuaci´n dos de ellos: a o
1. cuando la funci´n ρ es una funci´n que s´lo depende de x o sea, ρ
= ρ(x) o o o 2. cuando la funci´n ρ es una funci´n que s´lo depende
de y, o sea, ρ = ρ(y). o o o En el primer caso (2.15) nos da
ρ(x) luego ∂M (x, y) ∂N (x, y) − 1 dρ(x) ∂y ∂x
= = R(x, y). ρ(x) dx N (x, y) La expresi´n anterior es sencilla de
resolver si la funci´n R(x, y) de la derecha es una funci´n o o o s´lo de x, en
cuyo caso ρ(x) = exp( R(x)dx). o En el segundo caso tenemos M (x, y) luego
∂N (x, y) ∂M (x, y) − 1 dρ(y) ∂x ∂y = = S(x,
y). ρ(y) dy M (x, y) La expresi´n anterior es sencilla de resolver si la
funci´n S(x, y) de la derecha es una funci´n o o o s´lo de y, en cuyo caso
ρ(y) = exp( S(y)dy). o ∂M (x, y) ∂N (x, y) ∂ρ(y) +
ρ(y) = ρ(y) , ∂y ∂y ∂x ∂ρ(x) ∂N
(x, y) ∂M (x, y) = N (x, y) + ρ(x) , ∂y ∂x ∂x
2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO
(x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − =
−2 sen(2y), ∂y ∂x = ∂M (x, y) ∂N (x, y) − ∂y ∂x
/N (x,y) = −
17
ρ 2 = , x ρ
luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta
sen2 y 1− x2 as´ A± y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N
(x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o
Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M
(x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y = 3 ρ ∂N (x, y)
∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x
+
sen(2y) x
y = 0, sen2 y + h(y), x
∂φ(x, y) sen2 y =1− , ∂x x2
=
φ(x, y) = x +
=
h (y) = 0,
=
h(y) = C,
= C.
luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando
el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x,
y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y = h (x) = 0, = h(x) = C, = φ(x, y) = x3 y 3 +
xy 5 + h(x), 3
1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o
2 OTRAS EDOS DE PRIMER ORDEN
18
2.7.
2.7.1.
Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e
Como ya hemos
visto son pocas las EDOs que se pueden resolver anal´ A±ticamente, es por ello
que se necesita de m´todos ï¬ables para obtener la soluci´n de una
EDOnum´ricamente. e o e Supongamos que queremos resolver el problema de valores
iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)
Obviamente usando un ordenador s´lo podremos resolver el problema en un
intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el
intervalo en N subintervalos [x0 , x1] [x1 , x2 ] [xN −1 , xN ], xN = x0 + l. Supongamos que
hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que
denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n
aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o
mediante l´ A±neas rectas (ver ï¬gura 3). Es evidente que si el valor yi es
bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N ,
entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´
“muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi ,
xi+1 ].
y ^ y(x) y(x)
x
x0
x1
x2
xk
Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad
intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo
anterior se conoce en la teor´ de m´todos num´ricos como una red A±a e e equiespaciada o uniforme
de paso h= l/N . As´ pues tendremos las siguientes ecuaciones A± l xk = x0 + kh
= x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica
informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o sC´mo
encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO
y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A
continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2
, y o as´ sucesivamente. A± 3. Conocido el valor yk encontramos el valor yk+1
de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de
y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) =
y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)
2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk )
= = d dx dy dx =
x=xk
19
d (f (x, y(x))) dx
=
x=xk
∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x
(x,y)=(xk ,y(xk )
∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y
.
(x,y)=(xk,y(xk )
Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2
(xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!
La aproximaci´n m´s sencilla es por tantocuando nos quedamos en la serie
anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema
n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), , yk+1 = yk +
hf (xk , yk ), (2.18)
donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de
esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver
n´mericamente una EDO de primer orden. N´tese
que e a u o dicho esquema necesita en cada paso del
valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s
preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del
paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero
cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su
valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor
aproximado y2 , y as´ sucesivamente. A± Veamos algunos ejemplos. Comenzaremos
con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el
problema de valores iniciales y + y = x, y(0) = 1, x [0, 1],
cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una
discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalosiguales).
Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´ï¬ca 4
(izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4
0.6 0.8 1
Figura 4: Soluci´n num´rica (•) y exacta (l´ o e A±nea clara) de y + y = x,
y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)
2 OTRAS EDOS DE PRIMER ORDEN
k 0 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. xk 0
0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85
0.9 0.95 1. y(xk ) 1. 0.95 0.905 0.86475 0.829012 0.797562 0.770184 0.746675
0.726841 0.710499 0.697474 0.6876 0.68072 0.676684 0.67535 0.676582 0.680253
0.686241 0.694429 0.704707 0.716972 y(xk ) 1. 0.952459 0.909675 0.871416
0.837462 0.807602 0.781636 0.759376 0.74064 0.725256 0.713061 0.7039 0.697623
0.694092 0.693171 0.694733 0.698658 0.70483 0.713139 0.723482 0.735759 y(xk ) −
y(xk ) 0 -0.00245885 -0.00467484 -0.00666595 -0.00844901 -0.0100397 -0.0114527
-0.0127016 -0.0137992 -0.0147575 -0.0155874 -0.0162994 -0.0169031 -0.0174074
-0.0178206 -0.0181506 -0.0184046 -0.0185892 -0.0187107 -0.0187748 -0.018787
20
Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x, y(0) = 1 con N = 20. o u o
Comparemosahora la soluci´n n´merica con la exacta (ver ï¬gura 4). Para ello primero o u resolvemos la ecuaci´n exactamente
y(x) = x − 1 + 2e−x . o Si hacemos un simple cambio como aumentar en n´mero
de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora
notablemente. Los resultados se pueden apreciar en la o gr´ï¬ca 4 (derecha). a
Consideremos ahora el problema y − 1 − y 2 = 0,
40
y(0) = 0,
x ≥ 0.
60 40
30 20 20 0.5 10 -20 -40 0.5 1 1.5 2 1 1.5 2
Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0, y(0) = 0, x [0, 2] (izquierda) y e
comparaci´n con la soluci´n exacta (derecha). o o Si usamos un esquema de 20
puntos en el intervalo [0, 1] tenemos la soluci´n representada o en la gr´ï¬ca
5(izquierda). Adem´s, como
la soluci´n exacta de esa ecuaci´n es y(x) = tan x, a a o o podemos ver en la
gr´ï¬ca 5 derecha que pr´cticamente coinciden. sQu´ ocurre si aumentamos a a e
el intervalo hasta llegar a x = 2?. Si repetimos los c´lculos con 40 puntos
(para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que
est´n representados en la gr´ï¬ca 5 (derecha). a a La principal raz´n de la
divergencia consiste en que la soluci´n tan x no est´ deï¬nida en o o a x =
π/2. Una pregunta naturales, por tanto, sc´mo decidir a priori si el
m´todo de Euler o e nos est´ dando la souci´n correcta? y sen qu´ intervalo
podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce
una vez m´s a preguntarnos condiciones suï¬cientes que o a nos garanticen la
existencia y unicidad de las soluciones de una EDO.
2 OTRAS EDOS DE PRIMER ORDEN 2.7.2. El m´todo de Euler mejorado e
21
El m´todo de Euler es el m´s sencillo pero tiene un problema, es un m´todo de
orden e a e uno, o sea, es “poco preciso”. sC´mo mejorarlo? o Una posibilidad
es truncar la serie de Taylor (2.17) en el tercer orden, de forma que tengamos
yk+1 = yk + hf (xk , yk ) + h2 ∂f ∂f (xk , yk ) + f (xk , yk ) (xk
, yk ) , ∂x ∂y 2 y0 = y(x0 ).
La ecuaci´n anterior se conoce como el m´todo de
la serie de Taylor
de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar
que es un m´todo de orden 2), es a e algo inc´modo sobre todo si f es una
funci´n algo “complicada”. Por ello se suele usar una o o modiï¬caci´n del mismo. o Para ello
escribamos la EDO original y = f (x, y) en el
intervalo xk , xk + h en su forma integral
xk +h
y(xk+1 ) = y(xk ) +
xk
f (x, y(x))dx.
(2.19)
Para resolver esteproblema aproximamos la integral mediante un rect´ngulo de
altura a f (xk , yk ) (ver ï¬gura 6 izquierda)
xk +h xk
f (x, y(x))dx ≈ hf (xk, yk ),
lo que nos conduce nuevamente al esquema de euler (2.18)
f(x,y(x))
y
k
xk
Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para
aproximar una a integral Esta aproximaci´n es muy burda. Una mejor aproximaci´n
es usar la regla de los trapecios o o (ver ï¬gura 6 derecha) para aproximar la
integral, es decir
xk +h xk
f (x, y(x))dx ≈
de donde se deduce el esquema impl´ A±cito h [f (xk , yk ) + f (xk+1, yk+1 )] ,
k = 0, 1, . . . , N, y0 = y(x0 ). 2 Obviamente este esquema es muy inc´modo
pues hay que resolver la ecuaci´n impl´ o o A±cita para hallar yk+1 . Una forma
de obviar esta diï¬cultad es usar la predicci´n que da el m´todo de o e Euler
yk+1 = yk + hf (xk , yk ), de esta forma obtenemos el m´todo de Euler mejorado
e yk+1 = yk + yk+1 = yk + h [f (xk , yk ) + f (xk+1 , yk + hf (xk , yk ))] , 2
k = 0, 1, . . . , N, y0 = y(x0 ). (2.20)
¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢
¢ ¢ ¢ ¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t ¢
t t t t t t t t t t t t t
t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t
t t t t t t t t t t t t t¢
¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t t t t t t t t t t t t t t ¢
¢ ¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢
t t t t t t t t t t t t t
¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢t¢ t t t t t t t t t t t t t
ttttttttttttt ¢
y
k
x k+1
h [f (xk, yk ) + f (xk+1 , yk+1 )] , 2
2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos. Comenzaremos con la misma
primera ecuaci´n de antes o y + y = x, y(0) = 1, x [0, 1],
22
cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una
discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales).
Los resultados los vemos en la gr´ï¬ca 7 izquierda) a
k 0 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. xk 0
0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85
0.9 0.95 1. y(xk ) 1. 0.95125 0.907314 0.867958 0.832957 0.8021 0.775186
0.75202 0.732422 0.716216 0.703238 0.69333 0.686343 0.682134 0.680567 0.681515
0.684853 0.690467 0.698244 0.708079 0.719873 y(xk ) 1. 0.952459 0.909675
0.871416 0.837462 0.807602 0.781636 0.759376 0.74064 0.725256 0.713061 0.7039
0.697623 0.694092 0.693171 0.694733 0.698658 0.70483 0.713139 0.723482 0.735759
y(xk ) − y(xk ) 0 -0.00120885 -0.00236077 -0.00345845 -0.00450443
-0.00550115 -0.00645092 -0.00735595 -0.00821835 -0.00904012 -0.00982318
-0.0105693-0.0112803 -0.0119578 -0.0126034 -0.0132186 -0.0138047 -0.0143632
-0.0148955 -0.0154026 -0.0158858
Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x, y(0) = 1 con N = 20 usando
el m´todo o u o e de Euler mejorado.
0.2 0.95 0.9 0.85 0.8 0.75
0.4
0.6
0.8
1
0.0175 0.015 0.0125 0.01 0.0075 0.005 0.0025
0.7 5 10 15 20
Figura 7: Comparaci´n gr´ï¬ca de la soluci´n num´rica y exacta de y + y = x,
y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler
mejorado. A la derecha vemos la e comparaci´n de los errores del
del m´todo de Euler (c´ o e A±rculos obscuros)
con los del
m´todo e de Euler mejorado (c´ A±rculos claros)
2 OTRAS EDOS DE PRIMER ORDEN
23
2.8.
Problemas
Problemas de EDOs de Bernoulli y Riccati Problema 2.22 Resolver las EDOs de
Bernoulli 1. y + y = xy 3 , 2. xy + y = y 2 log x, 3. y + 2y = ex y 2 , 4. 4y 3
y + 4xy 4 = 4x, 5. (1 − x3)y − 2(1 + x)y = y 5/2 , 6. xy − y
= xk y n , n = 1, n + k = n, 7. x3 sen yy +2y = x (resolverla respecto a x y no
a y, para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). Problema 2.23
Resolver las EDOs de Riccati 1. y = x3 + 2y/x − y 2 /x, yp = −x2,
2. y = 1 + y/x + (y/x)2, yp = x, 3. 3y + y 2 + 2/x2 = 0, 4. y +2yex − y 2
= e2x + ex , 5. y − 2xy + y 2 = 5 − x2. Problemas de EDOs
reducibles a EDOs lineales o separables Problema 2.24 Supongamos que tenemos la
EDO y = f (y/x). Prueba que esta ecuaci´n o es
equivalente a la EDO separable xv + v = f (v),
v = y/x.
A la ecuaci´n y = f (y/x) se le suele denominar EDO
homog´nea. Resuelve las siguientes o e EDOs 1. y = 2(y/x) + (y/x)2 √ 2.
(x − x y)y = y 3. y = y/x + tan(y/x), 4. (x + y + 2)y = 3x − y −
6, 5. (4x − 3y − 6)y + x − 2y + 1 = 0, 6. (2x + 4y + 3)y + 2
+ 2y + 3 = 0. 7. y = (ax + by)/(cx + ey). Considerar los casos ae = cb y ab =
cd. Como caso particular resolver la EDO y = (x + y)/(x − y).
2 OTRAS EDOS DE PRIMER ORDEN
24
8. Resolver la EDO y = (ax + by + m)/(cx + ey
+ n). Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D
que transforma la EDO en la EDO del apartado
anterior y = (ax + by)/(cx + ey). Como caso
particular resolver la EDO y = (x + y + 1)/(x −
y + 2). Problema 2.25 Resolver las EDOs del tipo y = F (ax + by) √ 1. y =
x + y − 1, 2. y = (x − y + 5)2, 3. y = 2(y − x) + (y −
x)2, 4. y = sen(x − y). Problema 2.26 Haciendo un cambio de variables o
derivando transforma las siguientes e EDOs en EDOs lineales y resu´lvelas.1.
(x2 − 2y + 1)y = x, 2. x(ey − y ) = 2, 3. y(x) = x + 1 +
0 x x x
y(t)dt, y(t)dt.
0
4.
0
(x − t)y(t)dt = 2x +
Problemas de EDOs exactas y factores integrantes Problema 2.27 Decide si las
siguientes ecuaciones ecuaciones son exactas y resu´lvelas. e En caso de que no
lo sean, encuentra, a ser posible, un factor integrante. 1. (3y 2 + 2xy + 2x) +
(6xy + x2 + 3)y = 0, 2. 2x(1 + x2 − y) − x2 − yy = 0,
3. (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0, 4. 2xy + (x2 − y 2 )y =
0, 5. e−y − (2y + xe−y )y = 0, 6. y/x + (y 3 + log x)y = 0,
7. 3x2(1 + log y) − (2y − x3/y)y = 0, 8. (x2 + y 2 + x) + yy = 0,
Problema 2.28 Resuelve los siguientes problemas de valores iniciales 1. 2xy 3 +
3x2y 2 y = 0, y(1) = 1, 2. 3x2 + 4xy + 2(y + x2)y = 0, y(0) = 1, 3. 3xt + y 2 +
(x2 + xy)y = 0, y(2) = 1, 4. xy − y − y 2 = 0, y(2) = 1,
2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2.29
Resolver las EDOs de Clairaut 1. (y )2 + x3y − 2x2y = 0, 2. y = xy + (y
)n, n = 0, 1, 3. y = xy + log(y ), 4. y = xy + 1 + (y )2 ,
25
5. y = xy − ey . Problemas del m´todo de Euler e Problema 2.30 Encuentra
las soluciones y(x) de los siguientes problemas de valores iniciales usando el
m´todo de Euler y el deEuler mejorado. e 1. y = ex y, y(2) = 1, 2. y = ex y −2
, y(0) = 1, √ 3. y = 1 + sen x(1 + y 2 ), y(0) = 1, 4. y = k(a −
y)(b − y), a, b, k > 0, y(0) = 0, (toma distintos valores de a, b y k,
5. z − 2xz = 2, z(0) = 1, 6. y + sen(x)y − cos(x)y 3 = 1 + x2, y(0)
= 1, 7. y + 2ey = x2 + y 2 , y(0) = 0.
2 2
3 SISTEMAS DE EDOS
26
3.
Sistemas de EDOs
Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un
sistema de la forma   y1 (x) = f1(x, y1 , y2 , . . . , yn ),   
y (x) = f2(x, y1 , y2 , . . . , yn ), 2 (3.1) . .  .    y (x) = f
(x, y , y , . . . , y ), n 1 2 n n donde y1 ,. . . yn son funciones de x
desconocidas y f1, . . . fn son ciertas funciones conocidas. Por comodidad
vamos a usar la forma vectorial del sistema anterior, o sea, vamos a denotar
por Y , Y y F son los vectores       y1 (x) y1 (x) f1(x, y1 ,
y2 , . . . , yn )  y2 (x)   y (x)   f2(x, y1 , y2 , . . . , yn )
    2    Y (x) =  .  , Y (x) =  .  , F (x, Y )
=  , . .  .  . ï£ . ï£ . ï£ ï£¸ . yn (x) yn (x) fn (x, y1, y2 ,
. . . , yn ) es decir la derivada de un vector Y la deï¬niremos como el vector
que tiene como componentes las derivadas de cada una de las componentes del
vectororiginal. Usando lo anterior podemos reescribir (3.1) en la forma
vectorial d Y (x) = Y (x) = F (x, Y ). dx
(3.2)
Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas
en el cap´ A±tulo anterior. Est´ claro que si el estudio de una EDO de primer
orden era “bastante” a complicado, un sistema de ´stas es mucho m´s complejo,
as´ que nos restringiremos al estudio e a A± de los SEDOs lineales, es decir
cuando fk , k = 1, . . . , n es una funci´n lineal de la forma o
n
fk (x, y1, y2 , . . . , yn ) =
j=1
akj (x)yj (x) + bk (x),
k = 1, . . . , n,
lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12
(x)y2(x) + · · · + a1n(x)yn(x) + b1 (x),    y (x) = a21 (x)y1(x) + a22
(x)y2(x) + · · · + a2n(x)yn(x) + b2 (x), 2 , . .  .    y (x) = a
(x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). n1 1 n2 2 nn n n n El
sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x),
donde   A(x) =  ï£ ï£«  a11(x) a12(x) a13(x) · · · a1n (x) a21(x)
a22(x) a23(x) · · · a2n (x)   , . . . . . . . .  . . . . an1(x)
an2 (x) an3(x) · · · ann (x)   B(x) =  ï£ ï£« b1 (x) b2 (x) . . . bn
(x)    , 
(3.3)
(3.4)
Cuando B(x) = 0, o seacuando todas las componentes del vector B son cero,
diremos que SEDO es homog´neo, y si al menos una componente de B es no nula, no
homog´neo. e e
3 SISTEMAS DE EDOS
27
3.1.
La ecuaci´n lineal Y = A(x)Y + B(x) o
Comenzaremos enunciando un teorema que demostraremos al ï¬nal de este cap´
A±tulo. Teorema 3.1 Sean A(x) Rn×n y B(x) Rn una matriz un un vector cuyos elementos son
funciones continuas en R. Entonces el PVI, Y = A(x)Y + B(x), Y (x0) = Y0 tiene
una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas. ´ o
Comenzaremos estudiando el sistema hom´geneo, o sea cuando B(x) = 0 o Y (x) = A(x)Y
(x), Teorema 3.2 Sea A(x) Rn×n . Si Y1 e Y2 son soluciones del
sistema Y = A(x)Y , entonces cualquiera de sus combinaciones lineales son
tambi´n soluci´n. e o Teorema 3.3 Sean Y1 (x), . . . , Yk (x) soluciones del sistema Y = A(x)Y .
Para que los vectores (funciones) Y1 (x), . . . , Yk (x) sean linealmente
dependientes para todo x R es necesario y suï¬ciente que lo sean para alg´n
t
R. u Corolario 3.4 Para que las soluciones Y1 (x), . . . , Yk (x) del PVI, Y =
A(x)Y , Yi (x0) = Y0,i , i = 1, . . . , k sean linealmente independientes es
suï¬ciente que las condiciones iniciales, osea los vectores, Y0,1 , . . . Y0,k
sean linealmente independientes. A(x) Rn×n y continua en R. (3.5)
El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de
condiciones linealmente independientes generan soluciones linealmente
independientes y conjuntos de condiciones linealmente dependientes generan
soluciones linealmente dependientes. Nota 3.5 Es importante destacar que el
resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es
cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o maniï¬esto
en el siguiente ejemplo. Los vectores (funciones) x x y x2 x2 ,
son vectores linealmente independientes (lo son los polinomios x y x2) ya que
es imposible obtener una de otro al multiplicar por constantes, no obstante,
para x = x0, obviamente son dependientes pues x0 x2 0 . = x0 2 x0 x0 Teorema
3.6 Sea A(x)
Rn×n . Entonces, el conjunto de todas las soluciones del sistema homog´neo Y =
A(x)Y es un espacio vectorial de dimensi´n n. e o Corolario 3.7 Si Y1 (x), . .
. , Yn (x) son soluciones linealmente independientes del sistema o ´ Y = A(x)Y
, entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica
combinaci´n lineal de dichas soluciones. Osea, existen unos unicos coeï¬cientes
c1 , . . . cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x).
En particular, la soluci´n del PVI, Y = A(x)Y , Y (x0) = Y0 se expresa de
manera unica o ´ o e como una combinaci´n lineal
de las soluciones del
sistema homog´neo correspondiente. Nota 3.8 Juntando los teoremas 3.3 y 3.6
tenemos un criterio para encontrar una base del espacio S de todas las
soluciones de Y = AY : Para que las soluciones Y1 (x), . . . , Yn (x) del
sistema Y = A(x)Y sean linealmente dependientes para todo x R es necesario y suï¬ciente
que para alg´n x0 R u det |Y1 (x0) Y2 (x0) . . . Yn (x0)| = 0.
Nota 3.9 Todos estos resultados son ciertos para toda matriz A cuyos elementos
son funciones continuas en todo R.
3 SISTEMAS DE EDOS
28
3.2.
Los SEDO lineales con coeï¬cientes constantes
En adelante asumiremos que A es una matriz n × n real de coeï¬cientes
constantes, es decir estudiaremos el problema (3.5) cuando la matriz A es de
coeï¬cientes constantes Y (x) = AY (x), 3.2.1. Autovalores simples A Rn×n . (3.6)
o Busquemos la soluci´n de (3.6) en la forma Y (x) = eλx v, (3.7)
donde λ es cierta constante y v un vector constante. Sustituyendo (3.7) en
(3.6)tenemos, como
v es constante3 Y (x) = (eλx v) = λeλxv = λeλxv = A
eλx v.
o e o Es decir, (3.7) es soluci´n del sistema homog´neo si y s´lo si λ es
un autovalor de A y v su autovector asociado, por tanto para resolver nuestro
sistema lineal basta encontrar n autovectores v1 , . . . , vn linealmente
independientes en cuyo caso la soluci´n general es, seg´n o u el teorema 3.3,
de la forma
n
Y (x) =
k=1
c k e λk v k ,
(3.8)
donde c1 , . . . , cn son constantes arbitrarias y λk , k = 1, . . . , n,
son los autovalores asociados a los autovectores vk , k = 1, . . . , n. Ejemplo
3.10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y.
Comenzamos calculando los autovalores y autovectores det(A − λI) = −35
− 2 λ + λ2 = 0 = λ1 = −5, λ2 = 7.
Calculamos los autovectores. Comenzamos con el correspondiente a λ1 = −5
(A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 = −6 12 3 −6
x1 x2 =0 =
x1 = 2x2, =
v2 = 2 1 . =
6 12 3 6 x1 x2 =0 = x1 = −2x2 , = v1 = −2 1 .
Por tanto la soluci´n general es o Y (x) = c1 e−5x
3
−2 1
+ c2 e7x
2 1
.
Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a
t´rmino. e e
3 SISTEMAS DE EDOS Ejemplo 3.11 Encontrar la soluci´ngeneral del SEDO o Y =
Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ
+ λ2 = 0 =
λ1 = −1 − i, λ2 = −1 + i. 2 −5 2 −4 Y.
29
Es decir, son complejos. sQu´ hace en este caso? e Si A es real y λ es el
autovalor complejo asociado al autovector v, entonces el complejo conjugado
λ es el autovalor asociado al autovector v. Ahora bien, si tenemos Y (x) =
eλx v = Y (x) + i Y (x), Y (x) y Y2 (x) = Y (x) son soluci´n de o
Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY , entonces Y (x) =
eax ( v cos bx − v sen bx),
Y (x) = eax ( v sen bx + v cos bx)
son soluciones linealmente independientes de Y = AY . A± As´ pues, en nuestro
ejemplo λ1 = −1 − i, Y1 (x) = e−x por tanto Y (x) = c1 e−x
5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x . 5 3 cos x
+ 0 1 v1 = 5 3+i = 5 3 sen x + 0 1 cos x ,
sen x ,
Y2 (x) = e−x −
3.3.
La exponencial matricial exp(xA)
∞ k=0
Sea A una matriz n × n y x R. Deï¬niremos la funci´n exp(xA) mediante la
serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···, k! 2 n!
(3.9)
donde la convergencia la entenderemos elemento a elemento. La serie anterior
converge para todo x R quienquiera sea la matriz A (de hechoconverge en
todo C). Proposici´n 3.12 La funci´n exp(xA) satisface las siguientes
propiedades: o o 1. Para toda matriz A,
exp(0A) = In y para todo x R exp(xOn) = In , donde On es la matriz nula. 2. Para toda matriz A,
d dx
exp(xA) = A exp(xA) = exp(xA)A.
3. Para todos x, t R y toda matriz A,
exp[(x + t)A] = exp(xA) exp(tA). 4. Para toda
matriz A, la inversa [exp(xA)]−1 = exp(−xA). 5. Para
todas las matrices A, B con AB = BA, exp[x(A + B)] = exp(xA) exp(xB).
3 SISTEMAS DE EDOS 6. Para todo x R, exp(xIn) = ex In. Dado cualquier vector
constante v
Rn se cumple d [exp(xA)v] = A[exp(xA)v], dx
30
por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. Si
escogemos o o e v sucesivamente como ei , i = 1, 2, . . . , n obtenemos n
soluciones v1, . . . , vn del PVI, Y = AY , Y (0) = ei que adem´s son
linealmente independientes por el teorema 3.3 y por tanto a constituyen una
base del espacio de soluciones del sistema homog´neo correspondiente. e Deï¬nici´n
3.13 Una matriz V Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son
un conjunto linealmente independiente de soluciones de Y = AY . De esta deï¬nici´n
y de lo anterior deducimos entonces que exp(xA) esuna matriz funo damental del sistema Y = AY . En
efecto, como
hemos visto, las columnas de exp(xA) son soluci´n de los PVI, Y = AY con Yi (0)
= ei , siendo (ei)i la base can´nica de Rn . o o Corolario 3.14 (de existencia
y unicidad de la soluci´n del SEDO homog´neo) o e n×n e siempre tiene n
soluciones linealmente El sistema homog´neo Y = AY , con A R independientes, y por
tanto el PVI, Y = AY , Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n
cualquiera sea Y0 R y es de la forma Y (x) = exp[(x − x0)A]Y0
. As´ pues, para encontrar la soluci´n general del sistema Y = AY basta saber calcular la
A± o exponencial de xA. Comencemos por el caso m´s sencillo cuando la matriz es
diagonalizable. a En este caso existe una matriz P tal que A = P DP −1,
siendo D una matriz diagonal. Entonces como para
todo k
N, Ak = P D k P −1 tenemos exp(xA) = pero, como   D= ï£ ï£« λ1 0 · · · 0
0 λ2 . . . 0 . . .. . . . . . . . . . . λn 0 0 .     
  exp(xD) =  ï£ ï£« e λ1 x 0 · · · 0 0 e λ2 x . . . 0 . . .
.. . . . . . . . . . exλn 0 0 .   ,  
∞ k=0
A
kx
k
k!
=
∞ k=0
PD P
k
−1 x
k
k!
=P
∞ k=0
Dk
xk k!
P −1 = P [exp(xD)]P −1,
=
de donde se deducen nuevamente lassoluciones del sistema. N´tese que el caso de n autovao
lores distintos se puede resolver por este m´todo. e Como ejemplo calculemos la matriz exponencial
de la matriz A= 1 −6 −1 2 .
Ante todo tenemos que el polinomio caracter´ A±stico de A es 1 − λ −6
= 4 − 3 λ + λ2 = 0, −1 2 − λ = λ1 = −1,
λ2 = 4.
3 SISTEMAS DE EDOS Calculamos los autovectores. Para
λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 , = x1 = 3x2, = v1 = 3 1 .
31
An´logamente, para λ2 = 4 obtenemos v2 = (−2, 1)T , luego a exp(xD)
= Luego exp(xA) = P exp(xD)P
−1
e−x 0
0 e4 x
,
P =
3 −2 1 1
,
P −1 =
6 5 ex 2 5 ex
−1 5 .
1 5
2 5 3 5
,
=
4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex
− +
6 e4 x 5 3 e4 x 5
3.4.
El caso de autovalores m´ ltiples u
pero
Vamos a explotar las propiedades de la matriz exponencial. Usando la propiedad
5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v,
exp(λIx)v = eλx v = exp(xA)v = eλx exp[(A − λIn)x]v.
x2 xk (A − λIn)2 v + . . . + (A − λIn )k v + . . . . 2 k!
Es decir, exp(xA)v = eλx v + x(A − λIn)v +
En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0
si v es el correspondiente autovector, luego exp(xA)v = eλx v que es lo
mismo que ten´A±amos antes. Si tenemos entonces n autovectores v1 , . . . vn
linealmente independiente entonces encontramos n soluciones linealmente
independientes Yi = eλk x vk , k = 1, . . . , n. e A±z u a sQu´ hacer
cuando hay una ra´ m´ltiple, o m´s exactamente si la matriz A no es
diagonalizable? Supongamos, por ejemplo, que el autovalor λ es doble y que
tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n
1). Una soluci´n es por tanto e λx v1, o o donde v1 es el autovector
asociado a λ. El otro vector v2 que necesitaremos lo buscaremos de forma
que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. Entonces otra
soluci´n, independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A −
λIn )v2 + = eλx v + eλx x(A − λIn)v2 . xk x2 (A −
λIn)2 v2 + . . . + (A − λIn )k v + . . . 2 k!
=0 =0
En el caso que la multiplicidad de λ sea de orden mayor seguimos el
siguiente procedimiento para resolver el sistema homog´neo e 1.) Calculamos
todos los autovalores λi y los correspondientes autovectores vi , i = 1,
2, . . . , k y formamos k soluciones linealmente independientes de nuestro
sistema Y i (x) = eλix vi , i = 1, . . . , k. Si k = n entonces las Yi (x)
generan a todo el espacio soluci´n. o 2.) Si k < n entonces hayautovalores
m´ltiples. Sea λ uno de tales autovalores y sea m a u la multiplicidad
algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e
3 SISTEMAS DE EDOS
32
dimensi´n de autoespacio asociado a λ). Si ma = mg entonces los vectores
Yi (x) = eλi x vi o i = 1, . . . , aa generan todo el subespacio
correspondiente a λ. Supongamos que ma > mg , entonces para completar
el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg
o soluciones linealmente independientes) buscamos los vectores v1 , . . . , vl
(l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn
)2v = 0, luego los los vectores v tales que (A−λIn )v = 0 A± y (A −
λIn)2 v = 0, y (A − λIn)3 v = 0, y as´ sucesivamente hasta
completar el subespacio. Y as´ con cada uno de los autovalores m´ltiples. A± u
Veamos un ejemplo:  1 1 0 Y = ï£ 0 1 0  Y. 0 0 2 
Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de
multiplicidad 2. e ´ Adem´s, los autovectores correspondientes son v1 = (0, 0,
1)T y v2 = (1, 0, 0)T , respectivaa mente. Luego tenemos dos soluciones
independientes     0 1 2x ï£ xï£ ï£¸, 0 0 , Y1 (x) = e Y2 (x)
= e 1 0 y necesitamos una tercera soluci´n. Aplicando el m´todo antes descritobuscamos
un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal
que (A − I3 )2v = 0, es decir    x1 0 0 0 (A − I)2 v =
0, ï£ 0 0 0  ï£ x2  = 0, = x1 = 0, x2 , x3 R, x3 0 0 1 o sea 
  0 1 v3 = α ï£ 0  + β ï£ 1  , 0 0 
pero como (A − I)v3 = (β, 0, 0)T = 0, deducimos que β = 0,
luego tomando4 β = 1, α = 0 obtenemos la tercera soluci´n que
buscabamos o       x 0 0 x ï£ 1  = ex [I3 + x(A −
I3 )] ï£ 1  = ex ï£ 1  . Y3 (x) = e exp(A − I3 ) 0 0 0 A± As´
pues      x 1 0 2x ï£ ï£¸ + c2 ex ï£ 0  + c3 ex ï£ 1  .
0 Y (x) = c1 e 0 0 1 
El m´todo anterior nos indica un procedimiento general para resolver el SEDO
(3.6) en e general conocido como
m´todo de Euler que consiste en lo siguiente: e 1. Calculamos los autovalores
λk de la matriz A Rn×n del sistema
Y = AY y sea mk la multiplicidad algebraica del autovalor. o 2. Para cada autovalor,
buscamos la soluci´n del
correspondiente subespacio (o sea, la soluci´n “generada” por el autovalor) en
la forma o Yk (x) = e
4
λk x
mk −1 j=0
Aj xj ,
Aj
Rn ,
(3.10)
Cualquier elecci´n de α y β es posible siempre que β = 0. o
3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj , j = 0,
1, . . . ,mk − 1 sean nulos. Veamos como
funciona este m´todo en el e  1 ï£0 Y = 0 ejemplo anterior.  1 0 1 0 
Y. 0 2
33
Sustituyendo en el sistema tenemos         a1 +
a2 + (a4 + a5)x a4 a4 a1 . a2 + a 5 x Y2 (x) = ex ï£°ï£ a2  + ï£ a5 
x + ï£ a5  = ï£ 2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5
 a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x
Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. Para el primero tenemos e ´ al igual que antes Y1 (x) =
e2x (0, 0, 1)T y para el segundo buscamos las soluciones en la forma  
   a1 a4 Y2 (x) = ex ï£°ï£ a2  + ï£ a5  x . a3 a6
=
a3 = a5 = a6 = 0, a4 = a2 ,
con a1 y a2 cualesquiera, es decir,          
 x 1 a2 a1 Y2 (x) = ï£°ï£ a2  + ï£ 0  x ex = ex a1 ï£ 0
 + a2 ï£ 1  x , 0 0 0 0 que coincide con la soluci´n encontrada por
el m´todo anterior. o e 3.4.1. La matriz fundamental de soluciones y la matriz
exp(xA)
Sea V (x) una matriz fundamental, entonces si deï¬nimos el vector c = (c 1, .
. . , cn )T , la soluci´n general de Y = AY se puede escribir de la forma Y (x)
= V (x)c. Sea ahora el PVI, o Y = AY con Y (x0) = Y0 , entonces tenemos Y (x0)
= Y0 = V (x0)c, luego c = V −1 (x0)Y0 , por tanto la soluci´nes o Y (x) =
V (x)V −1 (x0)Y0 . (3.11) Lo anterior nos permite encontrar una expresi´n
para la matriz exponencial conocida o una matriz fundamental. En efecto, usando
que la matriz exp(xA) es la soluci´n del
sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos,
exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0). Ejemplo 3.15 Calcular
exp(xA) para la matriz A = 1 3 12 1 del
ejemplo 3.10. (3.12)
3 SISTEMAS DE EDOS
34
Los autovalores y autovectores son λ1 = −5, v1 = (−2, 1)T y
λ2 = 7 y v2 = (2, 1)T y por tanto una matriz fundamental es V (x) = luego
exp(xA) = V (x)V −1 (0) = =
1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4
−2e−5x 2e7x e−5x e7x
,
−2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e +
1 e7x 2 2 .
−2 2 1 1
−1
=
−2e−5x 2e7x e−5x e7x
1 −4 1 4
1 2 1 2
3.5.
El SEDO lineales no homog´neo e
Y (x) = AY (x) + F (x). (3.13)
Pasemos a estudiar el sistema no homog´neo e
Para resolverlo usaremos la linealidad.
Proposici´n 3.16 La soluci´n general del SEDO (3.13) es de la forma Y (x) =
Yh(x) + o o Yp (x), donde Yh es la soluci´n general del SEDO homog´neo Y = AY y
Yp es cualquier o e soluci´n particular de (3.13), es decir Yp (x) = AYp (x) +
F (x). Enparticular, si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp
(x), donde C
Rn . Teorema 3.17 La soluci´n del problema de valores iniciales Y (x) = AY
(x)+F (x), Y (x0) = o Y0 , cualquiera sea Y0 Rn existe y es unica y se expresa mediante la
f´rmula ´ o
x
Y (x) = exp[(x − x0 )A]Y0 +
x0
exp[(x − t)A]F (t)dt.
(3.14)
Ejemplo 3.18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex
, Y (0) = 0 1 .
En este caso la matriz exponencial es la matriz del ejemplo 3.15, luego aplicamos (3.14).
Comenzamos por
x 0 x
exp[(x − t)A]F (t)dt = =
0 x 0
1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t)
4
−e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t)
2 dt = 0 1
1 −5x 12x e (e 12
0 et
dt = .
−e6t−5x + e−6t+7x
1 − 3 ex + 1 e−5x (1 + e12x ) 6
1 6t−5x e 2
+ 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2
− 1) ,
exp[(x − x0)A]Y0 =
1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4
=
−e−5x + e7x
1 −5x e 2 1 + 2 e7x
luego la soluci´n del PVI es o Y (x) =
1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12
+
7 7x e . 12
.
3 SISTEMAS DE EDOS
35
3.6.
Problemas
Problema 3.19 Encuentra la soluci´n general del
sistema hom´geneo Y (x) = AY (x) y, o o ensu caso, del problema de valores iniciales en los
siguientes casos: 1. a) A = 2. a) A =  4 −1 −4 4 4 1 −8 8
, b) A = −2 3 2 −5 2 −4 , , 1 12 3 1  , Y (0) = 2 1
, Y (0) =
b) A =
Problema 3.20 Prueba las siguientes propiedades de la matriz exA con A Rn×n : 1. e0A = In , In
es la matriz identidad n × n. 2.
d xA e dx
    1 −1 4 1 0 0 1 ï£ 3 2 −1 , ï£ 0 1 −1
, Y (0) = ï£ 1 , 3. a) A = b) A = 2 1 −1 0 1 1 1    
  1 2 1 1 1 1 0 4. a) A = ï£ 0 1 2 , Y (0) = ï£ 2 , b) A = ï£ 0
1 0 . 0 1 2 −1 0 0 2
= AexA .
3. e(x+t)A = exA etA , x, t R. 4. Para todo x
R, exA es invertible y su inversa (exA )−1 = e−xA . 5. Si A y B
conmutan, o sea AB = BA, entonces ex(A+B) = exA exB = exB exA . 6. exI = ex I.
Problema 3.21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 .
1. Prueba que A2n+1 = A, A2n = I2 , B 2n+1 = (−1)n B, y B 2n = (−1)nI2
. 2. Usando lo anterior calcula las matrices exA y exB . 3. Como aplicaci´n calcula exC con C = o a b −b
a .
Problema 3.22 Usando las propiedades de la matriz exA con A Rn×n encuentra la
soluci´n de los SEDO del ejercicio (3.19). o Problema 3.23 Resuelve los sistemas
hom´geneos o 1. a) y1 = y1 + 2y2 , y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 −
5y2 , c) y2 = y1+ 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A = ï£
0 1 0 , b) A = ï£ 0 2 −1 , 0 0 2 0 0 2 b)
2. Y = AY , con
Problema 3.24 Encuentra una matriz fundamental de soluciones de los sistemas Y
= AY , cuya matriz de coeï¬cientes es
3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 , c) A = , 3 1 2 −4
    1 1 1 1 0 0 b) A = ï£ 0 3 2 , c) A = ï£ 2 1 −2 .
0 0 5 3 2 1
36
1. a) A =
,
b) A =
Problema 3.25 Encuentra la soluci´n general del
sistema de EDOs no homog´neo Y (x) = o e o AY +B(x) y, en su caso, la
correspondiente soluci´n del
problema de valores iniciales cuando 1. A = 2. A =  1 12 3 1 2 −5 2 −4
, B(x) = , B(x) = x ex , Y (0) = 2 1 0 0 
 1 −1 4 2. a) A = ï£ 3 2 −1 , 2 1 −1
Problema 3.26 Resuelve los sistemas lineales 1. y1 = 2y1 + y2 − 7xe−x
− 3 y2 = −y1 + 2y2 − 1
   1 −1 4 0 2 3. A = ï£ 3 2 −1 , B(x) = ï£ 0 , Y
(0) = ï£ 1  2 1 −1 ex 1       1 0 0 0 0 ï£ 2 1 −2
, B(x) = ï£ ï£¸, Y (0) = ï£ 1  4. A = 0 3 2 1 ex cos(2x) 1
1 sen x 
, Y (0) =
, sabiendo que su soluci´n es acotada si x → +∞. o
2.
x =v , con x(0) = x0, v(0) = 0, β < ω. Este sistema modeliza el v
= −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con
rozamiento y una fuerza externa f . e
3. Seconsidera el siguiente circuito el´ctrico e
L
1
R
L
1
2
R
2
i1
+ −
Uc C R
i2
V
Las intensidades i1, i2 y las tensiones Uc y V satisfacen el siguiente sistema
diferencial        −10 0 −20 i1 V i1 ï£ i2
 = ï£ 0 −10 20  ï£ i2  + 20 ï£ 0  . Uc 50 −50 −50
Uc 0 Se pide determinar i1, i2, Uc en los siguientes casos: (a) V (t) = 0,
i1(0) = i2(0) = 0, Uc(0) = 10.
3 SISTEMAS DE EDOS (b) V (t) = 10, i1(0) = i2(0) = 0 = Uc(0) = 0. Problema 3.27
Demuestra que si la matriz A(x) es tal que
x x
37
A(x) ·
A(t)dt =
0 0
A(t)dt · A(x),
entonces, la soluci´n del SEDO Y = A(x)Y , Y (0) = Y0 se puede expresar
mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0. Como aplicaci´n calcula
la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos
x y2 Problema 3.28 Demuestra el siguiente principio de superposici´n: La
soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x), k = 1, 2, . . .
, m, Y, fk
Rn , A
Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk +
fk (x), k = 1, 2, . . . , m. k=0
´ 4 LA ECUACION LINEAL DE ORDEN N
38
4.
La ecuaci´n lineal de orden n o
Vamos a continuaci´n a aplicar losresultados obtenidos a un grupo de EDOs muy
imo portante: las EDOs lineales con coeï¬cientes constantes de orden mayor que
1 deï¬nida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · ·
· + a1(x)y (x) + a0(x)y(x) = f (x). (4.1)
Cuando f (x) ≡ 0, diremos que la EDO
(4.1) es hom´genea, en caso contrario es no hoo mog´nea. e Si adem´s imponemos
que la soluci´n y sea tal que a o y(x0 ) = y0 , y (x0) = y0 , y (n−1)
(x0) = y0
(n−1)
,
entonces diremos que y es la soluci´n del correspondiente problema de valores
iniciales. o Por comodidad introduciremos el operador L[y] deï¬nido sobre el
espacio de las funciones n veces derivables con n-`sima derivada continua
deï¬nido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · +
a1(x)y (x) + a0(x)y(x). (4.2)
Usando esta notaci´n podemos escribir (4.1) como L[y] = f (x) y el correspondiente
problema o homog´neo ser´ L[y] = 0. e a Proposici´n 4.1 La EDO o y (n) (x) + an−1
(x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0, (4.3)
es lineal, es decir, que si tenemos dos soluciones y1 e y2 de la ecuaci´n, para
cualesquiera o que sean α, y β R, αy1 + βy2 tambi´n es soluci´n. e o
Para estudiar las propiedades de las EDOs lineales de orden n vamos a
introducirunas nuevas funciones z1 (x), . . . zn (x) de forma que  dzn 
z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − ·
· · − a0z1 + f,   dx z2(x) = y (x)    dzn−1 
z3(x) = y (x) = zn , dx . . .  .  .  .  (n−2)  zn−1
(x) = y (x)  dz1  = z2 . zn(x) = y (n−1) (x)  dx
Es decir, una EDO del tipo (4.1) es equivalente al siguiente sistema lineal de
ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1
··· 0 0   z2   0   z2   0       .
 . . . . .. . . . . d  .   .  .   .  . . . . . . 
+  .  , (4.4) . = .  .    .   dx  . 
 0 0 0 ··· 0 1  ï£ zn−1  ï£ 0  ï£ zn−1   
ï£ 0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2
−an−1 o en forma matricial Z (x) = AZ(x) + F (x). N´tese que cuando
f (x) ≡ 0, el sistema anterior o se transforma en un sistema homog´neo.
Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones
lineales (4.1) se puede construir a partir de la teor´ de los sistemas A±a A±a
lineales que estudiamos antes.
´ 4 LA ECUACION LINEAL DE ORDEN N
39
Teorema 4.2 Sean a0 (x), . . . , an−1 (x) funciones continuas en R.
Entonces el P.V.I. asociado a (4.1) siempre tiene soluci´n y es unica
cualquiera sean las las condiciones iniciales o ´(n−1) (n−1) y(x0 )
= y0 , y (x0) = y (0), . . . , y (x0) = y0 que escojamos. Teorema 4.3 El
conjunto de soluciones de la EDO homog´nea (4.3) es un espacio vectorial e de
dimensi´n n. o Teorema 4.4 Dadas n soluciones y1 , . . . , yn de la EDO (4.3),
´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 , . . .
, yn ](x), deï¬nido por o y1 (x) y1 (x) . . . y1
(n−1)
W [y1 , . . . , yn ](x) =
y2 (x) y2 (x) . . .
(n−1)
··· ···
yn (x) yn (x) . . .
(n−1)
= 0 x,
(4.5)
(x) y2
(x) · · · yn
(x)
es distinto de cero para alg´n x R, en cuyo caso el Wronskiano es distinto de cero
para u todo x
R. Finalmente, notemos que conocida la soluci´n general yh(x) de la EDO
homog´nea poo e demos dar la soluci´n general de la EDO (4.1) en la forma y(x)
= yh(x) + yp (x), siendo yp o una soluci´n particular de (4.1). o
4.1.
Soluci´n de la ecuaci´n lineal homog´nea o o e
Para resolver la EDO (4.3) con coeï¬cientes
constantes seguiremos la misma idea que para los sistemas, es decir buscaremos
la soluci´n en la forma y(x) = e λx . Sustituyendo esta o funci´n en la EDO (4.3) obtenemos que λ debe satisfacer la
ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0.
(4.6)
Laecuaci´n anterior se denomina ecuaci´n caracter´ o o A±stica de la EDO (4.3). Es f´cil probar a que el polinomio caracter´
A±stico de la matriz A asociada a la EDO (4.3) coincide con (4.6). Lo anterior
nos indica una estrategia para resolver el problema: 1. Si tenemos valores reales
λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x
, k = 1, . . . , n generan el espacio soluci´n de la la EDO
(4.3). o En el caso que tengamos ra´ A±ces complejas hay que proceder como en el caso de los
sistemas: tomar partes reales y complejas de cada una de ellas. Es decir, si
λ = α + iβ, entonces las dos soluciones independientes son
[e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] =
eαx sen(βx). 2. Si alg´n λk es m´ltiple de multiplicidad m ≤
n, entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x
pm−1 (x), (4.7) donde pm−1 es un polinomio de grado m − 1 en
x, es decir la soluci´n asociada a dicha o A±z a ra´ tendr´ la forma y(x) = c1
eλk x + c2 xeλk x + · · · + cm xm−1 eλk x , c1 , c2 , . .
. , cm
R.
Obviamente si λk es complejo, tenemos que tomar partes reales y complejas
que nos generan todo el espacio soluci´n. o
´ 4 LA ECUACION LINEAL DE ORDEN N
40
Por simplicidad mostraremos c´mo resolverla ecuaci´n homog´nea de segundo
orden. o o e El caso general es completamente an´logo. La ecuaci´n diferencial
lineal homog´nea con a o e coeï¬cientes constantes tiene la forma: y (x) + py
(x) + qy(x) = 0, λ2 + pλ + q = 0. Las soluciones de la ecuaci´n
caracter´ o A±stica (4.9) ser´n a p2 − 4q −p − p2 − 4q
, λ2 = . 2 2 Caso de dos ra´ A±ces reales y distintas. Sea p2 > 4q,
entonces la ecuaci´n caracter´ o A±stica (4.9) tiene dos soluciones reales y
distintas: λ1 = −p + −p − p2 − 4q p2 − 4q ,
, 2 2 y la ecuaci´n homog´nea (4.8) tendr´ dos soluciones linealmente
independientes o e a λ1 = −p + y1 (x) = eλ1x , y2 (x) =
eλ2x . A, B R. Luego, la soluci´n general de (4.9) se
expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x , Caso de dos ra´
A±ces reales iguales. Sea p2 = 4q, entonces la ecuaci´n caracter´ o A±stica
(4.9) tiene una unica soluci´n real λ = −p/2. Esto signiï¬ca que
aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de
la EDO homog´nea, sin embargo dicho espacio es o o e de dimensi´n 2 como nos
asegura el teorema 4.3 y la ecuaci´n homog´nea (4.8) tendr´ dos o o e a
soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) =
xeλx . En efecto, usando (4.7) tenemos que lasoluci´n generada por λ
es, en este caso, o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx
+ c2 xeλx , como
se pretend´ probar. A±a Caso de ra´ A±ces complejas. Sea p2 < 4q, entonces
la ecuaci´n caracter´ o A±stica (4.9) tiene dos soluciones complejas: √ −p
− i 4q − p2 −p + i 4q − p2 , , i = −1, 2 2 y la
ecuaci´n homog´nea (4.8) tendr´ dos soluciones linealmente independientes o e a
λ1 = y1 (x) = eλ1x , y2 (x) = eλ2x . A, B R. λ, ω R. (4.10) Luego, la
soluci´n general de (4.9) se expresar´ de la forma o a y(x) = Aeλ1 x +
Beλ2x , λ1 = λ + iω, λ2 = λ − iω,
Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte
imaginaria de λ1 (o λ2 ). Entonces, Si ahora utilizamos la f´rmula de
Euler eiφ = cos φ+i sen φ, φ R, obtenemos que la soluci´n o o general de (4.10)
se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) ,
o, equivalentemente, y(x) = A eλx cos (ωx + δ) , A, δ R. A, B R, p, q R. (4.8) (4.9) La
ecuaci´n caracter´ o A±stica (4.6) de la ecuaci´n (4.8) tiene la forma o
´ 4 LA ECUACION LINEAL DE ORDEN N
41
4.2.
La EDO lineal de segundo orden no homog´nea con coeï¬ciene tes constantes
y (x) + py (x) + qy(x) = f (x), f (x) continua, p, q R. (4.11)
Vamos a estudiar la EDO
Engeneral no es trivial resolverla aunque en muchos casos es “f´cil” adivinar
la soluci´n. a o
4.2.1.
Caso f (x) = pn (x)
En general si tenemos la EDO y + py + qy = pn
(x), q = 0, (4.12)
siendo pn un polinomio de grado n, la soluci´n particular siempre es de la
forma o yp (x) = a0 + a1 x + · · · + an xn, an = 0.
En efecto, si sustituimos la soluci´n anterior en la EDO (4.12) obtenemos o qan
xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k
+ 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x), de donde igualando coeï¬cientes
obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el
grado de pn es exactamente n. Este m´todo obviamente funciona si q = 0 (spor
qu´?), pero squ´ ocurre si q = 0?, o sea, e e e si tenemos la EDO y + py = pn
(x), a = 0, (4.13) siendo pn un polinomio de grado n. Entonces el m´todo
anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx ,
obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el
derecho es de grado n. Para resolver el problema buscamos la soluci´n de la o
forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 . Ahora bien, como la EDO
homog´nea es y + py = 0, entonces cualquier constante es e soluci´n,por tanto
a0 en la expresi´n anterior puede ser cualquiera, as´ que sin p´rdida de o o A±
e generalidad la tomaremos igual a cero, luego la soluci´n particular la
podemos buscar en la o forma yp (x) = xrn(x) y los coeï¬cientes de rn los
encontramos sustituyendo dicha soluci´n o en (4.13) e igualando coeï¬cientes.
4.2.2. Caso f (x) = pn (x)ecx
Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x), (4.14)
luego
siendo pn un polinomio de grado n. Para resolverlo hacemos el cambio y(x) = ecx
v(x), que nos conduce a L[y] = ecx , v + (2c +
p)v + (q + pc + c2 )v = pn (x), por lo que nuestra EDO (4.14) se reduce al caso
anterior (4.12).
´ 4 LA ECUACION LINEAL DE ORDEN N 4.2.3. Caso f (x) = pn (x)ecx sen(ωx) y
pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx), y + py + qy = pn
(x)ecx cos(ωx),
42
Veamos ahora como resolver los casos (4.15) siendo pn un polinomio de grado n.
Para resolver este caso notemos que si y(x) = u(x) + iv(x), u, v, funciones
reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x), f1, f2
funciones reales, entonces L[u] = f1 y L[v] = f2], lo cual es consecuencia de
la linealidad L. Sea entonces yp (x) = u(x) + iv(x) unasoluci´n particular de o
L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x)
sen(ωx). Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x)
cos(ωx) y o y + py + qy = pn(x) sen(ωx). 4.2.4. El m´todo de los
coeï¬cientes indeterminados e [yp ] = v(x) de
Sea la EDO lineal no homog´na (4.11) y (x) + py (x) + qy(x) = f (x) y sean
y1(x) e y2 (x) e dos soluciones linealmente independientes. Entonces vamos a
buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x),
con c1 y c2 tales que c1 y1 + c2 y2 = 0, c1 y1 + c2 y2 = f (x). (4.16) (4.17)
De esa forma tenemos que resolver dos EDOs de primer orden. Para ello
multiplicamos la primera por y1, la segunda por y1 y las restamos lo que nos da
c2 [y1 y2 − y1 y2 ] = f y1 , o bien, la primera por y2 y la segunda por
y2 , para obtener c1 [y1 y2 − y1 y2 ] = −f y2 . Ahora bien, [y1 y2 −
y1 y2 ] = W [y1 , y2 ](x) = 0 cualquiera sea x R pues el Wronskiano de dos soluciones linealmente
independientes de la EDO homog´nea nunca se anula (ver el teorema 4.4), de e
donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) , W
[y1 , y2 ](x) c2 (x) = f (x)y1(x) . W [y1 , y2 ](x) (4.18)
El m´todo anterior se denomina m´todo de Lagrange dereducci´n del orden de la
EDO e e o de segundo orden o m´todo de los coeï¬cientes indeterminados.
Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de
orden n. a Ejemplo 4.5 Resolver y − y = e2x . La soluci´n general del
problema homog´neo es yh (x) = c1 ex + c2 e−x , entonces buscao e 5 mos
la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x. Como W
[y1 , y2 ](x) = o W [ex , e−x ] = −2, la f´rmula (4.18) nos da o c1
= c1 (x) = ex , 2 c3 (x) = − e2x . 3 e−x , 6 = yp (x) = e2x . 3
ex e3x , c2 = − = 2 2 Por tanto, la soluci´n general es o
y(x) = c1 ex + c2 e−x +
5
De aqu´ el nombre de m´todo de variaci´n de las constantes, pues se cambian las
constantes que aparecen A± e o en la soluci´n general del problema homog´neo
por funciones indeterminadas. o e
´ 4 LA ECUACION LINEAL DE ORDEN N
43
4.3.
Aplicaciones
Ejemplo 4.6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro
de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a
la pared mediante un resorte de constante el´stica a a k (ver ï¬gura 8). Si
suponemos adem´s que la fuerza de rozamiento es proporcional a su velocidad
entonces la segunda ley de Newton nosconduce a la EDO mx + ax + kx = F (x), o
equivalentemente, x + 2αx + ω 2 x = f (t), α= a k F (t) > 0,
ω 2 = , f (t) = . 2m m m (4.19)
con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la
velocidad x (0) = v0 . o Vamos a estudiar los distintos casos
PSfrag replacements
que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) +
v0 /ω sen(ωt) =
2 x2 + v0 /ω 2 cos(ωt − δ), 0
la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que
el movimiento se o o denomina movimiento arm´nico simple (ver ï¬gura 9
izquierda). o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) +
b sen(ωt) = A cos(ωt − δ), A= √ a2 + b2, δ =
arctan(b/a), (4.20)
cuya demostraci´n es inmediata, basta aplicar la f´rmula para el coseno de una
suma e o o identiï¬car los coeï¬cientes del seno y el coseno.
x
PSfrag replacements
2. Supongamos ahora que eliminamos solamente la fuerza externa, entonces la
soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos:
√ α2 −ω 2 x
¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢
t t t t t t t t t t t t t t t t t t t t
tttttttttttttttttttt£¤ ¢£¤£¤
Figura 8: Carro del ejemplo 4.6.
¦ ¦ ¥t¥t tt¥¦
¨ §t t£¤£¤§¨£¤£¤ £¤£¤
£¤ £¤£¤ ££¤£¤ ¤£¤£¤ £¤£¤
k
m
F
1. El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento, o
sea, f = 0 y α = 0. Entonces la EDO (4.19) es x + ω 2 x = 0 y por
tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt),
δ = arctan(ωx0 /v0).
x
t
t
Figura 9: El movimiento arm´nico simple y el movimiento amortiguado. o
+ c2 e−αx−
√ α2 −ω 2 x
.
´ 4 LA ECUACION LINEAL DE ORDEN N 2a. Si α > ω, entonces, llamando
β = √ α2 − ω 2 < α tenemos la soluci´n o
44
x(t) = c1 e−(α−β)t + c2 e−(α+β)t , que decrece
exponencialmente a cero. En este caso se dice que el movimiento es
sobreamortiguado ya que en un breve espacio de tiempo el carro se para. 2b. Si
α = ω, entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt ,
que tambi´n decrece exponencialmente a cero. e 2c. Si α < ω,
entonces, llamando β = |α2 − ω 2 | < α tenemos la
soluci´n o
x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] , que decrece
oscilando exponencialmente a cero (ver ï¬gura 9 derecha). En este caso se dice
que el movimiento es amortiguado ya que aunque oscila, las oscilaciones
terminan en un breve espacio de tiempo y el carro se para. o 3. Veamos el caso
general y, por simplicidad, consideremos el caso de unafuerza peri´dica muy
frecuente en la naturaleza. En este caso la ecuaci´n es de la forma o x + 2αx
+ ω 2 x = f0 cos(a„¦t). Obviamente la soluci´n general es la suma de una
soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que
acabamos de considerar. Para encontrar una soluci´n particular e o usamos el
m´todo aprendido antes, lo que nos da e yp (t) = f0eia„¦t ω2 − a„¦2
+ i2αa„¦ =
xp (t) = [yp ] = (ω 2 − a„¦2) cos(a„¦t) + 2αa„¦ sen(a„¦t) f0 ,
(ω 2 − a„¦2 )2 + 4α2 a„¦2
de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − a„¦2 )
cos(a„¦t) + 2αa„¦ sen(a„¦t) f0 . (ω 2 − a„¦2)2 + 4α2 a„¦2
(4.21)
|A(a„¦)|
N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que
si t es suï¬ciente grande x(t) ≈ xp(t). Si usamos la identidad (4.20)
obtenemos para t suï¬cientemente grande la soluci´n o x(t) ≈ xp(t) =
ω a„¦
Sfrag replacements
(ω 2
f0 cos(a„¦t − δ), − a„¦2 )2 + 4α2 a„¦2
donde δ = arctan ω2αa„¦ 2 . 2 −a„¦ Como se ve en la
f´rmula anterior, las oscio Figura 10: Amplitud de las vibraciones laciones
tienen una amplitud que depende de la propia frecuencia de oscilaci´n.
Obviamente para o forzadas: resonancia. a„¦ = ω la amplitud es m´xima, es
decir cuando la a frecuencia a„¦ de la fuerza exterior es igual a ω —como
ω s´lo depende de las caracter´ o A±sticas de sistema, en este caso m y k,
se suele denominar
´ 4 LA ECUACION LINEAL DE ORDEN N
45
frecuencia propia—. En la ï¬gura 10 representamos el valor de la amplitud (eje
y en funci´n o de la frecuencia exterior (eje x) para distintos valores de
α. La gr´ï¬ca m´s alta corresponde a a al menor valor de α (menor “viscosidad”)
y la m´s peque˜a al mayor. Si α = 0 es f´cil ver a n a que para a„¦ =
ω la amplitud es no acotada. Este fen´meno de “ampliï¬caci´n” de la
amplitud o o de las oscilaciones se conoce como resonancia. Veamos ahora que
ocurre si α = 0, o sea si no hay rozamiento. En este caso la EDO es x +
ω 2 x = f0 cos(a„¦t). Si a„¦ = ω entonces simplemente tomamos el l´
A±mite cuando α → 0 en (4.21) que nos da, x(t) = c1 cos(ωt) +
c2 sen(ωt) + f0 cos(a„¦t). ω 2 − a„¦2
x
Si a„¦ = ω entonces la soluci´n anterior no vale como se o puede comprobar
f´cilmente (pues f0/(ω 2 − a„¦2 ) cos(a„¦t) deja a de tener
sentido). En este caso tenemos que repetir el proceso anterior lo que nos da,
para la soluci´n particular la expresi´n o o
t
PSfrag replacements
xp(t) = y por tanto, Figura 11: Resonancia en un sistema sin rozamiento.
f0 t f0t iωt = e sen(ωt), 2iω 2ω
x(t)= c1 cos(ωt) + c2 sen(ωt) +
f0 t sen(ωt). 2ω
N´tese que a diferencia del caso con rozamiento, en ´ste, si t → ∞,
la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞, es decir
nuestro sistema presenta un movimiento oscilatorio con frecuencia ï¬ja pero
con amplitud que aumenta linealmente con el tiempo. El fen´meno de la
resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un
desastre en sistemas mec´nicos. Por ejemplo, en 1831, un grupo de soldados a a
intent´ cruzar marchando en puente de Broughton (cerca de Manchester,
Inglaterra). La o fuerza peri´dica que ejercieron al marchar entr´ en
resonancia con la frecuencia propia del o o puente y este se vino abajo. A
partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a
cruzar un puente.
Figura 12: El desastre del puente de Tacoma. Otro famoso desastre fue el puente
de Tacoma en el estado norteamericano de Washington. Este puente se abri´ al
p´blico el 1 de julio de 1940. Desde ese mismo d´ se observ´ que o u A±a, o
´ 4 LA ECUACION LINEAL DE ORDEN N
46
el puente comenzaba a oscilar (ver ï¬gura 12 izquierda) lo que lo convirti´ en
una atracci´n o o tur´ A±stica local pues cientos de conductores iban s´lopara
disfrutar de este extra˜o fen´meno. o n o El puente parec´ aguantar bien, es
m´s varios expertos aseguraban que todo estaba bajo A±a a control, pero el 7 de
noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las
10:00 am alcanzaban los 7 metros. Obviamente el puente hab´ entrado en
resonancia A±a con el aire debido a un fen´meno aerodin´mico y termin´ por
derrumbarse a las 11:10am o a o (ver ï¬gura 12 derecha), afortunadamente sin
ninguna v´ A±ctima humana (s´lo muri´ el perrito o o de un periodista que hasta
ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o o pero olvid´
su perro en el interior de su coche atrapado en el medio del puente). Ejemplo
4.7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico
representado el la ï¬gura 13 donde R es una e resistencia, L una inductancia y
C un capacitor conectados en seria a una fuente de corriente U (t). Denotemos
por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t)
= q (t) la corriente, o sea, la carga por unidad de tiempo. Entonces, la Ley de
Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C
R
U (t) = Li (t) + Ri + C −1 q(t), o, equivalentemente, q + 2rq + ω 2
q(t)= u(t), donde r = R/(2L), ω 2 = 1/(LC) y u(t) = U (t)/L.
U(t)
Figura 13: Circuito RLC del ejemplo 4.7.
Obviamente la EDO anterior es totalmente an´loga a la EDO (4.19). En particular
la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(a„¦t) es o e q(t)
= qh (t) + donde (ω 2 − a„¦2 ) cos(a„¦t) + 2ra„¦ sen(a„¦t) u0 ,
(ω 2 − a„¦2)2 + 4r 2a„¦2 (4.22)
siendo β =
|r 2 − ω 2 |.
 r>ω  c1 e−(α−β)t + c2 e−(α+β)t
,     (c1t + c2 )e−αt , r=ω qh (t) =   
 −αt  e [c1 cos(βt) + c2 sen(βt)] , r < ω
En particular, si a„¦ = ω tenemos la soluci´n o u0 t sen(ωt), 2ω
que es no acotada. Lo anterior nos indica que el an´lisis de un circuito RLC es
an´logo al de a a un oscilador, en particular tendremos el mismo fen´meno de
resonancia cuando a„¦ ≈ ω. De o hecho, en este fen´meno se basan los
equipos de radio actuales. o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo
4.8 Los osciladores acoplados
´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el
movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede
describir f´cilmente con e a una EDO lineal de orden dos. Vamos a ver a
continuaci´n el caso de varios osciladores acoplao dos.
47
En la ï¬gura 14 vemos dososciladores acoplados. Figura 14: Dos osciladores
acoplados. Obviamente si no existiera el resorte k3 que los une cada uno
oscilar´ seg´n la ley que hemos visto antes. Veamos que ocurre al incluir este
A±a u resorte. Llamemos x1 y x2 a los desplazamientos de la posici´n de
equilibrio de los carros m1 o y m2 respectivamente, entonces la segunda Ley de
Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 +
k3 x2 , m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 +
k3 )x2. Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y
sustituirla en la o segunda. Eso nos conduce a la siguiente EDO lineal de
cuarto orden x1 +
(4)
k1 + k 3 k2 + k 3 + m1 m2
x1 +
k1 + k 3 m1
Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . Entonces (4.24) nos da x1 +
4ω 2 x1 + 3ω 4 x1 = 0, La ecuaci´n caracter´ o A±stica es λ4 +
4ω 2 λ2 + 3ω 4 = 0 = √ λ = ± 3ωi, ±ωi,
(4)
de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1
cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √
= A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ). De la
soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir
que A 1 o o o √2 se anulen. En este caso el sistema tiene un movimiento
oscilatorio confrecuencias ω A y 3ω, conocidas como frecuencias
propias del sistema. An´logamente se puede obtener la a expresi´n para x2. o √
x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos(
3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) +
2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de
forma que ω = 1. Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen(
3t) + c3 cos t + c4 sen t, √ √ x2 (t) = c1 cos t + c2 sen t −
c3 cos( 3t) + c4 sen( 3t). Supongamos que x1 (0) = 1, x1(0) = 0, x2(0) = 1 y
x2(0) = 0, entonces obtenemos x1(t) = cos t x2(t) = cos t.
¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦
¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ t¥¦ ¤
t ¢¤£¢¢ t ¢ ¤¤£¢ t ¤¢£¢ t ¢¢£¢ ¤¤£¢ t t ¤¢£¢
t ¤£¢¢ ¢¢£ t ¢¤ £¢ t
k1 m1 k3 m2 k2
(4.23)
k2 + k 3 m2
−
2 k3 x1 = 0. m1 m2
(4.24)
ω2 =
k . m
´ 4 LA ECUACION LINEAL DE ORDEN N
48
Figura 15: Caso x1(0) = 1, x1(0) = 0, x2 (0) = 1 y x2(0) = 0.
Figura 16: Caso x1(0) = 1, x1(0) = 0, x2(0) = −1 y x2(0) = 0. Si x1(0) =
1, x1(0) = 0, x2 (0) = −1 y x2(0) = 0, tenemos √ √ x2(t) = −
cos( 3t), x1(t) = cos( 3t), o sea, tenemos que las oscilaciones son con las
frecuencias propias. Pero si escogemos, por ejemplo, x1(0) = 1/2, x1 (0) = 1,
x2(0) = −1y x2(0) = 1/2, obtenemos √ √ − cos(t) 3 cos(
3 t) 3 sin(t) sin( 3 t) √ , + + + x1(t) = 4 4 4 4 3 √ √ −
cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ , x2(t) = − + − 4 4 4
4 3 es decir, es una combinaci´n de las frecuencias. o
Figura 17: Caso x1(0) = 1/2, x1(0) = 1, x2(0) = −1 y x2(0) = 1/2.
´ 4 LA ECUACION LINEAL DE ORDEN N
49
4.4.
Problemas
Problema 4.9 Encontrar la soluci´n general de las siguientes ecuaciones
diferenciales y la soluci´n correso o pondiente a las condiciones iniciales
indicadas: 1. y − y − 6y = 0, y(2) = 0, y (2) = 1. 2. y + 12y + 36y
= 0, y(0) = y (0) = 2. 3. y − 4y + 13y = 0, y(0) = 1, y (0) = 0. Problema
4.10 Resolver las EDOs 1. y − 4x = 4x2 + 2x. 2. y + y + y = 1 + 2x + 3x3.
3. y − y = x2ex con y(0) = y (0) = 0. 4. y + 2y + 1 = xe−x sen(2x)
con y(0) = 1, y (0) = 0. 5. y + 2y = 1 + x2 + e−2x . 6. y + y − 6y
= sen x + xe2x . Problema 4.11 El oscilador arm´nico simple y el p´ndulo simple
se representan esquem´ticamente en la o e a gr´ï¬ca 18 a la izquierda y
derecha respectivamente. a
k
mg
Figura 18: El oscilador y el p´ndulo simple. e Las EDOs que gobiernan estos
sistemas son my + ky = 0, y lθ + gθ = 0,
respectivamente, donde y(t) es distancia a que seencuentra el cuerpo de masa m
de su posici´n de equilibrio (ï¬gura 18 izquierda) y θ(t) es el angulo
que forma el p´ndulo con la o ´ e horizontal (ï¬gura 18 derecha). 1. Encuentra
la soluci´n general de ambas EDOs. o
© © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦
¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨©
¤¤
ky
m
§¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥
θ l m h
£ ¢ ¢ ¢ ¢ ¢£ ¢ ¢ t t t t t t t
¢t¢t¢t¢t¢t¢t¢t ¢ t t t t t t t ¢t
tttttttt ¤ ¤¤
´ 4 LA ECUACION LINEAL DE ORDEN N
50
2. Si el oscilador se encontraba en el inicio en su posici´n de equilibrio
(y(0) = 0) y ten´ o A±a una velocidad inicial y (0) = v0 , squ´ posici´n ocupa
al cabo de 1 segundo? sy al cabo e o de t segundos? e 3. Si suponemos que
inicialmente el p´ndulo se deja caer desde una altura h = l/10, sin velocidad
inicial, a qu´ altura se encuentra el mismo al cabo de 1 segundo sy al cabo e
de t segundos? Problema 4.12 Resuelve las EDOs 1. y + 8y = x2 , Problema 4.13
Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el
del ejemplo 4.8 incluyendo rozamiento. Haga el estudio an´logo si sobre el
primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(a„¦t). En
ambos casos resuelva la EDOcorrespondiente. Analice los casos: 1.) m1 = m2 y k1
= k2 = k3 , 2.) m1 = m2 y k1 = k2 , k3 = 2k1 y 3.) m1 = 2m2 y k1 = k2 = k3 .
Problema 4.14 Encuentra la EDO que gobierna un sistema de tres osciladores como
el que se muestra en la ï¬gura 19 y resu´lvela. e 2. y − 6y + 11y −
6y = xex + x2, 3. y (4) − 16y = 3 cos(x).
k1
k4
k2
m3
k
3
Figura 19: Tres osciladores acoplados.
£ ¢£¢ £ ¢£¢
m1
m2
£ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦
¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£
¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ t¤¦ t t t t t
t t t
t t
5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS
51
5.
Soluciones de EDOs en serie de potencias
Sea la EDO y + p(x)y + q(x)y = f (x). (5.1)
El objetivo es resolver la EDO anterior cuando las funciones p(x), q(x) y f (x)
dependen de x. Para ello vamos a suponer que dichas funciones son
“razonablemente” buenas en un entorno de cierto punto x0 de la recta real y
buscaremos la soluci´n como una serie de potencias, es o decir en la forma ∞
y(x) =
k=0
ak (x − x0)k ,
ak
R.
(5.2)
Las funciones que se pueden expresar mediante una serie de potencias
convergentes en todo unentorno de x = x0 como la anterior se denominan
funciones anal´ A±ticas en x = x0. Por sencillez supondremos x0 = 0, ya que en
caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0
de forma que en la nueva variable z0 = 0. La idea del m´todo es sustituir la
serie y(x) (5.2) en (5.1) e igualar los coeï¬cientes de e las potencias. De
esta forma obtenemos un sistema de ecuaciones para los coeï¬cientes a n en
(5.2). Es importante que la serie converja en todo un entorno de x0, de esta
forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n.
Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo
5.1 Resolver la EDO y − 2x − 2y = 0. Buscamos la soluci´n y(x) = o
d y (x) = dx
∞ k=0 ∞ k=0 k
ak xk , la sustituimos en la EDO y usamos que
∞
ak x =
k
∞ k=0 ∞ k=0
(ak x ) = kak x
k−1
kak x
k−1
=
∞ n=0
(n + 1)an+1 xn , =
∞ n=0
d d y (x) = y (x) = dx dx lo que nos da
∞ k=0
=
k=0 ∞ k=0
k(k − 1)ak x
∞
k−2
(n + 1)(n + 2)an+2 xn
k(k − 1)ak x
∞
k−1
−2
k=0
kak x − 2
k
∞ k=0
ak xk = 0,
que equivale a
n=0 n
[(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0.
Como (x )n es una sucesi´n defunciones linealmente independientes la igualdad a
cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0, de
donde tenemos o an+2 = 2 an , n+2 n ≥ 0.
Obviamente la ecuaci´n anterior deï¬ne todos los valores de an en funci´n de
a0 y a1. En o o efecto, si sabemos a0 , la recurrencia anterior permite
calcular los valores a2, a4 , . . . a2k , k N y si conocemos a1 entonces podemos calcular a3,
a5 , . . . a2k+1 , k N. As´ tenemos A±, a2n 2 a2n−2 = = 2n 2 2n 2
2n a0 a2n−4 = · · · = a0 = , 2n − 2 (2n)(2n − 2) · · · 2 n!
5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS
52
2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 , 2n + 1 2n + 1 2n − 1
(2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1, donde (2n + 1)!!
= 1 · 3 · 5 · · · (2n + 1). De esta forma obtenemos dos soluciones linealmente
independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 =
y(x) = a0
∞ n=0
2n x2n+1 x2n + a1 . n! (2n + 1)!! n=0
∞
Obviamente la primera suma es f´cilmente reconocible como la serie de potencias
de la funa 2 ci´n ex , no as´ la segunda que en general no se expresa como
combinaci´n de funciones o A± o elementales. De la expresi´n expl´ o A±cita de
las dos sumas anteriores es f´cil comprobar queel a radio de convergencia es
inï¬nito. Esta claro que el m´todo anterior no siempre funciona. Por ejemplo,
consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 y + y − 2 y = 0. x
x Si sustituimos la serie de potencias tenemos
∞ k=0
k(k − 1)ak xk +
∞ k=0
2kak xk −
∞ k=0
2ak xk = 0
de donde se deduce a0 = 0, (n − 1)(n + 2)an = 0, n N = an = 0, n N, n=1
es decir, s´lo podemos encontrar una soluci´n: y1(x) = x. Ello es f´cil de
entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que
obviamente no est´ deï¬nida en x = 0. o a
5.1.
El m´todo de reducci´n de orden e o
Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y =
0. o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) =
v(x)y1(x). Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0
tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e−
p(x)dx 2 y1
=
y1 u + (2y1 + p(x)y1)u, e−
p(x)dx 2 y1
u=v,
=
v(x) = C
+ D.
Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger, sin p´rdida de generalidad C
= 1 y D = 0. e Ejemplo 5.2 Encontrar la segunda soluci´n linealmente
independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x)y = 0 si una
soluci´n es y1 (x) = x−p0/2+1/2. o Como y1 (x) = x−p0/2+1/2 y p(x)
= p0 /x, entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1
= −p0 +1 x x = v(x) = log x
de donde y2 (x) = x−p0/2+1/2 log x. Es f´cil ver que si aplicamos el
m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0
estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente
o independiente es y2 (x) = 1/x2.
5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS
53
5.2.
Puntos regulares y singulares de una EDO
Deï¬nici´n 5.3 Dada la EDO (5.1), el punto x0 se denomina punto regular de
(5.1) si o p(x), q(x) y f (x) son funciones anal´ A±ticas en x = x0, o sea, si
p(x), q(x) y f (x) admiten una representaci´n en serie de potencias en un
entorno de x0 . En caso contrario se dice que o x0 es un punto singular. Por
ejemplo, el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0,
mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0. Teorema 5.4
Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). Entonces: 1. Para
f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale
A±ticas. mente independientes dos funciones anal´ 2. La soluci´n delproblema de
valores iniciales y(x0) = y0 , y (x0) = y0 existe y es unica o ´ y se expresa
mediante una serie de potencias (es decir es una funci´n anal´ o A±tica). Es
posible, adem´s, probar que el radio de convergencia de la soluci´n de la EDO
(5.1) a o es el menor de los radios de convergencia de p, q y f . Esta claro
que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. Una opci´n o es
resolver entonces la ecuaci´n usando una serie en torno a otro punto, por
ejemplo x = 1. o No obstante muchas veces es necesario ver lo que ocurre en el
entorno del punto singular. Ello no siempre es posible, aunque en algunos
casos, si lo es. Deï¬nici´n 5.5 Un punto x0 se denomina punto singular regular
de la EDO (5.1), si las o funciones (x − x0)p(x) y (x − x0)2 q(x)
son anal´ A±ticas en x = x0 . Lo anterior equivale a que (x−x0)p(x) =
∞ k=0 ∞ k=0
pk (x−x0) = p0+p1 x+· · · ,
k
(x−x0) q(x)
2
qk (x−x0)k = q0 +q1 x+· · · .
Usualmente la EDO homog´nea (f (x) ≡ 0) (5.1) con un punto singular en x
0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x −
x0)p(x)] + [(x − x0 )2q(x)]y = 0. (5.3) o o o Deï¬nici´n 5.6 La ecuaci´n
r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la EDO (5.3)
con unpunto singular en x0. En lo que sigue, por simplicidad, asumiremos x0 =
0. Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es
la EDO de Euler x2 y + xp0 y + q0 y = 0. (5.4) Si buscamos la soluci´n en forma
de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos
[n(n − 1) + np0 + q0 ]an = 0, n ≥ 0,
luego, en general, an = 0 lo cual indica que la EDO anterior no tiene como
soluci´n ninguna o a o serie de potencias. Es f´cil ver que la soluci´n se
puede buscar en la forma y(x) = x r , para x > 0. El caso x < 0 se deduce
f´cilmente de ´ste sin m´s que hacer el cambio x = −z, a e a
5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS
54
z > 0. Sustituyendo y(x) = xr en (5.4) tenemos que r ha de satisfacer la
ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. Sean r1 y r2 las soluciones
de la ecuaci´n indicial, o r1,2 = − p0 − 1 ± 2 (p0 − 1)2 −
4q0 . 2
Entonces se tienen los siguientes casos para x > 0 1. Caso (p0 − 1)2 −
4q0 > 0, r1 < r2 R (dos ra´ reales y distintas) A±ces y(x) = c1 xr1
+ c2 xr2 , x > 0. (5.5)
2. Caso (p0 − 1)2 − 4q0 = 0, r1 = r2 R (dos ra´ reales iguales) A±ces y(x) = c1 xr1 +
c2 xr1 log(x), x > 0. (5.6)
3. Caso (p0 − 1)2 − 4q0 < 0, r1, r2 C(dos ra´ complejas).
Sea r1 = a + bi, entonces A±ces la soluci´n es o y(x) = c1 xa cos(b log x) + c2
xa sen(b log x), x > 0. (5.7)
Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las
expresiones el valor o e de x por |x|. Veamos que ocurre en el caso general. En
este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) =
xr
∞ k=0
ak x k .
Entonces si sustituimos en la EDO (5.3) e igualamos potencias nos queda,
∞ n=0 n−1
[(n + r)(n + r − 1) + (n + r)p0 + q0 ]an +
[(k + r)pn−k + qn−k ]ak = 0,
k=0
de donde, al igualar la potencia xr , se sigue que r ha de satisfacer la
ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0, y adem´s se deduce una
relaci´n de recurrencia para cada uno de a o los coeï¬cientes an en la expresi´n
de la serie. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la
relaci´n recurrente para los coeï¬cientes an no tenga soluci´n. En general o o
se tiene el siguiente Teorema 5.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0, y
las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 +
q1 x + · · · sean funciones anal´ A±ticas en x0 = 0. Dada la ecuaci´n indicial
r(r − 1) + p0 r + q0 = 0, entonces las dos solucioneslinealmente o
independientes soluciones de la EDO anterior son de la forma 1. Caso (p0 −
1)2 − 4q0 > 0, r1 < r2 R con r2 − r1 Z (dos ra´ reales y distintas que A±ces no diï¬eran
en un entero) y(x) =
6
c 1 xr 1
∞ k=0
ak x +
k
c2 xr 2
∞ k=0
bk x k ,
x > 0.
(5.8)
Recordar que estamos suponiendo x0 = 0.
5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS
55
2. Caso (p0 − 1)2 − 4q0 < 0, r1, r2 C,r2 − r1 Z (dos ra´ complejas que
no diï¬eran A±ces en un entero). Sea r1 = a + bi, entonces la soluci´n es o
y(x) = c1 x cos(b log x)
a ∞ k=0
ak x + c2 x sen(b log x)
k
a
∞ k=0
bk x k ,
x > 0.
(5.9)
3. Caso (p0 − 1)2 − 4q0 = 0, r1 = r2 R (dos ra´ reales iguales) A±ces y(x) = c1 x
r1 ∞ k=0
ak x + c 2
k
x
r1
∞ k=0
ak x
k
log x + x
r1
∞ k=0
bk x k ,
x > 0. (5.10)
4. Caso (p0 − 1)2 − 4q0 = 0, r1 = r2 − N R, N Z (dos ra´ A±ces reales
que diï¬eren en un entero) y(x) = c1 xr1
∞ k=0
ak x k + c 2 A x r 1
∞ k=0
ak x k
log x + xr1+N
∞ k=0
bk x k ,
x > 0, (5.11)
donde A es cierta constante que puede ser nula. En todos los casos las series
convergen en un entorno de x0 = 0. Esta claro del teorema anteriorque este caso
es mucho m´s complicado que el anterior. a Aqu´ s´lo nos limitaremos a mostrar
un ejemplo del primer caso por ser este el m´s sencillo. A± o a
5.3.
La ecuaci´n hipergeom´trica de Gauss o e
Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 −
x)y + [γ − (1 + α + β)x]y − αβy = 0. (5.12)
luego
Por sencillez asumiremos que γ Z. Obviamente x = 0 es un punto singular regular.
En efecto, dividiendo por x(1 − x) tenemos γ − (1 + α +
β)x −αβ p(x) = , q(x) = , x(1 − x) x(1 − x)
xp(x) = γ − (1 + α + β − γ)x + · · · , x2q(x) =
−αβx + · · · ,
entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) +
γr = 0, de donde tenemos o dos soluciones r = 0 y r = 1 − γ.
Como hemos supuesto que γ Z, entonces tenemos dos soluciones ∞ ∞
y1 (x) = an x n , y2 (x) = x1−γ bn x n .
n=0 n=0
Comencemos por la primera. Sustituyendo y1 en (5.12) obtenemos (n + 1)(n +
γ)an+1 = [n2 + (α + β)n + αβ]an , por tanto, an = (n +
α − 1)(n + β − 1) an−1 , n(n + γ − 1) n ≥
1.
5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto
(a)0 = 1, entonces obtenemos an = por tanto y(x) = 2 F1 α, β x γ
=
∞ k=0
56
(a)n = a(a + 1) · · · (a + n − 1), (α)n (β)n , (γ)nn!n ≥
1,
(5.13)
(α)k (β)k xk , (γ)k k!
(5.14)
conocida como funci´n hipergeom´trica de Gauss. Es f´cil comprobar que el radio
de cono e a vergencia de la serie anterior es R = 1. Si ahora sustituimos la
segunda soluci´n obtenemos o an = (n + α − γ)(n + β −
γ) an−1 , n(n − γ + 1) y2 (x) = x1−γ 2 F1 = an = (α −
γ + 1)n(β − γ + 1)n , n ≥ 1. (2 − γ)n n!
de donde tenemos
N´ese que si γ Z entonces una de las soluciones deja de estar
deï¬nida. En este caso o hay que buscar la soluci´n incluyendo el
correspondiente t´rmino logar´ o e A±tmico.
α − γ + 1, β − γ + 1 x . 2−γ
5.4.
Problemas
Problema 5.8 Resuelve las EDOs siguientes usando series de potencias, si es
posible, e indica la regi´n de convergencia de las mismas o 1. x2y = y + x2 +
1, 2. xy = 2y + xex, 3. y + 2y + y = x, 4. (x4 − 4)y + 3xy + y = 0.
Problema 5.9 Sea la EDO (1 + x)y = py, y(0) = 1, p R. o 1. Busca su
soluci´n en serie de potencias 2) · · · (p − n + 1)/n!.
∞ n=0
an xn, y prueba que an = p(p − 1)(p −
2. Encuentra la regi´n de validez de la doluci´n anterior. o o 3. Comprueba que
la funci´n y(x) = (1 + x)p es soluci´n de la misma. o o o Como consecuencia del
teorema de existencia y unicidad, en la regi´n deconvergencia de la serie
tendremos (1 + x) =
p ∞ n=0
p(p − 1)(p − 2) · · · (p − n + 1) n x , n!
p
R,
que no es m´s que el teorema del binomio encontrado por Newton. a
5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5.10 Resolver las EDOs
usando series alrededor del cero (punto regular) 1. (1 − x2)y − xy
+ p2 y = 0, (EDO de Chebyshev) 2. (1 − x2)y − 2xy + p(p + 1)y = 0,
(EDO de Legendre) 3. y − 2xy + 2py = 0, (EDO de Hermite)
57
4. y + xy = 0, (EDO de Airy). Usando la soluci´n de la EDO de Airy resolver la
EDO o y − xy = 0. Problema 5.11 Prueba que la EDO de Euler ax2y (x) + bxy
(x) + cy(x) = 0, a, b, c R
se transforma, con el cambio x = ez en una EDO con coeï¬cientes constantes: ay
(z) + (b − a)y (z) + cy(z) = 0. Problema 5.12 Resuelve las siguientes
EDOs de Euler 1. x2y + 2xy − 6y = 0, 2. x2y + xy − 5y = 0, 3. (x −
1)2y − 2(x − 1)y + 2y = 0, 4. x2y + 3xy + 2y = 0. Problema 5.13
Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1. xy +
(1 − x)y + py = 0, (EDO de Laguerre) 2. xy + (1 + α − x)y + py
= 0, (EDO de Laguerre generalizada) 3. x2y + xy + (x2 − p2 )y = 0, (EDO
de Bessel) Problema 5.14 La EDO x(1 − x)y + [c − (a + b + 1)x]y −
aby = 0, a, b, c Rse denomina ecuaci´n hipergeom´trica de Gauss
(aunque fue introducida por Euler en 1769). o e Encuentra dos soluciones
linealmente independientes de la misma. Usando un cambio apropiado de variables
demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden
expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss. o e
Problema 5.15 Encuentra dos soluciones linealmente independientes de la EDO
hipergeom´trica confluente deï¬nida por e xy + [c − x]y − ay = 0,
a, c
R.
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS
58
6.
6.1.
Los polinomios ortogonales cl´sicos a
La ecuaci´n diferencial hipergeom´trica. o e
Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos deï¬nidos
sobre el eje a a real los cuales vamos a deï¬nir como las soluciones polin´micas
de la siguiente EDO o σ(x)y + τ (x)y + λy = 0, (6.1)
donde σ y τ son polinomios de grados a lo m´s 2 y 1, respectivamente.
Esta ecuaci´n (6.1) a o usualmente se denomina ecuaci´n diferencial
hipergeom´trica y sus soluciones y cumplen con o e la propiedad, conocida como
propiedad de hipergeometricidad: Si y es una soluci´n de (6.1) o sus m-´simas
derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo. e oTeorema
6.1 Si y es una soluci´n de (6.1) sus m-´simas derivadas y (m) ≡ ym
satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0,
m−1
(6.2) τi (x) = λ + mτ (x) +
m(m−1) σ 2
τm (x) = τ (x) + mσ (x),
µm = λ +
i=0
(x) .
La propiedad de hipergeometricidad es es muy importante pues nos permite
encontrar una f´rmula expl´ o A±cita para los polinomios que satisfacen la
ecuaci´n (6.1). Para ello usualmente o se escriben (6.1) y (6.2) en su forma
sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0,
[σ(x)ρm (x)ym ] + µm ρm (x)ym = 0, (6.3)
donde ρ y ρm son funciones de simetrizaci´n que satisfacen las
ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de
Pearson): [σ(x)ρ(x)] = τ (x)ρ(x), [σ(x)ρm (x)] =
τm (x)ρm (x).
Conocida ρ encontramos, utilizando las ecuaciones anteriores, que ρm
(x) = σ m (x)ρ(x). (6.4)
Teorema 6.2 Si para todo k N , τ + kσ /2 = 0, entonces para las
soluciones polin´micas de la ecuaci´n (6.2) se tiene la siguiente f´rmula de
Rodrigues: o o o
(m) Pn (x) =
Anm Bn dn−m [ρn (x)], ρm (x) dxn−m n! = (n − m)!
m−1
Bn =
Pn , Ann
(n)
(6.5) (6.6)
Anm = Am (λ) |λ=λn Adem´s, el autovalor λn de (6.1) es a
k=0
1 [τ + 2 (n+ k − 1)σ ].
λ ≡ λn = −nτ −
n(n − 1) σ . 2
(6.7)
Cuando m = 0 la f´rmula (6.5) se convierte en la f´rmula de Rodrigues para los
polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)], n = 0, 1, 2, .
(6.8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales
se tiene que las soluciones de (6.1) son ortogonales dos a dos:
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6.3 Supongamos que xk
σ(x)ρ(x)
59
x=a,b
ciones polin´micas Pn de la ecuaci´n (6.1) constituyen una SPO respecto a la
funci´n peso o o o ρ deï¬nida por la ecuaci´n [σ(x)ρ(x)] =
τ (x)ρ(x), o sea, se cumple que: o
b a
= 0, para todo k ≥ 0. Entonces las solu-
Pn (x)Pm(x)ρ(x)dx = δnm d2 , n
(6.9)
donde δnm es el s´ A±mbolo de Kronecker y dn denota la norma de los
polinomios Pn. Corolario 6.4 Si (Pn)n es una familia de polinomios ortogonales
respecto a ρ entonces para
b
todo k entero con 0 ≤ k ≤ n − 1 se tiene que
xk Pn (x)ρ(x)dx = 0.
a
2 Para calcular dn , podemos utilizar la f´rmula de Rodrigues que,
sustituy´ndola en (6.9) o e e integrando por partes, nos da: b
d2 = Bn (−1)n n!an n
σ n (x)ρ(x)dx.
a
(6.10)
Una consecuencia de la propiedad de ortogonalidad es el siguienteTeorema 6.5
Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio
e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1
(x), (6.11) donde αn = an , an+1 βn = bn bn+1 − , an an+1
γn = cn − αn cn+1 bn an−1 d2 n − βn = , an−1
an−1 an d 2 n−1 (6.12)
siendo an , bn y cn los coeï¬cientes del desarrollo Pn(x) = anxn + bn xn−1
+ cn xn−2 + · · ·, y dn es la norma de los polinomios. Generalmente se
impone que P−1(x) = 0 y P0(x) = 1, con lo que la sucesi´n de polinomios o
ortogonales queda determinada de forma unica conocidas las sucesiones (α
n)n , (βn )n y (γn )n. ´ Para calcular los coeï¬cientes principales
an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn
τn−1 (x),de donde obtenemos la para la n − 1-´sima derivada de
Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1
Bn τn−1 (x). Luego, an = Bn Ann 1 = Bn [τ + 2 (n + k −
1)σ ], n! k=0
n−1
bn =
nτn−1 (0) an . τn−1
(6.13)
Como un corolario de (6.11) se obtiene la conocida f´rmula de
Christoffel-Darboux: o Teorema 6.6 Si (Pn)n es una sucesi´n de polinomios
ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos
(6.11). Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) −
Pn+1(y)Pn (x) , = 2 2 dm dn x−y m=0
n
Kern (x, y) ≡
n ≥ 1.
(6.14)
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x,
obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x, x) ≡
2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n
60
n ≥ 1.
(6.15)
De la f´rmula de Rodrigues se deducen una serie de consecuencias muy
interesantes o 1. τ es un polinomio de grado exactamente uno. 2. Tomando m
= 1 en la f´rmula (6.5) se deduce que o Pn(x) = −λnBn ¯ Pn−1
(x), ¯ Bn−1 (6.16)
¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso
ρ1 (x) = σ(x)ρ(x). o 3. Si escribimos la f´rmula (6.5) para el
polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o
σ(x)Pn(x) = λn Bn Pn+1 (x) . τn (x)Pn(x) − nτn Bn+1
(6.17)
de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) =
αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x), donde αn = ˜
Bn λn αn τ n − , nτn Bn+1
P (x)
n ≥ 0, λ n γn . n
(6.18)
λn ˜ [βn τn + τn (0)] , βn = nτn
γn = ˜
(6.19)
4. Si deï¬nimos Qn (x) ≡ n+1 , entonces los polinomios ortogonales
m´nicos Pn (x) = o n+1 xn + · · ·, soluciones de la ecuaci´n (6.1), satisfacen
la siguiente relaci´n de estructura: o oPn(x) = Qn + δn Qn−1 +
n Qn−2 .
(6.20)
6.2.
6.2.1.
Los Polinomios de Hermite, Laguerre y Jacobi.
Par´metros Principales. a
Comenzaremos escribiendo los principales par´metros de las sucesiones de
polinomios a ortogonales m´nicos cl´sicos, es decir, tales que su coeï¬ciente
principal an = 1, i.e., Pn (x) = o a ´ xn + bn xn−1 + · · ·. Estos se
pueden clasiï¬car en tres grandes familias en funci´n del grado del o
polinomio σ (τ siempre es un polinomio de grado 1). Cuando σ es
un polinomio de grado cero los polinomios correspondientes se denominan
Polinomios de Hermite H n(x), cuando σ es de grado 1, Polinomios de
Laguerre Lα (x) y cuando σ es de grado 2, Polinomios de Jacobi n α,β
Pn (x), respectivamente. En las tablas 3 y 4 est´n representados los
principales par´metros a a de dichas familias, en las cuales (a)n denota al s´
A±mbolo de Pochhammer (6.30).
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS
61
Tabla 3: Clasiï¬caci´n de las SPO Cl´sicas. o a Pn(x) σ(x) τ (x)
λn ρ(x) Hn(x) 1 −2x 2n e−x
2
Lα (x) n x
α,β Pn (x)
1 − x2
−x + α + 1 −(α + β + 2)x + β − α n
xα e−x α > −1 n(n + α + β + 1) (1 −
x)α (1 + x)β α, β > −1 (1 − x)n+α (1 +
x)n+β
ρn (x)
e−x
2
xn+α e−x
6.2.2.Representaci´n hipergeom´trica. o e
De la f´rmula de Rodrigues, o usando el m´todo de las series de potencias,
(6.5) se o e puede obtener la representaci´n de los polinomios de Hermite,
Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1
deï¬nida en el caso m´s general de forma: o e a
p Fq
a1, a2 , , ap x b1 , b2 , , bq
=
∞ k=0
(a1)k (a2)k · · · (ap)k xk . (b1)k (b2)k · · · (bq )k k! 3 2 −m
3 2
(6.21)
De esta manera encontramos que: H2m (x) = (−1)m 1 2
1 F1 m
−m
1 2
x2 , H2m+1 (x) = (−1)m
x 1 F1
m
x2 , (6.22) (6.23) (6.24)
Lα (x) = n
α,β Pn (x) =
(−1)n Γ(n + α + 1) 1 F1 Γ(α + 1)
−n x , α+1
2n (α + 1)n 2 F1 (n + α + β + 1)n
−n, n + α + β + 1 1 − x . α+1 2
6.2.3.
Casos particulares.
0,0 1. Los polinomios de Legendre Pn(x) = Pn (x).
2. Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn
1 − 2 ,− 1 2
(x) =
1 2n−1
cos[n arccos (x)].
3. Los polinomios de Chebyshev de segunda especie Un (x):
1 1 2 Un(x) = Pn 2 (x) =
,
1 sen[(n + 1) arccos (x)] . 2n sen[ arccos (x)]
4. Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n
1 1 γ− 2 ,γ− 2
(x),
γ > −1. 2
´ 6 LOS POLINOMIOSORTOGONALES CLASICOS
62
Tabla 4: Par´metros de las SPO M´nicas (an = 1). a o
Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x)
n (−1)n
α,β Pn (x)
(−1)n (n + α + β + 1)n n(α − β) 2n + α +
β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1)
Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β +
1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α +
β) 4n(n + α)(n + β)(n + α + β) (2n + α + β −
1)(2n + α + β)2 (2n + α + β + 1) 2(α −
β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α +
β) 4n(n + α)(n + β)(n + α + β)(n + α + β +
1) (2n + α + β − 1)(2n + α + β)2 (2n + α +
β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α +
β) − 4n(n − 1)(n + α)(n + β) (2n + α + β −
1)(2n + α + β)2 (2n + α + β + 1) −n
bn d2 n αn βn γn αn ˜ ˜ βn γn ˜
−n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0
n n(n + α)
δn
n
0 0
n 0
6.2.4.
Otras caracter´ A±sticas.
Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los
polio nomios en los extremos del intervalo de ortogonalidad. H2m (0) = (−1)m
(2m)! , 22m m! H2m+1 = 0, Lα (0) = n (−1)nΓ(n + α + 1) ,
Γ(α + 1)
2n (α + 1)n α,β Pn (1) = , (n + α + β + 1)n
(−1)n 2n (β + 1)n α,β Pn (−1) = . (n + α +
β + 1)n
(6.25)
Utilizando la f´rmula (6.16) encontramos las ecuaciones (ν =1, 2, 3, ,
n = 0, 1, 2, ): o (Hn(x))(ν) = n! Hn−ν (x), (n −
ν)!
α,β (Pn (x))(ν) =
(Lα (x))(ν) = n
n! Lα+ν (x), (n − ν)! n−ν
(6.26) (6.27)
donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x). e
n! α+ν,β+ν Pn−ν (x), (n − ν)!
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS
63
Directamente a partir de las correspondientes EDOs se puede probar que los
polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi,
respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2), Gγ
(x) = P2m 2 2m
1 γ− 1 ,γ− 2
−1
2 H2m+1 (x) = xLm (x2) , 1 1 γ− 2 ,− 1 2 (2x2 − 1), P m
m 2
1
(x) =
(6.28)
1 γ− 1 , 1 x Pm 2 2 (2x2 − 1). 2m Adem´s, de la f´rmula de
Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o A±a para los
polinomios de Jacobi:
2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 ,γ− 2
(x) =
β,α α,β Pn (−x) = (−1)nPn (x).
(6.29)
Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s
frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ, deï¬nida,
en general, mediante la integral de Euler ´ Γ(z) =
0 ∞
e−t tz−1 dt,
(z) > 0.
Esta funci´n fue deï¬nida por Euler en 1729 como l´ o A±mite de un producto de
donde sepuede deducir la integral anterior (considerada tambi´n por Euler en
1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en
detalle en 1814. En particular, Euler o o prob´ que o 1 Γ(z) = z n=1
∞
1 1+ n
z
1+
z n
−1
= l´ A±m
1 · 2 · · · (n − 1) zn. n→∞ z(z + 1) · · · (z + n − 1)
π , sen πz
Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) =
zΓ(z), y adem´s, cumple la propiedad a Γ(1 − z)Γ(z) =
√ 1−2z π2 Γ(2z). √ 1 a Utilizando las expresiones
anteriores se concluye que Γ( 2 ) = π. Adem´s, Γ(z)Γ(z + 1
) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1), n N.
a(x) = 1. Otra funci´n muy relacionada con la o x→∞ b(x) funci´n
Γ es el s´ o A±mbolo de Pochhammer (a)k (5.13) donde por a(x) b(x) entenderemos l´ A±m
Es muy sencillo comprobar que (a)0 = 1, (a)k = a(a + 1)(a + 2) · · · (a + k −
1), k = 1, 2, 3, . . . . (a)k = (6.30)
La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √
1 Γ(ax + b) 2πe−ax (ax)ax+b− 2 , x >>
1,
Γ(a + k) . Γ(a) Finalmente, deï¬niremos los coeï¬cientes binomiales
n k = (−1)k (−n)k n! = . (n − k)!k! k!
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS
64
6.3.
Los momentos de los polinomios cl´sicos a
Eneste apartado vamos a considerar brevemente una forma de obtener una relaci´n
para o los momentos. Teorema 6.7 Sea µ C. Se deï¬nen los momentos como
b
Cν,µ (z) =
a
(s − z)µρν (s)ds.
(6.31)
Si se cumple la condici´n de frontera o
b
σ(s)ρν (s)(s − z)µ
= 0,
a
(6.32)
entonces los momentos generalizados veriï¬can la siguiente relaci´n de
recurrencia a tres o t´rminos e 1 µσ(z)Cν,µ−1 (z) +
[τν (z) + µσ (z)] Cν,µ (z) + τν + µσ 2
Cν,µ+1 (z) = 0. (6.33)
En particular, para ν = 0, µ = p N, z = 0 obtenemos, de (6.33), la siguiente
relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0)
+ pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡
C0,p (0) =
a b
Cp+1 = 0.
(6.34)
sp ρ(s)ds.
Vamos a aplicar los resultados anteriores a los polinomios cl´sicos. a Para
obtener los momentos de los polinomios de Jacobi usaremos las expresiones
(6.33) y (6.34). Ejemplo 6.8 Calcula los momentos de los polinomios de Laguerre
y Hermite usando el m´todo anterior. e En el caso Laguerre tenemos que la
relaci´n de recurrencia (6.34) es o (α + n + 1)Cn − Cn−1 = 0,
luego Cn = (α + 1)nC0 , C0 =
0 ∞
xα e−x dx = Γ(α + 1),
de donde deducimos que Cn = Γ(α + n + 1). Finalmente, que usar(6.33)
deducimos que, evidente ya que para los polinomios de Hermite tenemos que
σ(0) = 0, as´ que tenemos A± cuando z = 0. Ello nos conduce a la relaci´n
pCp−1 − 2Cp+1 = 0. De ella o como C1 = 0, entonces todos los
momentos impares son nulos, lo cual es √ la funci´n peso es una funci´n
par. Adem´s, como C0 = π, entonces o o a C2m = (2m − 1)!! √
(2m)! √ π = 2m π, 2m 2 m! C2m+1 = 0.
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS
65
6.4.
Las funciones generatrices
El objetivo de este apartado es encontrar las funciones generatrices de los
polinomios cl´sicos. En general el problema se puede plantear como sigue: Dada
una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar
una funci´n Φ(x, t) tal que, o o Φ(x, t) =
∞ n=0
An Pn (x)tn.
(6.35)
Obviamente la serie anterior puede no converger preï¬jado un valor cualquiera
del par´metro a t, por ello asumiremos que t es lo suï¬cientemente peque˜o
para que la serie converja en una n regi´n de las x lo suï¬cientemente amplia.
o Para los polinomios cl´sicos se tienen las siguientes identidades. a
∞ n=0 ∞ n=0
2n 2 Hn (x)tn = e2xt−t , n!
∞ n=0
e− 1−t (−1)n α n Ln (x)t = , n! (1 − t)α+1
tx
(6.36)
2α+β (−1)n (α + β +1)n α,β Pn (x)tn = , n!
R(1 − 2t + R)α (1 + 2t + R)β
(6.37)
con R =
1 + 4t(t + x).
Para probar las mismas usualmente se hace uso del teorema integral de Cauchy.
No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”. e
a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos.
Daremos tres e a pruebas distintas para mostrar los distintos trucos que se
suelen usar. Caso Hermite Hn (x): Primera prueba Sea Φ(x, t) = e2xt−t
. Al ser esta funci´n anal´ o A±tica en R podemos usar la serie de Taylor
Φ(x, t) = Pero ∂ Φ ∂tn luego e
n ∞ k=0
2
1 n!
∂ nΦ ∂tn
tn .
t=0
=e
t=0
x2 ∂
n −(x−t)2
e ∂tn
=
t=0
   ξ = x−t   dξ = −dx  =
∞ n=0
(−1) e
n x2 ∂
n −ξ 2
e ∂ξ n
ξ=x
(−1)n = Hn(x), Bn
2xt−t2
2n Hn(x)tn. n!
Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a
tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0. 2
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n
2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0, n! (n − 1)! n!
o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1
(x)tn−1 − 2x Hn (x)tn = 0, ∂t (n + 1)! (n − 1)! n! y
sumamos en n = 0 hasta∞ y usamos que 1/(−1)! = 0 y obtenemos ∂
∂t
∞ n=0 ∞ ∞
66
2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x
Hn(x)tn = 0. (n + 1)! (n − 1)! n! n=1 n=0
∞ 2n n n=0 n! Hn (x)t ,
Ahora bien, como Φ(x, t) =
obtenemos la ecuaci´n o
∂ Φ(x, t) + 2(t − x)Φ(x, t) = 0, ∂t cuya soluci´n
es Φ(x, t) = e2xt−t . o Caso Hermite Hn (x): Tercera prueba Vamos a
dar una tercera prueba que escencialmente es la inversa de la anterior, es
decir a partir de la expresi´n expl´ o A±cita de la funci´n generatr´ deducimos
una relaci´n de recurreno A±z o cia para los correspondientes polinomios (en
este caso los de Hermite). La raz´n fundamental o es que este m´todo es muy general
y nos permitir´ probar el resto de las expresiones. e a o Sea la funci´n
generatr´ Φ(x, t) = e2xt−t que escribiremos mediante la expresi´n o
A±z Φ(x, t) =
∞ n=0
2 2
2n gn (x)tn, n!
(6.38)
donde (gn)n es una sucesi´n de polinomios a determinar. o Un sencillo c´lculo
nos muestra que a ∂ 2 Φ(x, t) = (2x − 2t)e2xt−t = 2(x −
t)Φ(x, t). ∂t De aqu´ deducimos que Φ(x, 0) = 1 y Φt(x, 0)
= 2x, por tanto, usando el desarrollo en serie A± de Taylor en t para Φ(x,
t) y compar´ndolo con (6.38) deducimos que g0(x) = 1 y g1(x) = x. a Ahora
sustituimos(6.38) en la ecuaci´n diferencial anterior lo que nos da o
∞ n=0
2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0, n! n! n=0
∞
o, equivalentemente,
∞ n=1
2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0. (n − 1)!
n! n! n=0 n=0
∞
∞
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeï¬cientes de las
potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0, 2g2(x)
− 4xg1(x) + 2g0(x) = 0, 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0.
67
Ahora bien, como g0(x) = 1 = H0(x) y g1(x) = x = H1(x), entonces comparando las
relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los
polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que
pretend´ A±amos probar.
6.5.
Problemas
Problema 6.9 Calcula todas las car´cter´ a A±sticas de los polinomios cl´sicos
que aparecen en a la tabla 4. e Problema 6.10 Probar la ortogonalidad de las k−´simas
derivadas de los polinomios hi(k) pergeom´tricos yk ≡ Pn , es decir, e
b (k) (k) 2 Pn (x)Pm (x)ρk (x)dx = δnm dkn . a
(6.39)
Problema 6.11 Prueba que los polinomios n´cleos satisfacen la siguiente
propiedad reprou ductora
b
p(x)Kern (x, y)dx = p(y),
a
p(x)
Pn .
(6.40)
Problema 6.12 Encontrar larelaci´n de recurrencia para los momentos Cn := C0,n (0)
de o los polinomios de Jacobi. N´tese que o 2α+β+1 Γ(α +
1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = . Γ(α + β +
2) −1
α β 1
H´gase lo mismo pero para los momentos Cn := C0,n (1), es decir, si en vez de
sustituir a en (6.33) z = 0 sustituimos el valor z = 1. Un caso de especial
relavancia son los polinomios de Gegenbauer que corresponden al caso α =
β = γ − 1/2. Encontrar la relaci´n de recurrencia para los
momentos Cn := C0,n (0) en o este caso y resu´lvela. A partir de ´sta encuentra
los momentos de los polinomios de Legendre e e − 1 ,− 1 0,0 Pn(x) =
Pn (x), los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los
1 1
polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x), respectivamente.
Problema 6.13 Demuestra que la funci´n generatr´ para los polinomios de
Laguerre viene o A±z γ− 1 ,γ− 1 γ dada por (6.36).
Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso
particular de los polinomios de Jacobi. Prueba que en este caso 1 = (1 −
2xt + t2 )γ
∞ n=0
,
2n (γ)n γ Cn (x)tn, n!
(6.41)
donde (γ)n es el s´ A±mbolo de Pocchamer. Como casos particulares deducir
la de los polinomios de Chebychev deprimera y segunda especie y la de los
polinomios de Legendre.
´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6.14 Prueba las relaciones
α,β+1 Pn−1 (x) = α,β (2n + α + β)(1 −
x) d Pn (2n + α + β) α,β (x) + Pn (x), 2n(α + n) dx
2(α + n) α,β (2n + α + β)(x + 1) d Pn (2n + α +
β) α,β (x) − Pn (x). 2n(β + n) dx 2(β + n)
68
(6.42)
α+1,β Pn−1 (x) =
(6.43)
Problema 6.15 Los polinomios n´cleos Ker n−1 (x, y) se deï¬nen mediante
la expresi´n u o Kern−1 (x, y) = Pm (x)Pm(y) . d2 m m=0
n−1
Usando la f´rmula de Christoffel-Darboux (6.14), los valores en los extremos
(6.25) y las o f´rmulas de diferenciaci´n (6.17), prueba las siguentes
f´rmulas: o o o • N´cleos de los polinomios de Hermite: u
1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x, 0) = √ Lm−1
(x2) = √ , 2m−1 π(m − 1)! 2 π(m − 1)! x
1 (−1)m H2m (x) (−1)m 2 , Lm (x2) = √ KerH (x, 0) = √
2m π(m)! π(m)! x
KerH (0, 0) = 2m−1
• N´cleos de los polinomios de Laguerre: u KerL (x, 0) = n−1
1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 , KerH (0, 0) =
. = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1)
2 π(m − 1)! 2 π m!2
(−1)n−1 (Lα ) (x), n Γ(α + 1)n!
KerL (0, 0) = n−1
(α + 1)n . Γ(α + 2)(n − 1)!
• N´cleos de los polinomios de Jacobi: u
α,β dα−1,β α,β α,β+1
KerJ,α,β (x, −1) = ηn dx Pn (x) = nηn Pn−1 (x),
n−1 β,α α+1,β α,β−1 β,α d
(x) = n(−1)n+1 ηn Pn−1 (x), KerJ,α,β (x, 1) = (−1)n+1
ηn dx Pn n−1 β,α α,β donde por ηn y ηn
denotaremos las cantidades β,α ηn =
(6.44) (6.45)
(−1)n−1 Γ(2n + α + β) , 2α+β+n
n!Γ(α + n)Γ(β + 1)
β,α ηn
(−1)n−1 Γ(2n + α + β) . 2α+β+n
n!Γ(α + 1)Γ(β + n)
Usando (6.44)-(6.45) tenemos KerJ,α,β (−1, −1) = n−1
Γ(β + n + 1)Γ(α + β + n + 1) , 2α+β+1 (n −
1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1
Γ(α + β + n + 1) . 2α+β+1 (n − 1)!Γ(β
+ 1)Γ(α + 1)
KerJ,α,β (−1, 1) = n−1
Utilizando la relaci´n de simetr´ (6.29) para los polinomios de Jacobi prueba
que o A±a
J,β,α KerJ,α,β (1, 1) = Kern−1 (−1, −1).
n−1
7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS
69
7.
El teorema de existencia y unicidad para las EDOs
Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia
y unia cidad de soluciones para una EDO de primer orden. Sea el problema de
valores iniciales y = f (x, y), y(x0 ) = y0 . (7.1)
En el apartado 2.7.1 de aproximaciones n´mericas vimos algunos ejemplos donde
la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n
exacta. Vamos a dar aqu´ algunas ´ A±a o A±condiciones bajo las cuales podemos
garantizar que el PVI (7.1) tiene soluci´n unica. o ´ Lo primero que asumiremos
es que la funci´n f (x, y) es continua en el rect´ngulo R o a deï¬nido por a,
b > 0. (7.2) R = , Proposici´n 7.1 El PVI (7.1) es equivalente a la siguiente ecuaci´n
integral o o
x
y(x) = y0 +
x0
f (ξ, y(ξ))dξ.
(7.3)
Deï¬nici´n 7.2 Diremos que una funci´n f (x, y) es de la clase de Lipschitz o
lipschitziana o o (en la variable y) en R si existe cierta constante positiva K
> 0 tal que para todos (x, y) R y (x, z) R se cumple Es f´cil comprobar que toda funci´n f
(x, y) de la clase de Lipschitz seg´n la deï¬nici´n a o u o anterior es
continua en y. Adem´s, una condici´n suï¬ciente para que una funci´n f (x, y)
sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea
continua en R. ∂y o o Deï¬nici´n 7.3 Dada una funci´n u(x) deï¬nida en
un intervalo cerrado y acotado I R, deï¬niremos la norma de u(x) a la cantidad u =
sup |u(x)|.
x I
|f (x, y) − f (x, z)| ≤ K|y − z|.
(7.4)
Para la norma tenemos la desigualdad evidente u ≥ 0, y u = 0 si y s´lo si
u(x) = 0 en o I. Adem´s, se tiene la desigualdad triangular a u+v ≤ u + v
.Obviamente si u(x) es continua u < +∞. Proposici´n 7.4 (Teorema de
unicidad local de soluciones) o Sea f (x, y) una funci´n de la clase de
Lipschitz con constante K y sea d (0, 1/K). Si y 1 (x) o e y2 (x) son dos soluciones
del PVI (7.1) deï¬nidas en Id = tales que y1 (x0)
= y2 (x0) = y0 , entonces y1 (x) = y2(x) en todo Id . Sea M = m´x |f (x, y)|. a
(x,y) R
Como f es continua en R, M siempre est´ deï¬nida. a Sea y0 (x) una funci´n
continua deï¬nida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida
en R. Vamos a deï¬nir una sucesi´n de funciones yn (x) de la siguiente forma e
o
x
(7.5)
yn+1 (x) = y0 +
x0
f (ξ, yn (ξ))dξ,
n = 0, 1, 2, . . . .
(7.6)
o o La sucesi´n anterior se conoce como sucesi´n de Picard.
7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS
70
Proposici´n 7.5 Sea y0(x) una funci´n continua deï¬nida en Id = tal que su imagen est´ contenida en R.
Entonces, para todo n ≥ 0, las im´genes e a de yn (x) est´n contenidas en
R. a Proposici´n 7.6 (Teorema de existencia local de soluciones) o Sea y0 (x)
una funci´n continua deï¬nida en Id = tal que su imagen est´contenida en R, i.e., |y0 (x) − y0 | ≤
b. Entonces, la sucesi´n de Picard e o (7.6) converge cuando n tiende a inï¬nito
a una funci´n y(x) que es soluci´n del PVI (7.1) o o en Id . Corolario 7.7
(Teorema local de existencia y unicidad) Sea el PVI (7.1) con f lipschitziana
de constante K en R (7.2), y M = m´x(x,y) R |f (x, y)|. a Entonces, el PVI (7.1) tiene
soluci´n unica en el intervalo Id = , es decir existe una unica funci´n y(x) tal que y (x) = f (x, y(x))
e ´ o y(x0 ) = y0 . Los teoremas anteriores son s´lo condiciones suï¬cientes.
Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n
existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x R cualquiera y tomamos b
> 0 cualquiera tenemos f (x, y) = y, luego f es lipschitziana con constante
K = 1, M = b, y el teorema anterior nos garantiza s´lo la soluci´n en el
intervalo Id = . Como
ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. En este caso
´ la soluci´n es y = tan x deï¬nida s´lo en [0, π/2). Como f (x, y) = 1 +
y 2 , entonces o o |f (x, y) − f (x, z)| = y 2 − z 2 = |y + z||y −
z|. Sea x
R por ejemplo.Escojamos un valor cualquiera para y, digamos que |y| ≤ b
> 0. Entonces K = 2b y M = 1 + b2 , por tanto d = m´ A±n(a, b/M, 1/K) = m´
A±n(a, b/(1 + b2 ), 1/b). 2 Ahora bien, m´x b/(1 + b ) = 1/2 y se alcanza en b
= 1, por lo que como mucho asegurar a que la soluci´n existe en el intervalo
|x| < 1/2. N´tese que en este caso el teorema es util o o ´ pues para x >
1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica. o
a El procedimiento anterior es f´cilmente extensible a sistemas. Para ello
basta deï¬nir una a norma en RN y el valor absoluto de un vector. Para este
ultimo podemos usar la deï¬nici´n ´ o |Y (x)| = N |yk |. Si ahora usamos, por
ejemplo, la norma k=1
N
Y
=
k=1
yk ,
entonces las demostraciones anteriores se adaptan perfectamente para el caso
general. N´tese o o que con esta elecci´n se tiene que si |Y (x)| ≤ M
entonces Y ≤ N M . Las correspondientes demostraciones se dejan como
ejercicio.
7.1.
Problemas
Problema 7.8 Prueba las propiedades anteriores para la norma u . Problema 7.9
Sea la EDO y = x − y 2 con y(0) = 0. Encuentra el intervalo donde se
puede garantizar la existencia y unicidad de la soluci´n. Encuentra las tres
primeras aproximacioo nes de lasoluci´n. o
7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS
71
Problema 7.10 Prueba que la soluci´n de cada uno de los siguientes PVI existe
en el o intervalo indicado 1. y = y 2 + cos x2 , y(0) = 0, x [0, 1/2] 2. y = y 3 + e−5x
, y(0) = 2/5, x
[0, 3/10] 3. y = x + y 2 , y(0) = 0, x [0, 1/2] Problema 7.11 Encuentra las tres primeras
iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e , y(0) = 0.
Problema 7.12 Encuentra las cuatro primeras iteraciones de la sucesi´n de
Picard para el o PVI y = 1 + y 2 , y(0) = 0. Comp´ralas con la soluci´n exacta.
a o
8 LA TRANSFORMADA DE LAPLACE
72
8.
La transformada de Laplace
Deï¬nici´n 8.1 Sea f una funci´n deï¬nida en [0, ∞). La transformada de
Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
∞ 0
e−tx f (x)dx,
(8.1)
donde la integral se entiende en el sentido impropio, o sea
∞ 0 z
e
−tx
f (x)dx = l´ A±m
z→∞
e−tx f (x)dx.
0
Deï¬nici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen
dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo
x ≥ 0. o Teorema 8.3 Si f es una funci´n continua a trozos de orden
exponencial entonces f tienetransformada de Laplace para todo t suï¬cientemente
grande. a En la siguiente tabla incluimos algunas de las transformadas de
Laplace m´s comunes incluida la de la funci´n escal´n χc (s) deï¬nida
como 1 si x
[0, c] y 0 en el resto. o o
f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)
F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a ,
t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct ,
t>0 t
Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t)
= [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y
en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
n−1 k (n−k−1) (0) k=0 t f
8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4.
[χc (x)f (x − c)] = e−ct F(t).
73
[xnf (x)](t) = (−1)n F(n) (t).
5. Deï¬niremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f
g)(x) o o deï¬nida por
x
(f
g)(x) =
0
f (x − z)g(z)dz.
(8.2)
Entonces, [(f
g)(x)](t) = [f (x)](t) · [g(x)](t).
8.1.
Problemas
Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla
8. Problema 8.6 Calcula las transformadas de Laplace de las funciones
xcos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de
las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2
Problema 8.7 Usando los resultados del problema anterior encuentra, usando la
transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0
sen(ωx), y(0) = y (0) = 0.
Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y −
5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) =
1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) =
0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1,
y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1.
Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e
A±tulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de
Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la
soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2
+ 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede
expresar en serie como o Y(t) = c
∞ n=0
(−1)n (2n)! 1 . 22n(n!)2 t2n+1
A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o
o
8 LA TRANSFORMADA DE LAPLACE
74
Problema 8.10 Usarla transformada de Laplace para resolver los siguientes PVI
de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 ,
2 1 , 0 0 .
1 4 1 1
Y (0) =
Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e
A±tulo 3.
3 −2 2 −2
1 − χπ (x) 0
Y (0) =
´ A ANEXO: CALCULO DE PRIMITIVAS
75
A.
Anexo: C´lculo de primitivas a
Deï¬nici´n A.1 Se dice que una funci´n F (x) es una primitiva de otra funci´n
f (x) sobre un o o o intervalo (a, b) si para todo x de (a, b) se tiene que F
(x) = f (x). Por ejemplo, la funci´n F (x) = x2 es una primitiva de f (x) = 2x
en todo R pues (x2 ) = 2x. o El siguiente teorema es una consecuencia trivial
del teorema del valor medio de Lagrange. Teorema A.2 Sean F1 (x) y F2 (x) dos
primitivas de la funci´n f (x) en (a, b). Entonces, para todo o x de (a, b), F1
(x) − F2 (x) = const. Es decir dada una funci´n f (x) sus primitivas diï¬eren
en una o constante (en adelante denotaremos por C a una constante cualquiera).
Deï¬nici´n A.3 El conjunto de todas las primitivas de una funci´n f (x) deï¬nida
en (a, b) se o o denomina integral indeï¬nida de f (x) y se denota por
primitiva de f (x), f (x) dx = F (x) + C Mediante una simple derivaci´n
essencillo comprobar el siguiente o Teorema A.4 (Propiedades de la integral
indeï¬nida.) 1. 2. 3. 4. d dx f (x) dx = f (x) (A.1) f (x) dx. De manera que,
si F (x) es una
dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx
g(x) dx
Teorema A.5 Tabla de Integrales 1. 2. 3. 4. 5. 6. 7. 8. 0 dx = C 1 dx = x + C
xα dx = xα+1 + C, α+1 R, α = −1
1 dx = log |x| + C x ax dx = ax + C, log a a > 0, a = 1
sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x
´ A ANEXO: CALCULO DE PRIMITIVAS
1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc
sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C
76
9. 10. 11. 12. 13. 14. 15. 16. 17.
1 √ dx = log x + 2±1 x
x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx =
sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x
A.1.
A.1.1.
M´todos de integraci´n. e o
Integraci´n por cambio de variable. o
Teorema A.6 Sea t = φ(x) una funci´n derivable en x y sean X = (a, b) el
dominio y T = φ[(a, b)] o la imagen de φ(x). Supongamos que sobre el
conjunto T existe la primitiva de la funci´n g(t), o o sea, g(t)dt = G(t) + C.
Entonces sobre todo el conjunto (a, b) lafunci´n g[φ(x)]φ (x) tiene
una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C.
Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) =
g[φ(x)]φ (x). o Ejemplo A.7 a) Calcular cos(2x) dx. Como la integral
no es de la tabla es necesario convertirla en una de la
tabla. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx =
t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x +
C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2
ecos x sen x dx. Como la integral no es de la tabla es necesario convertirla en
una de
´ A ANEXO: CALCULO DE PRIMITIVAS A.1.2. Integraci´n por partes. o
77
Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a, b)
y existe la primitiva de la funci´n v(x)u (x) en (a, b). Entonces, sobre (a, b)
existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) −
o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x). (A.3) v(x)u (x)
dx, (A.2)
Demostraci´n: Para probarlo es suï¬ciente notar que [u(x)v(x)] = u (x)v(x) +
u(x)v (x) y la o propiedad 1 del teorema A.4. Ejemplo A.8 a) Calcular xn log x
dx. Como la integral no es de la tabla es necesario convertirla en una de la
1 u(x) = log x, du(x) = x dx n+1dv(x) = xn dx, v(x) = x n+1
o tabla. Utilicemos la integraci´n por partes: xn log x dx = xn+1 n+1 = xn+1
log x − n+1 xn dx = n+1
=
log x −
1 n+1
+C
b) Calcular I =
eax cos bx dx. Como la integral no es de la tabla es necesario convertirla en
una u(x) = eax , du(x) = aeax dx dv(x) = cos bx dx, v(x) = 1 sen bx b eax sen
bx a − b b
de la tabla. Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax
sen bx dx.
La integral
eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar
A± u(x) = eax , du(x) = aeax dx dv(x) = sen bx dx, u(x) = − 1 cos bx b I=
eax cos bx a + b b
integraci´n por partes: o eax sen bx dx = =− eax cos bx dx.
Juntando las dos f´rmulas anteriores concluimos que o
eax sen bx a a2 + 2 eax cos bx − 2 I, b b b de donde, resolviendo la
ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C. I = eax cos bx
dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la
integraci´n por partes son: o 1. Las integrales donde aparezcan las funciones
log x, arc sen x, arc cos x, log φ(x), potencias enteras de las funciones
anteriores, entre otras donde tendremos que escoger como funci´n o u(x) a
alguna de lasfunciones anteriores (ver ejemplo a). Las integrales (ax + b)n sen
cx dx, (ax + b)n cos cx dx y (ax + b)n ecx dx. Donde para
2.
encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes
n veces tomando o o cada vez u(x) = (ax + b)n , u(x) = (ax + b)n−1 ,
., respectivamente. 3. Las integrales de la forma eax sen bx dx, eax cos bx
dx, sen(log x) dx y cos(log x) dx.
Para encontrar las primitivas hay que denotar por I a cualquiera de las
integrales anteriores, aplicar dos veces integraci´n por partes y resolver la
ecuaci´n resultante respecto a I (ver o o ejemplo b).
´ A ANEXO: CALCULO DE PRIMITIVAS
78
A.2.
Integraci´n de funciones racionales. o
Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del
polinomio Qm (x), o sea, si n < m. Deï¬nici´n A.9 Diremos que una funci´n
racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x)
y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + , Qm (x) Qm (x)
Teorema A.10 Supongamos que donde k < m.
Pn (x) es una fracci´n simple, y que el polinomio denominador o Qm (x) se puede
factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp
)np (x2 + p1 x + q1 )m1 · · · (x2 + pk x+ qk )mk , (A.4)
donde x1 , , xp son las ra´ces reales de Qm (x), y los factores x2 + pi x + qi
, i = 1, .., k no tienen A± Pn (x) ra´ces reales. Entonces, la fracci´n simple
A± o se puede descomponer en las siguientes fracciones Qm (x) elementales
simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1
)n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· +
+ ···+ np np −1 (x − xp ) (x − xp ) (x − xp )
(A.5)
M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x +
q1 ) + (x2 L1 x + K 1 L mk x + K mk , + ··· + 2 mk + pk x + q k ) (x + pk x +
qk )
donde Ai , Bi , Mi , Ni , Li y Ki son ciertas constantes reales. Para
determinar dichas constantes sumamos los t´rminos de la derecha. N´tese que el
denominador e o com´ n coincide con (A.4) y el numerador es un polinomio de
grado a lo sumo n. Luego comparamos u el polinomio numerador que se obtiene al
sumar las fracciones m´s simples en (A.5) con P n (x). a Igualando los coeï¬cientes
de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos
resolver para encontrar los coeï¬cientes indeterminados A i , Bi , Mi , Ni ,
Li y Ki . No obstante es posible encontrar el coeï¬ciente Ani de los
sumandoscorrespondientes a uno de los ceros reales xi , o sea, el Ani de A ni
Ani −1 A1 + + ··· + , ni ni −1 (x − xi ) (x − xi ) (x −
xi ) utilizando la propiedad que
x→xi
l´ A±m
Pn (x)(x − xi )ni = A ni . Qm (x)
(A.6)
Como consecuencia de lo anterior, si Qm (x) tiene m ceros reales y simples, o
sea, si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2
) · · · (x − xm−1 )(x − xm ), (A.7) entonces, Pn (x) se puede
descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1
Am = + + ··· + + , Qm (x) (x − x1 ) (x − x2 ) (x − xm−1
) (x − xm )
(A.8)
´ A ANEXO: CALCULO DE PRIMITIVAS
donde A1 ,, Am se calculan por la f´rmula o Ak = l´ A±m
x→xk
79
Pn (x)(x − xk ) , Qm (x)
k = 1, 2, , m.
7
(A.9)
Teorema A.11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A
dx = A log |x − a| + C; x−a B 1 B dx = + C, k (x − a) 1 −
k (x − a)k−1 k > 1;
(A.10)
3)
M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C. 2 x2 + px +
q 2 4q − p 4q − p2 x dx. Primero encontraremos las fracciones
simples mas elementales: − 3x + 2 x2 x x A B = = + . − 3x + 2 (x −
1)(x − 2) x−1 x−2 x(x − 2) = 2. (x − 1)(x −
2)
Ejemplo A.12 a) Calcular x2
Luego, utilizando(A.9) obtenemos A = l´ A±m x(x − 1) = −1, (x −
1)(x − 2) −1 2 + x−1 x−2 B = l´ A±m
x→1
x→2
Finalmente, utilizando (A.10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx
= − log |x − 1| + 2 log |x − 2| + C.
x dx. Primero encontraremos las fracciones simples mas elementales: (x −
1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x −
1 x +1
A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . (x − 1)2
(x2 + 1)
Para encontrar los coeï¬cientes A, B, C, D igualamos los polinomios de los numeradores:
x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . Dos
polinomios de grado 3 son iguales si los coeï¬cientes de las potencias x 3 ,
x2 , x y x0 son iguales, por lo que igualando dichos coeï¬cientes obtenemos el
sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 :
B + C − 2D = 1 : A−B +D = 0
1 A= 2 B=0 C=0 D = −1 2
cuya soluci´n es o
Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de
grado n que toman e n − 1 valores iguales en n + 1 puntos dados son
id´nticamente iguales, es decir, si P n (xk ) = Qn (xk ) e para ciertos x1 ,
, xn+1 (distintos entre si), entonces Pn (x) ≡ Qn (x) para todo x R. En nuestro
7
Se supone que x2 + px + q no tienera´ reales. A±ces
´ A ANEXO: CALCULO DE PRIMITIVAS
80
ejemplo es conveniente tomar como los xk los ceros de los polinomios
denominadores y luego el resto de los valores tomarlos los m´s sencillos
posibles: a
1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A +
5B + 2C + D = 2 x=0: A−B +D = 0
cuya soluci´n es o
A= 1 2 B=0 C=0 1 D = −2
que coincide con la encontrada por el m´todo anterior. Luego, e x 1 dx = (x −
1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. (x −
1)2 x2 + 1 2(x − 1) 2
A.3.
Integrales trigonom´tricas. e
f (sen x, cos x) dx las cuales se
En este apartado vamos a estudiar las integrales de la forma   t = tan x
 2   sen x =     
convierten en integrales racionales mediante la sustituci´n trigonom´trica t =
tan x , o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 , 1 +
t2 1 + t2 2 dt, 1 + t2
f (sen x, cos x) dx =
2t 1 + t2
=
f
que es un integral de una funci´n racional. o
Ejemplo A.13 Calcular la integral dx = sen x dx . sen x
2dt dx = 1+t2 2 cos x = 1−t2 1+t
t = tan x 2 2t sen x = 1+t2
=
x dt = log |t| + C = log tan + C. t 2
Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar
con cambios m´s ea sencillos. Ellas son las siguientes: 1. 2. 3. f (sen x, cos
x) dx, donde f (− sen x, cos x) = −f (sen x, cos x), cambio t = cos
x f (sen x, cos x) dx, donde f (sen x, − cos x) = −f (sen x, cos
x), cambio t = sen x f (sen x, cos x) dx, donde f (− sen x, − cos
x) = f (sen x, cos x), cambio t = tan x
Ejemplo A.14 a) Calcular la integral dx = sen x dx . Esta integral es del tipo
1. Luego, sen x =− 1 x 1+t dt = − log +C = log tan +C. 2 1−t
2 1−t 2
x 2
dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x
= t
que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o
´ A ANEXO: CALCULO DE PRIMITIVAS
81
b) Calcular la integral
cos3 x dx. Esta integral es del tipo 2. Luego, sen3 x 1 +C. 1 − t2 dt = t−
t3 +C = sen x− 3 3
cos3 x dx =
dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t
=
c) Calcular la integral
tan3 x dx. Esta integral es del tipo 3. Luego, t = tan x 1 cos x = √1+t2
dt dx = 1+t2 t sen x = √1+t2
tan3 x dx =
=
t3 dt = 1 + t2
t−
t dt = 1 + t2
=
t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = +
log | cos x| + C. 2 2 2 2 2
A.4.
y f x,
Integrales irracionales.
n
En este apartado vamos a estudiar lasintegrales de la forma
ax+b cx+d
dx.
√ f (x, x2 ± a2 ) dx,
√ f (x, a2 − x2 ) dx
A.4.1.
Las integrales
√ f (x, x2 ± a2) dx y
√ f (x, a2 − x2) dx.
Estas integrales irracionales se convierten en integrales trigonom´tricas
mediante los cambios: e 1. 2. 3. f (x, f (x, f (x, a2 − x2 ) dx, cambio x
= a sen t x2 − a2 ) dx, cambio x = a sen t
x2 + a2 ) dx, cambio x = a tan t
Ejemplo A.15 a) Calcular la integral a2 − x2 dx. Esta integral es del
tipo 1. Luego, x = a sen t dx = a cos tdt = a2
2x a2
a2 − x2 dx =
cos2 tdt =
a2 a2 t+ sen 2t + C, 2 4
√ pero, sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2
dx = b) Calcular la integral   x=
√ a2 − x2 , por tanto a2 − x2 + C.
a2 x x arc sen + 2 a 2
x2 − a2 dx. Esta integral es del tipo 2. Luego, cos2 t dt = sen3 t y =
cos t sen t = 1− y2 dt = − √ dy cos t = y + C,
1−y 2
= a2
 a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt 
sen2 t a2 y2 dt = (1−y 2 )2 4
y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y)
(1+y) (1+y) 4 1−y y+1
´ A ANEXO: CALCULO DE PRIMITIVAS
pero, y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 −
√ x2 −a2 , x
82
por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C.
x = 2
√ x − x 2 − a2x a2 √ log +C = 2 − a2 4 2 x+ x
c) Calcular la integral
x2 + a2 dx. Esta integral es del tipo 3. Luego, x = a tan t dt dx = cos2 t 1 dt
= cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C,
x2
+ a2 dx
=
=a
2
1−y 2
= a2
a2 1 dt = (1 − y 2 )2 4
√ tan t 1+tan2 t
y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4
1−y y−1 =
√ x , x2 +a2
pero, y = sen t =
por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C.
x x2 + a2 dx = 2
√ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x
A.4.2.
Las integrales
f
x,
n
ax + b cx + d
dx.
Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A.16
Calcular la integral √ dx √ . Esta integral se racionaliza con el
cambio t = 3 x + 1. Luego, 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3
(t−1)dt+3 = t(t−2)+3 log(1+t)+C, =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+
x+1 √ de donde, deshaciendo el cambio t = 3 x + 1, obtenemos √ √
3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C. 2 El c´lculo de
primitivas es necesario para calcular integrales deï¬nidas de funciones
continuas. a Teorema A.17 Teorema fundamental del c´lculo y F´rmula de
Newton-Leibniz. Sea f : [a, b] → R a o continua en [a, b].Entonces f
tiene primitiva en [a, b] y una de ellas es la funci´n o
x
n
x,
n
ax + b cx + d
dx,
ax+b cx+d .
F (x) =
c
f (t) dt,
c
(a, b).
(A.11)
Adem´s, f (x) es integrable en [a, b] y a
b b
f (x) dx = Φ(x)
a a
= Φ(b) − Φ(a),
(A.12)
siendo Φ(x) una primitiva cualquiera de f (x).
´ B ANEXO: ALGEBRA LINEAL
83
B.
B.1.
´ Anexo: Algebra lineal
Sistemas lineales y matrices.
Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si
dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m
xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B.1) . .
 .    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de
dimensiones n×m no es m´s que una “caja rectangular” con n ï¬las y m columnas.
a El sistema de ecuaciones (B.1) est´ completamente caracterizado por su matriz
asociada que no a es m´s que la matriz en cuya ï¬la i (i = 1, 2, , n) est´n
colocados los coeï¬cientes a ij (j = 1, 2, , m) a a y el t´rmino
independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B.1). De
esta forma e e o la matriz asociada al sistema (B.1) tendr´ la forma a  
a11 a12 a13 · · · a1m b1  a21 a22 a23 · ·· a2m b2    , (B.2)  .
. . . . .. . .  . . ï£ . . .  . . . . an1 an2 an3 · · · anm bn la matriz
a13 · · · a1m a23 · · · a2m . . .. . . . . . an3 · · · anm 
se le denomina matriz de coeï¬cientes del sistema.
y se denomina matriz ampliada del sistema. A  a11 a12  a21 a22   .
. . . ï£ . . an1 an2
  , 
(B.3)
Un sistema lineal de la forma (B.1) es compatible si existen los valores de x 1
, x2 , , xm tales que se cumplan todas y cada una de las ecuaciones del
sistema (B.1). Si existen dichos valores diremos que el sistema tiene soluci´n.
Si un sistema lineal de la forma (B.1) no tiene soluci´n decimos que es o o un
sistema incompatible. Un sistema compatible que tiene una unica soluci´n se
llama determinado ´ o y si tiene inï¬nitas soluciones indeterminado. Dos
sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de
soluciones. Un sistema de ecuaciones lineales se puede transformar en otro
sistema equivalente mediante las siguientes operaciones elementales: 1. 2. 3.
Intercambiar dos ecuaciones. Multiplicar por una constante no nula una ecuaci´n
cualquiera. o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de
cualquier otra ecuaci´n. o e u oDada la equivalencia de los sistemas lineales
con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores
tienen su an´logo al operar con las matrices. De forma que a cada una a le
corresponden las siguientes operaciones por ï¬las 1. 2. Intercambiar dos
ï¬las. Multiplicar por una constante no nula una ï¬la cualquiera.
´ B ANEXO: ALGEBRA LINEAL
3.
84
Reemplazar una ï¬la por la suma de ´sta mas un m´ ltiplo de cualquier otra ï¬la.
e u
Las operaciones anteriores se denominan operaciones elementales de ï¬las. Diremos
que dos matrices son equivalentes por ï¬las si a cualquiera de ellas la
podemos transformar en la otra utilizando s´lo operaciones elementales de ï¬las.
Es importante recordar que las o operaciones elementales de ï¬las son
reversibles y por tanto las operaciones elementales descritas no cambian la
soluci´n del sistema original de ecuaciones. o
B.2.
Formas escalonadas y el algoritmo de reducci´n por ï¬las. o
En adelante diremos que una ï¬la es una ï¬la no nula si tiene al menos un
elemento diferente de cero. Deï¬niremos elemento gu´ de una ï¬la al primer
elemento (por la izquierda) no nulo de la ï¬la. A±a Diremos que una matriz est´
en forma escalonada si: a 1. 2. 3. Todas lasï¬las no nulas est´n por encima de
las nulas. a El elemento gu´a de cada ï¬la se encuentra siempre en una columna
a la derecha del elemento A± gu´ de la ï¬la anterior. A±a Debajo de cada
elemento gu´ s´lo puede haber ceros. A±a o t´ A±picamente la forma:    0 0 0 0 0 0
denota a los elementos gu´ de cada ï¬la. Si exigimos ahora que los elementos
gu´ A±as A±as donde sean todos iguales a 1, y que adem´s sean los unicos
elementos diferentes de cero de la columna a ´ entonces diremos que la matriz
escalonada est´ en forma reducida. Utilizando las formas escalonadas a
anteriores (B.4) tenemos que sus correspondientes formas reducidas son:  
  1 0 0 0 0 . (B.5)   
 ï£ 0 0 0 1 0 0 0 0 0 0 0 0 Cualquier matriz puede ser
transformada mediante transformaciones elementales de ï¬la en una matriz con
forma escalonada no teniendo siempre ´sta ultima una forma unica. Por el
contrario las e ´ ´ formas escalonadas reducidas son unicas, es decir se cumple
el siguiente teorema: ´ Teorema B.1 Cualquier matriz es equivalente por ï¬las
a una unica matriz conforma escalonada ´ reducida. Una consecuencia del teorema
anterior es que los elementos gu´ est´n siempre en la misma A±as a posici´n en
cualquiera de las formas escalonadas obtenidas de una matriz dada mediante
transo formaciones elementales de ï¬la. Dichas posiciones se denominan pivotes
y las columnas donde se
Las matrices escalonadas tienen 

  ,  
(B.4)
´ B ANEXO: ALGEBRA LINEAL
85
encuentran se denominan columnas pivotes. As´ por ejemplo A±, pivote ↓

 ï£ 0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote
Algoritmo de reducci´n por ï¬las. o El algoritmo de reducci´n por ï¬las
consta de dos fases (partes). La primera consiste en transo formar una matriz
cualquiera en una equivalente por ï¬las con forma escalonada. Esta fase se le
denomina fase hacia abajo o subproceso hacia abajo. La segunda parte consiste
en transformar la forma escalonada en la forma reducida. A la segunda parte se
le denomina fase hacia arriba o subproceso hacia arriba. Para obtener la matriz
en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. Este
proceso constade cuatro pasos: 1. 2. 3. 4. Se comienza por la primera columna de
la izquierda (generalmente es una columna pivote) y se selecciona un elemento
diferente de cero. Este ser´ el primer pivote. a Se coloca el elemento
seleccionado en el extremo superior izquierdo intercambiando, si es preciso,
las ï¬las de la matriz hasta que dicho elemento se encuentre en la posici´n de
pivote. o Utilizando las operaciones elementales de ï¬las crear ceros debajo
del pivote. Tapamos la ï¬la (o ï¬las si hay m´s de una) con la posici´n
pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la
submatriz que nos queda (constituida por las ï¬las restantes). Este paso se
repite hasta que no queden m´s ï¬las no nulas. a
0

  .  
(B.6)
Para obtener la matriz en forma escalonada reducida a partir de la forma
reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente:
Subproceso hacia arriba. Este proceso consta del siguiente paso: 5. Comenzando
por el primer pivote de la derecha creamos, mediante operaciones elementales de
ï¬las, ceros encima del mismo. Si el pivote no es uno dividimos por su valor
para que lo sea. Continuamos el proceso hacia la izquierda hasta terminar con
elprimer pivote de la izquierda.
B.3.
Soluci´n de un sistema de ecuaciones lineales. o
La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir
de la matriz o asociada al sistema. Para ello primero transformamos la matriz
en una equivalente por ï¬las que tenga forma escalonada o escalonada reducida.
Las variables correspondientes a las columnas pivote se denominan variables
principales o b´sicas. El resto de las variables se denominan variables libres.
a El signiï¬cado de una variable libre es que dicha variable puede tomar
cualquier valor. La soluci´n o de un sistema viene dada al escribir el valor de
las variables principales, las cuales pueden venir expresadas en funci´n de las
variables libres. o
´ B ANEXO: ALGEBRA LINEAL
86
Por ejemplo, consideremos la matriz del sistema (B.6). Dicha matriz representa
un sistema de 5 ecuaciones con 6 inc´gnitas. Las variables principales ser´n x
1 , x2 , x5 , x6 y las libres x3 , x4 . De o a la forma de la matriz observamos
que x5 , x6 est´n completamente determinados por los t´rminos a e
independientes (recordar que la ultima columna est´ compuesta por los t´rminos
independientes ´ a e de las ecuaciones) pero x1 , x2 dependen tantode los t´rminos
independiente como de las variables e libres x3 , x4 . Es decir ï¬jando
diferentes valores de x3 , x4 obtenemos diferentes valores de x1 , x2 . Por
ejemplo, el sistema (x1 depende de la variable libre x3 )    1 0 −5
1  x1 = 1 + 5x3 ï£ 0 1 0 4  tiene la soluci´n o x2 = 4 (B.7)  x3 es
libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia
y unicidad: Teorema B.2 Un sistema de ecuaciones lineales en compatible si y s´lo
si la primera columna de o la derecha de la matriz ampliada del sistema no es
una columna pivote, o sea, no existe ninguna ï¬la de la forma (0 0 0 · · · 0
α) con α diferente de cero. Si el sistema es compatible entonces
tiene soluci´n unica (sistema compatible determinado) si no hay ninguna
variable libre y tiene inï¬nitas o ´ soluciones (sistema compatible
indeterminado) si existe al menos una variable libre. Por ejemplo, los sistemas
correspondientes a las dos matrices (B.4) son compatibles siendo el
correspondiente a la primera matriz indeterminado (tiene dos variables libres)
y el segundo determinado (no tiene variables libres). Por el contrario el
sistema correspondiente a la matriz       0 0 0 0 (B.8) ,    ï£0 0
0 0 0 0 0 0 0 0 0 0 0
es incompatible al ser la ultima columna una columna pivote, o lo que es igual,
al tener la ï¬la ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que
por deï¬nici´n es diferente de cero). A±a o
B.4.
B.4.1.
Vectores y ecuaciones matriciales.
Vectores de Rn
Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a
u   x1  x2    x =  . , donde x1 , , xn son n´ meros
reales. u ï£ .  . xn
es decir un vector es una matriz de componentes) del vector x. Diremos iguales,
o sea  x1  x2  x=y  . ï£ . .
n × 1. Los valores x1 , , xn se denominan coordenadas (o que dos vectores
son iguales si todas sus componentes son   y1 y2 . . . yn    

xn
Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero.
    =  ï£
x1 = y1 , , xn = yn .
´ B ANEXO: ALGEBRA LINEAL B.4.2. Operaciones con vectores.
87
Dichas operaciones cumplen las propiedades 1. 2. 3. 4. 5. 6. 7. 8. x+y = y+x (x
+ y) + z = x + (y + z) x+0 = 0+x = x
y deï¬niremos la multiplicaci´n de un vector x por un escalar (n´ mero) α
al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de
x porα, o sea,     w1 αx1  w2   αx2  
   w = αx =  .  =  . . ï£ .  ï£ .  . . wn
αxn
Sean x, y, z, w vectores de Rn y α, β n´ meros reales. Deï¬niremos
la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma
de las coordenadas de x e y, o sea,         x1 + y1 y1
x1 z1  z2   x 2   y 2   x 2 + y 2      
   z = x+y = ,  .  =  . + .  =  . . .
 ï£ .  ï£ .  ï£ .  ï£ . . . zn xn yn xn + yn
x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1)
x α(x + y) = αx + αy (α + β)x = αx + βx
α(βx) = (αβ)x 1x = x
Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 , a2 ,
, an de Rm con o pesos α1 , , αn , n´ meros reales,
respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + ·
· · + α n an . Deï¬niremos espacio generado por los vectores a1 , a2 ,
, an de Rm y lo denotaremos como span (a1 , , an ) = L(a1 , , an ) al
subespacio de Rm constituido por todos las combinaciones lineales de los
vectores a1 , a2 , , an , es decir, al conjunto de todos los vectores de la
forma L(a1 , , an ) = span (a1 , , an ) = α1 a1 + α2 a2 + · · ·
+ αn an , quienes quiera sean α1 , , αn n´ meros reales.
uDeï¬niremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2
a2 + · · · + xn an = b, donde b es un vector dado de Rm y x1 , x2 , , xn son
las inc´gnitas que se quieren encontrar. Es f´cil o a comprobar que la ecuaci´n
vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o
lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b]. Adem´s b est´
en span (a1 , , an ) si y s´lo si el sistema [a1 a2 · · · an b] es
compatible. a a o
´ B ANEXO: ALGEBRA LINEAL B.4.3. La ecuaci´n Ax = b. o
88
Sea A una matriz m × n con columnas a1 , a2 , , an (vectores de Rm ) y x un
vector de Rn . Deï¬niremos la multiplicaci´n de una matriz A de m × n por un
vector x de R n al vector z de Rm o deï¬nido por   x1  x2   
z = Ax = [a1 a2 · · · an ]  .  = x1 a1 + x2 a2 + · · · + xn an . ï£ .
 . xn Teorema B.3 Sea A una matriz m×n con columnas a1 , a2 , , an y b un
vector de Rm . La ecuaci´n o matricial Ax = b
tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · +
xn an = b, la cual a su vez tiene la misma soluci´n que el sistema cuya matriz
ampliada tiene la forma o [a1 a2 · · · an b].
Una consecuencia de este teorema es que la ecuaci´n A x = b tienesoluci´n si y
s´lo si b es una o o o combinaci´n lineal de las columnas de A. o Teorema B.4
Sea A una matriz m×n con columnas a1 , a2 , , an . Las siguientes tres aï¬rmaciones
son equivalentes: 1) Para todo b vector de Rm , la ecuaci´n A x = b tiene
soluci´n. o o 2) Las columnas de A generan Rm , o sea, Rm = Span(a1, a2 , ,
an ). 3) A tiene una posici´n pivote en cada ï¬la. o Regla para el c´lculo de
Ax. Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´
deï¬nido) tenemos que sumar los productos de la i−´sima ï¬la de A por
las coordenadas de x, a e o sea,      a11 a12 a13 · · · a1n
x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2 
 a21 x1 + a22 x2 + · · · + a2n xn        .  . . .
 .  =  . .. . . . . ï£¸ï£ .  ï£ . ï£ .  . . . . . . am1
am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn
Teorema B.5 Sea A una matriz m × n con columnas a1 , a2 , , an , x, y
vectores de Rn y α un n´mero real cualquiera. Las siguientes propiedades
son v´lidas: u a 1) A (x + y) = A x + A y, 2) A(α x) = α (A x)
´ B ANEXO: ALGEBRA LINEAL B.4.4.
89
Conjunto soluci´n de los sistemas lineales. o
Todo sistema lineal de m ecuaciones con n inc´gnitas se puedeescribir en forma
matricial o A x = b donde la matriz de coeï¬cientes A es una matriz m × n, x
es un vector de R n y b es un vector de Rm .
1.
El sistema lineal A x = 0 se denomina sistema homog´neo. Dicho sistema siempre
tiene la e soluci´n trivial x = 0. Adem´s se cumple que el sistema homog´neo
tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una
variable libre, o sea la matriz A tiene al menos o una columna que no es
pivote. o e El conjunto soluci´n de un sistema homog´neo se escribe como el
conjunto de todas las combinaciones lineales de ciertos vectores s1 , s2 , ,
sp cuyo n´ mero coincide con el de las u variables libres del sistema. Para obtener
los vectores s1 , s2 , , sp se puede hacer lo siguiente: 1) Escribir el
vector soluci´n x expresando las variables principales en funci´n de las
libres. o o 2) El vector s1 se obtiene del vector x anterior al sustituir la
primera variable libre por 1 y las dem´s por cero. El segundo vector s2 se
obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y
las dem´s por cero. Y as´ sucesivamente. a A± Por ejemplo si la soluci´n x de A
x = 0 viene dada por (dos variables libres x 2 , x3 ) o  3   3  
 1  1 x1 x − 2 x3 −2 2 2 2 ï£ ï£¸ , entonces ï£ x2  =
x2 ï£ 1  +x3 ï£ 0  x2 x3 x3 0 1
s1 s2
2.
El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo. e Teorema
B.6 Supongamos que A x = b tiene soluci´n para cierto b de R m . Sea p una o
soluci´n de A x = b (soluci´n particular). Entonces el conjunto soluci´n del
sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R
de la forma e x = p + xh , donde xh es la soluci´n general del sistema
homog´neo correspondiente A x h = 0. o e (B.9)
B.4.5.
Dependencia e independencia lineal.
Un conjunto de vectores a1 , a2 , , an de Rn se denomina linealmente
independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0,
tiene como unica soluci´n la trivial x1 = · · · = xn = 0. ´ o Un conjunto de
vectores a1 , a2 , , an se denomina linealmente dependiente si existen los
valores x1 , x2 , · · · , xn no todos iguales a cero tales que se veriï¬que la
ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. Teorema B.7 Un conjunto
S = de dos o m´s vectores es linealmente dependiente a si
y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de
los dem´s. o o a Comoconsecuencia del teorema anterior se deduce que: 1) Dos
vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales,
es decir, si o existe un n´ mero real α tal que a1 = αa2 o a2 =
αa1 . u
´ B ANEXO: ALGEBRA LINEAL
90
2) Si a1 , a2 , , an son vectores linealmente dependientes y a1 = 0 entonces
para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores, es
decir, o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 . NOTA: Esto no
implica que si tenemos un conjunto de vectores linealmente dependientes a 1 ,
a2 , , an necesariamente cada vector es combinaci´n de los anteriores. o
Teorema B.8 Un conjunto S = de dos o m´s vectores de Rm
con n > m es a necesariamente un conjunto linealmente dependiente. Teorema
B.9 Un conjunto S = de dos o m´s vectores de Rm con alguno
de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto
de vectores linealmente dependientes, o sea si alguno de los vectores de S es
el vector nulo entonces S es un conjunto de vectores linealmente dependientes.
B.5.
´ Algebra de matrices.
Vamos a estudiar las operaciones elementales de las matrices. El elemento a ij
de una matriz A es el que seencuentra situado en la intercepci´n de la ï¬la i
con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n .
. . .. . . . . . . . · · · aij · · · ain . . . .. . . . . . . . · · · amj · · ·
amn
     ï¬la i →  ai1 ai2   . . . ï£ . . . am1 am2

a11 a21 . . .
a12 a22 . . .

    .    
(B.10)
B.5.1.
Suma de matrices y multiplicaci´n por un escalar. o
o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||.
Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de
m × n. Deï¬niremos el producto de una matriz por un escalar a la matriz cuyas
columnas coinciden con las de A multiplicadas por α, es decir: αA =
α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ], o bien α A ≡
α||aij || = ||α aij ||. Teorema B.10 Sean A, B y C matrices de m × n
y α, β n´meros reales. Entonces: u 1. 2. 3. 4. 5. 6. A + B = B + A.
(A + B) + C = A + (B + C). A + 0 = 0 + A = A, donde 0 ≡ ||0|| es la
matriz nula. α(A + B) = αA + αB. (α + β)A = α A +
β A. α(β A) = (α β) A.
Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n,
donde a1 , a2 , , an y b1 , b2 , , bn son vectores de Rm . Deï¬niremos
la suma de dos matrices A y B a lamatriz C cuyos vectores columnas coinciden
con la suma de los correspondientes vectores columnas de A y B, es decir: C = A
+ B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ],
´ B ANEXO: ALGEBRA LINEAL B.5.2. Multiplicaci´n de matrices. o
91
Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p. Se
deï¬ne la matriz producto C = A · B a la matriz de m × p deï¬nida por: A · B
= A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ], o elemento a elemento: ||(A · B)ij
|| =
n n
(B.11)
aik bkj .
k=1
N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de
A: o o
n n
A · B = [Ab1 Ab2 · · · Abp ] = [
bk1 ak
k=1 k=1
bk2 ak · · ·
bkp ak ].
k=1
Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la
composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R
una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una
aplicaci´n lineal con matriz B de n × p, entonces a la aplicaci´n Q : R p −→
Rm deï¬nida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la
matriz A · B de m × p. o Teorema B.11 Sean A de m × n, B y C matrices de
dimensiones apropiadas para que est´n e deï¬nidas lasoperaciones y α,
β n´meros reales. Entonces: u 1. 2. 3. 4. 5. 6. (A · B) · C = A · (B · C).
A · 0 = 0 · A = 0, donde 0 ≡ ||0|| es la matriz nula. A · (B + C) = A · B
+ A · C. (B + C) · A = B · A + C · A. α(A · B) = (α · A) · B. Im · A
= A · In = A, donde Ik es la matriz identidad de k × k.
Es importante recordar que la multiplicaci´n de matrices no es conmutativa, es
decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A . Si
A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0, 1,
2, ), u deï¬niremos la potencia k− ´sima de A por la f´rmula e o Ak =
A · A · · · A ·In , k veces donde A0 ≡ In .
B.5.3.
Transposici´n de matrices. o
Dada una matriz A de m × n, la matriz transpuesta de A, que denotaremos por A T
, es la matriz de n × m cuyas ï¬las coinciden con las columnas de A. Si A =
||a ij ||, entonces AT = ||aji ||. Teorema B.12 Sean A de m×n, B una matriz de
dimensiones apropiadas para que est´n deï¬nidas e las operaciones y α un
n´mero real. Entonces: u 1. 2. 3. 4. (AT )T = A. (A + B)T = AT + B T . (α
A)T = α AT . (A · B)T = B T · AT . (A1 · A2 · · · An )T = AT · AT · · · AT
. 1 n−1 n
Como consecuencia de este teorema tenemos que
´ B ANEXO: ALGEBRALINEAL B.5.4. La inversa de una matriz cuadrada.
92
Sea A una matriz de n × n. Si existe una matriz C tal que A · C = In , C · A =
In ,
entonces a C se le denomina matriz inversa de A y se le denota A −1 . Las
matrices A para las cuales existe la inversa A−1 se denominan
invertibles. Si A es invertible entonces A−1 es unica. ´ Teorema B.13 Sea
A una matriz cuadrada de 2 × 2 invertible A= a b c d , entonces A−1 = 1
ad − bc d −b −c a .
El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le
denota por det A. N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo
si det A = 0. o Teorema B.14 Sea A una matriz cuadrada de n × n invertible.
Entonces el sistema A x = b es compatible determinado para cualquiera sea b
vector de R n , y su soluci´n se expresa por la f´rmula o o −1 b. x=A
Teorema B.15 Sean A y B matrices cuadradas de n × n invertibles. Entonces: 1.
2. 3. (A−1 )−1 = A. (A · B)−1 = B −1 · A−1 . AT
es invertible y (AT )−1 = (A−1 )T .
Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1
· A−1 · · · A−1 . n n−1 1
B.5.5.
Matrices elementales.
Una matriz elemental de n × n es aquella que se obtiene al realizar una
operaci´n elemental o de ï¬lassobre la matriz identidad de n × n, es decir son
las que se obtienen al intercambiar dos ï¬las, al multiplicar por una
constante no nula una ï¬la cualquiera y al reemplazar una ï¬la por la suma de
´sta mas una combinaci´n lineal de cualquier otra. Por ejemplo, la matriz
elemental e o correspondiente al intercambio de la 1 y 2 ï¬las de una matriz
de 3 × 3 ser´ a   0 1 0 ï£ 1 0 0 , E1 = 0 0 1 la que corresponde a
cambiar la 3 ï¬la por la 3 m´s α a  1 0 ï£ 0 1 E2 = α 0 veces la
primera ser´ a  0 0 , 1
y la que multiplica la 2 ï¬la por el n´ mero α ser´ u a   1 0 0 E3
= ï£ 0 α 0  . 0 0 1
Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera
A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A
al intercambiar la 1 y 2 ï¬las.
´ B ANEXO: ALGEBRA LINEAL
93
An´logamente, E2 · A coincide con la matriz que se obtiene de A al cambiar la 3
ï¬la por la 3 m´s α a a veces la 1 ï¬la y E3 · A coincide con la matriz
que se obtiene al multiplicar por α la 2 ï¬la. Es decir al multiplicar
una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E ·
A que coincide con la matriz que se se obtiene al realizar la operaci´n
elemental sobre A y dichamatriz o E se obtiene realizando sobre la matriz
identidad Im de m × m la misma operaci´n elemental que o se quiere realizar
sobre A. Puesto que todas las operaciones elementales son invertibles ello
implica que las matrices elementales son invertibles y la inversa de E se
obtiene realizando sobre la matriz identidad Im la operaci´n inversa. Por
ejemplo, la inversa de E1 es E1 . La inversa de E2 es o   1 0 0 −1
E2 = ï£ 0 1 0  , −α 0 1 y la de E3 es  −1 E3 = ï£ 0
 1 0 0 1 α 0 0 1  0 . 
Teorema B.16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es
equivalente por o ï¬las a la matriz identidad In de n × n en cuyo caso toda
secuencia de operaciones elementales que reducen A a In , reducen In a A−1
. Ello implica que A Ek · Ek−1 · · · E1 · A = In . Luego A = (Ek
· Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1
· · · E1 · In . Como consecuencia de este teorema se tiene el siguiente
algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1.
2. Construimos la matriz [A In ]. Reducimos por ï¬las la matriz A a In ,
entonces [A In ] [In A−1 ].
N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz
B tal que o A · B = I, o sea, A[b1 · · · bn ] = [Ab1 · · · A bn ] = [e1 · · ·
en ] = In . Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 , A
b 2 = e2 , · · · A b n = en , donde e1 , , en son las columnas de la matriz
identidad.
Teorema B.17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de
n × n. Las o siguientes expresiones son equivalentes: 1. 2. 3. 4. 5. 6. 7. A es
invertible. A es equivalente por ï¬las a la matriz identidad In de n × n. (A
tiene n posiciones pivote) A es un producto de matrices elementales. La
ecuaci´n A x = 0 solo tiene la soluci´n trivial. (Las columnas de A son
linealmente o o independientes.) La ecuaci´n A x = b tiene al menos una
soluci´n para cada b vector de R n , o sea, b es un o o elemento del subespacio
generado por las columnas de A (la soluci´n de A x = b es unica). o ´ Existe un
C tal que A · C = I. Existe un D tal que D · A = I.
´ B ANEXO: ALGEBRA LINEAL
8. AT es invertible.
94
Una consecuencia de este teorema es que si A · B = I o B · A = I, entonces A y
B son invertibles y A = B −1 , B = A−1 .
B.6.
B.6.1.
Determinantes.
Deï¬nici´n de determinante de una matriz cuadrada. o
Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j . .
. . . .
Sea A una matriz n×n(n ≥ 2). El determinante det A de la matriz A es la
suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera
ï¬la de A y A1j son las correspondientes submatrices obtenidas eliminando la
ï¬la 1 y la columna j. M´s exactamente: a det A = a11 det A11 − a12 det
A12 + · · · + a1n (−1)n+1 det A1n , donde suponemos que det a = a si a es
un n´ mero real cualquiera. u o Utilizando la deï¬nici´n anterior obtenemos
para una matriz 2 × 2 el resultado: det A = a11 a12 a21 a22 = a11 a22 −
a21 a12 , (B.13)
Denotaremos por Aij a la submatriz que j, o sea  a11 a12  . . .  . .
 .  ai−11 ai−12 Aij =   ai+11 ai+12   . . . ï£ .
. . an1 an2
      ai−11 ai−12  ai2 ï¬la i →  ai1
  a  i+11 ai+12  . . . ï£ . . . an1 an2

a11 a21 . . .
a12 a22 . . .
··· ··· .. .
a1j+1 a2j+1 . . .
··· ··· .. .
a1n a2n . . .

· · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1
ai+1j . . .. . . . . . · · · anj−1 anj
ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n . . .. . .
. . . anj+1 · · · ann · · · a1n . .. . . . · · · ai−1n · · · ai+1n . . .
. . . · · · ann 
se obtiene a partir de A si quitamos la ï¬la i y la columna · · · a1j−1
a1j+1 . . .. . . . . . · · · ai−1j−1ai−1j+1 · · · ai+1j−1
ai+1j+1 . .. .. . . . . · · · anj−1 anj+1     .  
 
      .      
(B.12)
que coincide con el determinante deï¬nido en el cap´ A±tulo anterior (teorema
B.13). Usualmente a la cantidad (−1)i+j det Aij se le conoce como
cofactor (o menor) asociado al elemento aij . Utilizando esta notaci´n tenemos
que la deï¬nici´n anterior se puede reescribir de la o o forma: det A = a11
C11 + a12 C12 + · · · + a1n C1n , que se conoce como desarrollo del
determinante de A por su primera ï¬la.
´ B ANEXO: ALGEBRA LINEAL
Teorema B.18 Si A es de n × n entonces:
95
det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . Las dos f´rmulas anteriores se
conocen como desarrollo del determinante de A por su i−´sima ï¬la o e y
desarrollo del determinante de A por su j−´sima columna, respectivamente.
e Teorema B.19 Si A es una matriz triangular (inferior o superior) entonces det
A es el producto de los elementos de la diagonal, o sea, det A = a11 · a22 · ·
· ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj .
B.6.2.
Propiedades de los determinantes.
Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de
este apartado o a y nos permitir´n calcular los determinantesde matrices de
orden alto (n ≥ 4) de manera eï¬ciente. a Teorema B.20 Sea A una matriz
n × n. Sea B una matriz que se obtiene de A al realizar sobre A alguna de las
operaciones elementales de ï¬las y sea E la matriz elemental que realiza dicha
o operaci´n. Por ejemplo, 1. 2. 3. Si E1 es la matriz que intercambia dos ï¬las,
la matriz B = E1 · A se obtiene al intercambiar dos ï¬las de A. Si E2 es la
matriz que multiplica por una constante r no nula una ï¬la cualquiera, la
matriz B = E2 · A se obtiene al multiplicar por r la correspondiente ï¬la de
A.
Si E3 es la matriz que reemplaza una ï¬la por la suma de ´sta mas un m´ltiplo
de cualquier e u otra ï¬la, la matriz B = E3 · A se obtiene al reemplazar una
ï¬la de A por la suma de ´sta e mas un m´ltiplo de cualquier otra ï¬la. u 
 −1 si E es del tipo E1 r si E es del tipo E2 Adem´s, si a Entonces,
det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A =
I es la matriz identidad y por tanto det I = 1, entonces det E = α, es
decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en
dependencia si dicha matriz es del tipo E 1 , E2 ´ ´ o E3 , respectivamente.
Como consecuencia del teorema anterior tenemos que si una ï¬la es m´ ltiplo de
un n´ meror u u entonces tenemos: a11 . . . a12 . . . · · · a1n . .. . . . · ·
· r ain . .. . . . · · · ann a11 . . . =r ai1 . . . an1 a12 · · · a1n . . .. .
. . . . ai2 · · · ain . . . .. . . . . . an2 · · · ann
r ai1 r ai2 . . . . . . an1 an2
En particular si una ï¬la de A es nula, det A = 0 y si una ï¬la de A es
proporcional a otra det A = 0. Teorema B.21 Sea A una matriz n × n y sea AT su
traspuesta, entonces det A = det AT . Este segundo teorema nos permite enunciar
todos los apartados del teorema anterior cambiando la palabra ï¬las por
columnas. Es conocido de apartados anteriores que cualquier matriz A se puede,
mediante transformaciones elementales, transformar en una matriz triangular
superior U (forma escalonada). Adem´s si resulta a que la matriz A tiene n ï¬las
pivote entonces el determinante de A ser´ proporcional al det U . Luego, a si
tenemos n ï¬las pivote todos los pivotes son distintos de cero y det A = 0.
Pero si A tiene n ï¬las pivote entonces A es invertible. Este razonamiento nos
conduce al siguiente teorema.
´ B ANEXO: ALGEBRA LINEAL
96
Teorema B.22 Una A n × n es invertible si y s´lo si det A es diferente de cero.
o Teorema B.23 Sean A y B matrices n × n. Entonces det(A · B) = (detA) · (det
B).
B.6.3.
Regla de Kramer.
Sea A una matriz n × n y b un vector cualquiera de R n . Denotaremos por Aj (b)
a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el
vector b, es decir si A y b son e a     b1 a11 · · · a1j−1
a1j a1j+1 · · · a1n  .   . .  . . . .. .. .  . . .  .  
. . . .  . . .  .   . A =  ai1 · · · aij−1 aij aij+1 · · ·
ain  , b =  bi  ,      .   . . . . . . .. .. .
 . . . . ï£ .  ï£ . . . .  . . . bn an1 · · · anj−1 anj anj+1
· · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n
 . . . . . .. .. . . . .  . . . . . . .  . Aj (b) =  ai1 · · · aij−1
bi aij+1 · · · ain   . . . . . .. .. . . . . ï£ . . . . . . . . an1 · ·
· anj−1 bn anj+1 · · · ann Teorema B.24 Sea A  a11  .  .  .
 ai1   . ï£ . . an1 matriz n × n invertible. Entonces para todo
 · · · a1j−1 a1j a1j+1 · · · a1n x1 . . . .  . .. .. . . . .
 . . . . . . .  . · · · aij−1 aij aij+1 · · · ain   xi
 .  . . . . .. .. . ï£¸ï£ . . . . . . . . . . . · · · anj−1
anj anj+1 · · · ann xn
A x


b de R n el sistema    b1   .    .    . 
 =  bi ,      .  .   ï£ . bn
b
   .   
es compatible y tieneuna unica soluci´n que viene dada por ´ o x1 = det A1 (b)
, det A x2 = det A2 (b) , det A ···, xn = det An (b) . det A
Es importante tener en cuenta que este m´todo es ineï¬ciente para calcular la
soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados
determinantes. Es recomendable resolver los a a sistemas por el m´todo de
reducci´n de ï¬las descrito en la primera parte del curso (ver Algoritmo e o
de reducci´n por ï¬las). o Finalmente, recordemos que “invertir” una matriz es
equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 , A b 2
= e2 , · · · A b n = en , donde e1 , , en son las columnas de la matriz
identidad. Por tanto para calcular la j−´sima columna e de A−1
tenemos que resolver el sistema A x = ej cuya soluci´n es, seg´ n la regla de
Kramer, o u det A1 (ej ) det An (ej ) x1 = , · · ·, xn = , pero det A det A det
A1 (ej ) = (−1)1+j det Aj1 = Cj1 , · · · , det An (ej ) = (−1)n+j det
Ajn = Cjn ,
´ B ANEXO: ALGEBRA LINEAL
luego la columna j de A−1 es
97
 
Todo esto nos conduce al teorema
1    det A ï£
Cj1 Cj2 . . . Cjn
  . 
donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm
de la matriz A y Alm es lasubmatriz que se obtiene al eliminar la ï¬la l y la
columna m de A. La matriz ||C lm || se denomina matriz adjunta de A. Es
importante notar que este m´todo es ineï¬ciente para calcular inversas
(recurre a la regla de e Kramer que es ineï¬ciente es si misma) por lo que es
recomendable para encontrar A −1 aplicar el algoritmo descrito en el
teorema B.16 del cap´ A±tulo anterior. Para concluir esta parte dedicada a
determinantes veamos una propiedad interesante que satisfacen los determinantes
y que es consecuencia de los teoremas B.18 y B.20: Sea A = [a1 a2 · · · an ]
una matriz de n × n con columnas a1 , , an . Deï¬namos la aplicaci´n o
lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x), x de Rn , k = 1, 2,
, n. La aplicaci´n anterior es lineal pues para todo α de R y x, y de R
n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · ·
x · · · an ]) = α T (x), T (x + y) = det([a1 · · · x + y · · · an ]) =
det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y).
Esta propiedad se conoce como la multilinealidad del determinante
Teorema B.25 Sea A una matriz invertible n × n. Entonces  C11 C21 · · · Cj1
· · · Cn1  C12 C22 · · · Cj2 · · · Cn2   . . . . .. .. . . . . . . ..
. 1  .  −1 A =  .. det A  C1i C2i · · · Cji . Cni   . .
. . .. .. . . . ï£ . . . . . . . C1n C2n · · · Cjn · · · Cnn

     ,    
B.7.
Espacios Vectoriales.
o o En esta secci´n vamos a deï¬nir los espacios vectoriales que son la
generalizaci´n de los espacios Rn ya estudiados.
B.7.1.
Deï¬nici´n y ejemplos. o
Sea V un conjunto de elementos sobre el cual est´n deï¬nidas las operaciones
suma “+” de a dos elementos x, y de V y multiplicaci´n “·” de un escalar (n´
mero real) α por un elemento de o u V . Diremos que V es un espacio
vectorial si se cumplen las siguientes propiedades (axiomas): Sean x, y, z
elementos arbitrarios de V y α, β n´ meros reales. Entonces V es un
espacio vectorial si u 1. Para todos x e y, vectores de V , el vector suma, w =
x + y, tambi´n es un vector de V y se e cumple que:
´ B ANEXO: ALGEBRA LINEAL
a) b) c) d) 2. x+y =y+x (x + y) + z = x + (y + z)
98
Existe un elemento “nulo” de V , tal que x + 0 = 0 + x = x Existe el elemento (−x)
“opuesto” a x, tal que x + (−x) = (−x) + x = 0 donde (−x) es
vector opuesto de x
Para todo x vector de V , el vector que se obtiene al multiplicar por un
escalar, w = α · x, tambi´n es un vector de V y secumple que: e a) b) c)
d) α · (x + y) = α · x + α · y α · (β · x) =
(αβ) · x
(α + β) · x = α · x + β · x
1·x=x
Ejemplos. 1.) El conjunto de los vectores de Rn cuando la suma de dos vectores
y la multiplicaci´n por un o escalar es la deï¬nida en la secci´n 2. o 2.) El
conjunto de las matrices m × n cuando la suma de dos matrices y la
multiplicaci´n por un o escalar es la deï¬nida en la secci´n 3. Dicho espacio
lo denotaremos por R m×n o 3.) El conjunto de los polinomios de grado a lo sumo
n, que denotaremos por P n , o sea, Pn = , u
donde deï¬niremos la suma de dos polinomios y la multiplicaci´n por un escalar
de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn , q(x) = b0 + b1 t +
· · · + bn tn , (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · ·
· + (an + bn )tn , (α · p)(t) ≡ α p(t) = (αa0 ) +
(αa1 )t + · · · + (αan )tn . Adem´s, pn = 0, si y s´lo si a0 = a1 = ·
· · = an = 0. 4.) El conjunto de las funciones continuas en el a o intervalo
[a, b], que denotaremos por C[a,b] , cuando la suma de dos funciones f y g y la
multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f
(t) + g(t), (α · f )(t) ≡ α · f(t).
B.7.2.
Subespacios vectoriales.
Sea V un espacio vectorial. Diremos que un subconjunto H de elementos de V es
un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a
las mismas operaciones suma “+” y multiplicaci´n “·” que V . o Ejemplos. 1.)
Dado un espacio vectorial V , son subespacios vectoriales “triviales” los
subespacios H = (conjunto que tiene como unico elemento, el nulo) y H = V
(el mismo espacio vectorial). ´ 2.) Para V = C[a,b] , H = Pn es un subespacio
vectorial, para cualquier n = 0, 1, 2, entero. 3.) Para V = Pn , H = Pk es
un subespacio vectorial para todo k < n. Teorema B.26 Un subconjunto H de
elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las
siguientes tres condiciones. 1. 2. El elemento nulo de V pertenece a H. Para
todos x e y, vectores de H, el vector w = x + y tambi´n es un vector de H. e
´ B ANEXO: ALGEBRA LINEAL
3.
99
Para todos x vector de H, el vector w = α · x tambi´n es un vector de H. e
Teorema B.27 Dado un conjunto de vectores de un espacio
vectorial V , el conjunto span (v1 , v2 , , vp ) es un subespacio vectorial
de V . Dicho subespacio vectorial com´nmente se u denominasubespacio generado
por los vectores v1 , v2 , , vp .
B.7.3.
Conjuntos linealmente independientes. Bases.
Un conjunto de vectores v1 , v2 , , vp de un espacio vectorial V se denomina
linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp
vp = 0, tiene como unica soluci´n la trivial x1 = · · · = xp = 0. ´ o Un
conjunto de vectores v1 , v2 , , vp se denomina linealmente dependiente si
existen los valores x1 , x2 , · · · , xp no todos iguales a cero tales que se
veriï¬que la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. Para
estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos
teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los
correspondientes espacios vectoriales o V . Por tanto las siguientes aï¬rmaciones
son ciertas: 1. 2. Un conjunto S = de dos o m´s vectores
es linealmente dependiente si y s´lo si a o al menos uno de los vectores del
conjunto es combinaci´n lineal de los dem´s. o a Un conjunto S = de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤
i ≤ p) es necesariamente un conjunto de vectores linealmente
dependientes, o sea si alguno de los vectoresde S es el vector nulo entonces S
es un conjunto de vectores linealmente dependientes. Dos vectores v1 y v2 de V
son linealmente dependientes si y s´lo si son proporcionales, es o decir, si
existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u
3.
Teorema B.28 El conjunto de dos o m´s vectores v1 , v2 , , vp de V con v1 =
0 es un conjunto a linealmente dependiente si y s´lo si para cierto j, 1 < j
< p, el vector v j es combinaci´n lineal de o o los anteriores, es decir, vj
= x1 v1 + x2 v2 + · · · + xj−1 vj−1 . NOTA: Esto no implica que si
tenemos un conjunto de vectores linealmente dependientes v 1 , v2 , , vp o
necesariamente cada vector es combinaci´n de los anteriores. Los vectores
linealmente independientes de un espacio vectorial juegan un papel fundamental
en el estudio de los sistemas lineales gracias a la siguiente deï¬nici´n o
Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto
de vectores B = de V es una base de H si i) B es un
conjunto de vectores linealmente independientes ii) H = Span(b1 , b2 , , bp
), o sea, B genera a todo H. En particular si H coincide con V , entonces B es
una base de todo el espacio vectorial V . Por ejemplo, sitomamos una matriz n ×
n invertible, entonces sus columnas a 1 , , an son linealmente
independientes y adem´s R n = Span(a1, , an ). Por tanto B = a1 , , an es
una base de a
´ B ANEXO: ALGEBRA LINEAL
100
Rn . En particular, si A = In , la matriz identidad n × n, las columnas e1 , e2
, , en de la misma son una base de Rn la cual se conoce como base can´nica
de R n . o Otro ejemplo lo constituye el conjunto de vectores S = del espacio vectorial Pn . Es f´cil comprobar que dichos vectores son
linealmente independientes y que span (1, t, t 2 , , tn ) = a Pn . S se
conoce como la base can´nica de Pn . o Teorema B.29 Sea S = un conjunto de vectores de un espacio vectorial V y sea H = Span(v1, v2 ,
, vp ) un subespacio de V . i) Supongamos que un vector de S, digamos el vj
, 1 ≤ j ≤ p, es combinaci´n lineal de los o restantes. Entonces si
suprimimos a dicho vector vk del conjunto S, H no cambia, o sea, H = Span(v1,
, vk−1 , vk , vk+1 , , vp ) = span (v1 , , vk−1 , vk+1 ,
, vp ). ii) Si H no es el espacio , entonces alg´n subconjunto de S es
una base de H. u Este teorema nos dice que a partir de un conjunto de vectores
quegeneran un espacio vectorial siempre es posible “extraer” una base de dicho
espacio vectorial. Por ejemplo, consideremos el espacio generado por los
vectores       2 1 1 ï£ 0  , v2 = ï£ 1  , v3 = ï£ 1
 , H = Span [v1 , v2 , v3 ] . v1 = 0 0 0
Es evidente que H = Span[v1 , v2 , v3 ] = span [v1 , v2 ] pues el tercer vector
es combinaci´n lineal de o los dos anteriores. Adem´s, S = no
es una base de H pues v1 , v2 , v3 no son linealmente a independientes. Sin
embargo, el conjunto B = que se obtiene al suprimir el tercer
elemento si que es una base de H.
B.7.4.
Sistemas de coordenadas.
Adem´s, es evidente que dado un vector x de R n sus coordenadas, es decir los
valores x1 , , xn , a son unicos. El siguiente teorema generaliza este
resultado para cualquier espacio vectorial V . ´ Teorema B.30 Sea B = una base del espacio vectorial V . Entonces para todo x de V existe
un unico conjunto de valores tal que ´ x = α 1
b1 + α 2 b2 + · · · + α n bn . Este teorema nos permite deï¬nir las
coordenadas de un vector cualquiera de un espacio vectorial V . Supongamos que
B = es una base del espacio vectorial V .
Denominaremoscoordenadas del vector x de V en la base B al conjunto de los
valores tales que x = α 1 b1 + α 2 b2 + ·
· · + α n bn ,
Cuando estudiamos el espacio Rn (secci´n 2) deï¬nimos a los vectores de Rn
mediante sus o coordenadas. Ello era evidente pues       
 x1 1 0 0  x2   0   1   0       
  x =  .  = x 1  .  + x 2  .  + · · · + x n  .  =
x 1 e1 + · · · x n en . .  .  .  ï£ . ï£ . ï£ . ï£ .  . 0 0 1
xn
´ B ANEXO: ALGEBRA LINEAL
 α1 α2 . . . αn     
B
101
  y lo denotaremos por  ï£
o
[x]B .
y por tanto, si las coordenadas de x en la base can´nica C son x 1 , , xn ,
la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B ,
Consideremos nuevamente las coordenadas en Rn . Como vimos al principio de este
apartado los elementos de cualquier vector X de Rn coinciden con las
coordenadas de dicho vector en la base can´nica C = .
Supongamos ahora que pasamos a una nueva base B = . o
Entonces   α1  α2    x = x1 e1 + · · · + xn en =
α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  .  = PCB · [x]B , .
 ï£ . αn B
donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de
unvector en la base B a las escritas en C. N´tese que las columnas de la matriz
P CB coinciden con los vectores de o la nueva base escritos en la base
can´nica. Es evidente que la matriz P CB es invertible (todas sus o −1
columnas son independientes y por tanto el det PCB = 0) por tanto la matriz
inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B, o
sea o
−1 [x]B = PCB · [x]C = PBC · [x]C .
B.7.5.
La dimensi´n de un espacio vectorial. o
Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R
n . Resulta que dicho n´ mero n es una propiedad intr´ u A±nseca de V , su
dimensi´n. o Teorema B.31 Si un espacio vectorial V tiene una base de n
vectores B = , entonces cualquier conjunto con m´s de n
vectores de V es linealmente dependiente. a Este teorema es una generalizaci´n
del teorema B.8. o Teorema B.32 Si un espacio vectorial V tiene una base de n
vectores B = , entonces cualquier otra base de V tendr´
que tener n vectores de V . a o a Un espacio vectorial es de dimensi´n ï¬nita
n si V est´ generado por una base de n elementos, es decir si V = Span(b1 ,
, bn ), donde B = es una base de V y loescribiremos de la
forma dim V = n. En el caso que V = sea el espacio vectorial nulo, dim =
0. Si V no puede ser generado por una base ï¬nita de vectores, entonces
diremos que V es de dimensi´n inï¬nita y lo o denotaremos por dim V = ∞.
Por ejemplo, dim Rn = n, dim Pn = n + 1, dim C[a,b] = ∞. Teorema B.33 Sea
H un subespacio vectorial de un espacio vectorial de dimensi´n ï¬nita V , o
(dim V = n < ∞). Entonces todo conjunto de vectores linealmente
independientes de H se puede ampliar hasta convertirlo en una base de H. Adem´s
dim H ≤ dim V . a Teorema B.34 Sea V un espacio vectorial n-dimensional
(dim V = n < ∞) y sea S = un conjunto de
exactamente n vectores. Entonces: a) Si S es un conjunto de vectores
linealmente independientes, S es una base de V . b) Si S genera a todo V , es
decir si V = Span(b1 , b2 , , bn ), S es una base de V .
´ B ANEXO: ALGEBRA LINEAL B.7.6. Cambio de base.
102
Sea V un espacio vectorial de dimensi´n ï¬nita n y sea B = y D = o dos bases de V . Como D es una base de V y los
elementos de B son elementos de V , ´stos se podr´n e a escribir en la base D,
o sea, b1 = a11 d1 + a12 d2 + · · · + a1n dn , . . . bk =ak1 d1 + ak2 d2 + · ·
· + akn dn , . . . b1 = an1 d1 + an2 d2 + · · · + ann dn . =  a11 a12 . . . a1n
  an1 an2 . . . ann     
D
  b1 =  ï£
    , · · · , bn =    ï£
D
.
Entonces tenemos que
Supongamos que las coordenadas de un vector x de V en la base B son x 1 , x2 ,
, xn y D son y1 , y2 , , yn , es decir,    x1   .  x =
x1 b1 + · · · + xn bn −→ [x]B = ï£ .  , y x = y1 d1 + · · · +
yn dn −→ [x]D = ï£ . xn B
en la base  y1 . , .  . yn D
[x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D
· · · [bn ]D )[x]B . Es decir si conocemos como se expresan los vectores de la
base B en la base D podemos encontrar la matriz de cambio de base B en D, cuyas
columnas a1 , a2 , , an no son m´s que las coordenadas a de los vectores de
la base B escritos en la base D. Por tanto tenemos que [x] D = PDB [x]B , o en
forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 ·
· · ak2 · · · an2   x2   y2       = .
 .  .  .  ï£¸ï£ .  ï£ . ï£ .  . . . yn
D
a1n · · · akn · · · ann
xn
B
Adem´s, PDB es una matriz invertible (sus columnas son linealmente
independientes), luego existe a −1 la inversa PDB la cual es lamatriz de
cambio de base D en B, o sea,
−1 [x]B = PDB [x]D .
B.8.
El problema de autovalores de una matriz.
Sea A una matriz de n × n. Denominaremos al vector x de R n , autovector de A
asociado al autovalor λ, al vector no nulo x = 0, tal que A x = λ x,
x = 0. (B.14)
Es f´cil comprobar que si x es un autovector asociado al autovalor λ,
entonces el sistema a (A − λ I)x = 0, donde I es la matriz identidad
n × n, (B.15)
tiene soluciones no triviales. Por tanto, dado un autovalor λ de A, el
conjunto de los autovectores asociados a λ, que coincide con una base del
n´ cleo de A, es un subespacio vectorial de R n . Dicho u espacio se denomina
autoespacio de A correspondiente al autovalor λ. Es importante destacar
que conocido el autovalor λ, encontrar el autoespacio consiste en
encontrar las soluciones de un sistema homog´neo de ecuaciones, o sea, resolver
(A − λ I)x = 0. e Teorema B.35 Sea A una matriz triangular de n × n.
Entonces los autovalores de A coinciden con los elementos de la diagonal
principal λ = aii , i = 1, 2, .., n.
´ B ANEXO: ALGEBRA LINEAL
103
Es importante destacar que las operaciones elementales de ï¬las cambian los
autovalores de una matriz. Es decir si U es la formaescalonada de A los
autovalores de A y U son, en general, distintos. Teorema B.17 (Teorema de
inversi´n de matrices, conclusi´n.) Sea A una matriz cuadrada A de o o n × n.
Las siguientes expresiones son equivalentes: 1. 2. A es invertible. λ = 0
no es un autovalor de A
El teorema anterior es evidente pues si λ = 0 es autovalor de A, entonces
A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser
invertible. Teorema B.36 Sea A una matriz de n × n que tiene p autovalores
distintos λ 1 = λ2 = · · · = λp . Entonces los autovectores v1 ,
v2 , , vp asociados a los autovalores λ1 , λ2 , , λp son
linealmente independientes.
B.8.1.
La ecuaci´n caracter´ o A±stica.
sC´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues
los autovalores o A±cil λ son tales que el sistema (B.15), (A −
λ I)x = 0, tiene soluciones no triviales. Pero un sistema homog´neo tiene
soluciones no triviales si y s´lo si e o det(A − λ I) = 0. (B.16)
La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A. Lo anterior lo
podemos resumir o o A± como: Un n´ mero λ es un autovalor de la matriz A
de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ A±stica de A
(B.16), det(A − λ I) =0. Es f´cil comprobar que la expresi´n det(A−λ
I) = 0 es un polinomio de grado n en λ. Por tanto a o el polinomio pn
(λ) = det(A − λ I) se denomina polinomio caracter´ A±stico de A
y los autovalores de A ser´n las ra´ a A±ces de dicho polinomio. O sea, λ
es un autovalor de A si y s´lo si p n (λ) = 0. o Matrices similares. Sean
A y B dos matrices n × n. Diremos que A es similar a B si existe una matriz
invertible P , tal que A = P · B · P −1 , o B = P −1 · A · P.
(B.17)
Es evidente que si A es similar a B, B es similar a A, para demostrarlo es suï¬ciente
tomar Q = P −1 . Por tanto diremos simplemente que las matrices A y B son
similares si se cumple (B.17). La transformaci´n que a cada matriz le hace
corresponder otra similar, o sea, A −→ P −1 · A · P , se o
denomina transformaci´n de similitud. o Teorema B.37 Si las matrices A y B de n
× n son similares, entonces tienen el mismo polinomio caracter´stico y, por
tanto, los mismos autovalores. A±
B.8.2.
Diagonalizaci´n de matrices. o
Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal
D, o sea, si existe una matriz P invertible y otra D diagonal, tales que A = P
· D · P −1 . Teorema B.38 Una matriz A de n × n es diagonalizablesi y
s´lo si A tiene n autovectores o linealmente independientes. Si A = P · D · P −1
, donde D es diagonal y P invertible, entonces los elementos de la diagonal de
D son los autovalores de A y las columnas de P son los correspondientes
autovectores.
´ B ANEXO: ALGEBRA LINEAL
104
Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si
sus autovectores o forman una base de Rn . Algoritmo para diagonalizar una
matriz A. 1. 2. Encontrar los autovalores de A resolviendo la ecuaci´n (B.16).
o Encontrar los autovectores linealmente independientes correspondientes a cada
uno de los autovalores calculados en el paso 1. Si tenemos en total n
autovectores linealmente independientes entonces el teorema B.38 nos asegurar´
que nuestra matriz es diagonalizable, si no a hay n autovectores independientes
entonces A no es diagonalizable y detenemos el proceso. Si A es diagonalizable
continuamos como sigue. Construimos la matriz P cuyas n columnas son los n
autovectores linealmente independientes. Construimos la matriz diagonal D cuyos
elementos de la diagonal coinciden con los autovalores de A. Es importante
colocar en cada columna de D el autovalor asociado al autovector de
lacorrespondiente columna de P .
3. 4.
Es recomendable comprobar que hemos calculado correctamente P y D. Para ello
comprobamos que A · P = P · D. Teorema B.39 (Condici´n suï¬ciente para que una
matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores
distintos, entonces es diagonalizable. Teorema B.40 (Condici´n suï¬ciente para
que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores
distintos λ1 , λ2 , , λp . Sea Bk , k = 1, 2, , p una base
del correspondiente autoespacio asociado al autovalor λk y sea nk la
dimensi´n de dicho autoespacio. o Construyamos el conjunto de vectores que
contiene a todos los conjuntos B k , o sea B = B1 B 2 B p , dim(B) = n1 + n2 +
· · · + np .
Entonces B es un conjunto de vectores de Rn linealmente independientes. Adem´s,
A es diagonaa lizable si y s´lo si dim(B) = n, o sea, si B contiene exactamente
n vectores. o
C ANEXO: SERIES DE POTENCIAS
105
C.
Anexo: Series de potencias
∞ n=0
Deï¬nici´n C.1 Dada una sucesi´n de n´meros complejos (a n )n y z0 C deï¬niremos serie o o
u an (z − z0 )n , (C.1)
que denominaremos serie de potencias. Como casos especiales de las series de
potencias tenemos:
∞ k=0
xk,
∞ k=0
zk , k!
∞ k=1
zk , k
etc. Si la serie converge para todos los valores de z de cierto conjunto A C, entonces podemos deï¬nir
la funci´n suma f (z) de la serie. o
C.1.
Propiedades de las series de potencias
∞ n=0
Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo
e an z n , (C.2)
es decir, cuando z0 = 0. Obviamente si tenemos una serie de potencias del tipo
(C.1), la podemos reducir a a la anterior (C.2) haciendo el cambio de variables
ζ = z − z 0 y viceversa. Teorema C.2 Primer Teorema de Abel para las
series de potencias Sea la serie de potencias
∞ n=0
an z n , an , z
C. Si la serie converge para cierto w C, entonces la
serie converge absolutamente para todo z C con |z| < |w|. La regi´n de convergencia de
una serie de potencias siempre son c´ o A±rculos en el plano complejo que, en
el caso de las series de la forma (C.2) est´n centrados en el origen y en el de
las series (C.1), a en z0 (ver la ï¬gura 20). N´tese que se obtiene una de la
otra al hacer una traslaci´n en el plano o o complejo del c´ A±rculo mediante
el vector z0 . Adem´s, cualquiera sea la serie de potencias a
∞ n=0
an z n ,
an , z
C, existe un n´ mero realno negativo R ≥ 0 o R = +∞ tal que para
todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge.
Dicho n´ mero se denomina radio de convergencia de la u serie de potencias.
Consideremos ahora en caso real, es decir cuando (an )n es una sucesi´n de n´
meros reales y o u z = x R. En este caso hay que trasladar los resultados a
la recta real. El primer teorema de Abel quedar´ entonces de la siguiente forma
A±a Teorema C.3 Sea la serie de potencias
∞ n=0
an xn , an , x
R. Si la serie converge para cierto r R,
entonces absolutamente para todo x R con |x| < |r|. A diferencia del caso
complejo, en el caso real si se sabe la convergencia en alguno de los extremos,
se puede saber mucho m´s sobre la serie. a Teorema C.4 Sea la serie de
potencias
∞ n=0
an xn , an , x
R y R su radio de convergencia. En-
tonces, si la serie converge en x = R (x = −R), converge uniformemente en
[0, R] ([−R, 0]).
C ANEXO: SERIES DE POTENCIAS
Im z
106
Im z
| z −z 0 | 0. Entonces
La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo
radio de e e convergencia, o sea, se cumple que
x ∞ 0 n=0
an x =
n
∞ n=0
an n+1 x . n+1
2.
La serie se puedederivar t´rmino a t´rmino y la serie resultante tiene el mismo
radio de e e convergencia, o sea, se cumple que
∞ n=0
an x
n
=
∞ n=0
nan xn−1 .
C ANEXO: SERIES DE POTENCIAS
107
Una consecuencia trivial del ultimo teorema es que una serie de potencias deï¬ne
una funci´n ´ o inï¬nitas veces derivable en (−R, R). Ejemplo C.8 Probar
que la funci´n f (x) = o su derivada. ex =
∞ k=0
xk es continua y derivable en R y calcular k!
Que es continua y derivable en R es evidente de los dos teoremas anteriores a
tener, como ya hemos calculado antes, radio de convergencia +∞. Para
calcular la derivada usamos el teorema anterior, as´ pues A± ∞ ∞ ∞
kxk−1 xk−1 xk d = = = f (x). f (x) = dx k! k! (k − 1)!
k=0 k=0 k=1
Adem´s, f (0) = 1. La funci´n que cumple lo anterior es la funci´n e x . a o o
Los teoremas anteriores permiten calcular un buen n´ mero de series, por
ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x)
∞ n=0 ∞ n=1
(−1)n+1 xn . n
(−x)n =
∞ n=0
(−1)n xn .
Esta serie converge en (−1, 1), as´ que integrando t´rmino a t´rmino
tenemos A± e e
t
log(1 + t) =
0
1 dx = 1+x
t 0
∞ n=0
(−1)n xn
dx =
∞ n=0
(−1)n
tn+1 = n+1
∞ n=1(−1)n+1
tn . n
Funciones elementales del an´lisis. a ex =
∞ k=0 ∞ k=0
xk , k!
x
R.
∞ k=0
(C.3)
sen x =
(−1)k x2k+1 , (2k + 1)!
∞ k=1
cos x = (−α)k k x , k!
∞ k=0
(−1)k x2k (2k)! x (−1, 1),
x
R.
(C.4)
(1 + x)α = 1 + en particular 1 = 1−x
∞ k=0
(C.5)
xk ,
1 = 1+x
(−1)k xk ,
x
(−1, 1).
(C.6)
Aplicando la integraci´n t´rmino a t´rmino en [0, x] tenemos o e e log(1 + x) =
∞ n=1
(−1)n+1 xn . n
(C.7)
Usando (C.6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2
∞ k=0
(−1)k x2k ,
x
(−1, 1),
(C.8)
C ANEXO: SERIES DE POTENCIAS
108
a partir de la cual, integrando t´rmino a t´rmino en [0, x] obtenemos e e
arctan x =
∞ n=0
(−1)n x2n+1 , 2n + 1
x
(−1, 1).
(C.9)
1 Escojamos ahora (C.5) con α = − 2 y cambiemos x por −x2 , tenemos
√
1 ( 2 )k k 1 x , = 1 − x2 k=0 k! ∞
x
(−1, 1),
(C.10)
de donde integrando t´rmino a t´rmino en [0, x] obtenemos e e arc sen x =
∞ k=0 1 ( 2 )k x2k+1 , k!(2k + 1)
x
(−1, 1),
(C.11)