Vous êtes sur la page 1sur 83

ANÁLISIS MATEMÁTICO II

A. Gómez-Sicilia y A. Hernández-Machado

Departament d’ Estructura i Constituents de la Matèria


Facultat de Fı́sica de la Universitat de Barcelona

Febrero de 2006
Índice general

I ECUACIONES DIFERENCIALES 4
1. Ecuaciones Diferenciales de Primer Orden 8
1.1. Teorema de existencia y unicidad de soluciones . . . . . . . . . . . . . 8
1.2. Ecuaciones de Variables Separables . . . . . . . . . . . . . . . . . . . 11
1.3. Ecuaciones Homogéneas . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4. Ecuaciones que se Reducen a Homogéneas . . . . . . . . . . . . . . . 12
1.5. Ecuaciones Diferenciales Exactas o Totales . . . . . . . . . . . . . . . 13
1.6. Ecuaciones Lineales de Primer Orden . . . . . . . . . . . . . . . . . . 14

2. Ecuaciones Diferenciales de Orden Superior 16


2.1. Teorema de Existencia y Unicidad de Soluciones . . . . . . . . . . . . 16
2.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. Ecuaciones de Segundo orden que se reducen a primero . . . . . . . . 17
2.4. Ecuaciones Diferenciales de Orden n, Lineales y Homogéneas . . . . . 18
Método de integración de ecuaciones diferenciales, lineales y homogéneas
de segundo orden con coeficientes constantes . . . . . . . . . . 19
Extensión del método a orden n . . . . . . . . . . . . . . . . . . . . . 20
2.5. Ecuaciones diferenciales No-Homogéneas de Segundo Orden . . . . . 21
La Solución Particular I: Métodos de Inspección . . . . . . . . . . . . 21
La Solución Particular II: Método de Variación de las Constantes . . 22

3. Sistemas de Ecuaciones Diferenciales 24


3.1. Sistemas de ecuaciones diferenciales lineales con coeficientes constantes 25

II FUCIONES DE VARIAS VARIABLES 28


1. Tipos de funciones 30

2. Propiedades de las funciones de varias variables 31


2.1. Operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2. Topologı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3. Lı́mites y continuidad: 33
3.1. Propiedades de la continuidad . . . . . . . . . . . . . . . . . . . . . . 33
4 Índice general

III CÁLCULO DIFERENCIAL EN VARIAS VARIABLES


35
1. Derivada direccional 36
1.1. Caso particular: Las derivadas parciales . . . . . . . . . . . . . . . . . 36
1.2. Propiedades de la derivada direccional: . . . . . . . . . . . . . . . . . 37

2. Matriz Jacobiana, Jacobiano de una función 39


2.1. Matriz jacobiana y derivada direccional . . . . . . . . . . . . . . . . . 39

3. Derivabilidad y continuidad: Diferencial total 40


3.1. Condición suficiente de diferenciabilidad . . . . . . . . . . . . . . . . 40
3.2. ¿Cómo demostrar que una función es diferenciable en un punto? . . . 41
3.3. Interpretación geométrica del diferencial: El plano tangente . . . . . . 41
3.4. Funciones vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4. Operadores vectoriales: gradiente, rotacional y divergencia 43


4.1. Gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Gradiente y derivada direccional . . . . . . . . . . . . . . . . . . . . . 43
Interpretación del gradiente . . . . . . . . . . . . . . . . . . . . . . . 44
4.2. Rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3. Divergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4. Operador laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.5. Cambio de coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . 45
Coordenadas cilı́ndricas: . . . . . . . . . . . . . . . . . . . . . . . . . 45
Coordenadas esféricas: . . . . . . . . . . . . . . . . . . . . . . . . . . 46

5. Diferenciación de funciones compuestas: La regla de la cadena 48

6. Fórmula de Taylor 49

IV APLICACIONES DEL CÁLCULO DIFERENCIAL 51


1. Cambios de Coordenadas 52
1.1. Relación entre jacobianos: el cambio inverso . . . . . . . . . . . . . . 53

2. Función Inversa 54

3. Función Implı́cita 55
3.1. Aplicación: Derivación implı́cita . . . . . . . . . . . . . . . . . . . . . 56

4. Extremos: Máximos, Mı́nimos y Puntos de Inflexión 57


4.1. Introducción: 1 variable . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2. Extensión a varias variables . . . . . . . . . . . . . . . . . . . . . . . 58
4.3. Criterio General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.4. Criterio de los Determinantes . . . . . . . . . . . . . . . . . . . . . . 61
Índice general 5

5. Extremos Condicionados. Multiplicadores de Lagrange 64


5.1. Resolución con dos variables y una ligadura . . . . . . . . . . . . . . 64
5.2. Caso general: n variables y m ligaduras . . . . . . . . . . . . . . . . . 65

6. Curvas y Superfı́cies en ℜ3 67
6.1. Ecuaciones de una curva . . . . . . . . . . . . . . . . . . . . . . . . . 67
Ecuación vectorial: . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Ecuaciones paramétricas: . . . . . . . . . . . . . . . . . . . . . . . . . 67
Derivada de ~r: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Vector tangente a la curva: . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2. Plano tangente y normal a una superfı́cie . . . . . . . . . . . . . . . . 67
Función explı́cita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.3. Longitud de un arco de curva en el plano . . . . . . . . . . . . . . . . 68

V INTEGRACIÓN EN VARIAS VARIABLES 69


1. Recordatorio 70
1.1. Integrales indefinidas . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1.2. Integral definida de Riemann . . . . . . . . . . . . . . . . . . . . . . . 70
1.3. Propiedades de la integral . . . . . . . . . . . . . . . . . . . . . . . . 70
1.4. Integrales que dependen de un parámetro . . . . . . . . . . . . . . . . 71
Regla de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1.5. Cambios de variable: . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Condiciones: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
1.6. Integrales Impropias . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Criterios de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . 73
1.7. Integrales Impropias II . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Condición necesaria de integrabilidad: . . . . . . . . . . . . . . . . . . 73
Condición necesaria y suficiente de integrabilidad: . . . . . . . . . . . 74
Valor Principal de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . 74

2. Integración en dos variables 75


Propiedades: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.1. Cambios de Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Coordenadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Caso General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

3. Integración en tres variables 78


3.1. Cambios de Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Coordenadas cilı́ndricas . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Coordenadas esféricas . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2. Problemas de integrales múltiples que se reducen a integrales simples 80
Parte I

ECUACIONES
DIFERENCIALES
Introducción

Una ecuación diferencial es una ecuación que relaciona una función y sus
derivadas.
Ejemplo: Radioactividad - Un compuesto radioactivo es aquél que se desintegra.
Si n(t) es la cantidad de sustancia en función del tiempo, dn
dt
es proporcional a la
cantidad que tenemos:
dn
dt
= −λ · n ; λ = Cte > 0 ⇒ Solución: n = n0 · e−λ·t

Figura 1: Raodioactividad: n = n0 · e−λ·t

Ejemplo: Un cuerpo cae debido a la fuerza de atracción gravitatoria de la Tierra:

d2 z
m· = −m · g ⇒ z = z0 + v0 · t − 12 · g · t2
dt2
8

Una ecuación diferencial ordinaria es la que contiene derivadas en una sola


variable.
Una vez encontramos una función y = f (x) que cumple una ecuación diferencial,
se dice que hemos integrado esa ecuación.
El orden de una ecuación diferencial es el número asociado a la derivada más
alta de la función que aparece en la ecuación.
El grado de una ecuación diferencial es la potencia a la que está elevada la
derivada más alta. Una ecuación es lineal si la función y todas sus derivadas apare-
cen linealmente y los coeficientes solamente dependen de x (y no de la función o sus
derivadas).
Toda función y = f (x) tal que introducida en la ecuación produce una identidad
se denomina solución.

Ejemplo:
s
d2 x k
m · 2 = −k · x ⇒ x = A · cos(ω · t) + B · sen(ω · t) ; ω ≡
dt m

La solución general de una ecuación diferencial de orden N tiene N constantes


arbitrarias. Si se determinan estas constantes, tenemos una solución particular.

Ejemplo: y ′ · x − x2 − y = 0
Ensayamos una solución del tipo y = A · x2 + B · x ; y ′ = 2 · A · x + B

x · (2 · A · x + B) − x2 − (A · x2 + B · x) = 0

(A − 1) · x2 = 0 ⇒ A = 1

y = x2 + B · x , ∀B

Ejemplo: Cuerpo en caı́da libre con fricción del aire.

dv
m· = m · g − b · v ; b = Cte > 0
dt
Para encontrar la solución general hay que encontrar la solución de la ecuación
homogénea y una particular, y sumarlas. El método para encontrar la ecuación
homogénea es eliminar el término que no depende de la función ni de sus derivadas
(en este caso m·g).
dv b
m· = −b · v ⇒ vH = C · e− m ·t
dt
Para encontrar la solución particular, probamos una solución constante vp .

dvp m·g
m· = 0 = m · g − b · v p ⇒ vp =
dt b
9

Finalmente, la solución general es v = vH + vp :


b m
v(t) = C · e− m ·t + ·g
b
Además, con una condición inicial, podemos determinar la constante de integración
C:
m m
v(t = 0) = v0 ⇒ v0 = C + · g ⇒ C = v0 − ·g
b b
m b m
v(t) = (v0 − b
· g) · e− m ·t + b
·g
Capı́tulo 1

Ecuaciones Diferenciales de
Primer Orden

1.1. Teorema de existencia y unicidad de solu-


ciones
dy
Dada una ecuación diferencial dx = f (x, y) en un recinto del plano tal que
se cumple que y(x0 ) = y0 en ese dominio, existe al menos una solución para esa
ecuación:

1. Si f (x, y) es una función contı́nua en x e y en el dominio, y

2. si admite derivada parcial 1 respecto de y y ésta es contı́nua en el dominio,


entonces la solución es única.

Explicación del teorema:

dy Z
= f (x, y) ⇒ y = y0 + f (x′ , y(x′ )) · dx′
dx
Por el punto 1., si f (x, y) es contı́nua, existe la integral y por lo tanto existe la solu-
ción. El punto 2. nos asegura la unicidad si la derivada de la función respecto de y
está definida y es contı́nua. Esta es una condición suficiente de existencia, pero no
necesaria, es decir, puede ocurrir que f (x, y) no sea contı́nua y sin embargo exista
la solución.

1
Dada f (x, y), se define su derivada parcial como el lı́mite cuando el incremento de una de sus
variables tiende a zero, manteniendo la otra constante. Su significado es la variación de la función
en esa dirección.
∂f f (x + h, y) − f (x, y)
= lı́m
∂x h→0 h
∂f f (x, y + k) − f (x, y)
= lı́m
∂y k→0 k
1.1 Teorema de existencia y unicidad de soluciones 11

Ejemplo: (Figura 1.1)

x · y ′ − 3 · y = 0 ⇒ y = C · x3

f (x, y) = 3·y
x
, no es contı́nua en x = 0
∂f 3
∂y
= x , no es contı́nua en x = 0
En esta ecuación, la f (x, y) no tiene definida su pendiente en x = 0 ( ∂f |
∂y x=0

∞). Sin embargo, la ecuación sı́ tiene solución, aunque no es única, ya que en ese
punto podemos acoplar una solución con otra y se puede escribir ası́:
(
A · x3 x ≥ 0
y(x) =
B · x3 x < 0

Ejemplo: (Figura 1.2)

dy 1 Z Z
1
= 2 ⇒ y · dy = dx ⇒ · y 3 = x + C ′
2
dx y 3

3
y= 3·x+C
f (x, y) = y12 , no es contı́nua en y = 0
∂f
∂y
= −2
y3
, no es contı́nua en y = 0
Ejemplo: (Figura 1.3)

dy y Z
dy Z dx
=− ⇒ = ⇒ ln y = − ln x + C ′
dx x y x

y(x) = C
x
C ′ ≡ ln C

f (x, y) = −y
x
, no es contı́nua en x = 0
∂f −1
∂y
= x , no es contı́nua en x = 0
Aquı́ vemos como existen soluciones de la ecuación, pero no existe ninguna que
pase por el origen (problema causado por su discontinuidad)

Se llama solución general de una ecuación diferencial de primer orden a una


función que depende de una constante arbitraria y(x) = γ(x, C) tal que:
dy
a) Satisface la ecuación dx = f (x, y) (dada) para todas las C.
b) Dadas unas condiciones iniciales o de contorno y(x0 ) = y0 , existe C0 que satisface
la ecuación
Se llama solución particular a la solución que toma un valor concreto de C.
Se llama solución implı́cita a una solución general dada de la forma Φ(x, y, C) =
0.
12 1. Ecuaciones Diferenciales de Primer Orden

Figura 1.1: y = C · x3


3
Figura 1.2: y = 3·x+C

C
Figura 1.3: y(x) = x
1.2 Ecuaciones de Variables Separables 13

Ejemplo:
dy
dx
= 2 · x ⇒ y(x) = x2 + C (solución general)
Para C = 0 ⇒ y(x) = x2 (solución particular)

Ejercicio: Dada una solución, puedo encontrar una ecuación diferencial que la
satisfaga?
y(x) = C · x2
C = xy2
)
dy y
dy dx
=2· x
dx
=2·C ·x

1.2. Ecuaciones de Variables Separables


Se llaman ası́ las ecuaciones diferenciales de primer orden donde la función f (x, y)
se puede escribir como una función g(x) por otra función h(y).

dy dy Z
dy Z
= f (x, y) = g(x) · h(y) ⇒ = g(x) · dx ⇒ = g(x) · dx
dx h(y) h(y)

Ejemplo:
dy y
y· = x · y + x ⇒ y · dy = x · (y + 1) · dx ⇒ · dy = x · dx
dx y+1
Z
y Z
1
· dy = x · dx ⇒ y − ln (1 + y) = 2
· x2 + C
y+1
Otra forma de presentar estas ecuaciones es MR (x)·dx+N (y)·dy
R
= 0 . Por integración
directa encontramos una solución implı́cita: M (x) · dx + N (y) · dy = 0.
Ejemplo:

(1 + x) · y · dx + (1 − y) · x · dy = 0 ⇒ (1 + x) · y · dx = (y − 1) · x · dy
Z
y−1 Z
1+x
· dy = C + · dx ⇒ y − ln y − x − ln x = C
y x

1.3. Ecuaciones Homogéneas


Se llaman ası́ las ecuaciones diferenciales cuya f (x, y) solamente depende del
cociente entre las variables, es decir, es del tipo g( xy ). Se resuelven mediante un
cambio de variables: y = v · x ⇒ dx dy
= d(v·x)
dx
= x · dxdv
+ v. Con este cambio, la
ecuación queda de variables separables:
dy y dv dv dx
=g ⇒x· + v = g(v) ⇒ =
dx x dx g(v) − v x

Por integración sacaremos una función v(x), y a contı́nuación desharemos el cambio


y tendremos y(x) = x · v(x).
14 1. Ecuaciones Diferenciales de Primer Orden

Ejemplo:
dy 2 · y 2 + x2 y x dy dv
= =2· + y =v·x⇒ =x· +v
dx x·y x y dx dx
dv 1 Z
v Z
dx
x· +v =2·v+ ⇒ 2
· dv = C +
dx v v +1 x
1 √
· ln (1 + v 2 ) = ln x + ln C ⇒ 1 + v 2 = C · x2 ⇒ v = C · x2 − 1
2

y = v · x = x · C · x2 − 1 ⇒ x2 + y 2 = C · x4

1.4. Ecuaciones que se Reducen a Homogéneas


dy
Son del tipo dx = aa·x+b·y+c
′ ·x+b′ ·y+c′ a, b, c, a′ , b′ , c′ ∈ ℜ. Estudiemos caso a caso:

1) c = c = 0: Se divide el numerador y el denominador de la ecuación por x para
conseguir una ecuación homogénea.
dy a·x+b·y dy a + b · xy
= ′ → =
dx a · x + b′ · y dx a′ + b′ · xy

2) ∀c, c′ : Hacemos un cambio de variables para intentar simplificar la ecuación.


)
x≡v+d dy a · (v + d) + b · (u + e) + c
⇒ = ′
y ≡u+e dx a · (v + d) + b′ · (u + e) + c′
Donde u y v son variables, y d y e son constantes a determinar. Para determinar las
constantes, hacemos un sistema de ecuaciones que nos permita deshacernos de los
términos independientes en el numerador y en el denominador:
) ! ! !
a·d+b·e+c=0 a b d −c
· =
a′ · d + b ′ · e + c ′ = 0 a′ b ′ e −c′

a b
Este sistema solamente tendrá solución cuando ′ 6= 0 . Si esto se cumple,

a b′
du a·v+b·u du a+b· u
la ecuación nueva queda dv
= a′ ·v+b′ ·u
→ dv
= v
a′ +b′ · u
, que ya es homogénea. Si
v
a b
= 0 , entonces no podemos resolver el sistema. Sin embargo, si esto ocurre,


a b′
se cumple que el cocientes entre a y a′ , y entre b y b′ son iguales a una constante λ.
Si esto se da, podemos usar otro método de resolución:
a′ b′ dy a·x+b·y+c
= =λ⇒ =
a b dx λ · (a · x + b · y) + c′
 
dz dy dy 1 dz
Hacemos el cambio de variable z = a · x + b · y ⇒ dx
=a+b· dx
⇒ dx
= b dx
−a

1 dz a z+c dz Z
dz
· − = ⇒   = dx ⇒ x = C +  
b dx b λ · z + c′ z+c
b · ab + λ·z+c ′
z+c
b · ab + λ·z+c ′
1.5 Ecuaciones Diferenciales Exactas o Totales 15

dy x+y−3
Ejemplo: dx
= x−y−1
) )*
x=v+d du v+d+u+e−3 d+e−3=0 d=2
⇒ =
y =u+e dv v+d−u−e−1 d−e−1=0 e=1
u

du v+u 1+ t= u dt 1+t
v
= = u = du v dt =v·

+t=
dv v−u 1− v

dv
=v· dv
+t dv 1−t
1 + t  Z
dt Z
dv √
v · dt = − t · dv ⇒ 1+t = C + ⇒ arctg t = ln (C · v · 1 + t2 )
1−t 1−t
− t v
s
u2 √ u
q y−1
C ·v· 1 + 2
= C · v 2 + u2 = earc tg ( v ) ⇒ C · (x − 2)2 + (y − 1)2 = earc tg ( x−2 )
v
dy 2·x+y−1
Ejemplo: dx = 4·x+2·y+5

dy 2·x+y−1 t=2·x+y dt t−1 dt 5·t+9
= = dy dt =

−2= ⇒ =
dx 2 · (2 · x + y) + 5 dx
= dx −2 dx 2t + 5 dx 2·t+5
Z
2·t+5 2 Z t Z
1 2 h 9  9 i  9
C +x = ·dt = · dt+ ·dt = · t− ·ln t+ +ln t+
5·t+9 5 t + 95 t + 95 5 5 5 5
2 7
x+C = ·t+ · ln (5 · t + 9)
5 25
2 7
5
· (2x + y) + 25
· ln [5 · (2 · x + y) + 9] = x + C

1.5. Ecuaciones Diferenciales Exactas o Totales


Una ecuación del tipo P (x, y)·dx+Q(x, y)·dy = 0 es diferencial exacta si P (x, y)
y Q(x, y) son funciones contı́nuas y derivables; y si ∂P
∂y
= ∂Q
∂x
, siendo éstas contı́nuas
en un dominio D. Una función es diferencial exacta si cumple d[Φ(x, y)] = 0. Si pasa
eso, la solución de la ecuación es Φ(x, y) = C.

 P (x, y) = ∂Φ ∂P ∂2Φ
∂Φ ∂Φ ∂x
⇒ ∂y
= ∂y∂x
dΦ = · dx + · dy  ∂Φ ∂Q ∂2Φ
∂x ∂y Q(x, y) = ∂y
⇒ ∂x
= ∂x∂y

Si esto se da:
∂Φ Z
P (x, y) = ⇒ Φ = P (x, y) · dx + γ(y, C)
∂x
∂Φ ∂ Z dγ dγ ∂ Z
   
Q(x, y) = = P (x, y) · dx + ⇒ =Q− P (x, y) · dx
∂y ∂y dy dy ∂y
Como el término a la izquierda solamente depende de y, y para que esta igualdad
pueda cumplirse, el término de la derecha sólo puede depender de y. Por lo tanto,
su derivada parcial respecto de x será cero:
∂2 Z
" #
∂ ∂ Z ∂Q
  
Q− P (x, y) · dx = 0 ⇒ − P (x, y) · dx = 0
∂x ∂y ∂x ∂x∂y
16 1. Ecuaciones Diferenciales de Primer Orden

∂Q ∂P ∂Q ∂P
− =0⇒ =
∂x ∂y ∂x ∂y
Y llegamos a la hipótesis de salida, y vemos que funciona solamente en el caso que
∂Q
∂x
= ∂P
∂y
se cumpla.

Ejemplo: 2 · x · y · dx + (x2 + cos y) · dy = 0

P (x, y) = 2 · x · y ⇒ ∂P
)
∂y
=2·x
⇒ ∃ψ(x, y) / dψ = 0
Q(x, y) = (x + cos y) ⇒ ∂Q
2
∂x
=2·x

∂ψ Z
P = = 2 · x · y ⇒ ψ(x, y) = 2 · x · y · dx + γ(y, C) = x2 · y + γ(y, C)
∂x
∂ψ ∂ 2 dγ
Q = x2 + cos y = = [x · y + γ(y, C)] = x2 +
∂y ∂y dy

= cos y ⇒ γ(y) = sen y
dy
ψ(x, y) = x2 · y + sen y = C
Ejemplo: 2 · ex · y · dy + (y 2 · ex − 1) · dx = 0

P (x, y) = y 2 · ex − 1 ⇒ ∂P = 2 · y · ex
)
∂y
⇒ ∃ψ(x, y) / dψ = 0
Q(x, y) = 2 · y · ex ) ⇒ ∂Q
∂x
= 2 · y · ex

∂ψ Z
P = = y · e − 1 ⇒ ψ(x, y) = (y 2 · ex − 1) · dx + γ(y, C) = y 2 · ex − x + γ(y, C)
2 x
∂x
∂ψ ∂ 2 x dγ
Q = 2 · y · ex = = [y · e − x + γ(y, C)] = 2 · y · ex +
∂y ∂y dy

= 0 ⇒ γ(y) = −C
dy
ψ(x, y) = y 2 · ex − x − C y 2 · ex − x = C

1.6. Ecuaciones Lineales de Primer Orden


dy
Se llaman ası́ todas las ecuaciones diferenciales con la forma dx + P (x) · y =
Q(x). Si P (x) y Q(x) son funciones contı́nuas en x, definimos la función y(x) como
producto de otras dos funciones, y(x) = u(x) · v(x):

dy du dv
y(x) = u(x) · v(x) ⇒ = · v(x) + · u(x)
dx dx dx
du dv
· v(x) + · u(x) + P (x) · u(x) · v(x) = Q(x)
dx dx
 dv  du
u · P (x) · v(x) + + · v(x) = Q(x)
dx dx
1.6 Ecuaciones Lineales de Primer Orden 17

Para resolver eso, cogemos una v(x) particular, que cumpla la ecuación P (x) · v(x) +
dv
dx
= 0 (ecuación homogénea). Con ello, simplificamos la ecuación anterior a du dx
·
v(x) = Q(x), con v(x) conocida.
dv dv Z R
+ P (x) · v = 0 ⇒ = −P · dx ⇒ ln v = − P (x) · dx ⇒ v = e− P (x)·dx
dx v
du Q Z
Q
v· = Q ⇒ du = · dx ⇒ u = C + · dx
dx v v
h Z
Q(x) i
y = u · v ⇒ y(x) = v · C + dx ·
v
dy 2 3
Ejemplo: dx
− x+1 · y = (x + 1)

dy du dv du dv 2
y = u·v ; = · v(x) + · u(x) ⇒ · v(x) + · u(x) − · u · v = (x + 1)3
dx dx dx dx dx x+1
 dv2  du
u· −
·v + · v = (x + 1)3
dx x + 1 dx
dv 2 dv 2
− ·v =0⇒ = · dx
dx x + 1 v x+1
ln v = 2 · ln (x + 1) ⇒ v(x) = (x + 1)2
du du x2
· (x + 1)2 = (x + 1)3 ⇒ = x + 1 ⇒ u(x) = +x+C
dx dx 2
 
x2
y(x) = 2
+ x + C (x + 1)2

PROBLEMA DE EXAMEN: Resolver la ecuación diferencial (1 + y 2 ) · x ·


dx + (1 + x2 ) · dy = 0.
Método de resolución:

1. Mirar de qué tipo es. Si dividimos esta ecuación por x, nos queda una ecuación
de variables separables, del tipo P (y) · dx + Q(x) · dy = 0:

1 + x2
(1 + y 2 ) · dx + · dy = 0
x

2. Aplicar el método de resolución


R dx
para ese tipo: Podemos resolverla integrando
R dy
lado a lado de la forma − Q(x) = P (y) .
Z
dy Z
x
2
= ln C − · dx
1+y 1 + x2
1 C h  i
arc tg y = ln C − · ln (1 + x2 ) = ln √ ⇒ y(x) = tg ln √C
1+x 2
2 1 + x2
Capı́tulo 2

Ecuaciones Diferenciales de Orden


Superior

Se llaman ecuaciones diferenciales de orden n las que son del tipo F x, y(x),
di y
  
y ′ (x), . . . , y (n (x) = 0 ó y (n (x) = f x, y(x), y ′ (x), . . . , y (n−1 (x) ; donde y i (x) ≡ dxi
.

2.1. Teorema de Existencia y Unicidad de Solu-


ciones
 
Si en una ecuación y (n (x) = f x, y(x), y ′ (x), . . . , y (n−1 (x) , la función f y sus
derivadas parciales respecto a las variables y, y ′ , y ′′ , . . . , y (n−1 son contı́nuas en un do-
minio D, que contiene los valores de x = x0 , y(x0 ) = y0 , y ′ (x0 ) = y0′ ,. . . ,y (n−1 (x0 ) =
(n−1
y0 ; entonces existe una única solución y = y(x) que satisface la ecuación diferen-
(n−1
cial y las condiciones iniciales (y(x0 ) = y0 , y ′ (x0 ) = y0′ , . . . , y (n−1 (x0 ) = y0 ).

2.2. Propiedades
Una ecuación diferencial de orden n se puede escribir como n ecuaciones difer-
enciales de primer orden.
La solución general de una ecuación diferencial de orden n dependerá de n
constantes arbitrarias.
Para encontrar una solución particular a una ecuación diferencial imponemos
(n−1
las condiciones iniciales(y(x0 ) = y0 , y ′ (x0 ) = y0′ , . . . , y (n−1 (x0 ) = y0 ).
Un caso particular de estas ecuaciones es el caso y (n = f (x).

Ejemplos generales:
d2 x dx dv
1. dt2
=a→ dt
=v→ dt
= a.
d2 x dx dx dv
2. dt2
+b· dt
=a→ dt
=v→ dt
+ b · v = a.
2.3 Ecuaciones de Segundo orden que se reducen a primero 19

3. y (n = f (x) ; y (n−1 = CR1 + Rf (x′ ) · dx′


R

y (n−2 = C2 + C1 · x + dx′ f (x′′ ) · dx′′


Ejemplo: y ′′ = sen (k · x)

dy dv Z
cos (k · x)
=v⇒ = sen (k · x) ⇒ v = C1 + sen (k · x′ ) · dx′ = C1 −
dx dx k
Z Z 
cos (k · x′ ) sen (k·x)
y = C2 + v(x′ )·dx′ = C2 + C1 − )·dx′ ⇒ y(x) = C2 + C1 · x − k2
k

2.3. Ecuaciones de Segundo orden que se reducen


a primero
 
Son ecuaciones en las que a f x, y(x), y ′ (x) les falta el término en x o el término
en y(x).
 
Estudiemos primero el caso y ′′ (x) = f x, y ′ (x) : Para resolver este prob-
dy dp d y 2
lema hacemos un cambio de variables p(x) ≡ dx ⇒ dx = dx 2 . Haciendo esto
dp
nos queda una ecuación dx = f (x, p) de la que sacaremos la función p(x). Una
vez tenemos la función p(x), por integración directa, podemos sacar y(x).
 
Generalización: Una ecuación diferencial del estilo y (n (x) = f x, y (n−1 (x) se
d y n−1
puede resolver mediante el cambio p(x) ≡ dx n−1 . Una vez integrada la ecuación

(de primer orden en p(x)) podemos determinar, por n-1 integraciones directas,
la función y(x).
 
A contı́nuación, veamos el caso y ′′ (x) = f y(x), y ′ (x) : Aquı́ se opera de
dy
forma similar: en primer lugar haremos el cambio p(x) ≡ dx . Ahora, por la
2
d y dp dp dy dp
regla de la cadena, podemos afirmar que dx2 = dx = dy · dx = dy · p. Después
dp
de este cambio tenemos una ecuación diferencial : dy · p = f (y, p). Una vez
dy
tenemos la función p(y, C1 ), podemos resolver la ecuación p = dx de forma que
R dy
x = C2 + p(y,C1 ) .

Ejercicio: Determinar la velocidad radial mı́nima con la que se debe lanzar un


cuerpo verticalmente hacia arriba para que no regrese a la Tierra. Despreciar la
resistencia del aire.
d2 r
(
M⊕ · m r(t = 0) = R⊕
F = −G · = m · ;
r2 dt2 ṙ(t = 0) ≡ dr | =?
dt t=0

dr d2 r dv dv M⊕
v≡→ 2 = = · v = −G · 2
dt dt dt dr r
dr 1 G · M⊕ t→0 v0 G · M⊕
v · dv = −G · M⊕ 2 ⇒ · v 2 = + U0 → = + U0
r 2 r 2 R⊕
20 2. Ecuaciones Diferenciales de Orden Superior

v 0 G · M⊕ 1 1 1 
U0 = − ⇒ · (v 2 − v02 ) = G · M⊕ −
2 R⊕ 2 r R⊕
Ahora, en lugar de seguir integrando, usaremos una condición de contorno: que el
lı́mite cuando r tiende a infinito hace que v sea nula (para que nosotros le demos la
mı́nima energı́a).
h1 i h 1 1 i
lı́m · (v 2 − v02 ) = r→∞
lı́m G · M⊕ −
v→0 2 r R⊕
1  1 1  q
· (02 − v02 ) = G · M⊕ − ⇒ v0 = 2·G·M
R⊕

2 ∞ R⊕

2.4. Ecuaciones Diferenciales de Orden n, Lineales


y Homogéneas
Se llaman ası́ las ecuaciones diferenciales de la forma y (n = f (x, y, y ′ , ..., y (n−1 ).
Teorema: Dadas n soluciones de una ecuación diferencial de orden n, lineal y
homogénea, y1 , . . . , yn . Entonces cualquier combinación lineal de estas soluciones,
y = nk=1 ck · yk también es solución.
P

Definición: Dos soluciones de una ecuación diferencial yi (x), yj (x), i 6= j son


linealmente independientes en un intervalo [a,b] si su razón no es constante en ese
intervalo. Se llaman linealmente dependientes a las soluciones que cumplan una
relación del tipo yi = λ · yj ; λ ∈ ℜ.
Definición: Dadas n funciones y1 (x), . . . , yn (x), definimos su determinante wron-
skiano, W, como:

y1 y2 . . . yn



y′ y2′ . . . yn′
1
W = .. .. . . . ..
. . .

(n (n

y
1 y2 . . . yn(n

Teorema: Si dos funciones y1 (x),y2 (x) son linealmente dependientes en el inter-


valo [a,b], entonces su determinante wronskiano será nulo en ese intervalo.
Demostración:

y y2 y λ · y1
W = 1′ 1
= ′

= λ · y1 · y1′ − λ · y1 · y1′ = 0 ; c.q.d.

y1 y2′ y1 λ · y1′
2.4 Ecuaciones Diferenciales de Orden n, Lineales y Homogéneas 21

Teorema: Si y1 (x),y2 (x) son soluciones linealmente independientes de una ecuación


diferencial, lineal, homogénea y de segundo orden, entonces y(x) = A·y1 (x)+B·y2 (x)
es la solución general de esa ecuación.
Demostración:
Ya sabemos que y(x) es solución. Demostremos que es la general: Dadas dos condi-
ciones iniciales, deben existir dos constantes A, B que cumplan la ecuación.
) )
y(x = x0 ) = y0 y0 = A · y1,0 + B · y2,0
y ′ (x = x0 ) = y0′ y0′ = A · y1,0
′ ′
+ B · y2,0

El
sistema de ecuaciones tendrá solución siempre que se cumpla que el determinante
y y
1,0 2,0
′ ′ sea diferente de cero, la cual cosa es siempre cierta, ya que ese deter-
y1,0 y2,0
minante es el wronskiano, que no es nulo porque las soluciones son independientes,
c.q.d.

Método de integración de ecuaciones diferenciales, lineales y


homogéneas de segundo orden con coeficientes constantes
Dada una ecuación y ′′ + p · y ′ + q · y = 0, donde p, q son constantes. Ensayamos
una solución de tipo exponencial:

y = ek·x ; y ′ = k · ek·x ; y ′′ = k 2 · ek·x



k·x 2 2 p2 − 4 · q−p ±
e · (k + p · k + q) = 0 ⇒ k + p · k + q = 0 ⇒ k1,2 =
2
Llamamos a la ecuación k 2 + p · k + q = 0 ecuación caracterı́stica. Llegados a este
punto, hay que distinguir varios casos:

Caso 1: k1 y k2 son raı́ces reales y diferentes


q 
−p 2
+ q p4 − q  y1 = ek1 ·x ek1 ·x
)
k1 = y1
2
k2 ·x = = e(k1 −k2 )·x 6= Cte
k2 = −p p2
− 4 −q  y 2 = e y 2 ek2 ·x
2

Como su razón no es una constante, las dos soluciones son independientes. Por lo
tanto, la solución general será la suma de ambas con dos constantes arbitrarias:
y(x) = A · ek1 ·x + B · ek2 ·x .

Caso 2: k1 y k2 son raı́ces reales e iguales

p2 −p
− q = 0 ⇒ k1 = k2 = ≡ k ⇒ y1 (x) = y2 (x) = ek·x
4 2
En este caso solamente tenemos una solución: y1 (x) = ek·x . En estos casos, se prueba
ek·x
una solución y2 (x) = x · ek·x . Son independientes? yy21 = x·e 1
k·x = x 6= Cte ⇒ Sı́.

Ası́ pues, la solución en este caso será y(x) = ek·x · (C1 + C2 · x).
22 2. Ecuaciones Diferenciales de Orden Superior

Caso 3: k1 y k2 son raı́ces complejas conjugadas


q 
−p p2
)
k1 = 2
+ i · qq − 4
= α + i · β  y1 = e(α+i·β)·x
(α−i·β)·x
k2 = −p
2
−i· q− p2
4
= α − i · β  y2 = e

y1 e(α+i·β)·x
= (α−i·β)·x = e2·i·β·x 6= Cte
y2 e
Por lo tanto, la solución general será la suma de ambas con dos constantes
arbitrarias: y(x) = A · e(α+i·β)·x + B · e(α−i·β)·x = eα·x [C1 · cos (β · x) + C2 · sen (β · x)]
Ejemplo: y ′′ − 6 · y ′ + 9 · y = 0
y = ek·x ⇒ ek·x · (k 2 − 6 · k + 9) = 0 ⇒ k1 = k2 ≡ k = 3
)
y1 (x) = e3·x
y(x) = e3·x · (A + B · x)
y2 (x) = x · e3·x

Extensión del método a orden n


Dada una ecuación diferencial del tipo ni=0 ai · y (n−i (x) = 0, con los coeficientes
P

constantes, su solución general es una combinación de n soluciones linealmente inde-


pendientes y(x) = nj=0 Cj · yj (x). Para resolver la ecuación ensayamos una solución
P

del estilo y(x) = ek·x , de forma que la ecuación queda ek·x · ni=0 ai · k n−i = 0, lo
P

cual nos da un polinomio caracterı́stico de grado n, que nos dará n soluciones para
k. En general, tendremos unas soluciones reales y distintas, unas soluciones reales e
iguales, y unas soluciones complejas y a pares (complejos conjugados) que pueden o
no tener multiplicidad:
1. Raı́ces reales y distintas:
n−1
Cj · ekj ·x
X
y(x) =
j=0

2. Raı́ces complejas:
n−1
2

eαj ·x · [Aj · cos (βj · x) + Bj · sen (βj · x)]


X
y(x) =
j=0

3. Una raı́z real de multiplicidad r:


r−1
y(x) = ek·x · Cj · xj
X

j=0

4. Dos raı́ces complejas conjugadas con multiplicidad µ:


µ−1
2

y(x) = eα·x · [A · cos (β · x) + B · sen (β · x)] · Cj · xj


X

j=0
2.5 Ecuaciones diferenciales No-Homogéneas de Segundo Orden 23

2.5. Ecuaciones diferenciales No-Homogéneas de


Segundo Orden
Teorema: La solución general de cualquier ecuación diferencial de este tipo se
expresa como la suma de una solución particular cualquiera más la solución de la
homogénea asociada.
Demostración:
( )
yh′′ + p · yh′ + q · yh = 0
y(x) = yh (x) + yp (x)
yp′′ + p · yp′ + q · yp = f (x)
y ′′ + p · y ′ + q · y = 0 + f (x) = f (x)
Ası́ demostramos que es solución, demostremos ahora que es general:
)
y(x = x0 ) = y0
y = yh + yp = C1 · y1 + C2 · y2 + yp
y ′ (x = x0 ) = y0′
) ! ! !
y0 = C1 · y1,0 + C2 · y2,0 + yp,0 y1,0 y2,0 C1 y0 − yp,0
· =
y0′ = C1 · y1,0
′ ′
+ C2 · y2,0 ′
+ yp,0 ′
y1,0 ′
y2,0 C2 y0′ − yp,0


y y2,0
El sistema tendrá dos soluciones cuando el determinante 1,0
′ ′ sea diferente de
y1,0
y2,0
cero, pero eso siempre es cierto ya que ese es el determinante wronskiano y sabemos
que las soluciones y1 , y2 son independientes, ya que son la solución de la ecuación
homogénea.

La Solución Particular I: Métodos de Inspección


Éste método consiste en, dada una ecuación diferencial y ′′ + p · y ′ + q · y = f (x)
, ver la forma de f (x) y si se puede obtener de forma directa mediante otra función
parecida. Algunos ejemplos son los siguientes:
f (x) yP (x) a ensayar
Pn Pn
i=0 ai · x i i=0 ci · xi
Pn Pn
a · xi · sen (ω · x)+ i
i=0 ci · x · sen (ω · x)+
Pn i
i=0
i n i
+ i=0 bi · x · cos (ω · x) + di · x · cos (ω · x)
P
i=0

Pn Pn
eα·x · i=0 ai · x i eα·x · i=0 ci · xi
Ejemplo: y ′′ + 2 · y ′ + y = 3 · x + 2 + 3 · ex
La solución de la homogénea será y(x) = e−x · (C1 + C2 · x); (k1 = k2 = −1). Por
método de inspección, la solución particular será yp = c1 · x + c2 + c3 · ex
yp = c1 · x + c2 + c3 · ex
 
c1 · x = 3 · x ⇒ c 1 = 3
3 x

  

yp′ = c1 + c3 · ex 2 · c1 + c2 = 2 ⇒ c2 = −4 yp (x) = 3 · x − 4 + ·e
4
yp′′ = c3 · ex 4 · c3 · ex = 3 · ex ⇒ c3 = 34

  

y(x) = e−x · (C1 + C2 · x) + 3 · x − 4 + 43 · ex


24 2. Ecuaciones Diferenciales de Orden Superior

La Solución Particular II: Método de Variación de las Con-


stantes
Este método consiste en considerar las constantes en la solución general de la
homogénea como funciones de x. Como veremos, este método es totalmente general,
pero no siempre es el mejor a utilizar: Si se puede aplicar un método de inspección
siempre es más fácil llegar a la solución.
Dada una ecuación y ′′ + p · y ′ + q · y = f (x) de la que sabemos la solución de su
ecuación homogénea yh = C1 · y1 (x) + C2 · y2 (x), decimos que yp (x) = C1 (x) · y1 (x) +
C2 (x) · y2 (x), con las funciones C1 (x), C2 (x) a determinar.
A continuación derivamos para introducir en la ecuación. La primera derivada
será yp′ = C1′ · y1 + C1 · y1′ + C2′ · y2 + C2 · y2′ , pero para no arrastrar tantos términos,
vamos a imponer la primera condición: Los términos en C1′ y en C2′ se van a anular
entre sı́: C1′ · y1 + C2′ · y2 = 0. Ası́ pues la derivada primera queda yp′ (x) = C1 (x) ·
y1′ (x) + C2 (x) · y2′ (x). La segunda derivada será, entonces, yp′′ (x) = C1′ (x) · y1′ (x) +
C1 (x) · y1′′ (x) + C2′ (x) · y2′ (x) + C2 (x) · y2′ (x).
Una vez aquı́, podemos reordenar los términos agrupando por las funciones C1
y C2 a determinar, de la forma siguiente:

C1 (y1′′ + p · y1′ + q · y1 ) + C2 (y2′′ + p · y2′ + q · y2 ) + C1′ · y1′ + C2′ · y2′ = f (x)

Dado que y1 , y2 son soluciones de la ecuación homogénea, los términos en C1 y C2


valen cero, y llegamos a:
C1′ · y1′ + C2′ · y2′ = f (x)
Llegados a este punto tenemos un sistema de dos ecuaciones con dos incógnitas.
Veamos ahora que siempre tiene solución:
) ! ! !
C1′ · y1 + C2′ · y2 = 0 y1 y2 C1′ 0
· =
C1′ · y1′ + C2′ · y2′ = f (x) y1′ y2′ C2′ f (x)

y y2
Para que el sistema tenga solución, el determinante 1′ debe ser distinto de
y1y2′
cero, pero ya lo es, porque este determinante es el wronskiano de las soluciones y1 ,
y2 , que no es cero porque éstas son independientes. De esta manera llegamos a la
conclusión siguiente:

0 y2 y 0
1
Z f (x) y ′ Z y ′f (x)

2 1
C1 (x) = · dx C2 (x) = · dx
W (y1 , y2 ) W (y1 , y2 )

y(x) = (C1 (x) + C1 ) · y1 (x) + (C2 (x) + C2 ) · y2 (x)

Ejemplo: y ′′ + y = tg x
1) Buscamos la solución de la homogénea:
( )
yh =ek·x k1 = i
yh′′ + yh = 0 → 2
k +1=0 yh = A · sen x + B · cos x
k2 = −i
2.5 Ecuaciones diferenciales No-Homogéneas de Segundo Orden 25

2) Buscamos la solución particular por el método de variación de las constantes:

yp′′ + yp = tg x yp (x) = A(x) · sen x + B(x) · cos x

yp′ = A′ · sen x + A · cos x + B ′ · cos x + B · sen x → A′ · sen x + B ′ · cos x = 0


yp′′ = −A · sen x + A′ · cos x + B · cos x + B ′ · sen x
A·(sen x−sen x)+B·(cos x−cos x)+A′ ·cos x+B ′ ·sen x = A′ ·cos x+B ′ ·sen x = tg x
A′ = sen x ⇒ A = − cos x
)(
A′ · sen x + B ′ · cos x = 0
2 x
A · cos x − B ′ · sen x = tg x

B ′ = − sen
cos x
⇒ B = sen x − ln (sec x + tg x)
yp (x) = − cos x·sen x+[sen x−ln (sec x+tg x)]·cos x = − cos x·ln (sec x+tg x)

y(x) = A · sen x + [B − ln (sec x + tg x)] · cos x


Capı́tulo 3

Sistemas de Ecuaciones
Diferenciales

Dadas n funciones de x; y1 (x), y2 (x), . . . , yn (x); y dadas n relaciones entre ellas,


del tipo dydx
i
= f (x, y1 , y2 , . . . , yn ), i = 1, . . . , n y n condiciones iniciales yi (x = x0 ) =
yi,0 , i = 1, . . . , n, tenemos un sistema de n ecuaciones con incógnitas y1 (x), y2 (x), . . . , yn (x).
Además podemos convertir este sistema en una sola ecuación con derivada n-sima
de una sola de las yi (x) en función de las demás:
dy1
= f1 (x, y1 , y2 , . . . , yn )

dx 

dy2
= f2 (x, y1 , y2 , . . . , yn )



dx
..
. 


dyn

= fn (x, y1 , y2 , . . . , yn )

dx

d2 y1 ∂f1 ∂f1 ∂y1 ∂f1 ∂y2 ∂f1 ∂yn


2
= + · + · + ... + ·
dx ∂x ∂y1 ∂x ∂y2 ∂x ∂yn ∂x
d2 y1 ∂f1 ∂f1 ∂f1 ∂f1
2
= + · f1 + · f2 + . . . + · fn = F2 (x, y1 , . . . , yn )
dx ∂x ∂y1 ∂y2 ∂yn
Si repetimos este proceso derivando n veces, construiremos un nuevo sistema de
ecuaciones: 
dy1
dx
= f1 (x, y 1 , y 2 , . . . , y n ) 


d2 y1 
dx
= F 2 (x, y 1 , y 2 , . . . , y n ) 

..
. 


dn y1

= Fn (x, y1 , y2 , . . . , yn ) 

dx

Ejemplo:
dy
)
dx
=y+z+x
dz y(x) =? ; z(x) =?
dx
= −4 · y − 3 · z + 2 · x

d2 y dy dz
= + +1
dx2 dx dx
3.1 Sistemas de ecuaciones diferenciales lineales con coeficientes constantes 27

dz dy d2 y
Sustituimos dx
yz= dx
− y − x en la ecuación de la dx2
:

d2 y dy dy d2 y dy
2
− + 4 · y = −3 · +3·y+3·x+2·x+1⇒ 2 +2· y =5·x+1
dx dx dx dx dx
Resolvemos la ecuación homogénea:

yh (x) = ek·x → ek·x ·(k 2 +2·k+1) = 0 ⇒ k1 = k2 ≡ k = −1 ⇒ yh (x) = e−x ·(A+B·x)

yp (x) = a · x + b ; yp′ (x) = a ; yp′′ (x) = 0


(
a=5
2·a+a·x+b=5·x+1
b = −9

y(x) = e−x · (A + B · x) + 5 · x − 9

dy
z= − y − x = e−x · [−A + B · (1 − x)] + 5 − e−x · [A + B · x] − 5 · x + 9 − x
dx

z(x) = e−x · [−2 · A + B · (1 − 2x)] − 6 · x + 14

3.1. Sistemas de ecuaciones diferenciales lineales


con coeficientes constantes
dy1
= a11 · y1 + . . . + a1n · yn

dx 

dy2
= a21 · y1 + . . . + a2n · yn



dx
.. Imponemos yi = αi · ek·x ; i = 1, . . . , n
. 


dyn

= an1 · y1 + . . . + ann · yn

dx

Sustituyendo:
 
k · α1 = a11 · α1 + . . . + a1n · αn 
 (a11 − k) · α1 + a12 · α2 + . . . + a1n · αn = 0 

k · α2 = a21 · α1 + . . . + a2n · αn  a21 · α1 + (a22 − k) · α2 + . . . + a2n · αn = 0

 


.. ..
. 



. 



k · αn = an1 · α1 + . . . + ann · αn an1 · α1 + an2 · α2 + . . . + (ann − k) · αn = 0
 

a11 − k a12 ··· a1n α1 0


     

 a21 a22 − k ··· a2n  
  α2 


 0 

.. .. .. · .. = ..

... 
. . . . .
     
     
an1 an2 · · · ann − k αn 0
Una vez llegamos a la ecuación matricial A · α = 0, observamos dos posibles casos:

Si el determinante de la matriz A es diferente de cero, entonces αi = 0, ∀i, lo


cual es una solución trivial (yi = 0 ; ∀i).
28 3. Sistemas de Ecuaciones Diferenciales

Si el determinante es cero, la solución no es esa, sino que depende de k.

Ası́ pues, para encontrar todas las soluciones y que sean diferentes resolveremos la
ecuación det A = 0 para encontrar n valores de k que den soluciones para nuestro
sistema distintas de yi = 0. Con esos valores de k, sustituiremos en el sistema y
encontraremos n grupos de valores de αi , que llamaremos αij . Por último haremos
un tratamiento simirlar a las ecuaciones homogéneas:

Si las k son todas reales y distintas, haremos una combinación lineal de expo-
nenciales en k: yi = nj=1 Cj · αij · ekj ·x .
P

Si las k son todas complejas y a pares, k = a + i · b, haremos una combinación


lineal de senos y cosenos en a y en b: yi = nj=1 αij · eaj ·x · (Cj1 · cos (b · x) +
P

Cj2 · sen (b · x)).

Si las k tienen multiplicidad, entonces multiplicaremos la exponencial (o el


seno y el coseno) por x tantas veces como sea necesario.
3.1 Sistemas de ecuaciones diferenciales lineales con coeficientes constantes 29

Ejemplo:
dy1
) ) )
dx
= −7 · y1 + y2 y1 = α1 · ek·x k · α1 = −7 · α1 + α2
dy2
dx
= −2 · y1 − 5 · y2 y2 = α2 · ek·x k · α2 = −2α1 − 5 · α2
!
7 + k −1
A= det A = 0 ⇒ k 2 + 12 · k + 37 = 0 ⇒ k = −6 ± i
2 k+5
Sustituimos en el sistema:
k1 = −6 + i )
(−7 − (−6 + i)) · α1 + α2 = 0
−2 · α1 − (5 + (−6 + i)) · α2 = 0
(−1 − i) · α1 + α2 = 0 ; α2 = (1 + i) · α1
−2 · α1 − (−1 + i) · (1 + i) · α1 = −2 − (−2) = 0
k2 = −6 − i
)
(−6 + 7 − i) · α1 − α2 = α1 · (1 − i) − α2 = 0
2 · α1 + (5 + (−6 − i)) · α2 = 2 · α1 + (−1 − i) · α2 = 0

α2 = (1 − i) · α1
2 · α1 − (1 + i) · (1 − i) · α1 = 2 − 2 = 0
) )
α2 = (1 + i) · α1 k = −6 + i ⇒ α2 = 1 + i
6 0 → α1 = 1 ; 1
∀α1 , α2 =
α2 = (1 − i) · α1 k2 = −6 − i ⇒ α2 = 1 − i
En términos de y(x):
)
y11 = e(−6+i)·x → y11 = e−6·x · (cos x + i · sen x)
y12 = (1 + i) · e(−6+i)·x → y12 = (1 + i) · e−6·x · (cos x + i · sen x)
)
y21 = e(−6−i)·x → y21 = e−6·x · (cos x − i · sen x)
y22 = (1 + i) · e(−6+i)·x → y22 = (1 − i) · e−6·x · (cos x − i · sen x)
Solución: )
y1 (x) = A · y11 (x) + B · y21 (x)
y2 (x) = A · y12 (x) + B · y22 (x)

y1 (x) = C1 · e−6·x · cos x + C2 · e−6·x · sen x

y2 (x) = C1 · e−6·x · (cos x − sen x) + C2 · e−6·x · (cos x + sen x)


Parte II

FUCIONES DE VARIAS
VARIABLES
Ejemplos

Si una partı́cula se mueve en el espacio, ¿cuál es su altura en función de su


posición?
f: ℜ3 → ℜ
z = f (x, y, t) →
(x, y, t) → z

Temperatura en cada punto del espacio: Campo escalar.

T = f (x, y, z, t)

Cambio de coordenadas: función vectorial de dos variables.


f: ℜ2 → ℜ2
(x, y) → (r, θ)

r = x2 + y 2
) )
x = r · cos θ
y = r · sen θ θ = arc tg xy

Posición en función del tiempo: Campo vectorial.


  r: ℜ → ℜ3
~r(t) = x(t), y(t), z(t)
t → (x, y, z)
Capı́tulo 1

Tipos de funciones

1. Funciones de una variable:


f: ℜ → ℜ
y = f (x)
x → y

2. Campo escalar: El espacio imagen es ℜ(1) :

f: ℜn → ℜ
y = f (x1 , . . . , xn )
(x1 , . . . , xn ) → y

3. Campo vectorial con parámetro escalar: El espacio origen es ℜ(1) :

f: ℜ → ℜm
~y = (y1 , . . . , ym ) = f~(x)
x → (y1 , . . . , ym )

4. Caso general:

f: ℜn → ℜm
~y = (y1 , . . . , ym ) = f (~x) = f~(x1 , . . . , xn )
(x1 , . . . , xn ) → (y1 , . . . , ym )
Capı́tulo 2

Propiedades de las funciones de


varias variables

1. Dominio de definición:
Conjunto de puntos del espacio origen ~x = (x1 , . . . , xn ) para los cuales está defini-
da la función ~y = (y1 , . . . , ym ) = f~(~x) = f~(x1 , . . . , xn ).
La lı́nea que limita el dominio se llama frontera.

2. Correspondencia:
Dados dos conjuntos, A y B. f~ es una correspondencia de A en B si, y sólo
si, f~ ⊂ A × B/(~x, ~y ) ∈ f~. Es decir, una correspondencia relaciona un elemento
~x ∈ A con uno (o más) elementos ~y ∈ B; donde A y B son los conjuntos origen
e imagen, respectivamente.

3. Aplicación:
Una corresponcencia de A en B es una aplicación si, y sólo si, para ∀~x ∈ A, ∃
un único ~y ∈ B/(~x, ~y ) ∈ f~. Pueden ser:

Exhaustiva: ∀~y ∈ B, ∃~x ∈ A/(~x, ~y ) ∈ f~


Inyectiva: ~x 6= x~′ ⇒ f~(~x) 6= f (x~′ ) ←→ f~(~x) = f~(x~′ ) ⇒ ~x = x~′
Biyectiva: Una función es biyectiva si y sólo si es, a la vez, inyectiva y
exhaustiva.

4. Función ℜn → ℜm :
Una función de ℜn en ℜm es una aplicación que asocia un vector de ℜn con
otro de ℜm .
f~ : ℜn → ℜm
(x1 , . . . , xn ) → (y1 , . . . , ym )

5. ℜn es un espacio vectorial
34 2. Propiedades de las funciones de varias variables

2.1. Operaciones
1. Igualdad: ~x = ~y ⇔ xi = yi , ∀i

2. Suma: ~x + ~y = (x1 + y1 , . . . , xn + yn )

3. Producto por un escalar: a · ~x = (a · x1 , . . . , a · xn )

4. Diferencia: ~x − ~y = ~x + (−1) · ~y

5. Elemento neutro: ~0 = (0, . . . , 0)


Pn
6. Producto escalar: ~x · ~y = k=1 xk · xk
1
P 1
n 2
7. Norma: k~xk = (~x · ~x) = 2
k=1 xk · yk

8. Distancia: k~x − ~y k

Propiedades de las operaciones:

a) k~xk ≥ 0; k~xk = 0 ⇔ ~x = ~0

b) ka · ~xk = |a| · k~xk a∈ℜ

c) k~x − ~y k = k~y − ~xk

d) k~x · ~y k ≤ k~xk · k~y k

e) k~x + ~y k = k~xk + k~y k

2.2. Topologı́a
a) Entorno o bola abierta en ℜn :
(
n ~a ∈ ℜn
B(~a, r) = {~x ∈ ℜ | k~x − ~ak < r}
r∈ℜ

b) Frontera de un entorno (δB):


(
n ~a ∈ ℜn
δB(~a, r) = {~x ∈ ℜ | k~x − ~ak = r}
r∈ℜ

c) Entorno cerrado (B̄):


(
n ~a ∈ ℜn
B̄(~a, r) = B(~a, r) ∪ δB = {~x ∈ ℜ | k~x − ~ak ≤ r}
r∈ℜ
Capı́tulo 3

Lı́mites y continuidad:

lı́m kf~(~x) − ~bk = 0 ⇒ lı́m f~(~x) = ~b


k~
x−~ak→0 ~
x→~a

f~(~x) es contı́nua en un punto ~a si

∃f~(~a)/ lı́m f~(~x) = f~(~a)


~
x→~a

f~(~x) es contı́nua en un punto ~a si se cumple que para cualquier ǫ dado, existe un


h(ǫ, ~a), que hace que para cualquier ~x que cumpla que k~x − ~ak < h, pase también
que kf~(~x) − f~(~a)k < ǫ. Si, además, h es solamente función de ǫ (es decir, no es
función del punto), la función es uniformemente contı́nua.

Ejemplo: z = x2·x·y
2 +y 2

Nos aproximamos a (x, y) = (0, 0) segun el camino y = m · x:


2·x·m·x 2·m
z= 2 2 2
=
x +m ·x 1 + m2
Como el resultado es función de m (depende del camino), la función no es contı́nua.

3.1. Propiedades de la continuidad


a) Si f~ : ℜn → ℜm es una transformación lineal, entonces es contı́nua para
∀~x ∈ ℜn
Demostración:
Una función lineal cumple que f~(~a + ~h) = f~(~a) + f~(~h) y que f~(λ ·~a) = λ · f~(~a).

kf~(~a + ~h) − f~(~a)k = kf~(~a) + f~(~h) − f~(~a)k = kf~(~h)k


n n n n
~h→0
~h = hi · ûi ⇒ f~(~h) = f~ hi · f~(ûi ) ≤ |hi | · kf~(ûi )k −→ 0
X X  X X
hi · ûi =
i=1 i=1 i=1 i=1
~h→0 ~h→0
kf~(~a + ~h) − f~(~a)k = kf~(~h)k −→ 0 ⇒ f~(~a + ~h) −→ f~(~a), c.q.d.
36 3. Lı́mites y continuidad:

b) Dadas dos funciones f~, ~g , y la operación composición, f~ ◦ ~g (~a) ≡ f~(~g (~a)). Si ~g


es contı́nua en ~a, y f~ es contı́nua en ~g (~a); entonces f~ ◦ ~g en contı́nua en ~a
Demostración:
~
x→~a
kf~(~g (~x)) − f~(~g (~a))k −→ 0
)
~y ≡ ~g (~x) ~x → ~a ⇒ ~g (~x) → ~g (~a) ~
x→~a
~b ≡ ~g (~a) ⇒ f~(~g (~x)) −→ f~(~g (~a))
~y → ~b ⇒ f~(~y ) → f~(~b)
Parte III

CÁLCULO DIFERENCIAL EN
VARIAS VARIABLES
Capı́tulo 1

Derivada direccional

En una variable, definimos la derivada de la función y = f (x), entendida como


el incremento de una función, de la siguiente manera:
dy f (x + h) − f (x)
≡ lı́m
dx h→0 h
En varias variables, hacemos una generalización del concepto de derivada, de forma
que podamos usar el mismo concepto de derivada en cualquier dirección. Ası́ pues,
se define la derivada direccional de la función f (~x) según la dirección del vector û,
unitario, de la siguiente manera:
  f (~x + h · û) − f (~x)
Dû f (~x) = fû′ (~x) ≡ lı́m
h→0 h
Si la función fuese vectorial, entonces la derivada se aplicaria a cada una de las
componentes por separado:
n n
Dû f~(~x) = Dû
  X  X  
fi (~x) · eˆi = Dû fi (~x) · eˆi
i=1 i=1

Para una función de dos variables, también se puede expresar la derivada direccional
en función de un ángulo α, definiéndose un vector de la forma û ≡ cos α ·ı̂ + sen α · ̂:
  f (x + ρ · cos α, y + ρ · sen α) − f (x, y)
Dα f (x, y) = fα′ (x, y) ≡ lı́m
ρ→0 ρ

1.1. Caso particular: Las derivadas parciales


Se define la derivada parcial de una función respecto de una de sus variables
como la derivada direccional de ésta función en la dirección de esa variable:
n
∂f   f (~x + h · eˆi ) − f (~x) X
≡ Deˆi f (~x) = lı́m ~x = xi · eˆi
∂xi h→0 h i=0

∂f f (x1 , . . . , xi−1 , xi + h, xi+1 , . . . , xn ) − f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xn )


= lı́m
∂xi h→0 h
1.2 Propiedades de la derivada direccional: 39

Vistas estas definiciones podemos escribir, en dos variables, la derivada direc-


cional en función de las derivadas parciales:

f (x + ρ cos α, y + ρ sen α) − f (x, y)


fα′ (x, y) = lı́m =
ρ→0 ρ

f (x + ρ cos α, y + ρ sen α) − f (x, y + ρ sen α) + f (x, y + ρ sen α) − f (x, y)


= lı́m =
ρ→0 ρ
f (x + ρ cos α, y + ρ sen α) − f (x, y + ρ sen α) f (x, y + ρ sen α) − f (x, y)
= lı́m + lı́m
ρ→0 ρ ρ→0 ρ

h ≡ ρ · cos α f (x + h, y + k) − f (x, y + k) h f (x, y + k) − f (x, y) k
= = lı́m · +lı́m ·

k ≡ ρ · sen α h→0 h ρ k→0 k ρ

f (x+h,y+k)−f (x,y+k)
lı́mh→0 = ∂f h = cos α  ∂f ∂f
h
f (x,y+k)−f (x,y) ∂f
∂x ρ
k fα′ (x, y) = · cos α + · sen α
lı́mk→0 k
= ∂y ρ
= sen α  ∂x ∂y
Ejemplo 1: f (x, y) = x · y + ex · cos y

∂f ∂f
= y + ex · cos y = x − ex · sen y
∂x ∂y
x2 y2 z2
Ejemplo 2: T (x, y, z) = a2
+ b2
+ c2

∂T 2 ∂T 2 ∂T 2
= 2 ·x = 2 ·y = 2 ·z
∂x a ∂y b ∂z c
π
Ejemplo 3: Cálculo de la derivada direccional en la dirección α = 4
de la función
z = x · y en x = 1; y = 1
∂z
  π ∂z π
Dα= π4 z = · cos + · sen
∂x 4 ∂y 4

  π π 2
Dα= π4 z = y · cos + x · sen = · (x + y)
4 4 2

  2 √
Dα= π4 z

= · (1 + 1) = 2
x=y=1 2

1.2. Propiedades de la derivada direccional:


1. Las derivadas direccionales contı́nuas son aplicaciones lineales de ℜn en ℜm .
Demostración:

f~(~a + h · α · û) − f~(~a) f~(~a + h · α · û) − f~(~a)


Dα·û f~(~a) = lı́m
 
= α · lı́m =
h→0 h h→0 h·α
f~(~a + h′ · û) − f~(~a) 
~(~a)

= h′ ≡ h · α = α · lı́m = α · D û f
′ h →0 h′
40 1. Derivada direccional

f~(~a + h · (uˆ1 + uˆ2 )) − f~(~a)


Duˆ1 +uˆ2 f~(~a) = lı́m
 
=
h→0 h

f~(~a + h · (uˆ1 + uˆ2 )) − f~(~a + h · uˆ1 ) + f~(~a + h · uˆ1 ) − f~(~a)


= lı́m =
h→0 h
f~(~a + h · (uˆ1 + uˆ2 )) − f~(~a + h · uˆ1 ) f~(~a + h · uˆ1 ) − f~(~a)
= lı́m + lı́m =
h→0 h h→0 h
= Duˆ f~(~a) + Duˆ f~(~a)
   
1 2

2. Si una función f (x, y) es contı́nua y tiene derivadas parciales acotadas ( ∂f


∂x

∂f
Mx ; ∂y ≤ My ) en un dominio D, abierto, entonces f (x, y) es contı́nua en D.
Demostración: Para la demostración utilizaremos el teorema del valor medio
(T.V.M.) 1 . Para que la función sea contı́nua, debe cumplir que kf (x + h, y +
h,k→0
k) − f (x, y)k −→ 0.

kf (x+h, y+k)−f (x, y)k = kf (x+h, y+k)−f (x+h, y)+f (x+h, y)−f (x, y)k →

T.V.M. ∂f ∂f
−→ kk · +h· k≤
∂y (x+h,y+θ1 ·k) ∂x (x+θ2 ·h,y)
∂f ∂f
≤ |k| · k k + |h| · k k≤
∂y (x+h,y+θ1 ·k) ∂x (x+θ2 ·h,y)
h,k→0
≤ |k| · |My | + |h| · |Mx | −→ 0 ; c.q.d.

f (x2 )−f (x1 ) ∂f


x2 −x1 = f ′ (ξ) f (x + h, y + k) − f (x + h, y) = k · ∂y (x+h,y+θ1 ·k)
∂f
ξ = x1 + θ · (x2 − x1 ) ∈ (x1 , x2 ) f (x + h, y) − f (x, y) = h · ∂x (x+θ2 ·h,y)
Capı́tulo 2

Matriz Jacobiana, Jacobiano de


una función

Se define la matriz jacobiana de una función f~(~x), con f~ = m


i=1 fi (~
x)eˆi y ~x =
P
Pn
i=1 xi ûi como:  ∂f ∂f1 ∂f1

1
· · ·
 ∂x 1 ∂x2 ∂xn 
 ∂f2 ∂f2
· · · ∂f2 
 ∂x1 ∂x2 ∂xn 
J ≡ ... .. ... .. 
 . . 
∂fm ∂fm ∂fm
∂x1 ∂x2
· · · ∂xn

Entonces, el jacobiano de la función f~(~x) es el determinante de la matriz jacobiana


(solamente cuando ésta es cuadrada).

2.1. Matriz jacobiana y derivada direccional


Dada una función f~(~x), contı́na en un dominio D. Entonces su derivada direc-
cional según la dirección ~v en el punto ~a ∈ D es:

D~v f~(~x) = Jf~(~a) · ~v


 
~a

Demostración:
n m m n
vi eˆi ; f~ = fj uˆj ⇒ f~′ (~a, ~v ) = fj′ (~a,
X X X X
~v = vi eˆi ) =
i=1 j=1 j=1 i=1

n
m X n
m X
∂fj
vi fj′ (~a, eˆi ) =
X X
= vi eˆi = Jf~(~
a) · ~v , c.q.d.
j=1 i=1 j=1 i=1 ∂xi ~a
Capı́tulo 3

Derivabilidad y continuidad:
Diferencial total

Se dice que una función es diferenciable en el punto x si se puede escribir en la


vecindad de ese punto, x + h, por medio de una función lineal:

f (x + h) = f (x) + Ah + O(h2 )

Por generalización directa de ésto podemos ponerlo en varias variables:


n
Ci vi h + O(h2 )
X
f (~x + h~v ) = f (~x) +
i=1

El diferencial nos es muy útil, ya que si una función es diferenciable, entonces:


También es contı́nua,

Tiene derivada direccional en todas las direcciones,

Tiene derivadas parciales, y

Existe un plano tangente

3.1. Condición suficiente de diferenciabilidad


Una función z = f (x, y) es diferenciable en un punto, si posee derivadas parciales
en ese punto y éstas son contı́nuas:

∆z = f (x + h, y + k) − f (x, y) = f (x + h, y + k) − f (x, y + k) + f (x, y + k) − f (x, y) =


∂f ∂f
=h +k ; 0 < θ, θ′ < 1
∂x (x+θh,y+k) ∂y (x,y+θ′ k)

Si las derivadas parciales son contı́nuas:


∂f ∂f
∆z = h +k + O(h2 , k 2 , hk)
∂x (x,y) ∂y (x,y)

3.2 ¿Cómo demostrar que una función es diferenciable en un punto? 43

Si tomamos h, k → 0 y cambiamos h por ∆x y k por ∆y, queda:


∂f ∂f
dz = dx + dy + O(d2 x, d2 y, dxdy)
∂x (x,y) ∂y (x,y)

que es la definición de diferencial de la función z = f (x, y) en un punto (x, y)


cualquiera.

3.2. ¿Cómo demostrar que una función es difer-


enciable en un punto?
Comprobamos la siguiente relación:

f (x + h, y + k) − f (x, y) − df ?
lı́m √ = 0
h,k→0 h2 + k 2
Si esto se cumple, entonces la función es diferenciable.
Ejemplo: Calcular el volumen de material necesario para fabricar un cazo cilı́ndri-
co de radio interior r, altura h y espesor de fondo y paredes k (k << h, r).
La solución exacta del problema se obtiene restando el volumen del cilindro
interior al del cilindro exterior:

V = Vext − Vint = π(r + k)2 (h + k) − πr2 h =

= π[(r2 + k 2 + 2rk)(h + k) − r2 h] = π[r2 k + (k 2 + 2rh)(h + k)]


Sin embargo, en este caso y aprovechando que k << h, r, podemos buscar una
solución aproximada usando la definición de diferencial:
∂V ∂V
Vint = πr2 h; ∆V ≈ dV = dr + dh
∂r ∂h
∂V

∂r
= 2πrh 

∂V
∂h
= πr2 V ≈ π[2rhk + r2 k] = πrk(2h + r)

dr = dh = k 

Usamos valores para ver el error entre los resultados:



r = 4cm * )
Vexacto = 17, 881πcm3


h = 20cm Error = 0, 281π; 1, 6 %
Vaprox = 17, 6πcm3
k = 0, 1cm

3.3. Interpretación geométrica del diferencial: El


plano tangente
En una variable, se define la derivada de una función en un punto como la
pendiente de la recta que es tangente a esa función en ese punto. Si tenemos una
44 3. Derivabilidad y continuidad: Diferencial total

función escalar de dos variables (z = f (x, y)), el diferencial de esta función nos
dará la ecuación del plano tangente a la superfı́cie definida por la función z en un
punto dado. Definiremos los vectores t~1 y t~2 como los vectores tangentes a la función
en las direcciones x e y, respectivamente, de la siguiente forma:
 
t~1 = 1, 0, ∂f
∂x


 (x,y) 
t~2 = 0, 1, ∂f
∂y


(x,y)

El vector normal al plano tangente se obtiene haciendo el producto vectorial de los


vectores t~1 y t~2 :

ı̂ ̂



∂f ∂f ∂f
~n = t~1 × t~2 = 1 0
 
= − , − , 1

∂x (x,y)

∂x (x,y) ∂y (x,y)


0 1 ∂f
∂y

(x,y)

3.4. Funciones vectoriales


Todo el desarrollo de este capı́tulo se ha hecho para funciones escalares de varias
variables, pero en el capı́tulo anterior también se trataron funciones vectoriales de
varias variables.
Una función vectorial equivale a tener n funciones escalares por separado, y se
pueden aplicar los conceptos de derivada parcial, derivada direccional y diferencial
de la misma forma a cada una de ellas. Ası́ pues, definimos:

La derivada parcial de una función f~(~x) respecto de la variable xi como la


derivada parcial respecto a ésta variable de cada una de sus componentes:

∂ f~ ∂ Xn  Xn
∂fj
= fj eˆj = eˆj
∂xi ∂xi j=1 j=1 ∂xi

La derivada direccional de una función f~(~x) en una dirección û como la deriva-


da direccional en esa dirección de cada una de sus componentes:
n ′ n
f~′ (~x, û) =
X
fi′ (~x, û)eˆi
X
fi (~x, û)eˆi =
i=1 i=1

La diferencial total de una función f~(~x) como el producto de la matriz jaco-


~
biana de la función por el vector dx:
 ∂f1 ∂f1   
n m ∂x1
··· ∂xm dx1
~ = ∂fi  . ... ..   . 
~
 ..
 ·  .  = J ~ · dx
X X
df ei dxj =  .   .  f
i=1 j=1 ∂xj ∂fn ∂fn
∂x1
··· ∂xm
dxm
Capı́tulo 4

Operadores vectoriales: gradiente,


rotacional y divergencia

4.1. Gradiente
Llamamos gradiente de una función escalar que depende de n variables al vector
cuyas componentes son las derivadas parciales de la función respecto de cada una
de las variables.
n
~
X ∂f
grad(f ) ≡ eˆi
i=1 ∂xi

Esta operación invita a introducir el operador vectorial conocido como operador


nabla, y definido de la siguiente forma:
n
~ ≡
X ∂
∇ eˆi
i=1 ∂xi

Con este operador, el gradiente de una función se puede escribir de la siguiente


manera:
~
grad(f ~
) = ∇f
Ejemplo: Calcular el gradiente de la función z = x2 + y 2 en el punto A = (2, 1).

~ = (2x, 2y) = 2xı̂ + 2y̂; ∇z|


∇z ~ A = 4ı̂ + 2̂

Gradiente y derivada direccional


Dada una función ϕ(~x), su derivada direccional según el vector ê es:
n
∂ϕ ~ · ê
ϕ′ (~x, ê) =
X
ei = ∇ϕ
i=1 ∂xi

Atención: El vector que da la dirección debe ser unitario. Si no lo es, calculare-


mos su módulo y normalizaremos con él el resultado.
46 4. Operadores vectoriales: gradiente, rotacional y divergencia

Interpretación del gradiente


Acabamos de demostrar que el producto escalar del gradiente de una función
por un vector unitario nos da la derivada en la dirección del vector. Sabemos que la
definición de producto escalar es el producto de módulos por el coseno del ángulo
que forman. Si los vectores son paralelos, el producto escalar (es decir, la derivada en
esa direccón) será máximo; mientras que si son perpendiculares, el producto escalar
será nulo.
Como sabemos que el módulo del vector director es 1, el gradiente por sı́ solo
representa un vector paralelo a la dirección según la cual la derivada direccional es
máxima. Por lo tanto, el gradiente de una función nos da la dirección de
máximo aumento de la misma en cada uno de sus puntos. De la misma
forma, si nos movemos en una dirección perpendicular a la que nos da el gradiente,
la derivada direccional será nula, y en esa dirección la función se mantendrá con-
stante. Por último, si nos movemos en la dirección opuesta al gradiente, tendremos
el máximo decrecimiento de la función.
Además, dada una función F (~x) = 0, su gradiente nos da el vector normal a la
superfı́cie en cada punto, y con él el plano tangente. √
Ejemplo: En qué dirección crece más la función z = 1 − x2 − y 2 ?

~ =√ 1
∇z (−x, −y)
1 − x2 − y 2

4.2. Rotacional
Se llama rotacional de una función vectorial al producto vectorial del operador
nabla con esta función. Ésta operación solamente está definida en funciones vecto-
riales de tres componentes, que dependen de tres variables. Si el rotacional de una
función es nulo, ésta recibe el nombre de función irrotacional, y significa que ésta
función es el gradiente de una función escalar.

ı̂ ̂ k̂
 ∂f ∂fy   ∂f ∂fz   ∂f ∂fx 
z x y
rot(f~) ≡ ∇
~ × f~ = ∂
∂x

∂y

∂z
=

− ı̂ + − ̂ + − k̂
f
∂y ∂z ∂z ∂x ∂x ∂y
x fy fz


ı̂ ̂ k̂

~ ~ ∂
∇ × ∇ϕ = ∂x ∂ ∂
=
∂y ∂z
∂ϕ ∂ϕ ∂ϕ
∂x ∂y ∂z

 ∂ 2ϕ ∂ 2ϕ ∂ 2ϕ ∂2ϕ ∂2ϕ ∂2ϕ 
= − , − , − = (0, 0, 0) = 0
∂y∂z ∂z∂y ∂z∂x ∂x∂z ∂x∂y ∂y∂x

4.3. Divergencia
Se llama divergencia de una función vectorial al producto escalar del operador
nabla con la función. Las funciones con divergencia cero se llaman solenoidales, y
4.4 Operador laplaciano 47

significa que son el rotacional de otra función vectorial.


n
∂fi
div(f~) ≡ ∇
~ · f~ =
X

i=0 ∂xi

~ · (∇
~ ×ϕ ∂  ∂ϕz ∂ϕy  ∂  ∂ϕx ∂ϕz  ∂  ∂ϕy ∂ϕx 
∇ ~) = − + − + − =
∂x ∂y ∂z ∂y ∂z ∂x ∂z ∂x ∂y
∂ 2 ϕz ∂ 2 ϕy ∂ 2 ϕx ∂ 2 ϕz ∂ 2 ϕy ∂ 2 ϕx
= − + − + − =0
∂x∂y ∂x∂z ∂y∂z ∂y∂x ∂z∂x ∂z∂y

4.4. Operador laplaciano


El operador laplaciano se puede aplicar tanto a una función escalar como vecto-
rial, y tiene como resultado un escalar o un vector, respectivamente. El laplaciano
de una función escalar se define como la divergencia de su gradiente, y se calcula
haciendo la suma de derivadas segundas respecto de cada una de las variables (no
las cruzadas).
~ · (∇ϕ)
~ ∂ 2ϕ ∂ 2ϕ ∂ 2ϕ
∇2 ϕ = ∇ = + 2 + 2
∂x2 ∂y ∂z
El laplaciano de una función vectorial se define como el gradiente de su diver-
gencia menos el rotacional de su rotacional, y se calcula haciendo la laplaciana de
cada una de las componentes del vector:
n
∇2 f~ = ∇(
~ ∇~ · f~) − ∇ ~ × f~) =
~ × (∇ eˆi ∇2 fi
X

i=1

4.5. Cambio de coordenadas


Por razones de simetrı́a, algunos problemas sugieren un cambio de variables. Las
derivadas respecto de las nuevas variables siguen las mismas definiciones, pero el
operador nabla cambia según la operación que realice. A continuación se citan las
dos coordenadas más comunes (esféricas y cilı́ndricas):

Coordenadas cilı́ndricas:
Las coordenadas cilı́ndricas vienen dadas por tres coordenadas: ρ, que representa
la distancia del punto al eje OZ; ϕ, que representa el ángulo que forma la proyección
del punto sobre el plano XY con el eje OX; y z, que es la altura del punto desde el
origen (v. Figura 4.1) Para hacer el cambio de coordenadas, usaremos las siguientes
ecuaciones: 
ρ2 = x2 +y 2 


 x = ρ cos ϕ  
ϕ = arc tg xy  y = ρ sin ϕ
z=z

z=z

 

Si tenemos una función Φ = Φ(ρ, ϕ, z), y queremos buscar su gradiente o su lapla-


ciano; y si tenemos una función f~ = (fρ (ρ, ϕ, z), fϕ (ρ, ϕ, z), fz (ρ, ϕ, z)) y queremos
48 4. Operadores vectoriales: gradiente, rotacional y divergencia

calcular su rotacional y su divergencia, aplicaremos ciertos cambios al operador


nabla:
~ = ∂Φ ρ̂ + 1 ∂Φ ϕ̂ + ∂Φ k̂
∇Φ
∂ρ r ∂ϕ ∂z
∂ 2 Φ 1 ∂Φ 1 ∂ 2Φ ∂ 2Φ
∇2 Φ = + + + 2
∂ρ2 r ∂ρ r2 ∂ϕ2 ∂z

ρ̂ ρϕ̂ k̂
1
~ × f~ = ∂ ∂ ∂

ρ ∂ρ ∂ϕ ∂z


f ρ ρfϕ fz

~ · f~ = 1 ∂(ρfρ ) + ∂fϕ + ∂(ρfz )


h i

ρ ∂ρ ∂ϕ ∂z

Coordenadas esféricas:
Las coordenadas esféricas vienen dadas por tres coordenadas: r, que representa
la distancia del punto al orı́gen; ϕ, que representa el ángulo que forma la proyección
del punto sobre el plano XY con el eje OX; y θ, que es el ángulo que forma el
punto con el eje z (v. Figura 4.2) Para hacer el cambio de coordenadas, usaremos
las siguientes ecuaciones:

r2 = x2 + y 2+z 2


x = r sen θ cos ϕ


 
ϕ = arc tg xy
 
  y = r sin θ sin ϕ
θ = arc tg √ z z = r cos θ

 



x2 +y 2

Si tenemos una función Φ = Φ(r, ϕ, θ), y queremos buscar su gradiente o su lapla-


ciano; y si tenemos una función f~ = (fr (r, ϕ, θ), fϕ (r, ϕ, θ), fθ (r, ϕ, θ)) y queremos
calcular su rotacional y su divergencia, aplicaremos ciertos cambios al operador
nabla:
~ = ∂Φ r̂ + 1 ∂Φ ϕ̂ + 1 ∂Φ θ̂
∇Φ
∂r r ∂ϕ r sen θ ∂θ
1 ∂  2 ∂Φ  1 ∂ ∂Φ  1 ∂ 2Φ
∇2 Φ = r + sen θ +
r2 ∂r ∂r r2 sen θ ∂θ ∂θ r2 sen2 θ ∂ϕ2

r̂ rϕ̂ r sen θθ̂
~ × f~ = 1
∂ ∂ ∂


r sen θ ∂r
2 ∂ϕ ∂θ


f r rfϕ r sen θfθ

~ · f~ = 1 h ∂(r2 sen θfr ) ∂(r sen θfϕ ) ∂(rfθ ) i


∇ + +
r2 sen θ ∂r ∂ϕ ∂θ
4.5 Cambio de coordenadas 49

Figura 4.1: Esquema de las coordenadas cilı́ndricas

Figura 4.2: Esquema de las coordenadas esféricas


Capı́tulo 5

Diferenciación de funciones
compuestas: La regla de la cadena

Vamos a llegar al resultado a partir del de una variable, por extensión del mismo:
dh df dg
h(x) = (f ◦ g)(x) ⇒ = ·
dx dg dx

Supongamos ahora que tenemos una función ~h(~x) que cumple que ~h = f~ ◦ ~g , y f~
y ~g son diferenciables en un punto ~a. Entonces ~h también es diferenciable en ese
punto, y su diferencial vale d~h = df~|~g(~a) ◦ d~g |~a . Además, si calculamos la derivada
componente a componente, veremos lo siguiente:
~h = (h1 , · · · , hm ); hi = hi (x1 , · · · , xn )

∂hj X ∂fj ∂gl


= ·
∂xk l ∂gl ∂xk
∂h1 ∂h1 ∂f1 ∂f1 ∂g1 ∂g1
···
     
∂x1
··· ∂xn ∂g1 ∂gn ∂x1
··· ∂xn
 .. ... ..  
= .. ... ..  
· .. ... .. 

 . .   . .   . . 

∂hm ∂hm ∂fm ∂fm ∂gl ∂gl
∂x1
··· ∂xn ∂gl
··· ∂gl ∂x1
··· ∂xn
     
J~h ~a = Jf~ ~g (~a) · J~g ~a
Ejemplo: Coordenadas polares
)
x = r cos ϕ
f (x, y) = f (r cos ϕ, r sen ϕ) = ψ(r, ϕ)
y = r sen ϕ
∂ψ
∂x ∂y
= ∂f · ∂x + ∂f · ∂y = ∂f cos ϕ + ∂f
)
∂r
= cos ϕ ∂r
= sen ϕ ∂r ∂x ∂r ∂y ∂r ∂x ∂y
sen ϕ
∂x ∂y ∂ψ ∂f ∂x ∂f ∂y ∂f ∂f
∂ϕ
= −r sen ϕ ∂ϕ
= r cos ϕ ∂ϕ
= ∂x · ∂ϕ + ∂y · ∂ϕ = − ∂x sen ϕ + ∂y cos ϕ
  ∂x ∂x !
 
∂ψ ∂ψ ∂r ∂ϕ ∂f ∂f
∂r ∂ϕ = ∂y ∂y · ∂x ∂y
∂r ∂ϕ
Capı́tulo 6

Fórmula de Taylor

Dada una función f : ℜn → ℜ, contı́nua y n + 1 veces derivable en ~x = ~a, esta


función se puede escribir como un desarrollo en serie de potencias (de Taylor) de la
siguiente forma:
X ∂f 1 X ∂ 2 f

f (~x) = f (~a) + (xk − ak ) + (xk − ak1 ) · (xk2 − ak2 )+
k ∂xk

~a 2! k1 ,k2 ∂xk1 ∂xk2 ~a 1

1 X ∂ nf


··· + (xk − ak ) · · · (xk − ak ) + Rn (ξ)
n n
n! k1 ,···,kn ∂xk1 · · · ∂xkn ~a 1 1

1 ∂ n+1

Rn (ξ) = ·

(xk − ak ) · · · (xk ~ x, ~a]
n+1 − akn+1 ); ξ ∈ [~
(n + 1)! ∂xk1 · · · ∂xkn+1 ξ~ 1 1
52 6. Fórmula de Taylor

PROBLEMA DE EXAMEN: Después de ser atacada por el capitán Tyranos


cerca de Mercurio, el casco de la nave Lucy Skywalker está a punto de fundirse. La
nave se encuentra en la posición (1, 1, 1) y la temperatura en (x, y, z) viene dada por
T (x, y, z) = exp(−x2 − 2y 2 − 3z 2 ), donde x, y y z se miden en metros.

a) En qué dirección se deberı́a mover la nave Lucy para reducir su temperatura


más rápidamente?
La función T (x, y, z) es una función contı́nua y derivable en todos sus puntos,
por lo tanto la variación
de la temperatura de la nave en una dirección γ es
∂T ∂T
dT = ∂~r · ~r = ∂~r |d~r| cos γ.
Si queremos que la variación sea máxima y negativa, debemos desplazarnos en
la dirección γ = π:
~ = −(−e−x2 −2y2 −3z2 2x, −e−x2 −2y2 −3z2 4x, −e−x2 −2y2 −3z2 6x) =
dTmin = −∇T
2 −2y 2 −3z 2 (1,1,1)
= e−x (2x, 4y, 6z) −→ e−1−2−3 (2, 4, 6)

Como la dirección no depende√del módulo pero sı́ del signo, podemos dividir
por el módulo del vector, 2e−6 14. Ası́, la dirección es:
1
v̂ = √ (1, 2, 3)
14

b) Si viaja en esa dirección con una velocidad de e8 ms , encuentre el cambio de


temperatura por uidad de tiempo.
dT ∂T dxi
Por la regla de la cadena, sabemos que podemos expresar dt
como ∂xi dt
; i=
1, 2, 3, y por lo tanto tenemos que:
8
dT ~ |(1,1,1) · ~v = −(2, 4, 6)e−6 · √e (1, 2, 3) = − 2 +√8 + 18 e2 =
= ∇T
dt 14 14
−28 √ K
= √ e2 = −2 14e2
14 s

c) Indique las superfı́cies de nivel de T (x, y, z).


Las superfı́cies de nivel cumplen que T (x, y, z) = Cte. Si manipulamos un poco
la expresión, llegamos a lo siguiente:
2 −2y 2 −3z 2
e−x = C → −x2 − 2y 2 − 3z 2 = ln C → x2 + 2y 2 + 3z 2 = a
 x 2  y  2  z 2
+ √ + √ =1
a a/ 2 a/ 3
De donde se deduce que √ las superfı́cies
√ de nivel son elipsoides centrados en el
origen con semiejes a, a/ 2 y a/ 3.
Parte IV

APLICACIONES DEL
CÁLCULO DIFERENCIAL
Capı́tulo 1

Cambios de Coordenadas

Si una función se puede aproximar por una función lineal, entonces se puede
hacer el cambio de variables. Veámoslo para dos variables:
)
y1 = a11 x1 + a12 x2
aij = Cte
y2 = a21 x1 + a22 x2

y a a
11 y1

1 12
y2 a22 a21 y2


x1 = x2 =
a11 a12 a11 a12


a21 a22 a21 a22



a11 a12
Esto tiene solución siempre que ∆ = sea distinto de cero, es decir,
a21 a22
tengamos dos funciones lineales e independientes.)
ξ = φ(x, y)
Dadas un par de coordenadas , se puede hacer el cambio (x, y) →
η = ψ(x, y)
(ξ, η) alrededor de un punto x~0 = (a, b) siempre y cuando podamos desarrollar la
función en ese punto como una recta, y el determinante de los coeficientes no sea
cero. Ası́, si hacemos el desarrollo hasta primer orden queda:
)
ξ = φ(a, b) + ∂x φ|x~0 (x − a) + ∂y φ|x~0 (y − b)
η = ψ(a, b) + ∂x ψ|x~0 (x − a) + ∂y ψ|x~0 (y − b)

Ası́ pues, si existen las cuatro derivadas y el determinante de la matriz de las


derivadas es diferente de cero, podremos hacer el cambio, pero ese determinante es
el jacobiano, ası́ que tenemos que una función es invertible cuando se cumple la
siguiente relación:
∂(x1 , · · · , xn )
det(J) = 6= 0
∂(y1 , · · · , yn )
Ejemplo: Deduzca en qué puntos se puede hacer el cambio de coordenadas
polares a cartesianas:
)
x = r cos ϕ ∂(x, y) cos ϕ −r sen ϕ
= = r(cos2 ϕ + sen2 ϕ) = r

y = r sen ϕ ∂(r, ϕ) sen ϕ r cos ϕ
1.1 Relación entre jacobianos: el cambio inverso 55

El cambio de coordenadas solamente podrá hacerse en aquellos puntos en los que


r sea diferente de cero, es decir, en todos excepto el origen de coordenadas.

1.1. Relación entre jacobianos: el cambio inverso


En ciertas ocasiones, es más sencillo calcular el determinante jacobiano en un
sentido que en el otro, ya sea por la derivación o por las operaciones posteriores. En
ese caso se puede usar la regla siguiente:
" # " #−1
∂(x, y) ∂(ξ, η)
=
∂(ξ, η) ∂(x, y)

Comprobémosla con el ejemplo anterior:



∂(x, y) cos ϕ −r sen ϕ
= = r(cos2 ϕ + sen2 ϕ) = r

∂(r, ϕ) sen ϕ r cos ϕ

x2

√ x
∂(r, ϕ) x2 +y2 y(x2 +y 2 ) xy 2 yx2
= 2 =

+ =
∂(x, y) √ 2y 2 − x(x2y+y2 ) x(x2 + y 2 )3/2 y(x2 + y 2 )3/2
x +y

x2 + y 2 1 1
= 2 2 3/2
=√ 2 2
=
(x + y ) x +y r
 1 −1
r= , c.q.d.
r
Capı́tulo 2

Función Inversa

Dada una función f~, tal que cumple que ∀~x ∈ S ⊆ ℜn , ∃~y tal que ~y = f~(~x) ∈ ℜn ,
queremos saber en qué casos existe una función f~−1 , tal que aplicada a un vector
~y = f~(~x) nos dé ~x, es decir, que f~−1 ◦ f~ = f~ ◦ f~−1 = I.
Condiciones:
Sea f~ una función derivable en S ⊆ ℜn (abierto). Sea T ⊆ ℜn el conjunto imagen
de S (T = {~y ∈ ℜn /~y = f~(~x); ~x ∈ S}). Si el determinante jacobiano de la función
f~(~x) alrededor del punto ~x = ~a es distinto de cero, entonces se cumple que:

Existe un entorno X ⊆ S alrededor de ~a,

Existe un entorno Y ⊆ T alrededor de f~(~a),

Si ~a ∈ X, entonces f~(~a) ∈ T ,

f~(~x) es biyectiva,

Existe una función f~−1 (~y ), la cual compuesta con f~(~x) da la identidad (función
inversa), y

La función f~−1 (~y ) es diferenciable.

Conclusión: Las condiciones diferenciable y det(J) 6= 0 son condiciones sufi-


cientes, pero no necesarias, para que exista la función inversa de f~.
Ejemplo: y = (x − a)2 (vemos como det(J) = 0 pero existe f −1 )
x=a
y ′ (x) = 2(x − a) −→ 2(a − a) = 0 ⇒ det(J|a ) = 0
√ √
x − a = ± y ⇒ x = a ± y ⇒ ∃f −1
)
f: ℜ2 → ℜ2 x = r cos ϕ
Ejemplo: ;
(r, ϕ) → (x, y) y = r sen ϕ

∂(x, y) cos ϕ −r sen ϕ
= = r 6= 0

∂(r, ϕ) sen ϕ r cos ϕ
Capı́tulo 3

Función Implı́cita

Dada una ecuación f~(~x, ~t) = 0, podemos encontrar ~x = ~g (~t). Si el vector ~x


tiene n componentes, y el vector ~t tiene k componentes, de forma que n coincide
también con las componentes de la función f~, tendremos un sistema con n ecuaciones
con n + k incógnitas. Si somos capaces de formar un sistema de n + k ecuaciones,
estaremos en el problema anterior (función inversa), que sabemos resolver haciendo
el determinante jacobiano.
Ası́ pues, definimos yn+i ≡ ti ; i = 1, · · · , k y formamos el sistema:

y1 = f1 (~x, ~t)



..


.





yn = fn (~x, ~t)


yn+1 = t1 

..



.





yn+k = tk 


∂ f · · · ∂xn f1 ∂t1 f1 · · · ∂tk f1
x1 1


.. ... .. .. ... ..

. . . .


∂ f · · · ∂xn f1


x1 1
∂ f · · · ∂xn fn ∂t1 fn · · · ∂tk fn

J = x1 n

= .. ... ..
0 ··· 0 1 ··· 0 . .

∂x1 fn · · · ∂xn fn

.. ... .. .. ... ..

. . . .

0 ··· 0 0 ··· 1

Ası́ pues, si conseguimos que el jacobiano de las n componentes de f~ respecto


de cada una de las variables que queremos aislar (~x) sea distinto de cero, entonces
sabemos que existen n funciones ~x que son función de las variables ~t.
58 3. Función Implı́cita

3.1. Aplicación: Derivación implı́cita


 
Dada una función F x(~t), ~t = 0, queremos encontrar ∂ti x:
Si existe una función implı́cita, entonces

∂F ∂F ∂x dF ∂x − ∂F
+ · = =0⇒ = ∂F∂ti
∂ti ∂x ∂ti dti ∂ti ∂x

Si tenemos el caso anterior (una función vectorial con n componentes que depende
de n+k variables, n de las cuales se pueden expresar como función de las k restantes),
y queremos saber las derivadas de las variables dependientes (x) respecto de cada
una de las independientes (t), haremos lo siguiente:

df~ Xn  ∂f
k
n
X ∂fk ∂xj  ∂fk Xn
∂fk ∂xj
= eˆk + =0⇒ + =0
dti k=1 ∂ti j=1 ∂xj ∂ti ∂ti j=1 ∂xj ∂ti
     
∂x1 f1 · · · ∂xn f1 ∂ti x1 ∂ti f1
 .
.. . .. .
.. 
  .
.. 
  .. 
·  = − . 
  
 
∂x1 fn · · · ∂xn fn ∂ti xn ∂ti fn
Si la primera matriz tiene inversa, podemos encontrar una relación entre ∂ti xj y
∂ti fk . Para ello es necesario que el determinante de esta matriz sea distinto de cero,
es decir, que existan n funciones xj = xj (~t). Si esto se cumple, entonces tenemos
un sistema de n ecuaciones con n incógnitas y una única solución para cada una de
ellas.
Ejemplo: Encontrar y(x) en la función F (x, y) = x2 − y 2 = 0:

∂F
= 2y 6= 0

∂y

∂x F 2x x
∂x F + ∂ y F · y ′ = 0 ⇒ y ′ = − =− =−
∂y F 2y y
Si estudiamos la función vemos que y solamente puede tomar valors iguales u
x
opuestos a x y, por lo tanto, xy = ±x = ±1.

Si despejamos y(x), tenemos y = ± x2 = ±x; y por lo tanto, y ′ = ±1.
Capı́tulo 4

Extremos: Máximos, Mı́nimos y


Puntos de Inflexión

4.1. Introducción: 1 variable


Dada una función f (x) : ℜ → ℜ.

f tiene un máximo en x = x0 si, y sólo si f (x0 ) ≥ f (x), ∀x ∈ ℜ.

f tiene un mı́nimo en x = x0 si, y sólo si f (x0 ) ≤ f (x), ∀x ∈ ℜ.

Condición necesaria de extremo: Si f (x), definida en (a, b) ⊆ ℜ, tiene un


df
extremo en c, entonces dx = 0.
c
Para encontrar una condición suficiente, haremos un desarrollo en serie:

df 1 dn f

f (x) = f (c) + (x − c) + · · · + (x − c)n
dx c n! dxn c
di f
Si dxi
= 0, ∀i < n, entonces el desarrollo queda ası́:

1 dn f n 1 dn f
f (x) = f (c) + (x − c) ⇒ f (x) − f (c) = (x − c)n
n! dxn c n! dxn c

Ahora debemos distinguir dos casos:

a) Si n es par:

(x − c)n    dn f 
≥ 0 ⇒ sgn f (x) − f (c) = sgn

n! n
dx c

n

Si ddxnf > 0, entonces f (x) − f (c) > 0 ⇒ f (x) > f (c). En este caso
c
tenemos un mı́nimo en x = c.
n

Si ddxnf < 0, entonces f (x) − f (c) < 0 ⇒ f (x) < f (c). En este caso
c
tenemos un máximo en x = c.
60 4. Extremos: Máximos, Mı́nimos y Puntos de Inflexión

b) Si n es impar:
 dn f
( )
n >0 x>c  
n

(x − c) ⇒ sgn f (x) − f (c) = sgn
(x − c)
<0 x<c dx n

c

Como cambia de signo dependiendo de si x es mayor o menor que c, estamos


en un punto de inflexión.

n par n impar
d(n
x f > 0 Máximo Punto de inflexión
d(n
x f < 0 Mı́nimo Punto de inflexión
Cuadro 4.1: Resumen de extremos en una variable

4.2. Extensión a varias variables


Dada una función z = f (~x).

z tiene un máximo en ~x = x~0 si, y sólo si f (x~0 ) ≥ f (~x), ∀~x ∈ B ⊆ ℜn .

z tiene un mı́nimo en ~x = x~0 si, y sólo si f (x~0 ) ≤ f (~x), ∀~x ∈ B ⊆ ℜn .

Si B es cerrado y acotado, entonces z tiene al menos un máximo y un mı́nimo


en B.

Condición necesaria, pero no suficiente, de existencia de extremos en z:


Si z tiene un extremo en ~x = ~c, entonces sus derivadas parciales respecto a cada
una de las componentes de ~x en el punto ~x = ~c son cero.
∂z

= 0; i = 1, · · · , n
∂xi ~c
Demostración: Supongamos que z tiene un mı́nimo en ~x = ~c.

∂f f (~c + heˆi ) − f (~c)



f (~x) − f (~c) > 0 =
∂xi ~c h
( )
h > 0 ∂xi f |~c > 0 ∂f h→0

f (~c + heˆi ) − f (~c) > 0 −→ 0
h < 0 ∂xi f |~c < 0 ∂xi ~c
Pero no es suficiente porque puede ser que sea máximo en una dirección y mı́nimo
en otra, y por lo tanto sea un punto de silla (o punto de inflexión).
4.3 Criterio General 61

Ejemplo: z = x2 − y 2 
x=0
∂x z = 2x −→ 0 
y=0
∂y z = −2y −→ 0 
x = 0 es un punto de inflexión (v. Figura 4.1)

Figura 4.1: z = x2 − y 2 . En el origen hay un punto de inflexión

4.3. Criterio General



Dada una función f : ℜn → ℜ con ∇f ~ = 0, haremos su desarrollo en serie de
x~0
Taylor alrededor del punto ~x = x~0 hasta segundo orden:
X ∂f 1X ∂ 2 f
f (~x) = f (x~0 ) + (xi − x0i ) + (xi − x0i )(xj − x0j )
i ∂xi x~0 2 i,j ∂xi ∂xj x~0

~
∂f
∇f =0⇒ = 0; ∀i
x~0 ∂xi x~0
1 X ∂ 2 f
f (~x) − f (x~0 ) = (xi − x0i )(xj − x0j )
2 i,j ∂xi ∂xj x~0
Una vez llegados a esta expresión, analizemos su significado:
62 4. Extremos: Máximos, Mı́nimos y Puntos de Inflexión


1 ∂2f
Si f (~x) − f (x~0 ) = i,j ∂xi ∂xj (xi − x0i )(xj − x0j ) > 0, tendremos un mı́nimo
P
2 x~0
en ~x = x~0 .

1 ∂2f
Si f (~x)−f (x~0 ) = i,j ∂xi ∂xj x~ (xi −x0i )(xj −x0j ) < 0, tendremos un máximo
P
2 0
en ~x = x~0 .
El término del desarrollo con derivadas segundas tiene estructura algebraica
de forma cuadrática (ω : ℜn → ℜ), y como tal puede escribirse como producto
de matrices, definiendo la matriz Hessiana H como se indica a continuación:
X ∂2f
ω(~x) = (xi − x0i )(xj − x0j )
i,j ∂xi ∂xj
∂2f ∂2f ∂2f
 
∂x21 ∂x1 ∂x2
··· ∂x1 ∂xn
∂2f ∂2f ∂2f
 

 ∂x2 ∂x1 ∂x22
··· ∂x2 ∂xn


H≡
 .. .. ... ..



 . . . 

∂2f ∂2f ∂2f
∂xn ∂x1 ∂xn ∂x2
··· ∂x2n

ω(~x) = (~x − x~0 ) · H · (~x − x~0 )T


Una vez visto que podemos trabajar con matrices, podemos hacer un cambio de
bases de forma que la matriz Hessiana quede diagonal y sea mucho más sencilla de
manipular. Si lo hacemos y realizamos el producto, la forma quedará de la siguiente
manera:
ω̃(~t) = h̃ii t2i
X X
h̃ij ti tj =
i=j i

Donde ti son las diferencias xi −x0i transformadas adecuadamente con los coeficientes
de la matriz para la diagonalización. Ası́ podemos ver que el signo de cada uno de
los coeficientes, viene dado por el signo de los valores propios de la matriz Hessiana,
h̃ii . Ası́ pues, podremos saber si un extremo es máximo, mı́nimo o punto de inflexión
mirando el signo de los valores propios:
Si todos los valores propios son negativos, la forma dará un número negativo
para cualquier ~x, y tendremos un máximo.
Si todos los valores propios son positivos, la forma dará un número positivo
para cualquier ~x, y tendremos un mı́nimo.
Si los hay de distintos signos, entonces tendremos un punto de inflexión, ya
que el signo dependrá de la dirección en que nos movamos.
Ejemplo: f (x, y) = x2 − y 2
)
∂x f = 2x
⇒ ∂x f = ∂y f =0
∂y f = −2y 0,0 0,0
! !
∂xx f ∂xy f 2 0
H= =
∂yx f ∂yy f 0 −2
Como los valores propios tienen signos distintos, tenemos un punto de inflexión.
4.4 Criterio de los Determinantes 63

4.4. Criterio de los Determinantes


Dada la matriz A de una forma cuadrática, se define ∆k como el determinante del
menor de dimensión k×k. Como casos particulares, se definen ∆0 ≡ 1 y ∆ ≡ det(A).
Es condición necesaria y suficiente para que una forma cuadrática sea positiva
que los n + 1 determinantes de su matriz asociada sean positivos.

Es condición necesaria y suficiente para que una forma cuadrática sea nega-
tiva que los n + 1 determinantes de su matriz asociada sean alternadamente
positivos y negativos.
Ası́ pues, en dos variables, tenemos otra condición para saber si un punto es máximo
o mı́nimo:
f (~x) tiene un mı́nimo en ~x = x~0 si hacemos su matriz hessiana y ∆ > 0 y
∆k > 0.

f (~x) tiene un máximo en ~x = x~0 si hacemos su matriz hessiana y ∆ > 0 y ∆k


son alternados.

f (~x) tiene un punto de inflexión en ~x = x~0 si hacemos su matriz hessiana y


∆ < 0.
Ejemplo: f (x, y) = xyex

∂x f = yex + xyex = 0 

~a ~a x=y=0
∂y f = xex = 0 
~a ~a
   
x
∂xx ∂xy f (2 + x)ye (1 + x)ex
!

0,0 0,0 

0,0 0,0 0 1
H = =

=

(1 + x)ex 1 0

0,0 ∂yx f ∂yy f

0
0,0 0,0 0,0

Método 1: Diagonalización:

0−λ 1
= λ2 − 1 = 0 ⇒ λ = ±1

1 0−λ


!
1 0
H̃ =
0 −1
Como los valores propios son alternados, tenemos un punto de silla (o punto
de inflexión).

Método 2: Determinantes:

0 1
∆ = = −1 < 0

1 0

Como el determinante es negativo, tenemos un punto de silla (o de inflexión).


64 4. Extremos: Máximos, Mı́nimos y Puntos de Inflexión

Ejemplo: f (x, y) = 2x3 + (x − y)2 − 6y



∂x f = 6x2 + 2(x − y) = 0  x1 = 1 x2 = −1
) )
~a ~a a
~1 = (1, 4)
∂y f = −2(x − y) − 6 = 0  y1 = 4 y2 = 2 a~2 = (−1, 2)
~a ~a
 
12x + 2 −2
!(

a~1 a~1 14 −2 ∆1 = 14 > 0
H = =
a~1 −2

2
−2 2 ∆ = 24 > 0
a~1 a~1
 
12x + 2 −2
!(

a~2 a~2  = −10 −2 ∆1 = −10 < 0
H =
a~2 −2

2
−2 2 ∆ = −24 < 0
a~2 a~2

Por lo tanto, tenemos un mı́nimo en (x, y) = (1, 4) y un punto de inflexión en


(x, y) = (−1, 2).
EXTREMOS CONDICIONADOS 65

−x2 −y 2
Ejemplo: Encontrar extremos de la función z = (x2 − y 2 )e 2
Primero calculamos las derivadas primeras y las igualamos a cero:

 P1 = (0,√
 0)

−x2 −y 2

 P2 = (0, √2)
∂x z = [2x − (x2 − y 2 )x]e 2 = 0  

P = (0,√− 2)
−x2 −y 2  3
∂y f = [−2y − (x2 − y 2 )y]e 2 = 0  
 P4 = ( √2, 0)



P5 = (− 2, 0)

A continuación construimos la matriz Hessiana y hacemos una tabla de signos:


−x2 −y 2 −x2 −y 2
 
2 2 2 2 2 2 2
[2 − x + y + (x − y )x ]e 2 xy(x − y )e 2
H= −x2 −y 2 −x2 −y 2

2 2
xy(x − y )e 2 [−2 − x + 5y 2 + y 2 (x2 − y 2 )]e
2 2

∆1 ∆ Tipo de extremo
(0,
√ 0) 2 >0 −4 < 0 Punto de silla
2
( √2, 0) −4/e < 0 16/e > 0 Máximo
2
(− √ 2, 0) −4/e < 0 16/e > 0 Máximo
2
(0, √2) 4/e > 0 16/e > 0 Mı́nimo
(0, − 2) 4/e > 0 16/e2 > 0 Mı́nimo
Capı́tulo 5

Extremos Condicionados.
Multiplicadores de Lagrange

Un extremo condicionado es un extremo para el cual existe una ligadura entre


las variables (es decir, no son independientes entre sı́).
Un ejemplo seria encontrar el punto de una función más cercano al origen de
coordenadas. En este caso, la función actúa como ligadura y la ecuación distancia
es la que hay que minimizar.

5.1. Resolución con dos variables y una ligadura


1. En primer lugar, construiremos una función ϕ(x, y, λ) = f (x, y) + λg(x, y),
donde f (x, y) es la función a minimizar, y g(x, y) = 0 es la ligadura. λ será un
multiplicador de Lagrange, que imponemos para poder trabajar con las fun-
ciones.

2. A continuación derivaremos la nueva función ϕ respecto de las variables x e y,


y la igualaremos a cero, para que sea extremo.

3. Seguidamente derivaremos también la función ϕ respecto del multiplicador λ,


lo cual nos dará la función g(x, y), que por hipótesis del problema es igual a
cero (si no lo es, hay que despejar hasta que lo sea).

4. De los dos pasos anteriores tendremos un sistema de tres ecuaciones con tres
incógnitas (x, y, λ), que podremos resolver y encontrar los extremos condi-
cionados de la función.

5. A pesar de que pueda ser sencillo encontrar el valor de λ, no nos es necesario,


ya que lo que queremos es encontrar los valores de (x, y).
5.2 Caso general: n variables y m ligaduras 67

Ejemplo: Minimizar la distancia al origen de una recta Ax + By = C


√ )
f (x, y) = x2 + y 2 q
ϕ(x, y, λ) = x2 + y 2 + λ(Ax + By − C)
g(x, y) = Ax + By − C = 0
x
∂x ϕ = √

+ λA = 0 
x2 +y 2
 *
x = AC/(A2 + B 2 )


∂y ϕ = √ y + λB = 0
x2 +y 2 
 y = BC/(A2 + B 2 )
∂λ ϕ = Ax + By − C = 0

5.2. Caso general: n variables y m ligaduras


Dada una función f (x1 , · · · , xn ) y m ligaduras de las variables g1 (x1 , · · · , xn ) =
0, · · · , gm (x1 , · · · , xn ) = 0:

1. Construiremos una función ϕ(x1 , · · · , xn , λ1 , · · · , λm ) ≡ f (x1 , · · · , xn )+


+ mj=1 λj gj (x1 , · · · , xn )
P

2. A continuación derivaremos respecto de las xi e igualaremos a cero para obte-


ner las n primeras ecuaciones del sistema.

3. Seguidamente derivaremos también respecto de cada uno de los multiplicadores


λj para obtener las m ligaduras, que son cero por hipótesis, lo cual nos da m
ecuaciones más.

4. Finalmente resolveremos el sistema de ecuaciones para x1 , · · · , xn . No es nece-


sario hacerlo para λj .
68 5. Extremos Condicionados. Multiplicadores de Lagrange

Problema de examen: Encontrar los máximos y mı́nimos de la función f (x, y) =


x + y 2 − xy + x + y en el conjunto K = {x ≥ 0; y ≥ 0; x + y ≤ 3}
2

Para resolver este problema haremos tres partes: Primero buscaremos los máxi-
mos y mı́nimos de todo el plano, luego los que esten sobre las lı́neas lı́mite, y final-
mente veremos que pasa en los vértices del triángulo.

1. Todo el plano
)
∂x f = 2x − y + 1 = 0  
P = − 1, −1 ∈
/K
∂y f = 2y − x + 1 = 0

2. Frontera l1 : x = 0
dφ  1
φ(y) = f (0, y) = y 2 + y → = 2y + 1 = 0 → P = 0, − ∈ /K
dy 2

3. Frontera l2 : y = 0
dφ  1 
φ(x) = f (x, 0) = x2 + x → = 2x + 1 = 0 → P = − , 0 ∈
/K
dx 2

4. Frontera l3 : x + y = 3

φ(x) = f (x, 3 − x) = x2 + (3 − x)2 − x(3 − x) + x + 3 − x = 3(x2 − 3x + 4)

dφ 3 3 3 3
= 3(2x − 3) = 0 → x = ; y = 3 − x = → P = , ∈K
dx 2 2 2 2
d2 f 1 3 3
= 6 > 0; f (3/2, 3/2) = 5 + ⇒ Mı́nimo en ,
dx2 4 2 2
5. Puntos extremos  
f (0, 0) = 0 mı́nimo en 0, 0
 
f (0, 3) = 12 máximo en 0, 3
 
f (3, 0) = 12 máximo en 3, 0
Capı́tulo 6

Curvas y Superfı́cies en ℜ3

6.1. Ecuaciones de una curva


Ecuación vectorial:

~r = x(t)ı̂ + y(t)̂ + z(t)k̂

Ecuaciones paramétricas:

 x = x(t)

y = y(t)
z = z(t)

Derivada de ~r:

d~r ~r(t + ∆t) − ~r(t) dx dy dz


~v (t) = = lı́m = ı̂ + ̂ + k̂
t ∆t→0 ∆t dt dt dt

Vector tangente a la curva:


La dirección del vector ~v = d~
r
dt
nos da la dirección de la recta tangente a ~r en
cada punto. La ecuación de la recta tangente a la función ~r = xı̂ + y̂ + z k̂ en un
punto (x0 , y0 , z0 ) será:

x − x0 y − y0 z − z0  A = dt x

= = B = dt y
A B C
C = dt z

6.2. Plano tangente y normal a una superfı́cie


La ecuación de una superfı́cie viene dada por F (x, y, z) = 0. Para encontrar
su dirección normal, deberemos hacer su gradiente. El plano tangente en un punto
70 6. Curvas y Superfı́cies en ℜ3

viene dado por las componetentes del vector normal por las diferencias (xi −xi0 ), i =
1, 2, 3.
~ = ∂F ı̂ + ∂F ̂ + ∂F k̂
~n = ∇F
∂x ∂y ∂z
~ · (~x − x~0 ) = ∂F (x − x0 ) + ∂F (y − y0 ) + ∂F (z − z0 ) = 0
∇F
∂x ∂y ∂z

Función explı́cita

z = f (x, y) ⇒ F (x, y, z) = z − f (x, y) = 0

~ = − ∂f ı̂ − ∂f ̂ + 1k̂
~n = ∇F
∂x ∂y
Plano tangente en el punto (x0 , y0 , z0 ):

∂f ∂f
πtg : − (x − x0 ) − (y − y0 ) + (z − z0 ) = 0
∂x ∂y

Recta perpendicular en el punto (x0 , y0 , z0 ):


x − x0 y − y0
r⊥ : − =− = z − z0
∂x f ∂y f

6.3. Longitud de un arco de curva en el plano


Dada una función f (x), podremos saber la longitud de su arco dividiendola
en trozos pequeños y aproximándolos por triángulos rectángulos de catetos ∆xi y
∆yi , y de hipotenusa ∆si . Para saber la longitud total, haremos una suma de las
hipotenusas, y haremos incrementos pequeños:
N
X N q
X
S = lı́m ∆si = lı́m (∆xi )2 + (∆yi )2 =
∆xi →0 ∆xi →0
i=1 i=1
v s
N u
X u (∆yi )2 Z b  dy 2
= lı́m t 1+ 2
∆xi = 1+ dx
∆xi →0
i=1 (∆xi ) a dx
Si la curva está parametrizada, podemos utilizar la regla de la cadena:
s
dx dy Z t=β  dx 2  dy 2
dx = dt; dy = dt; S = + dt
dt dt t=α dt dt
Si la curva fuese en el espacio, podrı́amos añadir la coordenada z de la siguiente
manera: s
Z t=β 
dx 2  dy 2  dz 2
S= + + dt
t=α dt dt dt
Parte V

INTEGRACIÓN EN VARIAS
VARIABLES
Capı́tulo 1

Recordatorio

1.1. Integrales indefinidas


Llamamos la integral indefinida de una función f (x) a una función F (x), tal que
derivada da la función f (x). Una vez encontrada esa función, decimos que F (x) es
la primitiva de f (x). Si una función F (x) es la primitiva de otra, también lo es una
función G(x) = F (x) + C, donde C es una constante.

1.2. Integral definida de Riemann


Dada una función f (x), definimos su integral definida como la suma de rectángu-
los de base ∆xi y altura f (xi ), y hacemos tender los incrementos de x a cero:
Z b N
X
f (x)dx = lı́m f (xi )∆xi
a ∆xi →0
i=1

1.3. Propiedades de la integral


Rb Rb
La variable de integración es muda, es decir, a f (x)dx = a f (t)dt
Rb Rb
a C · f (x)dx = C a f (x)dx
Rb  Rb Rb
a f (x) + g(x) dx = a f (x)dx + a g(x)dx
Rb Ra
a f (x)dx = − b f (x)dx
Rb Rb
a f (x)dx ≤ a ϕ(x)dx ⇔ f (x) ≤ ϕ(x), ∀x ∈ [a, b]
Rb Rc Rb
a f (x)dx = a f (x)dx + c f (x)dx
1.4 Integrales que dependen de un parámetro 73

Rb
Ejemplo: a kxdx
b−a
∆x ≡ x0 = a; x1 = a + ∆x; xi = a + i∆x
n
n
X
S = lı́m kxi ∆x = lı́m k∆x[a + a + ∆x + a + 2∆x + · · · + a + n∆x] =
∆x→0 ∆x→0
i=0
n(n − 1)
= lı́m k∆x[na + ∆x(1 + 2 + · · · + n)] = lı́m k∆x[na + ∆x ]=
∆x→0 ∆x→0 2
b−a b − a n(n − 1) b−an−1  b 2 − a2 
lı́m k [na + ] = lı́m k(b − a)[a + ] = k
n→∞ n n 2 n→∞ 2 n 2

1.4. Integrales que dependen de un parámetro


Dada una función f (x, α), contı́nua respecto de x en un intervalo [a, b] y respecto
de α en un intervalo [β, γ], se cumple que:
Z b
ϕ(α) ≡ f (x, α)dx = F (b, α) − F (a, α)
a

y además ϕ(α) es también contı́nua en [β, γ].


Demostración:
Z b   Z b
ϕ(α + h) − ϕ(α) = f (x, α + h) − f (x, α) dx ≤ f (x, α + h) − f (x, α) dx <

a a
Z b
< ǫdx = ǫ(b − a) ⇒ ϕ(α + h) − ϕ(α) < ǫ(b − a)
a
Rb Rb
Corolario: Para ∀α ∈ [β, γ], se cumple que lı́mα→α0 a f (x, α)dx = a dx lı́mα→α0 f (x, α).

Regla de Leibniz
d Z b(α) Z b(α)
∂f (x, α) db da
f (x, α)dx = dx + f (b(α), α) − f (a(α), α)
dα a(α) a(α) ∂α dα dα
Demostración: R R b(α)
Supongamos que f (x, α)dx = F (x, α) ⇒ a(α) f (x, α)dx = F (b(α), α)−F (a(α), α).
Entonces se tiene que:
d Z b(α) d  
f (x, α)dx = F (b(α), α) − F (a(α), α)
dα a(α) dα
Usando la regla de la cadena, llegamos a:
d   ∂F ∂F db ∂F ∂F da
F (b(α), α) − F (a(α), α) = + − − =
dα ∂α b,α ∂b b,α dα ∂α a,α ∂a a,α dα

∂   ∂F db ∂F da
= F (b, α) − F (a, α) + − =
∂α ∂b b,α dα ∂a a,α dα

Z b(α)
∂f (x, α) ∂b ∂a
= dx + f (b(α), α) − f (a(α), α) , c.q.d.
a(α) ∂α ∂α ∂α
74 1. Recordatorio

1.5. Cambios de variable:


En ocasiones, para resolver una integral I = ab f (x)dx, es necesario hacer un
R

cambio x = ϕ(t), para poder simplificar la función y convertirla en una integral más
sencilla.

Condiciones:
1. a = ϕ(α); b = ϕ(β),
2. ∃ϕ(t), ϕ′ (t), contı́nuas en [α, β],
3. f (ϕ(t)) contı́nua en [α, β].
Si se cumplen estas condiciones, entonces se cumple también que:
Z b Z β
f (x)dx = dtϕ′ (t)f (ϕ(t))
a α

Demostración:
Z
F (x) = f (x)dx → x = ϕ(t); F (x) = F (ϕ(t))

dF dF dϕ
= = F (ϕ(t))ϕ′ (t)
dt dϕ dt
Z
dF = f (ϕ(t))ϕ (t)dt ⇒ F (x) = f (ϕ(t))ϕ′ (t)dt, c.q.d.


Ejemplo: 0r dx r2 − x2
R

Z r √ Z π
2
q
x = r sin θ ⇒ dx r2 − x2 = dθr cos θ r2 (1 − sin2 θ) =
0 0

r2 h
π
Z
2
iπ π
= dθr2 cos2 θ = θ + sin(2θ) 2 = r2
0 2 0 4

1.6. Integrales Impropias


Rb
Sea f (x) una función definida y contı́nua en [a, +∞), para la cual ∃I(b) ≡
a f (x)dx; ∀b > a. Se define:
Z +∞ Z b
f (x)dx ≡ lı́m f (x)dx
a b→+∞ a

Si este lı́mite es finito, entonces la integral impropia converge. Si el lı́mite vale


infinito (o menos infinito), entonces, la integral impropia diverge.
Si la integral fuese entre (−∞, b] ó entre (−∞, +∞), se procederı́a del mismo
modo.
Ejemplo: 0∞ dx 1+x 1
R
2

Z ∞ 1 Z b
1 π
dx 2
= lı́m dx 2
= lı́m [arc tg b − arc tg 0] =
0 1+x b→∞ 0 1+x b→∞ 2
1.7 Integrales Impropias II 75

R∞
Ejemplo: 1 dx x1α
Z ∞ 1 1 h 1 i
dx = lı́m − 1 =
1 xα b→∞ 1 − α bα−1
 h i 
1 1 1
 Si α > 1 lı́mb→∞ − 1 = α−1
 
bα−1
R1−α
 

=  Si α = 1 lı́mb→∞ 1b dx x1 = lı́mb→∞ ln b − ln 1 = ln ∞ = ∞ 
1
 Si α < 1 lı́mb→∞ 1−α [b1−α − 1] = ∞
 

Ası́ pues, esta integral converge para ∀α > 1.

Criterios de convergencia
R∞
Dadas f (x), ϕ(x) tales queR 0 ≤ f (x) ≤ ϕ(x), ∀x ≥ a. Entonces, si a ϕ(x)dx
converge, también lo hace a∞ f (x)dx.
R∞
Dadas f (x), ϕ(x) tales que
R∞
0 ≤ ϕ(x) ≤ f (x), ∀x ≥ a. Entonces, si a ϕ(x)dx
diverge, también lo hace a f (x)dx.
R∞ R∞
Dada f (x), si a |f (x)|dx converge, también lo hace a f (x)dx.

Criterio del cociente: Dadas f (x) ≥ 0, g(x) > 0, ∀x ≥ a. Si:

∃ lı́mx→∞ fg(x)
(x)
6= 0, y a∞ g(x)dx diverge ⇔ a∞ f (x)dx diverge
R R

∃ lı́mx→∞ fg(x)
(x)
6= 0, y a∞ g(x)dx converge ⇔ a∞ f (x)dx converge
R R

∃ lı́mx→∞ fg(x)
(x)
= 0, y a∞ g(x)dx converge ⇒ a∞ f (x)dx converge
R R

lı́mx→∞ fg(x)
(x)
= ∞, y a∞ g(x)dx diverge ⇒ a∞ f (x)dx diverge
R R

1.7. Integrales Impropias II


Son las integrales de funciones discontı́nuas con ası́ntotas infinitas:
Z 1 dx h −1 i1
= = −2 N O!!!
−1 x2 x −1
Z
dx 1 h −1 iǫ1 h −1 i1
= lı́m + lı́m =
−1 x2 ǫ1 →0− x −1 ǫ2 →0+ x ǫ2
−1 1
= lı́m− − 1 − 1 + lı́m+ = −2 + ∞ = ∞ ⇒ diverge
ǫ1 →0 ǫ1 ǫ2 →0 ǫ2

Condición necesaria de integrabilidad:


Una función f (x) es integrable en un intervalo [a, b] siempre y cuando |f (c)| <
∞, ∀c ∈ [a, b]. Esta condición es necesaria pero no suficiente.
Ejemplo: Función de Dirichlet, acotada pero no integrable.
(
1 x∈Q
f (x) =
0 x∈I
76 1. Recordatorio

Z b
f (x)dx = lı́m Sn = lı́m Sn
a n→∞ n→∞
Pn Pn
, donde Sn = i=1 mi ∆xi , y Sn = i=1 Mi ∆xi ; y mi y Mi son respectivamente el
mı́nimo y en máximo en el intervalo ∆xi .

mi = 0 ⇒ Sn = ni=1 0 = 0 ⇒ ab f (x)dx = 0
)
b
P R Z
⇒ f (x)dx no existe.
Mi = 1 ⇒ Sn = ni=1 1 = n ⇒ ab f (x)dx = ∞
P R
a

Condición necesaria y suficiente de integrabilidad:


Dada una función f (x), acotada un un intervalo [a, b]. Si existe el lı́mite de la
integral, y es único, entonces la función es integrable.

Valor Principal de Cauchy


Z +1 dx  −1 −1   −1 −1 
= lı́m − + lı́m − =∞−∞
−1 x2 ǫ1 →0− ǫ1 −1 ǫ2 →0+ 1 ǫ2
En estos casos, el valor principal de Cauchy se construye haciendo ǫ1 = ǫ2 ≡ ǫ:
 −1 −1 −1 −1 
lı́m − + − = −2
ǫ→0 ǫ −1 1 ǫ
Capı́tulo 2

Integración en dos variables

Dada una función z = f (x, y), contı́nua en un dominio D. Dada una sucesión de
n particiones con lı́mite (n → ∞) único. Entonces se define:
Z Z Z Z n
X
f (x, y)dxdy = f (x, y)dS = lı́m f (Pi )∆Si
D D ∆Si →0
i=1
RR
Si f (x, y) ≥ 0, ∀(x, y) ∈ D, entonces D f (x, y)dS es el volumen encerrado bajo
la función f (x, y) y la superfı́cie asociada a D.

Propiedades:
RR RR RR
1. D [ϕ(x, y) + ψ(x, y)]dS = D ϕ(x, y)dS + D ψ(x, y)dS
RR RR
2. D aϕ(x, y)dS = a D ϕ(x, y)dS
RR RR RR
3. D ϕ(x, y)dS = D1 ϕ(x, y)dS + D2 ϕ(x, y)dS, ∀D1 , D2 /D1 + D2 = D

Ejemplo:
Z 1 Z x2
2 2
Z 1 h
2y 3 ix2 Z 1 h 4 1 6 i
dx dy(x + y ) = dx x y + = dx x + x =
0 0 0 3 0 0 3
h1 1 1 7 i1 1 1 26
= x5 + x = + =
5 3 7 0 5 21 105
78 2. Integración en dos variables

2.1. Cambios de Variables


Coordenadas Polares
)
x = r cos ϕ
dS?
y = r sen ϕ

Figura 2.1: Cálculo del dS en coordenadas polares. Cuando ∆r y ∆ϕ son muy


pequeños, se puede aproximar por un paralelogramo de superfı́cie ∆S = |P1~P2 ×
P3~P2 |

Para encontrar el dS aproximaremos el por un paralelogramo (v. Figura 2.1), de


lados ∆r y r∆ϕ, de forma que su superfı́cie es:

~ = a1 b1

~ × B|
∆S = |A = a1 b 2 − a2 b 1

a2 b2

∆S = |P1~P2 × P3~P2 |

P1 = (x1, y1 ) = (r cos ϕ, r sen ϕ) 


P2 = (x2 , y2 ) = (r + ∆r) cos ϕ, (r + ∆r) sen ϕ
 
P3 = (x3 , y3 ) = (r + ∆r) cos(ϕ + ∆ϕ), (r + ∆r) sen(ϕ + ∆ϕ)
2.1 Cambios de Variables 79

Como ∆ϕ es pequeño, podemos aproximar sen(ϕ + ∆ϕ) y cos(ϕ + ∆ϕ) por sus
desarrollos en serie de Taylor hasta orden 1 (y eliminamos los términos cruzados
∆r∆ϕ):
 
P3 = r cos ϕ + ∆r cos ϕ − r sen ϕ∆ϕ, r sen ϕ + ∆r sen ϕ + r cos ϕ∆ϕ

∆r cos ϕ ∆r sen ϕ
∆S = |P1~P2 ×P3~P2 | = = r∆r∆ϕ(sen2 ϕ+cos2 ϕ) = r∆r∆ϕ
−r sen ϕ∆ϕ r cos ϕ∆ϕ
dS = lı́m ∆S = rdrdϕ
∆r,∆ϕ→dr,dϕ

Caso General
)
x = ϕ(u, v)
dS = lı́m ∆S
y = ψ(u, v) ∆x,∆y→dx,dy

∆S = |P1~P2 × P3~P2 |
 
P1 = (x1 , y1 ) = ϕ(u, v), ψ(u, v)
 
P2 = (x2 , y2 ) = ϕ(u

+ ∆u, v), ψ(u + ∆u,

v) =
 
= ϕ(u, v) + ∂u ϕ ∆u, ψ(u, v) + ∂u ψ ∆u

 u,v u,v 
P3 = (x3 , y3 ) = ϕ(u

+ ∆u, v +

∆v), ψ(u + ∆u, v + ∆v) =
 
= ϕ(u, v) + ∂u ϕ ∆u + ∂v ϕ ∆v, ψ(u, v) + ∂u ψ ∆u + ∂v ψ

∆v
u,v u,v u,v u,v

~ ~
∂ ϕ ∂v ϕ ∂(x, y)
∆S = |P1 P2 × P3 P2 | = u ∆u∆v = ∆u∆v
∂u ψ ∂v ψ ∂(u, v)
∂(x, y)
dS = lı́mdudv ∆S =
∂(u, v)
∆u,∆v→du,dv

Ası́ pues, vemos que para hacer un cambio de coordenadas, el Jacobiano de las
coordenadas nuevas respecto de las antiguas nos da el factor de inclinación que tiene
el dS, y vemos que:
Z Z Z Z
∂(x, y)
f (x, y)dxdy = f (u(x, y), v(x, y)) dudv
D D′ ∂(u, v)
Ejemplo: Z q
cos[π x2 + y 2 ]dxdy
x2 +y 2 <1
(
x = r cos ϕ
Para resolver el problema, pasamos a coordenadas polares:
y = r sen ϕ
Z q Z r=1 Z ϕ=2π ∂(x, y)
cos[π x2 + y 2 ]dxdy = cos[rπ] drdϕ =
x2 +y 2 <1 r=0 ϕ=0 ∂(r, ϕ)

Z 2π 1 Z u=r du = dr
= dϕ r cos[πr]dr = =

0 0 dv = dr cos[πr] v = π1 sen[πr]
( 1 ) ( 1
sen[πr] Z 1
sen[πr] 2π cos[πr] −4
 
= 2π r − dr = 0−0 − =
π 0 0 π π π 0 π
Capı́tulo 3

Integración en tres variables

Consideremos un volumen V , limitado por una superfı́cie S cerrada, y una fun-


ción f (x, y, z) definida para todo el volumen V . Se define entonces la integral de la
función f (x, y, z) al volumen V como:
Z Z Z X
f (x, y, z)dv ≡ lı́m f (Pi )∆vi
V ∆vi →0
i

3.1. Cambios de Variables


Por el mismo razonamiento que se hace con dos variables, el factor de curvatura
del elemento diferencial de volumen en cada una de las diferentes coordenadas es su
determinante Jacobiano:
Z Z Z Z Z Z
∂(x, y, z)
f (x, y, z)dxdydz = f (u, v, w) dudvdw
V V′ ∂(u, v, w)

Veamos algunos casos:

Coordenadas cilı́ndricas

x = ρ cos ϕ  ∂(x, y, z)
 cos ϕ
−ρ sen ϕ 0
y = ρ sen ϕ = sen ϕ

ρ cos ϕ 0 = ρ(cos2 ϕ + sen2 ϕ) = ρ
 ∂(ρ, ϕ, z)
z=z 0 0 1

Z Z Z Z Z Z
f (x, y, z)dxdydz = f (ρ, ϕ, z)ρdρdϕdz
V V′

Ejemplo: Determinar la masa M de una semiesfera de radio R con centro en el


origen de coordenadas si su densidad es proporcional a la distancia entre el punto y
su base (ρ(x, y, z) = kz).
Z Z Z Z Z Z Z R Z 2π Z z(r)
M= ρ(x, y, z)dxdydz = kzdxdydz = dr dϕ rkzdz
V V 0 0 0
3.1 Cambios de Variables 81

Para encontrar z(r), vemos que las variables se relacionan


√por medio del teorema
2 2 2
de Pitágoras con el radio de la esfera: R = z + r ⇒ z = R2 − r2 .
√R2 −r2
R z2 R
Z  Z q
M = 2π dr rk = kπ r (R2 − r2 )2 dr =
0 2 0 0

r 2 R2 r 4 R4
R
1 1
  
= kπ − = kπR4 − = kπ
2 4 0 2 4 4

Coordenadas esféricas

x = r sen θ cos ϕ  ∂(x, y, z)
 sen θ cos ϕ
r cos θ cos ϕ −r sen θ sen ϕ

y = r sen θ sen ϕ = sen θ sen ϕ

r cos θ sen ϕ r sen θ cos ϕ =

 ∂(r, θ, ϕ)
z = r cos θ cos θ −r sen θ 0

  
= cos θ r2 sen θ cos θ cos2 ϕ + r2 sen θ cos θ sen2 ϕ + r sen θ r sen2 θ cos2 ϕ+

+r sen2 θ sen2 ϕ = r2 sen θ
Z Z Z Z Z Z
f (x, y, z)dxdydz = f (r, θ, ϕ)r2 sen θdrdθdϕ
V V′
Ejemplo: Determinar las coordenadas del centro de masas de una semiesfera de
densidad constante (ρ(x, y, z) = ρ)centrada en el origen.
Por simetrı́a, sabemos que las coordenadas x e y del centro de masas son cero
(xCM = yCM = 0). ası́ pues, la posición del centro de masas quedará determinada
por su coordenada zCM . Para encontrarla usamos la definición de centro de masas:
Z Z Z Z Z Z
M zCM = dvρ(x, y, z)z; donde M = ρ(x, y, z)dv
V V
π
Z Z Z Z 2π Z
2
Z R
M zCM = dvρ(x, y, z)z = ρ dϕ dθ drr2 sen θr cos θ =
V 0 0 0
π 4 R π
2π R r sen(2θ)
Z Z Z  Z
2 3 2
=ρ dϕ sen θ cos θdθ drr = 2πρ =
0 0 0 4 0 0 2
4 π 4
πR − cos(2θ) πR

2
= ρ = ρ
2 4 0 4
π
Z Z Z Z 2π Z
2
Z R 2
M= ρ(x, y, z)dv = ρ dϕ dθ sen θ r2 dr = πρR3
V 0 0 0 3
πR4
4
ρ 3
zCM = 2 3
= R
3
πρR 8
82 3. Integración en tres variables

3.2. Problemas de integrales múltiples que se re-


ducen a integrales simples
En algunos problemas, por razones de simetrı́a, podemos coger ciertos dS que no
sean los usuales, pero que vayan bien con nuestro problema. Es el caso del problema
de la masa de la semiesfera (v. página 81), ası́ como de algunos otros. Veamos algun
ejemplo:
Ejemplo 1: Determinar la masa M de una semiesfera de radio R con centro en
el origen de coordenadas si su densidad es proporcional a la distancia entre el punto
y su base (ρ(x, y, z) = kz).

Figura 3.1: Elemento dv para la integración de la masa de la semiesfera. Se coje


todo con el mismo valor de z para que la densidad sea constante. Además usamos
el teorema de Pitágoras para escribir r en función de z: R2 = r2 + z 2

En este caso, la integral debe hacerse para todos los valores de z, desde 0 hasta
R, y el elemento de volumen será la superfı́cie S por su altura dz:
2 2 2
Z Z R R4
dv = Sdz = πr dz = π(R − z )dz ⇒ M = kzdv = kzπ(R2 − z 2 )dz = kπ
V 0 4
Ejemplo 2: Calcular el momento de inercia de un disco de radio R y masa M,
sabiendo que el de un aro es I = M R2 .
Este problema se puede resolver mediante una integral doble, o usando una
descomposición del disco en anillos diferenciales (aros). Para culaquiera de los dos
usaremos que su densidad superficial es uniforme y la llamaremos σ:
Si hacemos uso de la integral doble, tendremos:
4
I = 02π dϕ 0R r2 σrdr = 2πσ 0R r3 dr = 2πσ R4
)
I 2 1
R R R
2 = R2 ; I = M R2
M = 02π dϕ 0R σrdr = 2πσ 0R rdr = 2πσ R2 M 4 2
R R R

Si, en cambio, dividimos el disco en anillos diferenciales, cada anillo tendrá una
superfı́cie dS igual a su contorno por su grosor, es decir, dS = 2πrdr. Ası́, la integral
queda:
R 4
)
R R 2 R I 1 1
I= disco dI = 0 2πrdrσr = 2πσ 4
2 = R2 ; I = M R2
M = σS = πR σ M 2 2

Vous aimerez peut-être aussi