Vous êtes sur la page 1sur 121

FÍSICA MATEMÁTICA II

Versión del 18 de abril de 2018


Prefacio

Este apunte se confeccionó con contribuciones de Guillermo Rubilar, Oscar Fuentealba, y


parte del código LATEX de los apuntes de Sean Mauch [1].

Esta obra ha sido publicada bajo una licencia GPL v3. El código fuente (pdf)LATEX, ası́
como las figuras en formato editable están disponibles en el repositorio GitHub del proyecto.

Otros apuntes en https://github.com/gfrubi.

“...Ası́, nosotros los mortales, somos inmortales en lo que creamos en común.”

Albert Einstein.

i
Índice general

Prefacio I

1. Análisis de Fourier 1
1.1. Resumen: Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Propiedades Generales . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2. Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.3. Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.4. Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.5. Fenómeno de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Cambio de Intervalo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2. La transformada de Fourier 7
2.0.1. Ejemplo: Distribución Gaussiana . . . . . . . . . . . . . . . . . . . . . 8
2.1. Propiedades de la Transformada de Fourier . . . . . . . . . . . . . . . . . . . . 9
2.1.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.2. Transformada de Fourier de la derivada de una función . . . . . . . . . 9
2.1.3. Teorema de Convolución . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.4. Teorema de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.5. Ancho de la función y su transformada . . . . . . . . . . . . . . . . . . 12
2.2. Generalización a mayores dimensiones . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Transformada de Fourier seno y coseno . . . . . . . . . . . . . . . . . . . . . . 14

3. Ecuaciones Diferenciales parciales de la Fı́sica 15


3.1. Clasificación de E.D.P. lineales de segundo orden y Condiciones de Borde . . . 17
3.1.1. Condiciones de Borde y condiciones suficientes para determinar soluciones 17
3.1.2. Ejemplo: Difusión del calor unidimensional . . . . . . . . . . . . . . . . 18

4. El Método de Separación de Variables 20


4.1. Coordenadas Cartesianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2. Ejemplo: Ecuación de Laplace en dominio rectangular . . . . . . . . . . . . . . 21
4.2.1. Ejemplo: Ecuación de la onda unidimensional . . . . . . . . . . . . . . 23
4.3. Coordenadas polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.4. Coordenadas Cilı́ndricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5. Coordenadas Esféricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

5. Funciones de Legendre, Asociadas de Legendre y Armónicos Esféricos 28


5.1. E.D.O. Asociada de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.1.1. E.D.O de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.1.2. Polinomios de Legendre y función generadora . . . . . . . . . . . . . . 28

ii
5.1.3. Relación de ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.1.4. Series de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.1.5. Solución en serie de Potencias (Método de Frobenius) . . . . . . . . . 33
5.1.6. Funciones de Legendre de segunda especie . . . . . . . . . . . . . . . . 37
5.2. Funciones asociadas de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2.1. Expresiones explı́citas . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2.2. Fórmula de Rodrigues . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2.3. Función generadora . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.4. Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.5. Paridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.6. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3. Funciones Armónicas Esféricas . . . . . . . . . . . . . . . . . . . . . . . . . . 46

6. Funciones de Bessel 50
6.1. Ecuación de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.2. Solución en serie en torno a z = 0 . . . . . . . . . . . . . . . . . . . . . . . . 50
6.3. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.3.1. Representación integral *** . . . . . . . . . . . . . . . . . . . . . . . . 56
6.3.2. Forma asintótica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.3.3. Ceros de las funciones de Bessel . . . . . . . . . . . . . . . . . . . . . 57
6.3.4. Relaciones de Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . 58
6.4. Funciones de Bessel de orden entero . . . . . . . . . . . . . . . . . . . . . . . 59
6.4.1. Función generadora de Funciones de Bessel de orden entero . . . . . . 60
6.4.2. Representación integral . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.4.3. Sumatorias de funciones de Bessel . . . . . . . . . . . . . . . . . . . . 62
6.5. Funciones de Bessel de orden semi-entero . . . . . . . . . . . . . . . . . . . . 63
6.6. Funciones de Bessel de segunda especie . . . . . . . . . . . . . . . . . . . . . 63
6.6.1. Representación integral . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.6.2. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.7. Funciones de Hankel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.8. Funciones modificadas de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.8.1. Funciones Modificadas de Bessel de segunda especie . . . . . . . . . . 67
6.9. Funciones Esféricas de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.9.1. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.9.2. Expresiones explı́citas . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.9.3. Relaciones de Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . 71
6.9.4. Funciones esféricas de Hankel . . . . . . . . . . . . . . . . . . . . . . . 71
6.9.5. Forma asintótica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.9.6. Funciones modificadas esféricas de Bessel . . . . . . . . . . . . . . . . 71

7. Funciones de Green 74
7.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.2. Generalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.3. Simetrı́a de la función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . 76
7.4. Expresiones explı́citas de algunas funciones de Green . . . . . . . . . . . . . . 77
7.4.1. Operador Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.4.2. Operador de Helmoltz . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

iii
8. Tensores 81
8.1. Tensores Cartesianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.2. Bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.3. Transformaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.4. Convención de suma de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.5. Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.6. Escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.7. Tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.8. Operaciones tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.8.1. Multiplicación por escalar . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.8.2. Adición de tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.8.3. Producto (“tensorial”) de tensores . . . . . . . . . . . . . . . . . . . . 89
8.8.4. Contracción de ı́ndices . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.8.5. Permutación de ı́ndices . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8.8.6. Tensores simétricos y antisimétricos . . . . . . . . . . . . . . . . . . . 90
8.9. Sı́mbolo de Levi-Civita y pseudo-tensores . . . . . . . . . . . . . . . . . . . . . 91
8.9.1. (Pseudo)-tensor dual . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.10. Análisis tensorial cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.10.1. Campo tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.10.2. Derivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.10.3. Divergencia, rotor, Laplaciano . . . . . . . . . . . . . . . . . . . . . . 97
8.10.4. Integración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

A. La Delta de Dirac 100


A.1. La “función” δ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
A.1.1. Derivada de la delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . 101
A.2. Delta de Dirac evaluada en una función y cambios de variable . . . . . . . . . 101
A.2.1. Otras identidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
A.2.2. Representación integral . . . . . . . . . . . . . . . . . . . . . . . . . . 102
A.2.3. La delta de Dirac tridimensional . . . . . . . . . . . . . . . . . . . . . 102

B. Coordenadas curvilineas 104


B.1. Coordenadas Cartesianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
B.2. Coordenadas Cilı́ndricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
B.3. Coordenadas Esféricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

C. Función Gamma 107

D. Otras funciones especiales 108


D.1. Funciones de Laguerre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
D.2. Funciones de Laguerre asociadas . . . . . . . . . . . . . . . . . . . . . . . . . 110
D.3. Funciones de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
D.4. Polinomios de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

1
Capı́tulo 1

Análisis de Fourier

1.1. Resumen: Series de Fourier


1.1.1. Propiedades Generales
Si f (θ) es una función (real o compleja) periódica, de periodo 2π, su serie de Fourier es
dada por

a0 X 
f (θ) = + an cos(nθ) + bn sen(nθ) . (1.1)
2
n=1
Recuerde que las funciones {cos(nθ), sen(nθ)}∞ n=0 forman una base completa para el espacio
de las funciones periódicas de periodo 2π [2].
Usando las relaciones de ortogonalidad
Z π Z π
cos(mθ) cos(nθ) dθ = sen(mθ) sen(nθ) dθ = πδmn , (1.2)
−π −π
Z π
cos(mθ) sen(nθ) dθ = 0, (1.3)
−π
podemos encontrar las expresiones para los coeficientes de Fourier an y bn 1 :
1 π
Z
an = f (θ) cos(nθ) dθ, n = 0, 1, 2, · · · . (1.4)
π −π
1 π
Z
bn = f (θ) sen(nθ) dθ n = 0, 1, 2, · · · . (1.5)
π −π
Equivalentemente, f (θ) puede expandirse en términos proporcionales a las funciones einθ , con
n = 0, ±1, ±2, · · · :
X∞
f (θ) = cn einθ , (1.6)
n=−∞
donde los coeficientes (complejos) cn están dados por
Z π
1
cn = f (θ)e−inθ dθ. (1.7)
2π −π
Lo anterior puede ser verificado a partir de (1.1), (1.4) y (1.5) usando la relación einθ =
cos(nθ) + i sen(nθ), o directamente a partir de la relación de ortogonalidad
Z π
einθ e−imθ dθ = 2πδnm . (1.8)
−π
1
Es conveniente definir b0 := 0, tal como se incluye en (1.5).
1
Los coeficientes de las series (1.1) y (1.6) están relacionados por
(
1
(an − ibn ) para n ≥ 0,
cn = 12 (1.9)
2 (a−n + ib−n ) para n ≤ −1,

o bien,
an = cn + c−n , bn = i(cn − c−n ), n = 0, 1, 2, · · · . (1.10)
Si f (θ) es una función real entonces sus respectivos coeficientes complejos cn satisfacen la
relación Z π Z π
∗ 1 −inθ ∗ 1
cn = f (θ)(e ) dθ = f (θ)einθ dθ = c−n (1.11)
2π −π 2π −π
donde z ∗ representa el complejo conjugado de z.

Ejemplo: Función Signo


Sea la función signo (periódica) f (θ), definida por

−1, θ ∈ [−π, 0)
f (θ) := . (1.12)
1, θ ∈ [0, π]

Es directo ver que por tratarse de una función impar, an = 0 para n = 0, 1, 2, . . .. Sin embargo,

1 0 1 π
Z Z
bn = f (θ) sen(nθ)dθ + f (θ) sen(nθ)dθ (1.13)
π −π π 0
1 0 1 π
Z Z
= (−1) sen(nθ)dθ + (1) sen(nθ)dθ (1.14)
π −π π 0
1 π 1 π
Z Z
= sen(nθ)dθ + sen(nθ)dθ (1.15)
π 0 π 0
2 π
Z
= sen(nθ)dθ (1.16)
π 0
  π
2 − cos(nθ)
= (1.17)
π n
0
 
2 cos(nπ) − 1
=− , (1.18)
π n

pero como cos(nπ) = (−1)n , entonces

(−1)n − 1
 
2
bn = − . (1.19)
π n

Ası́, notando que



0, n par
bn = 4 , (1.20)
nπ , n impar

podemos escribir
∞ ∞
X 4 sen[(2k + 1)θ] X 4 sen[(2k − 1)θ]
X 4
f (θ) = sen(nθ) = = . (1.21)
nπ π (2k + 1) π (2k − 1)
n impar k=0 k=1

2
Definiendo el k-ésimo término de la serie como
4 sen[(2k + 1)θ]
Tk (θ) := , (1.22)
π (2k + 1)
y la serie de Fourier truncada hasta el término n-ésimo en la forma
n
X
Sn (θ) := Tk (θ), (1.23)
k=0

podemos graficar algunas funciones Sn que, a medida que n aumenta, se acercan más y más
a la función original.

f(θ)
1 S0(θ)
S1(θ)
S2(θ)
S3(θ)
Sn (θ)

-1

−3π −2π −π 0 π 2π 3π
θ

Figura 1.1: Serie de Fourier de la función Signo, truncada hasta n = 3.

1.1.2. Convolución
(1·2)
La relación o “Teorema” de Convolución establece una relación entre los coeficientes Cn
(1)
de la expansión de Fourier de la función producto f1 (θ)f2 (θ) y los respectivos coeficientes Cn
(2)
y Cn de las funciones f1 (θ) y f2 (θ).

Z π
1
c(1·2)
n = f1 (θ)f2 (θ)e−inθ dθ (1.24)
2π −π
1 X π
Z
(2) imθ −inθ
= f1 (θ)Cm e e dθ (1.25)
2π m −π
1 X (2) π
Z
= Cm f1 (θ)e−i(n−m)θ dθ (1.26)
2π m −π
(1)
X
(2)
= Cm Cn−m (1.27)
m

(1)
X
c(1·2)
n = (2)
Cm Cn−m . (1.28)
m

1.1.3. Relación de Parseval


Si elegimos f1 (θ) = f ∗ (θ), f2 (θ) = f (θ) y n = 0 en (1.28), encontramos
Z π X
|f (θ)|2 dθ = 2π |Cn |2 . (1.29)
−π n
3
1.1.4. Convergencia
Una sucesión Sn (θ) de funciones definidas en el intervalo θ ∈ [−π, π] converge en media
a una función f (θ) si Z π
lı́m [f (θ) − Sn (θ)]2 dθ = 0. (1.30)
n→∞ −π

“La sucesión Sn converge a f (θ) excepto en un conjunto de medida cero”

Una sucesión Sn (θ) de funciones converge uniformemente a una función f (θ) si para
todo  > 0 existe un N > 0 tal que

|f (θ) − Sn (θ)| < , ∀n > N, (1.31)

para cada θ (N independiente de θ).

Teorema 1 [3]: Si f (θ) es una función es “muy suave por tramos” (es decir, si la función,
su primera y segunda derivadas son continuas por tramos) en el intervalo (−π, π) entonces su
serie de Fourier converge a
1
[f (θ − 0) + f (θ + 0)] , θ ∈ (−π, π), (1.32)
2
1
[f (−π + 0) + f (π − 0)] , θ = ±π. (1.33)
2
La convergencia es uniforme en cada subintervalo cerrado donde f (θ) es continua.
Teorema 2 [3]: Si una función definida en un intervalo cerrado [a, b] satisface las condiciones
de Dirichlet (es decir, si f (θ) es continua por tramos, y si el intervalo (a, b) puede ser dividido
en un número finito de subinteralos donde f (θ) es monotona) entonces también se satisfacen
las propiedades de convergencia del Teorema 1.
2
R π 3 [3]:2 Si la función f (θ) es cuadrado-integrable en (−π, π) (f ∈ L (−π, π), es
Teorema
decir, si −π |f (θ)| dθ es finito) entonces su serie de Fourier converge en media a f (θ).
Ojo!: Esto no cubre todas las posibilidades de convergencia! Ej. f (θ) = ln(cos(θ/2)) (Ver
[3], pag. 168).

1.1.5. Fenómeno de Gibbs


Si la función f (θ), continua por tramos, posee una discontinuidad en un punto θ0 , si bien
la serie truncada converge uniformemente en puntos en la vecindad de θ0 , ésta siempre sobre-
estima/subestima el valor de la función en puntos cercanos a θ0 . La región donde ocurre esta
sobreestimación/subestimación es cada vez más pequeña a medidad que se agregan términos
a la serie truncada, pero el monto de la sobreestimación/subestimación es siempre finito. De
hecho, se puede mostrar2 que la serie de Fourier sobreestima el “salto” de la función en la
discontinuidad por aproximadamente 17,9 %.

1.2. Cambio de Intervalo


Es simple extender los resultados anteriores al caso de funciones periódicas de periodo
arbitrario. Si f (t) es una función de periodo T = b − a entonces
T
g(θ) := f (a + θ) (1.34)

2
Ver por ejemplo [2], capı́tulo 14.
4
es una función de periodo 2π en la variable θ. Por lo tanto, podemos expandir g(θ) en serie de
Fourier,
∞ Z π
X 1
g(θ) = inθ
cn e , cn = g(θ)e−inθ dθ. (1.35)
n=−∞
2π −π

Usando (1.34), y realizando el cambio de variable de integración a t := a + Lθ/2π, podemos


expresar los coeficientes cn como
Z π
1
cn = g(θ)e−inθ dθ (1.36)
2π −π
Z π
1 T
= f (a + θ)e−inθ dθ (1.37)
2π −π 2π
Z b+T /2
1 2π 2π
= f (t)e−in T (t−a) dt (1.38)
2π a−T /2 T
1 2πina b
Z
2πin
= e T f (t)e− T t dt. (1.39)
T a

Definimos la frecuencia fundamenal ω1 := 2π/T y las frecuencias armónicas ωn := nω1 ,


n = 0, ±1, ±2, · · · . Entonces, la función original f (t) = g(2π(t − a)/L) puede escribirse como
X
f (t) = fn eiωn t , (1.40)
n

donde
Z b
1
fn := f (t)e−iωn t dt. (1.41)
T a

1.2.1. Delta de Dirac


Podemos encontrar una representación de la (extensión periódica de la) delta de Dirac
δ(t) (ver apéndice A para más detalles) en términos de una serie de Fourier. En este caso, los
coeficientes fn se reducen a:

1 b
Z
fn = δ(t)e−iωn t dt (1.42)
T a
1
= . (1.43)
T
Por lo tanto,

"  #
1 X iωn t 1 X 2πnt
δ(t) = e = 1+2 cos . (1.44)
T n T T
n=1

Definimos el k-ésimo término de la serie como


1

Tk (t) := T, si k = 0
, (1.45)
2 P∞ 2πkt

T k=1 cos T , si k = 1, 2, . . .

y la serie de Fourier truncada hasta el término n-ésimo en la forma:


n
X
Sn (t) := Tk (t). (1.46)
k=0

5
Es importante notar, como puede comprobarse al graficar la serie, que lo que se obtiene es en
realidad la extensión periódica (de periodo T ) de la delta de Dirac.

7/T S0(t)
S1(t)
S2(t)
5/T S3(t)

3/T
Sn (t)

1/T
0
−1/T

−3T/2 −T −T/2 0 T/2 T 3T/2


t

Figura 1.2: Serie de Fourier de la Delta de Dirac con perı́odo T = 2π, truncada hasta
n = 4.

6
Capı́tulo 2

La transformada de Fourier

Las series de Fourier permiten representar una función periódica como superposición de
funciones seno y coseno (o exponenciales de argumento imaginario). Es posible extender el
método de expansión de Fourier al caso de funciones no-periódicas, resultando las llamadas
integrales de Fourier. Podemos entender estas integrales de Fourier como el lı́mite contı́nuo
de las series de Fourier.
Consideremos una función f (t) de periodo T , y como intervalo fundamental a (−T /2, T /2).
Entonces, usando (1.40) y (1.41) podemos escribir

" Z #
X 1 T /2 −iωn ξ
f (t) = f (ξ)e dξ eiωn t . (2.1)
n=−∞
T −T /2

Equivalentemente, podemos expresar la suma en (2.1) en términos de la frecuencias ωn y la


diferencia (en este caso, constante) entre ellas ∆ω := ωn+1 − ωn = 2π/T :

" Z #
T /2
X 1 −iωn ξ
f (t) = f (ξ)e dξ eiωn t ∆ω. (2.2)
ω =−∞
2π −T /2
n

En el lı́mite T → ∞, (y por lo tanto ∆ω → 0), la función f (t) puede considerarse como una
función no-periódica arbitraria definida en todo el intervalo (−∞, ∞). Por otro lado, la suma
se transforma en una integral1 . Por lo tanto, en este lı́mite obtenemos la identidad
Z ∞ Z ∞ 
1 −iωξ
f (t) = f (ξ)e dξ eiωt dω, (2.3)
−∞ 2π −∞

a partir de la cual podemos definir la transformada de Fourier de la función f (t) como


Z ∞
f˜(ω) := f (t)e−iωt dt, (2.4)
−∞

de modo que la “transformada inversa” resulta ser


Z ∞
1
f (t) = f˜(ω)eiωt dω. (2.5)
2π −∞

Observaciones:

Cuidado! La derivación anterior es “heurı́stica” (e.d. no rigurosa).


1
Rb P
Recuerde la definición de integral de Riemann: a
f (x) dx := lı́m∆xi →0 xi f (xi )∆xi .
7
Otras notaciones: f˜(ω) = g(ω) = F(f )(ω).

El factor 1/2π en la definición (2.5) es hasta cierto punto convencional. Lo importante


es la identidad (2.3). Por ejemplo, en lugar de estos factores, podrı́a introducirse α en
(2.4) y 1/2πα en√ (2.5), con una constante α arbitraria. Otras elecciones populares son
α = 1 y α = 1/ 2π.

Note que en (2.5) la integral se extiende sobre “frecuencias positivas y negativas”.


R∞
Compare (2.4) con la definición de la transformada de Laplace: F (s) := 0 f (t)e−st dt.

En Fı́sica es costumbre denotar, en el caso en que se considere una función de la posición,


f (t) → f (x) y usar el número de onda kR en lugar de la frecuecia ω, de modo que la

expansión adopta la forma f (x) = (1/2π) −∞ f˜(k)eikx dk.

2.0.1. Ejemplo: Distribución Gaussiana


Considere la distribución gaussiana definida por
2
f (t) := e−αt , α > 0, (2.6)

entonces su transformada de Fourier es dada por


Z ∞
2
˜
f (ω) = e−αt e−iωt dt
Z−∞

2
= e−αt −iωt dt. (2.7)
−∞

Notando que
 ω 
−αt2 − iωt = − α t2 + t
α
 2  2 !
ω iω iω
= − α t2 + t + −
α 2α 2α
 2  2
iω iω
=−α t+ +α
2α 2α
 2  2 
iω ω
=−α t+ − , (2.8)
2α 4α
se halla entonces que
Z ∞ iω 2
 2
−α(t+ 2α ) − ω4α
f˜(ω) = e dt
−∞
ω2
Z ∞ iω 2
=e− 4α e−α(t+ 2α ) dt, (2.9)
−∞
√ √
pero haciendo el cambio de variables x := α(t + iω/4α), entonces dx = α dt, luego
Z ∞
−ω
2 2 dx
˜
f (ω) = e 4α e−x √ . (2.10)
−∞ α
Además, recordando que
Z ∞ √
2
e−x dx = π, (2.11)
−∞
8
encontramos finalmente que r
−αt2 π − ω2
F[e ]= e 4α . (2.12)
α

1.0 1.8
p
e −t 2 1.6
πe −ω 2 /4
0.8 1.4
1.2
0.6
1.0

f̃(ω)
f(t)

0.8
0.4
0.6
0.2 0.4
0.2
0.0 10 5 0 5 10 0.0 10 5 0 5 10
t ω

Figura 2.1: Distribución gaussiana y su transformada de Fourier con α = 1.

Tarea: Verifique que, efectivamente, la transformada inversa reproduce la función original,


es decir, r
−1 − ω
2 α −αt2
F [e 4α ] = e . (2.13)
π

2.1. Propiedades de la Transformada de Fourier


2.1.1. Delta de Dirac

Z ∞
F[δ(t − ξ)] = δ(t − ξ)e−iωt dt (2.14)
−∞
−iωξ
=e (2.15)
Z ∞
1
δ(t − ξ) = eiω(t−ξ) dω. (2.16)
2π −∞

2.1.2. Transformada de Fourier de la derivada de una función

Z ∞
0
F[f (t)] = f 0 (t)e−iωt dt (2.17)
−∞
∞
Z ∞
= f (t)e−iωx −∞ − (−iω)f (t)e−iωt dt

(2.18)
−∞
∞
Z ∞
f (t)e−iωx −∞ f (t)e−iωt dt

= + iω (2.19)
−∞
−iωt ∞

= iωF[f (t)] + f (t)e −∞
. (2.20)

Entonces, si la función f (t) se anula en el infinito, es decir si lı́mt→±∞ f (t) = 0, tendremos


que
F f 0 (t) = (iω)F[f (t)].
 
(2.21)
9
Aplicación sucesiva de esta relación, bajo las mismas condiciones, conduce a
h i
F f (n) (t) = (iω)n F[f (t)]. (2.22)

Ejemplo: Función escalón.


Sea la función escalón H(t) tal que
(
0, si t < c,
Hc (t) := , (2.23)
1, si t > c

H(t−a)
1
H(t−c)

c
t

Figura 2.2: Función escalón.


con la interesante propiedad que
dH
(t) = δ(t − c). (2.24)
dt
Es de relevancia mencionar que ingenuamente podrı́amos pasar por alto el hecho que la función
escalón no satisface la hipótesis que lı́mt→±∞ H(t − c) = 0 y recordando (2.15) podrı́amos
pretender calcular la transformada de Fourier simplemente usando la expresión (2.21), lo que
nos conducirı́a erróneamente a que

1 −icω
F[H(t − c)] = e . (2.25)

Sin embargo, al emplear directamente la definición de la transformada de Fourier vemos que
Z ∞
F[H](ω) = H(t)e−iωt dt
Z−∞ ∞
= 1 · e−iωt dt
c

e−iωt
= , (2.26)
−iω c
y debido a que
e−iωt e−iωt

= lı́m (2.27)
−iω ∞ t→∞ −iω
10
no existe (el lı́mite no tiende a un valor único), entonces se concluye que la transformada de
Fourier de la función escalón tampoco. Sin embargo, la relación completa (2.20) sigue siendo
válida y suministra una expresión equivalente a (2.26).

2.1.3. Teorema de Convolución


El teorema de convolución suministra una útil relación entre la transformada de Fourier de
un producto de funciones y las transformadas de Fourier de cada una de las funcioes.
Z ∞
F[f1 (t)f2 (t)] = f1 (t)f2 (t)e−iωt dt (2.28)
−∞
Z ∞ Z ∞ 
1 0 iω 0 t
= f1 (t) ˜
f2 (ω )e dω e−iωt dt
0
(2.29)
2π −∞ −∞
Z ∞ Z ∞ 
1 0
= f1 (t)e−i(ω−ω )t dt f˜2 (ω 0 ) dω 0 (2.30)
2π −∞ −∞
Z ∞
1
= f˜1 (ω − ω 0 )f˜2 (ω) dω 0 . (2.31)
2π −∞
Por lo tanto,
Z ∞
1
f˜1·2 (ω) = f˜1 (ω − ω 0 )f˜2 (ω) dω 0 . (2.32)
2π −∞

Análogamente, la relación entre las transformadas inversas es


Z ∞
−1 ˜ ˜
F [f1 (ω)f2 (ω)] = f1 (ξ)f2 (t − ξ) dξ. (2.33)
−∞

Ejemplo
Usando el teorema de convolución podemos encontrar la transformada de Fourier de
1
f (t) = . (2.34)
t4 + 5t2 + 4
1
f (t) = 2 (2.35)
(t + 1)(t2 + 4)
 
c
F 2 = πe−c|ω| , para c > 0. (2.36)
t + c2
 
1 1
F[f (t)] = F 2 (2.37)
t + 1 t2 + 4
Z ∞ 
1 ππ −|η| −2|ω−η|
= e e dη (2.38)
2π 1 2 −∞
Z 0 Z ∞ 
π η −2|ω−η| −η −2|ω−η|
= e e dη + e e dη (2.39)
4 −∞ 0
Si ω > 0,
Z 0 Z ω Z ∞ 
π −2ω+3η −2ω+η 2ω−3η
F[f (t)] = e dη + e dη + e dη (2.40)
4 −∞ 0 ω
 
π 1 −2ω 1
= e + e−ω − e−2ω + e−ω (2.41)
4 3 3
 
π 2 −ω 1 −2ω
= e − e . (2.42)
2 3 3
11
Si ω < 0,
Z ω Z 0 Z ∞ 
π −2ω+3η 2ω−η 2ω−3η
F[f (t)] = e dη + e dη + e dη (2.43)
4 −∞ ω 0
 
π 1 ω 1
= e − e2ω + eω + e2ω (2.44)
4 3 3
 
π 2 ω 1 2ω
= e − e . (2.45)
2 3 3

Podemos expresar los resultados para ambos signos de ω como:


 
π 2 −|ω| 1 −2|ω|
F[f (t)] = e − e . (2.46)
2 3 3

Otra forma de encontrar la transformada de


1
f (t) = (2.47)
t4 + 5t2 + 4
es expandir la función en fracciones parciales:
1 1 1 1
f (t) = 2
− 2 , (2.48)
3t +1 3t +4

   
1 1 1 1
F[f (t)] = F 2 − F 2 (2.49)
3 t +1 3 t +4
1 π −|ω| 1 π −2|ω|
= e − e . (2.50)
31 32

2.1.4. Teorema de Parseval

Z ∞ Z ∞
1
2
|f (t)| dt = |f˜(ω)|2 dω. (2.51)
−∞ 2π −∞

2.1.5. Ancho de la función y su transformada


Definimos el valor medio de t respecto a la función (distribución) f (t) como
R ∗
t|f (t)|2 dt
R
f (t)tf (t) dt
hti := R = R (2.52)
|f (t)|2 dt |f (t)|2 dt

y, análogamente, el valor medio de ω respecto a la transformada f˜(ω) por

f˜ (ω)ω f˜(ω)dω ω|f˜(ω)|2 dω


R ∗ R
hωi := R = R . (2.53)
|f˜(ω)|2 dω |f˜(ω)|2 dω

De forma similar, la varianza de t respecto a f (t) es definida por


R ∗
f (t)(t − hti)2 f (t) dt (t − hti)2 |f (t)|2 t
R
2
(∆t) := R = R . (2.54)
|f (t)|2 dt |f (t)|2 dt

12
Finalmente, la varianza de ω respecto a f˜(ω) es dada por:

f˜ (ω)(ω − hωi)2 f˜(ω)dω (ω − hωi)2 |f˜(ω)|2 ω


R ∗ R
2
(∆ω) := = . (2.55)
|f˜(ω)|2 dω |f˜(ω)|2 dω
R R

Sea f (t) una función tal que lı́mt→±∞ f (t) = 0 y f 0 = df /dt, entonces f˜0 = iω f˜, y
podemos escribir ω f˜ = −if˜0 . Por lo tanto
Z Z
(∆ω) 2
|f | dω = |if˜0 + hωif˜|2 dω
˜ 2

Z
= |F[if 0 + hωif ]|2 dω. (2.56)

Pero empleando el teorema de Parseval se encuentra que


Z Z
(∆ω)2 |f˜|2 dω = 2π |if 0 + hωif ]|2 dt. (2.57)

Recordando la desigualdad (triangular) de Schwarz, que establece que ∀f1 , f2 se cumple que
Z  Z  Z
2 2 ∗

|f1 | dt |f2 | dt ≥ f1 f2 dt , (2.58)

y considerando f1 (t) := (t − hti)f (t) y f2 (t) := if 0 (t) + hωif (t), se tiene que

 2
Z  Z  Z
2 2 2 2 ∗ 0

|f | dt (∆t) · (∆ω) |f | dt ≥ f (t)(t − hti) if (t) + hωif (t) dt . (2.59)

Si definimos I como la integral del segundo miembro de la ecuación precedente, podemos hallar
que
Z
 ∗ 0
if tf + hωif ∗ tf − htiif ∗ f 0 − htihωi|f |2 dt

I=
Z   Z Z
df df
=i f ∗ t − htif ∗ dt + hωihti |f |2 dt − htihωi |f |2 dt
dt dt
Z
df
=i f ∗ (t − hti) dt. (2.60)
dt
Notando que
Z   ∗ 
1 ∗ df df
Im(I) = f (t − hti) + (t − hti)f dt
2 dt dt
Z  
1 d ∗
= [f (t − hti)f ] − f ∗ f dt
2 dt
∞ Z
1 2 1
|f |2 dt.

= (t − hti)|f | − (2.61)
2 −∞ 2

Para que |f |2 dt y hti sean finitos, suponemos que |f |2 → 0 y t|f 2 | → 0 cuando t → ±∞.
R

En tal caso
Z
1
Im(I) = − |f |2 dt. (2.62)
2

13
Además, como |I|2 = [Re(I)]2 + [Im(I)]2 ≥ [Im(I)]2 , podemos escribir que
Z 2 Z 2
2 2 2 21 2
(∆t) (∆ω) |f | dt ≥ [Im(I)] = |f | dt , (2.63)
4

de donde se deduce que


1
(∆t)2 · (∆ω)2 ≥ (2.64)
4
o, finalmente,

1
∆t · ∆ω ≥ . (2.65)
2

Ejemplo
Un ejemplo instructivo es el caso de la función gaussiana (2.6). En este caso un cálculo
simple muestra que
1
hti = 0, ∆t = √ . (2.66)
2 α
Similarmente, para la transformada (2.12), que tiene la misma forma funcional, tendremos que

hωi = 0, ∆ω = α. (2.67)

Verificamos que en ambos casos los valores medios son una medida del “valor central” y que
la varianza cuantifica el “ancho” de cada distribución. La distribución gaussiana es especial en
el sentido que satura la desigualdad (2.65), ya que en este caso
1
∆t · ∆ω = . (2.68)
2

2.2. Generalización a mayores dimensiones


En D dimensiones: Z
~
F[f (~x)] = f˜(~k) := f (~x)ei(k·~x) dD x, (2.69)
Z
−1 1 ~
f (~x) = F (f˜) := f˜(~k)e−i(k·~x) dD k. (2.70)
(2π)D
*** cambio convención! listo hasta aquı́ ***

2.3. Transformada de Fourier seno y coseno

14
Capı́tulo 3

Ecuaciones Diferenciales parciales


de la Fı́sica

En Fı́sica es común encontrar sistemas descritos por campos 1 (Ψ), que satisfacen ecuaciones
diferenciales parciales (EDP’s). Entre las más frecuentes destacan las siguientes:

Ecuación de Laplace:
∇2 Ψ = 0, Ψ(~x). (3.1)
Esta ecuación aparece, por ejemplo, en el estudio de:

• Electrostática. El potencial eléctrico φ en una región sin cargas satisface la ec. de


Laplace.
• Hidrodinámica. Un fluido irrotacional incompresible en un movimiento estacionario
con campo de velocidad ~v = −∇Ψ ~ satisface

∂ρ ~ ~ · ~v = −∇2 Ψ = 0.
+ ∇(ρ~v ) = 0 ⇒ ∇ (3.2)
∂t

• Distribución de Temperatura estacionaria: Aquı́ Ψ = T (~x, t) es el campo de tempe-


raturas de un material, la ecuación del Calor, ver (3.6), se reduce a la ec. de Laplace
para T (~x).
• Gravitación. Análogo al caso electrostático, con Ψ = φ = potencial gravitacional.

Ecuación de Poisson
∇2 Ψ = g(~x), (3.3)
donde g(~x) es una función “fuente” conocida. Esta EDP es inhomogénea, y por lo tanto
sus soluciones generales pueden escribirse como Ψ = Ψh + Ψp , donde Ψh es solución
de la ecuación homogenea correspondiente (en este caso, la ec. de Laplace), y Ψp una
solución particular de la ec. de Poisson.
Por ejemplo, el potencial electrostático φ(~x) satisface
1
∇2 φ = − ρ(~x), (3.4)
ε0
donde ε0 es la permeabilidad del vacı́o y ρ(~x) la densidad (volumétrica) de carga
eléctrica.
1
Es decir, funciones que dependen de la posición y/o del tiempo.

15
Ecuación de Helmholtz:
∇2 Ψ ± k 2 Ψ = 0. (3.5)
Esta ecuación, conocida también como la ecuación de difusión independiente de tiempo,
aparece en el estudio de
• Ondas elásticas en sólidos.
• Acústica.
• Ondas electromagnéticas.
• Reactores nucleares.
Ecuación de difusión dependiente del tiempo (α = difusividad térmica)
1 ∂Ψ
∇2 Ψ − = 0. (3.6)
α ∂t
Ecuación de la onda dependiente del tiempo
1 ∂2Ψ
∇2 Ψ − = 0, (3.7)
v 2 ∂t2
o bien
1 ∂2
Ψ = 0,  := − ∇2 . (3.8)
v 2 ∂t2
Esta EDP aparece en modelos de:
• Ondas elásticas en sólidos, membranas, cuerdas, etc.
• Ondas electromagnéticas en regiones sin fuentes.
• Ondas sonoras.
Ecuación de Klein-Gordon:
m2 c2
Ψ − Ψ = 0. (3.9)
~2
Ecuación de Schrödinger:
~2 2 ∂Ψ
− ∇ Ψ + V (~x)Ψ = i~ . (3.10)
2m ∂t
Observaciones:

Todas estas ecuaciones son lineales en la función desconocida.


Las ecuaciones fundamentales de la fı́sica atmosférica son no-lineales, ası́ como también
las ecuaciones involucradas en los problemas de turbulencia.
Estas ecuaciones son casi todas de segundo orden excepto las ecuaciones de Maxwell y
de Dirac que son de primer orden.

Las técnicas generales para (intentar) resolver EDP lineales que consideraremos en este
curso son:
1. Método de separación de variables: La ecuación diferencial parcial es desdoblada en
ecuaciones diferenciales ordinarias lineales. La solución de la EDP es construida como
superposición de soluciones que son el producto de funciones dependientes de cada va-
riable. Usando este método es posible reducir la ec. de la onda, la ec. del calor, y la ec.
de Klein-Gordon a la ec. de Helmholtz.
16
2. Método de las transformadas integrales (Fourier, Laplace, etc.), para resolver EDP
inhomogéneas.
3. Método de las funciones de Green, para resolver EDP inhomogéneas.

3.1. Clasificación de E.D.P. lineales de segundo orden y Con-


diciones de Borde
Una E.D.P. lineal de segundo orden de la forma [4]
m
X ∂2Ψ 
~

aj (~x) 2 + F ~x, Ψ, ∇Ψ = 0, (3.11)
j=1
∂xj

o que pueda reducirse a (3.11) por medio de algún cambio de variables, puede clasificarse en
los siguientes tres tipos:
Elı́pticas en ~x0 : si en el punto ~x0 todos los coeficientes aj (~x0 ) son no-nulos y tienen el
mismo signo. Ejemplo clásico: Ec. de Laplace.
Ultrahiperbólicas en ~x0 : si en el punto ~x0 todos los coeficientes aj (~x0 ) son no-nulos,
pero no tienen el mismo signo. Si sólo uno de los coeficientes tiene signo diferente del
resto, la E.D.P. es hiperbólica. Ejemplo clásico: Ec. de onda.
Parabólica en ~x0 : si en el punto ~x0 al menos uno de los coeficientes aj (~x0 ) se anula.
Ejemplo clásico: Ec. de difusión del calor.
Si una E.D.P. de segundo orden es de un tipo dado en todos los puntos de su dominio, se dice
simplemente que es de ese tipo (es decir, el tipo no cambia de punto a punto). Esto ocurre, en
particular con las E.D.P.’s de segundo orden con coeficientes constantes.

3.1.1. Condiciones de Borde y condiciones suficientes para determinar


soluciones
La solución de une EDP requiere especificar información adicional a la ecuación. Esta infor-
mación recibe el nombre de Condiciones de Borde (C. de B.), o condiciones de Frontera,
o bien condiciones iniciales y generalizan las conficiones iniciales necesarias para resulver una
EDO.
En el caso de EDP’s de segundo orden, existen tres tipos principales de C. de B.:
C. de B. tipo Dirichlet: donde el valor de la función (Ψ) es especificada en la frontera
de la región considerada.
C. de B. tipo Neumann: donde el valor de la derivada normal de función en la
~
frontera (∂Ψ/∂t := n̂ · ∇Ψ) es especificada.
C. de B. tipo Cauchy: donde se especifican simultaneamente C. de B. tipo Dirichlet y
Neumann en la frontera.
Por ejemplo, en electroestática (donde el potencial electrostático φ satisface la ecuación de
Poisson), una C. de B. tipo Dirichlet significa especificar un valor del potencial en la frontera,
mientras que una C. de B. tipo Neumann equivale a especificar el valor de la componente del
campo eléctrico normal a la frontera.
Existen teoremas de existencia y unicidad de soluciones de EDP’s de segundo orden, de-
pendiendo de si la ecuación es parabólica, hiperbólica o elı́ptica:
Teorema: Existe solución única en cada uno de los siguientes casos:
17
E.D.P. elı́pticas + C.de B. tipo Dirichlet o Neumann sobre una (hiper)superficie cerrada.

E.D.P. hiperbólica + C.de B. tipo Cauchy sobre una (hiper)superficie abierta.

E.D.P. parabólica + C.de B. tipo Dirichlet o Neumann sobre una (hiper)superficie abierta.

3.1.2. Ejemplo: Difusión del calor unidimensional


Usando la transformada de Fourier espacial (o temporal) podemos resolver la ecuación de
difusión del calor unidimensional, es decir,

∂ 2 ψ ∂ψ
α − = 0, (3.12)
∂2x ∂t
en el dominio −∞ < x < ∞, t ≥ 0, y sujeta a las siguientes condiciones de contorno

lı́m ψ(x, t) = 0, (3.13)


x→±∞
ψ(x, 0) = φ(x). (3.14)

Aplicando la tranformada de Fourier espacial a la ecuación (3.12), se obtiene

∂2ψ ∂ψ
αFx [ ] − Fx [ ] = 0, (3.15)
∂2x ∂t
además por la condición de contorno (3.13) tenemos que

∂2ψ
Fx [ ] = (ik)2 Fx [ψ] = (ik)2 ψ̃(k, t), (3.16)
∂2x
y como
∂ψ ∂
Fx [ ] = Fx [ψ], (3.17)
∂t ∂t
entonces

−αk 2 ψ̃(k, t) − ψ̃(k, t) = 0. (3.18)
∂t
Por lo tanto, obtenemos una ecuación diferencial más simple, donde la dependencia espacial
original ha sido ahora reducida a una dependencia algebraica:

ψ̃(k, t) = −α ψ̃(k, t). (3.19)
∂t
Rsolviendo esta ecuación respeto a la variable t, encontramos
2
ψ̃(k, t) = ψ̃(k, 0) e−αk t . (3.20)

Por otro lado, empleando la condición (3.14) vemos que

ψ̃(k, 0) = Fx [ψ(x, 0)] = Fx [ψ(x)] = φ̃(k). (3.21)

En consecuencia,
2
ψ̃(k, t) = φ̃(k) e−αk t . (3.22)

18
Con esto, la solución ψ(x, t) del problema es dada por la transformada inversa,
2
ψ(x, t) = F −1 [ψ̃(k, t)] = F −1 [φ̃(k) e−αk t ] (3.23)

o, más explı́citamente,
Z ∞
1
ψ(x, t) = ψ̃(k, t)eikx dk
2π −∞
Z ∞
1 2
= φ̃(k)e−αk t eikx dk, (3.24)
2π −∞
con
Z ∞
φ̃(k) = φ(x)eikx dx. (3.25)
−∞

Por ejemplo, si

φ(x) = T0 δ(x), (3.26)

entonces

φ̃(k) = T0 Fx [δ(x)] = T0 . (3.27)

Por consiguiente,
2
ψ(x, t) = T0 F −1 [e−αk t ]. (3.28)

Adaptando nuestro resultado para la transformada inversa de la función gaussiana, es decir


(2.13), podemos escribir
2 1 2
F −1 [e−αk t ] = √ e−x /4αt . (3.29)
2 παt

Por lo tanto, se ha hallado que2


T0 x2
ψ(x, t) = √ e− 4αt , ∀t > 0. (3.30)
2 παt

2
En el repositorio de estos apuntes, en particular en este link puede encontrar un notebook con gráficos
y animaciones de la solución.
19
Capı́tulo 4

El Método de Separación de
Variables

El método de separación de variables (MSV, originalmente introducido por Daniel Ber-


noulli, 1700-1782) para encontrar soluciones de EDP’s lineales consiste en reducir la EDP a
un conjunto de EDO’s para un conjunto de funciones auxiliares. Cada una de estas funciones
auxiliares depende sólo de una de las variables independientes del problema. La solución es en-
tonces construida como una superposición (e.d. combinación lineal) de soluciones separables,
consistentes en productos de las funciones auxiliares.
Más expl’citamente, el MSV consiste en:

Buscar soluciones separables de la EDP. Esto conduce a un conjunto de EDO’s.

Construir una superposición general de soluciones separables, e imponer las condiciones


de contorno y/o iniciales del problema.

Si bien en general el MSV sigue los pasos anteriores, en la práctica es útil considerar un
paso intermedio:

Imponer las condiciones de contorno/iniciales homogéneas a cada función separable. Esto


simplifica mucho el cálculo puesto que tı́picamente elimina muchas posibles contribucio-
nes a la (futura) combinación lineal. Esto sólo puede ser realizado con las condiciones
de borde/iniciales homogéneas para EDP’s lineales y homogéneas, puesto que si la solu-
ción separable satisface estas condiciones entonces cualquier superposición lineal lo hará.
Además, no se pierde generalidad con este método, puesto que (puede demostrarse que)
las funciones separables obtenidas son linealmente independientes.

En resumen, es conveniente aplicar el MSV de la siguiente forma:

Buscar soluciones separables de la EDP (conjunto de EDO’s).

Imponer las condiciones de borde/iniciales homogéneas a las soluciones separables.

Construir una combinación lineal general con las soluciones separables anteriores.

Determinar los coeficientes de la combinación lineal que aseguran que la solución final
satisface las condiciones de borde/iniciales inhomogéneas.

20
4.1. Coordenadas Cartesianas

4.2. Ejemplo: Ecuación de Laplace en dominio rectangular


Buscaremos la solución Ψ(x, y) que satisface la ecuación de Laplace bidimensional

∂2Ψ ∂2Ψ
+ = 0, (4.1)
∂x2 ∂y 2
en el rectángulo 0 < x < 1, 0 < y < 2, con la condición de borde

Ψ(x, 2) = x(1 − x), (4.2)

y con Ψ = 0 en los otros tres lados.


Primero buscamos soluciones separables de la EDP, de la forma

Ψsep (x, y) = X(x)Y (y). (4.3)

Al reemplazar en (4.1) y dividir por Ψsep encontramos

1 d2 X 1 d2 Y
+ = 0, (4.4)
X(x) dx2 Y (y) dy 2

lo que implica que término debe ser igual a una constante, es decir

1 d2 X d2 X
= λ, − λX(x) = 0, (4.5)
X(x) dx2 dx2

1 d2 Y d2 Y
= −λ, + λY (y) = 0. (4.6)
Y (y) dy 2 dy 2
La forma explı́cita de estas ecuaciones depende del valor, y en particular del signo, de la
constante de separación λ, que por ahora tiene valor desconocido: Por ejemplo,
 √ √
λx + c e− λx ,
c1 e
 2 si λ > 0
Xλ (x) = c1 + c2 x, si λ = 0 . (4.7)
 √ √
c1 cos( −λx) + c2 sin( −λx), si λ < 0

Similarmente,  √ √
c̄1 cos( λy) + c̄2 sin( λy), si λ > 0

Yλ (y) = c̄1 + c̄2 y, si λ = 0 . (4.8)
 √−λy



−λy
c̄1 e + c̄2 e , si λ < 0
Ası́, hemos encontrado infinitas soluciones separables, cada una de la forma

Ψsep
λ (x, y) = Xλ (x)Yλ (y), (4.9)

para cada valor posible de la constante de separación λ. Como esta constante puede tomar
distintos valores, y como la EDP es lineal, entonces cualquier combinación lineal de la forma
X sep X
Ψ(x, y) = Ψλ (x, y) = Xλ (x)Yλ (y), (4.10)
λ λ

es también solución.
21
Procedemos ahora a imponer las condiciones de borde a la solución. Los cálculos se sim-
plifican si imponemos primero las condiciones de borde homogéneas. Por ejemplo, la condición
Ψ(0, y) = 0, ∀y ∈ [0, 2] (borde izquierdo del dominio) requiere que
X sep X
Ψ(0, y) = Ψλ (0, y) = Xλ (0)Yλ (y) = 0. (4.11)
λ λ

La última expresión es una combinación lineal de los coeficientes (constantes) Xλ (0) y las
funciones Yλ (y). Ya que las funciones Yλ (y) son l.i. en esta combinación será nula sólo si
Xλ (0) = 0. Análogamente, la condición Ψ(1, y) = 0, ∀y ∈ [0, 2] requiere Xλ (1) = 0. Estas
dos condiciones sobre las funciones Xλ (x) restringen fuertemente los valores posibles de λ. En
nuestro caso particular, sólo valores negativos de esta constante de separación son permitidos.
Esto ocurre si λ = −n2 π 2 , n = 1, 2, . . . , y entonces

Xn (x) = cn sen (nπx) , λ = −n2 π 2 , n = 1, 2, . . . . (4.12)

Para estos valores de λ, las soluciones para Y (y) son de la forma

Yn (y) = c̄1 eπny + c̄2 e−πny . (4.13)

Imponemos ahora la condición de borde en la frontera inferior del dominio, es decir,


Ψ(x, 0) = 0, lo que se traduce en Yn (0) = 0. Esto sólo puede ser satisfecho si c̄1 + c̄2 = 0, por
lo que la solución se reduce a

Yn (y) = c̄1 eπny − e−πny = 2c̄1 senh(πny).



(4.14)

Con esto, la solución adopta la forma



X
Ψ(x, y) = dn sen (nπx) senh(πny), (4.15)
n=0

donde los coeficientes son arbitrarios. Es instructivo verificar que esta expresión es solución de la
EDP (4.1), y de las condiciones de borde homogéneas del problema. El valor de los coeficientes
dn queda determinado por la condición de borde no-homogénea restante (borde superior).
Imponemos por tanto que

!
X
Ψ(x, 2) = dn sen (nπx) senh(2πn) = f (x), (4.16)
n=0

con f (x) = x(1 − x). Esto significa que los coeficientes dn senh(2πn) son los coeficientes de
la expansión de Fourier (seno) de la función f (x) en el intervalo [0, 1]. Usando las relaciones
de ortogonalidad de las funciones senh(πnx),
Z 1
1
sen(πnx) sen(πmx) dx = δnm , (4.17)
0 2
encontramos Z 1
dn senh(2πn) = 2 f (x) sen(πnx) dx, (4.18)
0
y por lo tanto Z 1
2
dn = f (x) sen(πnx) dx. (4.19)
senh(2πn) 0

22
En el ejemplo particular en que f (x) = x(1 − x), luego de calcular la integral correspon-
diente, encontramos que
(
8 1
π 3 n3 senh(2πn)
, para n impar
dn = (4.20)
0, para n par

Con todo esto, y denotanto n = 2k − 1, con k = 1, 2, 3, · · · , encontramos que nuestra


solución es dada por la siguiente serie:

8 X sin[(2k − 1)πx] sinh[(2k − 1)πy]
ψ(x, y) = . (4.21)
π3 (2k − 1)3 sinh[2π(2k − 1)]
k=1

0.25 0.225
0.20 0.200
0.175
0.15

ψ(x, y)
0.150
0.10 0.125
0.100
0.05
0.075
0.00 0.050
2.0 0.025
1.5
0.0 1.0
0.2 y
0.4 0.5
x 0.6 0.8
1.0 0.0

Figura 4.1: La solución a nuestro problema, en 3D y colores. Código Python aquı́.

4.2.1. Ejemplo: Ecuación de la onda unidimensional


Usaremos ahora el MSV para encontrar una solución del siguiente problema:
∂2ψ 1 ∂2ψ
− = 0, (4.22)
∂x2 v 2 ∂t2
en el dominio x ∈ [0, L], t ≥ 0, con las condiones de borde (homogéneas)

ψ(0, t) = 0, ψ(L, t) = 0, (4.23)

y las siguientes condiciones iniciales


∂ψ
ψ(x, 0) = ψ0 (x), (x, 0) = v0 (x), (4.24)
∂t
suponiendo que ψ0 (x) y v0 (x) son dadas, pero arbitrarias de la variable x.
Buscamos entoces una solución separable, ψsep (x, t) = X(x)T (t). Reemplazando en la
EDP (4.22) y dividiendo por ψsep encontramos:
1 d2 X 1 1 d2 T
= . (4.25)
X dx2 v 2 T dt2
23
Como el primer miembro de la ecuación (4.25) depende de x y el segundo miembro de t,
ambos deben necesariamente ser constantes con respecto a ambas variables, vale decir

1 d2 X 1 1 d2 T
= λ, = λ, (4.26)
X dx2 v 2 T dt2
donde la constante de separación λ puede asumir valores reales. Luego, podemos escribir la
siguiente EDO para X(x) como

d2 X
= λX, (4.27)
dx2
cuya solución es de la forma
 √ √
A cos(x −λ) + B sin(x −λ),
 si λ < 0
X(x) = A0 x + B 0 , si λ = 0 . (4.28)
 00 x√λ
 √
A e + B 00 e−x λ , si λ > 0

Las condiciones de borde homogéneas pueden trasladarse a las funciones X(x), que entonces
deben satisfacer que X(0) = 0 y X(L) = 0. Tal como en el ejemplo anterior, no es difı́cil
verificar que estas conficiones pueden ser satisfechas sólo si λ < 0, A = 0, y además
√ nπ
−λ = , n = 1, 2, . . . . (4.29)
L
Por lo tanto, los valores permitidos para la constante de separación, también llamados
“autovalores”, son
n2 π 2
λn = − , n = 1, 2, . . . . (4.30)
L2
Mientrás que las “autofunciones” correspondientes están dadas por
 nπx 
Xn (x) = Bn sin , n = 1, 2, . . . . (4.31)
L
Dada la restricción (4.30), la EDO para la Tn (t) adopta la forma

d2 Tn n2 π 2 v 2
= − Tn , (4.32)
dt2 L2
cuya solución general está dada por
   
nπvt nπvt
Tn (t) = Cn cos + Dn sin , (4.33)
L L
con Cn y Dn constantes arbitrarias. De esta forma, hemos encontrado soluciones separables de
la forma
    
sep nπvt nπvt  nπx 
ψn (x, t) = Cn cos + Dn sin Bn sin . (4.34)
L L L
Redefiniendo el valor de las constantes como an := Cn Bn y bn := Dn Bn se encuentra que
h  nπv   nπv i  nπx 
ψn (x, t) = an cos t + bn sin t sin , n = 1, 2, . . . . (4.35)
L L L
Es directo verificar que cada una de estas soluciones satisface las condiciones de contorno
homogéneas (4.23). Sin embargo, ninguna de ellas, por separado satisface las condiciones
24
iniciales (4.24). Podemos encontrar la solución al problema usando el hecho que la (4.22) es
lineal y homogénea. Debido a esto, una superposición de soluciones ψn (x, t), con distintos
n, será también solución de la EDP. Además, esta superposición satisface las condiciones de
borde (para cualquier valor de los coeficientes que determinan la combinación lineal), ya que
son condiciones de borde homogéneas.
Consideremos por tanto, una superposición general de todas las soluciones separables
ψn (x, t) disponibles

X
ψ(x, t) = ψnsep (x, t) (4.36)
n=1
X∞ h  nπv   nπv i  nπx 
= An cos t + Bn sin t sin . (4.37)
L L L
n=1

Finalmente, los coeficientes pueden ser calculados al imponer las condiciones iniciales:

X  nπx 
ψ0 (x) = ψ(x, 0) = an sin , (4.38)
L
n=1
∞ 
∂ψ X nπv   nπx 
v0 (x) = (x, 0) = bn sin . (4.39)
∂t L L
n=1

De esta forma, multiplicando las ecuaciones precedentes por sin(nπx/L) y empleando la


relación de ortogonalidad en (1.2), se encuentra que An y Bn son dadas por
Z L   Z L  
2 kπx 2 kπx
An = ψ0 (x) sin dx, Bn = v0 (x) sin dx. (4.40)
L 0 L nπv 0 L

Puede encontrar la discusión de un ejemplo en este notebook.

4.3. Coordenadas polares


Considere la ecuación de Laplace bidimensional, en coordenadas polares (r, ϕ)
Las soluciones separables de la ecuación son de la forma

Ψsep (r, ϕ) = R(r)Φ(ϕ), 0 < r < ∞, 0 < ϕ < 2π, (4.41)

La condición de periodidad Ψ(r, ϕ) = Ψ(r, ϕ + 2π) y restringe los valores de la constante


de saparación.


X
(An cos(nϕ) + Bn sin(nϕ)) Cn r−n + Dn rn ,

Ψ(r, ϕ) = c0 + c1 ln(r) + (4.42)
n=1

donde c0 , c1 , An , Bn , Cn y Dn son constantes.

Ψ(r = R, ϕ) = f (ϕ), (4.43)

25
4.4. Coordenadas Cilı́ndricas

4.5. Coordenadas Esféricas


La ecuación de Helmholtz (modificada),

∇2 Ψ + αΨ = 0, (4.44)

adopta, en coordenadas esféricas, la forma:

∂2Ψ
   
1 ∂ 2 ∂Ψ 1 ∂ ∂Ψ 1
r + sen θ + + αΨ = 0. (4.45)
r2 ∂r ∂r r2 sen θ ∂θ ∂θ r2 sen2 θ ∂ϕ2

Buscaremos soluciones separables de la forma

Ψsep (r, θ, ϕ) = R(r)Θ(θ)Φ(ϕ). (4.46)

Introduciendo (4.46) en (4.45), multiplicando por r2 sen2 θ y dividiendo por Ψsep , se obtiene

1 d2 Φ
     
1 d dR 1 d dΘ
sen2 θ r2 + sen θ + αr2 + = 0. (4.47)
R dr dr Θ sen θ dθ dθ Φ dϕ2

De esta forma, podemos realizar la primera separación, ya que necesariamente

1 d2 Φ
= const. = −m2 . (4.48)
Φ dϕ2

Las soluciones univaluadas, e.d. que satisfacen la condición de borde perı́odica Φ(ϕ + 2π) =
Φ(ϕ), son
Φ(ϕ) = e±imϕ , m = 0, ±1, ±2, · · · . (4.49)
Con esto, (4.47) se reduce a
     
2 1 d 2 dR 1 d dΘ
sen θ r + sen θ + αr − m2 = 0
2
(4.50)
R dr dr Θ sen θ dθ dθ

que, al dividir por sen2 θ implica que

m2
   
1 d 2 dR 2 1 d dΘ
r + αr + sen θ − = 0. (4.51)
R dr dr Θ sen θ dθ dθ sen2 θ

Esta ecuación está nuevamente separada, ya que los primeros dos términos dependen sólo de r
mientras que los últimos dos sólo de θ. Por lo tanto, podemos introducir una segunda constante
de separación, Q, tal que las EDO’s separadas se escriben como:
 
d 2 dR
+ αr2 − Q R = 0,

r (4.52)
dr dr
m2
   
1 d dΘ
sen θ + Q− Θ = 0. (4.53)
sen θ dθ dθ sen2 θ

26
Caso α = 0, ecuación de Laplace
La ecuación (4.52) es una ecuación tipo Euler y puede ser resuelta con la substitución
r := et , y = U (r) = U (et ), o bien con el Ansatz

U (r) = rl , l = const. (4.54)

Reemplazando esta solución en la ecuación encontramos la condición l(l − 1) = Q. La solución


general de la ecuación para U (r) es entonces

R(r) = A · rl1 + B · rl2 , (4.55)

donde A y B son constantes arbitrarias y l1 y l2 son las soluciones de la ecuación cuadrática


l2 − l − Q = 0.

Caso de simetrı́a axial


Si por alguna razón justificada (usualmente, de simetrı́a de la situación fı́sica) se busca una
solución axialmente simétrica, es decir, independiente de la variable ϕ, entonces Ψ = Ψ(r, θ).
Desde el punto de vista de la formulación del problema más general (sin simetrı́a) este caso
particular requiere que m = 0, ya que en ese caso las soluciones angulares Φ(ϕ) son constantes
y por tanto la solución no dependerá de ϕ. En este caso, la ecuación se reduce a
 
1 d dΘ
sen θ + QΘ = 0 (4.56)
sen θ dθ dθ

que, como veremos a continuación, es equivalente a la EDO de Legendre.

27
Capı́tulo 5

Funciones de Legendre, Asociadas


de Legendre y Armónicos Esféricos

5.1. E.D.O. Asociada de Legendre


Substituyendo x := cos θ tendremos que la ecuación diferencial (4.53) para Θ(θ) se trans-
forma en
m2
   
d 2 dy
(1 − x ) + Q− · y(x) = 0, x ∈ [−1, 1], (5.1)
dx dx 1 − x2
de modo que, dada una solución y(x), la solución de (4.53) es dada por Θ(θ) = y(cos θ).

5.1.1. E.D.O de Legendre


En el caso m = 0, la ecuación (5.1) es llamada ecuación diferencial de Legendre:
 
d 2 dy

1−x + Qy = 0, x ∈ [−1, 1]. (5.2)
dx dx
En la sección 5.1.5 estudiaremos la solución general de esta ecuación, para valores arbitrarios
de la constante Q. Ahı́ verificaremos que
Teorema: La ecuación (5.2) sólo posee soluciones finitas en los puntos extremos
(x = ±1) si y sólo si

Q = n(n + 1), n = 0, 1, 2, · · · , (5.3)

es decir, sólo si Q = 0, 2, 6, 12, 20, 30, . . . . En este caso las soluciones finitas son
los Polinomios de Legendre de orden n.

5.1.2. Polinomios de Legendre y función generadora


Antes de abordar el problema más general, introduciremos los polinomios de Legendre por
medio de su función generadora. Para esto, consideramos el siguiente argumento:
La función (en coordenadas esféricas (r, θ, ϕ))
1
Ψ(r, θ) = √ (5.4)
r2 + a2 − 2ar cos θ
es una solución axialmente simétrica (e.d. independiente de ϕ) de la ecuación de Laplace. Esto
puede verificarse fácilmente a partir del potencial electrostático que genera una carga puntual
28
de magnitud q ubicada sobre el eje z, a una distancia a del origen, que es determinado por la
ley de Coulomb. Este potencial es precisamente φ = (q/4πε0 )Ψ(r, θ).
Expandiendo (5.4) en potencias de t := a/r, para r > a, obtenemos
1
Ψ(r, θ) = √ (5.5)
r2 + a2 − 2ar cos θ
1 1
= √ (5.6)
r 1 + t2 − 2xt

1X
= Pn (x)tn (5.7)
r
n=0

1 X
= Pn (x)tn+1 , (5.8)
a
n=0

donde hemos introducido nuevamente x := cos θ. De esta forma, tenemos una solución finita
para todo t < 1 que consiste en una superposición de soluciones separables Pn (x) y tn+1 .
Comparando esta solución con (4.55) vemos que (5.8) corresponde al caso particular en que
Q = n(n + 1). Por lo tanto, esperamos que las funciones Pn (x) satisfagan la ecuación (5.2)
en este caso.
Con esta motivación, podemos definir las funciones de Legendre de orden n, Pn (x), como
los coeficientes de la expansión en serie de Taylor de la “función generadora” g(t, x) := (1 −
2xt + t2 )−1/2 , tal que

1 X
g(t, x) := √ = Pn (x)tn . (5.9)
1 − 2xt + t2 n=0

Equivalentemente, tenemos entonces que

∂ n g(t, x)
 
1
Pn (x) = . (5.10)
n! ∂tn t=0

Expresiones explı́citas
Los primeros cuatro polinomios son

P0 (x) = 1, P1 (x) = x,
1 1
P2 (x) = (3x2 − 1), P3 (x) = (5x3 − 3x),
2 2
35x4 15x2 3 63x5 35x3 15x
P4 (x) = − + , P5 (x) = − + .
8 4 8 8 4 8

Serie de potencias
Podemos encontrar una primera expresión para las funciones Pn (x) en términos de una
serie de potencias. Para esto, podemos expandir la función generadora en una serie, usando

X (2n)! n
(1 − x)−1/2 = x , (5.11)
2 (n!)2
2n
n=0

29
con la identificación x → 2xt − t2 , de modo que

X (2n)!
g(t, x) = (2xt − t2 )n (5.12)
2 (n!)2
2n
n=0

X (2n)! n
= t (2x − t)n (5.13)
22n (n!)2
n=0
. (5.14)

Empleamos ahora la expansión binomial,


n
X n!
(a + b)n = an−k bk , (5.15)
k!(n − k)!
k=0

con a = 2x y b = −t. Entonces, podemos escribir


∞ n
X (2n)! n X n!
g(t, x) = t (2x)n−k (−t)k (5.16)
22n (n!)2 k!(n − k)!
n=0 k=0
∞ Xn
X (−1)k (2n)!
= xn−k tn+k . (5.17)
2n+k n!k!(n − k)!
n=0 k=0

Podemos expresar esta suma doble cambiando de variable de suma desde (n, k) hasta (n̄, k),
con n̄ := n + k. Esto implica reemplazar n en la expresión anterior por n̄ − k y el rango de
variación de estas variables. Si n̄ = 0, 1, 2, . . . , entonces k = 0, 1, · · · , [n̄/2], ya que en la suma
original n − k = n̄ − 2k > 0. Por lo tanto
∞ [n̄/2]
X X (−1)k (2n̄ − 2k)!
g(t, x) = xn̄−2k tn̄ , (5.18)
2n̄ k!(n̄ − k)!(n̄ − 2k)!
n̄=0 k=0

y por lo tanto
[n/2]
X (−1)k (2n − 2k)!
Pn (x) = xn−2k . (5.19)
2n k!(n − k)!(n − 2k)!
k=0

Propiedades
Los polinomios de Legendre satisfacen las siguientes propiedades:

Normalización
Pn (1) = 1. (5.20)
En otras palabras, los Pn son normalizados de modo que para x = 1 ellos asumen siempre
el valor 1.

Simetrı́a
Pn (−x) = (−1)n Pn (x). (5.21)
Los polinomios Pn son funciones simétricas si n es par y antisimétricas si n es impar

Valor en el origen:
(
0 si n par
Pn (0) = (−1)m (2m)! . (5.22)
22m (m!)2
si n = 2m (par)
30
Completitud: Los polinomios de Legendre Pn forman un conjunto completo de funciones
definidas en [−1, 1].

1.0

0.5
Pn (x)

0.0

0.5 n =0
n =1
n =2
n =3
1.0 n =4
1.0 0.5 0.0 0.5 1.0
x

Figura 5.1: Primeros cinco polinomios de Legendre. Código Python disponible aquı́.

10

5
Pn0 (x)

5 n =0
n =1
n =2
n =3
n =4
10
1.0 0.5 0.0 0.5 1.0
x

Figura 5.2: Derivada de los primeros cinco polinomios de Legendre. Código Python dispo-
nible aquı́.

31
Fórmula de Rodrigues

1 dn 2
Pn (x) = (x − 1)n (5.23)
2n n! dxn

Relaciones de recurrencia

nPn−1 (x) + (n + 1)Pn+1 (x) = (2n + 1) x Pn (x), (5.24)


0 0
(2n + 1)Pn (x) = Pn+1 (x) − Pn−1 (x). (5.25)

5.1.3. Relación de ortogonalidad

d  d 
(1 − x2 )Pn0 + n(n + 1)Pn = 0, 0
(1 − x2 )Pm
 
+ m(m + 1)Pm = 0. (5.26)
dx dx

Z 1
[n(n + 1) − m(m + 1)] Pn (x)Pm (x) dx = 0 (5.27)
−1
Z 1
Pn (x)Pm (x) dx = 0, n 6= m. (5.28)
−1

Z 1
2
Pn (x)Pm (x) dx = δmn . (5.29)
−1 2n + 1
Como los polinomios de Legendre son ortogonales, se sigue que son linealmente independientes
(l.i.), ya que
X∞
an Pn (x) = 0, (5.30)
n=0

sı́ y sólo si an = 0.

5.1.4. Series de Legendre


Es posible expandir una función f (x), definida en el intervalo x ∈ [−1, 1] y continua por
tramos, en una serie de Legendre, es decir, en una suma de polinomios de Legendre, de la
forma
X∞
f (x) = an Pn (x), (5.31)
n=0

en el sentido que la serie coverge en media a la función f (x) para todo x en [−1, 1].
Podemos encontrar una expresión para los coeficientes usando la relación de ortogonalidad
(5.29):
2n + 1 1
Z
an = f (x)Pn (x) dx. (5.32)
2 −1

32
Expansión de Legendre de la Delta de Dirac
En el caso en que f (x) = δ(x − a) tendremos que

2n + 1 1
Z
an = δ(x − a)Pn (x) dx (5.33)
2 −1
2n + 1
= Pn (a), (5.34)
2
y entonces

X 2n + 1
δ(x − a) = Pn (a)Pn (x). (5.35)
2
n=0

En particular, usando (5.22) encontramos



X (−1)m (4m + 1)(2m)!
δ(x) = P2m (x). (5.36)
22m+1 (m!)2
m=0

40

30

20
S50(x)

10

10
1.0 0.5 0.0 0.5 1.0
x

Figura 5.3: Serie (truncada a orden 50) de la serie de Legendre de δ(x).

5.1.5. Solución en serie de Potencias (Método de Frobenius)


Primero escribimos la E.D.O. de Legendre (5.2) en su forma estandar:

1 − x2 y 00 − 2xy 0 + Qy = 0,

(5.37)

o bien
2x 0 Q
y 00 − 2
y + y = 0. (5.38)
1−x 1 − x2

33
Como los coeficientes de y 0 y y son funciones analı́ticas en la vencindad de x = 0, podemos
encontrar una solución en serie de Taylor en torno a ese punto:

X
y= ak xk ,
k=0

X
y0 = kak xk−1 ,
k=0

X
y 00 = (k − 1)kak xk−2
k=2
X∞
= (k + 1)(k + 2)ak+2 xk .
k=0

Sustituyendo estas series en (5.37) obtenemos



X ∞
X ∞
X ∞
X
k k k
(k + 1)(k + 2)ak+2 x − (k − 1)kak x − 2 kak x + Q ak xk = 0, (5.39)
k=0 k=0 k=0 k=0

X
[(k + 1)(k + 2)ak+2 − ((k − 1)k + 2k − Q) ak ] xk = 0. (5.40)
k=0
Igualando los coeficientes de cada término xk obtenemos las relaciones de recurrencia
k(k + 1) − Q
ak+2 = ak , k = 0, 1, 2, · · · . (5.41)
(k + 1)(k + 2)
A partir de ellas, podemos encontrar todos los coeficientes ak , con k ≥ 2 a partir de a0 y a1 :

k−2
 a0 Y
(l(l + 1) − Q) , k par,




 k!
 l=0

l par
ak = k−2 (5.42)
 a 1
Y
(l(l + 1) − Q) , k impar.



 k! l=1



l impar

Por lo tanto, la solución general será una combinación lineal de la forma


y(x) = a0 y1 (x) + a1 y2 (x), (5.43)
donde y1 (x) es una función par en x e y2 (x) es una función impar en x, dadas por
 
∞ ∞
X  1 2m−2Y  2m X
y1 (x) = 
 (2m)! (l(l + 1) − Q) x =:
 bm x2m , (5.44)
m=0 l=0 m=0
l par
 
∞ 2m−1 ∞
X 1 Y  2m+1 X
cm x2m+1 .

y2 (x) = 
 (2m + 1)! (l(l + 1) − Q) x
 =: (5.45)
m=0 l=1 m=0
l impar

En general, tanto y1 (x) como y2 (x) serán series infinitas, ya que los correspondientes
coeficientes de cada xk , dados por un producto de factores, serán no nulos excepto si existe
un valor de l tal que l(l + 1) − Q = 0. Esto sólo ocurrirá si la constante Q es de la forma
Q = n(n + 1), con algún valor de n = 0, 1, 2, · · · . Si este es el caso, entonces una de las series
se truncará, reduciéndose a un polinomio.
34
Convergencia
Analicemos primero el caso genérico en que Q 6= n(n+1). Como dijimos, las dos soluciones
l.i. y1 (x) e y2 (x) serán series infinitas, debiendo por tanto analizar su convergencia.
1
P∞Consideramos primero el test de D’ Alambert . Para el caso de y1 (x) tenemos que y1 (x) =
m=0 um , con
2m−2
x2m Y
um = (l(l + 1) − Q) = a2m x2m , (5.46)
(2m)!
l=0
l par

y entonces
bm+1 x2m+2

um+1 a2m+2 2
lı́m = lı́m = lı́m x (5.47)
m→∞ um m→∞ bm x2m m→∞ a2m

(2m(2m + 1) − Q) 2
= lı́m
x = x2 . (5.48)
m→∞ (2m + 1)(2m + 2)

Por lo tanto, podemos afirmar que y1 (x) es convergente para |x| < 1. Para analizar la
convergencia cuando x = ±1 podemos usar el test de Gauss2 . En nuestro caso (um > 0 para
m suficientemente grande) y
  
um (2m + 1)(2m + 2) 1 Q 1 1
= = 1+ + 2+ + O( 2 ) . (5.49)
um+1 (2m(2m + 1) − Q) m 8m2 m m

Por lo tanto, h = 1 y entonces y1 (x) es una serie divergente en x = ±1.


Análogamente, puede verificarse que las mismas conclusiones son válidas para y2 (x). En
resumen,

si Q 6= n(n+1) las soluciones de la ec. de Legendre son divergentes en los extremos


del intervalo considerado, e.d. en x = ±1.

Caso Q = n(n + 1)
Analicemos ahora con más detalle el caso en que Q = n(n + 1), puesto que aquı́ obten-
dremos series truncadas (es decir, polinomios) que naturalmente son funciones finitas en todo
el intervalo considerado, incluyendo los extremos. De (5.41) vemos que an+2 = 0, y por consi-
guiente todos los coeficientes de orden superior de la forma an+2p serán nulos, con p = 1, 2, · · · .
Por lo tanto, si n es par entonces será la serie y1 (x) la que se truncará, mientras que y2 (x)
continuará siendo una serie infinita. Por otro lado, si n es impar y1 (x) tendrá infinitos términos,
mientras que y2 (x) se reduce a un polinomio. El orden del correspondiente polinomio truncado
es n en ambos casos (an es el último término no nulo). Esperamos por lo tanto que estos
polinomios sean proporcionales a los polinomios de Legendre de orden n. A partir de (5.44) e
(5.45), y usando l(l + 1) − n(n + 1) = (l − n)(l + n + 1) encontramos que
n/2 2m−2
X
2m 1 Y
y1,n (x) = bm x , bm = (l − n)(l + n + 1), n par, (5.50)
(2m)!
m=0 l=0
l par

1
También llamado “Cauchy ratio test”: Si lı́mn→∞ |un+1 /un | < 1 entonces ∞
P
n=0 un es una serie con-
vergente. Si lı́mn→∞ |un+1 /un | > 1 la serie es divergente. Si lı́mn→∞ |un+1 /un | = 1 el test de Cauchy no
suministra información. Ver, por ejemplo, [2], sección 5.2.
2 2
Si un > 0 ∀n y un /un+1 = 1 +
Ph/n + B(n)/n donde h es una constante y B(n) una función acotada de
n para n → ∞ entonces la serie n un converge si h > 1 y diverge si h ≤ 1. Ver, por ejemplo, [2], sección
5.2.
35
(n−1)/2 2m−1
X 1 Y
y2,n (x) = cm x2m+1 , cm = (l−n)(l+n+1), n impar. (5.51)
(2m + 1)!
m=0 l=1
l impar
Luego de algo de álgebra, podemos verificar que
(−1)m (n + 2m)![(n/2)!]2
bm = , (5.52)
(2m)! n!(n/2 − m)!(n/2 + m)!
y con ello, podemos escribir la solución y1,n como
n/2
[(n/2)!]2 X (−1)m (n + 2m)!
y1,n (x) = x2m . (5.53)
n! (2m)! (n/2 − m)!(n/2 + m)!
m=0

Finalmente, cambiando ı́ndice de suma desde m hasta k := n/2−m, de modo que 2m = n−2k,
podemos escribir
n/2
[(n/2)!]2 X (−1)n/2−k (2n − 2k)! n−2k
y1,n (x) = x (5.54)
n! (n − 2k)! k!(n − k)!
k=0
n/2
2 X
n/2 [(n/2)!] (−1)k (2n − 2k)! n−2k
= (−1) x (5.55)
n! (n − 2k)! k!(n − k)!
k=0
[(n/2)!]2 n
= (−1)n/2 2 Pn (x), n = 0, 2, 4, · · · . (5.56)
n!
En el último paso hemos identificado la serie de potencias (5.19) de los polonomios de Legendre.
Análogamente, para n impar podemos expresar los coeficientes cm como
(n + 2m)![ n−1
 2
(−1)m 2 !]
cm = n−2m−1
 n+2m−1  , (5.57)
(2m + 1)! n! 2 ! 2 !
de modo que
(n−1)/2 n−1
!]2

X (−1)m (n + 2m)![
y2,n (x) = 2
n+2m−1 x
 2m+1 (5.58)
(2m + 1)! n! n−2m−1

m=0 2 ! 2 !
n−1 (n−1)/2
!]2

[ X (−1)m (n + 2m)!
= 2
n−2m−1
 n+2m−1  x2m+1 (5.59)
n! (2m + 1)! 2 ! 2 !
m=0
Cambiamos ahora ı́ndice de suma, definiendo k tal que 2m + 1 = n − 2k, y encontramos
(n−1)/2
[n/2]!2 X (−1) n−2k−1
2 (2n − 2k − 1)! n−2k
y2,n (x) = x (5.60)
n! (n − 2k)! k!(n − k − 1)!
k=0
[n/2]
[n/2]!2 (n−1)/2
X (−1)k (2n − 2k)! 1 (n − k)
= (−1) xn−2k (5.61)
n! (n − 2k)! (2n − 2k) k! (n − k)!
k=0
[n/2]
[n/2]!2 (−1)[n/2] X (−1)k (2n − 2k)! n−2k
= x (5.62)
n! 2 (n − 2k)! k!(n − k)!
k=0
[n/2]!2
= (−1)[n/2] 2n−1 Pn (x), n = 1, 3, 5, · · · . (5.63)
n!
En resumen, usando una notación algo más compacta, podemos escribir:
(
[n/2] −2[n/2] n! y1,n (x), n par
Pn (x) := (−1) 2 2
× (5.64)
[n/2]! y2,n (x), n impar.
36
5.1.6. Funciones de Legendre de segunda especie
Como hemos visto, en el caso en que Q = n(n + 1) una de las series (y1 si n es par, y2 si n
es impar) se trunca, reduciéndose (salvo factores constantes) a los polinomios de Legendre. Por
lo tanto, para cada n, existe una segunda solución de la ec. de Legendre, que quedaa expresada
como serie infinita, que convergen para x ∈ (−1, 1) pero diverge en x = ±1. Estas funciones
son llamadas las funciones de Legendre de segunda especie, Qn (x), que por conveniencia
definiremos usando factores análogos a aquellos encontrados en (5.56) y (5.56):

(−1)n/2 [(n/2)!]2 2n y2,n (x), n par
n!
Qn (x) := n−1 2 (5.65)
(−1)(n+1)/2 [( 2 )!] 2n−1 y (x), n impar.
n! 1,n

Relaciones de Recurrencia
A partir de las definiciones (5.65) es posible verificar la siguiente importante propiedad:
Las funciones de Legendre de segunda especie satisfacen las mismas relaciones de
recurrencia que los polinomios de Legendre.
Como consecuencia, todas las relaciones de recurrencia que derivamos para los polinomios
de Legendre son válidas para las correspondientes funciones de segunda especie. Podemos
verificar nuevamente a partir de estas identidades que cada Qn (x) satisface la E.D.O. de
Legendre.
En particular, se demostrarán las siguientes relaciones (a partir de las cuales pueden derivarse
todas las otras):
nQn−1 (x) + (n + 1)Qn+1 (x) = (2n + 1) x Qn (x), (5.66)
(2n + 1)Qn (x) = Q0n+1 (x) − Q0n−1 (x). (5.67)
En este caso, las soluciones adoptan la forma (ver (5.44) y (5.44), comparar con (5.50) y
(5.51)):
+∞ 2m−2
X
2m 1 Y
y1,n (x) = bm x , bm = (l − n)(l + n + 1), b0 = 1, (5.68)
(2m)!
m=0 l=0
l par

+∞ 2m−1
X 1 Y
y2,n (x) = cm x2m+1 , cm = (l − n)(l + n + 1), c0 = 1. (5.69)
(2m + 1)!
m=0 l=1
l impar

A partir de las definiciones en (5.65), podemos escribir:


 n−2 2
(−1) n2 [( 2 )!] 2n−2 y1,n−1 (x), n par
(n−1)!
Qn−1 (x) := n−1 2 (5.70)
(−1) n−1 [( 2 )!] n−1
(n−1)! 2 y2,n−1 (x), n impar,
2

[( n )!]2 n

(−1) n+2
(n+1)! 2 y1,n+1 (x), n par
2 2

Qn+1 (x) := n+1 2 (5.71)


(−1) n+1 [( 2 )!] n+1
(n+1)! 2 y2,n+1 (x), n impar.
2

Por lo tanto,
nQn−1 (x) + (n + 1)Qn+1 (x)
 n 2
(−1) n2 [( 2 )!] 2n [y1,n−1 (x) − y1,n+1 ] , n par
(n)!
= 2 (5.72)
(−1) n+1 [( n−1
2 )]
!
2n−1 −n2 y2,n−1 (x) + (n + 1)2 y2,n+1 ,
 
2
(n)! n impar.
37
Para evaluar el lado derecho de (5.72) usamos las expresiones en serie (5.68) y (5.69). Para
y1,n (x) tenemos que
+∞ 2m−2
X 1 Y
y1,n−1 (x) = (l − n + 1)(l + n) x2m , (5.73)
(2m)!
m=0 l=0
l par
+∞ 2m−2
X 1 Y
y1,n+1 (x) = (l − n − 1)(l + n + 2) x2m . (5.74)
(2m)!
m=0 l=0
l par

Reescribimos ahora ambas expresiones como


+∞ 2m−1
X 1 Y
y1,n−1 (x) = (l − n)(l + n − 1) x2m , (5.75)
(2m)!
m=0 l=1
l impar

+∞ 2m−1
X 1 Y
y1,n+1 (x) = (l − n − 2)(l + n + 1) x2m . (5.76)
(2m)!
m=0 l=1
l impar

Luego, ya que
2m−1
Y 2m−1
Y 2m−3
Y
(l + n − 1) = n (l + n − 1) = n (l + n + 1), (5.77)
l=1 l=3 l=1
l impar l impar l impar
2m−1
Y 2m−1
Y 2m−3
Y
(l − n − 2) = −(n + 1) (k − n − 2) = −(n + 1) (l − n), (5.78)
l=1 l=3 l=1
l impar l impar l impar

tenemos que (5.75) y (5.76) son equivalentes a:


+∞ 2m−3
X 1 Y
y1,n−1 (x) = n (l + n + 1)(l − n)(2m − 1 − n) x2m , (5.79)
(2m)!
m=0 l=1
l impar

+∞ 2m−1
X 1 Y
y1,n+1 (x) = −(n + 1) (l − n)(l + n + 1)(2l + n) x2m . (5.80)
(2m)!
m=0 l=1
l impar

Entonces,
+∞ 2m−3
X 1 Y
y1,n−1 (x) − y1,n+1 (x) = (2n + 1) (l − n)(l + n + 1) x2m (5.81)
(2m − 1)!
m=1 l=1
l impar
+∞ 2m−1
X 1 Y
= (2n + 1) (l − n)(l + n + 1) x2m+2(5.82)
(2m + 1)!
m=0 l=1
l impar
= (2n + 1) x y2,n (x). (5.83)

38
Por otro lado, de la expresión en serie (5.69) para y2,n (x), y siguiendo el mismo recién
empleado, tenemos que
+∞ 2m−1
X 1 Y
y2,n+1 (x) = (l − n − 1)(l + n + 2)x2m+1 (5.84)
(2m + 1)!
m=0 l=1
l impar
+∞ 2m−2
X 1 Y
= (l − n)(l + n + 3)x2m+1 (5.85)
(2m + 1)!
m=0 l=1
l par
+∞ 2m−2
1 X (2m + n + 1) Y
= (l − n)(l + n + 1)x2m+1 . (5.86)
n+1 (2m + 1)!
m=0 l=0
l par

Similarmente,
+∞ 2m−1
X 1 Y
y2,n−1 (x) = (l − n + 1)(l + n)x2m+1 (5.87)
(2m + 1)!
m=0 l=1
l impar
+∞ 2m−2
X 1 Y
= (l − n + 2)(l + n + 1)x2m+1 (5.88)
(2m + 1)!
m=0 l=0
l par
+∞ 2m−2
1 X (2m − n) Y
= − (l − n)(l + n + 1)x2m+1 . (5.89)
n (2m + 1)!
m=0 l=0
l par

De este modo, usando (5.86) y (5.89), encontramos que


+∞ 2m−2
2 2
X 1 Y
(n + 1) y2,n+1 (x) − n y2,n+1 (x) = (2n + 1) (l − n)(l + n + 1)x2m+1
(5.90)
(2m)!
m=0 l=0
l par
= (2n + 1) x y1,n (x). (5.91)

Finalmente, reemplazamos (5.83) y (5.91) en (5.72), y obtenemos


 n 2
(−1) n2 [( 2 )!] 2n (2n + 1)xy2,n (x), n par
(n)!
nQn−1 (x) + (n − 1)Qn+1 (x) = n−1 2 (5.92)
(−1) n+1 [( 2 )!] n−1
2
(n)! 2 (2n + 1) x y 1,n (x), n impar
 n 2
(−1) n2 [( 2 )!] 2n y2,n (x), n par
(n)!
= (2n + 1) x n−1 2 (5.93)
(−1) n+1 [( 2 )!] n−1
2
(n)! 2 y 1,n (x), n impar
= (2n + 1) x Qn (x), (5.94)

demostrando ası́ la identidad (5.66).


Para demostrar la segunda relación de recurrencia, (5.66), calculamos:

Q0n+1 (x) − Q0n−1 (x) (5.95)


 n 2 h i
(−1) 2 [( 2 )!] 2n − 1 y1,n+1
n
0 (x) − 1 0
(n)! n+1 n 1,n−1 ,
y n par
= n−1 2 (5.96)
(−1) n+1 [( 2 )!] n−1  0 0

2
(n)! 2 (n + 1)y2,n+1 (x) + ny2,n−1 , n impar.
39
Usamos nuevamente las expresiones en serie de las funciones y1,n (x), y entonces
+∞ 2m−2
0
X 1 Y
y1,n+1 (x) = (l − n − 1)(l + n + 2) x2m−1 (5.97)
(2m − 1)!
m=1 l=0
l par
+∞ 2m
X 1 Y
= (l − n − 1)(l + n + 2) x2m+1 (5.98)
(2m + 1)!
m=0 l=0
l par
+∞ 2m−1
X 2m + n + 2 Y
= −(n + 1) (l − n)(l + n + 1) x2m+1 . (5.99)
(2m + 1)!
m=0 l=1
l impar

Análogamente,
+∞ 2m−2
0
X 1 Y
y1,n−1 (x) = (l − n + 1)(l + n) x2m−1 (5.100)
(2m − 1)!
m=1 l=0
l par
+∞ 2m
X 1 Y
= (l − n + 1)(l + n) x2m+1 (5.101)
(2m + 1)!
m=0 l=0
l par
+∞ 2m+1
X (2m − n + 1) Y
= n (l − n)(l + n + 1) x2m+1 . (5.102)
(2m − 1)!
m=0 l=1
l impar

A partir de (5.99) y (5.102) podemos escribir


+∞ 2m−1
1 0 1 0 X (2n + 1) Y
− y1,n+1 (x) − y1,n−1 = (l − n)(l + n + 1) x2m+1
(5.103)
(n + 1) n (2m + 1)!
m=0 l=1
l impar
= (2n + 1) y2,n (x). (5.104)

Por otro lado,


+∞ 2m−1
0
X 1 Y
y2,n+1 (x) = (l − n − 1)(l + n + 2) x2m (5.105)
(2m)!
m=0 l=1
l impar
+∞ 2m−2
1 X (2p + n + 1) Y
= (l − n)(l + n + 1) x2m , (5.106)
n+1 (2m)!
m=0 l=0
l par

y similarmente,
+∞ 2m−1
0
X 1 Y
y2,n−1 (x) = (l − n + 1)(l + n) x2m (5.107)
(2m)!
m=0 l=1
l impar
+∞ 2m−2
1 X (2p − n) Y
= − (l − n)(l + n + 1) x2m . (5.108)
n (2m)!
m=0 l=0
l par

40
Además, (5.106) y (5.108) implican que
+∞ 2m−2
0 0
X (2n + 1) Y
(n + 1)y2,n+1 (x) + ny2,n−1 (x) = (l − n)(l + n + 1) x2m (5.109)
(2m)!
m=0 l=0
l par
= (2n + 1) y1,n (x) (5.110)

Finalmente, reemplazando (5.104) y (5.110) en (5.96) llegamos a


 n 2
(−1) n2 [( 2 )!] 2n (2n + 1) y2,n (x), n par
(n)!
Q0n+1 (x) − Q0n−1 (x) = n−1 2 (5.111)
(−1) n+1 [( 2 )!] n−1
2
(n)! 2 (2n + 1) y 1,n (x), n impar
= (2n + 1)Qn (x), (5.112)

que es precisamente la segunda relación de recurrencia (5.66).

Expresiones explı́citas para Qn (x)


Afortunadamente, es posible encontrar expresiones para las funciones Qn (x) en términos
de funciones conocidas. Para esto, primero calculamos Q0 (x):
∞ 2m−1
X 1 Y
Q0 (x) = y2,0 (x) = l(l + 1) x2m+1 , (5.113)
(2m + 1)!
m=0 l=1
l impar

Pero,
2m−1
Y
l(l + 1) = 1 · 2 · 3 · 4 · · · (2m − 1)(2m) = (2m)!. (5.114)
l=1
l impar

Por lo tanto,
∞ ∞
X (2m)! X x2m+1
Q0 (x) = x2m+1 = . (5.115)
(2m + 1)! (2m + 1)
m=0 m=0
Esta serie es conocida, ya que vimos que

x2m+1
 
1+x X
ln =2 , (5.116)
1−x (2m + 1)
m=0

y con esto encontramos finalmente que


 
1 1+x
Q0 (x) = ln . (5.117)
2 1−x
Análogamente, para n = 1 tenemos que
∞ 2m−2
X 1 Y
Q1 (x) = −y1,1 (x) = (l − 1)(l + 2) x2m , (5.118)
(2m)!
m=0 l=0
l par

En este caso, el producto puede escribirse como


2m−2
Y (2m)!
(l − 1)(l + 2) = −1 · 2 · 1 · 4 · 3 · · · (2m − 5)(2m − 2)(2m − 3)(2m) = − . (5.119)
2m − 1
l=0
l par
41
Entonces,
∞ ∞
X x2m X x2m
Q1 (x) = = −1 + (5.120)
(2m − 1) (2m − 1)
m=0 m=1
∞ ∞
X x2n+2 X x2n+1
= −1 + = −1 + x . (5.121)
(2n + 1) (2n + 1)
n=0 n=0

Por lo tanto,
 
x 1+x
Q1 (x) = ln − 1. (5.122)
2 1−x
Conociendo Q0 (x) y Q1 (x) podemos encontrar expresiones para las funciones de Qn (x) de
orden superior usando las relaciones de recurrencia (5.66), ya que
1
Qn+1 (x) = [(2n + 1)xQn (x) − nQn−1 (x)] . (5.123)
(n + 1)
Por ejemplo,
1
Q2 (x) = [3xQ1 (x) − Q0 (x)] (5.124)
2    
1 3 2 1+x 1 1+x
= −3x + x ln − ln (5.125)
2 2 1−x 2 1−x
 
1 1+x 3
= − (1 − 3x2 ) ln − x. (5.126)
4 1−x 2
Análogamente, encontramos que
 
1 1+x 5 2
Q3 (x) = (5x3 − 3x) ln − x2 + . (5.127)
4 1−x 2 3

1
Qn (x)

1 n =0
n =1
n =2
n =3
2 n =4
1.0 0.5 0.0 0.5 1.0
x

Figura 5.4: Primeras cinco funciones de Legendre de segunda especie.


42
Propiedades de las funciones Qn (x)
Paridad:
Qn (−x) = (−1)n+1 Qn (x) (5.128)

Valor en el origen:

0, n par
Qn (0) = n−1 2 (5.129)
(−1)(n+1)/2 [( 2 )!] 2n−1 , n impar.
n!

Valor en extremo del intervalo:

lı́m Qn (x) = +∞. (5.130)


x→1

5.2. Funciones asociadas de Legendre


Podemos construir soluciones para la ecuación (5.1) a partir del siguiente teorema:

Si PQm (x) es una solución de (5.1) para un valor de Q y m datos, entonces

d h i
u(x) := (1 − x2 )(m+1)/2 (1 − x2 )−m/2 PQm (x) (5.131)
dx
es también solución de (5.1), pero con m + 1 en lugar de m.

Este resultado permite entonces generar nuevas soluciones, con distintos valores de m, a partir
de una solución conocida, y en particular a partir de Pn0 que definimos como los polinomios
de Legendre, Pn0 (x) := Pn (x). A partir de esto, podemos definir las funciones asociadas de
Legendre Pnm tales que

d h i
Pnm+1 (x) = (1 − x2 )(m+1)/2 (1 − x2 )−m/2 Pnm (x) (5.132)
dx
Iterando la relación (5.132) obtenemos, para m = 0, 1, 2, · · · ,

dm
Pnm (x) = (1 − x2 )m/2 Pn (x). (5.133)
dxm
Por otro lado, las funciones con m negativo pueden calcularse usando

(n − m)! m
Pn−m (x) = (−1)m P (x), m = 0, 1, 2, · · · . (5.134)
(n + m)! n

Ya que las funciones Pn (x) son polinomios de orden n, vemos que existen soluciones Pnm (x)
no nulas sólo si
m = 0, ±1, ±2, · · · , ±n ⇔ |m| ≤ n. (5.135)
Es decir, existen 2n + 1 valores permitidos de m para cada n = 0, 1, 2, · · · .

43
5.2.1. Expresiones explı́citas

P11 (x) = (1 − x2 )1/2 , (5.136)


P21 (x) = 3x(1 − x )2 1/2
, (5.137)
P22 (x) = 3(1 − x2 ), (5.138)
3
P31 (x) = (1 − x2 )1/2 (5x2 − 1), (5.139)
2
P32 (x) = 15(1 − x2 )x, (5.140)
P33 (x) = 15(1 − x )2 3/2
. (5.141)
(5.142)

1.0
P1−1 (x)
P10 (x)
P11 (x)
0.5
P1m (x)

0.0

0.5

1.0
1.0 0.5 0.0 0.5 1.0
x

Figura 5.5: Funciones Asociadas de Legendre: n = 1.

44
3.0
P2−2 (x)
2.5 P2−1 (x)
P20 (x)
2.0 P21 (x)
P22 (x)
1.5
1.0
P2m (x)

0.5
0.0
0.5
1.0
1.5
1.0 0.5 0.0 0.5 1.0
x

Figura 5.6: Funciones Asociadas de Legendre: n = 2.

10

0
P3m (x)

5 P3−3 (x)
P3−2 (x)
P3−1 (x)
P30 (x)
10 P31 (x)
P32 (x)
P33 (x)
15
1.0 0.5 0.0 0.5 1.0
x

Figura 5.7: Funciones Asociadas de Legendre: n = 3.

5.2.2. Fórmula de Rodrigues

1 m+n
2 m/2 d
Pnm (x) = (1 − x ) (x2 − 1)n . (5.143)
2n n! dxm+n

45
5.2.3. Función generadora


(2m)! (1 − x2 )m/2 X
= P m (x) tn (5.144)
2m m! (1 − 2tx + t2 )m+1/2 n=0 n+m

5.2.4. Relaciones de recurrencia

(2n + 1)xPnm = (n + m)Pn−1


m m
+ (n + m + 1)Pn+1 (5.145)

m+1 m+1
(2n + 1)(1 − x2 )1/2 Pnm = Pn+1 − Pn−1 (5.146)
m−1 m−1
= (n + m)(n + m − 1)Pn−1 − (n − m + 1)(n − m + 2)Pn+1
(5.147)

5.2.5. Paridad
A partir de (5.133) y la paridad de los polinomios Pn (x) encontramos que

Pnm (−x) = (−1)m+m Pnm (x). (5.148)

Además
(±1)n , m = 0

Pnm (±1) = . (5.149)
0, m=6 0

5.2.6. Ortogonalidad
Z 1
2 (n + m)!
Pnm (x)Pnm0 (x) dx = δn,n0 . (5.150)
−1 2n + 1 (n − m)!

5.3. Funciones Armónicas Esféricas


Volvemos ahora al problema original de encontrar las soluciones de la ecuación de Laplace.
Usando (4.46), (4.49) y el hecho que las funciones asociadas de Legendre son soluciones de
(5.1), podemos expresar la solución de (4.45) como

Ψ(r, θ, ϕ) ∝ R(r)Plm (cos θ)eimϕ . (5.151)

Es por esto muy útil y común definir las funciones armónicas esféricas Ylm (θ, ϕ) que, incorpo-
rando una normalización conveniente, son definidas por:
r s
2l + 1 (l − m)!
Ylm (θ, ϕ) := (−1)m · · P m (cos θ) · eimϕ . (5.152)
4π (l + m)! l

En la tabla 5.1 se presentan los casos más usados.


Como consecuencia de su definición, las funciones armónicas esféricas satisfacen las siguien-
tes útiles propiedades:

Simetrı́a:

Yl−m = (−1)m (Ylm )∗ . (5.153)


46
l m Ylm l m qYl
m

0 0 Y00 = √14π 2 2 Y22 = 14 2π15


sen2 θe2iϕ
q q
3 7 5
1 0 0
Y1 = 4π cos θ 3 0 Y30 = 4π ( cos3 θ − 32 cos θ)
q q 2
3
1 1 Y11 = − 8π sen θeiϕ 3 1 Y31 = − 14 4π
21
sen θ(5 cos2 θ − 1)eiϕ
q q
5 3
2 0 Y20 = 4π ( cos2 θ − 12 ) 3 2 Y32 = 12 105 sen2 θ cos θe2iϕ
q 2 2π
q
15
2 1 Y21 = − 8π sen θ cos θeiϕ 3 3 Y33 = − 14 4π35
sen3 θe3iϕ

Cuadro 5.1: Algunas funciones armónicas esféricas comúnmente usadas (l, m = 0, . . . , 3).

Ortonormalidad:
I Z 2π Z π
m m0 ∗ 0 ∗
Yl (θ, ϕ)·(Yl0 ) (θ, ϕ) dΩ = Ylm (θ, ϕ)·(Ylm
0 ) (θ, ϕ) sen θdθdϕ = δll0 δmm0 ,
0 0
(5.154)
donde dΩ = sen θdθdϕ es el elemento de ángulo sólido.

Como consecuencia de la ortogonalidad de las funciones Ylm , éstas son linealmente in-
dependientes.

Las funciones Ylm forman un sistema completo de funciones. Toda función f (θ, ϕ) que
satisface Z
|f (θ, ϕ)|2 dΩ < ∞, (5.155)

pueden ser desarrollada en términos de funciones armónicas esféricas:


∞ X
X l
f (θ, ϕ) = alm Ylm (θ, ϕ), (5.156)
l=0 m=−l

con coeficientes alm dados por


I
alm = f (θ, ϕ)(Ylm )∗ (θ, ϕ) dΩ. (5.157)

La completitud de Ylm se expresa por:


∞ X
X l
(Ylm )∗ (θ, ϕ)Ylm (θ0 , ϕ0 ) = δ(ϕ − ϕ0 )δ(cos θ − cos θ0 ). (5.158)
l=0 m=−l

Las funciones armónicas esféricas satisfacen

L̂2 (θ, ϕ)Ylm = l(l + 1)Ylm , (5.159)

donde L̂2 es el operador definido por


∂2
 
2 1 ∂ ∂ 1
−L̂ := sen θ + . (5.160)
sen θ ∂θ ∂θ sen2 θ ∂ϕ2

En otras palabras, las funciones Ylm son funciones propias del operador L̂2 , con valor
propio l(l + 1). En términos de L̂2 , podemos escribir el operador de Laplace como:
1 ∂2 1
∇2 = 2
(r·) − 2 L̂2 . (5.161)
r ∂r r
47
Figura 5.8: Representación gráfica de (la parte real de) algunas funciones armónicas esféri-
cas. Código Python aquı́.

Teorema de adición de armónicos esféricos

n
4π X
Pn (cos γ) = Y m (θ1 , ϕ1 )(Ynm )∗ (θ2 , ϕ2 ), (5.162)
2n + 1 m=−n n

donde γ es el el ángulo entre las direcciones definidas por los pares (θ1 , ϕ1 ) y (θ2 , ϕ2 ), por lo
que están relacionados por

cos γ = cos θ1 cos θ2 + sin θ1 sin θ2 cos(ϕ1 − ϕ1 ). (5.163)

Un caso particular interesante de esta identidad se encuentra cuando ambas direcciones son
iguales, de modo que θ1 = θ2 = θ y ϕ1 = ϕ2 = ϕ, de modo que γ = 0 y entonces
n
4π X
Pn (0) = |Y m (θ, ϕ)|2 . (5.164)
2n + 1 m=−n n

48
De aquı́ obtenos directamente que
n
X 2n + 1
|Ynm (θ, ϕ)|2 = , (5.165)
m=−n

lo que además permite encontrar la siguiente cota superior para el módulo de las funciones
armónicas esféricas: r
m 2n + 1
|Yn (θ, ϕ)| ≤ . (5.166)

El teorema de adición es muy útil en Fı́sica puesto que permite realizar expansiones de
funciones como |~x1 − ~x2 |−1 que aparece comúnmente en distintas expresiones
Si r2 < r1 , con r1 = |~x1 | y r2 = |~x2 | entonces
1 1 1 1
=p 2 = p , (5.167)
|~x1 − ~x2 | 2
r1 + r2 − 2r1 r2 cos γ r1 1 + t2 − 2t cos γ

donde hemos definido t := r2 /r1 < 1. Entonces



1 1 X
= Pn (cos γ)tn (5.168)
|~x1 − ~x2 | r1
n=0
∞ n
1 X 4π X
= tn Y m (θ1 , ϕ1 )(Ynm )∗ (θ2 , ϕ2 ) (5.169)
r1 2n + 1 m=−n n
n=0
X 1 r2n m
= 4π Y (θ1 , ϕ1 )(Ynm )∗ (θ2 , ϕ2 ). (5.170)
n,m
2n + 1 r1n+1 n

En común encontrar esta identidad escrita de la siguiente forma:


r<n
1 X 1
m m ∗ 0 0
= 4π n+1 Yn (θ, ϕ)(Yn ) (θ , ϕ ), (5.171)
|~x − ~x0 | n,m
2n + 1 r>

donde r> = max(r, r0 ) y r< = min(r, r0 ).

Ecuación de Laplace y armónicos esféricos


En el caso de la ecuación de Laplace, podemos entonces usar el resultado en (4.55), con
Q = n(n + 1), para escribir una expresión general para la solución (finita para θ = 0 y θ = π),
en coordenadas esféricas:
∞ X n  
X Bnm
Ψ(r, θ, ϕ) = Anm rn + n+1 Ynm (θ, ϕ). (5.172)
m=−n
r
n=0

49
Capı́tulo 6

Funciones de Bessel

6.1. Ecuación de Bessel


Consideraremos aquı́ la ecuación diferencial de Bessel con argumento complejo, z ∈ C,
ya que sus soluciones suminitrarán funciones que satisfacen la E.D.O. de Bessel con variables
reales y la E.D.O. modificada de Bessel. Finalmente, buscaremos soluciones de la ecuación con
un coeficiente ν 2 real y positivo, pero no necesariamente entero.
En resumen, buscamos soluciones de la ecuación
 
d dy
z z + (z 2 − ν 2 )y(z) = 0, (6.1)
dz dz

que puede ser escrita como


ν2
 
1
y 00 + y 0 + 1 − 2 y = 0. (6.2)
z z

6.2. Solución en serie en torno a z = 0


Buscaremos soluciones en serie de potencias de (6.1). Es conveniente encontrar una serie
en torno a z = 0 (el “punto más simétrico de la ecuación”). Sin embargo, este punto es un
punto singular de la ecuación, P por lo que en general no es posible expresar la solución como
una serie de la forma y(z) = ∞ n
n=0 an z . Para entender esto más claramente, recuerde que
los coeficientes an serı́an entonces proporcionales a la n−ésima derivada de la solución y(z),
evaluada en z = 0. Por lo tanto, encontrar la solución de esta forma es equivalente a requerir
que cada una de las derivadas de la solución sean finitas en z = 0. Como la E.D.O. es de
segundo orden, se requieren dos condiciones iniciales, que pueden elegirse como y(0) e y 0 (0).
Las derivadas superiores quedan determinadas por la E.D.O. Sin embargo, vemos de (6.2) que
y 00 (0) (y las derivadas superiores) será en general divergente, aún en el caso en que se elija
y 0 (0), debido al término (ν 2 /z 2 )y(z).
Afortunadamente, sı́ es posible encontrar soluciones de la forma1

X ∞
X
y(z) = z α an z n = an z n+α , (6.3)
n=0 n=0
1
Una forma alternativa de verificar que este es el caso es realizar el cambio de variable y(z) := z α f (z)
y ajustar la constante α de modo que la E.D.O. resultante para la función f (z) sı́ pueda expresarse como
una serie de potencias de la forma f (z) = ∞ n
P
n=0 n z .
a

50
donde α es una constante (no necesariamente un entero) que será elegida convenientemente.
Suponiendo (6.3), las derivadas de y(z) adoptan la forma siguiente:

X ∞
X
y0 = (n + α)an z n+α−1 , y 00 = (n + α)(n + α − 1)an z n+α−2 . (6.4)
n=0 n=0

Substituyendo estas expansiones en (6.2) encontramos


0 = z 2 y 00 + zy 0 + z 2 − ν 2 y

(6.5)
X∞ ∞
X ∞
X ∞
X
= (n + α)(n + α − 1) an z n+α + (n + α) an z n+α + an z n+α+2 − ν 2 an z n+α
n=0 n=0 n=0 n=0
(6.6)

X ∞
X
(n + α)2 − ν 2 an z n+α + an−2 z n+α
 
= (6.7)
n=0 n=2

X
2 2 α 2 2 α+1
(n + α)2 − ν 2 an + an−2 z n+α .
    
= (α − ν )a0 z + (α + 1) − ν a1 z +
n=2
(6.8)
Por lo tanto, los coeficientes deben satisfacer las siguientes condiciones:
(α2 − ν 2 )a0 = 0, (α + 1)2 − ν 2 a1 = 0, (n + α)2 − ν 2 an + an−2 = 0.
  
(6.9)
Encontramos ası́ una relación de recurrencia entre an y an−2 , que permite entonces expresar
todos los coeficientes an con n par en términos de a0 y todos los con n impar en términos de
a1 .
Como buscamos soluciones no nulas, suponemos primero que a0 6= 0. Entonces la primera
condición en (6.9) implica que α = ±ν. En este caso la segunda condición en (6.9) se reduce
a (1 + 2α)a1 = 0. Analizaremos primero el caso genérico en que α 6= −1/2. Entonces necesa-
riamente a1 = 0 y sólo los coeficientes pares, de la forma a2k , k = 0, 1, 2, · · · , serán no nulos.
De la relación de recurrencia en (6.9) obtenemos
an−2
an = − . (6.10)
n(n + 2α)
Aplicación sucesiva de (6.10) conduce a
a0 (−1)k 1
a2k = 2k
(6.11)
2 k! (1 + α)(2 + α)(3 + α) · · · (k + α)
a0 (−1)k Γ(1 + α)
= , k = 0, 1, 2, · · · . (6.12)
22k k! Γ(k + α + 1)
Aquı́ hemos introducido la función Gamma, ver apéndice C. Por lo tanto, para α = ν hemos
encontrado una solución de la forma

X (−1)k Γ(1 + ν)
yν (z) = a0 z 2k+ν , (6.13)
22k k! Γ(k + ν + 1)
k=0

donde a0 es una constante arbitraria. Es conveniente definir las funciones de Bessel de primera
especie y orden ν, Jν (z), como las soluciones correspondientes al caso en que a0 := 1/2ν Γ(ν +
1), de modo que

X (−1)k  z 2k+ν
Jν (z) = . (6.14)
k!Γ(k + ν + 1) 2
k=0
51
Expandiendo los primeros términos, encontramos:
1  z ν 1  z ν+2
Jν (z) = − + ··· (6.15)
Γ(ν + 1) 2 Γ(ν + 2) 2
1  z ν  1  z 2 
= 1− + ··· . (6.16)
Γ(ν + 1) 2 (ν + 1) 2
Como la E.D.O. de Bessel (6.1) depende del cuadrado de ν, tendremos que

X (−1)k  z 2k−ν
J−ν (z) = , (6.17)
k!Γ(k − ν + 1) 2
k=0

es también una solución (que equivale al caso α = −ν).


Si ν es positivo, pero no es entero, entonces tanto Γ(k + ν + 1) como Γ(k − ν + 1) asumen
valores finitos y por lo tanto Jν y J−ν están bien definidas para todo z. Para valores de z
cercanos a cero tendremos entonces que Jν ≈ (z/2)ν /Γ(1 + ν) y J−ν ≈ (z/2)−ν /Γ(1 − ν). Por
lo tanto, Jν (0) = 0 mientras que J−ν (0) es divergente. Por otro lado, J0 (0) = 1. En particular,
esto muestra que Jν y J−ν son linealmente independientes si ν no es entero. En este caso la
solución general de (6.1) es de la forma

y(z) = c1 Jν (z) + c2 J−ν (z). (6.18)

Por razones históricas y de conveniencia futura se definen adicionalmente las funciones de


Bessel de segunda especie de orden ν, Yν (z) (también llamadas funciones de Neumann y
denotadas por Yν (z)), por
cos(πν)Jν (z) − J−ν (z)
Yν (z) = Nν (z) := . (6.19)
sen(πν)
Entonces la solución general de (6.1) puede expresarse como una combinación lineal de la
función de Bessel y de Neumann correspondiente:

y(z) = c3 Jν (z) + c4 Yν (z). (6.20)

Caso en que α = −1/2


En este caso en general tendremos que a0 6= 0 y a1 6= 0, y la relación de recurrencia (6.10)
se reduce a
an−2
an = − . (6.21)
n(n − 1)
Como consecuencia encontramos que, si n es par, entonces
(−1)k a0
a2k = , (6.22)
(2k)!
mientras que si n es impar,
(−1)k a1
a2k+1 = . (6.23)
(2k + 1)!
Ası́, la solución es de la forma
+∞ +∞
!
X X
−1/2 2k 2k+1
y(z) = z a2k z + a2k+1 z (6.24)
k=0 k=0
+∞ +∞
!
X (−1)k 2k X (−1)k 2k+1
= z −1/2 a0 z + a1 z . (6.25)
(2k)! (2k + 1)!
k=0 k=0
52
Por lo tanto, la solución general de la E.D.O. de Bessel con ν 2 = 1/4 es de la forma

y(z) = z −1/2 (a0 cos(z) + a1 sen(z)) . (6.26)

Podemos verificar que estas soluciones no son independientes, sino que compinaciones
lineales de J1/2 (z) y J−1/2 (z), ya que

X (−1)k  z 2k+1/2
J1/2 (z) = (6.27)
k!Γ(k + 1/2 + 1) 2
k=0

X (−1)k  z 2k+1/2
= (6.28)
k!Γ(k + 3/2) 2
k=0
 1/2 X ∞
2 (−1)k 2k+1
= z (6.29)
πz (2k + 1)!
k=0
 1/2
2
= sen z. (6.30)
πz

Aquı́ hemos usado


3 1 1
Γ(k + ) = (k + )Γ(k + ) (6.31)
2 2 2
1 1 1
= (k + )(k − )Γ(k − ) (6.32)
2 2 2
1 1 3 3
= (k + )(k − )(k − )Γ(k − ) (6.33)
2 2 2 2
= ··· (6.34)
1 1 3 1 1
= (k + )(k − )(k − ) Γ( ) (6.35)
√ 2 2 2 2 2
π
= k+1 1 · 3 · 5 · · · (2k − 1)(2k + 1) (6.36)
2 | {z }
k+1 términos

π (2k + 1)!
= . (6.37)
22k+1 k!
Análogamente,

X (−1)k  z 2k+1/2
J−1/2 (z) = (6.38)
k!Γ(k − 1/2 + 1) 2
k=0

X (−1)k  z 2k+1/2
= (6.39)
k!Γ(k + 1/2) 2
k=0
 1/2 X ∞
2 (−1)k 2k
= z (6.40)
πz (2k)!
k=0
 1/2
2
= cos z, (6.41)
πz

53
ya que

1 Γ(k + 32 )
Γ(k + ) = ) (6.42)
2 (k + 12

π (2k + 1)!
= 2k+1 (6.43)
2 (k + 21 )k!

π (2k)!
= 2k . (6.44)
2 k!

Caso en que α2 6= ν 2
Suponemos ahora que α2 6= ν 2 , entonces a0 = 0 con lo cual a2k = 0 y además a1 6= 0.
Luego, (α + 1)2 − ν 2 = 0. Reemplazando esto útlimo en (6.9), se obtiene que
an−2
an = − . (6.45)
(n − 1)(n + 1 + 2α)

Aplicando sucesivamente (6.45), encontramos

(−1)k a1 1
a2k+1 = (6.46)
22k k! (α + 2)(α + 3)(α + 4) · · · (α + k + 1)
(−1)k a1 Γ(α + 2)
= . (6.47)
22k k! Γ(α + k + 2)

Ası́, para α = ν − 1 se tiene que la solución toma la forma



X (−1)k Γ(1 + ν)
yν (z) = a1 z 2k+ν . (6.48)
22k k! Γ(k + ν + 1)
k=0

Eligiendo a1 = 1/(2ν Γ(1 + ν)), se obtiene nuevamente la función de Bessel de primera


especie, dada por (6.14).

6.3. Relaciones de Recurrencia


Las funciones de Bessel Jν (z) satisfacen las siguientes relaciones de recurrencia:

Jν−1 (z) + Jν+1 (z) = Jν (z), (6.49)
z
Jν−1 (z) − Jν+1 (z) = 2Jν0 (z). (6.50)

54
Podemos verificar estas relaciones usando directamente la expresión en serie de potencias (6.14).
En efecto,
∞ ∞
X (−1)k  z 2k+ν−1 X (−1)k  z 2k+ν+1
Jν−1 (z) + Jν+1 (z) = + (6.51)
k!Γ(k + ν) 2 k!Γ(k + ν + 2) 2
k=0 k=0
"∞ ∞
#
2 X (−1)k  z 2k+ν X (−1)k  z 2k+ν+2
= +
z k!Γ(k + ν) 2 k!Γ(k + ν + 2) 2
k=0 k=0
(6.52)
"∞
2 X (−1)k (k + ν)  z 2k+ν
=
z k!Γ(k + ν + 1) 2
k=0

#
X (−1)k−1  z 2k+ν
+ (6.53)
(k − 1)!Γ(k + ν + 1) 2
k=1
"∞ ∞
#
2 X (−1)k (k + ν)  z 2k+ν X (−1)k−1 k  z 2k+ν
= +
z k!Γ(k + ν + 1) 2 Γ(k + ν + 1) k! 2
k=0 k=1
(6.54)

2 X (−1)k  z 2k+ν
= [(k + ν) − k] (6.55)
z k!Γ(k + ν + 1) 2
k=0

2ν X (−1)k  z 2k+ν
= (6.56)
z k!Γ(k + ν + 1) 2
k=0

= Jν (z). (6.57)
z
De manera análoga, realizando ahora la resta de Jν−1 (z) y Jν+1 (z) obtenemos (ver (6.51) y
(6.55)):
∞ ∞
X (−1)k  z 2k+ν−1 X (−1)k  z 2k+ν+1
Jν−1 (z) − Jν+1 (z) = − (6.58)
k!Γ(k + ν) 2 k!Γ(k + ν + 2) 2
k=0 k=0

2 X (−1)k  z 2k+ν
= [(k + ν) + k] (6.59)
z k!Γ(k + ν + 1) 2
k=0

X (−1)k  z 2k+ν−1
= (2k + ν) (6.60)
kΓ(k + ν + 1) 2
k=0

d X (−1)k  z 2k+ν
=2 (6.61)
dz k!Γ(k + ν + 1) 2
k=0
= 2Jν0 (z). (6.62)

A partir de las relaciones (6.49) y (6.50) podemos derivar otras relaciones. Por ejemplo, su-
mando (6.49) y (6.50) llegamos a
ν
Jν−1 (z) = Jν0 (z) + Jν (z) (6.63)
z
d
= z −ν [z ν Jν (z)] . (6.64)
dz

55
Similarmente, la suma de (6.49) y (6.50) conduce a
ν
Jν+1 (z) = −Jν0 (z) + Jν (z) (6.65)
z
d
= −z ν z −ν Jν (z) .
 
(6.66)
dz
Finalmente, podemos verificar que estas relaciones implican que las funciones Jν (z) satisfacen
la ecuación de Bessel. A partir de (6.63) tenemos que zJν0 = zJν−1 − νJν . Derivando y
multiplicando por z esta relación, tenemos que
d
(zJν0 ) = z Jν−1 + zJν−10
− νJν0

z (6.67)
dz
0
= zJν−1 + z 2 Jν−1 − νzJν0 . (6.68)

Usando (6.65) (reemplazando ν por ν − 1) para reescribir el segundo término de (6.68) y


nuevamente (6.63) en el último término, llegamos a

d
z (zJν0 ) = zJν−1 + z [(ν − 1)Jν−1 − zJν ] − ν(zJν−1 − νJν ) (6.69)
dz
= −(z 2 − ν 2 )Jν , (6.70)

que es equivalente a la ecuación (6.1).

6.3.1. Representación integral ***


Las funciones de Bessel de orden ν y argumento real pueden expresarse como la siguiente
integral en el plano complejo
Z
−1 )
Jν (x) = 2πi e(x/2)(t−t t−ν−1 dt, (6.71)
C

donde t ∈ C está integrado sobre el contorno C indicado en la figura XXX.


Podemos probar esta relación a partir de la siguiente representación de la función Gamma
(ver, por ejemplo, la expresión (11.21) [4]):
Z
1 1
= et t−z dt. (6.72)
Γ(z) 2πi C

Primero, reescribimos el integrando de (6.71) como


−1 )
e(x/2)(t−t t−ν−1 = ext/2 e−x/2t t−ν−1 (6.73)
"∞ #
X 1  −x k
=e xt/2
t−ν−1 (6.74)
k! 2t
k=0

X (−1)k  x k
= ext/2 t−k−ν−1 . (6.75)
k! 2
k=0

Entonces, integrando esta relación sobre C, encontramos



(−1)k  x k
Z Z
−1 )
X
e(x/2)(t−t t−ν−1 dt = ext/2 t−k−ν−1 dt. (6.76)
C k! 2 C
k=0

56
αm,n n=1 n=2 n=3 n=4 n=5
m=0 2.4048255 5.5200781 8.6537279 11.7915344 14.9309177
m=1 3.8317059 7.0155866 10.1734681 13.3236919 16.4706300
m=2 5.1356223 8.4172441 11.6198411 14.7959517 17.9598194
m=3 6.3801619 9.7610231 13.0152007 16.2234661 19.4094152
m=4 7.5883424 11.0647094 14.3725366 17.6159660 20.8269329

Cuadro 6.1: Las primeras raı́ces αm,n de Jm (x), m = 0, 1, 2, 3, 4. Código Python disponible
en este notebook.

Finalmente, realizando el cambio de variable x0 := xt/2 y usando (6.72) reescribimos al última


integral como
Z Z  0 −k−ν−1
xt/2 −k−ν−1 2 t0 2t
e t dt = e dt0 (6.77)
C x C x
 −k−ν Z
2 0
= et t0−k−ν−1 dt0 (6.78)
x C
 −k−ν
2 2πi
= . (6.79)
x Γ(k + ν + 1)

Sustituyendo (6.79) en (6.75) llegamos directamente al resultado deseado, luego de indentificar


la expansión en serie de potencias (6.14) de la función Jν (x).
A partir de (6.71) podemos encotrar la expresión alternativa:
Z π Z ∞
1 sen(νπ)
Jν (x) = cos(νθ − x sen θ)dθ − e−νt−x senh t dt. (6.80)
π 0 π 0

6.3.2. Forma asintótica


A partir de la representación integral (6.71) es posible encontrar una expresión asintótica
para las funciones de Bessel, válida para valores “grandes” de x:
r
2  νπ π  2 1
Jν (x) ≈ cos x − − , x  ν − .
(6.81)
πx 2 4 4

6.3.3. Ceros de las funciones de Bessel


Frecuentemente, es necesario evaluar las raı́ces, o ceros, de las funciones de Bessel. La
función de Bessel Jν (x) tiene infinitas raı́ces (ver, por ejemplo, figura 6.3). Denotaremos αν,n a
la n-ésima raiz de la función Jν (x), es decir, tal que Jν (αν,n ) = 0 y αν,n+1 < αν,n , n = 1, 2, · · · .
Los valores de estas raı́ces son calculadas numéricamente a partir, por ejemplo, de la expresión
en serie (6.14) para las funciones de Bessel. En la tabla 6.1 se muestran algunos de estos ceros.:

57
50

40

30
αm, n

20

10

0 0 1 2 3 4 5 6 7 8 9
m

Figura 6.1: Algunos ceros de las funciones Jm (x). Código Python disponible en este note-
book.

m=0
3.8 m=1
m=2
m=3
m=4
3.6 m=5
αm, n + 1 − αm, n

m=6
m=7
3.4 m=8
m=9

3.2

3.0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
n

Figura 6.2: Diferencias entre ceros sucesivos de las funciones Jm (x). Código Python dispo-
nible en este notebook.

Es también frecuente requerir calcular las raı́ces de las derivadas de las funciones de Bessel.
Éstas serán denotadas por βν,n y entonces satisfacen Jν0 (βν,n ) = 0 y βν,n+1 < αβ,n , n =
1, 2, · · · . La tabla 6.2 resume algunos de estos valores:

6.3.4. Relaciones de Ortogonalidad


Para ν ≥ 0, n, m = 1, 2, · · · y a > 0, tenemos que
Z a 
αν,n   αν,m  a2
Jν ρ Jν ρ ρ dρ = δn,m [Jν+1 (αν,n )]2 . (6.82)
0 a a 2
58
βm,n n=1 n=2 n=3 n=4 n=5
m=0 3.8317059 7.0155866 10.1734681 13.3236919 16.4706300
m=1 1.8411837 5.3314427 8.5363163 11.7060049 14.8635886
m=2 3.0542369 6.7061331 9.9694678 13.1703708 16.3475223
m=3 4.2011889 8.0152366 11.3459243 14.5858482 17.7887478
m=4 5.3175531 9.2823962 12.6819084 15.9641070 19.1960288
0 (x), m = 0, 1, 2, 3, 4. Código disponible en este
Cuadro 6.2: Las primeras raı́ces βm,n de Jm
notebook.

Similarmente,
a
a2 ν2
Z      
βν,n βν,m
Jν ρ Jν ρ ρ dρ = δn,m 1− 2 [Jν (βν,n )]2 . (6.83)
0 a a 2 βν,n

6.4. Funciones de Bessel de orden entero

1.0 n=0
n=1
n=2
n=3
n=4
0.5
Jn (x)

0.0

0.5

10 5 0 5 10
x

Figura 6.3: Primeras cinco funciones de Bessel de primera especie y orden entero. Código
Python aquı́.

Consideremos el caso en que ν = n = 0, 1, 2, · · · , entonces (6.14) se reduce a



X (−1)k  z 2k+n
Jn (z) = , (6.84)
k!Γ(k + n + 1) 2
k=0

y como Γ(k + n + 1) tiene argumento entero, coincide con el factorial (k + n)!. Por lo tanto,


X (−1)k  z 2k+n
Jn (z) = . (6.85)
k!(k + n)! 2
k=0

59
Por otro lado, reemplazando ν = −n, con n = 0, 1, 2, · · · , en (6.14) (o, equivalentemente
ν = n en (6.15)), obtenemos

X (−1)k  z 2k−n
J−n (z) = . (6.86)
k!Γ(k − n + 1) 2
k=0

Aquı́ hay que mirar cuidadosamente el caso en que (k − n + 1) asume valores enteros
negativos, puesto que en esos casos la función Γ(k − n + 1) diverge. Los casos en que k −
n + 1 = 0, 1, 2, · · · se presentan cuando k = n − 1, n − 2, · · · , 0 respectivamente. Como
1/Γ(k − n + 1) → 0 en estos casos2 , entonces los coeficientes de la suma en (6.86) tenderán
a cero para todo k = 0, 1, · · · , n − 1. Por lo tanto, sólo contribuirán los términos con k ≥ n.
Entonces (6.86) se reduce a

X (−1)k  z 2k−n
J−n (z) = (6.87)
k!Γ(k − n + 1) 2
k=n

X (−1)k+n  z 2k+n
= (6.88)
(k + n)!Γ(k + 1) 2
k=0

X (−1)k  z 2k+n
= (−1)n (6.89)
(k + n)!k! 2
k=0
= (−1)n Jn (z). (6.90)

Note además que, como puede verse de su expresión en serie, las funciones Jn (z) tienen
paridad n, es decir,
Jn (−z) = (−1)n Jn (z). (6.91)

6.4.1. Función generadora de Funciones de Bessel de orden entero


Consideramos la función g(t, z) definida por

X
g(t, z) := Jn (z)tn , t, z ∈ C. (6.92)
n=−∞

De esta forma, podemos entender a g(t, z) como la función generadora de las funciones de
Bessel de orden entero, por medio de la expansión (de Laurent) en potencias de t.
Para determinar la forma explı́cita de g(t, z) podemos proceder como sigue. Derivamos
(6.92) con respecto a z y usamos la relación de recurrencia (6.50) para expresar Jn0 (z) en
2
En otras palabras, estamos considerando (o definiendo) J−n como el lı́mite de J−ν cuando ν se acerca
al entero n: J−n (z) := lı́mν→n J−ν (z).

60
términos de Jn−1 (z) y Jn+1 (z). Con esto, podemos escribir:

∂g X
= J 0 (z)tn (6.93)
∂z n=−∞ n

1 X
= (Jn−1 (z) − Jn+1 (z)) tn (6.94)
2 n=−∞
" ∞ ∞
#
1 X
n−1 −1
X
n+1
= t Jn−1 (z)t −t Jn+1 (z)t (6.95)
2 n=−∞ n=−∞

1  X
= t − t−1 Jn (z)tn (6.96)
2 n=−∞
1
t − t−1 g(t, z).

= (6.97)
2
Podemos encontrar una expresión para la función generadora a partir de esta relación, con-
siderándola como una ecuación diferencial para g(t, z). La solución es necesariamente de la
forma
z −1
g(t, z) = f (t) e 2 (t−t ) . (6.98)
Finalmente, la función f (t) puede determinarse evaluando (6.92) para z = 0 y luego compa-
rando con (6.98):

X
g(t, 0) = f (t) = Jn (0)tn = J0 (0) = 1. (6.99)
n=−∞

Aquı́ usamos el hecho que todas las funciones de Bessel de orden entero se anulan en z = 0,
excepto para n = 0, ya que J0 (0) = 1.
Por lo tanto, obtenemos:

z −1
g(t, z) = e 2 (t−t ) =
X
Jn (z)tn . (6.100)
n=−∞

6.4.2. Representación integral


Substituyendo t = eiθ en (6.100) encontramos,


X
g(t, eiθ ) = eiz sen θ = Jn (z)einθ . (6.101)
n=−∞

Esto significa que las funciones de Bessel son los coeficientes de la expansión en serie de Fourier
de la función eiz sen θ . Por lo tanto,
Z 2π
1
Jn (z) = eiz sen θ e−inθ dθ. (6.102)
2π 0

Equivalentemente, ya que el integrando es periódico de periodo 2π, podemos desplazar el


intervalo de integración a [−π, π], y escribir
Z π
1
Jn (z) = ei(z sen θ−nθ) dθ. (6.103)
2π −π

61
Como ei(z sen θ−nθ) = cos(z sen θ − nθ) + i sen(z sen θ − nθ), vemos que el integrando se divide
en una contribución par y otra impar en θ. Por lo tanto,
Z π
1
Jn (z) = cos(z sen θ − nθ) dθ. (6.104)
π 0

En particular,
Z π Z π
1 iz sen θ 1
J0 (z) = e dθ = cos(z sen θ) dθ. (6.105)
2π −π π 0

6.4.3. Sumatorias de funciones de Bessel


Adicionalmente, de la relación (6.101) podemos escribir,
∞ 
X 
e iz sen θ
= J0 (z) + Jn (z)einθ + J−n (z)e−inθ (6.106)
n=1
X∞  
= J0 (z) + Jn (z)einθ + (−1)n Jn (z)e−inθ (6.107)
n=1
X∞   ∞
X  
−inθ
= J0 (z) + Jn (z) e inθ
−e + Jn (z) einθ + e−inθ (6.108)
n=1 n=2
n impar n par
X∞ ∞
X
= J0 (z) + 2i Jn (z) sen(nθ) + 2 Jn (z) cos(nθ) (6.109)
n=1 n=2
n impar n par
X∞ ∞
X
= J0 (z) + 2i J2n−1 (z) sen[(2n − 1)θ] + 2 J2n (z) cos(2nθ). (6.110)
n=1 n=1

Si el argumento de las funciones es real (z = x) entonces, igualando la parte real e imaginaria


de ambos lados de la igualdad, obtenemos


X
cos(x sen θ) = J0 (x) + 2 J2n (x) cos(2nθ), (6.111)
n=1


X
sen(x sen θ) = 2 J2n−1 (x) sen[(2n − 1)θ]. (6.112)
n=1

En particular, si θ = 0, obtenemos la relación



X
J0 (x) + 2 J2n (x) = 1. (6.113)
n=1

62
6.5. Funciones de Bessel de orden semi-entero
Podemos encontrar las otras funciones de Bessel de orden semi-entero usando las relaciones
de recurrencia (6.49) y (6.50). Por ejemplo
(1/2) 0
J3/2 (z) = J1/2 (z) − J1/2 (z) (6.114)
z
1 2 1/2 −1/2
     1/2  1/2
1 2 2
= z sen z − − z −3/2 sen z − z −1/2 cos z
2z π 2 π π
(6.115)
= 2−1/2 π −1/2 z −3/2 sen z + 2−1/2 π −1/2 z −3/2 sen z − 2−1/2 π −1/2 cos z (6.116)
 1/2  1/2
2 −3/2 2
= z sen z − z −1/2 cos z (6.117)
π π
 1/2 
2 
= z −3/2 sen z − z −1/2 cos z . (6.118)
π

6.6. Funciones de Bessel de segunda especie


Como hemos ya discutido en la sección 6.2, cuando ν no es un entero, las funciones de
Bessel de segunda especie, también llamadas funciones de Neumann Yν (z) (ó Nν (z)), definidas
por
Jν (z) cos(νπ) − J−ν (z)
Yν (z) := , ν 6= n = 0, ±1, ±, 2, · · · , (6.119)
sen(νπ)
son soluciones linealmente independientes de Jν (z) de ecuación de Bessel. Esta combinación
lineal particular es útil puesto que, entre otras cosas, suministra una expresión complementaria
a las funciones Jν (z) en lo que respecta a su forma asintótica. En efecto, a partir de (6.81)
encontramos que
r
2  νπ π  2 1
Yν (x) ≈ sen x − − , x  ν − .
(6.120)
πx 2 4 4

Además, puede usarse la misma expresión (6.119) en el caso en que ν es entero (ν = n).
Sabemos que en este caso, J−n (z) no es linealmente independiente de J−n (z) ya que se cumple
que J−n (z) = (−1)n Jn (z). No obstante, podemos usar (6.119) para encontrar la segunda
solución linealmente independiente Yn (z), como el lı́mite de (6.119) cuando el parámetro ν se
acerca al entero n, es decir,
Jν (z) cos(νπ) − J−ν (z)
Yn (z) := lı́m , n = 0, ±1, ±, 2, · · · . (6.121)
ν→n sen(νπ)
Note que los coeficientes de la combinación lineal (6.119) son tales que el lı́mite es no trivial,
ya que tanto el numerador como el denominador tienden a cero cuando ν tiende a n. Por esto,
usando la regla de L’Hôpital, encontramos que
 
1 ∂Jν (z) n ∂J−ν (z)
Yn (z) = − (−1) . (6.122)
π ∂ν ∂ν ν=n

Puede (hágalo!) verificarse que la función definida por (6.122), efectivamente satisface la ecua-
ción de Bessel (6.1). Además, de (6.122) se sigue, usando (∂Jν /∂ν)ν=−n = −(∂J−ν /∂ν)ν=n ,
que
Y−n (z) = (−1)n Yn (z). (6.123)
63
Por otro lado, de la expansión (6.15) obtenemos que cerca de z = 0, y para ν > 0,
 ν  ν
1 1 2 1 2
Yν (z) ≈ − = − Γ(ν) . (6.124)
sen(νπ) Γ(1 − ν) z π z

Aquı́ hemos usamos la identidad (C.6). Por lo tanto, para ν → n, obtenemos


 n
1 2
Yn (z) ≈ − (n − 1)! , z ≈ 0, n > 0, (6.125)
π z

de donde vemos que estas funciones divergen en el origen. Note que incluso Y0 (z) diverge en
z = 0, ya que3
2 h z  i
Y0 (z) ≈ ln +γ , z ≈ 0, (6.127)
π 2
donde γ = −Ψ0 (1) es la constante de Euler-Mascheroni, γ = 0,5772 · · · .

6.6.1. Representación integral

Z π Z ∞
1 1
ent + (−1)n e−nt e−x senh t dt.

Yn (x) = sen(x sen θ − nθ) dθ − (6.128)
π 0 π 0

6.6.2. Relaciones de Recurrencia


A partir de la definición (6.121) y las relaciones de recurrencia para las funciones de Bessel
(6.49) y (6.50), puede verificarse que las funciones de Bessel de segunda especie satisfacen las
mismas relaciones de recurrencia que las de primera especie:

Yν−1 (z) + Yν+1 (z) = Yν (z), (6.129)
z
Yν−1 (z) − Yν+1 (z) = 2Yν0 (z). (6.130)
3
A partir de (6.122), se encuentra, usando la función digamma Ψ0 (z) := Γ0 (z)/Γ(z), que
   
2 ∂Jν 2 Ψ0 (ν + 1)  z ν 1  z ν  z  2h z  i
Y0 (z) = = − + ln + ··· = −Ψ0 (1) + ln + ··· .
π ∂ν ν=0 π Γ(ν + 1) 2 Γ(ν + 1) 2 2 ν=0 π 2
(6.126)

64
0.5

0.0

0.5
Yn (x)

1.0

n=0
1.5 n=1
n=2
n=3
n=4
2.00 2 4 6 8 10
x

Figura 6.4: Primeras cinco funciones de Bessel de segunda especie (funciones de Neumann)
de orden entero. Código Python aquı́.

6.7. Funciones de Hankel


En muchas aplicaciones fı́sicas (especialmente cuando se estudian soluciones de la ecuación
de onda) es conveniente introducir otro par de funciones linealmente independientes, llamadas
(1) (2)
funciones de Hankel y denotadas por Hν y Hν , definidas por

Hν(1) (z) := Jν (z) + iYν (z), (6.131)


Hν(2) (z) := Jν (z) − iYν (z). (6.132)

Las funciones de Hankel son linealmente independientes para todo ν, y satisfacen las mismas
relaciones de recurrencia que las funciones de Bessel. La utilidad de su definición resulta clara
al considerar su forma asintótica. Usando (6.81) y (6.120) se encuentra que
r r
(1) 2 i(x−νπ/2−π/4) (2) 2 −i(x−νπ/2−π/4) 2 π

Hν (x) ≈ e , Hν (x) ≈ e , x  ν − .
πx πx 4
(6.133)

6.8. Funciones modificadas de Bessel


La ecuación modificada de Bessel es
 
d dy
x x − (x2 + ν 2 )y(x) = 0. (6.134)
dx dx

Las soluciones finitas en x = 0 de esta ecuación son de la forma y(x) = Jν (ix). Como estamos
especialmente interesados en el caso en que tanto x como y son reales, es conveniente definir
las funciones modificadas de Bessel de primera especie y orden ν:

Iν (x) := i−ν Jν (ix). (6.135)

65
La función Iν (x) ası́ definida es real. En efecto, de la expansión en serie (6.14)

Iν (x) = i−ν Jν (ix) (6.136)


∞  2k+ν
−ν
X (−1)k ix
=i (6.137)
k!Γ(k + ν + 1) 2
k=0

X (−1)k iν i2k  x 2+ν
= i−ν . (6.138)
k!Γ(k + ν + 1) 2
k=0

Por lo tanto,

X 1  x 2k+ν
Iν (x) = . (6.139)
k!Γ(k + ν + 1) 2
k=0

Nuevamente, Iν y I−ν son linealmente independientes, excepto si ν es entero, ya que en este


último caso se satisface que
I−n (x) = In (z) (6.140)

10

5
In (x)

n=0
5 n=1
n=2
n=3
n=4
10 4 3 2 1 0 1 2 3 4
x

Figura 6.5: Primeras cinco funciones modificadas de Bessel (de primera especie) de orden
entero. Código Python aquı́.

La correspondiente forma asintótica de las funciones modificadas de Bessel Iν (x) es



1 x
2 1
Iν (x) ≈ √ e , x  ν − . (6.141)
2πx 4

Las funciones Iν (x) satisfacen las siguientes relaciones de recurrencia, que se siguen a partir
de (6.49), (6.50) y (6.135):
Iν−1 (x) + Iν+1 (x) = 2Iν0 (x), (6.142)

Iν−1 (x) − Iν+1 (x) = Iν (x). (6.143)
x

66
6.8.1. Funciones Modificadas de Bessel de segunda especie
En analogı́a con lo visto en la sección 6.6, es conveniente introducir las funciones de segunda
especie, ahora denotadas por Kν (x), y definidas de la forma siguiente:
 
π I−ν (x) − Iν (x)
Kν (x) := , ν 6= n = 0, ±1, ±2, · · · . (6.144)
2 sen(νπ)
Note que como consecuencia de esta definición K−ν (x) = Kν (x), por lo que es suficiente
considerar ν ≥ 0. Con estas definiciones, Iν y Kν son l.i. para todo ν, y su forma asintótica es
nuevamente “complementaria” ya que
r
π −x
Kν (x) ≈ e . (6.145)
2x
En el caso de ν entero, la definición se realiza como el lı́mite ν → n, es decir,
 
π I−ν (x) − Iν (x)
Kn (x) := lı́m , n = 0, 1, 2, · · · . (6.146)
ν→n 2 sen(νπ)
Usando nuevamente la regla de L’Hôpital, podemos escribir
(−1)n ∂I−ν (x) ∂Iν (x)
 
Kn (x) = − . (6.147)
2 ∂ν ∂ν ν=n

4.0
n=0
n=1
3.5 n=2
n=3
3.0 n=4

2.5
Kn (x)

2.0

1.5

1.0

0.5

0.00.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0


x

Figura 6.6: Primeras cinco funciones modificadas de Bessel de segunda primera especie y
orden entero. Código Python aquı́.

Las funciones Kν (x) satisfacen las siguientes relaciones de recurrencia


Kν−1 (x) + Kν+1 (x) = −2Kν0 (x), (6.148)

Kν−1 (x) − Kν+1 (x) = −Kν (x), (6.149)
x
como puede verificarse a partir de (6.142), (6.143), (6.144) y (6.147). Note la diferencia de
signo de estas relaciones con respecto a las correspondientes a las funciones de primera especie,
(6.142) y (6.143).
67
6.9. Funciones Esféricas de Bessel
Como vimos, en coordenadas esféricas la ecuación radial proveniente de la separación de
variables de la ecuación de Helmholtz es (4.52). Además, las soluciones finitas en θ = 0 y
θ = π (es decir, sobre el eje z) de (4.53) requieren que Q = n(n + 1). La ecuación resultante
tiene entonces soluciones de la forma
un (kr)
Rn (r) = √ , (6.150)
r
p
donde k = |α| y un (x) es solución de la ecuación (modificada, si α < 0) de Bessel de orden
semientero, ν = n + 1/2.
En el caso en que α > 0, las soluciones u(x) serán entonces combinaciones de funciones
de Bessel de primera y segunda especie. Por esto, es conveniente definir las funciones esféricas
de Bessel (de primera y segunda especie) por:
r
π
jn (x) := J (x), (6.151)
2x n+1/2
r r
π n+1 π
yn (x) := Yn+1/2 (x) = (−1) J (x). (6.152)
2x 2x −n−1/2
p
El factor π/2 es incluido por conveniencia, ya que entonces (ver (6.30) y (6.41)) las primeras
funciones resultan ser simples:
sen x cos x
j0 (x) = , y0 (x) = − . (6.153)
x x
Podemos encontrar una expresión en serie simple a partir4 de (6.14),

X (−1)k  x 2k+n+1/2
Jn+1/2 (x) = (6.154)
k!Γ(k + n + 3/2) 2
k=0

(−1)k
r
xX  x 2k+n
= (6.155)
2 k!Γ(k + n + 3/2) 2
k=0

(−1)k 22k+2n+1 Γ(k + n + 1)  x 2k+n
r
x X
= (6.156)
2
k=0
k! π 1/2 Γ(2k + 2n + 2) 2
r ∞
2x 2n X (−1)k 22k (k + n)!  x 2k+n
= 2 (6.157)
π k! (2k + 2n + 1)! 2
k=0
r ∞
2x n n
X (−1)k (k + n)!
= 2 x x2k . (6.158)
π k! (2k + 2n + 1)!
k=0

Por lo tanto,

n n
X (−1)k (k + n)!
jn (x) = 2 x x2k . (6.159)
k! (2k + 2n + 1)!
k=0

Análogamente, para la función esférica de segunda especie, encontramos



(−1)n+1 X (−1)k (k − n)! 2k
yn (x) = x . (6.160)
2n xn+1 k!(2k − 2n)!
k=0

4
y usando la “fórmula de duplicación de Legendre”, ver por ejemplo ec. (10.66b) de [2]: Γ(z + 1)Γ(z +
1/2) ≡ 2−2z π 1/2 Γ(2z + 1), con z = k + n + 1/2.
68
Estas ecuaciones satisfacen entonces la EDO esférica de Bessel:
 
d 2 dy
x + [x2 − n(n + 1)]y(x) = 0. (6.161)
dx dx

6.9.1. Relaciones de Recurrencia


A partir de las relaciones de recurrencia para Jν y Yν , ver (6.49), (6.50), (6.129) y (6.130),
podemos derivar directamente las correspondientes relaciones para las funciones esféricas, ob-
teniendo:
2n + 1
jn−1 (x) + jn+1 (x) = jn (x), njn−1 (x) − (n + 1)jn+1 (x) = (2n + 1)jn0 (x). (6.162)
x
Similarmente (6.64) y (6.66) implican que

d  n+1
jn−1 (x) = x−n−1

x jn (x) , (6.163)
dx
d  −n
jn+1 (x) = −xn

x jn (x) . (6.164)
dx
Aplicando sucesivamente (6.164) obtenemos una expresión en términos de la función j0 (x):
 n
n 1 d
jn (x) = (−x) j0 (x). (6.165)
x dx

Similarmente,  n
n 1 d
yn (x) = (−x) y0 (x). (6.166)
x dx

6.9.2. Expresiones explı́citas


De este modo, usando (6.153) encontramos las siguientes útiles expresiones:
 n
n 1 d sen x
jn (x) = (−x) , (6.167)
x dx x

 n
n 1 d cos x
yn (x) = −(−x) . (6.168)
x dx x
Con ellas podemos calcular explı́citamente las funciones que necesitemos. Por ejemplo:
sen x
j0 (x) = , (6.169)
x
sen x cos x
j1 (x) = 2
− , (6.170)
x x
3 sen x 3 cos x
j2 (x) = 2
−1 − , (6.171)
x x x2
   
15 6 sen x 15 cos x
j3 (x) = 3
− − 2
−1 , (6.172)
x x x x x

69
cos x
y0 (x) = −j−1 (x) = − , (6.173)
x
cos x sen x
y1 (x) = j−2 (x) = − 2 − , (6.174)
x x

3 cos x 3 sen x
y2 (x) = −j−3 (x) = − 2 + 1 − , (6.175)
x x x2
   
15 6 cos x 15 sen x
y3 (x) = j−4 (x) = − 3 + − 2
−1 . (6.176)
x x x x x

1.0 n=0
n=1
n=2
0.8 n=3
n=4
0.6

0.4
jn (x)

0.2

0.0

0.2

0.4
0 2 4 6 8 10
x

Figura 6.7: Primeras cinco funciones esféricas de Bessel de primera especie de orden entero.
Código Python aquı́.

1.0
n=0
n=1
n=2
n=3
0.5 n=4
yn (x)

0.0

0.5

1.0 20 15 10 5 0 5 10 15 20
x

Figura 6.8: Primeras cinco funciones esféricas de Bessel de segunda especie (funciones de
Newmann) de orden entero. Código Python aquı́.
70
6.9.3. Relaciones de Ortogonalidad
Nuevamente, podemos encontrar relaciones válidas para las funciones esféricas a partir de
aquellas derivadas para las funciones de Bessel Jν . A partir de (6.82) se sigue directamente que
a
a3
Z    
ᾱn,m ᾱn,m0
jn r jn r r2 dr = δm,m0 [jn+1 (ᾱn,m )]2 , (6.177)
0 a a 2

donde ᾱn,m denota la m-ésima raiz de la la función esférica jn (x). Ya que jn es proporcional
a Jn+1/2 , entonces ᾱn,m = αn+1/2,m .

6.9.4. Funciones esféricas de Hankel

h(1)
n (x) = jn (x) + iyn (x), (6.178)
h(2)
n (x) = jn (x) − iyn (x). (6.179)
n
eix X im (n + m)!
h(1)
n (x) = (−i)
n+1
m
(6.180)
x m!(2x) (n − m)!
m=0

6.9.5. Forma asintótica


Para x  1,
2n n!
jn (x) ≈ xn , (6.181)
(2n + 1)!
(2n)! 1
yn (x) ≈ − n . (6.182)
2 n! xn+1
Para x  n(n + 1),
1  nπ 
jn (x) ≈ sen x − , (6.183)
x 2
1  nπ 
yn (x) ≈ − cos x − , (6.184)
x 2
i i(x−nπ/2) ix
n+1 e
h(1)
n (x) ≈ − e = (−i) , (6.185)
x x
i −i(x−nπ/2) −ix
n+1 e
h(2)
n (x) ≈ e = (i) . (6.186)
x x

6.9.6. Funciones modificadas esféricas de Bessel


Análogamente, la solución de le ecuación modificada esférica de Bessel,
 
d 2 dy
x + [−x2 − n(n + 1)]y(x) = 0, (6.187)
dx dx

es una combinación lineal de las funciones modificadas esfércias de Bessel de primera y segunda
especie, in (x) y kn (x) respectivamente, definidas en términos de las funciones (modificadas)
de Bessel como
r r
−n π n π
in (x) := i jn (ix) = In+1/2 (x), kn (x) := −i yn (ix) = K (x). (6.188)
2x 2x n+1/2
71
Relaciones de Recurrencia

2n + 1
in−1 (x) − in+1 (x) = in (x), (6.189)
x
nin−1 (x) + (n + 1)in+1 (x) = (2n + 1)i0n (x), (6.190)

2n + 1
kn−1 (x) − kn+1 (x) = − kn (x), (6.191)
x
nkn−1 (x) + (n + 1)kn+1 (x) = −(2n + 1)kn0 (x), (6.192)

d d
in+1 (x) = xn (x−n in ), kn+1 (x) = −xn (x−n kn ). (6.193)
dx dx

Formas asintóticas

2n n! (2n)! −n−1
in (x) ≈ xn , kn (x) ≈ x , x  1, (6.194)
(2n + 1)! 2n n!
ex −ex n(n + 1)
in (x) ≈ , kn (x) ≈ , x . (6.195)
2x x 2

Expresiones explı́citas

n n
e−x
 
n 1d senh x n n 1d
in (x) = x , kn (x) = (−1) x , (6.196)
x dx x x dx x

senh(x)
i0 (x) = , (6.197)
x
senh(x)
i1 (x) = − cosh(x), (6.198)
x
cosh(x) senh(x)
i2 (x) = − , (6.199)
x x2
senh(x) 3 senh(x) 3 cosh(x)
i3 (x) = + − , (6.200)
x x3 x2
6 senh(x) 15 senh(x) cosh(x) 15 cosh(x)
i4 (x) = − − + + , (6.201)
x2 x4 x x3

e−x
k0 (x) = , (6.202)
x
e−x e−x
k1 (x) = + , (6.203)
x x2
e−x 3 e−x 3 e−x
k2 (x) = + + , (6.204)
x x2 x3
e−x 6 e−x 15 e−x 15 e−x
k3 (x) = + + + , (6.205)
x x2 x3 x4
e−x 10 e−x 45 e−x 105 e−x 105 e−x
k4 (x) = + + + + . (6.206)
x x2 x3 x4 x5

72
16
n=0
n=1
14 n=2
n=3
12 n=4

10
in (x)

00 1 2 3 4 5
x

Figura 6.9: Primeras cinco funciones esféricas modificadas de Bessel de primera especie de
orden entero. Código Python aquı́.

15
n =0
n =1
10 n =2
n =3
n =4
5
kn (x)

10

15
4 2 0 2 4
x

Figura 6.10: Primeras cinco funciones esféricas modificadas de Bessel de segunda especie
(funciones de Newmann) de orden entero. Código Python aquı́.

73
Capı́tulo 7

Funciones de Green

7.1. Motivación
El método de las funciones de Green1 permite reducir el problema de encontrar una solución
de una E.D.P. lineal inhomogénea a una forma estándar.
Por ejemplo, en electrostática, el potencial satisface la ecuación de Poisson (3D):
ρ(x)
∇2 φ = − . (7.1)
ε0
Además, sabemos que para una carga puntual ubicada en el punto con coordenadas ~x0
1 q
φ(~x) = , (7.2)
4πε0 |~x − ~x0 |
y que el potencial producido por una distribución continua de carga con densidad ρ(~x) es
ρ(~x0 )
Z
1
φ(~x) = dV 0 . (7.3)
4πε0 V |~x − ~x0 |
En ambos casos se eligió el potencial nulo en el infinito. Vemos entonces que en la solución
general (7.3) aparece la función
1 1
G(~x, ~x0 ) = − . (7.4)
4π |~x − ~x0 |
de modo que
ρ(~x0 )
Z  
φ(~x) = G(~x, ~x0 ) − dV 0 . (7.5)
V ε0
La función (7.4) satisface
∇2 G(~x0 , ~x) = δ (3) (~x − ~x0 ). (7.6)
Como veremos a continuación, la propiedad (7.6) es la que permite encontrar soluciones de la
ecuación inhomogénea (7.1).
ρ(~x0 )
Z  
0
2
∇ φ(~x) = ∇ 2
G(~x, ~x ) − dV 0 (7.7)
V ε0
ρ(~x0 )
Z  
∇ G(~x, ~x0 ) − dV 0
 2 
= (7.8)
V ε 0
ρ(~x0 )
Z  
0
= δ(~x − ~x ) − dV 0 (7.9)
V ε0
ρ(~x)
=− . (7.10)
ε0
1
George Green (1793-1841): matemático británico. Ver http://es.wikipedia.org/wiki/George_Green.
74
7.2. Generalización
Consideremos la E.D.P. lineal inhomogénea de la forma (en d-dimensiones)

L̂Ψ = f (~x), (7.11)

donde f (~x) es una función “fuente” conocida, y L̂ es el operador lineal definido por
h i
~ · p(~x)∇Ψ
L̂Ψ = ∇ ~ + q(~x)Ψ, (7.12)

y p(~x) y q(~x) son funciones conocidas.


Para solucionar la E.D.P. (7.11) buscamos primero la función de Green G(~x, ~x0 ) asociada
al operador L̂, definida como la función que satisface

L̂G(~x0 , ~x) = δ(~x − ~x0 ). (7.13)

La utilidad de introducir la función de Green es que, conociendo una solución de (7.11), es


posible escribir la solución del problema inhomogéneo general (7.11) como
Z I h i
Ψ(~x) = G(~x, ~x0 )f (~x0 )dV 0 + p(~x0 ) Ψ(~x0 )∇
~ 0 G(~x, ~x0 ) − G(~x, ~x0 )∇
~ 0 Ψ(~x0 ) · dS
~ 0.
V ∂V
(7.14)
Aquı́ V denota el dominio en el que la solución Ψ es válida (es decir, ~x ∈ V ) y ∂V su frontera.
Para probar (7.14) partimos desde la integral sobre ∂V en el en lado derecho de (7.14),
que luego podemos escribir como una integral de volumen, por medio del teorema de Gauss:
I h i
I= p(~x0 ) Ψ(~x0 )∇~ 0 G(~x, ~x0 ) − G(~x, ~x0 )∇
~ 0 Ψ(~x0 ) · dS~0 (7.15)
Z∂V
h i
= ∇~ 0 · p(~x0 )Ψ(~x0 )∇~ 0 G(~x, ~x0 ) − p(~x0 )G(~x, ~x0 )∇
~ 0 Ψ(~x0 ) dV 0 (7.16)
V
Z h    i
= Ψ(~x0 )∇~ 0 · p(~x0 )∇~ 0 G(~x, ~x0 ) − G(~x, ~x0 )∇ ~ 0 · p(~x0 )∇~ 0 Ψ(~x0 ) dV 0 (7.17)
ZV h    i
= Ψ(~x0 ) L̂0 G(~x, ~x0 ) − G(~x, ~x0 ) L̂0 Ψ(~x0 ) dV 0 (7.18)
ZV
Ψ(~x0 )δ(~x − ~x0 ) − G(~x, ~x0 )f (~x0 ) dV 0
 
= (7.19)
V Z
= Ψ(~x) − G(~x, ~x0 )f (~x0 )dV 0 . (7.20)
V

En el último paso, hemos asumido que el punto ~x ∈ V para evaluar la integral que involucra
la delta de Dirac. El resultado (7.14) se sigue de igualar (7.15) y (7.20).
La solución de la ecuación (7.13) queda determinada, además de la función fuente f (~x),
por las condiciones de borde del problema. Tı́picamente, estas condiciones de borde se expresan
como condiciones que la solución debe satisfacer en la frontera ∂V . Esta información modifica
la solución a través de los términos de borde en (7.14). Sin embargo, la integral sobre ∂V
en (7.14) depende tanto del valor de la incógnita como de su derivada normal, y usualmente
no se conoce simultáneamente estos dos valores. Más aún, en general puede ser inconsistente
imponer simultáneamente el valor de Ψ y de su derivada normal en ∂V .

Si las condiciones de Borde son tipo Dirichlet, es decir, la función Ψ es conocida en ∂V ,


entonces el primer término en la integral sobre ∂V en (7.14) es queda determinado luego
de encontrar la función de Green, no ası́ el segundo término. Por esta razón, en estos
75
casos es conveniente elegir una función de Green que satisfaga condiciones de borde tipo
Dirichlet homogéneas en ∂V , es decir

G(~x, ~x0 ) = 0, ∀ ~x0 ∈ ∂V. (7.21)

Entonces la solución se reduce a


Z I
0 0 0
Ψ(~x) = G(~x, ~x )f (~x )dV + p(~x0 )Ψ(~x0 )∇~ 0 G(~x, ~x0 ) · dS
~0 (7.22)
V ∂V
∂G(~x, ~x0 ) 0
Z I
0 0 0
= G(~x, ~x )f (~x )dV + p(~x0 )Ψ(~x0 ) dS . (7.23)
V ∂V ∂n0

~ sobre
Si las condiciones de borde son tipo Neumann, es decir se conoce ∂Ψ/∂n = n̂ · ∇Ψ
∂V , entonces es conveniente escoger una función de Green que satisfaga condiciones de
Neumann homogéneas en la frontera:

∂G(~x, ~x0 )
= 0, ∀ ~x0 ∈ ∂V. (7.24)
∂n0
Entonces, la solución es dada por
Z I
0 0 0
Ψ(~x) = G(~x, ~x )f (~x )dV − p(~x0 )G(~x, ~x0 )∇~ 0 Ψ(~x0 ) · dS
~0 (7.25)
ZV I∂V
∂Ψ(~x0 ) 0
= G(~x, ~x0 )f (~x0 )dV 0 − p(~x0 )G(~x, ~x0 ) dS . (7.26)
V ∂V ∂n0

Note que, sin embargo, dependiendo del operador L̂ puede no ser posible elegir la función
~ 0 G(~x, ~x0 ) = 0 sobre toda la frontera ∂V . Esto ocurre, en el importante
de Green tal que n̂ · ∇
caso del operador Laplaciano, L̂ = ∇2 .

7.3. Simetrı́a de la función de Green


En el caso particular en el que el operador L̂ es el operador Laplaciano, vemos que la
función de Green (7.4) es simétrica bajo intercambio de argumentos, es decir, G(~x, ~x0 ) =
G(~x0 , ~x). Puede verificarse que esta propiedad puede implementarse en casos más generales,
siempre que se satisfagan ciertas condiciones de contorno. Para ver esto, usamos el resultado
general (7.14) en el caso particular en que elegimos Ψ(~x) = G(~x00 , ~x), con ~x0 ∈ V , y entonces
f (~x) = δ(~x00 − ~x). En este caso, encontramos que
Z
00
G(~x , ~x) = G(~x, ~x0 )δ(~x00 − ~x0 )dV 0
V I
h i
+ p(~x0 ) G(~x00 , ~x0 )∇
~ 0 G(~x, ~x0 ) − G(~x, ~x0 )∇
~ 0 G(~x00 , ~x0 ) · dS ~0 (7.27)
∂V I h i
00
= G(~x, ~x ) + p(~x0 ) G(~x00 , ~x0 )∇
~ 0 G(~x, ~x0 ) − G(~x, ~x0 )∇
~ 0 G(~x00 , ~x0 ) · dS
~ 0 . (7.28)
∂V

Por lo tanto, la función de Green es simétrica si la integral del segundo término en (7.28) se
anula. Esto puede ocurrir, tı́picamente, si la función de Green se anula en la frontera:

G(~x, ~x0 ) = 0, ∀ ~x0 ∈ ∂V (7.29)

76
7.4. Expresiones explı́citas de algunas funciones de Green
La función de Green definida por la ecuación (7.13) no es única. Si G1 (~x, ~x0 ) es solución,
entonces G2 (~x, ~x0 ) := G1 (~x, ~x0 ) + H(~x, ~x0 ) también es solución, si H(~x, ~x0 ) es solución del
problema homogéneo asociado,
L̂H(~x, ~x0 ) = 0. (7.30)
Este hecho permite considerar soluciones soluciones particulares simples como base para otras
funciones de Green, que pueden obtenerse agregando una solución de la ecuación homogénea de
modo que la función resultante satisfaga las condiciones de borde que simplifiquen el problema.

7.4.1. Operador Laplaciano


En este caso p(~x) = 1 y q(~x) = 0. En Fı́sica, usualmente se busca la función de Green
que “respete la homogeneidad e isotropı́a del espacio”. La primera condición (homogeneidad)
significa que G función que depende de ~x y ~x0 sólo a través de su diferencia ~x − ~x0 . La segunda
condición (isotropı́a=invariancia bajo rotaciones) implica que G sólo depende del módulo de
~x − ~x0 . Esto reduce la función de Green básicamente a una función de una variable, ya que
entonces
G(~x, ~x0 ) = G(|~x − ~x0 |). (7.31)

D=3
En coordenadas esféricas centradas en ~x0
 
2 1 d 2 dG
∇ G= 2 r = δ (3) (r) (7.32)
r dr dr

por lo tanto  
1 d 2 dG
r = 0, r 6= 0. (7.33)
r2 dr dr
La solución para r 6= 0 se encuentra entonces rápidamente integrando esta ecuación, obteniendo
β
G(r) = α + . (7.34)
r
Por otro lado, la condición (7.32) implica, usando el teorema de Gauss, que
Z Z
~ ~ dG 2
∇G · dS = r dΩ = 1, (7.35)
∂V ∂V dr

que requiere entonces que −4πβ = 1. Finalmente, en la mayorı́a de los problemas es con-
veniente elegir una función de Green que se anule para distancias muy grandes, es decir, tal
que lı́mr→∞ G(r) = 0. Esta condición impone que α = 0 (note que, equivalentemente, esta
condición implica agregar la solución homogénea H = −α a la función de Green original), y
por lo tanto
1 1
G(~x − ~x0 ) = − . (7.36)
4π |~x − ~x0 |

77
D=2
En coordenadas polares (ρ, ϕ) centradas en ~x0 , con G = G(ρ)
 
2 1d dG
∇ G= ρ = δ (2) (ρ). (7.37)
ρ dρ dρ
Integrando la ecuación para ρ 6= 0, es decir,
 
1d dG
ρ = 0, (7.38)
ρ dρ dρ
encontramos que
G(ρ) = α + β ln ρ. (7.39)
Nuevamente, el teorema de Gauss (versión 2D),
Z I
~ · dS ~= dG
∇G ρ dϕ = 2πβ = 1. (7.40)
∂S dρ
De esto modo, eliminando el término constante (que es una solución de la ecuación homogénea),
encontramos
1
G(~x − ~x0 ) = ln |~x − ~x0 |. (7.41)

7.4.2. Operador de Helmoltz


En el caso del operador de Helmholtz L̂ = ∇2 + k 2 , que corresponde al caso p(~x) = 1 y
q(~x) = k 2 .
En cada caso, buscaremos las funciones de Green de la forma G(~x, ~x0 ) = G(|~x − ~x0 |)

D=3
En coordenadas esféricas centradas en ~x0
 
2 2 1 d 2 dG
(∇ + k )G = 2 r + k 2 G = δ (3) (r), (7.42)
r dr dr
por lo tanto  
1 d 2 dG
r + k 2 G = 0, r 6= 0. (7.43)
r2 dr dr
Para solucionar (7.43) realizamos el cambio de variable G(r) = u(r)/r, que conduce a r2 dG/dr =
ru0 − u. Con esto, (7.43) se reduce a u00 + k 2 u = 0. Por lo tanto, las soluciones son de la forma
eikr e−ikr
G(r) = α +β . (7.44)
r r
Con esta solución, válida para r 6= 0, retornamos a la ecuación (7.42) que, luego de integrar
sobre una esfera de radi R centrada en r = 0 y usando el teorema de Gauss, implica que
I Z
1= ~ ~
∇G · dS + k 2
G dV (7.45)
I∂V ZV
dG 2
= r dΩ + k 2 Gr2 drdΩ (7.46)
∂V dr V
Z R
0 2 2
= 4πG R + 4πk Gr2 dr (7.47)
0
h i Z Rh i
= 4π α (ikR − 1) eikR − β (ikR + 1) e−ikR + 4πk 2 αeikr + βe−ikr r dr (7.48)
0
= −4π(α + β). (7.49)
78
De esta forma encontramos las condición
1
α+β =− , (7.50)

que permite escribir la solución (7.44) como

1 eikr sen(kr)
G(r) = − − iβ . (7.51)
4π r r
Note que el segundo término es una solución de la ecuación de Helmholtz homogñenea (es
proporcional a la función esférica de Bessel j0 (kr)). Por lo tanto, es posible elegir
0
+ 0 1 eik|~x−~x |
G (~x, ~x ) = − , (7.52)
4π |~x − ~x0 |

que corresponde a la elección β = 0. Análogamente, podeomos considerar la función de Green


0
1 e−ik|~x−~x |
G− (~x, ~x0 ) = − , (7.53)
4π |~x − ~x0 |

que se encuentra en el caso en que β = −1/4π.

D=2
En coordenadas polares (ρ, ϕ) centradas en ~x0 , con G = G(ρ)
 
2 2 1d dG
(∇ + k )G = ρ + k 2 G = δ (2) (ρ). (7.54)
ρ dρ dρ

Para ρ 6= 0,  
1d dG
ρ + k 2 G = 0. (7.55)
ρ dρ dρ
Definiendo x := kρ esta ecuación se reduce a
 
d dG
x x + x2 G(x) = 0, x 6= 0, (7.56)
dx dx

que es la ecuación de Bessel de orden ν = 0, ver (6.1). Por lo tanto, su solución general es de
la forma
(1) (2)
G(ρ) = αJ0 (kρ) + βN0 (kρ) = α̃H0 (kρ) + β̃H0 (kρ). (7.57)
Nuevamente, retornando a la ecuación original (7.54) e integrando sobre un cı́rculo S de radio
R centrado en ρ = 0, obtenemos
I Z
1= ~ ~
∇G · dS + k 2
G dS (7.58)
∂S S
 Z R 
dG 2
= 2π R (kR) + k Gρ dρ (7.59)
dρ 0
   Z kR   
0(1) 0(2) (1) (2)
= 2π kR α̃H0 (kR) + β̃H0 (kR) + α̃H0 (x) + β̃H0 (x) x dx . (7.60)
0

79
0(1) (1) (1) (1)
Usando las identidades H0 (x) = −H1 (x) y xH0 (x) = d[xH1 (x)]/dx y similarmente
0(2) 0(2)
para H0 y H1 , evaluamos la expresión anterior, obteniendo
 
(1) (2)
1 = −2π lı́m α̃xH1 (x) − β̃xH1 (x) (7.61)
x→0
 
2i 2i
= 2π α̃ − β̃ (7.62)
π π
= 4i(α̃ − β̃). (7.63)

Con esto, la solución adopta la forma


i (1) 
(1) (2)

G(ρ) = − H0 (kρ) + β̃ H0 (kρ) + H0 (kρ) (7.64)
4
i (1)
= − H0 (kρ) + 2β̃J0 (kρ). (7.65)
4

Tal como en el caso anterior, el término proporcional a β̃ es una solución del problema ho-
mogéneo. Si elegimos β̃ = 0, encontramos la siguiente función de Green:

i (1)
G(1) (~x, ~x0 ) = − H0 (k|~x − ~x0 |). (7.66)
4

Alternativamente, si se elige α̃ = 0, se encuentra


i (2)
G(2) (~x, ~x0 ) = H0 (k|~x − ~x0 |). (7.67)
4

80
Capı́tulo 8

Tensores

8.1. Tensores Cartesianos


En muchas áreas de la Fı́sica es útil, y frecuentemente necesario, definir objetos con múlti-
ples componentes respecto a un sistema de coordenadas (SC). En general, los valores de las
componentes de estos objetos cambian al ser calculados respecto de otro SC. En particular, es
posible clasificar este tipo de objetos de acuerdo a cómo cambian sus componentes bajo una
transformación de coordenadas (TC). Esta clasificación permite en particular definir tensores
como conjunto de cantidades (las “componentes del tensor”) tales que su relación al cambiar
de SC es sencilla (en particular, lineal y homogénea). En este tipo de análisis es importante
recordar que la definición de vectores y tensores depende del tipo de transformación (en gene-
ral, de coordenadas) bajo consideración. Esto se debe a que, algunas cantidades pueden formar
tensores respecto a un tipo de transformación, pero no serlo respecto a otro tipo de transforma-
ciones. En otras palabras, la definición de tensores es relativa a la transformación considerada.
En distintos contextos y teorı́as fı́sicas es conveniente considerar transformaciones de distinto
tipo (que en general están relacionadas con la invariancia de las leyes fı́sicas respectivas bajo
ese tipo de transformación). Por ejemplo, en mecánica de Newton (y en general, en teorı́as
no-relativistas) es conveniente asegurar que las leyes fı́sicas consideradas sean válidas indepen-
dientemente de la orientación de los ejes cartesianos elegidos para un determinado cálculo. En
otras palabras, es necesario considerar cómo cambian las diversas cantidades bajo rotaciones.
Para esto, es útil definir cantidades que sean vectores y tensores respecto a transformaciones
ortogonales de coordenadas (TOC, es decir, rotaciones). Por otro lado, en la teorı́a de Relati-
vidad Especial se considera que (ct, x, y, z) son las cuatro coordenadas asociadas a un evento
dado, respecto a un Sistema de Referencia Inercial (SRI). Las transformaciones de las coorde-
nadas del mismo evento entre dos SRI’s son en ese caso las transformaciones de Lorentz,
que pueden expresarse como una transformación lineal de las coordenadas (ct, x, y, z). En este
contexto es útil entonces considerar (definir) cantidades que transformen como “cuadritensores
bajo transformaciones de Lorentz. Note, sin embargo, que un vector respecto a TOC no define
necesariamente un vector bajo transformaciones de Lorentz.
Analizaremos primero la definición, las propiedades básicas y la utilidad práctica de los
tensores respecto a TOC.

8.2. Bases ortogonales


Considere un espacio Euclideano n-dimensional (En ), donde cada punto de En tiene coor-
denadas xi , i = 1, · · · , n, con respecto a un sistema ortogonal de coordenadas (SOC)
K.

81
Consideramos una base ortonormal (BON) {êi } (i = 1, · · · , n) de vectores, es decir, tal
que
êi · êj = δij , (8.1)

donde δij denota la Delta de Kronecker, definida como los n2 valores dados por
(
1, si i = j
δij := . (8.2)
0, si i 6= j

Note que esta Delta de Kronecker puede ser representada matricialmente por la matriz identidad
n × n.
En el espacio euclideano En es posible definir (consistentemente) el vector posición ~x,
que une el origen del SCO con un punto con coordenadas xi , por
n
X
~x = xi êi . (8.3)
i=1

En este sentido, las coordenadas xi son componentes del vector ~x en la base {êi }, y pueden
expresarse como
xi = ~x · êi . (8.4)
~ en sus respectivas compo-
En general, la BON {êi } permite descomponer cada vector A
nentes:
Xn
~
V = vi êi , (8.5)
i=1

donde
~ · êi .
vi = V (8.6)

8.3. Transformaciones ortogonales

Figura 8.1: Una transformación ortogonal (rotación) de bases ortonormales.

Consideremos ahora un nuevo SOC x0i relacionado con el SOC xi por medio de una trans-
formación ortogonal (TO) de coordenadas, es decir, una rotación, ver figura 8.1.
Esta transformación induce una nueva BON {ê0i }. Respecto a esta nueva base, un vector
~ tiene componentes ~vi tales que
V
Xn
~ =
V vi0 ê0i . (8.7)
i=1

82
Es posible relacionar las bases {êi } y {ê0i } ya que cada vector ê0i puede escribirse como una
combinación lineal de los vectores base êi , esto es, existe una relación de la forma
n
X
ê0i = aij êj . (8.8)
j=1

La condición que la transformación (8.8) sea efectivamente una TO, es decir, que transforme
una BON en una nueva BON impone (n(n + 1)/2) condiciones sobres los (n2 ) coeficientes (la
“matriz”) de transformación aij . En efecto,

δij = ê0i · ê0j (8.9)


n n
! !
X X
= aik êk · ajl êl (8.10)
k=1 l=1
n X
X n
= aik ajl (êk · êl ) (8.11)
k=1 l=1
Xn X n
= aik ajl δkl (8.12)
k=1 l=1
Xn
= aik ajk , (8.13)
k=1

y por lo tanto,
n
X
aik ajk = δij . (8.14)
k=1

En notación matricial,
A · (A> ) = I. (8.15)
Al calcular el determinante de (8.15) encontramos que

(det A)2 = 1, (8.16)

por lo que necesariamente det A = 1 o bien det A = −1. Si det A = 1 decimos que la TO
es una transformación propia, mientras que si det A = −1 ella es impropia. En todo caso
det A 6= 0, de modo que la inversa A−1 siempre existe y es única. De (8.15) vemos entonces
que la matriz inversa de una transformación ortogonal coincide con su transpuesta,

A−1 = A> , (8.17)

y por lo tanto se satisface además que

(A> ) · A = I, (8.18)

o, en notación de ı́ndices,
n
X
aki akj = δij . (8.19)
k=1

Puede verificarse a partir de estas propiedades básicas que el conjunto de todas las trans-
formaciones ortogonales en un espacio Euclideano n-dimensional forman un grupo1 : el grupo
ortogonal2 n-dimensional, O(n).
1
Ver, por ejemplo, http://es.wikipedia.org/wiki/Grupo_(matematica).
2
Ver, por ejemplo, http://es.wikipedia.org/wiki/Grupo_ortogonal.
83
Usando (8.4) y (8.8) podemos relacionar las coordenadas xi (asociadas a un mismo vector
posición ~x) en respecto a los dos SOC:

n
X
x0i = aij xj , (8.20)
j=1

8.4. Convención de suma de Einstein


Es conveniente introducir la convención de suma de Einstein, que establece que en toda
expresión donde se repitan dos ı́ndices iguales, se subentiende que existe una suma sobre todo
el rango de variación del ı́ndice. De esta forma, (8.5), (8.7), (8.8), (8.14), (8.14) y (8.4) pueden
abreviarse de la forma siguiente,
~ = vi êi ,
V (8.21)
~ = v 0 ê0 ,
V (8.22)
i i

ê0i = aij êj , (8.23)


aik ajk = δij , (8.24)
aki akj = δij , (8.25)
x0i = aij xj . (8.26)

8.5. Vectores
~ puede ser descompuesto tanto en una base ortonormal K co-
Como vimos, un vector V
0
mo en otra K . A partir de esto, podemos encontrar la forma en que están relacionadas las
~ respecto a dos SOC’s. Usando (8.6) y (8.23) encontramos, análogamente
componentes de V
a (8.26) que
vi0 = aij vj . (8.27)
Esta propiedad puede ser considerada como la definición de (las componentes de) un vector:

Definición: Diremos que el conjunto de n números {v1 , v2 , · · · , vn }, definidos


en cada BO (SOC), son las componentes de un vector (cartesiano) si y sólo si bajo
toda TO’s (e.d., definidas por una matriz A que satisface (8.17)), sus valores están
relacionados por
vi0 = aij vj . (8.28)

Note que en un espacio Euclideano las coordenadas xi de un punto de En transforman de


acuerdo a (8.26) bajo TO’s y pueden por lo tanto ser consideradas como las componentes de
un vector (del “vector posición” ~x)3 .
Otro ejemplo de vector es la velocidad de una partı́cula (moviéndose en En ). Si xi (t) son
las coordenadas de la trayectoria de la partı́cula en función del tiempo t entonces la velocidad
instantánea transforma como (“es”) un vector bajo TO’s. En efecto, la velocidad instantánea
3
El hecho que las coordenadas transformen como componentes de un vector no es un resultado general.
Al considerar la definición de vectores y tensores respecto a transformaciones generales de coordenadas, o
en particular bajo transformaciones no-lineales, no es posible considerar las coordenadas de los puntos del
espacio como componentes de un vector, simplemente porque su ley de transformación difiere de la ley válida
para los objetos definidos como vectores. En estos casos se define un vector por la ley de transformación
vi0 = (∂x0i /∂xj )vj , que en el caso de transformaciones lineales coincide con (8.28), ya que ∂x0i /∂xj = aij .

84
es definida, en cada SOC, por vi := dxi /dt. Entonces, en un SOC K 0 relacionado con K por
medio de (8.26), tendremos que las “nuevas” componentes de la velocidad serán

dx0i d dxj
vi0 := = (aij xj ) = aij = aij vj . (8.29)
dt dt dt
Aquı́ hemos asumido que los coeficientes aij son independientes del tiempo (constantes). De
forma análoga, la aceleración es también un vector bajo TO’s.
Note que no toda colección de n-valores definidos en cada SOC pueden considerarse com-
ponentes de un vector. Por ejemplo, la densidad de masa ρ de un cuerpo, su temperatura T ,
y la componente z de su momentum pz , son cantidades que pueden definirse en cada SOC,
sin embargo, el conjunto de 3 cantidades (ρ, T, pz ) no forman las componentes de un vector,
simplemente porque sus valores no están relacionados bajo TO’s de la forma (8.28).

8.6. Escalares
Un escalar es una cantidad que no cambia su valor al rotar el SOC, es decir, una cantidad
que permanece invariante bajo TO’s. Ejemplos de cantidades escalares en Mecánica Clásica
(no-relativista) son: la masa de un cuerpo, el volumen de un cuerpo, el coeficiente de roce
entre dos superficies, la temperatura, la energı́a cinética, etc. En términos matemáticos, si φ
es una cantidad definida en cada SOC, entonces ella es un escalar si y sólo si

φ0 = φ. (8.30)

Otro ejemplo de una cantidad escalar bajo TO’s es el producto escalar entre vectores. Si Ai y
Bi son las componentes de dos vectores A~yB~ respectivamente, entonces su producto escalar
permanece invariante:

A0i Bi0 = (aij Aj )(aik Bk ) (8.31)


= (aij aik )Aj Bk (8.32)
= δjk Aj Bk (8.33)
= Aj Bj (8.34)
= Ai Bi . (8.35)

8.7. Tensores
Tanto en Mecánica, como en Electrodinámica, es habitual encontrar cantidades con más
de un ı́ndice (es decir, con más de n componentes), del tipo Tij , Aijk , etc.
Por ejemplo, en Mecánica la relación entre el momentum angular de un cuerpo en rotación
y su vector velocidad angular involucra el tensor momento de inercia Iij . En efecto, considere
un cuerpo caracterizado por su densidad ρ(xi ), contenido en una región V , rotando rı́gidamente
respecto a un eje caracterizado por la dirección ω̂, con velocidad angular ω. Entonces su
momentum angular respecto al origen del SOC, ubicado sobre el eje de rotación, es dado por
Z
~ =
L ~x × d~p (8.36)
Z V

= ρ(x)~x × ~v dV (8.37)
ZV
= ρ(x)~x × (~ω × ~x) dV. (8.38)
V
85
~ × (B
Usando la identidad A ~ × C)
~ ≡ B(
~ A~ · C)
~ − C( ~ A
~ · B),
~ podemos escribir
Z
~
L= ω (~x · ~x) − ~x(~
ρ(x) [~ ω · ~x)] dV, (8.39)
V

o, en términos de componentes,
Z
Li = ρ(x) [ωi (xk xk ) − xi (ωj xj )] dV (8.40)
Z V

= ρ(x) [(δij ωj )(xk xk ) − xi (ωj xj )] dV (8.41)


VZ 
= ρ(x) [δij (xk xk ) − xi xj ] dV ωj , (8.42)
V

es decir,
Li = Iij ωj , (8.43)
con Z
Iij := ρ(x) [δij (xk xk ) − xi xj ] dV. (8.44)
V

Note que este resultado expresa el hecho que, en general, el momentum angular de un cuerpo
en rotación no es necesariamente paralelo al eje de rotación. Puede encontrar algunos ejemplos
de tensores momento de inercia para distintos cuerpos respecto a SOC particulares aquı́.
Analizemos ahora cómo cambian las componentes Iij cuando ellas son calculadas en otro
SOC. Si analizamos el movimiento respecto a un SOC rotado respecto al primero, de modo
que las coordenadas de cada punto son ahora dadas por (8.26), entonces tendremos que las
componentes Iij0 estarán dadas por
Z
Iij0 ρ0 (x0 ) δij (x0k x0k ) − x0i x0j dV 0
 
:= (8.45)
ZV
= ρ(x) [δij (xk xk ) − (ail xl )(ajm xm )] dV (8.46)
ZV
= ρ(x) [(ail ajl )(xk xk ) − (ail xl )(ajm xm )] (8.47)
ZV

= ρ(x) [(ail ajm δlm )(xk xk ) − (ail xl )(ajm xm )] dV (8.48)


V Z
= ail ajm ρ(x) [δlm (xk xk ) − xl xm ] dV (8.49)
V
= ail ajm Ilm . (8.50)

Note que aquı́ hemos usado el hecho que la masa se considera un escalar, de modo que
dm = ρ(x)dV = ρ0 (x0 )dV 0 . Además, la condición (8.24) fue usada en para reescribir el primer
término de (8.46) en la forma que aparece en la expresión (8.47).
En resumen,
Iij0 = ail ajm Ilm . (8.51)
Es simple verificar usando (8.51) y el hecho que ωi son componentes de un vector que Li ,
dado por (8.43), efectivamente satisface la ley de transformación de un vector.
Vemos que las n2 cantidades4 Iij cambian los valores de sus componentes al ser calculadas
en distintos SOC, pero estos valores están relacionados de una forma (relativamente) simple.
4
De las cuales sólo n(n + 1)/2 son linealmente independientes, debido a que Iij = Iji .
86
Las cantidades cuyas componentes transforman de la forma (8.51) son llamadas tensores de
rango 25 .

Definición: Diremos que el conjunto de n2 cantidades Tij (i, j = 1, . . . , n)


definidas en cada SOC, son las componentes de un tensor cartesiano de rango 2
si y sólo si, bajo cada TO (de la forma (8.26), con la condición (8.24)) sus valores
están relacionados por6

Tij0 = aik ajl Tkl . (8.52)

Note que la relación inversa es dada por


0
Tij = aki alj Tkl . (8.53)

Similarmente al caso del momentum angular, podemos analizar la energı́a cinética del
cuerpo rotando rı́gidamente,
Z
1
K= ~v 2 dm (8.54)
2 V
Z
1
= ρ ~v 2 dV (8.55)
2 V
Z
1
= ρ (~ω × ~x)2 dV (8.56)
2 V
Z
1  2 2
ω · ~x)2 dV

= ρ ω ~ ~x − (~ (8.57)
2 V
Z
1
ρ (ωi ωi )(xk xk ) − (ωi xi )2 dV
 
= (8.58)
2 V
Z
1
= ρ [(ωi ωj δij )(xk xk ) − ωi xi ωj xj ] dV (8.59)
2 V
Z 
1
= ωi ωj ρ [δij xk xk − xi xj ] dV , (8.60)
2 V

es decir,
1
K = Iij ωi ωj . (8.61)
2
Podemos verificar, como es de esperar, que la ley de transformación del tensor de inercia y
del vector velocidad angular bajo TO’s aseguran que la energı́a cinética es un escalar.
Note que si definimos las n2 cantidades Ωij := ωi ωj (en cada SOC), entonces Ωij forman
las componentes de un tensor de rango 2. En términos de este tensor, la energı́a cinética
puede escribirse como K = Iij Ωij /2. Vemos entonces que “contracciones” (es decir, sumas
de productos de componentes) entre tensores de rango 2 y dos vectores, ası́ como entre dos
tensores de segundo rango pueden definir cantidades escalares. Además, como ya vimos, la
contracción Iij ωj transforma como un vector. Estas propiedades corresponden a operaciones
generales posibles entre tensores: la multiplicación de tensores define nuevos tensores (de
rango superior), la contracción de tensores con vectores puede definir nuevos vectores o
escalares. Por otro lado, dado un tensor de rango 2, Aij , y un vector, Bi , podemos definir
las nuevas n3 cantidades, Cijk := Aij Bk , que transformará de la forma siguiente: Cijk 0 :=
5
Otros ejemplos de tensores de rango 2 útiles en Fı́sica son: el tensor dieléctrico de un medio polarizable
κij , el tensor de tensiones de un fluido tij , el tensor de conductividad de un material conductor σij , el
tensor de deformación de un medio elástico εij := (∂i uj + ∂j ui )/2 (ui es el vector desplazamiento).
6
En notación matricial, T0 = ATAT .
87
ail ajm akp Clmp . Cantidades que transforman de esta manera bajo TO’s son llamados tensores
de rango 3. Claramente, este tipo de construcción puede ser generalizada a objetos con más
ı́ndices (componentes).
Note, sin embargo, que no toda operación definida a partir de las componentes de tensores
definirá nuevos tensores vectores o escalares. Por ejemplo, la contracción Iii ωi := I11 ω1 +
I22 ω2 + · · · Inn ωn no es un escalar.
Generalizando los casos anteriores podemos definir un tensor cartesiano de rango r, de
la forma siguiente:

Definición: Diremos que el conjunto de nr cantidades Ti1 ···ır , definidas en cada


SOC, son las componentes de un tensor cartesiano de rango r si, bajo TO’s (de la
forma (8.26), con la condición (8.24)) sus valores están relacionados por

Ti01 i2 ···ir = ai1 j1 ai2 j2 · · · air jr Tj1 j2 ···jr . (8.62)

Algunas observaciones:

Si r = 2 recuperamos la definición de tensores de rango 2.

Si r = 1 recuperamos la definición de un vector. Por lo tanto, un vector es un tensor de


rango 1.

Podemos extender la definición general al caso r = 0, de modo que se reduzca a T 0 = T ,


y ası́ poder considerar a los escalares como tensores de rango 0.

La transformación inversa a (8.62) es Ti1 i2 ···ir = aj1 i1 aj2 i2 · · · ajr ir Tj01 j2 ···jr .

Si todas las componentes de un tensor se anulan en un SOC, entonces ellas se anularán


en todo SOC. Esta propiedad es una de las que hace el uso de tensores de gran utilidad,
puesto que la anulación de un tensor es entonces una propiedad intrı́nseca de éste,
independiente del SOC usado. En Fı́sica se busca encontrar y expresar las leyes de la
naturaleza de una forma que asegure su validez (al menos) en todo SOC. Si una ley
Fı́sica puede expresarse usando tensores (por ejemplo Ti1 ···ir = Qi1 ···ir ) entonces esta ley
será válida con la misma forma7 en todo SOC (Ti01 ···ir = Q0i1 ···ir ).

La Delta de Kronecker δij puede ser considerada como un tensor de rango 2, ya que
satisface δij = aik ajl δkl para TO’s. Es, sin embargo, un “tensor especial” puesto que
tiene la propiedad distintiva de que asume los mismos valores (1 ó 0) en cada SOC. Este
tipo especial de tensores son llamados tensores invariantes.

Algunos tensores de rango 3 útiles en Fı́sica son: el tensor piezoeléctrico dijk (que rela-
ciona el vector de polarización Pi con el tensor de tensiones tij en un material piezoeléctrico:
Pi = dijk tjk ), el tensor de susceptibilidad eléctrica de segundo orden χijk (que relaciona
la contribución de segundo orden a la polarización de un material dieléctrico no-lineal con el
(2)
campo eléctrico Pi = ε0 χijk Ej Ek ).
Un ejemplo de tensor de rango 4 es el tensor de electroestricción µijkl (que relaciona
el tensor de deformación de un material que presenta electroestricción con el campo eléctrico:
εij = µijkl Ej El . Ver esta página para otros ejemplos.
7
¿Por qué es esto algo deseable?. Porque se asume que todos los SOC son equivalentes en sus propiedades.

88
8.8. Operaciones tensoriales
8.8.1. Multiplicación por escalar
Si λ es un escalar (tensor de rango 0) y Ai1 ···ir son las componentes de un tensor de rango
r, entonces
Bi1 ···ir := λ Ai1 ···ir , (8.63)
son también componentes de un tensor de rango r.

8.8.2. Adición de tensores


Esta operación define un nuevo tensor a partir de dos tensores del mismo rango. El tensor
suma tiene como componentes, por definición, la suma de las componentes correspondientes
a cada tensor sumando. Si Ai1 ···ir y Bi1 ···ir son tensores de rango r, y definimos en cada SOC
las nr cantidades
Ci1 ···ir := Ai1 ···ir + Bi1 ···ir , (8.64)
entonces Ci1 ···ir son componentes de un tensor de rango r.
Observación: Las dos propiedades anteriores implican que el conjunto de todos los ten-
sores de un rango r dado forma un espacio vectorial lineal (de dimensión nr ).

8.8.3. Producto (“tensorial”) de tensores


Si Ai1 ···ir y Bi1 ···is son las componentes de dos tensores de rango r y s respectivamente,
entonces las nr+s cantidades definidas (en cada SOC) por

Ci1 ···ir+s := Ai1 ···ir · Bir+1 ···ir+s , (8.65)

son las componentes de un tensor de rango r + s.


Observación: Note que la posición de los ı́ndices en la definición del nuevo tensor es re-
levante. Por ejemplo, el tensor Cij := Ai Bj es en general diferente de Dij := Aj Bi . Vemos
también que estos tensores estarán relacionados por una (o más) permutaciones de ı́ndices,
Dij = Cji . Ver subsección 8.8.5 para mayores detalles.

8.8.4. Contracción de ı́ndices


Si Ai1 ···ir es un tensor de rango r, entonces las nuevas nr−2 cantidades obtenidas luego de
sumar sobre el s-ésimo y el t-ésimo ı́ndice,

Bi1 ···ir−2 := Ai1 ···j···j···ir−2 , 1 ≤ s ≤ r, 1 ≤ t ≤ r, (8.66)

son las componentes de un tensor de rango r − 2.


Note que podemos alternativamente escribir

Bi1 i2 ··· := Ai1 ···ir δis it . (8.67)

Por ejemplo, si Aijklm son las componentes de un tensor de rango 5 entonces Bijk := Ailjlk
son componentes de un tensor de rango 3. Además, K = Iij ωi ωj /2 es un escalar, v 2 = vi vi
es un escalar, Li = Iij Lj es un vector, δii = 3 es un escalar, etc.

89
8.8.5. Permutación de ı́ndices
La operación de permutar dos ı́ndices de un tensor, define un nuevo tensor del mismo rango.
Por ejemplo, si Aijk son las componentes de un tensor de rango 3, entonces

Bijk := Akji , (8.68)

son componentes de un nuevo tensor de rango 3.


En general, si Ai1 ···is−1 is is+1 ···it−1 it it+1 ···ir son las componentes de un tensor de rango r
entonces el arreglo de nr cantidades definidas por la permutación de la is -ésima componente
con la it -ésima componente,

Bi1 ···is−1 is is+1 ···it−1 it it+1 ···ir := Ai1 ···is−1 it is+1 ···it−1 is it+1 ···ir , 1 ≤ s ≤ r, 1 ≤ t ≤ r,
(8.69)
son también componentes de un tensor de rango r.

8.8.6. Tensores simétricos y antisimétricos


Un tensor de rango 2, Tij , se dice simétrico si y sólo si

Tij = Tji , ∀ i, j = 1, . . . , n. (8.70)

Similarmente, un tensor de rango 2, Tij , se dice antisimétrico si y sólo si

Tij = −Tji , ∀ i, j = 1, . . . , n. (8.71)

Las propiedades de simetrı́a y antisimetrı́a son independientes del SOC usado, es decir, son
propiedades intrı́nsecas del tensor. En efecto, si Tij = ±Tji entonces Tij0 = ±Tji0 para toda
TO, respectivamente.
Observación: Todo tensor de rango 2 puede ser descompuesto en una suma de un tensor
simétrico y uno antisimétrico (la “parte” simétrica y antisimétrica, respectivamente):

Tij ≡ Sij + Aij , (8.72)

con
1
Sij := T(ij) :=
(Tij + Tji ) = Sji , (8.73)
2
1
Aij := T[ij] := (Tij − Tji ) = −Aji . (8.74)
2
Además, la parte simétrica puede descomponerse en una parte “sin traza” y en un término
(proporcional a un) escalar:
1
Sij ≡6 S ij + δij S, (8.75)
n
con
1
S := Sii , 6 S ij := Sij − δij S (8.76)
n
Esta descomposición es “irreducible” con respecto a TO’s8 , ya que S(ij) ≡ Sij , A[ij] ≡ Aij ,
S[ij] ≡ A(ij) ≡ 0, 6 S ii ≡ 0.
Similarmente, un tensor de rango r ≥ 2 se dice (anti-)simétrico con respecto a la permu-
tación de dos ı́ndices dados is y it si y sólo si

Ti1 ···is ···it ···ir = (−)Ti1 ···it ···is ···ir . (8.77)


8
es decir, no se puede “reducir” nuevamente la parte (anti-)simétrica en nuevas “sub”-partes (anti-
)simétricas no triviales. Lo mismo ocurre con la traza
90
Por ejemplo, Aijkl es (anti-) simétrico respecto al primer y tercer ı́ndice si Aijkl = (−)Akjil ,
∀ i, j, k, l.
También puede definirse la operación de (anti-)simetrización con respecto a cualquier par
de ı́ndices:
1
Ti1 ···(is |···|it )···ir := (Ti1 ···is ···it ···ir + Ti1 ···it ···is ···ir ) , (8.78)
2
1
Ti1 ···[is |···|it ]···ir := (Ti1 ···is ···it ···ir − Ti1 ···it ···is ···ir ) . (8.79)
2
Por ejemplo,
1 1
Ai(j|k|l)m := (Aijklm + Ailkjm ) , Ai[j|k|l]m := (Aijklm − Ailkjm ) . (8.80)
2 2
Es posible extender el proceso de (anti-)simetrización a más ı́ndices, de modo que el tensor
resultante sea (anti-)simétrico respecto a la permutación de cada par de ı́ndices. Por ejemplo,
1
T(ijk) := (Tijk + Tjik + Tjki + Tkji + Tkij + Tikj ) (8.81)
6
1 
= T(ij)k + T(jk)i + T(ki)j , (8.82)
3

1
T[ijk] := (Tijk − Tjik + Tjki − Tkji + Tkij − Tikj ) (8.83)
6
1 
= T[ij]k + T[jk]i + T[ki]j . (8.84)
3
Un tensor completamente simétrico de rango r, Si1 ···ir = S(i1 ···ir ) , tiene (n+r −1)!/(n−
1)!r! componentes linealmente independientes.
Similarmente, un tensor completamente antisimétrico de rango r, Ai1 ···ir = A[i1 ···ir ] ,
tiene n!/(n − r)!r! componentes linealmente independientes. En particular, un tensor total-
mente antisimétrico de rango r = n, es decir de “rango máximo”, tiene sólo una componente
linealmente indepdendiente. Por ejemplo, en E3 , podemos expresar todas las componentes de
cualquier tensor de rango 3 totalmente antisimétrico Aijk en términos (por ejemplo) sólo de
su componente A123 :

A213 = −A123 , A231 = A123 , A112 = 0, (8.85)

etc.

8.9. Sı́mbolo de Levi-Civita y pseudo-tensores


Es útil definir, en En , el sı́mbolo de Levi-Civita9 , εi1 ···in , como un objeto con n ı́ndices (es
decir, tantos como la dimensión del espacio Euclideano en el que está definido), totalmente
antisimétrico, es decir,

εijkl··· = −εjikl··· = −εkjil··· = −εljki··· = · · · , (8.86)

tal que, en todo sistema de coordenadas,

ε123···n := 1. (8.87)
9
Tullio Levi-Civita: (1873-1941), matemático italiano. Ver http://es.wikipedia.org/wiki/Tullio_
Levi-Civita.
91
Esta definición es equivalente a

 1, si i1 · · · in es una permutación par de 12 · · · n
εi1 ···in = −1, si i1 · · · in es una permutación impar de 12 · · · n . (8.88)
0, en otro caso

Un importante resultado es que todo tensor totalmente antisimétrico de rango máximo, es decir
r = n (puesto que tiene sólo una componente linealmente independiente) es necesariamente
proporcional al sı́mbolo de Levi-Civita correspondiente. Esto permite escribir, por ejemplo,

Ai1 i2 ···in = A12···n εi1 i2 ···in . (8.89)

Una pregunta natural es si las componentes del sı́mbolo de Levi-Civita pueden ser conside-
radas como componentes de un tensor, es decir, si satisfacen la relación
?
ε0i1 ···in = ai1 j1 · · · ain jn εj1 ···jn . (8.90)

Ya que por definición εi1 ···in tiene los mismos valores (±1 ó 0) en todo sistema coordenado,
ε0i1 ···in = εi1 ···in . Por lo tanto, (8.90) es equivalente a

?
εi1 ···in = ai1 j1 · · · ain jn εj1 ···jn . (8.91)

Es directo verificar que el lado derecho de la expresión anterior es totalmente antisimétrico.


Por lo tanto, sólo necesitamos calcular una componente, por ejemplo, a1j1 a2j2 · · · anjn εj1 ···jn ,
ya que, de acuerdo con (8.89),

ai1 j1 · · · ain jn εj1 ···jn = (a1j1 a2j2 · · · anjn εj1 ···jn ) εi1 ···in . (8.92)

Realizaremos el cálculo explı́cito en el caso en que n = 3:

a1i a2j a3k εijk = · · · (8.93)


= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 (8.94)
+ a12 a23 a31 + a13 a21 a32 − a13 a22 a31 (8.95)

a11 a12 a13

= a21 a22 a23 (8.96)
a31 a32 a33
= det(A) (8.97)
=: a. (8.98)

Este resultado es general. En un espacio de dimensión n cualquiera, se tiene que

a1j1 a2j2 · · · anjn εj1 j2 ···jn ≡ det(A) =: a. (8.99)

Con esto podemos ver que en general no se satisface la relación (8.91), sino que

εi1 ···in = a−1 ai1 j1 · · · ain jn εj1 ···jn . (8.100)

Por lo tanto, el sı́mbolo de Levi-Civita no es un tensor con respecto a todas las TO’s, ya que
su ley de transformación no es en general la de un tensor. Recuerde que en el caso de TO’s los
valores posibles de a son a = ±1 para transformaciones propias o impropias, respectivamente.
Note además que debido a esto es posible reemplazar en (8.100) a−1 = a. Por otro lado, el
92
sı́mbolo de Levi-Civita sı́ se comporta como un tensor si nos restringuimos a sólo considerar
TO propias 10 (a = 1). En muchas aplicaciones esta restricción es suficiente.
En todo caso, el sı́mbolo de Levi-Civita es muy útil. Por ejemplo, en tres dimensiones, el
tradicional producto vectorial entre vectores C~ := A
~ ×B
~ puede escribirse usando este sı́mbolo.
~
Es simple verificar que las componentes de C pueden expresarse como

Ci = εijk Aj Bk . (8.101)

Note que, como consecuencia del resultado anterior, si Ai y Bi son las componentes de dos
vectores bajo TO’s, entonces los tres valores Ci dados por (8.101) no forman un vector. En
efecto, usando (8.101), (8.101) y la ley de transformación para las componentes de los dos
vectores involucrados, obtenemos que

Ci0 = a aij Cj . (8.102)

Verificamos ası́ que las componentes Ci no transforman, para transformaciones TO generales,


como las componentes de un vector. En particular, si la transformación definida por aij es
impropia, tendremos que
Ci0 = − aij Cj , (8.103)
mientras que para transformaciones propias la ley será la misma que para tensores. Conjuntos
Ci de cantidades que bajo una transformación ortogonal cualquiera transformen de acuerdo
a (8.102) son llamados pseudo-vectores. De las propiedades aquı́ analizadas es claro que la
diferencia entre un vector y un pseudo-vector sólo se manifiesta al estudiar cómo cambian
sus componentes bajo TO’s impropias. En otras palabras, si sólo se requiere tomar en cuenta
transformaciones propias (rotaciones), entonces no es necesario distinguir entre vectores y
pseudo-vectores, puesto que ambos tipos de cantidades tienen en ese caso idénticas propiedades.
La existencia de pseudo-vectores motiva (y en cierto sentido hace inevitable) definir otro
tipo de objetos bajo TO’s, los pseudo-tensores.

Definición: El conjunto de nr números Ti1 ···ır , definidos en cada SOC, son


componentes de un pseudo-tensor (cartesiano) de rango r si y sólo si bajo una TO
arbitraria, sus valores están relacionados por

Ti01 i2 ···ir = a ai1 j1 ai2 j2 · · · ain jn Tj1 j2 ···jr . (8.104)

Observaciones:

La suma (diferencia) de pseudo-tensores del mismo rango es un pseudo-tensor del mismo


rango.

El producto (tensorial) de dos pseudo-tensores es un tensor (respecto a T.O.C.).

El producto (tensorial) de un pseudo-tensor y un tensor es un pseudo-tensor.

La contracción de dos ı́ndices de un pseudo-tensor, define un nuevo pseudo-tensor.

Un pseudo-escalar (r = 0) es una cantidad que cambia de signo bajo una SOC impropia
(con a = −1).

En muchos casos no es necesario (o no se acostumbra) considerar TO impropias en el


análisis. En tales situaciones no es necesario distinguir entre tensores y pseudo-tensores.
10
Esta restricción define el grupo ortogonal especial: SO(N ), que es un subgrupo de O(N ).

93
Algunas identidades
Es simple verificar que el sı́mbolo de Levi-Civita puede escribirse como

δi1 1 δi1 2
· · · δi1 n
δi 1 δi 2
2 2 · · · δi2 n
εi1 ···in ≡ . .. .. .. , (8.105)
. . . . .

δin 1 δi 2
1 · · · δin n

ya que se satisfacen las dos propiedades que definen completamente este objeto. En efecto, se
verifica directamente que esta expresión implica ε12···n = 1, ya que en este caso el lado derecho
se reduce al determinante de la matriz identidad de dimensión n. Por otro lado, la expresión
asegura la antisimetrı́a total bajo intercambio de ı́ndices, ya que cada permutación de un par de
ı́ndices es equivalente a un intercambio de filas en la matriz del lado derecho y el determinante
cambia de signo bajo estas operaciones.
Usando la identidad (8.105) podemos calcular el producto de dos sı́mbolos de Levi-Civita:

δi1 1 δi1 2 · · · δi1 n δj1 1 δj1 2 · · · δj1 n

δi 1 δi 2 · · · δi n δj 1 δj 2 · · · δj n
2 2 2 2 2 2
εi1 i2 ···in εj1 j2 ···jn = . (8.106)

.. .. .. .. .. .. ..
.. . . . . . . .

δin 1 δi 2 · · · δin n δjn 1 δj 2 · · · δjn n
1 1

δi1 1 δi1 2 · · · δi1 n δj1 1 δj2 1 · · · δjn 1

δi 1 δi 2 · · · δi n δj 2 δj 2 · · · δj 2
2 2 2 1 2 n
= . (8.107)

. .. . . .. .. .. . . ..
.
. . . . . . .
δin 1 δi 2 · · · δin n δj n δj n · · · δjn n
1 1 2

δi1 q δj1 q δi1 q δj2 q · · · δi1 q δjn q

δi q δj q δi q δj q · · · δi q δj q
2 1 2 2 2 n
= (8.108)

.. .. . . ..

. . . .

δin q δj q δin q δj q · · · δin q δjn q
1 2

δ i1 j1 δ i1 j2 · · · δ i1 jn

δi j δi j · · · δi j
21 2 2 2 n
= . .. .. .. . (8.109)
.. . . .

δ in j δ in j · · · δ in jn
1 2

Note que, en (8.107) hemos reemplazado, en el segundo factor, el determinante de la matriz


por el de la correspondiente matriz transpuesta.
En el caso tridimensional (n = 3), desarrollando el determinante podemos escribir el resul-
tado anterior como

εijk εlmp ≡ δil δjm δkp + δjl δkm δip + δkl δim δjp
− δkl δjm δip − δjl δim δkp − δil δkm δjp (8.110)
= 3! δ[i|l δ|j|m δ|k]p . (8.111)

Contrayendo dos ı́ndices en la identidad (8.110) encontramos

εijk εlmk ≡ δil δjm − δim δjl . (8.112)

Si seguimos contrayendo, llegamos a

εijk εljk ≡ 2 δil , (8.113)


94
y, finalmente,
εijk εijk ≡ 6. (8.114)
Estas identidades son muy útiles. Por ejemplo, usando (8.112) podemos demostrar que
~ × B)
(A ~ · (C
~ × D)
~ ≡ (A
~ · C)(
~ B ~ · D)
~ − (A
~ · D)(
~ B ~ · C).
~ (8.115)

8.9.1. (Pseudo)-tensor dual


Un (pseudo-)tensor totalmente antisimétrico de rango r en n dimensiones tiene el mismo
número de componentes linealmente independientes (n!/(n − r)!r!) que un (pseudo-)tensor
totalmente antisimétrico de rango n − r. Debido a esto, es posible definir un pseudo-tensor
antisimétrico de rango n − r asociado a cada tensor antisimétrico de rango r, y viceversa. En
otras palabras, existe una relación uno a uno entre pseudo-tensores antisimétricos de rango
n − r y tensores antisimétricos de rango r.
Si Ai1 ···ir es un tensor totalmente antisimétrico de rango r, entonces podemos definir el
pseudo-tensor dual
1
Ai1 ···in−r := i1 ···in−r j1 ···jr Aj1 ···jr . (8.116)
r!
La relación inversa a (8.116) es
1
Ai1 ···ir := i ···i j ···j Aj ···j . (8.117)
(n − r)! 1 r 1 n−r 1 n−r

En particular, en un espacio euclideano 3-dimensional, tenemos que a cada tensor de rango 3


totalmente antisimétrico, Aijk , puede asociase un pseudo-escalar dual A tal que

1
A := εijk Aijk , Aijk := εijk A. (8.118)
3!
~ ij tiene asociado un pseudo-tensor Ai tal que
Similarmente, todo tensor antisimétrico A

1
Ai := εijk Ajk , Aij := εijk Ak . (8.119)
2
Además, a cada vector Ai puede asociarse un pseudo-tensor totalmente antisimétrico Aij , tal
que
1
Aij := εijk Ak , Ai := εijk Ajk . (8.120)
2
Finalmente, a cada escalar A puede asociarse un pseudo-tensor totalmente antisimétrico Aijk ,
tal que
1
Aijk := εijk A, A := εijk Aijk . (8.121)
3
Como estas relaciones son uno a uno, un tensor antisimétrico dado contiene la misma informa-
ción que su pseudo-tensor dual asociado, de modo que es posible elegir representar una canti-
dad fı́sica descrita por (pseuso-)tensores totalmente antisimétricos por el mismo tensor o por
su dual. Un ejemplo de esto es el momento multipolar magnético de rango 1, Mij = −Mji
que puede representarse alternativamente usando el (pseudo-)vector momento magnético
µi = εijk Mjk /2.

95
8.10. Análisis tensorial cartesiano
8.10.1. Campo tensorial
En Fı́sica, es común describir sistemas fı́sicos usando campos tensoriales, es decir, tensores
definidos en cada punto del espacio.

x ∈ En → Tensor de rango r, (8.122)


xi → Ti1 ···ir (xi ). (8.123)

Si r = 0 hablamos de un campo escalar (por ejemplo, el potencial electrostático φ(x)), si


r = 1 hablamos de un campo vectorial (por ejemplo, el campo eléctrico Ei (x)), si r = 2
hablamos de un campo tensorial de rango 2 (por ejemplo, el tensor dieléctrico κij (x) de un
medio inhomogéneo), etc.

8.10.2. Derivación
Dado que un campo tensorial de rango r, Ti1 ···ir (xi ), consta de nr cantidades definidas en
cada punto (de alguna región) de En , es posible derivar cada una de estas cantidades respecto
a las n coordenadas de las que depende, en cada SOC. Esto permite calcular nr+1 nuevas
cantidades: las nr+1 derivadas parciales
∂Ti1 ···ir
. (8.124)
∂xj

En general, adoptaremos la notación


∂Ti1 ···ir
∂j Ti1 ···in := . (8.125)
∂xj

Ahora probaremos que las nr+1 derivaras ∂j Ti1 ···ir forman un tensor cartesiano de rango r + 1
bajo TO’s.
En efecto, si denotamos Aji1 ···ir := ∂j Ti1 ···ir , entonces en otro SOC (x0i = aij xj ) tendremos
que

∂Ti01 ···ir
A0ji1 ···ir = (8.126)
∂x0j

= (ai1 j1 · · · air jr Tj1 ···jr ) (8.127)
∂x0j

= ai1 j1 · · · air jr (Tj1 ···jr ) . (8.128)
∂x0j

Usamos ahora la regla de la cadena para expresar las derivadas de Tj1 ···jr respecto a las “nuevas”
coodenadas x0i en función de sus derivadas respecto a las coordenadas “antiguas” xi . Usando
la convención de suma de Einstein tenemos que, para cualquier función Ψ, se satisface

∂Ψ(x0 ) ∂Ψ(x) ∂xk


0 = . (8.129)
∂xj ∂xk ∂x0j

En nuestro caso (es decir, para TO’s) tenemos que la transformación inversa está dada por
xi = aji x0j y por lo tanto,
∂xk
= ajk . (8.130)
∂x0j
96
Con esto, al substituir (8.129) en (8.128) obtenemos

∂Tj1 ···jr ∂xk


A0ji1 ···ir = ai1 j1 · · · air jr (8.131)
∂xk ∂x0j
∂Tj1 ···jr
= ajk ai1 j1 · · · air jr (8.132)
∂xk
= ajk ai1 j1 · · · air jr Akj1 ···jr , (8.133)

q.e.d.

8.10.3. Divergencia, rotor, Laplaciano


A partir del hecho que la derivación de un tensor cartesiano de rango r suministra un nuevo
tensor cartesiano de rango r + 1 es posible operar sobre este nuevo tensor con las operaciones
disponibles (addición, multiplicación por escalar, contracción, permutación de ı́ndices, etc.).
Por ejemplo, dado un campo vectorial con componentes Ai , podemos calcular ∂i Aj que es
un tensor de rango 2, y luego la contracción ∂i Ai que será entonces un escalar bajo TO’s. Es
fácil verificar que el escalar ∂i Ai corresponde a la divergencia del vector Ai , ya que

∂i Ai = ∂1 A1 + ∂2 A2 + · · · ∂n An . (8.134)

Por otro lado, dado un campo escalar φ, entonces ∂i φ es el campo vectorial gradiente del
campo φ. Además, la divergencia del gradiente de φ, es decir, el Laplaciano de φ (que es un
escalar bajo TO’s) puede entonces escribirse en notación de componentes como

∇2 φ = ∂i ∂i φ = ∂1 ∂1 φ + · · · ∂n ∂n φ = ∂12 φ + · · · ∂n2 φ, (8.135)

o, simplemente, en términos de operadores ∇2 = ∂i ∂i .


~ := ∇
En tres dimensiones (n = 3) podemos expresar el rotor C ~ ×A
~ de un campo vectorial
~
A como
Ci = εijk ∂j Ak , (8.136)
relación que en algunas ocasiones denotaremos
~ × A)
(∇ ~ i = εijk ∂j Ak . (8.137)

Observación: Note que el rotor de un vector es en realidad un pseudo-vector.

8.10.4. Integración
Otra operación comúnmente requerida es la integración de tensores, ya sea sobre una lı́nea,
superficie o volumen. A continuación probaremos que estas operaciones definen nuevos tensores
bajo TO’s.

Integrales de lı́nea
Si Ti1 ···ir (x) es un campo tensorial de rango r entonces, dada una curva C parametrizada
por xi = xi (λ), es posible definir las siguientes n integrales de lı́nea por cada una de las
componentes del tensor original:
Z
Cji1 ···ir := Ti1 ···ir (x) dxj , (8.138)
C

97
o, más explı́citamente,
Z λ2  
dxj
Cji1 ···ir := [Ti1 ···ir (x(λ))] (λ) dλ. (8.139)
λ1 dλ
Entonces, en otro SOC, tendremos que
 dx0j
Z λ2  
0
 0
Cji1 ···ir = Ti1 ···ir (x(λ)) (λ) dλ. (8.140)
λ1 dλ
Z λ2  
d(ajk xk )
= [ai1 j1 · · · air jr Tj1 ···jr (x(λ))] (λ) dλ (8.141)
λ1 dλ
Z λ2  
dxk
= ajk ai1 j1 · · · air jr [Tj1 ···jr (x(λ))] (λ) dλ (8.142)
λ1 dλ
= ajk ai1 j1 · · · air jr Ckj1 ···jr . (8.143)

Integrales de superficie
Similarmente, podemos definir integrales de superficie. Si ni (x) es un (pseudo-)vector uni-
tario normal a la superficie S en el punto xi podemos definir las nr+1 cantidades
Z
Cji1 ···ir := Ti1 ···ir (x) dSj , dSj := nj dS. (8.144)
S
Note que aquı́ dS denota el elemento de superficie que, por definición, es un escalar, es decir,
dS 0 = dS.
Tal como en el caso de las integrales de lı́nea, es directo demostrar que estas nuevas
cantidades son componentes de un (pseudo-)tensor de rango r + 1:
Z
0
Cji1 ···ir := Ti01 ···ir (x) n0j dS 0 (8.145)
ZS

ai1 j1 · · · air jr Tj1 ···jr (x0 ) (ajk nk ) dS


 
:= (8.146)
S Z
:= ajk ai1 j1 · · · air jr Tj1 ···jr (x) nk dS (8.147)
S
:= ajk ai1 j1 · · · air jr Ckj1 ···jr . (8.148)

Integrales de volumen
Finalmente, consideraremos la definición de nuevos tensores por medio de la integración en
un volumen (n-dimensional). A partir del campo tensorial de rango r, Ti1 ···ir (x), definimos
Z
Ci1 ···ir := Ti1 ···ir (x) dn x, (8.149)
V
que son componentes de un nuevo tensor de rango r respecto a TO’s, ya que
Z
0
Ci1 ···ir = Ti01 ···ir (x) dn x0 (8.150)
ZV 0
∂x n
= [ai1 j1 · · · air jr Tj1 ···jr (x)] d x (8.151)
V ∂x
Z
= ai1 j1 · · · air jr Tj1 ···jr (x) |a| dn x (8.152)
ZV
= a i1 j1 · · · a ir jr Tj1 ···jr (x) dn x (8.153)
V
= ai1 j1 · · · air jr Cj1 ···jr . (8.154)
98
Teorema de Gauss y Stokes
El teorema fundamental del cálculo (en varias variables) adopta, en notación tensorial, la
forma
Z B
(∂k Ti1 ···ir ) dxk = Ti1 ···ir (B) − Ti1 ···ir (A), (8.155)
C,A

donde C es una curva que une los puntos A y B.


En tres dimensiones (n = 3), tenemos que la forma general del Teorema de Green es
Z I
∂k Ti1 ···k···ir (x) dV = Ti1 ···k···ir (x) dSk . (8.156)
V ∂V

Es simple verificar que este teorema puede generalizarse a


Z I
∂j Ti1 ···ir (x) dV = Ti1 ···ir (x) dSj , (8.157)
V ∂V

es decir, al caso en que no existe necesariamente una contracción de ı́ndices a ambos lados de
la igualdad.
Por otro lado, el teorema de Stokes, adopta la forma
Z I
εijk ∂j Ti1 ···k···ir dSi = Ti1 ···k···ir dxk . (8.158)
S ∂S

Nuevamente, este teorema puede ser generalizado al caso sin contracción:


Z I
εijk ∂j Ti1 ···ir dSi = Ti1 ···ir dxk . (8.159)
S ∂S

99
Apéndice A

La Delta de Dirac

A.1. La “función” δ
Decimos que δ(x) es una delta de Dirac, si
δ(x − a) = 0 ∀x 6= a, (A.1)
donde a ∈ R, pero
Z c 
0 si x ∈
/ (b, c),
f (x)δ(x − a)dx = (A.2)
b f (a) si x ∈ (b, c),
para toda función f de clase C 1 .
La noción general de una delta de Dirac es que ésta se anula para todo punto, excepto en
x = a, y que allı́ “asume un valor divergente”, pero tal que
Z ∞
δ(x − a)dx = 1. (A.3)
−∞
La delta de Dirac, que en realidad no es una función en sentido estricto, puede ser entendida
como el lı́mite de una sucesión de funciones. Por ejemplo, si definimos
r
n −n(x−a)2
Dn (x − a) := ·e , n = 1, 2, 3, . . . , (A.4)
π
entonces es posible probar que Z ∞
Dn (x)dx = 1, (A.5)
−∞
y además 
0 ∀x 6= a,
lı́m Dn (x) = (A.6)
n→∞ ∞ para x = a.
Z c 
0 si x ∈
/ (b, c),
lı́m Dn (x)f (x)dx = (A.7)
n→∞ b f (a) si x ∈ (b, c).
Por lo tanto, escribimos
lı́m Dn (x) = δ(x − a). (A.8)
n→∞
Una descripción matemáticamente consistente de la delta de Dirac puede ser dada en el
marco de la Teorı́a de Distribuciones.
Otros ejemplos de sucesiones de funciones que convergen a una Delta de Dirac δ(x) son:
n 1
Dn (x) = , (A.9)
π 1 + n2 x2
1 sen2 (nx)
Dn (x) = . (A.10)
nπ x2
100
A.1.1. Derivada de la delta de Dirac
Considerando la función δ como si fuese una función normal, encontramos, integrando por
partes, que
Z ∞ Z ∞
0 ∞
δ (x − a) f (x)dx = [δ(x − a)f (x)]−∞ − δ(x − a)f 0 (x)dx = −f 0 (a), (A.11)
−∞ | {z } | {z } −∞
d =0
:= dx δ(x−a)

es decir, Z ∞
δ 0 (x − a)f (x)dx = −f 0 (a). (A.12)
−∞

A.2. Delta de Dirac evaluada en una función y cambios de


variable
Por otro lado, de las reglas de cambio de variables, obtenemos
X δ(x − xi )
δ(g(x)) = , (A.13)
|g 0 (x)|
i

donde xi son las soluciones nulas (simples!) de g, e.d., que satisfacen g(x) = 0.
Por ejemplo,
1
δ(ax) = δ(x). (A.14)
|a|
Esto puede probarse de la forma siguiente: Si a > 0 el cambio de variable de integración y = ax
conduce a
Z ∞ Z ∞ Z ∞
y 1 1
δ(ax)f (x) dx = δ(y)f ( ) dy = f (0) = δ(x)f (x) dx. (A.15)
−∞ −∞ a a −∞ a

Si a < 0, entonces el mismo cambio de variable conduce a


Z ∞ Z −∞ Z ∞
y 1 1
δ(ax)f (x) dx = δ(y)f ( ) dy = − f (0) = − δ(x)f (x) dx. (A.16)
−∞ ∞ a a −∞ a

Estos dos resultados son equivalentes a la identidad (A.14).


Como caso particular, si a = −1 (A.14), encontramos

δ(−x) = δ(x), (A.17)

e.d., la función δ es una función par.

A.2.1. Otras identidades


La identidad
s(x + a)δ(x) = s(a)δ(x), (A.18)
donde s(x) es una función continua y a una constante, se sigue de
Z ∞ Z ∞
s(x + a)δ(x)f (x) dx = s(a)f (0) = s(a)δ(x)f (x) dx. (A.19)
−∞ −∞

Un caso particular de (A.18) es


xδ(x) = 0. (A.20)
101
A.2.2. Representación integral
La expresión
Z ∞
1
δ(x) = eikx dk (A.21)
2π −∞

puede ser derivada de la siguiente forma: La transformada de Fourier f˜(k) de una función f (x)
es definida por Z ∞
1
f (x) = eikx f˜(k) dk, (A.22)
2π −∞
donde Z ∞
f˜(k) := e−ikx f (x) dx. (A.23)
−∞

Para f (x) = δ(x) obtenemos


Z ∞
f˜(k) := e−ikx δ(x) dx = e−ikx = 1, (A.24)

−∞ x=0

de modo que (A.22) se reduce a (A.21).

A.2.3. La delta de Dirac tridimensional


La definición de la delta de Dirac tridimensional δ (3) (~x − ~a) es análoga a aquella de la
versión unidimensional:
δ (3) (~x − ~a) = 0, ∀ ~x 6= ~a, (A.25)
pero Z 
0 si ~a ∈
/ V,
δ (3) (~x − ~a)f (~x) dV = (A.26)
V f (~a) si ~a ∈ V.
Esta definición puede ser usada, por ejemplo, para describir la densidad de carga de una carga
puntual situada en ~x0 :
ρ(~x) = q δ (3) (~x − ~x0 ), (A.27)
de modo que Z
ρ(~x) dV = q. (A.28)
R3
Además, la siguiente identidad es de mucha utilidad:

1
∇2 = −4π δ 3 (~x − ~x0 ). (A.29)
|~x − ~x0 |

Para probar esta identidad, debe mostrarse que: a) ∇2 |~x−~ 1


x 6= ~x0 , lo que puede
x0 | = 0, ∀ R~
1
ser directamente comprobado calculando las derivadas respectivas, y b) V f (~x)∇2 |~x−~ x0 | dV =
−4πf (~x ) para cualquier función de clase C en el volumen V , que contiene el punto ~x0 . Para
0 1

probar esto último, es conveniente usar coordenadas esféricas centradas en el punto ~x0 , de
1 1
modo que |~x−~ x0 | = r . Además, como la propiedad a) es válida es posible reemplazar el dominio
de integración V (que incluye el punto ~x0 ) por una esfera E de radio R, centrada en ~x0 , de

102
modo que
Z Z
21 1
f (~x)∇ dV = f (~x)∇2 dV (A.30)
V r r
ZE  
~ ~ 1
= f (~x)∇ · ∇ dV (A.31)
E r
Z    
~ ~ 1 ~ ~ 1
= ∇ · f∇ − ∇f · ∇ dV (A.32)
r r
IE   Z
= f∇~ 1 · dS ~− ~ ·∇
∇f ~ 1 dV (A.33)
∂E r r
I ZE
1 ~ + (∇f ~ · r̂) 1 dV
= − f 2 (r̂ · dS) (A.34)
r r2
I∂E Z E
1 ∂f 1
= − f 2 dS + dV (A.35)
r ∂r r2
I∂E Z E
∂f
= − f dΩ + drdΩ. (A.36)
∂E E ∂r

Si f es una función de clase C 1 , ambos términos son finitos


H y su suma es independiente de
R. En el lı́mite R → 0, el primer término tiende a −f |r=0 dΩ = −4πf (~x0 ), mientras que el
segundo tiende a cero debido a la integral sobre la variable r, desde r = 0 hasta r = R. De
este modo, obtenemos
Z  I Z 
21 ∂f
f (~x)∇ dV = lı́m − f dΩ + drdΩ (A.37)
V r R→0 ∂E E ∂r
= −4πf (~x0 ) + 0. (A.38)

103
Apéndice B

Coordenadas curvilineas

B.1. Coordenadas Cartesianas


Vector
~ = Ax x̂ + Ay ŷ + Az ẑ
A (B.1)

Gradiente:

~ ∂Ψ ∂Ψ ∂Ψ
∇Ψ = x̂ + ŷ + ẑ (B.2)
∂x ∂y ∂z
Divergencia

~ ·A
~ = ∂Ax ∂Ay ∂Az
∇ + + (B.3)
∂x ∂y ∂z
Rotor:
     
~ ×A
~ = ∂Az ∂Ay ∂Ax ∂Az ∂Ay ∂Ax
∇ − x̂ + − ŷ + − ẑ (B.4)
∂y ∂z ∂z ∂x ∂x ∂y

Laplaciano

∂2Ψ ∂2Ψ ∂2Ψ


∇2 Ψ = + + (B.5)
∂x2 ∂y 2 ∂z 2
Desplazamiento:

d~x = dxx̂ + dy ŷ + dz ẑ (B.6)

Elemento de superficie:
~ = dy dz x̂ + dx dz ŷ + dx dy ẑ
dS (B.7)

Elemento de volumen:

dV = dx dy dz (B.8)

104
B.2. Coordenadas Cilı́ndricas
Definición:
x = ρ cos ϕ, y = ρ sen ϕ, z=z (B.9)
p
ρ = x2 + y 2 , ϕ = arctan (y/x), z=z (B.10)
Vector
~ = Aρ ρ̂ + Aϕ ϕ̂ + Az ẑ
A (B.11)
Gradiente:

~ ∂Ψ 1 ∂Ψ ∂Ψ
∇Ψ = ρ̂ + ϕ̂ + ẑ (B.12)
∂ρ ρ ∂ϕ ∂z
Divergencia

~ ·A
~ = 1 ∂ (ρAρ ) 1 ∂Aϕ ∂Az
∇ + + (B.13)
ρ ∂ρ ρ ∂ϕ ∂z
Rotor:
   
~ ×A
~ = 1 ∂Az ∂A ϕ ∂A ρ ∂A z
∇ − ρ̂ + − ϕ̂
ρ ∂ϕ ∂z ∂z ∂ρ
 
1 ∂ (ρAϕ ) ∂Aρ
+ − ẑ (B.14)
ρ ∂ρ ∂ϕ
Laplaciano

1 ∂2Ψ ∂2Ψ
 
2 1 ∂ ∂Ψ
∇ Ψ = ρ + 2 + (B.15)
ρ ∂ρ ∂ρ ρ ∂ϕ2 ∂z 2
(B.16)

Desplazamiento:

d~x = dρρ̂ + ρdϕϕ̂ + dz ẑ (B.17)

Elemento de superficie:
~ = ρ dϕ dz ρ̂ + dρ dz ϕ̂ + ρ dρ dϕ ẑ
dS (B.18)

Elemento de volumen:

dV = ρ dρ dϕ dz (B.19)

B.3. Coordenadas Esféricas


Definición:

x = r sen θ cos ϕ, y = r sen θ sen ϕ, z = r cos θ (B.20)


p
p z x2 + y 2
r= x2 + y 2 + z 2 , θ = arc cos( ) = arctan , ϕ = arctan (y/x) (B.21)
r z
Vector
~ = Ar r̂ + Aθ θ̂ + Aϕ ϕ̂
A (B.22)
105
Gradiente:

~ ∂Ψ 1 ∂Ψ 1 ∂Ψ
∇Ψ = r̂ + θ̂ + ϕ̂ (B.23)
∂r r ∂θ r sen θ ∂ϕ
Divergencia

1 ∂ r2 Ar

~ ·A
~ = 1 ∂ 1 ∂Aϕ
∇ 2
+ (Aθ sen θ) + (B.24)
r ∂r r sen θ ∂θ r sen θ ∂ϕ
Rotor:
 
~ ×A
~ = 1 ∂ ∂Aθ
∇ (Aϕ sen θ) − r̂
r sen θ ∂θ ∂ϕ
   
1 1 ∂Ar ∂ 1 ∂ ∂Ar
+ − (rAϕ ) θ̂ + (rAθ ) − ϕ̂ (B.25)
r sen θ ∂ϕ ∂r r ∂r ∂θ

Laplaciano

∂2Ψ
   
2 1 ∂ 2 ∂Ψ 1 ∂ ∂Ψ 1
∇ Ψ = r + 2 sen θ + 2 (B.26)
r2 ∂r ∂r r sen θ ∂θ ∂θ r sen2 θ ∂ϕ2

Desplazamiento:

d~x = drr̂ + rdθθ̂ + r sen θdϕϕ̂ (B.27)

Elemento de superficie:
~ = r2 sen θ dθ dϕ r̂ + r sen θ dr dϕ θ̂ + r dr dθ ϕ̂
dS (B.28)

Elemento de volumen:

dV = r2 sen θ dr dθ dϕ (B.29)

Solución general (finita) de la Ecuación de Laplace:


∞ X
X l h i
Ψ(r, θ, ϕ) = Alm · rl + Blm · r−(l+1) · Ylm (θ, ϕ). (B.30)
l=0 m=−l

106
Apéndice C

Función Gamma

1 · 2 · 3···n
Γ(z) := lı́m nz , (C.1)
n→∞ z(z + 1)(z + 2) · · · (z + n)
Z ∞
Γ(z) := e−t tz−1 dt, <(z) > 0, (C.2)
0
∞ 
1 γz
Y z  −z/n
:= ze 1+ e , (C.3)
Γ(z) n
n=1
donde γ = 0,577216 · · · es la constante de Euler-Mascheroni1 .
Γ(z + 1) = zΓ(z), (C.4)
Γ(1 + n) = n!, n = 0, 1, 2, · · · , (C.5)
π
Γ(z)Γ(1 − z) = . (C.6)
sen(zπ)
Γ(−n) → ±∞, n = 0, 1, 2, · · · . (C.7)

Γ(1/2) = π. (C.8)

0
Γ(x)

6
4 3 2 1 0 1 2 3 4
x

Figura C.1: La función Γ con argumento real. Código Python aquı́.


1
γ := lı́mn→∞ (1 + 1/2 + 1/3 + · · · 1/n − ln n).
107
Apéndice D

Otras funciones especiales

D.1. Funciones de Laguerre


Gráficos

20
L0(x)
L1(x)
15 L2(x)
L3(x)
L4(x)
10
Ln (x)

10
5 0 5 10 15 20
x

Figura D.1: Funciones de Laguerre

Ecuación diferencial

d2 y dy
x 2
+ (1 − x) + ny = 0 (D.1)
dx dx

Ecuación diferencial (forma de Sturm-Liouville)

 
d −x
 dy
xe + ne−x y = 0 (D.2)
dx dx

Fórmula de Rodrigues

ex dn n −x
Ln (x) = (x e ) (D.3)
n! dxn
108
Función generadora

xt ∞
e− 1−t X Ln (x)
= tn (D.4)
(1 − t) n!
n=0

Relaciones de Recurrencia

(n + 1)Ln+1 (x) = (2n + 1 − x)Ln (x) − n2 Ln−1 (x) (D.5)

Ortogonalidad

Z ∞
Lm (x)Ln (x)e−x dx = δmn (D.6)
0

109
D.2. Funciones de Laguerre asociadas
Ecuación diferencial

d2 y dy
x 2
+ (k + 1 − x) + ny = 0 (D.7)
dx dx

Ecuación diferencial (forma de Sturm-Liouville)

 
d  k+1 −x  dy
x e + ne−x xk y = 0 (D.8)
dx dx

Fórmula de Rodrigues

ex x−k dn n+k −x
Lkn (x) = (x e ) (D.9)
n! dxn

Función generadora

xt ∞
e− 1−t
k k
X Lk (x)
n
(−1) t = tn (D.10)
(1 − t)k+1 n!
n=0

Relaciones de Recurrencia

n−k+1 k  
Ln+1 (x) + x + m − 2n − 1 Lm 2 m
n (x) + n Ln−1 (x) = 0 (D.11)
n+1

Ortogonalidad

Z ∞
Γ(n + k + 1)!
Lkm (x)Lkn (x)e−x xk dx = δmn (D.12)
0 n!

Aplicación en Fı́sica
Solución radial de ecuación de Schrödinger en potencial de Coulomb (átomo hidrogenoi-
de).

110
D.3. Funciones de Hermite
Gráficos

40

20
Hn (x)

20 H0(x)
H1(x)
H2(x)
40 H3(x)
H4(x)
3 2 1 0 1 2 3
x

Figura D.2: Funciones de Hermite

Ecuación diferencial

d2 y dy
2
− 2x + 2ny = 0 (D.13)
dx dx

Ecuación diferencial (forma de Sturm-Liouville)

 
d  −x2  dy 2
e + 2ne−x y = 0 (D.14)
dx dx

Fórmula de Rodrigues

2 dn −x2
Hn (x) = (−1)n ex e (D.15)
dxn

Función generadora


2tx−t2
X Hn (x)
e = tn (D.16)
n!
n=0

Relaciones de Recurrencia

Hn+1 (x) = 2xHn (x) − 2nHn−1 (x) (D.17)

111
Ortogonalidad

Z ∞ √
2
Hm (x)Hn (x)e−x dx = 2n n! πδmn (D.18)
−∞

Aplicación en Fı́sica
Oscilador armónico cuántico

112
D.4. Polinomios de Chebyshev
Gráficos

3
T0(x)
T1(x)
2 T2(x)
T3(x)
T4(x)
1
Tn (x)

3
1.0 0.5 0.0 0.5 1.0
x

Figura D.3: Polinomios de Chebyshev

http://en.wikipedia.org/wiki/File:Chebyshev_Polynomials_of_the_1st_Kind_
(n%3D0-5,_x%3D(-1,1)).svg

Ecuación diferencial

d2 y dy
(1 − x2 ) 2
−x + n2 y = 0 (D.19)
dx dx

Ecuación diferencial (forma de Sturm-Liouville)

n2
  dy 
d p 2
1−x +√ y=0 (D.20)
dx dx 1 − x2

Fórmula de Rodrigues


(−1)n 1 − x2 dn 1
Tn (x) = n
(1 − x2 )n− 2 (D.21)
(2n − 1)(2n − 3) · · · 1 dx

Función generadora


1 − tx X
= Tn (x)tn (D.22)
1 − 2tx + t2
n=0

Relaciones de Recurrencia

Tn+1 (x) = 2xTn (x) − Tn−1 (x) (D.23)


113
Ortogonalidad

Z 1 
Tm (x)Tn (x) π m=n=0
√ dx = π (D.24)
−1 1 − x2 2 δmn m=n=N ∈N

Aplicación en Fı́sica
Solución numérica de ecuaciones de fluidos.

114
Bibliografı́a

[1] Sean Mauch, Introduction to Methods of Applied Mathematics or Advanced Mathematical


Methods for Scientists and Engineers (2011), http://www.its.caltech.edu/~sean/.
https://bitbucket.org/seanmauch/applied_math.

[2] G. Arfken and H.Weber, Mathematical Methods for Physicists, Fifth Edition, Academic
Press, (2001).

[3] E. Butkov, Mathematical Physics, Addison-Wesley (1968).

[4] S. Hassani. Mathematical Physics: A Modern Introduction to Its Foundations, Springer


(1999).

[5] L. Santaló, Vectores y Tensores con sus aplicaciones, Editorial Universitaria de Buenos
Aires, Séptima Edición (1969).

115

Vous aimerez peut-être aussi