Académique Documents
Professionnel Documents
Culture Documents
Esta obra ha sido publicada bajo una licencia GPL v3. El código fuente (pdf)LATEX, ası́
como las figuras en formato editable están disponibles en el repositorio GitHub del proyecto.
Albert Einstein.
i
Índice general
Prefacio I
1. Análisis de Fourier 1
1.1. Resumen: Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Propiedades Generales . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2. Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.3. Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.4. Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.5. Fenómeno de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Cambio de Intervalo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2. La transformada de Fourier 7
2.0.1. Ejemplo: Distribución Gaussiana . . . . . . . . . . . . . . . . . . . . . 8
2.1. Propiedades de la Transformada de Fourier . . . . . . . . . . . . . . . . . . . . 9
2.1.1. Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.2. Transformada de Fourier de la derivada de una función . . . . . . . . . 9
2.1.3. Teorema de Convolución . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.4. Teorema de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.5. Ancho de la función y su transformada . . . . . . . . . . . . . . . . . . 12
2.2. Generalización a mayores dimensiones . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Transformada de Fourier seno y coseno . . . . . . . . . . . . . . . . . . . . . . 14
ii
5.1.3. Relación de ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.1.4. Series de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.1.5. Solución en serie de Potencias (Método de Frobenius) . . . . . . . . . 33
5.1.6. Funciones de Legendre de segunda especie . . . . . . . . . . . . . . . . 37
5.2. Funciones asociadas de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2.1. Expresiones explı́citas . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2.2. Fórmula de Rodrigues . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2.3. Función generadora . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.4. Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.5. Paridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.6. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3. Funciones Armónicas Esféricas . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6. Funciones de Bessel 50
6.1. Ecuación de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.2. Solución en serie en torno a z = 0 . . . . . . . . . . . . . . . . . . . . . . . . 50
6.3. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.3.1. Representación integral *** . . . . . . . . . . . . . . . . . . . . . . . . 56
6.3.2. Forma asintótica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.3.3. Ceros de las funciones de Bessel . . . . . . . . . . . . . . . . . . . . . 57
6.3.4. Relaciones de Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . 58
6.4. Funciones de Bessel de orden entero . . . . . . . . . . . . . . . . . . . . . . . 59
6.4.1. Función generadora de Funciones de Bessel de orden entero . . . . . . 60
6.4.2. Representación integral . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.4.3. Sumatorias de funciones de Bessel . . . . . . . . . . . . . . . . . . . . 62
6.5. Funciones de Bessel de orden semi-entero . . . . . . . . . . . . . . . . . . . . 63
6.6. Funciones de Bessel de segunda especie . . . . . . . . . . . . . . . . . . . . . 63
6.6.1. Representación integral . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.6.2. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.7. Funciones de Hankel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.8. Funciones modificadas de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.8.1. Funciones Modificadas de Bessel de segunda especie . . . . . . . . . . 67
6.9. Funciones Esféricas de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.9.1. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.9.2. Expresiones explı́citas . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.9.3. Relaciones de Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . 71
6.9.4. Funciones esféricas de Hankel . . . . . . . . . . . . . . . . . . . . . . . 71
6.9.5. Forma asintótica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.9.6. Funciones modificadas esféricas de Bessel . . . . . . . . . . . . . . . . 71
7. Funciones de Green 74
7.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.2. Generalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.3. Simetrı́a de la función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . 76
7.4. Expresiones explı́citas de algunas funciones de Green . . . . . . . . . . . . . . 77
7.4.1. Operador Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.4.2. Operador de Helmoltz . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
iii
8. Tensores 81
8.1. Tensores Cartesianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.2. Bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.3. Transformaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.4. Convención de suma de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.5. Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.6. Escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.7. Tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.8. Operaciones tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.8.1. Multiplicación por escalar . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.8.2. Adición de tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.8.3. Producto (“tensorial”) de tensores . . . . . . . . . . . . . . . . . . . . 89
8.8.4. Contracción de ı́ndices . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.8.5. Permutación de ı́ndices . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8.8.6. Tensores simétricos y antisimétricos . . . . . . . . . . . . . . . . . . . 90
8.9. Sı́mbolo de Levi-Civita y pseudo-tensores . . . . . . . . . . . . . . . . . . . . . 91
8.9.1. (Pseudo)-tensor dual . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.10. Análisis tensorial cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.10.1. Campo tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.10.2. Derivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.10.3. Divergencia, rotor, Laplaciano . . . . . . . . . . . . . . . . . . . . . . 97
8.10.4. Integración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
1
Capı́tulo 1
Análisis de Fourier
o bien,
an = cn + c−n , bn = i(cn − c−n ), n = 0, 1, 2, · · · . (1.10)
Si f (θ) es una función real entonces sus respectivos coeficientes complejos cn satisfacen la
relación Z π Z π
∗ 1 −inθ ∗ 1
cn = f (θ)(e ) dθ = f (θ)einθ dθ = c−n (1.11)
2π −π 2π −π
donde z ∗ representa el complejo conjugado de z.
Es directo ver que por tratarse de una función impar, an = 0 para n = 0, 1, 2, . . .. Sin embargo,
1 0 1 π
Z Z
bn = f (θ) sen(nθ)dθ + f (θ) sen(nθ)dθ (1.13)
π −π π 0
1 0 1 π
Z Z
= (−1) sen(nθ)dθ + (1) sen(nθ)dθ (1.14)
π −π π 0
1 π 1 π
Z Z
= sen(nθ)dθ + sen(nθ)dθ (1.15)
π 0 π 0
2 π
Z
= sen(nθ)dθ (1.16)
π 0
π
2 − cos(nθ)
= (1.17)
π n
0
2 cos(nπ) − 1
=− , (1.18)
π n
(−1)n − 1
2
bn = − . (1.19)
π n
podemos escribir
∞ ∞
X 4 sen[(2k + 1)θ] X 4 sen[(2k − 1)θ]
X 4
f (θ) = sen(nθ) = = . (1.21)
nπ π (2k + 1) π (2k − 1)
n impar k=0 k=1
2
Definiendo el k-ésimo término de la serie como
4 sen[(2k + 1)θ]
Tk (θ) := , (1.22)
π (2k + 1)
y la serie de Fourier truncada hasta el término n-ésimo en la forma
n
X
Sn (θ) := Tk (θ), (1.23)
k=0
podemos graficar algunas funciones Sn que, a medida que n aumenta, se acercan más y más
a la función original.
f(θ)
1 S0(θ)
S1(θ)
S2(θ)
S3(θ)
Sn (θ)
-1
−3π −2π −π 0 π 2π 3π
θ
1.1.2. Convolución
(1·2)
La relación o “Teorema” de Convolución establece una relación entre los coeficientes Cn
(1)
de la expansión de Fourier de la función producto f1 (θ)f2 (θ) y los respectivos coeficientes Cn
(2)
y Cn de las funciones f1 (θ) y f2 (θ).
Z π
1
c(1·2)
n = f1 (θ)f2 (θ)e−inθ dθ (1.24)
2π −π
1 X π
Z
(2) imθ −inθ
= f1 (θ)Cm e e dθ (1.25)
2π m −π
1 X (2) π
Z
= Cm f1 (θ)e−i(n−m)θ dθ (1.26)
2π m −π
(1)
X
(2)
= Cm Cn−m (1.27)
m
(1)
X
c(1·2)
n = (2)
Cm Cn−m . (1.28)
m
Una sucesión Sn (θ) de funciones converge uniformemente a una función f (θ) si para
todo > 0 existe un N > 0 tal que
Teorema 1 [3]: Si f (θ) es una función es “muy suave por tramos” (es decir, si la función,
su primera y segunda derivadas son continuas por tramos) en el intervalo (−π, π) entonces su
serie de Fourier converge a
1
[f (θ − 0) + f (θ + 0)] , θ ∈ (−π, π), (1.32)
2
1
[f (−π + 0) + f (π − 0)] , θ = ±π. (1.33)
2
La convergencia es uniforme en cada subintervalo cerrado donde f (θ) es continua.
Teorema 2 [3]: Si una función definida en un intervalo cerrado [a, b] satisface las condiciones
de Dirichlet (es decir, si f (θ) es continua por tramos, y si el intervalo (a, b) puede ser dividido
en un número finito de subinteralos donde f (θ) es monotona) entonces también se satisfacen
las propiedades de convergencia del Teorema 1.
2
R π 3 [3]:2 Si la función f (θ) es cuadrado-integrable en (−π, π) (f ∈ L (−π, π), es
Teorema
decir, si −π |f (θ)| dθ es finito) entonces su serie de Fourier converge en media a f (θ).
Ojo!: Esto no cubre todas las posibilidades de convergencia! Ej. f (θ) = ln(cos(θ/2)) (Ver
[3], pag. 168).
donde
Z b
1
fn := f (t)e−iωn t dt. (1.41)
T a
1 b
Z
fn = δ(t)e−iωn t dt (1.42)
T a
1
= . (1.43)
T
Por lo tanto,
∞
" #
1 X iωn t 1 X 2πnt
δ(t) = e = 1+2 cos . (1.44)
T n T T
n=1
5
Es importante notar, como puede comprobarse al graficar la serie, que lo que se obtiene es en
realidad la extensión periódica (de periodo T ) de la delta de Dirac.
7/T S0(t)
S1(t)
S2(t)
5/T S3(t)
3/T
Sn (t)
1/T
0
−1/T
Figura 1.2: Serie de Fourier de la Delta de Dirac con perı́odo T = 2π, truncada hasta
n = 4.
6
Capı́tulo 2
La transformada de Fourier
Las series de Fourier permiten representar una función periódica como superposición de
funciones seno y coseno (o exponenciales de argumento imaginario). Es posible extender el
método de expansión de Fourier al caso de funciones no-periódicas, resultando las llamadas
integrales de Fourier. Podemos entender estas integrales de Fourier como el lı́mite contı́nuo
de las series de Fourier.
Consideremos una función f (t) de periodo T , y como intervalo fundamental a (−T /2, T /2).
Entonces, usando (1.40) y (1.41) podemos escribir
∞
" Z #
X 1 T /2 −iωn ξ
f (t) = f (ξ)e dξ eiωn t . (2.1)
n=−∞
T −T /2
En el lı́mite T → ∞, (y por lo tanto ∆ω → 0), la función f (t) puede considerarse como una
función no-periódica arbitraria definida en todo el intervalo (−∞, ∞). Por otro lado, la suma
se transforma en una integral1 . Por lo tanto, en este lı́mite obtenemos la identidad
Z ∞ Z ∞
1 −iωξ
f (t) = f (ξ)e dξ eiωt dω, (2.3)
−∞ 2π −∞
Observaciones:
Notando que
ω
−αt2 − iωt = − α t2 + t
α
2 2 !
ω iω iω
= − α t2 + t + −
α 2α 2α
2 2
iω iω
=−α t+ +α
2α 2α
2 2
iω ω
=−α t+ − , (2.8)
2α 4α
se halla entonces que
Z ∞ iω 2
2
−α(t+ 2α ) − ω4α
f˜(ω) = e dt
−∞
ω2
Z ∞ iω 2
=e− 4α e−α(t+ 2α ) dt, (2.9)
−∞
√ √
pero haciendo el cambio de variables x := α(t + iω/4α), entonces dx = α dt, luego
Z ∞
−ω
2 2 dx
˜
f (ω) = e 4α e−x √ . (2.10)
−∞ α
Además, recordando que
Z ∞ √
2
e−x dx = π, (2.11)
−∞
8
encontramos finalmente que r
−αt2 π − ω2
F[e ]= e 4α . (2.12)
α
1.0 1.8
p
e −t 2 1.6
πe −ω 2 /4
0.8 1.4
1.2
0.6
1.0
f̃(ω)
f(t)
0.8
0.4
0.6
0.2 0.4
0.2
0.0 10 5 0 5 10 0.0 10 5 0 5 10
t ω
Z ∞
F[δ(t − ξ)] = δ(t − ξ)e−iωt dt (2.14)
−∞
−iωξ
=e (2.15)
Z ∞
1
δ(t − ξ) = eiω(t−ξ) dω. (2.16)
2π −∞
Z ∞
0
F[f (t)] = f 0 (t)e−iωt dt (2.17)
−∞
∞
Z ∞
= f (t)e−iωx −∞ − (−iω)f (t)e−iωt dt
(2.18)
−∞
∞
Z ∞
f (t)e−iωx −∞ f (t)e−iωt dt
= + iω (2.19)
−∞
−iωt ∞
= iωF[f (t)] + f (t)e −∞
. (2.20)
H(t−a)
1
H(t−c)
c
t
1 −icω
F[H(t − c)] = e . (2.25)
iω
Sin embargo, al emplear directamente la definición de la transformada de Fourier vemos que
Z ∞
F[H](ω) = H(t)e−iωt dt
Z−∞ ∞
= 1 · e−iωt dt
c
∞
e−iωt
= , (2.26)
−iω c
y debido a que
e−iωt e−iωt
= lı́m (2.27)
−iω ∞ t→∞ −iω
10
no existe (el lı́mite no tiende a un valor único), entonces se concluye que la transformada de
Fourier de la función escalón tampoco. Sin embargo, la relación completa (2.20) sigue siendo
válida y suministra una expresión equivalente a (2.26).
Ejemplo
Usando el teorema de convolución podemos encontrar la transformada de Fourier de
1
f (t) = . (2.34)
t4 + 5t2 + 4
1
f (t) = 2 (2.35)
(t + 1)(t2 + 4)
c
F 2 = πe−c|ω| , para c > 0. (2.36)
t + c2
1 1
F[f (t)] = F 2 (2.37)
t + 1 t2 + 4
Z ∞
1 ππ −|η| −2|ω−η|
= e e dη (2.38)
2π 1 2 −∞
Z 0 Z ∞
π η −2|ω−η| −η −2|ω−η|
= e e dη + e e dη (2.39)
4 −∞ 0
Si ω > 0,
Z 0 Z ω Z ∞
π −2ω+3η −2ω+η 2ω−3η
F[f (t)] = e dη + e dη + e dη (2.40)
4 −∞ 0 ω
π 1 −2ω 1
= e + e−ω − e−2ω + e−ω (2.41)
4 3 3
π 2 −ω 1 −2ω
= e − e . (2.42)
2 3 3
11
Si ω < 0,
Z ω Z 0 Z ∞
π −2ω+3η 2ω−η 2ω−3η
F[f (t)] = e dη + e dη + e dη (2.43)
4 −∞ ω 0
π 1 ω 1
= e − e2ω + eω + e2ω (2.44)
4 3 3
π 2 ω 1 2ω
= e − e . (2.45)
2 3 3
1 1 1 1
F[f (t)] = F 2 − F 2 (2.49)
3 t +1 3 t +4
1 π −|ω| 1 π −2|ω|
= e − e . (2.50)
31 32
Z ∞ Z ∞
1
2
|f (t)| dt = |f˜(ω)|2 dω. (2.51)
−∞ 2π −∞
12
Finalmente, la varianza de ω respecto a f˜(ω) es dada por:
Sea f (t) una función tal que lı́mt→±∞ f (t) = 0 y f 0 = df /dt, entonces f˜0 = iω f˜, y
podemos escribir ω f˜ = −if˜0 . Por lo tanto
Z Z
(∆ω) 2
|f | dω = |if˜0 + hωif˜|2 dω
˜ 2
Z
= |F[if 0 + hωif ]|2 dω. (2.56)
Recordando la desigualdad (triangular) de Schwarz, que establece que ∀f1 , f2 se cumple que
Z Z Z
2 2 ∗
|f1 | dt |f2 | dt ≥ f1 f2 dt , (2.58)
y considerando f1 (t) := (t − hti)f (t) y f2 (t) := if 0 (t) + hωif (t), se tiene que
2
Z Z Z
2 2 2 2 ∗ 0
|f | dt (∆t) · (∆ω) |f | dt ≥ f (t)(t − hti) if (t) + hωif (t) dt . (2.59)
Si definimos I como la integral del segundo miembro de la ecuación precedente, podemos hallar
que
Z
∗ 0
if tf + hωif ∗ tf − htiif ∗ f 0 − htihωi|f |2 dt
I=
Z Z Z
df df
=i f ∗ t − htif ∗ dt + hωihti |f |2 dt − htihωi |f |2 dt
dt dt
Z
df
=i f ∗ (t − hti) dt. (2.60)
dt
Notando que
Z ∗
1 ∗ df df
Im(I) = f (t − hti) + (t − hti)f dt
2 dt dt
Z
1 d ∗
= [f (t − hti)f ] − f ∗ f dt
2 dt
∞ Z
1 2 1
|f |2 dt.
= (t − hti)|f | − (2.61)
2 −∞ 2
Para que |f |2 dt y hti sean finitos, suponemos que |f |2 → 0 y t|f 2 | → 0 cuando t → ±∞.
R
En tal caso
Z
1
Im(I) = − |f |2 dt. (2.62)
2
13
Además, como |I|2 = [Re(I)]2 + [Im(I)]2 ≥ [Im(I)]2 , podemos escribir que
Z 2 Z 2
2 2 2 21 2
(∆t) (∆ω) |f | dt ≥ [Im(I)] = |f | dt , (2.63)
4
1
∆t · ∆ω ≥ . (2.65)
2
Ejemplo
Un ejemplo instructivo es el caso de la función gaussiana (2.6). En este caso un cálculo
simple muestra que
1
hti = 0, ∆t = √ . (2.66)
2 α
Similarmente, para la transformada (2.12), que tiene la misma forma funcional, tendremos que
√
hωi = 0, ∆ω = α. (2.67)
Verificamos que en ambos casos los valores medios son una medida del “valor central” y que
la varianza cuantifica el “ancho” de cada distribución. La distribución gaussiana es especial en
el sentido que satura la desigualdad (2.65), ya que en este caso
1
∆t · ∆ω = . (2.68)
2
14
Capı́tulo 3
En Fı́sica es común encontrar sistemas descritos por campos 1 (Ψ), que satisfacen ecuaciones
diferenciales parciales (EDP’s). Entre las más frecuentes destacan las siguientes:
Ecuación de Laplace:
∇2 Ψ = 0, Ψ(~x). (3.1)
Esta ecuación aparece, por ejemplo, en el estudio de:
∂ρ ~ ~ · ~v = −∇2 Ψ = 0.
+ ∇(ρ~v ) = 0 ⇒ ∇ (3.2)
∂t
Ecuación de Poisson
∇2 Ψ = g(~x), (3.3)
donde g(~x) es una función “fuente” conocida. Esta EDP es inhomogénea, y por lo tanto
sus soluciones generales pueden escribirse como Ψ = Ψh + Ψp , donde Ψh es solución
de la ecuación homogenea correspondiente (en este caso, la ec. de Laplace), y Ψp una
solución particular de la ec. de Poisson.
Por ejemplo, el potencial electrostático φ(~x) satisface
1
∇2 φ = − ρ(~x), (3.4)
ε0
donde ε0 es la permeabilidad del vacı́o y ρ(~x) la densidad (volumétrica) de carga
eléctrica.
1
Es decir, funciones que dependen de la posición y/o del tiempo.
15
Ecuación de Helmholtz:
∇2 Ψ ± k 2 Ψ = 0. (3.5)
Esta ecuación, conocida también como la ecuación de difusión independiente de tiempo,
aparece en el estudio de
• Ondas elásticas en sólidos.
• Acústica.
• Ondas electromagnéticas.
• Reactores nucleares.
Ecuación de difusión dependiente del tiempo (α = difusividad térmica)
1 ∂Ψ
∇2 Ψ − = 0. (3.6)
α ∂t
Ecuación de la onda dependiente del tiempo
1 ∂2Ψ
∇2 Ψ − = 0, (3.7)
v 2 ∂t2
o bien
1 ∂2
Ψ = 0, := − ∇2 . (3.8)
v 2 ∂t2
Esta EDP aparece en modelos de:
• Ondas elásticas en sólidos, membranas, cuerdas, etc.
• Ondas electromagnéticas en regiones sin fuentes.
• Ondas sonoras.
Ecuación de Klein-Gordon:
m2 c2
Ψ − Ψ = 0. (3.9)
~2
Ecuación de Schrödinger:
~2 2 ∂Ψ
− ∇ Ψ + V (~x)Ψ = i~ . (3.10)
2m ∂t
Observaciones:
Las técnicas generales para (intentar) resolver EDP lineales que consideraremos en este
curso son:
1. Método de separación de variables: La ecuación diferencial parcial es desdoblada en
ecuaciones diferenciales ordinarias lineales. La solución de la EDP es construida como
superposición de soluciones que son el producto de funciones dependientes de cada va-
riable. Usando este método es posible reducir la ec. de la onda, la ec. del calor, y la ec.
de Klein-Gordon a la ec. de Helmholtz.
16
2. Método de las transformadas integrales (Fourier, Laplace, etc.), para resolver EDP
inhomogéneas.
3. Método de las funciones de Green, para resolver EDP inhomogéneas.
o que pueda reducirse a (3.11) por medio de algún cambio de variables, puede clasificarse en
los siguientes tres tipos:
Elı́pticas en ~x0 : si en el punto ~x0 todos los coeficientes aj (~x0 ) son no-nulos y tienen el
mismo signo. Ejemplo clásico: Ec. de Laplace.
Ultrahiperbólicas en ~x0 : si en el punto ~x0 todos los coeficientes aj (~x0 ) son no-nulos,
pero no tienen el mismo signo. Si sólo uno de los coeficientes tiene signo diferente del
resto, la E.D.P. es hiperbólica. Ejemplo clásico: Ec. de onda.
Parabólica en ~x0 : si en el punto ~x0 al menos uno de los coeficientes aj (~x0 ) se anula.
Ejemplo clásico: Ec. de difusión del calor.
Si una E.D.P. de segundo orden es de un tipo dado en todos los puntos de su dominio, se dice
simplemente que es de ese tipo (es decir, el tipo no cambia de punto a punto). Esto ocurre, en
particular con las E.D.P.’s de segundo orden con coeficientes constantes.
E.D.P. parabólica + C.de B. tipo Dirichlet o Neumann sobre una (hiper)superficie abierta.
∂ 2 ψ ∂ψ
α − = 0, (3.12)
∂2x ∂t
en el dominio −∞ < x < ∞, t ≥ 0, y sujeta a las siguientes condiciones de contorno
∂2ψ ∂ψ
αFx [ ] − Fx [ ] = 0, (3.15)
∂2x ∂t
además por la condición de contorno (3.13) tenemos que
∂2ψ
Fx [ ] = (ik)2 Fx [ψ] = (ik)2 ψ̃(k, t), (3.16)
∂2x
y como
∂ψ ∂
Fx [ ] = Fx [ψ], (3.17)
∂t ∂t
entonces
∂
−αk 2 ψ̃(k, t) − ψ̃(k, t) = 0. (3.18)
∂t
Por lo tanto, obtenemos una ecuación diferencial más simple, donde la dependencia espacial
original ha sido ahora reducida a una dependencia algebraica:
∂
ψ̃(k, t) = −α ψ̃(k, t). (3.19)
∂t
Rsolviendo esta ecuación respeto a la variable t, encontramos
2
ψ̃(k, t) = ψ̃(k, 0) e−αk t . (3.20)
En consecuencia,
2
ψ̃(k, t) = φ̃(k) e−αk t . (3.22)
18
Con esto, la solución ψ(x, t) del problema es dada por la transformada inversa,
2
ψ(x, t) = F −1 [ψ̃(k, t)] = F −1 [φ̃(k) e−αk t ] (3.23)
o, más explı́citamente,
Z ∞
1
ψ(x, t) = ψ̃(k, t)eikx dk
2π −∞
Z ∞
1 2
= φ̃(k)e−αk t eikx dk, (3.24)
2π −∞
con
Z ∞
φ̃(k) = φ(x)eikx dx. (3.25)
−∞
Por ejemplo, si
entonces
Por consiguiente,
2
ψ(x, t) = T0 F −1 [e−αk t ]. (3.28)
2
En el repositorio de estos apuntes, en particular en este link puede encontrar un notebook con gráficos
y animaciones de la solución.
19
Capı́tulo 4
El Método de Separación de
Variables
Si bien en general el MSV sigue los pasos anteriores, en la práctica es útil considerar un
paso intermedio:
Construir una combinación lineal general con las soluciones separables anteriores.
Determinar los coeficientes de la combinación lineal que aseguran que la solución final
satisface las condiciones de borde/iniciales inhomogéneas.
20
4.1. Coordenadas Cartesianas
∂2Ψ ∂2Ψ
+ = 0, (4.1)
∂x2 ∂y 2
en el rectángulo 0 < x < 1, 0 < y < 2, con la condición de borde
1 d2 X 1 d2 Y
+ = 0, (4.4)
X(x) dx2 Y (y) dy 2
lo que implica que término debe ser igual a una constante, es decir
1 d2 X d2 X
= λ, − λX(x) = 0, (4.5)
X(x) dx2 dx2
1 d2 Y d2 Y
= −λ, + λY (y) = 0. (4.6)
Y (y) dy 2 dy 2
La forma explı́cita de estas ecuaciones depende del valor, y en particular del signo, de la
constante de separación λ, que por ahora tiene valor desconocido: Por ejemplo,
√ √
λx + c e− λx ,
c1 e
2 si λ > 0
Xλ (x) = c1 + c2 x, si λ = 0 . (4.7)
√ √
c1 cos( −λx) + c2 sin( −λx), si λ < 0
Similarmente, √ √
c̄1 cos( λy) + c̄2 sin( λy), si λ > 0
Yλ (y) = c̄1 + c̄2 y, si λ = 0 . (4.8)
√−λy
−
√
−λy
c̄1 e + c̄2 e , si λ < 0
Ası́, hemos encontrado infinitas soluciones separables, cada una de la forma
Ψsep
λ (x, y) = Xλ (x)Yλ (y), (4.9)
para cada valor posible de la constante de separación λ. Como esta constante puede tomar
distintos valores, y como la EDP es lineal, entonces cualquier combinación lineal de la forma
X sep X
Ψ(x, y) = Ψλ (x, y) = Xλ (x)Yλ (y), (4.10)
λ λ
es también solución.
21
Procedemos ahora a imponer las condiciones de borde a la solución. Los cálculos se sim-
plifican si imponemos primero las condiciones de borde homogéneas. Por ejemplo, la condición
Ψ(0, y) = 0, ∀y ∈ [0, 2] (borde izquierdo del dominio) requiere que
X sep X
Ψ(0, y) = Ψλ (0, y) = Xλ (0)Yλ (y) = 0. (4.11)
λ λ
La última expresión es una combinación lineal de los coeficientes (constantes) Xλ (0) y las
funciones Yλ (y). Ya que las funciones Yλ (y) son l.i. en esta combinación será nula sólo si
Xλ (0) = 0. Análogamente, la condición Ψ(1, y) = 0, ∀y ∈ [0, 2] requiere Xλ (1) = 0. Estas
dos condiciones sobre las funciones Xλ (x) restringen fuertemente los valores posibles de λ. En
nuestro caso particular, sólo valores negativos de esta constante de separación son permitidos.
Esto ocurre si λ = −n2 π 2 , n = 1, 2, . . . , y entonces
donde los coeficientes son arbitrarios. Es instructivo verificar que esta expresión es solución de la
EDP (4.1), y de las condiciones de borde homogéneas del problema. El valor de los coeficientes
dn queda determinado por la condición de borde no-homogénea restante (borde superior).
Imponemos por tanto que
∞
!
X
Ψ(x, 2) = dn sen (nπx) senh(2πn) = f (x), (4.16)
n=0
con f (x) = x(1 − x). Esto significa que los coeficientes dn senh(2πn) son los coeficientes de
la expansión de Fourier (seno) de la función f (x) en el intervalo [0, 1]. Usando las relaciones
de ortogonalidad de las funciones senh(πnx),
Z 1
1
sen(πnx) sen(πmx) dx = δnm , (4.17)
0 2
encontramos Z 1
dn senh(2πn) = 2 f (x) sen(πnx) dx, (4.18)
0
y por lo tanto Z 1
2
dn = f (x) sen(πnx) dx. (4.19)
senh(2πn) 0
22
En el ejemplo particular en que f (x) = x(1 − x), luego de calcular la integral correspon-
diente, encontramos que
(
8 1
π 3 n3 senh(2πn)
, para n impar
dn = (4.20)
0, para n par
0.25 0.225
0.20 0.200
0.175
0.15
ψ(x, y)
0.150
0.10 0.125
0.100
0.05
0.075
0.00 0.050
2.0 0.025
1.5
0.0 1.0
0.2 y
0.4 0.5
x 0.6 0.8
1.0 0.0
1 d2 X 1 1 d2 T
= λ, = λ, (4.26)
X dx2 v 2 T dt2
donde la constante de separación λ puede asumir valores reales. Luego, podemos escribir la
siguiente EDO para X(x) como
d2 X
= λX, (4.27)
dx2
cuya solución es de la forma
√ √
A cos(x −λ) + B sin(x −λ),
si λ < 0
X(x) = A0 x + B 0 , si λ = 0 . (4.28)
00 x√λ
√
A e + B 00 e−x λ , si λ > 0
Las condiciones de borde homogéneas pueden trasladarse a las funciones X(x), que entonces
deben satisfacer que X(0) = 0 y X(L) = 0. Tal como en el ejemplo anterior, no es difı́cil
verificar que estas conficiones pueden ser satisfechas sólo si λ < 0, A = 0, y además
√ nπ
−λ = , n = 1, 2, . . . . (4.29)
L
Por lo tanto, los valores permitidos para la constante de separación, también llamados
“autovalores”, son
n2 π 2
λn = − , n = 1, 2, . . . . (4.30)
L2
Mientrás que las “autofunciones” correspondientes están dadas por
nπx
Xn (x) = Bn sin , n = 1, 2, . . . . (4.31)
L
Dada la restricción (4.30), la EDO para la Tn (t) adopta la forma
d2 Tn n2 π 2 v 2
= − Tn , (4.32)
dt2 L2
cuya solución general está dada por
nπvt nπvt
Tn (t) = Cn cos + Dn sin , (4.33)
L L
con Cn y Dn constantes arbitrarias. De esta forma, hemos encontrado soluciones separables de
la forma
sep nπvt nπvt nπx
ψn (x, t) = Cn cos + Dn sin Bn sin . (4.34)
L L L
Redefiniendo el valor de las constantes como an := Cn Bn y bn := Dn Bn se encuentra que
h nπv nπv i nπx
ψn (x, t) = an cos t + bn sin t sin , n = 1, 2, . . . . (4.35)
L L L
Es directo verificar que cada una de estas soluciones satisface las condiciones de contorno
homogéneas (4.23). Sin embargo, ninguna de ellas, por separado satisface las condiciones
24
iniciales (4.24). Podemos encontrar la solución al problema usando el hecho que la (4.22) es
lineal y homogénea. Debido a esto, una superposición de soluciones ψn (x, t), con distintos
n, será también solución de la EDP. Además, esta superposición satisface las condiciones de
borde (para cualquier valor de los coeficientes que determinan la combinación lineal), ya que
son condiciones de borde homogéneas.
Consideremos por tanto, una superposición general de todas las soluciones separables
ψn (x, t) disponibles
∞
X
ψ(x, t) = ψnsep (x, t) (4.36)
n=1
X∞ h nπv nπv i nπx
= An cos t + Bn sin t sin . (4.37)
L L L
n=1
Finalmente, los coeficientes pueden ser calculados al imponer las condiciones iniciales:
∞
X nπx
ψ0 (x) = ψ(x, 0) = an sin , (4.38)
L
n=1
∞
∂ψ X nπv nπx
v0 (x) = (x, 0) = bn sin . (4.39)
∂t L L
n=1
∞
X
(An cos(nϕ) + Bn sin(nϕ)) Cn r−n + Dn rn ,
Ψ(r, ϕ) = c0 + c1 ln(r) + (4.42)
n=1
25
4.4. Coordenadas Cilı́ndricas
∇2 Ψ + αΨ = 0, (4.44)
∂2Ψ
1 ∂ 2 ∂Ψ 1 ∂ ∂Ψ 1
r + sen θ + + αΨ = 0. (4.45)
r2 ∂r ∂r r2 sen θ ∂θ ∂θ r2 sen2 θ ∂ϕ2
Introduciendo (4.46) en (4.45), multiplicando por r2 sen2 θ y dividiendo por Ψsep , se obtiene
1 d2 Φ
1 d dR 1 d dΘ
sen2 θ r2 + sen θ + αr2 + = 0. (4.47)
R dr dr Θ sen θ dθ dθ Φ dϕ2
1 d2 Φ
= const. = −m2 . (4.48)
Φ dϕ2
Las soluciones univaluadas, e.d. que satisfacen la condición de borde perı́odica Φ(ϕ + 2π) =
Φ(ϕ), son
Φ(ϕ) = e±imϕ , m = 0, ±1, ±2, · · · . (4.49)
Con esto, (4.47) se reduce a
2 1 d 2 dR 1 d dΘ
sen θ r + sen θ + αr − m2 = 0
2
(4.50)
R dr dr Θ sen θ dθ dθ
m2
1 d 2 dR 2 1 d dΘ
r + αr + sen θ − = 0. (4.51)
R dr dr Θ sen θ dθ dθ sen2 θ
Esta ecuación está nuevamente separada, ya que los primeros dos términos dependen sólo de r
mientras que los últimos dos sólo de θ. Por lo tanto, podemos introducir una segunda constante
de separación, Q, tal que las EDO’s separadas se escriben como:
d 2 dR
+ αr2 − Q R = 0,
r (4.52)
dr dr
m2
1 d dΘ
sen θ + Q− Θ = 0. (4.53)
sen θ dθ dθ sen2 θ
26
Caso α = 0, ecuación de Laplace
La ecuación (4.52) es una ecuación tipo Euler y puede ser resuelta con la substitución
r := et , y = U (r) = U (et ), o bien con el Ansatz
27
Capı́tulo 5
es decir, sólo si Q = 0, 2, 6, 12, 20, 30, . . . . En este caso las soluciones finitas son
los Polinomios de Legendre de orden n.
donde hemos introducido nuevamente x := cos θ. De esta forma, tenemos una solución finita
para todo t < 1 que consiste en una superposición de soluciones separables Pn (x) y tn+1 .
Comparando esta solución con (4.55) vemos que (5.8) corresponde al caso particular en que
Q = n(n + 1). Por lo tanto, esperamos que las funciones Pn (x) satisfagan la ecuación (5.2)
en este caso.
Con esta motivación, podemos definir las funciones de Legendre de orden n, Pn (x), como
los coeficientes de la expansión en serie de Taylor de la “función generadora” g(t, x) := (1 −
2xt + t2 )−1/2 , tal que
∞
1 X
g(t, x) := √ = Pn (x)tn . (5.9)
1 − 2xt + t2 n=0
∂ n g(t, x)
1
Pn (x) = . (5.10)
n! ∂tn t=0
Expresiones explı́citas
Los primeros cuatro polinomios son
P0 (x) = 1, P1 (x) = x,
1 1
P2 (x) = (3x2 − 1), P3 (x) = (5x3 − 3x),
2 2
35x4 15x2 3 63x5 35x3 15x
P4 (x) = − + , P5 (x) = − + .
8 4 8 8 4 8
Serie de potencias
Podemos encontrar una primera expresión para las funciones Pn (x) en términos de una
serie de potencias. Para esto, podemos expandir la función generadora en una serie, usando
∞
X (2n)! n
(1 − x)−1/2 = x , (5.11)
2 (n!)2
2n
n=0
29
con la identificación x → 2xt − t2 , de modo que
∞
X (2n)!
g(t, x) = (2xt − t2 )n (5.12)
2 (n!)2
2n
n=0
∞
X (2n)! n
= t (2x − t)n (5.13)
22n (n!)2
n=0
. (5.14)
Podemos expresar esta suma doble cambiando de variable de suma desde (n, k) hasta (n̄, k),
con n̄ := n + k. Esto implica reemplazar n en la expresión anterior por n̄ − k y el rango de
variación de estas variables. Si n̄ = 0, 1, 2, . . . , entonces k = 0, 1, · · · , [n̄/2], ya que en la suma
original n − k = n̄ − 2k > 0. Por lo tanto
∞ [n̄/2]
X X (−1)k (2n̄ − 2k)!
g(t, x) = xn̄−2k tn̄ , (5.18)
2n̄ k!(n̄ − k)!(n̄ − 2k)!
n̄=0 k=0
y por lo tanto
[n/2]
X (−1)k (2n − 2k)!
Pn (x) = xn−2k . (5.19)
2n k!(n − k)!(n − 2k)!
k=0
Propiedades
Los polinomios de Legendre satisfacen las siguientes propiedades:
Normalización
Pn (1) = 1. (5.20)
En otras palabras, los Pn son normalizados de modo que para x = 1 ellos asumen siempre
el valor 1.
Simetrı́a
Pn (−x) = (−1)n Pn (x). (5.21)
Los polinomios Pn son funciones simétricas si n es par y antisimétricas si n es impar
Valor en el origen:
(
0 si n par
Pn (0) = (−1)m (2m)! . (5.22)
22m (m!)2
si n = 2m (par)
30
Completitud: Los polinomios de Legendre Pn forman un conjunto completo de funciones
definidas en [−1, 1].
1.0
0.5
Pn (x)
0.0
0.5 n =0
n =1
n =2
n =3
1.0 n =4
1.0 0.5 0.0 0.5 1.0
x
Figura 5.1: Primeros cinco polinomios de Legendre. Código Python disponible aquı́.
10
5
Pn0 (x)
5 n =0
n =1
n =2
n =3
n =4
10
1.0 0.5 0.0 0.5 1.0
x
Figura 5.2: Derivada de los primeros cinco polinomios de Legendre. Código Python dispo-
nible aquı́.
31
Fórmula de Rodrigues
1 dn 2
Pn (x) = (x − 1)n (5.23)
2n n! dxn
Relaciones de recurrencia
d d
(1 − x2 )Pn0 + n(n + 1)Pn = 0, 0
(1 − x2 )Pm
+ m(m + 1)Pm = 0. (5.26)
dx dx
Z 1
[n(n + 1) − m(m + 1)] Pn (x)Pm (x) dx = 0 (5.27)
−1
Z 1
Pn (x)Pm (x) dx = 0, n 6= m. (5.28)
−1
Z 1
2
Pn (x)Pm (x) dx = δmn . (5.29)
−1 2n + 1
Como los polinomios de Legendre son ortogonales, se sigue que son linealmente independientes
(l.i.), ya que
X∞
an Pn (x) = 0, (5.30)
n=0
sı́ y sólo si an = 0.
en el sentido que la serie coverge en media a la función f (x) para todo x en [−1, 1].
Podemos encontrar una expresión para los coeficientes usando la relación de ortogonalidad
(5.29):
2n + 1 1
Z
an = f (x)Pn (x) dx. (5.32)
2 −1
32
Expansión de Legendre de la Delta de Dirac
En el caso en que f (x) = δ(x − a) tendremos que
2n + 1 1
Z
an = δ(x − a)Pn (x) dx (5.33)
2 −1
2n + 1
= Pn (a), (5.34)
2
y entonces
∞
X 2n + 1
δ(x − a) = Pn (a)Pn (x). (5.35)
2
n=0
40
30
20
S50(x)
10
10
1.0 0.5 0.0 0.5 1.0
x
1 − x2 y 00 − 2xy 0 + Qy = 0,
(5.37)
o bien
2x 0 Q
y 00 − 2
y + y = 0. (5.38)
1−x 1 − x2
33
Como los coeficientes de y 0 y y son funciones analı́ticas en la vencindad de x = 0, podemos
encontrar una solución en serie de Taylor en torno a ese punto:
∞
X
y= ak xk ,
k=0
∞
X
y0 = kak xk−1 ,
k=0
∞
X
y 00 = (k − 1)kak xk−2
k=2
X∞
= (k + 1)(k + 2)ak+2 xk .
k=0
En general, tanto y1 (x) como y2 (x) serán series infinitas, ya que los correspondientes
coeficientes de cada xk , dados por un producto de factores, serán no nulos excepto si existe
un valor de l tal que l(l + 1) − Q = 0. Esto sólo ocurrirá si la constante Q es de la forma
Q = n(n + 1), con algún valor de n = 0, 1, 2, · · · . Si este es el caso, entonces una de las series
se truncará, reduciéndose a un polinomio.
34
Convergencia
Analicemos primero el caso genérico en que Q 6= n(n+1). Como dijimos, las dos soluciones
l.i. y1 (x) e y2 (x) serán series infinitas, debiendo por tanto analizar su convergencia.
1
P∞Consideramos primero el test de D’ Alambert . Para el caso de y1 (x) tenemos que y1 (x) =
m=0 um , con
2m−2
x2m Y
um = (l(l + 1) − Q) = a2m x2m , (5.46)
(2m)!
l=0
l par
y entonces
bm+1 x2m+2
um+1 a2m+2 2
lı́m = lı́m = lı́m x (5.47)
m→∞ um m→∞ bm x2m m→∞ a2m
(2m(2m + 1) − Q) 2
= lı́m
x = x2 . (5.48)
m→∞ (2m + 1)(2m + 2)
Por lo tanto, podemos afirmar que y1 (x) es convergente para |x| < 1. Para analizar la
convergencia cuando x = ±1 podemos usar el test de Gauss2 . En nuestro caso (um > 0 para
m suficientemente grande) y
um (2m + 1)(2m + 2) 1 Q 1 1
= = 1+ + 2+ + O( 2 ) . (5.49)
um+1 (2m(2m + 1) − Q) m 8m2 m m
Caso Q = n(n + 1)
Analicemos ahora con más detalle el caso en que Q = n(n + 1), puesto que aquı́ obten-
dremos series truncadas (es decir, polinomios) que naturalmente son funciones finitas en todo
el intervalo considerado, incluyendo los extremos. De (5.41) vemos que an+2 = 0, y por consi-
guiente todos los coeficientes de orden superior de la forma an+2p serán nulos, con p = 1, 2, · · · .
Por lo tanto, si n es par entonces será la serie y1 (x) la que se truncará, mientras que y2 (x)
continuará siendo una serie infinita. Por otro lado, si n es impar y1 (x) tendrá infinitos términos,
mientras que y2 (x) se reduce a un polinomio. El orden del correspondiente polinomio truncado
es n en ambos casos (an es el último término no nulo). Esperamos por lo tanto que estos
polinomios sean proporcionales a los polinomios de Legendre de orden n. A partir de (5.44) e
(5.45), y usando l(l + 1) − n(n + 1) = (l − n)(l + n + 1) encontramos que
n/2 2m−2
X
2m 1 Y
y1,n (x) = bm x , bm = (l − n)(l + n + 1), n par, (5.50)
(2m)!
m=0 l=0
l par
1
También llamado “Cauchy ratio test”: Si lı́mn→∞ |un+1 /un | < 1 entonces ∞
P
n=0 un es una serie con-
vergente. Si lı́mn→∞ |un+1 /un | > 1 la serie es divergente. Si lı́mn→∞ |un+1 /un | = 1 el test de Cauchy no
suministra información. Ver, por ejemplo, [2], sección 5.2.
2 2
Si un > 0 ∀n y un /un+1 = 1 +
Ph/n + B(n)/n donde h es una constante y B(n) una función acotada de
n para n → ∞ entonces la serie n un converge si h > 1 y diverge si h ≤ 1. Ver, por ejemplo, [2], sección
5.2.
35
(n−1)/2 2m−1
X 1 Y
y2,n (x) = cm x2m+1 , cm = (l−n)(l+n+1), n impar. (5.51)
(2m + 1)!
m=0 l=1
l impar
Luego de algo de álgebra, podemos verificar que
(−1)m (n + 2m)![(n/2)!]2
bm = , (5.52)
(2m)! n!(n/2 − m)!(n/2 + m)!
y con ello, podemos escribir la solución y1,n como
n/2
[(n/2)!]2 X (−1)m (n + 2m)!
y1,n (x) = x2m . (5.53)
n! (2m)! (n/2 − m)!(n/2 + m)!
m=0
Finalmente, cambiando ı́ndice de suma desde m hasta k := n/2−m, de modo que 2m = n−2k,
podemos escribir
n/2
[(n/2)!]2 X (−1)n/2−k (2n − 2k)! n−2k
y1,n (x) = x (5.54)
n! (n − 2k)! k!(n − k)!
k=0
n/2
2 X
n/2 [(n/2)!] (−1)k (2n − 2k)! n−2k
= (−1) x (5.55)
n! (n − 2k)! k!(n − k)!
k=0
[(n/2)!]2 n
= (−1)n/2 2 Pn (x), n = 0, 2, 4, · · · . (5.56)
n!
En el último paso hemos identificado la serie de potencias (5.19) de los polonomios de Legendre.
Análogamente, para n impar podemos expresar los coeficientes cm como
(n + 2m)![ n−1
2
(−1)m 2 !]
cm = n−2m−1
n+2m−1 , (5.57)
(2m + 1)! n! 2 ! 2 !
de modo que
(n−1)/2 n−1
!]2
X (−1)m (n + 2m)![
y2,n (x) = 2
n+2m−1 x
2m+1 (5.58)
(2m + 1)! n! n−2m−1
m=0 2 ! 2 !
n−1 (n−1)/2
!]2
[ X (−1)m (n + 2m)!
= 2
n−2m−1
n+2m−1 x2m+1 (5.59)
n! (2m + 1)! 2 ! 2 !
m=0
Cambiamos ahora ı́ndice de suma, definiendo k tal que 2m + 1 = n − 2k, y encontramos
(n−1)/2
[n/2]!2 X (−1) n−2k−1
2 (2n − 2k − 1)! n−2k
y2,n (x) = x (5.60)
n! (n − 2k)! k!(n − k − 1)!
k=0
[n/2]
[n/2]!2 (n−1)/2
X (−1)k (2n − 2k)! 1 (n − k)
= (−1) xn−2k (5.61)
n! (n − 2k)! (2n − 2k) k! (n − k)!
k=0
[n/2]
[n/2]!2 (−1)[n/2] X (−1)k (2n − 2k)! n−2k
= x (5.62)
n! 2 (n − 2k)! k!(n − k)!
k=0
[n/2]!2
= (−1)[n/2] 2n−1 Pn (x), n = 1, 3, 5, · · · . (5.63)
n!
En resumen, usando una notación algo más compacta, podemos escribir:
(
[n/2] −2[n/2] n! y1,n (x), n par
Pn (x) := (−1) 2 2
× (5.64)
[n/2]! y2,n (x), n impar.
36
5.1.6. Funciones de Legendre de segunda especie
Como hemos visto, en el caso en que Q = n(n + 1) una de las series (y1 si n es par, y2 si n
es impar) se trunca, reduciéndose (salvo factores constantes) a los polinomios de Legendre. Por
lo tanto, para cada n, existe una segunda solución de la ec. de Legendre, que quedaa expresada
como serie infinita, que convergen para x ∈ (−1, 1) pero diverge en x = ±1. Estas funciones
son llamadas las funciones de Legendre de segunda especie, Qn (x), que por conveniencia
definiremos usando factores análogos a aquellos encontrados en (5.56) y (5.56):
(−1)n/2 [(n/2)!]2 2n y2,n (x), n par
n!
Qn (x) := n−1 2 (5.65)
(−1)(n+1)/2 [( 2 )!] 2n−1 y (x), n impar.
n! 1,n
Relaciones de Recurrencia
A partir de las definiciones (5.65) es posible verificar la siguiente importante propiedad:
Las funciones de Legendre de segunda especie satisfacen las mismas relaciones de
recurrencia que los polinomios de Legendre.
Como consecuencia, todas las relaciones de recurrencia que derivamos para los polinomios
de Legendre son válidas para las correspondientes funciones de segunda especie. Podemos
verificar nuevamente a partir de estas identidades que cada Qn (x) satisface la E.D.O. de
Legendre.
En particular, se demostrarán las siguientes relaciones (a partir de las cuales pueden derivarse
todas las otras):
nQn−1 (x) + (n + 1)Qn+1 (x) = (2n + 1) x Qn (x), (5.66)
(2n + 1)Qn (x) = Q0n+1 (x) − Q0n−1 (x). (5.67)
En este caso, las soluciones adoptan la forma (ver (5.44) y (5.44), comparar con (5.50) y
(5.51)):
+∞ 2m−2
X
2m 1 Y
y1,n (x) = bm x , bm = (l − n)(l + n + 1), b0 = 1, (5.68)
(2m)!
m=0 l=0
l par
+∞ 2m−1
X 1 Y
y2,n (x) = cm x2m+1 , cm = (l − n)(l + n + 1), c0 = 1. (5.69)
(2m + 1)!
m=0 l=1
l impar
[( n )!]2 n
(−1) n+2
(n+1)! 2 y1,n+1 (x), n par
2 2
Por lo tanto,
nQn−1 (x) + (n + 1)Qn+1 (x)
n 2
(−1) n2 [( 2 )!] 2n [y1,n−1 (x) − y1,n+1 ] , n par
(n)!
= 2 (5.72)
(−1) n+1 [( n−1
2 )]
!
2n−1 −n2 y2,n−1 (x) + (n + 1)2 y2,n+1 ,
2
(n)! n impar.
37
Para evaluar el lado derecho de (5.72) usamos las expresiones en serie (5.68) y (5.69). Para
y1,n (x) tenemos que
+∞ 2m−2
X 1 Y
y1,n−1 (x) = (l − n + 1)(l + n) x2m , (5.73)
(2m)!
m=0 l=0
l par
+∞ 2m−2
X 1 Y
y1,n+1 (x) = (l − n − 1)(l + n + 2) x2m . (5.74)
(2m)!
m=0 l=0
l par
+∞ 2m−1
X 1 Y
y1,n+1 (x) = (l − n − 2)(l + n + 1) x2m . (5.76)
(2m)!
m=0 l=1
l impar
Luego, ya que
2m−1
Y 2m−1
Y 2m−3
Y
(l + n − 1) = n (l + n − 1) = n (l + n + 1), (5.77)
l=1 l=3 l=1
l impar l impar l impar
2m−1
Y 2m−1
Y 2m−3
Y
(l − n − 2) = −(n + 1) (k − n − 2) = −(n + 1) (l − n), (5.78)
l=1 l=3 l=1
l impar l impar l impar
+∞ 2m−1
X 1 Y
y1,n+1 (x) = −(n + 1) (l − n)(l + n + 1)(2l + n) x2m . (5.80)
(2m)!
m=0 l=1
l impar
Entonces,
+∞ 2m−3
X 1 Y
y1,n−1 (x) − y1,n+1 (x) = (2n + 1) (l − n)(l + n + 1) x2m (5.81)
(2m − 1)!
m=1 l=1
l impar
+∞ 2m−1
X 1 Y
= (2n + 1) (l − n)(l + n + 1) x2m+2(5.82)
(2m + 1)!
m=0 l=1
l impar
= (2n + 1) x y2,n (x). (5.83)
38
Por otro lado, de la expresión en serie (5.69) para y2,n (x), y siguiendo el mismo recién
empleado, tenemos que
+∞ 2m−1
X 1 Y
y2,n+1 (x) = (l − n − 1)(l + n + 2)x2m+1 (5.84)
(2m + 1)!
m=0 l=1
l impar
+∞ 2m−2
X 1 Y
= (l − n)(l + n + 3)x2m+1 (5.85)
(2m + 1)!
m=0 l=1
l par
+∞ 2m−2
1 X (2m + n + 1) Y
= (l − n)(l + n + 1)x2m+1 . (5.86)
n+1 (2m + 1)!
m=0 l=0
l par
Similarmente,
+∞ 2m−1
X 1 Y
y2,n−1 (x) = (l − n + 1)(l + n)x2m+1 (5.87)
(2m + 1)!
m=0 l=1
l impar
+∞ 2m−2
X 1 Y
= (l − n + 2)(l + n + 1)x2m+1 (5.88)
(2m + 1)!
m=0 l=0
l par
+∞ 2m−2
1 X (2m − n) Y
= − (l − n)(l + n + 1)x2m+1 . (5.89)
n (2m + 1)!
m=0 l=0
l par
Análogamente,
+∞ 2m−2
0
X 1 Y
y1,n−1 (x) = (l − n + 1)(l + n) x2m−1 (5.100)
(2m − 1)!
m=1 l=0
l par
+∞ 2m
X 1 Y
= (l − n + 1)(l + n) x2m+1 (5.101)
(2m + 1)!
m=0 l=0
l par
+∞ 2m+1
X (2m − n + 1) Y
= n (l − n)(l + n + 1) x2m+1 . (5.102)
(2m − 1)!
m=0 l=1
l impar
y similarmente,
+∞ 2m−1
0
X 1 Y
y2,n−1 (x) = (l − n + 1)(l + n) x2m (5.107)
(2m)!
m=0 l=1
l impar
+∞ 2m−2
1 X (2p − n) Y
= − (l − n)(l + n + 1) x2m . (5.108)
n (2m)!
m=0 l=0
l par
40
Además, (5.106) y (5.108) implican que
+∞ 2m−2
0 0
X (2n + 1) Y
(n + 1)y2,n+1 (x) + ny2,n−1 (x) = (l − n)(l + n + 1) x2m (5.109)
(2m)!
m=0 l=0
l par
= (2n + 1) y1,n (x) (5.110)
Pero,
2m−1
Y
l(l + 1) = 1 · 2 · 3 · 4 · · · (2m − 1)(2m) = (2m)!. (5.114)
l=1
l impar
Por lo tanto,
∞ ∞
X (2m)! X x2m+1
Q0 (x) = x2m+1 = . (5.115)
(2m + 1)! (2m + 1)
m=0 m=0
Esta serie es conocida, ya que vimos que
∞
x2m+1
1+x X
ln =2 , (5.116)
1−x (2m + 1)
m=0
Por lo tanto,
x 1+x
Q1 (x) = ln − 1. (5.122)
2 1−x
Conociendo Q0 (x) y Q1 (x) podemos encontrar expresiones para las funciones de Qn (x) de
orden superior usando las relaciones de recurrencia (5.66), ya que
1
Qn+1 (x) = [(2n + 1)xQn (x) − nQn−1 (x)] . (5.123)
(n + 1)
Por ejemplo,
1
Q2 (x) = [3xQ1 (x) − Q0 (x)] (5.124)
2
1 3 2 1+x 1 1+x
= −3x + x ln − ln (5.125)
2 2 1−x 2 1−x
1 1+x 3
= − (1 − 3x2 ) ln − x. (5.126)
4 1−x 2
Análogamente, encontramos que
1 1+x 5 2
Q3 (x) = (5x3 − 3x) ln − x2 + . (5.127)
4 1−x 2 3
1
Qn (x)
1 n =0
n =1
n =2
n =3
2 n =4
1.0 0.5 0.0 0.5 1.0
x
Valor en el origen:
0, n par
Qn (0) = n−1 2 (5.129)
(−1)(n+1)/2 [( 2 )!] 2n−1 , n impar.
n!
d h i
u(x) := (1 − x2 )(m+1)/2 (1 − x2 )−m/2 PQm (x) (5.131)
dx
es también solución de (5.1), pero con m + 1 en lugar de m.
Este resultado permite entonces generar nuevas soluciones, con distintos valores de m, a partir
de una solución conocida, y en particular a partir de Pn0 que definimos como los polinomios
de Legendre, Pn0 (x) := Pn (x). A partir de esto, podemos definir las funciones asociadas de
Legendre Pnm tales que
d h i
Pnm+1 (x) = (1 − x2 )(m+1)/2 (1 − x2 )−m/2 Pnm (x) (5.132)
dx
Iterando la relación (5.132) obtenemos, para m = 0, 1, 2, · · · ,
dm
Pnm (x) = (1 − x2 )m/2 Pn (x). (5.133)
dxm
Por otro lado, las funciones con m negativo pueden calcularse usando
(n − m)! m
Pn−m (x) = (−1)m P (x), m = 0, 1, 2, · · · . (5.134)
(n + m)! n
Ya que las funciones Pn (x) son polinomios de orden n, vemos que existen soluciones Pnm (x)
no nulas sólo si
m = 0, ±1, ±2, · · · , ±n ⇔ |m| ≤ n. (5.135)
Es decir, existen 2n + 1 valores permitidos de m para cada n = 0, 1, 2, · · · .
43
5.2.1. Expresiones explı́citas
1.0
P1−1 (x)
P10 (x)
P11 (x)
0.5
P1m (x)
0.0
0.5
1.0
1.0 0.5 0.0 0.5 1.0
x
44
3.0
P2−2 (x)
2.5 P2−1 (x)
P20 (x)
2.0 P21 (x)
P22 (x)
1.5
1.0
P2m (x)
0.5
0.0
0.5
1.0
1.5
1.0 0.5 0.0 0.5 1.0
x
10
0
P3m (x)
5 P3−3 (x)
P3−2 (x)
P3−1 (x)
P30 (x)
10 P31 (x)
P32 (x)
P33 (x)
15
1.0 0.5 0.0 0.5 1.0
x
1 m+n
2 m/2 d
Pnm (x) = (1 − x ) (x2 − 1)n . (5.143)
2n n! dxm+n
45
5.2.3. Función generadora
∞
(2m)! (1 − x2 )m/2 X
= P m (x) tn (5.144)
2m m! (1 − 2tx + t2 )m+1/2 n=0 n+m
m+1 m+1
(2n + 1)(1 − x2 )1/2 Pnm = Pn+1 − Pn−1 (5.146)
m−1 m−1
= (n + m)(n + m − 1)Pn−1 − (n − m + 1)(n − m + 2)Pn+1
(5.147)
5.2.5. Paridad
A partir de (5.133) y la paridad de los polinomios Pn (x) encontramos que
Además
(±1)n , m = 0
Pnm (±1) = . (5.149)
0, m=6 0
5.2.6. Ortogonalidad
Z 1
2 (n + m)!
Pnm (x)Pnm0 (x) dx = δn,n0 . (5.150)
−1 2n + 1 (n − m)!
Es por esto muy útil y común definir las funciones armónicas esféricas Ylm (θ, ϕ) que, incorpo-
rando una normalización conveniente, son definidas por:
r s
2l + 1 (l − m)!
Ylm (θ, ϕ) := (−1)m · · P m (cos θ) · eimϕ . (5.152)
4π (l + m)! l
Simetrı́a:
Cuadro 5.1: Algunas funciones armónicas esféricas comúnmente usadas (l, m = 0, . . . , 3).
Ortonormalidad:
I Z 2π Z π
m m0 ∗ 0 ∗
Yl (θ, ϕ)·(Yl0 ) (θ, ϕ) dΩ = Ylm (θ, ϕ)·(Ylm
0 ) (θ, ϕ) sen θdθdϕ = δll0 δmm0 ,
0 0
(5.154)
donde dΩ = sen θdθdϕ es el elemento de ángulo sólido.
Como consecuencia de la ortogonalidad de las funciones Ylm , éstas son linealmente in-
dependientes.
Las funciones Ylm forman un sistema completo de funciones. Toda función f (θ, ϕ) que
satisface Z
|f (θ, ϕ)|2 dΩ < ∞, (5.155)
En otras palabras, las funciones Ylm son funciones propias del operador L̂2 , con valor
propio l(l + 1). En términos de L̂2 , podemos escribir el operador de Laplace como:
1 ∂2 1
∇2 = 2
(r·) − 2 L̂2 . (5.161)
r ∂r r
47
Figura 5.8: Representación gráfica de (la parte real de) algunas funciones armónicas esféri-
cas. Código Python aquı́.
n
4π X
Pn (cos γ) = Y m (θ1 , ϕ1 )(Ynm )∗ (θ2 , ϕ2 ), (5.162)
2n + 1 m=−n n
donde γ es el el ángulo entre las direcciones definidas por los pares (θ1 , ϕ1 ) y (θ2 , ϕ2 ), por lo
que están relacionados por
Un caso particular interesante de esta identidad se encuentra cuando ambas direcciones son
iguales, de modo que θ1 = θ2 = θ y ϕ1 = ϕ2 = ϕ, de modo que γ = 0 y entonces
n
4π X
Pn (0) = |Y m (θ, ϕ)|2 . (5.164)
2n + 1 m=−n n
48
De aquı́ obtenos directamente que
n
X 2n + 1
|Ynm (θ, ϕ)|2 = , (5.165)
m=−n
4π
lo que además permite encontrar la siguiente cota superior para el módulo de las funciones
armónicas esféricas: r
m 2n + 1
|Yn (θ, ϕ)| ≤ . (5.166)
4π
El teorema de adición es muy útil en Fı́sica puesto que permite realizar expansiones de
funciones como |~x1 − ~x2 |−1 que aparece comúnmente en distintas expresiones
Si r2 < r1 , con r1 = |~x1 | y r2 = |~x2 | entonces
1 1 1 1
=p 2 = p , (5.167)
|~x1 − ~x2 | 2
r1 + r2 − 2r1 r2 cos γ r1 1 + t2 − 2t cos γ
49
Capı́tulo 6
Funciones de Bessel
50
donde α es una constante (no necesariamente un entero) que será elegida convenientemente.
Suponiendo (6.3), las derivadas de y(z) adoptan la forma siguiente:
∞
X ∞
X
y0 = (n + α)an z n+α−1 , y 00 = (n + α)(n + α − 1)an z n+α−2 . (6.4)
n=0 n=0
donde a0 es una constante arbitraria. Es conveniente definir las funciones de Bessel de primera
especie y orden ν, Jν (z), como las soluciones correspondientes al caso en que a0 := 1/2ν Γ(ν +
1), de modo que
∞
X (−1)k z 2k+ν
Jν (z) = . (6.14)
k!Γ(k + ν + 1) 2
k=0
51
Expandiendo los primeros términos, encontramos:
1 z ν 1 z ν+2
Jν (z) = − + ··· (6.15)
Γ(ν + 1) 2 Γ(ν + 2) 2
1 z ν 1 z 2
= 1− + ··· . (6.16)
Γ(ν + 1) 2 (ν + 1) 2
Como la E.D.O. de Bessel (6.1) depende del cuadrado de ν, tendremos que
∞
X (−1)k z 2k−ν
J−ν (z) = , (6.17)
k!Γ(k − ν + 1) 2
k=0
Podemos verificar que estas soluciones no son independientes, sino que compinaciones
lineales de J1/2 (z) y J−1/2 (z), ya que
∞
X (−1)k z 2k+1/2
J1/2 (z) = (6.27)
k!Γ(k + 1/2 + 1) 2
k=0
∞
X (−1)k z 2k+1/2
= (6.28)
k!Γ(k + 3/2) 2
k=0
1/2 X ∞
2 (−1)k 2k+1
= z (6.29)
πz (2k + 1)!
k=0
1/2
2
= sen z. (6.30)
πz
53
ya que
1 Γ(k + 32 )
Γ(k + ) = ) (6.42)
2 (k + 12
√
π (2k + 1)!
= 2k+1 (6.43)
2 (k + 21 )k!
√
π (2k)!
= 2k . (6.44)
2 k!
Caso en que α2 6= ν 2
Suponemos ahora que α2 6= ν 2 , entonces a0 = 0 con lo cual a2k = 0 y además a1 6= 0.
Luego, (α + 1)2 − ν 2 = 0. Reemplazando esto útlimo en (6.9), se obtiene que
an−2
an = − . (6.45)
(n − 1)(n + 1 + 2α)
(−1)k a1 1
a2k+1 = (6.46)
22k k! (α + 2)(α + 3)(α + 4) · · · (α + k + 1)
(−1)k a1 Γ(α + 2)
= . (6.47)
22k k! Γ(α + k + 2)
54
Podemos verificar estas relaciones usando directamente la expresión en serie de potencias (6.14).
En efecto,
∞ ∞
X (−1)k z 2k+ν−1 X (−1)k z 2k+ν+1
Jν−1 (z) + Jν+1 (z) = + (6.51)
k!Γ(k + ν) 2 k!Γ(k + ν + 2) 2
k=0 k=0
"∞ ∞
#
2 X (−1)k z 2k+ν X (−1)k z 2k+ν+2
= +
z k!Γ(k + ν) 2 k!Γ(k + ν + 2) 2
k=0 k=0
(6.52)
"∞
2 X (−1)k (k + ν) z 2k+ν
=
z k!Γ(k + ν + 1) 2
k=0
∞
#
X (−1)k−1 z 2k+ν
+ (6.53)
(k − 1)!Γ(k + ν + 1) 2
k=1
"∞ ∞
#
2 X (−1)k (k + ν) z 2k+ν X (−1)k−1 k z 2k+ν
= +
z k!Γ(k + ν + 1) 2 Γ(k + ν + 1) k! 2
k=0 k=1
(6.54)
∞
2 X (−1)k z 2k+ν
= [(k + ν) − k] (6.55)
z k!Γ(k + ν + 1) 2
k=0
∞
2ν X (−1)k z 2k+ν
= (6.56)
z k!Γ(k + ν + 1) 2
k=0
2ν
= Jν (z). (6.57)
z
De manera análoga, realizando ahora la resta de Jν−1 (z) y Jν+1 (z) obtenemos (ver (6.51) y
(6.55)):
∞ ∞
X (−1)k z 2k+ν−1 X (−1)k z 2k+ν+1
Jν−1 (z) − Jν+1 (z) = − (6.58)
k!Γ(k + ν) 2 k!Γ(k + ν + 2) 2
k=0 k=0
∞
2 X (−1)k z 2k+ν
= [(k + ν) + k] (6.59)
z k!Γ(k + ν + 1) 2
k=0
∞
X (−1)k z 2k+ν−1
= (2k + ν) (6.60)
kΓ(k + ν + 1) 2
k=0
∞
d X (−1)k z 2k+ν
=2 (6.61)
dz k!Γ(k + ν + 1) 2
k=0
= 2Jν0 (z). (6.62)
A partir de las relaciones (6.49) y (6.50) podemos derivar otras relaciones. Por ejemplo, su-
mando (6.49) y (6.50) llegamos a
ν
Jν−1 (z) = Jν0 (z) + Jν (z) (6.63)
z
d
= z −ν [z ν Jν (z)] . (6.64)
dz
55
Similarmente, la suma de (6.49) y (6.50) conduce a
ν
Jν+1 (z) = −Jν0 (z) + Jν (z) (6.65)
z
d
= −z ν z −ν Jν (z) .
(6.66)
dz
Finalmente, podemos verificar que estas relaciones implican que las funciones Jν (z) satisfacen
la ecuación de Bessel. A partir de (6.63) tenemos que zJν0 = zJν−1 − νJν . Derivando y
multiplicando por z esta relación, tenemos que
d
(zJν0 ) = z Jν−1 + zJν−10
− νJν0
z (6.67)
dz
0
= zJν−1 + z 2 Jν−1 − νzJν0 . (6.68)
d
z (zJν0 ) = zJν−1 + z [(ν − 1)Jν−1 − zJν ] − ν(zJν−1 − νJν ) (6.69)
dz
= −(z 2 − ν 2 )Jν , (6.70)
56
αm,n n=1 n=2 n=3 n=4 n=5
m=0 2.4048255 5.5200781 8.6537279 11.7915344 14.9309177
m=1 3.8317059 7.0155866 10.1734681 13.3236919 16.4706300
m=2 5.1356223 8.4172441 11.6198411 14.7959517 17.9598194
m=3 6.3801619 9.7610231 13.0152007 16.2234661 19.4094152
m=4 7.5883424 11.0647094 14.3725366 17.6159660 20.8269329
Cuadro 6.1: Las primeras raı́ces αm,n de Jm (x), m = 0, 1, 2, 3, 4. Código Python disponible
en este notebook.
57
50
40
30
αm, n
20
10
0 0 1 2 3 4 5 6 7 8 9
m
Figura 6.1: Algunos ceros de las funciones Jm (x). Código Python disponible en este note-
book.
m=0
3.8 m=1
m=2
m=3
m=4
3.6 m=5
αm, n + 1 − αm, n
m=6
m=7
3.4 m=8
m=9
3.2
3.0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
n
Figura 6.2: Diferencias entre ceros sucesivos de las funciones Jm (x). Código Python dispo-
nible en este notebook.
Es también frecuente requerir calcular las raı́ces de las derivadas de las funciones de Bessel.
Éstas serán denotadas por βν,n y entonces satisfacen Jν0 (βν,n ) = 0 y βν,n+1 < αβ,n , n =
1, 2, · · · . La tabla 6.2 resume algunos de estos valores:
Similarmente,
a
a2 ν2
Z
βν,n βν,m
Jν ρ Jν ρ ρ dρ = δn,m 1− 2 [Jν (βν,n )]2 . (6.83)
0 a a 2 βν,n
1.0 n=0
n=1
n=2
n=3
n=4
0.5
Jn (x)
0.0
0.5
10 5 0 5 10
x
Figura 6.3: Primeras cinco funciones de Bessel de primera especie y orden entero. Código
Python aquı́.
y como Γ(k + n + 1) tiene argumento entero, coincide con el factorial (k + n)!. Por lo tanto,
∞
X (−1)k z 2k+n
Jn (z) = . (6.85)
k!(k + n)! 2
k=0
59
Por otro lado, reemplazando ν = −n, con n = 0, 1, 2, · · · , en (6.14) (o, equivalentemente
ν = n en (6.15)), obtenemos
∞
X (−1)k z 2k−n
J−n (z) = . (6.86)
k!Γ(k − n + 1) 2
k=0
Aquı́ hay que mirar cuidadosamente el caso en que (k − n + 1) asume valores enteros
negativos, puesto que en esos casos la función Γ(k − n + 1) diverge. Los casos en que k −
n + 1 = 0, 1, 2, · · · se presentan cuando k = n − 1, n − 2, · · · , 0 respectivamente. Como
1/Γ(k − n + 1) → 0 en estos casos2 , entonces los coeficientes de la suma en (6.86) tenderán
a cero para todo k = 0, 1, · · · , n − 1. Por lo tanto, sólo contribuirán los términos con k ≥ n.
Entonces (6.86) se reduce a
∞
X (−1)k z 2k−n
J−n (z) = (6.87)
k!Γ(k − n + 1) 2
k=n
∞
X (−1)k+n z 2k+n
= (6.88)
(k + n)!Γ(k + 1) 2
k=0
∞
X (−1)k z 2k+n
= (−1)n (6.89)
(k + n)!k! 2
k=0
= (−1)n Jn (z). (6.90)
Note además que, como puede verse de su expresión en serie, las funciones Jn (z) tienen
paridad n, es decir,
Jn (−z) = (−1)n Jn (z). (6.91)
De esta forma, podemos entender a g(t, z) como la función generadora de las funciones de
Bessel de orden entero, por medio de la expansión (de Laurent) en potencias de t.
Para determinar la forma explı́cita de g(t, z) podemos proceder como sigue. Derivamos
(6.92) con respecto a z y usamos la relación de recurrencia (6.50) para expresar Jn0 (z) en
2
En otras palabras, estamos considerando (o definiendo) J−n como el lı́mite de J−ν cuando ν se acerca
al entero n: J−n (z) := lı́mν→n J−ν (z).
60
términos de Jn−1 (z) y Jn+1 (z). Con esto, podemos escribir:
∞
∂g X
= J 0 (z)tn (6.93)
∂z n=−∞ n
∞
1 X
= (Jn−1 (z) − Jn+1 (z)) tn (6.94)
2 n=−∞
" ∞ ∞
#
1 X
n−1 −1
X
n+1
= t Jn−1 (z)t −t Jn+1 (z)t (6.95)
2 n=−∞ n=−∞
∞
1 X
= t − t−1 Jn (z)tn (6.96)
2 n=−∞
1
t − t−1 g(t, z).
= (6.97)
2
Podemos encontrar una expresión para la función generadora a partir de esta relación, con-
siderándola como una ecuación diferencial para g(t, z). La solución es necesariamente de la
forma
z −1
g(t, z) = f (t) e 2 (t−t ) . (6.98)
Finalmente, la función f (t) puede determinarse evaluando (6.92) para z = 0 y luego compa-
rando con (6.98):
∞
X
g(t, 0) = f (t) = Jn (0)tn = J0 (0) = 1. (6.99)
n=−∞
Aquı́ usamos el hecho que todas las funciones de Bessel de orden entero se anulan en z = 0,
excepto para n = 0, ya que J0 (0) = 1.
Por lo tanto, obtenemos:
∞
z −1
g(t, z) = e 2 (t−t ) =
X
Jn (z)tn . (6.100)
n=−∞
∞
X
g(t, eiθ ) = eiz sen θ = Jn (z)einθ . (6.101)
n=−∞
Esto significa que las funciones de Bessel son los coeficientes de la expansión en serie de Fourier
de la función eiz sen θ . Por lo tanto,
Z 2π
1
Jn (z) = eiz sen θ e−inθ dθ. (6.102)
2π 0
61
Como ei(z sen θ−nθ) = cos(z sen θ − nθ) + i sen(z sen θ − nθ), vemos que el integrando se divide
en una contribución par y otra impar en θ. Por lo tanto,
Z π
1
Jn (z) = cos(z sen θ − nθ) dθ. (6.104)
π 0
En particular,
Z π Z π
1 iz sen θ 1
J0 (z) = e dθ = cos(z sen θ) dθ. (6.105)
2π −π π 0
∞
X
cos(x sen θ) = J0 (x) + 2 J2n (x) cos(2nθ), (6.111)
n=1
∞
X
sen(x sen θ) = 2 J2n−1 (x) sen[(2n − 1)θ]. (6.112)
n=1
62
6.5. Funciones de Bessel de orden semi-entero
Podemos encontrar las otras funciones de Bessel de orden semi-entero usando las relaciones
de recurrencia (6.49) y (6.50). Por ejemplo
(1/2) 0
J3/2 (z) = J1/2 (z) − J1/2 (z) (6.114)
z
1 2 1/2 −1/2
1/2 1/2
1 2 2
= z sen z − − z −3/2 sen z − z −1/2 cos z
2z π 2 π π
(6.115)
= 2−1/2 π −1/2 z −3/2 sen z + 2−1/2 π −1/2 z −3/2 sen z − 2−1/2 π −1/2 cos z (6.116)
1/2 1/2
2 −3/2 2
= z sen z − z −1/2 cos z (6.117)
π π
1/2
2
= z −3/2 sen z − z −1/2 cos z . (6.118)
π
Además, puede usarse la misma expresión (6.119) en el caso en que ν es entero (ν = n).
Sabemos que en este caso, J−n (z) no es linealmente independiente de J−n (z) ya que se cumple
que J−n (z) = (−1)n Jn (z). No obstante, podemos usar (6.119) para encontrar la segunda
solución linealmente independiente Yn (z), como el lı́mite de (6.119) cuando el parámetro ν se
acerca al entero n, es decir,
Jν (z) cos(νπ) − J−ν (z)
Yn (z) := lı́m , n = 0, ±1, ±, 2, · · · . (6.121)
ν→n sen(νπ)
Note que los coeficientes de la combinación lineal (6.119) son tales que el lı́mite es no trivial,
ya que tanto el numerador como el denominador tienden a cero cuando ν tiende a n. Por esto,
usando la regla de L’Hôpital, encontramos que
1 ∂Jν (z) n ∂J−ν (z)
Yn (z) = − (−1) . (6.122)
π ∂ν ∂ν ν=n
Puede (hágalo!) verificarse que la función definida por (6.122), efectivamente satisface la ecua-
ción de Bessel (6.1). Además, de (6.122) se sigue, usando (∂Jν /∂ν)ν=−n = −(∂J−ν /∂ν)ν=n ,
que
Y−n (z) = (−1)n Yn (z). (6.123)
63
Por otro lado, de la expansión (6.15) obtenemos que cerca de z = 0, y para ν > 0,
ν ν
1 1 2 1 2
Yν (z) ≈ − = − Γ(ν) . (6.124)
sen(νπ) Γ(1 − ν) z π z
de donde vemos que estas funciones divergen en el origen. Note que incluso Y0 (z) diverge en
z = 0, ya que3
2 h z i
Y0 (z) ≈ ln +γ , z ≈ 0, (6.127)
π 2
donde γ = −Ψ0 (1) es la constante de Euler-Mascheroni, γ = 0,5772 · · · .
Z π Z ∞
1 1
ent + (−1)n e−nt e−x senh t dt.
Yn (x) = sen(x sen θ − nθ) dθ − (6.128)
π 0 π 0
64
0.5
0.0
0.5
Yn (x)
1.0
n=0
1.5 n=1
n=2
n=3
n=4
2.00 2 4 6 8 10
x
Figura 6.4: Primeras cinco funciones de Bessel de segunda especie (funciones de Neumann)
de orden entero. Código Python aquı́.
Las funciones de Hankel son linealmente independientes para todo ν, y satisfacen las mismas
relaciones de recurrencia que las funciones de Bessel. La utilidad de su definición resulta clara
al considerar su forma asintótica. Usando (6.81) y (6.120) se encuentra que
r r
(1) 2 i(x−νπ/2−π/4) (2) 2 −i(x−νπ/2−π/4) 2 π
Hν (x) ≈ e , Hν (x) ≈ e , x ν − .
πx πx 4
(6.133)
Las soluciones finitas en x = 0 de esta ecuación son de la forma y(x) = Jν (ix). Como estamos
especialmente interesados en el caso en que tanto x como y son reales, es conveniente definir
las funciones modificadas de Bessel de primera especie y orden ν:
65
La función Iν (x) ası́ definida es real. En efecto, de la expansión en serie (6.14)
Por lo tanto,
∞
X 1 x 2k+ν
Iν (x) = . (6.139)
k!Γ(k + ν + 1) 2
k=0
10
5
In (x)
n=0
5 n=1
n=2
n=3
n=4
10 4 3 2 1 0 1 2 3 4
x
Figura 6.5: Primeras cinco funciones modificadas de Bessel (de primera especie) de orden
entero. Código Python aquı́.
Las funciones Iν (x) satisfacen las siguientes relaciones de recurrencia, que se siguen a partir
de (6.49), (6.50) y (6.135):
Iν−1 (x) + Iν+1 (x) = 2Iν0 (x), (6.142)
2ν
Iν−1 (x) − Iν+1 (x) = Iν (x). (6.143)
x
66
6.8.1. Funciones Modificadas de Bessel de segunda especie
En analogı́a con lo visto en la sección 6.6, es conveniente introducir las funciones de segunda
especie, ahora denotadas por Kν (x), y definidas de la forma siguiente:
π I−ν (x) − Iν (x)
Kν (x) := , ν 6= n = 0, ±1, ±2, · · · . (6.144)
2 sen(νπ)
Note que como consecuencia de esta definición K−ν (x) = Kν (x), por lo que es suficiente
considerar ν ≥ 0. Con estas definiciones, Iν y Kν son l.i. para todo ν, y su forma asintótica es
nuevamente “complementaria” ya que
r
π −x
Kν (x) ≈ e . (6.145)
2x
En el caso de ν entero, la definición se realiza como el lı́mite ν → n, es decir,
π I−ν (x) − Iν (x)
Kn (x) := lı́m , n = 0, 1, 2, · · · . (6.146)
ν→n 2 sen(νπ)
Usando nuevamente la regla de L’Hôpital, podemos escribir
(−1)n ∂I−ν (x) ∂Iν (x)
Kn (x) = − . (6.147)
2 ∂ν ∂ν ν=n
4.0
n=0
n=1
3.5 n=2
n=3
3.0 n=4
2.5
Kn (x)
2.0
1.5
1.0
0.5
Figura 6.6: Primeras cinco funciones modificadas de Bessel de segunda primera especie y
orden entero. Código Python aquı́.
Por lo tanto,
∞
n n
X (−1)k (k + n)!
jn (x) = 2 x x2k . (6.159)
k! (2k + 2n + 1)!
k=0
4
y usando la “fórmula de duplicación de Legendre”, ver por ejemplo ec. (10.66b) de [2]: Γ(z + 1)Γ(z +
1/2) ≡ 2−2z π 1/2 Γ(2z + 1), con z = k + n + 1/2.
68
Estas ecuaciones satisfacen entonces la EDO esférica de Bessel:
d 2 dy
x + [x2 − n(n + 1)]y(x) = 0. (6.161)
dx dx
d n+1
jn−1 (x) = x−n−1
x jn (x) , (6.163)
dx
d −n
jn+1 (x) = −xn
x jn (x) . (6.164)
dx
Aplicando sucesivamente (6.164) obtenemos una expresión en términos de la función j0 (x):
n
n 1 d
jn (x) = (−x) j0 (x). (6.165)
x dx
Similarmente, n
n 1 d
yn (x) = (−x) y0 (x). (6.166)
x dx
n
n 1 d cos x
yn (x) = −(−x) . (6.168)
x dx x
Con ellas podemos calcular explı́citamente las funciones que necesitemos. Por ejemplo:
sen x
j0 (x) = , (6.169)
x
sen x cos x
j1 (x) = 2
− , (6.170)
x x
3 sen x 3 cos x
j2 (x) = 2
−1 − , (6.171)
x x x2
15 6 sen x 15 cos x
j3 (x) = 3
− − 2
−1 , (6.172)
x x x x x
69
cos x
y0 (x) = −j−1 (x) = − , (6.173)
x
cos x sen x
y1 (x) = j−2 (x) = − 2 − , (6.174)
x x
3 cos x 3 sen x
y2 (x) = −j−3 (x) = − 2 + 1 − , (6.175)
x x x2
15 6 cos x 15 sen x
y3 (x) = j−4 (x) = − 3 + − 2
−1 . (6.176)
x x x x x
1.0 n=0
n=1
n=2
0.8 n=3
n=4
0.6
0.4
jn (x)
0.2
0.0
0.2
0.4
0 2 4 6 8 10
x
Figura 6.7: Primeras cinco funciones esféricas de Bessel de primera especie de orden entero.
Código Python aquı́.
1.0
n=0
n=1
n=2
n=3
0.5 n=4
yn (x)
0.0
0.5
1.0 20 15 10 5 0 5 10 15 20
x
Figura 6.8: Primeras cinco funciones esféricas de Bessel de segunda especie (funciones de
Newmann) de orden entero. Código Python aquı́.
70
6.9.3. Relaciones de Ortogonalidad
Nuevamente, podemos encontrar relaciones válidas para las funciones esféricas a partir de
aquellas derivadas para las funciones de Bessel Jν . A partir de (6.82) se sigue directamente que
a
a3
Z
ᾱn,m ᾱn,m0
jn r jn r r2 dr = δm,m0 [jn+1 (ᾱn,m )]2 , (6.177)
0 a a 2
donde ᾱn,m denota la m-ésima raiz de la la función esférica jn (x). Ya que jn es proporcional
a Jn+1/2 , entonces ᾱn,m = αn+1/2,m .
h(1)
n (x) = jn (x) + iyn (x), (6.178)
h(2)
n (x) = jn (x) − iyn (x). (6.179)
n
eix X im (n + m)!
h(1)
n (x) = (−i)
n+1
m
(6.180)
x m!(2x) (n − m)!
m=0
es una combinación lineal de las funciones modificadas esfércias de Bessel de primera y segunda
especie, in (x) y kn (x) respectivamente, definidas en términos de las funciones (modificadas)
de Bessel como
r r
−n π n π
in (x) := i jn (ix) = In+1/2 (x), kn (x) := −i yn (ix) = K (x). (6.188)
2x 2x n+1/2
71
Relaciones de Recurrencia
2n + 1
in−1 (x) − in+1 (x) = in (x), (6.189)
x
nin−1 (x) + (n + 1)in+1 (x) = (2n + 1)i0n (x), (6.190)
2n + 1
kn−1 (x) − kn+1 (x) = − kn (x), (6.191)
x
nkn−1 (x) + (n + 1)kn+1 (x) = −(2n + 1)kn0 (x), (6.192)
d d
in+1 (x) = xn (x−n in ), kn+1 (x) = −xn (x−n kn ). (6.193)
dx dx
Formas asintóticas
2n n! (2n)! −n−1
in (x) ≈ xn , kn (x) ≈ x , x 1, (6.194)
(2n + 1)! 2n n!
ex −ex n(n + 1)
in (x) ≈ , kn (x) ≈ , x . (6.195)
2x x 2
Expresiones explı́citas
n n
e−x
n 1d senh x n n 1d
in (x) = x , kn (x) = (−1) x , (6.196)
x dx x x dx x
senh(x)
i0 (x) = , (6.197)
x
senh(x)
i1 (x) = − cosh(x), (6.198)
x
cosh(x) senh(x)
i2 (x) = − , (6.199)
x x2
senh(x) 3 senh(x) 3 cosh(x)
i3 (x) = + − , (6.200)
x x3 x2
6 senh(x) 15 senh(x) cosh(x) 15 cosh(x)
i4 (x) = − − + + , (6.201)
x2 x4 x x3
e−x
k0 (x) = , (6.202)
x
e−x e−x
k1 (x) = + , (6.203)
x x2
e−x 3 e−x 3 e−x
k2 (x) = + + , (6.204)
x x2 x3
e−x 6 e−x 15 e−x 15 e−x
k3 (x) = + + + , (6.205)
x x2 x3 x4
e−x 10 e−x 45 e−x 105 e−x 105 e−x
k4 (x) = + + + + . (6.206)
x x2 x3 x4 x5
72
16
n=0
n=1
14 n=2
n=3
12 n=4
10
in (x)
00 1 2 3 4 5
x
Figura 6.9: Primeras cinco funciones esféricas modificadas de Bessel de primera especie de
orden entero. Código Python aquı́.
15
n =0
n =1
10 n =2
n =3
n =4
5
kn (x)
10
15
4 2 0 2 4
x
Figura 6.10: Primeras cinco funciones esféricas modificadas de Bessel de segunda especie
(funciones de Newmann) de orden entero. Código Python aquı́.
73
Capı́tulo 7
Funciones de Green
7.1. Motivación
El método de las funciones de Green1 permite reducir el problema de encontrar una solución
de una E.D.P. lineal inhomogénea a una forma estándar.
Por ejemplo, en electrostática, el potencial satisface la ecuación de Poisson (3D):
ρ(x)
∇2 φ = − . (7.1)
ε0
Además, sabemos que para una carga puntual ubicada en el punto con coordenadas ~x0
1 q
φ(~x) = , (7.2)
4πε0 |~x − ~x0 |
y que el potencial producido por una distribución continua de carga con densidad ρ(~x) es
ρ(~x0 )
Z
1
φ(~x) = dV 0 . (7.3)
4πε0 V |~x − ~x0 |
En ambos casos se eligió el potencial nulo en el infinito. Vemos entonces que en la solución
general (7.3) aparece la función
1 1
G(~x, ~x0 ) = − . (7.4)
4π |~x − ~x0 |
de modo que
ρ(~x0 )
Z
φ(~x) = G(~x, ~x0 ) − dV 0 . (7.5)
V ε0
La función (7.4) satisface
∇2 G(~x0 , ~x) = δ (3) (~x − ~x0 ). (7.6)
Como veremos a continuación, la propiedad (7.6) es la que permite encontrar soluciones de la
ecuación inhomogénea (7.1).
ρ(~x0 )
Z
0
2
∇ φ(~x) = ∇ 2
G(~x, ~x ) − dV 0 (7.7)
V ε0
ρ(~x0 )
Z
∇ G(~x, ~x0 ) − dV 0
2
= (7.8)
V ε 0
ρ(~x0 )
Z
0
= δ(~x − ~x ) − dV 0 (7.9)
V ε0
ρ(~x)
=− . (7.10)
ε0
1
George Green (1793-1841): matemático británico. Ver http://es.wikipedia.org/wiki/George_Green.
74
7.2. Generalización
Consideremos la E.D.P. lineal inhomogénea de la forma (en d-dimensiones)
donde f (~x) es una función “fuente” conocida, y L̂ es el operador lineal definido por
h i
~ · p(~x)∇Ψ
L̂Ψ = ∇ ~ + q(~x)Ψ, (7.12)
En el último paso, hemos asumido que el punto ~x ∈ V para evaluar la integral que involucra
la delta de Dirac. El resultado (7.14) se sigue de igualar (7.15) y (7.20).
La solución de la ecuación (7.13) queda determinada, además de la función fuente f (~x),
por las condiciones de borde del problema. Tı́picamente, estas condiciones de borde se expresan
como condiciones que la solución debe satisfacer en la frontera ∂V . Esta información modifica
la solución a través de los términos de borde en (7.14). Sin embargo, la integral sobre ∂V
en (7.14) depende tanto del valor de la incógnita como de su derivada normal, y usualmente
no se conoce simultáneamente estos dos valores. Más aún, en general puede ser inconsistente
imponer simultáneamente el valor de Ψ y de su derivada normal en ∂V .
~ sobre
Si las condiciones de borde son tipo Neumann, es decir se conoce ∂Ψ/∂n = n̂ · ∇Ψ
∂V , entonces es conveniente escoger una función de Green que satisfaga condiciones de
Neumann homogéneas en la frontera:
∂G(~x, ~x0 )
= 0, ∀ ~x0 ∈ ∂V. (7.24)
∂n0
Entonces, la solución es dada por
Z I
0 0 0
Ψ(~x) = G(~x, ~x )f (~x )dV − p(~x0 )G(~x, ~x0 )∇~ 0 Ψ(~x0 ) · dS
~0 (7.25)
ZV I∂V
∂Ψ(~x0 ) 0
= G(~x, ~x0 )f (~x0 )dV 0 − p(~x0 )G(~x, ~x0 ) dS . (7.26)
V ∂V ∂n0
Note que, sin embargo, dependiendo del operador L̂ puede no ser posible elegir la función
~ 0 G(~x, ~x0 ) = 0 sobre toda la frontera ∂V . Esto ocurre, en el importante
de Green tal que n̂ · ∇
caso del operador Laplaciano, L̂ = ∇2 .
Por lo tanto, la función de Green es simétrica si la integral del segundo término en (7.28) se
anula. Esto puede ocurrir, tı́picamente, si la función de Green se anula en la frontera:
76
7.4. Expresiones explı́citas de algunas funciones de Green
La función de Green definida por la ecuación (7.13) no es única. Si G1 (~x, ~x0 ) es solución,
entonces G2 (~x, ~x0 ) := G1 (~x, ~x0 ) + H(~x, ~x0 ) también es solución, si H(~x, ~x0 ) es solución del
problema homogéneo asociado,
L̂H(~x, ~x0 ) = 0. (7.30)
Este hecho permite considerar soluciones soluciones particulares simples como base para otras
funciones de Green, que pueden obtenerse agregando una solución de la ecuación homogénea de
modo que la función resultante satisfaga las condiciones de borde que simplifiquen el problema.
D=3
En coordenadas esféricas centradas en ~x0
2 1 d 2 dG
∇ G= 2 r = δ (3) (r) (7.32)
r dr dr
por lo tanto
1 d 2 dG
r = 0, r 6= 0. (7.33)
r2 dr dr
La solución para r 6= 0 se encuentra entonces rápidamente integrando esta ecuación, obteniendo
β
G(r) = α + . (7.34)
r
Por otro lado, la condición (7.32) implica, usando el teorema de Gauss, que
Z Z
~ ~ dG 2
∇G · dS = r dΩ = 1, (7.35)
∂V ∂V dr
que requiere entonces que −4πβ = 1. Finalmente, en la mayorı́a de los problemas es con-
veniente elegir una función de Green que se anule para distancias muy grandes, es decir, tal
que lı́mr→∞ G(r) = 0. Esta condición impone que α = 0 (note que, equivalentemente, esta
condición implica agregar la solución homogénea H = −α a la función de Green original), y
por lo tanto
1 1
G(~x − ~x0 ) = − . (7.36)
4π |~x − ~x0 |
77
D=2
En coordenadas polares (ρ, ϕ) centradas en ~x0 , con G = G(ρ)
2 1d dG
∇ G= ρ = δ (2) (ρ). (7.37)
ρ dρ dρ
Integrando la ecuación para ρ 6= 0, es decir,
1d dG
ρ = 0, (7.38)
ρ dρ dρ
encontramos que
G(ρ) = α + β ln ρ. (7.39)
Nuevamente, el teorema de Gauss (versión 2D),
Z I
~ · dS ~= dG
∇G ρ dϕ = 2πβ = 1. (7.40)
∂S dρ
De esto modo, eliminando el término constante (que es una solución de la ecuación homogénea),
encontramos
1
G(~x − ~x0 ) = ln |~x − ~x0 |. (7.41)
2π
D=3
En coordenadas esféricas centradas en ~x0
2 2 1 d 2 dG
(∇ + k )G = 2 r + k 2 G = δ (3) (r), (7.42)
r dr dr
por lo tanto
1 d 2 dG
r + k 2 G = 0, r 6= 0. (7.43)
r2 dr dr
Para solucionar (7.43) realizamos el cambio de variable G(r) = u(r)/r, que conduce a r2 dG/dr =
ru0 − u. Con esto, (7.43) se reduce a u00 + k 2 u = 0. Por lo tanto, las soluciones son de la forma
eikr e−ikr
G(r) = α +β . (7.44)
r r
Con esta solución, válida para r 6= 0, retornamos a la ecuación (7.42) que, luego de integrar
sobre una esfera de radi R centrada en r = 0 y usando el teorema de Gauss, implica que
I Z
1= ~ ~
∇G · dS + k 2
G dV (7.45)
I∂V ZV
dG 2
= r dΩ + k 2 Gr2 drdΩ (7.46)
∂V dr V
Z R
0 2 2
= 4πG R + 4πk Gr2 dr (7.47)
0
h i Z Rh i
= 4π α (ikR − 1) eikR − β (ikR + 1) e−ikR + 4πk 2 αeikr + βe−ikr r dr (7.48)
0
= −4π(α + β). (7.49)
78
De esta forma encontramos las condición
1
α+β =− , (7.50)
4π
que permite escribir la solución (7.44) como
1 eikr sen(kr)
G(r) = − − iβ . (7.51)
4π r r
Note que el segundo término es una solución de la ecuación de Helmholtz homogñenea (es
proporcional a la función esférica de Bessel j0 (kr)). Por lo tanto, es posible elegir
0
+ 0 1 eik|~x−~x |
G (~x, ~x ) = − , (7.52)
4π |~x − ~x0 |
D=2
En coordenadas polares (ρ, ϕ) centradas en ~x0 , con G = G(ρ)
2 2 1d dG
(∇ + k )G = ρ + k 2 G = δ (2) (ρ). (7.54)
ρ dρ dρ
Para ρ 6= 0,
1d dG
ρ + k 2 G = 0. (7.55)
ρ dρ dρ
Definiendo x := kρ esta ecuación se reduce a
d dG
x x + x2 G(x) = 0, x 6= 0, (7.56)
dx dx
que es la ecuación de Bessel de orden ν = 0, ver (6.1). Por lo tanto, su solución general es de
la forma
(1) (2)
G(ρ) = αJ0 (kρ) + βN0 (kρ) = α̃H0 (kρ) + β̃H0 (kρ). (7.57)
Nuevamente, retornando a la ecuación original (7.54) e integrando sobre un cı́rculo S de radio
R centrado en ρ = 0, obtenemos
I Z
1= ~ ~
∇G · dS + k 2
G dS (7.58)
∂S S
Z R
dG 2
= 2π R (kR) + k Gρ dρ (7.59)
dρ 0
Z kR
0(1) 0(2) (1) (2)
= 2π kR α̃H0 (kR) + β̃H0 (kR) + α̃H0 (x) + β̃H0 (x) x dx . (7.60)
0
79
0(1) (1) (1) (1)
Usando las identidades H0 (x) = −H1 (x) y xH0 (x) = d[xH1 (x)]/dx y similarmente
0(2) 0(2)
para H0 y H1 , evaluamos la expresión anterior, obteniendo
(1) (2)
1 = −2π lı́m α̃xH1 (x) − β̃xH1 (x) (7.61)
x→0
2i 2i
= 2π α̃ − β̃ (7.62)
π π
= 4i(α̃ − β̃). (7.63)
Tal como en el caso anterior, el término proporcional a β̃ es una solución del problema ho-
mogéneo. Si elegimos β̃ = 0, encontramos la siguiente función de Green:
i (1)
G(1) (~x, ~x0 ) = − H0 (k|~x − ~x0 |). (7.66)
4
80
Capı́tulo 8
Tensores
81
Consideramos una base ortonormal (BON) {êi } (i = 1, · · · , n) de vectores, es decir, tal
que
êi · êj = δij , (8.1)
donde δij denota la Delta de Kronecker, definida como los n2 valores dados por
(
1, si i = j
δij := . (8.2)
0, si i 6= j
Note que esta Delta de Kronecker puede ser representada matricialmente por la matriz identidad
n × n.
En el espacio euclideano En es posible definir (consistentemente) el vector posición ~x,
que une el origen del SCO con un punto con coordenadas xi , por
n
X
~x = xi êi . (8.3)
i=1
En este sentido, las coordenadas xi son componentes del vector ~x en la base {êi }, y pueden
expresarse como
xi = ~x · êi . (8.4)
~ en sus respectivas compo-
En general, la BON {êi } permite descomponer cada vector A
nentes:
Xn
~
V = vi êi , (8.5)
i=1
donde
~ · êi .
vi = V (8.6)
Consideremos ahora un nuevo SOC x0i relacionado con el SOC xi por medio de una trans-
formación ortogonal (TO) de coordenadas, es decir, una rotación, ver figura 8.1.
Esta transformación induce una nueva BON {ê0i }. Respecto a esta nueva base, un vector
~ tiene componentes ~vi tales que
V
Xn
~ =
V vi0 ê0i . (8.7)
i=1
82
Es posible relacionar las bases {êi } y {ê0i } ya que cada vector ê0i puede escribirse como una
combinación lineal de los vectores base êi , esto es, existe una relación de la forma
n
X
ê0i = aij êj . (8.8)
j=1
La condición que la transformación (8.8) sea efectivamente una TO, es decir, que transforme
una BON en una nueva BON impone (n(n + 1)/2) condiciones sobres los (n2 ) coeficientes (la
“matriz”) de transformación aij . En efecto,
y por lo tanto,
n
X
aik ajk = δij . (8.14)
k=1
En notación matricial,
A · (A> ) = I. (8.15)
Al calcular el determinante de (8.15) encontramos que
por lo que necesariamente det A = 1 o bien det A = −1. Si det A = 1 decimos que la TO
es una transformación propia, mientras que si det A = −1 ella es impropia. En todo caso
det A 6= 0, de modo que la inversa A−1 siempre existe y es única. De (8.15) vemos entonces
que la matriz inversa de una transformación ortogonal coincide con su transpuesta,
(A> ) · A = I, (8.18)
o, en notación de ı́ndices,
n
X
aki akj = δij . (8.19)
k=1
Puede verificarse a partir de estas propiedades básicas que el conjunto de todas las trans-
formaciones ortogonales en un espacio Euclideano n-dimensional forman un grupo1 : el grupo
ortogonal2 n-dimensional, O(n).
1
Ver, por ejemplo, http://es.wikipedia.org/wiki/Grupo_(matematica).
2
Ver, por ejemplo, http://es.wikipedia.org/wiki/Grupo_ortogonal.
83
Usando (8.4) y (8.8) podemos relacionar las coordenadas xi (asociadas a un mismo vector
posición ~x) en respecto a los dos SOC:
n
X
x0i = aij xj , (8.20)
j=1
8.5. Vectores
~ puede ser descompuesto tanto en una base ortonormal K co-
Como vimos, un vector V
0
mo en otra K . A partir de esto, podemos encontrar la forma en que están relacionadas las
~ respecto a dos SOC’s. Usando (8.6) y (8.23) encontramos, análogamente
componentes de V
a (8.26) que
vi0 = aij vj . (8.27)
Esta propiedad puede ser considerada como la definición de (las componentes de) un vector:
84
es definida, en cada SOC, por vi := dxi /dt. Entonces, en un SOC K 0 relacionado con K por
medio de (8.26), tendremos que las “nuevas” componentes de la velocidad serán
dx0i d dxj
vi0 := = (aij xj ) = aij = aij vj . (8.29)
dt dt dt
Aquı́ hemos asumido que los coeficientes aij son independientes del tiempo (constantes). De
forma análoga, la aceleración es también un vector bajo TO’s.
Note que no toda colección de n-valores definidos en cada SOC pueden considerarse com-
ponentes de un vector. Por ejemplo, la densidad de masa ρ de un cuerpo, su temperatura T ,
y la componente z de su momentum pz , son cantidades que pueden definirse en cada SOC,
sin embargo, el conjunto de 3 cantidades (ρ, T, pz ) no forman las componentes de un vector,
simplemente porque sus valores no están relacionados bajo TO’s de la forma (8.28).
8.6. Escalares
Un escalar es una cantidad que no cambia su valor al rotar el SOC, es decir, una cantidad
que permanece invariante bajo TO’s. Ejemplos de cantidades escalares en Mecánica Clásica
(no-relativista) son: la masa de un cuerpo, el volumen de un cuerpo, el coeficiente de roce
entre dos superficies, la temperatura, la energı́a cinética, etc. En términos matemáticos, si φ
es una cantidad definida en cada SOC, entonces ella es un escalar si y sólo si
φ0 = φ. (8.30)
Otro ejemplo de una cantidad escalar bajo TO’s es el producto escalar entre vectores. Si Ai y
Bi son las componentes de dos vectores A~yB~ respectivamente, entonces su producto escalar
permanece invariante:
8.7. Tensores
Tanto en Mecánica, como en Electrodinámica, es habitual encontrar cantidades con más
de un ı́ndice (es decir, con más de n componentes), del tipo Tij , Aijk , etc.
Por ejemplo, en Mecánica la relación entre el momentum angular de un cuerpo en rotación
y su vector velocidad angular involucra el tensor momento de inercia Iij . En efecto, considere
un cuerpo caracterizado por su densidad ρ(xi ), contenido en una región V , rotando rı́gidamente
respecto a un eje caracterizado por la dirección ω̂, con velocidad angular ω. Entonces su
momentum angular respecto al origen del SOC, ubicado sobre el eje de rotación, es dado por
Z
~ =
L ~x × d~p (8.36)
Z V
= ρ(x)~x × ~v dV (8.37)
ZV
= ρ(x)~x × (~ω × ~x) dV. (8.38)
V
85
~ × (B
Usando la identidad A ~ × C)
~ ≡ B(
~ A~ · C)
~ − C( ~ A
~ · B),
~ podemos escribir
Z
~
L= ω (~x · ~x) − ~x(~
ρ(x) [~ ω · ~x)] dV, (8.39)
V
o, en términos de componentes,
Z
Li = ρ(x) [ωi (xk xk ) − xi (ωj xj )] dV (8.40)
Z V
es decir,
Li = Iij ωj , (8.43)
con Z
Iij := ρ(x) [δij (xk xk ) − xi xj ] dV. (8.44)
V
Note que este resultado expresa el hecho que, en general, el momentum angular de un cuerpo
en rotación no es necesariamente paralelo al eje de rotación. Puede encontrar algunos ejemplos
de tensores momento de inercia para distintos cuerpos respecto a SOC particulares aquı́.
Analizemos ahora cómo cambian las componentes Iij cuando ellas son calculadas en otro
SOC. Si analizamos el movimiento respecto a un SOC rotado respecto al primero, de modo
que las coordenadas de cada punto son ahora dadas por (8.26), entonces tendremos que las
componentes Iij0 estarán dadas por
Z
Iij0 ρ0 (x0 ) δij (x0k x0k ) − x0i x0j dV 0
:= (8.45)
ZV
= ρ(x) [δij (xk xk ) − (ail xl )(ajm xm )] dV (8.46)
ZV
= ρ(x) [(ail ajl )(xk xk ) − (ail xl )(ajm xm )] (8.47)
ZV
Note que aquı́ hemos usado el hecho que la masa se considera un escalar, de modo que
dm = ρ(x)dV = ρ0 (x0 )dV 0 . Además, la condición (8.24) fue usada en para reescribir el primer
término de (8.46) en la forma que aparece en la expresión (8.47).
En resumen,
Iij0 = ail ajm Ilm . (8.51)
Es simple verificar usando (8.51) y el hecho que ωi son componentes de un vector que Li ,
dado por (8.43), efectivamente satisface la ley de transformación de un vector.
Vemos que las n2 cantidades4 Iij cambian los valores de sus componentes al ser calculadas
en distintos SOC, pero estos valores están relacionados de una forma (relativamente) simple.
4
De las cuales sólo n(n + 1)/2 son linealmente independientes, debido a que Iij = Iji .
86
Las cantidades cuyas componentes transforman de la forma (8.51) son llamadas tensores de
rango 25 .
Similarmente al caso del momentum angular, podemos analizar la energı́a cinética del
cuerpo rotando rı́gidamente,
Z
1
K= ~v 2 dm (8.54)
2 V
Z
1
= ρ ~v 2 dV (8.55)
2 V
Z
1
= ρ (~ω × ~x)2 dV (8.56)
2 V
Z
1 2 2
ω · ~x)2 dV
= ρ ω ~ ~x − (~ (8.57)
2 V
Z
1
ρ (ωi ωi )(xk xk ) − (ωi xi )2 dV
= (8.58)
2 V
Z
1
= ρ [(ωi ωj δij )(xk xk ) − ωi xi ωj xj ] dV (8.59)
2 V
Z
1
= ωi ωj ρ [δij xk xk − xi xj ] dV , (8.60)
2 V
es decir,
1
K = Iij ωi ωj . (8.61)
2
Podemos verificar, como es de esperar, que la ley de transformación del tensor de inercia y
del vector velocidad angular bajo TO’s aseguran que la energı́a cinética es un escalar.
Note que si definimos las n2 cantidades Ωij := ωi ωj (en cada SOC), entonces Ωij forman
las componentes de un tensor de rango 2. En términos de este tensor, la energı́a cinética
puede escribirse como K = Iij Ωij /2. Vemos entonces que “contracciones” (es decir, sumas
de productos de componentes) entre tensores de rango 2 y dos vectores, ası́ como entre dos
tensores de segundo rango pueden definir cantidades escalares. Además, como ya vimos, la
contracción Iij ωj transforma como un vector. Estas propiedades corresponden a operaciones
generales posibles entre tensores: la multiplicación de tensores define nuevos tensores (de
rango superior), la contracción de tensores con vectores puede definir nuevos vectores o
escalares. Por otro lado, dado un tensor de rango 2, Aij , y un vector, Bi , podemos definir
las nuevas n3 cantidades, Cijk := Aij Bk , que transformará de la forma siguiente: Cijk 0 :=
5
Otros ejemplos de tensores de rango 2 útiles en Fı́sica son: el tensor dieléctrico de un medio polarizable
κij , el tensor de tensiones de un fluido tij , el tensor de conductividad de un material conductor σij , el
tensor de deformación de un medio elástico εij := (∂i uj + ∂j ui )/2 (ui es el vector desplazamiento).
6
En notación matricial, T0 = ATAT .
87
ail ajm akp Clmp . Cantidades que transforman de esta manera bajo TO’s son llamados tensores
de rango 3. Claramente, este tipo de construcción puede ser generalizada a objetos con más
ı́ndices (componentes).
Note, sin embargo, que no toda operación definida a partir de las componentes de tensores
definirá nuevos tensores vectores o escalares. Por ejemplo, la contracción Iii ωi := I11 ω1 +
I22 ω2 + · · · Inn ωn no es un escalar.
Generalizando los casos anteriores podemos definir un tensor cartesiano de rango r, de
la forma siguiente:
Algunas observaciones:
La transformación inversa a (8.62) es Ti1 i2 ···ir = aj1 i1 aj2 i2 · · · ajr ir Tj01 j2 ···jr .
La Delta de Kronecker δij puede ser considerada como un tensor de rango 2, ya que
satisface δij = aik ajl δkl para TO’s. Es, sin embargo, un “tensor especial” puesto que
tiene la propiedad distintiva de que asume los mismos valores (1 ó 0) en cada SOC. Este
tipo especial de tensores son llamados tensores invariantes.
Algunos tensores de rango 3 útiles en Fı́sica son: el tensor piezoeléctrico dijk (que rela-
ciona el vector de polarización Pi con el tensor de tensiones tij en un material piezoeléctrico:
Pi = dijk tjk ), el tensor de susceptibilidad eléctrica de segundo orden χijk (que relaciona
la contribución de segundo orden a la polarización de un material dieléctrico no-lineal con el
(2)
campo eléctrico Pi = ε0 χijk Ej Ek ).
Un ejemplo de tensor de rango 4 es el tensor de electroestricción µijkl (que relaciona
el tensor de deformación de un material que presenta electroestricción con el campo eléctrico:
εij = µijkl Ej El . Ver esta página para otros ejemplos.
7
¿Por qué es esto algo deseable?. Porque se asume que todos los SOC son equivalentes en sus propiedades.
88
8.8. Operaciones tensoriales
8.8.1. Multiplicación por escalar
Si λ es un escalar (tensor de rango 0) y Ai1 ···ir son las componentes de un tensor de rango
r, entonces
Bi1 ···ir := λ Ai1 ···ir , (8.63)
son también componentes de un tensor de rango r.
Por ejemplo, si Aijklm son las componentes de un tensor de rango 5 entonces Bijk := Ailjlk
son componentes de un tensor de rango 3. Además, K = Iij ωi ωj /2 es un escalar, v 2 = vi vi
es un escalar, Li = Iij Lj es un vector, δii = 3 es un escalar, etc.
89
8.8.5. Permutación de ı́ndices
La operación de permutar dos ı́ndices de un tensor, define un nuevo tensor del mismo rango.
Por ejemplo, si Aijk son las componentes de un tensor de rango 3, entonces
Bi1 ···is−1 is is+1 ···it−1 it it+1 ···ir := Ai1 ···is−1 it is+1 ···it−1 is it+1 ···ir , 1 ≤ s ≤ r, 1 ≤ t ≤ r,
(8.69)
son también componentes de un tensor de rango r.
Las propiedades de simetrı́a y antisimetrı́a son independientes del SOC usado, es decir, son
propiedades intrı́nsecas del tensor. En efecto, si Tij = ±Tji entonces Tij0 = ±Tji0 para toda
TO, respectivamente.
Observación: Todo tensor de rango 2 puede ser descompuesto en una suma de un tensor
simétrico y uno antisimétrico (la “parte” simétrica y antisimétrica, respectivamente):
con
1
Sij := T(ij) :=
(Tij + Tji ) = Sji , (8.73)
2
1
Aij := T[ij] := (Tij − Tji ) = −Aji . (8.74)
2
Además, la parte simétrica puede descomponerse en una parte “sin traza” y en un término
(proporcional a un) escalar:
1
Sij ≡6 S ij + δij S, (8.75)
n
con
1
S := Sii , 6 S ij := Sij − δij S (8.76)
n
Esta descomposición es “irreducible” con respecto a TO’s8 , ya que S(ij) ≡ Sij , A[ij] ≡ Aij ,
S[ij] ≡ A(ij) ≡ 0, 6 S ii ≡ 0.
Similarmente, un tensor de rango r ≥ 2 se dice (anti-)simétrico con respecto a la permu-
tación de dos ı́ndices dados is y it si y sólo si
1
T[ijk] := (Tijk − Tjik + Tjki − Tkji + Tkij − Tikj ) (8.83)
6
1
= T[ij]k + T[jk]i + T[ki]j . (8.84)
3
Un tensor completamente simétrico de rango r, Si1 ···ir = S(i1 ···ir ) , tiene (n+r −1)!/(n−
1)!r! componentes linealmente independientes.
Similarmente, un tensor completamente antisimétrico de rango r, Ai1 ···ir = A[i1 ···ir ] ,
tiene n!/(n − r)!r! componentes linealmente independientes. En particular, un tensor total-
mente antisimétrico de rango r = n, es decir de “rango máximo”, tiene sólo una componente
linealmente indepdendiente. Por ejemplo, en E3 , podemos expresar todas las componentes de
cualquier tensor de rango 3 totalmente antisimétrico Aijk en términos (por ejemplo) sólo de
su componente A123 :
etc.
ε123···n := 1. (8.87)
9
Tullio Levi-Civita: (1873-1941), matemático italiano. Ver http://es.wikipedia.org/wiki/Tullio_
Levi-Civita.
91
Esta definición es equivalente a
1, si i1 · · · in es una permutación par de 12 · · · n
εi1 ···in = −1, si i1 · · · in es una permutación impar de 12 · · · n . (8.88)
0, en otro caso
Un importante resultado es que todo tensor totalmente antisimétrico de rango máximo, es decir
r = n (puesto que tiene sólo una componente linealmente independiente) es necesariamente
proporcional al sı́mbolo de Levi-Civita correspondiente. Esto permite escribir, por ejemplo,
Una pregunta natural es si las componentes del sı́mbolo de Levi-Civita pueden ser conside-
radas como componentes de un tensor, es decir, si satisfacen la relación
?
ε0i1 ···in = ai1 j1 · · · ain jn εj1 ···jn . (8.90)
Ya que por definición εi1 ···in tiene los mismos valores (±1 ó 0) en todo sistema coordenado,
ε0i1 ···in = εi1 ···in . Por lo tanto, (8.90) es equivalente a
?
εi1 ···in = ai1 j1 · · · ain jn εj1 ···jn . (8.91)
ai1 j1 · · · ain jn εj1 ···jn = (a1j1 a2j2 · · · anjn εj1 ···jn ) εi1 ···in . (8.92)
Con esto podemos ver que en general no se satisface la relación (8.91), sino que
Por lo tanto, el sı́mbolo de Levi-Civita no es un tensor con respecto a todas las TO’s, ya que
su ley de transformación no es en general la de un tensor. Recuerde que en el caso de TO’s los
valores posibles de a son a = ±1 para transformaciones propias o impropias, respectivamente.
Note además que debido a esto es posible reemplazar en (8.100) a−1 = a. Por otro lado, el
92
sı́mbolo de Levi-Civita sı́ se comporta como un tensor si nos restringuimos a sólo considerar
TO propias 10 (a = 1). En muchas aplicaciones esta restricción es suficiente.
En todo caso, el sı́mbolo de Levi-Civita es muy útil. Por ejemplo, en tres dimensiones, el
tradicional producto vectorial entre vectores C~ := A
~ ×B
~ puede escribirse usando este sı́mbolo.
~
Es simple verificar que las componentes de C pueden expresarse como
Ci = εijk Aj Bk . (8.101)
Note que, como consecuencia del resultado anterior, si Ai y Bi son las componentes de dos
vectores bajo TO’s, entonces los tres valores Ci dados por (8.101) no forman un vector. En
efecto, usando (8.101), (8.101) y la ley de transformación para las componentes de los dos
vectores involucrados, obtenemos que
Observaciones:
Un pseudo-escalar (r = 0) es una cantidad que cambia de signo bajo una SOC impropia
(con a = −1).
93
Algunas identidades
Es simple verificar que el sı́mbolo de Levi-Civita puede escribirse como
δi1 1 δi1 2
· · · δi1 n
δi 1 δi 2
2 2 · · · δi2 n
εi1 ···in ≡ . .. .. .. , (8.105)
. . . . .
δin 1 δi 2
1 · · · δin n
ya que se satisfacen las dos propiedades que definen completamente este objeto. En efecto, se
verifica directamente que esta expresión implica ε12···n = 1, ya que en este caso el lado derecho
se reduce al determinante de la matriz identidad de dimensión n. Por otro lado, la expresión
asegura la antisimetrı́a total bajo intercambio de ı́ndices, ya que cada permutación de un par de
ı́ndices es equivalente a un intercambio de filas en la matriz del lado derecho y el determinante
cambia de signo bajo estas operaciones.
Usando la identidad (8.105) podemos calcular el producto de dos sı́mbolos de Levi-Civita:
δi1 1 δi1 2 · · · δi1 n δj1 1 δj1 2 · · · δj1 n
δi 1 δi 2 · · · δi n δj 1 δj 2 · · · δj n
2 2 2 2 2 2
εi1 i2 ···in εj1 j2 ···jn = . (8.106)
.. .. .. .. .. .. ..
.. . . . . . . .
δin 1 δi 2 · · · δin n δjn 1 δj 2 · · · δjn n
1 1
δi1 1 δi1 2 · · · δi1 n δj1 1 δj2 1 · · · δjn 1
δi 1 δi 2 · · · δi n δj 2 δj 2 · · · δj 2
2 2 2 1 2 n
= . (8.107)
. .. . . .. .. .. . . ..
.
. . . . . . .
δin 1 δi 2 · · · δin n δj n δj n · · · δjn n
1 1 2
δi1 q δj1 q δi1 q δj2 q · · · δi1 q δjn q
δi q δj q δi q δj q · · · δi q δj q
2 1 2 2 2 n
= (8.108)
.. .. . . ..
. . . .
δin q δj q δin q δj q · · · δin q δjn q
1 2
δ i1 j1 δ i1 j2 · · · δ i1 jn
δi j δi j · · · δi j
21 2 2 2 n
= . .. .. .. . (8.109)
.. . . .
δ in j δ in j · · · δ in jn
1 2
εijk εlmp ≡ δil δjm δkp + δjl δkm δip + δkl δim δjp
− δkl δjm δip − δjl δim δkp − δil δkm δjp (8.110)
= 3! δ[i|l δ|j|m δ|k]p . (8.111)
1
A := εijk Aijk , Aijk := εijk A. (8.118)
3!
~ ij tiene asociado un pseudo-tensor Ai tal que
Similarmente, todo tensor antisimétrico A
1
Ai := εijk Ajk , Aij := εijk Ak . (8.119)
2
Además, a cada vector Ai puede asociarse un pseudo-tensor totalmente antisimétrico Aij , tal
que
1
Aij := εijk Ak , Ai := εijk Ajk . (8.120)
2
Finalmente, a cada escalar A puede asociarse un pseudo-tensor totalmente antisimétrico Aijk ,
tal que
1
Aijk := εijk A, A := εijk Aijk . (8.121)
3
Como estas relaciones son uno a uno, un tensor antisimétrico dado contiene la misma informa-
ción que su pseudo-tensor dual asociado, de modo que es posible elegir representar una canti-
dad fı́sica descrita por (pseuso-)tensores totalmente antisimétricos por el mismo tensor o por
su dual. Un ejemplo de esto es el momento multipolar magnético de rango 1, Mij = −Mji
que puede representarse alternativamente usando el (pseudo-)vector momento magnético
µi = εijk Mjk /2.
95
8.10. Análisis tensorial cartesiano
8.10.1. Campo tensorial
En Fı́sica, es común describir sistemas fı́sicos usando campos tensoriales, es decir, tensores
definidos en cada punto del espacio.
8.10.2. Derivación
Dado que un campo tensorial de rango r, Ti1 ···ir (xi ), consta de nr cantidades definidas en
cada punto (de alguna región) de En , es posible derivar cada una de estas cantidades respecto
a las n coordenadas de las que depende, en cada SOC. Esto permite calcular nr+1 nuevas
cantidades: las nr+1 derivadas parciales
∂Ti1 ···ir
. (8.124)
∂xj
Ahora probaremos que las nr+1 derivaras ∂j Ti1 ···ir forman un tensor cartesiano de rango r + 1
bajo TO’s.
En efecto, si denotamos Aji1 ···ir := ∂j Ti1 ···ir , entonces en otro SOC (x0i = aij xj ) tendremos
que
∂Ti01 ···ir
A0ji1 ···ir = (8.126)
∂x0j
∂
= (ai1 j1 · · · air jr Tj1 ···jr ) (8.127)
∂x0j
∂
= ai1 j1 · · · air jr (Tj1 ···jr ) . (8.128)
∂x0j
Usamos ahora la regla de la cadena para expresar las derivadas de Tj1 ···jr respecto a las “nuevas”
coodenadas x0i en función de sus derivadas respecto a las coordenadas “antiguas” xi . Usando
la convención de suma de Einstein tenemos que, para cualquier función Ψ, se satisface
En nuestro caso (es decir, para TO’s) tenemos que la transformación inversa está dada por
xi = aji x0j y por lo tanto,
∂xk
= ajk . (8.130)
∂x0j
96
Con esto, al substituir (8.129) en (8.128) obtenemos
q.e.d.
∂i Ai = ∂1 A1 + ∂2 A2 + · · · ∂n An . (8.134)
Por otro lado, dado un campo escalar φ, entonces ∂i φ es el campo vectorial gradiente del
campo φ. Además, la divergencia del gradiente de φ, es decir, el Laplaciano de φ (que es un
escalar bajo TO’s) puede entonces escribirse en notación de componentes como
8.10.4. Integración
Otra operación comúnmente requerida es la integración de tensores, ya sea sobre una lı́nea,
superficie o volumen. A continuación probaremos que estas operaciones definen nuevos tensores
bajo TO’s.
Integrales de lı́nea
Si Ti1 ···ir (x) es un campo tensorial de rango r entonces, dada una curva C parametrizada
por xi = xi (λ), es posible definir las siguientes n integrales de lı́nea por cada una de las
componentes del tensor original:
Z
Cji1 ···ir := Ti1 ···ir (x) dxj , (8.138)
C
97
o, más explı́citamente,
Z λ2
dxj
Cji1 ···ir := [Ti1 ···ir (x(λ))] (λ) dλ. (8.139)
λ1 dλ
Entonces, en otro SOC, tendremos que
dx0j
Z λ2
0
0
Cji1 ···ir = Ti1 ···ir (x(λ)) (λ) dλ. (8.140)
λ1 dλ
Z λ2
d(ajk xk )
= [ai1 j1 · · · air jr Tj1 ···jr (x(λ))] (λ) dλ (8.141)
λ1 dλ
Z λ2
dxk
= ajk ai1 j1 · · · air jr [Tj1 ···jr (x(λ))] (λ) dλ (8.142)
λ1 dλ
= ajk ai1 j1 · · · air jr Ckj1 ···jr . (8.143)
Integrales de superficie
Similarmente, podemos definir integrales de superficie. Si ni (x) es un (pseudo-)vector uni-
tario normal a la superficie S en el punto xi podemos definir las nr+1 cantidades
Z
Cji1 ···ir := Ti1 ···ir (x) dSj , dSj := nj dS. (8.144)
S
Note que aquı́ dS denota el elemento de superficie que, por definición, es un escalar, es decir,
dS 0 = dS.
Tal como en el caso de las integrales de lı́nea, es directo demostrar que estas nuevas
cantidades son componentes de un (pseudo-)tensor de rango r + 1:
Z
0
Cji1 ···ir := Ti01 ···ir (x) n0j dS 0 (8.145)
ZS
Integrales de volumen
Finalmente, consideraremos la definición de nuevos tensores por medio de la integración en
un volumen (n-dimensional). A partir del campo tensorial de rango r, Ti1 ···ir (x), definimos
Z
Ci1 ···ir := Ti1 ···ir (x) dn x, (8.149)
V
que son componentes de un nuevo tensor de rango r respecto a TO’s, ya que
Z
0
Ci1 ···ir = Ti01 ···ir (x) dn x0 (8.150)
ZV 0
∂x n
= [ai1 j1 · · · air jr Tj1 ···jr (x)] d x (8.151)
V ∂x
Z
= ai1 j1 · · · air jr Tj1 ···jr (x) |a| dn x (8.152)
ZV
= a i1 j1 · · · a ir jr Tj1 ···jr (x) dn x (8.153)
V
= ai1 j1 · · · air jr Cj1 ···jr . (8.154)
98
Teorema de Gauss y Stokes
El teorema fundamental del cálculo (en varias variables) adopta, en notación tensorial, la
forma
Z B
(∂k Ti1 ···ir ) dxk = Ti1 ···ir (B) − Ti1 ···ir (A), (8.155)
C,A
es decir, al caso en que no existe necesariamente una contracción de ı́ndices a ambos lados de
la igualdad.
Por otro lado, el teorema de Stokes, adopta la forma
Z I
εijk ∂j Ti1 ···k···ir dSi = Ti1 ···k···ir dxk . (8.158)
S ∂S
99
Apéndice A
La Delta de Dirac
A.1. La “función” δ
Decimos que δ(x) es una delta de Dirac, si
δ(x − a) = 0 ∀x 6= a, (A.1)
donde a ∈ R, pero
Z c
0 si x ∈
/ (b, c),
f (x)δ(x − a)dx = (A.2)
b f (a) si x ∈ (b, c),
para toda función f de clase C 1 .
La noción general de una delta de Dirac es que ésta se anula para todo punto, excepto en
x = a, y que allı́ “asume un valor divergente”, pero tal que
Z ∞
δ(x − a)dx = 1. (A.3)
−∞
La delta de Dirac, que en realidad no es una función en sentido estricto, puede ser entendida
como el lı́mite de una sucesión de funciones. Por ejemplo, si definimos
r
n −n(x−a)2
Dn (x − a) := ·e , n = 1, 2, 3, . . . , (A.4)
π
entonces es posible probar que Z ∞
Dn (x)dx = 1, (A.5)
−∞
y además
0 ∀x 6= a,
lı́m Dn (x) = (A.6)
n→∞ ∞ para x = a.
Z c
0 si x ∈
/ (b, c),
lı́m Dn (x)f (x)dx = (A.7)
n→∞ b f (a) si x ∈ (b, c).
Por lo tanto, escribimos
lı́m Dn (x) = δ(x − a). (A.8)
n→∞
Una descripción matemáticamente consistente de la delta de Dirac puede ser dada en el
marco de la Teorı́a de Distribuciones.
Otros ejemplos de sucesiones de funciones que convergen a una Delta de Dirac δ(x) son:
n 1
Dn (x) = , (A.9)
π 1 + n2 x2
1 sen2 (nx)
Dn (x) = . (A.10)
nπ x2
100
A.1.1. Derivada de la delta de Dirac
Considerando la función δ como si fuese una función normal, encontramos, integrando por
partes, que
Z ∞ Z ∞
0 ∞
δ (x − a) f (x)dx = [δ(x − a)f (x)]−∞ − δ(x − a)f 0 (x)dx = −f 0 (a), (A.11)
−∞ | {z } | {z } −∞
d =0
:= dx δ(x−a)
es decir, Z ∞
δ 0 (x − a)f (x)dx = −f 0 (a). (A.12)
−∞
donde xi son las soluciones nulas (simples!) de g, e.d., que satisfacen g(x) = 0.
Por ejemplo,
1
δ(ax) = δ(x). (A.14)
|a|
Esto puede probarse de la forma siguiente: Si a > 0 el cambio de variable de integración y = ax
conduce a
Z ∞ Z ∞ Z ∞
y 1 1
δ(ax)f (x) dx = δ(y)f ( ) dy = f (0) = δ(x)f (x) dx. (A.15)
−∞ −∞ a a −∞ a
puede ser derivada de la siguiente forma: La transformada de Fourier f˜(k) de una función f (x)
es definida por Z ∞
1
f (x) = eikx f˜(k) dk, (A.22)
2π −∞
donde Z ∞
f˜(k) := e−ikx f (x) dx. (A.23)
−∞
1
∇2 = −4π δ 3 (~x − ~x0 ). (A.29)
|~x − ~x0 |
probar esto último, es conveniente usar coordenadas esféricas centradas en el punto ~x0 , de
1 1
modo que |~x−~ x0 | = r . Además, como la propiedad a) es válida es posible reemplazar el dominio
de integración V (que incluye el punto ~x0 ) por una esfera E de radio R, centrada en ~x0 , de
102
modo que
Z Z
21 1
f (~x)∇ dV = f (~x)∇2 dV (A.30)
V r r
ZE
~ ~ 1
= f (~x)∇ · ∇ dV (A.31)
E r
Z
~ ~ 1 ~ ~ 1
= ∇ · f∇ − ∇f · ∇ dV (A.32)
r r
IE Z
= f∇~ 1 · dS ~− ~ ·∇
∇f ~ 1 dV (A.33)
∂E r r
I ZE
1 ~ + (∇f ~ · r̂) 1 dV
= − f 2 (r̂ · dS) (A.34)
r r2
I∂E Z E
1 ∂f 1
= − f 2 dS + dV (A.35)
r ∂r r2
I∂E Z E
∂f
= − f dΩ + drdΩ. (A.36)
∂E E ∂r
103
Apéndice B
Coordenadas curvilineas
Gradiente:
~ ∂Ψ ∂Ψ ∂Ψ
∇Ψ = x̂ + ŷ + ẑ (B.2)
∂x ∂y ∂z
Divergencia
~ ·A
~ = ∂Ax ∂Ay ∂Az
∇ + + (B.3)
∂x ∂y ∂z
Rotor:
~ ×A
~ = ∂Az ∂Ay ∂Ax ∂Az ∂Ay ∂Ax
∇ − x̂ + − ŷ + − ẑ (B.4)
∂y ∂z ∂z ∂x ∂x ∂y
Laplaciano
Elemento de superficie:
~ = dy dz x̂ + dx dz ŷ + dx dy ẑ
dS (B.7)
Elemento de volumen:
dV = dx dy dz (B.8)
104
B.2. Coordenadas Cilı́ndricas
Definición:
x = ρ cos ϕ, y = ρ sen ϕ, z=z (B.9)
p
ρ = x2 + y 2 , ϕ = arctan (y/x), z=z (B.10)
Vector
~ = Aρ ρ̂ + Aϕ ϕ̂ + Az ẑ
A (B.11)
Gradiente:
~ ∂Ψ 1 ∂Ψ ∂Ψ
∇Ψ = ρ̂ + ϕ̂ + ẑ (B.12)
∂ρ ρ ∂ϕ ∂z
Divergencia
~ ·A
~ = 1 ∂ (ρAρ ) 1 ∂Aϕ ∂Az
∇ + + (B.13)
ρ ∂ρ ρ ∂ϕ ∂z
Rotor:
~ ×A
~ = 1 ∂Az ∂A ϕ ∂A ρ ∂A z
∇ − ρ̂ + − ϕ̂
ρ ∂ϕ ∂z ∂z ∂ρ
1 ∂ (ρAϕ ) ∂Aρ
+ − ẑ (B.14)
ρ ∂ρ ∂ϕ
Laplaciano
1 ∂2Ψ ∂2Ψ
2 1 ∂ ∂Ψ
∇ Ψ = ρ + 2 + (B.15)
ρ ∂ρ ∂ρ ρ ∂ϕ2 ∂z 2
(B.16)
Desplazamiento:
Elemento de superficie:
~ = ρ dϕ dz ρ̂ + dρ dz ϕ̂ + ρ dρ dϕ ẑ
dS (B.18)
Elemento de volumen:
dV = ρ dρ dϕ dz (B.19)
~ ∂Ψ 1 ∂Ψ 1 ∂Ψ
∇Ψ = r̂ + θ̂ + ϕ̂ (B.23)
∂r r ∂θ r sen θ ∂ϕ
Divergencia
1 ∂ r2 Ar
~ ·A
~ = 1 ∂ 1 ∂Aϕ
∇ 2
+ (Aθ sen θ) + (B.24)
r ∂r r sen θ ∂θ r sen θ ∂ϕ
Rotor:
~ ×A
~ = 1 ∂ ∂Aθ
∇ (Aϕ sen θ) − r̂
r sen θ ∂θ ∂ϕ
1 1 ∂Ar ∂ 1 ∂ ∂Ar
+ − (rAϕ ) θ̂ + (rAθ ) − ϕ̂ (B.25)
r sen θ ∂ϕ ∂r r ∂r ∂θ
Laplaciano
∂2Ψ
2 1 ∂ 2 ∂Ψ 1 ∂ ∂Ψ 1
∇ Ψ = r + 2 sen θ + 2 (B.26)
r2 ∂r ∂r r sen θ ∂θ ∂θ r sen2 θ ∂ϕ2
Desplazamiento:
Elemento de superficie:
~ = r2 sen θ dθ dϕ r̂ + r sen θ dr dϕ θ̂ + r dr dθ ϕ̂
dS (B.28)
Elemento de volumen:
dV = r2 sen θ dr dθ dϕ (B.29)
106
Apéndice C
Función Gamma
1 · 2 · 3···n
Γ(z) := lı́m nz , (C.1)
n→∞ z(z + 1)(z + 2) · · · (z + n)
Z ∞
Γ(z) := e−t tz−1 dt, <(z) > 0, (C.2)
0
∞
1 γz
Y z −z/n
:= ze 1+ e , (C.3)
Γ(z) n
n=1
donde γ = 0,577216 · · · es la constante de Euler-Mascheroni1 .
Γ(z + 1) = zΓ(z), (C.4)
Γ(1 + n) = n!, n = 0, 1, 2, · · · , (C.5)
π
Γ(z)Γ(1 − z) = . (C.6)
sen(zπ)
Γ(−n) → ±∞, n = 0, 1, 2, · · · . (C.7)
√
Γ(1/2) = π. (C.8)
0
Γ(x)
6
4 3 2 1 0 1 2 3 4
x
20
L0(x)
L1(x)
15 L2(x)
L3(x)
L4(x)
10
Ln (x)
10
5 0 5 10 15 20
x
Ecuación diferencial
d2 y dy
x 2
+ (1 − x) + ny = 0 (D.1)
dx dx
d −x
dy
xe + ne−x y = 0 (D.2)
dx dx
Fórmula de Rodrigues
ex dn n −x
Ln (x) = (x e ) (D.3)
n! dxn
108
Función generadora
xt ∞
e− 1−t X Ln (x)
= tn (D.4)
(1 − t) n!
n=0
Relaciones de Recurrencia
Ortogonalidad
Z ∞
Lm (x)Ln (x)e−x dx = δmn (D.6)
0
109
D.2. Funciones de Laguerre asociadas
Ecuación diferencial
d2 y dy
x 2
+ (k + 1 − x) + ny = 0 (D.7)
dx dx
d k+1 −x dy
x e + ne−x xk y = 0 (D.8)
dx dx
Fórmula de Rodrigues
ex x−k dn n+k −x
Lkn (x) = (x e ) (D.9)
n! dxn
Función generadora
xt ∞
e− 1−t
k k
X Lk (x)
n
(−1) t = tn (D.10)
(1 − t)k+1 n!
n=0
Relaciones de Recurrencia
n−k+1 k
Ln+1 (x) + x + m − 2n − 1 Lm 2 m
n (x) + n Ln−1 (x) = 0 (D.11)
n+1
Ortogonalidad
Z ∞
Γ(n + k + 1)!
Lkm (x)Lkn (x)e−x xk dx = δmn (D.12)
0 n!
Aplicación en Fı́sica
Solución radial de ecuación de Schrödinger en potencial de Coulomb (átomo hidrogenoi-
de).
110
D.3. Funciones de Hermite
Gráficos
40
20
Hn (x)
20 H0(x)
H1(x)
H2(x)
40 H3(x)
H4(x)
3 2 1 0 1 2 3
x
Ecuación diferencial
d2 y dy
2
− 2x + 2ny = 0 (D.13)
dx dx
d −x2 dy 2
e + 2ne−x y = 0 (D.14)
dx dx
Fórmula de Rodrigues
2 dn −x2
Hn (x) = (−1)n ex e (D.15)
dxn
Función generadora
∞
2tx−t2
X Hn (x)
e = tn (D.16)
n!
n=0
Relaciones de Recurrencia
111
Ortogonalidad
Z ∞ √
2
Hm (x)Hn (x)e−x dx = 2n n! πδmn (D.18)
−∞
Aplicación en Fı́sica
Oscilador armónico cuántico
112
D.4. Polinomios de Chebyshev
Gráficos
3
T0(x)
T1(x)
2 T2(x)
T3(x)
T4(x)
1
Tn (x)
3
1.0 0.5 0.0 0.5 1.0
x
http://en.wikipedia.org/wiki/File:Chebyshev_Polynomials_of_the_1st_Kind_
(n%3D0-5,_x%3D(-1,1)).svg
Ecuación diferencial
d2 y dy
(1 − x2 ) 2
−x + n2 y = 0 (D.19)
dx dx
n2
dy
d p 2
1−x +√ y=0 (D.20)
dx dx 1 − x2
Fórmula de Rodrigues
√
(−1)n 1 − x2 dn 1
Tn (x) = n
(1 − x2 )n− 2 (D.21)
(2n − 1)(2n − 3) · · · 1 dx
Función generadora
∞
1 − tx X
= Tn (x)tn (D.22)
1 − 2tx + t2
n=0
Relaciones de Recurrencia
Z 1
Tm (x)Tn (x) π m=n=0
√ dx = π (D.24)
−1 1 − x2 2 δmn m=n=N ∈N
Aplicación en Fı́sica
Solución numérica de ecuaciones de fluidos.
114
Bibliografı́a
[2] G. Arfken and H.Weber, Mathematical Methods for Physicists, Fifth Edition, Academic
Press, (2001).
[5] L. Santaló, Vectores y Tensores con sus aplicaciones, Editorial Universitaria de Buenos
Aires, Séptima Edición (1969).
115