Vous êtes sur la page 1sur 45

METODOS NUMERICOS PARA RESOLVER

MODELOS MACROECONOMICOS DINAMICOS

Carlos Urrutia1

Universidad Carlos III de Madrid


Ilades-Georgetown University

Agosto, 1998

1
E-mail: urrutia@atlas.socsci.umn.edu. Debo agradecer a Raphael Bergoeing, Victor Pacha-
roni, Juan Enrique Suarez y Juan Carlos Zevallos por sus comentarios. Cualquier error restante
es responsabilidad exclusiva del autor.
Contents
Introducci¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1 Primera Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1 El Modelo de Crecimiento Neocl¶asico . . . . . . . . . . . . . . . . 2
1.1.1 El Modelo Determin¶istico B¶asico . . . . . . . . . . . . . . 2
1.1.2 Equilibrio General Competitivo . . . . . . . . . . . . . . . 4
1.1.3 El Problema del Plani¯cador Social . . . . . . . . . . . . . 5
1.2 Introducci¶on a los M¶etodos Num¶ericos . . . . . . . . . . . . . . . 5
1.2.1 Soluci¶on de Ecuaciones No-Lineales . . . . . . . . . . . . . 5
1.2.2 Derivadas Num¶ericas . . . . . . . . . . . . . . . . . . . . . 7
1.3 M¶etodos Iterativos Simples . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Shooting . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3 Resolviendo Directamente el Equilibrio Competitivo . . . . 11
1.3.4 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Segunda Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1 Formulaci¶on Recursiva y Programaci¶on Din¶amica . . . . . . . . . 13
2.1.1 Programaci¶on Din¶amica . . . . . . . . . . . . . . . . . . . 14
2.2 Iteraci¶on de la Funci¶on de Valor . . . . . . . . . . . . . . . . . . . 16
2.2.1 Implementaci¶on Num¶erica . . . . . . . . . . . . . . . . . . 17
2.2.2 Resolviendo el Equilibrio Competitivo . . . . . . . . . . . 18
2.3 El Modelo Estoc¶astico . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.1 Iteraci¶on de la Funci¶on de Valor . . . . . . . . . . . . . . . 21
2.3.2 Simulaci¶on de las Trayectorias Optimas . . . . . . . . . . . 23
2.3.3 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3 Tercera Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1 El Modelo Lineal-Cuadr¶atico . . . . . . . . . . . . . . . . . . . . . 25
3.1.1 Ecuaci¶on de Bellman . . . . . . . . . . . . . . . . . . . . . 25
3.1.2 Calculo de la Regla de Decisi¶on Optima . . . . . . . . . . 27
3.1.3 Iteraci¶on de la Matriz de Ricatti . . . . . . . . . . . . . . . 27
3.1.4 Simulaci¶on de Trayectorias Optimas . . . . . . . . . . . . . 28
3.1.5 Computaci¶on E¯ciente . . . . . . . . . . . . . . . . . . . . 28
3.2 Aproximaci¶on Lineal-Cuadr¶atica en Torno al Estado Estacionario 30
3.2.1 Resolviendo el Problema del Plani¯cador Social . . . . . . 30
3.2.2 Resolviendo el Equilibrio Competitivo . . . . . . . . . . . 32
3.2.3 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 36

1
Bibliograf¶ia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Ap¶endices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
A Ejercicios de Repaso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
A.1 Primera Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
A.2 Segunda Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
A.3 Tercera Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
B Librer¶ia de Programas en Matlab . . . . . . . . . . . . . . . . . . . . . 42

2
Introducci¶
on
Durante el mes de julio de 1998 tuve a cargo el curso de Macroeconom¶ia Avan-
zada, en el Post-Grado de Ilades-Georgetown University, en Santiago de Chile. El
objetivo del curso fue introducir algunos m¶etodos num¶ericos para resolver modelos
din¶amicos de equilibrio general, y estas notas recojen lo principal de su contenido.
Los modelos din¶amicos han cobrado mayor importancia en la literatura macroe-
con¶omica reciente, especialmente tras la publicaci¶on del art¶iculo de Kydland y
Prescott (1982). Lamentablemente, su uso se ha visto limitado por la carencia de
soluciones anal¶iticas simples, lo que obliga a aproximar num¶ericamente las trayec-
torias ¶optimas de las principales variables. En este curso present¶e algunos de los
m¶etodos desarrollados en esa linea, con ¶enfasis en la programaci¶on din¶amica y el
m¶etodo de aproximaci¶on lineal-cuadratica.
Si bien en cada sesi¶on present¶e brevemente la base te¶orica detr¶as de cada
m¶etodo, el ¶enfasis del curso fue aplicado. La idea fue que los alumnos trabajaran
con problemas concretos escribiendo sus propios programas. Los ejercicios y pro-
gramas (en lenguaje MATLAB) presentados en el ap¶endice al ¯nal del documento
permiten al lector sentarse frente al computador y empezar a experimentar con
estos m¶etodos.
Dado el carater introductorio del curso no fue posible cubrir varios de los
avances m¶as recientes en este campo. En particular, dej¶e de lado aquellos modelos
basados en residuos ponderados, incluyendo el de expectativas parametrizadas.
Algunas referencias u¶tiles al respecto son los art¶iculos de McGrattan (1994 y 1998)
y Den Haan y Marcet (1990). Asimismo, no se cubri¶o el tema de computaci¶on de
modelos con agentes heterog¶eneos. Nuevamente, el art¶iculo de Rios-Rull (1998)
es una excelente introduci¶on al tema.
Debo terminar agradeciendo a mis colegas de Ilades-Georgetown University
por la invitaci¶on que dio origen a este curso, as¶i como a los alumnos que siguieron
con paciencia cada una de las sesiones. Espero haberles transmitido como mensaje
que estos modelos din¶amicos de equilibrio general son ¶utiles y, armado de las
herramientas adecuadas, pueden dar respuestas a problemas importantes.

1
1. Primera Sesi¶
on
Esta primera sesi¶on tiene tres objetivos. Primero, introducir un modelo din¶amico
simple de equilibrio general con fundamentos microecon¶omicos. Resolver este
modelo y sus posibles extensiones ser¶a el tema central del curso. Segundo, fa-
miliarizar a los participantes con algunas t¶ecnicas b¶asicas de an¶alisis num¶erico
necesarias para el curso. Finalmente, presentar algunos m¶etodos simples para re-
solver modelos din¶amicos. Estos m¶etodos tienen grandes limitaciones, pero por su
sencillez constituyen un buen primer paso para el investigador que busca sentarse
frente a la computadora y obtener una respuesta r¶apida.

1.1. El Modelo de Crecimiento Neocl¶


asico
Empecemos describiendo el tipo de modelo que queremos resolver. Un desar-
rollo fundamental a la base de la Macroeconom¶ia moderna es el llamado Modelo
de Crecimiento Neocl¶asico. En este modelo, las decisiones de los agentes son
modeladas de manera expl¶icita en un contexto intertemporal. A continuaci¶on
presentaremos el modelo determin¶isitico b¶asico, dejando para la pr¶oxima sesi¶on
el modelo con incertidumbre.2

1.1.1. El Modelo Determin¶istico B¶


asico
Existen dos tipos de agentes en esta econom¶³a. En primer lugar, tenemos un
n¶umero grande de consumidores id¶enticos, que viven un in¯nito n¶umero de per¶³odos
y que podemos modelar como un u¶nico agente representativo. En segundo lugar,
tenemos un n¶umero grande de ¯rmas id¶enticas que producen el u¶nico bien de la
econom¶³a, y que podemos modelar tambi¶en como una ¶unica ¯rma representativa.
El agente representativo tiene preferencias descritas por la funci¶on de utilidad
intertemporal:
1
X
U= ¯ t u (ct ) (1.1)
t=0

en donde u es una funci¶on de utilidad de un per¶³odo que asumimos c¶oncava (uc > 0
y ucc < 0) y ¯ es un factor de descuento que asumimos constante.
2 Una presentaci¶o n m¶a s detallada de este modelo y sus extensiones puede encontrarse en
Urrutia (1996). Otra referencia ¶util, pero m¶a s concisa, es el art¶iculo de Cooley y Prescott
(1995).

2
Dicho consumidor pos¶ee todo el capital y trabajo (normalizado a una unidad)
en la econom¶³a, que renta a las ¯rmas. Al mismo tiempo compra a estas ¯rmas
el u¶nico bien, que puede ser usado tanto para consumo como inversi¶on. Pero el
agente representativo es tambi¶en due~no de la ¯rma, por lo tanto recibe todos los
bene¯cios que ¶esta pueda generar.
El consumidor enfrenta entonces la siguiente restricci¶on presupuestaria:

ct + it = wt + rt kt + ¦t (1.2)
en donde los gastos en consumo e inversi¶on deben ser iguales a los ingresos (salarios
mas renta del capital mas bene¯cios) en cada per¶³odo. N¶otese que estamos nor-
malizando el precio del u¶nico bien para que sea igual a uno en cada per¶³odo, por
lo tanto w t y rt son precios relativos expresados en unidades del u¶nico bien.
El stock de capital del consumidor crece de acuerdo a:

kt+1 = (1 ¡ ±)kt + it (1.3)


en donde ± es una tasa constante de depreciaci¶on.
De otro lado est¶a la ¯rma representativa, que renta capital y trabajo para
producir el ¶unico bien en la econom¶³a, usando la funci¶on de producci¶on agregada
con retornos a escala constantes:

Yt = F (Kt ; Lt ) (1.4)
en donde asumimos que FK ; FN > 0, FKK ; FN N < 0 y F KN > 0. Puesto que la
oferta de trabajo es inel¶astica y normalizada en una unidad, reescribimos:

Yt = F (Kt ; 1) = f (Kt ) (1.5)


con fk > 0 y fkk < 0.
El objetivo de esta ¯rma es maximizar bene¯cios ¦t en cada per¶³odo, en donde:

¦t = Yt ¡ wt ¡ rtK t (1.6)
normalizando nuevamente el precio del ¶unico bien para que sea uno en cada
per¶³odo. Podemos demostrar que con rendimientos a escala constantes los bene¯-
cios van a ser siempre iguales a cero.

3
1.1.2. Equilibrio General Competitivo
Un Equilibrio General Competitivo (EGC) para esta econom¶³a es un conjunto de
secuencias para las cantidades ct , i t , kt+1, Yt y K t y los precios wt y rt tales que:
i) Dados k 0 > 0, wt y rt , las secuencias ct , i t y kt+1 resuelven el problema:
1
X
max ¯ t u (ct ) (1.7)
t=0

s:t: ct + it = wt + rtk t 8t
kt+1 = (1 ¡ ±) kt + i t 8t

ii) En cada per¶³odo t, dados wt y rt , los valores Yt y K t resuelven el problema:

max Yt ¡ wt ¡ rt Kt (1.8)

s:t: Yt = f (Kt )

iii) En cada per¶³odo t, hay igualdad entre oferta y demanda:

Yt = ct + i t (1.9)

Kt = kt (1.10)
En este curso vamos a revisar un conjunto de m¶etodos para aproximar el Equi-
librio Competitivo, es decir, para encontrar valores num¶ericos para las secuencias
de consumo, inversi¶on, capital, producto y precios que satisfagan la de¯nici¶on
anterior. Esto requiere en primer lugar especi¯car las formas funcionales para la
funci¶on de utilidad u (c) y la funci¶on de producci¶on f (K), as¶i como valores para
todos los par¶ametros del modelo (incluyendo ¯ y ±). Los criterios para asignar
esos valores dependen ya del investigador y no ser¶an cubiertos en este curso. 3
3
on y al debate con la econometr¶ia tradicional puede
Una introducci¶o n al m¶etodo de calibraci¶
encontrarse en Cooley y Prescott (1995) y Bergoeing (1998).

4
1.1.3. El Problema del Plani¯cador Social
Consideremos por un momento una econom¶³a como la descrita anteriormente,
pero en la cual las decisiones son tomadas por un plani¯cador social o un dictador
benevolente. Este plani¯cador busca maximizar la utilidad del agente represen-
tativo (1.1), sujeto a las restricciones tecnol¶ogicas dadas por (1.3) y (1.4). Las
cantidades resultantes de esta maximizaci¶on son Optimos de Pareto, en el sentido
que no es posible aumentar la utilidad de algun agente sin reducir la de otro.
Formalmente, un Optimo de Pareto (OP) para esta econom¶³a es un conjunto
de secuencias para las cantidades ct , it y kt+1 que, dado k0 > 0, resuelven el
problema del plani¯cador social:
1
X
max ¯ t u (ct ) (1.11)
t=0

s:t: ct + it = f (k t) 8t
kt+1 = (1 ¡ ±) kt + it 8t

Podemos demostrar que si no existen distorsiones tales como impuestos o ex-


ternalidades, todo EGC es un OP y para cada OP existe un sistema de precios que
lo hace un EGC. Esta equivalencia entre el problema del plani¯cador social y los
problemas de familias y ¯rmas competitivas es una aplicaci¶on directa de los Teore-
mas del Bienestar. En la pr¶actica, nos permite hallar el EGC resolviendo primero
el problema del plani¯cador social, que es mas sencillo, y luego encontrando los
precios.

1.2. Introducci¶
on a los M¶
etodos Num¶ericos
A continuaci¶on veremos algunos procedimientos num¶ericos que m¶as adelante ser¶an
¶utiles para el desarrollo del curso. En particular, veremos como aproximar num¶ericamente
la soluci¶on de un sistema de ecuaciones no-lineales y como calcular la matriz Ja-
cobiana de una funci¶on, sin necesidad de conocer las expresiones anal¶iticas para
las derivadas.

1.2.1. Soluci¶
on de Ecuaciones No-Lineales
Varios de los m¶etodos que vamos a revisar en este curso se reducen ¯nalmente a
resolver un sistema de ecuaciones, posiblemente no-lineales. Sea x = (x1 ; x2 ; :::xn)

5
un vector columna de n componentes, y F (x) una funci¶on que transforma valores
de Rn en Rn . Queremos encontrar algun vector x^, no necesariamente u¶nico, tal
que F (^x) = 0. Dado que no podemos resolver anal¶iticamente la ecuaci¶on, vamos
a aproximar num¶ericamente su soluci¶on mediante un vector que denotamos por
x¹.
Para ello, un procedimiento sencillo se conoce como el m¶etodo de Newton-
Raphson. La idea es usar una expansi¶on de Taylor de la funci¶on F en torno a la
soluci¶on aproximada x¹, del tipo

F (x) ¼ F (¹ x) (x ¡ x¹) + t¶erminos de orden mayor


x) + J (¹ (1.12)
en donde J (¹
x) es la matriz Jacobiana con las derivadas parciales de F evaluadas
en x¹:
2 3
F11 (¹ x) F 12 (¹x) :::: F1n (¹ x)
6 7
F21 (¹ x) F 22 (¹x) :::: F2n (¹ x)
x) = 6 7
J (¹ 6 7
4 ::::::::::: ::::::::::: :::: ::::::::::: 5
Fn1 (¹x) F n2 (¹x) :::: Fnn (¹ x)

x) = @Fxij(¹x) .
y Fij (¹
Una aplicaci¶on del Teorema de Taylor nos asegura que, conforme x¹ se acerca al
valor x, los t¶erminos de orden mayor tienden a cero. Luego, manipulando (1.12)
evaluada en x^ obtenemos:

x)¡1 F (¹x)
x^ ¼ x¹ ¡ J (¹ (1.13)
que es la base del m¶etodo de Newton-Raphson.
El algoritmo en s¶i sigue los siguientes pasos. Primero debe proponerse una
soluci¶on x0, usando en lo posible el conocimiento que tengamos acerca de F .
Adem¶as, debe establecerse un criterio de tolerancia, es decir un valor m¶inimo
para el margen de error que consideramos aceptable. Con s = 0, iniciamos el
siguiente procedimiento iterativo:

1. Calcular el vector F (xs ) y la matriz J (xs);

2. Calcular el vector xs+1 usando la siguiente regla:

xs+1 = xs ¡ J (xs )¡1 F (xs )

6
3. Evaluar la norma o distancia kxs+1 ¡ xs k.4 Si esta distancia es mayor que
el criterio de tolerancia establecido, regresar al paso 1 con s = s + 1. En
caso contrario, el procedimiento termina con x¹ = xs+1.

Si empezamos con un candidato x0 su¯cientemente cerca de x^, puede de-


mostrarse que el m¶etodo de Newton-Raphson converge a dicha soluci¶on. Sin
embargo, si empezamos lejos de x^ el m¶etodo converger¶a a otra soluci¶on (en caso
de que esta no sea ¶unica) o bien diverger¶a, es decir la distancia kxs+1 ¡ xs k se ir¶a
haciendo cada vez mayor. De ah¶i la importancia de probar distintos valores para
x0 antes de aventurar una soluci¶on de¯nitiva.
Otra desventaja de este m¶etodo es que requiere tener expresiones anal¶iticas
para todas las derivadas parciales de F , a ¯n de calcular J (xs ) en cada iteraci¶on.
Un m¶etodo alternativo al Newton-Raphson, conocido como el m¶etodo de secante,
es similar al anterior en cada paso con la excepci¶on de que usa derivadas num¶ericas
para aproximar J (xs ). Pese a ser m¶as sencillo de implementar, el m¶etodo de
secante es menos preciso, y en ocasiones resulta m¶as dif¶icil obtener convergencia.

1.2.2. Derivadas Num¶ericas


Queremos obtener una aproximaci¶on num¶erica para la matriz Jacobiana J (x), que
descomponemos en sus n columnas J (x) = [J1 (x) J2 (x) ::: Jn (x)] siendo
Ji (x) el vector columna con las n derivadas parciales de la funci¶on F con respecto
a x i.
Sea h es un vector columna de n componentes (incremento). Cuando los
valores de h son peque~nos, podemos usar la expansi¶on de Taylor:

F (x1 + h1 ; x2 ; :::; xn) ¼ F (x) + J1 (x) h1

F (x1; x2 + h2 ; :::; xn) ¼ F (x) + J2 (x) h2


4
Hay varias maneras de de¯nir el concepto de distancia entre dos vectores de dimensi¶on n.
Los m¶as usados son la norma Euclideana:
q
2 2
kx ¡ yk = (x1 ¡ y 1 ) + ::: + (xn ¡ yn )

y la llamada sup-norma:

kx ¡ yk = max fjx 1 ¡ y1 j ; :::; jxn ¡ yn jg

N¶otese que cuando n = 1, ambas f¶o rmulas se reducen al valor absoluto habitual.

7
::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::

F (x1; x2; :::; xn + hn) ¼ F (x) + Jn (x) hn

de donde obtenemos para cada i = 1; :::; n


1
Ji (x) ¼ [F (x1; :::; xi + hi; :::; xn ) ¡ F (x)] (1.14)
hi
Alternativamente, podemos aproximar num¶ericamente la matriz Jacobiana us-
ando la derivada por el lado izquierdo:
1
Ji (x) ¼
[F (x) ¡ F (x1 ; :::; xi ¡ hi ; :::; xn)] (1.15)
hi
o, tomando x como el punto medio:

1
Ji (x) ¼ [F (x1 ; :::; xi + hi ; :::; xn) ¡ F (x1; :::; xi ¡ hi; :::; xn )] (1.16)
2hi
Esta ¶ultima f¶ormula es considerada m¶as precisa, a menos que exista una discon-
tinuidad en la funci¶on F evaluada en x.
Al igual que el criterio de tolerancia, la elecci¶on del vector de incrementos h
es arbitraria. Nuevamente, conviene asegurar la respuesta probando con valores
progresivamente m¶as peque~ nos, hasta que el valor de las derivadas se estabilice.

1.3. M¶etodos Iterativos Simples


Veamos ahora algunos m¶etodos sencillos para calcular el Equilibrio Competitivo
en un modelo determin¶istico similar al presentado a comienzos del curso. Em-
pecemos trabajando con el problema del plani¯cador social (1.11). Analizando
las condiciones de primer orden del problema, podemos demostrar que la trayec-
toria ¶optima para el capital kt satisface en cada per¶iodo la ecuaci¶on de Euler :

u [f (kt ) ¡ kt+1 + (1 ¡ ±) kt ]
= fk (kt+1) + (1 ¡ ±)
¯u [f (kt+1) ¡ kt+2 + (1 ¡ ±) kt+1]

y converge monot¶onicamente hasta su valor de estado estacionario, dado por:

8
" #
¤ 1
k = fk¡1 ¡ (1 ¡ ±) (1.17)
¯
Podemos reescribir la ecuaci¶on de Euler como:

ª (kt+2; kt+1; kt ) = 0 (1.18)


y el problema se reduce a resolver la ecuaci¶on en diferencias no-lineal (1.18) de
segundo orden en kt, con una condici¶on inicial (k0 > 0 dado) y una condici¶on
¯nal, k ¤.

1.3.1. Shooting
Un m¶etodo sencillo para resolver el problema anterior se conoce como shooting.
El m¶etodo supone que la econom¶ia alcanza su estado estacionario en un n¶umero
¯nito T de per¶iodos, ¯jado arbitrariamente al comienzo. Tambi¶en proponemos
un valor inicial para k1 (denotado por k10) e iniciamos la siguiente iteraci¶on, con
s = 0:

1. Dados k 0 y ks1, hallar ks2 resolviendo:

ª (k0 ; ks1; k2s ) = 0

usando Newton-Raphson o alg¶un otro m¶etodo num¶erico.

2. Calcular k3s ; :::; k sT resolviendo recursivamente:

ª (k1s ; ks2; k3s ) = 0

::::::::::::::::::::::::::::::
³ ´
ª kTs ¡2 ; ksT ¡1; kTs = 0

3. Evaluar jkTs ¡ k¤ j. Si esta distancia es mayor que el criterio de tolerancia


acordado, regresar al paso 1, con s = s + 1 y un nuevo candidato k1s+1. En
caso contrario, el procedimiento termina con la soluci¶on kt = kts .

El tercer paso veri¯ca si la trayectoria kts calculada converge hacia el valor de


estado estacionario k¤ , que podemos calcular a partir de (1.17). Si no converge,
cambiamos el valor de k1 y volvemos a recalcular la secuencia, hasta obtener

9
convergencia. N¶otese que una vez obtenida la secuencia de valores para kt podemos
calcular las trayectorias para ct , yt, wt , rt y cualquier otra variable de inter¶es,
usando las siguientes condiciones:

yt = f (kt ) (1.19)

i t = k t+1 ¡ (1 ¡ ±) kt (1.20)

ct = yt ¡ it (1.21)

Kt = kt (1.22)

rt = fk (K t) (1.23)

wt = f (Kt ) ¡ fk (Kt ) Kt (1.24)


obtenidas de la de¯nici¶on del Equilibrio Competitivo.

1.3.2. Gauss-Seidel
Un problema del m¶etodo del shooting es que no existe un procedimiento sis-
tem¶atico para ajustar el valor propuesto para k 1 al ¯nal de cada iteraci¶on. Una
alternativa que evita este problema es el m¶etodo de Gauss-Seidel. Nuevamente
suponemos que la econom¶ia alcanza su estado estacionario en un n¶umero ¯nito
T de per¶iodos. Esta vez, proponemos valores iniciales para toda la secuencia
k20; :::; k0T e iniciamos la siguiente iteraci¶on, con s = 0:
1. Dados k 0 y ks2, hallar ks+1
1 resolviendo:
³ ´
ª k0; k s+1 s
1 ; k2 = 0

usando Newton-Raphson o alg¶un otro m¶etodo num¶erico.


2. Calcular k2s+1; :::; ks+1
T resolviendo recursivamente:
³ ´
ª ks+1 s+1 s
1 ; k2 ; k3 = 0

::::::::::::::::::::::::::::::
³ ´
ª kTs+1 s+1 s
¡2 ; kT ¡1; kT = 0

10
3. Evaluar jkTs ¡ k¤ j. Si esta distancia es mayor que el criterio de tolerancia
acordado, regresar al paso 1, con s = s + 1. En caso contrario, el proced-
imiento termina con la soluci¶on kt = ks+1
t .

El tercer paso veri¯ca nuevamente si la trayectoria k st calculada converge hacia


el valor de estado estacionario k ¤. Si no converge, n¶otese que ya no necesitamos
volver a proponer una secuencia de valores iniciales k2s+1; :::; kTs+1 , pues estos se
obtienen de la u¶ltima iteraci¶on (segundo paso).

1.3.3. Resolviendo Directamente el Equilibrio Competitivo


En ciertas aplicaciones en las cuales los teoremas del bienestar no se cumplen5, es
necesario resolver directamente el Equilibrio Competitivo. Para ello, trabajamos
con la ecuaci¶on de Euler obtenida del problema del consumidor (1.7):

u [w t + rtk t ¡ kt+1 + (1 ¡ ±) kt ]
= rt+1 + (1 ¡ ±)
¯u [w t+1 + rt+1kt+1 ¡ kt+2 + (1 ¡ ±) kt+1]

una ecuaci¶on en diferencias de segundo orden en kt que depende de las secuencia


de precios rt y wt :

© ( kt+2; kt+1 ; ktj wt; w t+1 ; rt ; r t+1 ) = 0 (1.25)


Tambi¶en tomaremos en cuenta las condiciones de equilibrio (1.22), (1.23) y (1.24).
Un m¶etodo simple para resolver este problema implica una doble iteraci¶on.
Primero, siempre suponiendo que en T per¶iodos se llega al estado estacionario, pro-
ponemos una secuencia inicial para el capital agregado K00 ; K10; :::; K T0 , cuidando
que K00 = k 0 y que KT0 = K ¤. Luego, seguimos el siguiente algoritmo (primera
iteraci¶on), con s = 0.

1. Calcular todas las secuencias de precios usando (1.23) y (1.24).

2. Dados esos precios, resolver la ecuaci¶on de Euler (1.25) usando el m¶etodo de


shooting o de Gauss-Seidel (segunda iteraci¶on) y obteniendo una soluci¶on
k0s; k s1; :::; kTs .
5
Estas aplicaciones incluyen modelos con distorsiones tales como impuestos o dinero, as¶i
como modelos con decisiones discretas y otras no-convexidades.

11
3. Veri¯car si k(K0s ; K1s; :::; K Ts ) ¡ (k0s ; ks1; :::; kTs )k es menor al criterio de tol-
erancia especi¯cado. De ser as¶i, concluye el algoritmo. En caso contrario,
regresar al paso 1 con s = s + 1 y un nueva secuencia K ts+1 = 12 (Kts + kts ).

El u¶ltimo paso veri¯ca que la condici¶on de igualdad entre oferta y demanda


de capital (1.22) se cumpla en cada per¶iodo. De no ser as¶i, reiniciamos el proceso
con una nueva secuencia de capital, obtenida como un promedio ponderado de la
secuencia propuesta al principio de la iteraci¶on y la obtenida como resultado de
la misma.

1.3.4. Limitaciones
Hemos presentado un conjunto de m¶etodos iterativos relativamente simples que
permiten resolver un Equilibrio Competitivo. Uno puede preguntarse si es nece-
sario revisar m¶etodos m¶as complejos, y la respuesta es a¯rmativa. Lamentable-
mente, los m¶etodos presentados en esta sesi¶on tienen importantes limitaciones
para el trabajo cuantitativo.
Una primera limitaci¶on es el n¶umero de variables. Algunas extensiones del
Modelo de Crecimiento Neocl¶asico, en los cuales hay otras variables de estado
adem¶as del stock de capital, requieren resolver sistemas de ecuaciones en difer-
encias con m¶as de una variable. Ello en principio podr¶ia hacerse con m¶ultiple
iteraciones, una para cada variable, pero el proceso ser¶ia lento e ine¯ciente.
En segundo lugar, estos m¶etodos solo sirven para modelos determin¶isticos,
pues no existe una manera sistem¶atica de introducir incertidumbre al momento
de la computaci¶on. Por lo tanto, se requieren m¶etodos alternativos para resolver
modelos de ciclos econ¶omicos, entre otros.
Por ¶ultimo, estos m¶etodos basado en la ecuaci¶on de Euler requieren que las
funciones objetivo sean continuas y diferenciables. Esto impide el an¶alisis de solu-
ciones de esquina, decisiones discretas (como trabajar o permanecer desempleado)
u otras no-convexidades.
En las pr¶oximas sesiones revisaremos m¶etodos num¶ericos un poco m¶as so¯sti-
cados que permitan superar estas limitaciones.

12
2. Segunda Sesi¶
on
Esta sesi¶on tiene como objetivo presentar el m¶etodo de iteraci¶on de la funci¶on de
valor. Para ello, empezamos reformulando la de¯niciones de equilibrio en t¶erminos
recursivos y presentando algunos resultados de la literatura sobre programaci¶on
din¶amica. Estos resultados constituyen la base te¶orica para el m¶etodo de iteraci¶on
de la funci¶on de valor, que se presenta a continuaci¶on para resolver el problema
del plani¯cador social en un contexto determin¶istico. Finalmente, el m¶etodo es
extendido para resolver y simular un modelo estoc¶astico con shocks tecnol¶ogicos.

2.1. Formulaci¶
on Recursiva y Programaci¶
on Din¶
amica
Un Equilibrio General Competitivo Recursivo es un conjunto de funciones v (k; K ),
c (k; K), i (k; K), k 0 (k; K ), precios w (K ) y r (K ) y ley de movimiento ¡ (K) tales
que:
i) Dadas las funciones w, r y ¡, la funci¶on de valor v (k; K ) resuelve la ecuaci¶on
de Bellman:

v (k; K ) = max0 fu (c) + ¯v (k 0; K 0 )g (2.1)


c;i;k

s:t: c + i = w (K ) + r (K ) k
k 0 = (1 ¡ ±) k + i
K 0 = ¡ (K)

y las funciones c (k; K ), i (k; K ) y k 0 (k; K ) son reglas de decisi¶on ¶optimas para
este problema.
ii) Para todo K , los precios satisfacen las condiciones marginales:

r (K) = f 0 (K) (2.2)

w (K ) = f (K) ¡ f 0 (K) K (2.3)


iii) Para todo K, hay igualdad entre oferta y demanda:

f (K ) = c (K; K) + i (K; K ) (2.4)

13
iv) Para todo K, ley de movimiento agregada y comportamiento individual
son consistentes:

¡ (K) = k 0 (K; K) (2.5)


Resolver un Equilibrio Competitivo en su formulaci¶on recursiva consiste en-
tonces en encontrar un conjunto de funciones que satisfagan las condiciones an-
teriores. En particular, una vez encontradas las reglas de decisi¶on ¶optimas y
partiendo de un k0 dado, podemos reconstruir las secuencias para las principales
variables de manera recursiva:

k 1 = k0 (k0; k0 )
k 2 = k0 (k1; k1 ) = k0 (k0 (k0; k0 ) ; k 0 (k0; k0))

y as¶i sucesivamente para kt , t = 3; 4; ::: El Principio de Optimalidad asegura que


la secuencia resultante es igual a la que obtendr¶iamos resolviendo el equilibrio en
forma de secuencias que vimos en la sesi¶on anterior.
De manera similar, de¯nimos un Optimo de Pareto Recursivo como un con-
junto de funciones v (k), c (k), i (k), k 0 (k) que resuelven la ecuaci¶on de Bellman
del plani¯cador social:

v (k) = max0 fu (c) + ¯v (k 0)g (2.6)


c;i;k

s:t: c + i = f (k)
k0 = (1 ¡ ±) k + i

La equivalencia entre el equilibrio competitivo y el problema del plani¯cador social


se sigue manteniendo en este contexto.

2.1.1. Programaci¶
on Din¶
amica
Las ecuaciones de Bellman (2.1) y (2.6) son ejemplos de un problema m¶as general.
Sea x un vector columna de n componentes, X un subconjunto de Rn , la funci¶on
de retorno F : X £ X ! R y la correspondencia - : X ! X . Con esos elementos,
de¯nimos la funci¶on de valor v : X ! R como la soluci¶on de la ecuaci¶on de
Bellman:

14
v (x) = max fF (x; y) + ¯v (y)g (2.7)
y

s:t: y 2 - (x)
para todo x 2 X. Dada la funci¶on de valor, podemos de¯nir la regla de decisi¶on
¶optima g : X ! X como:

g (x) = arg max fF (x; y) + ¯v (y)g (2.8)


y

s:t: y 2 - (x)
es decir, la funci¶on que satisface:

v (x) = F (x; g (x)) + ¯v (g (x))

Las propiedades de las funciones v y g han sido analizadas en la literatura


sobre programaci¶on din¶amica6. En ella, se demuestra que si (i) X es un conjunto
convexo; (ii) - (x) es un conjunto compacto y no-vac¶io, para todo x 2 X; (iii) la
correspondencia - es convexa y continua; (iv) la funci¶on F es c¶oncava, acotada y
continua; y (v) ¯ < 1; entonces:

1. existe una u¶nica funci¶on v que satisface (2.7);

2. v es continua, acotada y estrictamente c¶oncava;

3. existe una u¶nica funci¶on g que resuelve (2.8);

4. g es continua.

En la mayor parte de ejemplos pr¶acticos que veremos, incluyendo el Modelo de


Crecimiento Neocl¶asico, las restricciones impuestas en las preferencias y tecnolog¶ia
aseguran que los supuestos (i)-(v) se cumplen.
Aparte de asegurarnos existencia y unicidad de la soluci¶on, el m¶etodo de pro-
gramaci¶on din¶amica nos ofrece un procedemiento para encontrar dicha soluci¶on.
De¯namos el operador T : B(X) ! B (X), en donde B (X) es el espacio de
funciones acotadas de¯nidas en X, de la siguiente manera:
6
Una referencia completa, aunque bastante t¶ecnica, puede encontrarse en Stokey y Lucas
(1989).

15
T [v (x)] = max fF (x; y) + ¯v (y)g (2.9)
y

s:t: y 2 - (x)
Encontrar la funci¶on de valor que resuelve (2.7) es equivalente a encontrar un
punto ¯jo del operador T , es decir, una funci¶on v tal que T [v] = v.
Bajo ciertas condiones t¶ecnicas, el operador T es una contracci¶on 7. Por lo
tanto, partiendo de cualquier funci¶on v0 2 B (X), la secuencia vn de¯nida por:

v1 = T v0
v 2 = T v 1 = T 2v 0
:::::::::::::

converge hacia el punto ¯jo v.

2.2. Iteraci¶
on de la Funci¶
on de Valor
Volvamos ahora al problema del plani¯cador social (2.6) en su froma recursiva.
Reemplazando las restricciones en la funci¶on objetivo, tenemos:

v (k) = max
0
fu [f (k) + (1 ¡ ±) k ¡ k0 ] + ¯v (k 0 )g (2.10)
k

s:t: k 0 2 [0; f (k) + (1 ¡ ±) k]


un problema equivalente a la ecuaci¶on de Bellman general (2.7) con x = k, y = k 0 ,
F (x; y) = u [f (x) + (1 ¡ ±) x ¡ y] y - (x) = [0; f (x) + (1 ¡ ±) x].
De acuerdo con la teor¶ia de la programaci¶on din¶amica que revisamos breve-
mente, partiendo de cualquier funci¶on v0 (por ejemplo, v0 (k) = 0) la secuencia
vn de¯nida por

vn+1 (k) = max


0
fu [f (k) + (1 ¡ ±) k ¡ k 0] + ¯vn (k 0)g (2.11)
k
7
El operador T es una contracci¶on con m¶odulo ¯ si existe un n¶ u mero ¯ 2 (0; 1) tal que
kT f (x) ¡ T g (x)k · ¯ kf (x) ¡ g (x)k para todo f; g 2 B (X), x 2 X.
Las llamadas condiciones de Blackwel l su¯cientes para una contracci¶o n son: monotonicidad
del operador T , en el sentido que T f · T g si f (x) · g (x) para todo x 2 X, y descuento, en el
sentido que existe un n¶umero ¯ 2 (0; 1) tal que T [f + a] (x) · T f (x)+ ¯a para todo f 2 B (X),
x 2 X y a ¸ 0. Nuevamente, los supuestos (i)-(v) mencionados anteriormente garantizan su
cumplimiento.

16
s:t: k 0 2 [0; f (k) + (1 ¡ ±) k]
converge a la soluci¶on v cuando n tiende a in¯nito. Esto constituye de por s¶i
un m¶etodo iterativo en un espacio de funciones; en esta secci¶on veremos como
implementarlo num¶ericamente.

2.2.1. Implementaci¶
on Num¶erica
Empezamos de¯niendo una malla de valores para k, es decir, un vector K =
(K1; K2;:::; K p) con K1 = K min y Kp = K max. Por simplicidad, podemos usar
puntos igualmente espaciados, con K2 = Kmin + ´, K 3 = Kmin + 2´ y as¶i sucesi-
vamente, en donde ´ = (Kmax ¡ Kmin ) = (p ¡ 1) Mientras m¶as puntos usemos, es
decir mientras p sea mayor y ´ m¶as peque~
no, la aproximaci¶on ser¶a m¶as precisa.
Luego, de¯nimos una matriz M de la siguiente manera:
2 3
F (K1; K 1) F (K 1; K2) ::::: F (K1; K p)
6 F (K2; K 1) F (K 2; K2) ::::: F (K2; K p) 7
M =6 7
6 7
4 :::::::::::::::: :::::::::::::::: ::::: :::::::::::::::: 5
F (Kp; K 1) F (K p; K2) ::::: F (Kp; K p)
en donde F (x; y) = u [f (x) + (1 ¡ ±) x ¡ y]. La matriz M contiene la funci¶on
de retorno evaluada para cada posible k 2 K y k 0 2 K. Sin embargo, sabemos
que no todos esos valores son posibles. La restricci¶on k 0 2 [0; f (k) + (1 ¡ ±) k]
nos permite eliminar algunas celdas de la matriz que son inalcanzables para el
plani¯cador social, imponi¶endole un valor cero8. Hacemos entonces:

Mij ´ F (Ki; K j ) = 0 si Kj > f (Ki ) + (1 ¡ ±) Ki


Una vez constru¶ida la matriz M , el resto del procedimiento es una simple
iteraci¶on. Empezamos con cualquier vector columna V 0 2 Rp (por ejemplo, V 0 =
0) e iniciamos el siguiente algoritmo con s = 0:
³ ´
1. Dado el vector V s = V1s ; V2s ; :::; V ps y la matriz M , calcular V s+1 de la
siguiente manera:
2 3
M11 + ¯V1s M12 + ¯V2s ::: M1p + ¯Vps
6 M21 + ¯V1s M22 + ¯V2s ::: M2p + ¯Vps 7
V s+1 = max 6 7
6 7
4 :::::::::::::::::: :::::::::::::::::: ::: :::::::::::::::::: 5
Mp1 + ¯V1s Mp2 + ¯V2s ::: Mpp + ¯Vps
8
O un valor negativo (como por ejemplo ¡1000). El punto es impedir que el programa escoja
esa celda al calcular la maximizaci¶o n.

17
donde el m¶aximo es calculado por ¯la, es decir:
2 n o 3
max nM11 + ¯V1s ; M12 + ¯V2s ; :::; M1p + ¯Vps o
6 7
6 7
s+1 6 max M21 + ¯V1s ; M22 + ¯V2s ; :::; M2p + ¯Vps 7
V = 6 7
6 :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: 7
4 n o 5
max Mp1 + ¯V1s ; Mp2 + ¯V2s ; :::; Mpp + ¯Vps

2. Evaluar kV s+1 ¡ V sk. Si la norma es mayor que el criterio de tolerancia per-


mitido, regresar al paso 1 con s = s + 1. En caso contrario, el procedimiento
termina con la soluci¶on V = V s+1.

Una vez obtenida la aproximaci¶on a la funci¶on de valor V (evaluada en cada


uno de los p puntos de la malla), la correspondiente regla de decisi¶on ¶optima G
se obtiene calculando:
2 3
M11 + ¯V1 M12 + ¯V2 ::: M1p + ¯Vp
6 7
M21 + ¯V1 M22 + ¯V2 ::: M2p + ¯Vp
G = arg max 6 7
6 7
4 :::::::::::::::::: :::::::::::::::::: ::: :::::::::::::::::: 5
Mp1 + ¯V1 Mp2 + ¯V2 ::: Mpp + ¯Vp

Es decir, G es un vector columna de n componentes, en donde Gi 2 f1; :::; pg nos


indica el n¶umero de la columna que maximiza la ¯la i.
Podemos entonces reconstruir la secuencia ¶optima de capital, partiendo de
k0 = K i de la siguiente manera:

k1 = Kj con j = Gi
k2 = Kl con l = G j
:::::::::::::::::::

y as¶i sucesivamente.

2.2.2. Resolviendo el Equilibrio Competitivo


El m¶etodo de iteraci¶on de la funci¶on de valor es particularmente apropiado para
resolver el problema del plani¯cador social. Sin embargo, su utilidad es menor al
momento de resolver directamente el Equilibrio Competitivo. La raz¶on no es que
existan dos variables de estado, el capital individual y el agregado, pues eso ser¶ia

18
una simple extensi¶on del m¶etodo anterior. El principal problema es que la ley de
movimiento del capital agregado (la funci¶on ¡ en la ecuaci¶on de Bellman (2.1))
debe ser conocida al momento de realizar la optimizaci¶on. Sin embargo, este es
un objeto que solo conocemos luego de resolver el equilibrio.
Una forma de evitar este problema guarda cierta analog¶ia con el metodo de
doble iteraci¶on que vimos en la sesi¶on anterior. Presentaremos solo la idea general,
pues su utilizaci¶on es limitada en la pr¶actica. Suponemos que la ley de movimiento
tiene cierta forma funcional, por ejemplo un polinomio de grado n:

K 0 = ¡ (K) = a1 + a2K 2 + ::: + a nK n

y proponemos un vector inicial de par¶ametros (a 1; a2; :::; a n).


Dada esa ley de movimiento, la ecuaci¶on (2.1) puede resolverse iterando la
funci¶on de valor. Obtenemos entonces la regla de decisi¶on ¶optima y, dado k0 ,
calculamos la secuencia ¶optima resultante k0; k1; :::; kT . Con esos datos, corremos
la regresi¶on:

kt+1 = a 1 + a2 k2t + ::: + an knt

y estimamos un nuevo juego de par¶ametros (^a1 ; ^a2; :::; ^an ). Si estos estan razon-
ablemente cercanos a los que propusimos, termina el procedimiento. En caso
contrario, volvemos a resolver la ecuaci¶on de Bellman usando (^a1 ; ^a2; :::; ^an ) como
los nuevos par¶ametros de la ley de movimiento.
Evidentemente, este m¶etodo de doble iteraci¶on ser¶a m¶as preciso conforme
mayor sea el grado n del polinomio que se use para aproximar la ley de movimiento
del capital agregado. Pero a¶un con un n grande, nada garantiza la convergencia
del algoritmo.

2.3. El Modelo Estoc¶


astico
Consideremos ahora un modelo un poco distinto, en el cual la productividad de
la ¯rma representativa esta sujeta a un shock tecnol¶ogico µ. Es decir, en cada
per¶iodo t, tenemos:

Yt = µt f (Kt )

en donde µ t es una variable aleatoria que sigue un determinado proceso estoc¶astico.


Las decisiones se toman en cada per¶iodo antes de que el shock correspondiente
sea observado.

19
Para poder aplicar el m¶etodo de programaci¶on din¶amica, suponemos que los
shocks toman un n¶ umero ¯nito
³ q de valores´ y siguen
h un proceso
¯ dei Markov de
primer orden. Es decir, µ 2 µ 1; µ 2; :::; µ q y P rob µ t+1 = µ j¯¯ µ t = µ i = ¼ ij . Ev-
P
identemente, debe cumplirse que qj=1 ¼ ij = 1. La matriz ¦ de orden q £ q con
todas las probabilidades ¼ij se conoce como la matriz de transici¶on.
Un Equilibrio General Competitivo, Recursivo y Estoc¶astico para esta econom¶ia
es un conjunto de funciones (o planes contingentes) v (k; K; µ), c (k; K; µ), i (k; K; µ),
k 0 (k; K; µ), precios w (K; µ) y r (K; µ) y ley de movimiento ¡ (K; µ) tales que:
i) Dadas las funciones w, r y ¡, la funci¶on de valor v (k; K; µ) resuelve la
ecuaci¶on de Bellman:

v (k; K; µ) = max0 fu (c) + ¯Eµ v (k0 ; K 0 ; µ 0 )g (2.12)


c;i;k

s:t: c + i = w (K; µ) + r (K; µ) k


k 0 = (1 ¡ ±) k + i
K 0 = ¡ (K; µ)

y las funciones c (k; K ), i (k; K) y k 0 (k; K) son reglas de decisi¶on ¶optimas para
este problema.
ii) Para todo K y µ, los precios satisfacen las condiciones marginales:

r (K; µ) = µf 0 (K) (2.13)

w (K; µ) = µf (K) ¡ µf 0 (K ) K (2.14)


iii) Para todo K y µ, hay igualdad entre oferta y demanda:

µf (K ) = c (K; K; µ) + i (K; K; µ) (2.15)


iv) Para todo K y µ, ley de movimiento agregada y comportamiento individual
son consistentes:

¡ (K; µ) = k 0 (K; K; µ) (2.16)


N¶otese que, dada la forma en que hemos de¯nido el proceso estoc¶astico para
los shocks tecnol¶ogicos, podemos expresar el valor esperado en (2.12) como:

20
q
X ³ ´
0 0 0
Eµ i v (k ; K ; µ ) = ¼ij v k 0 ; K 0 ; µ j (2.17)
j =1

N¶otese tambi¶en que las reglas de decisi¶on ¶optimas son planes contigentes. Para
obtener las trayectorias correspondientes es necesario simular una historia com-
pleta de realizaci¶on de los shocks tecnol¶ogicos.
Similarmente, de¯nimos un Optimo de Pareto Recursivo y Estoc¶astico como un
conjunto de funciones v (k; µ), c (k; µ), i (k; µ), k0 (k; µ) que resuelven la ecuaci¶on
de Bellman del plani¯cador social:

v (k; µ) = max0 fu (c) + ¯Eµ v (k 0; µ 0 )g (2.18)


c;i;k

s:t: c + i = µf (k)
k0 = (1 ¡ ±) k + i

y nuevamente, en aquellos casos en que se cumplan los supuestos de los Teoremas


del Bienestar, resolveremos este problema como una manera indirecta de calcular
el Equilibrio Competitivo.

2.3.1. Iteraci¶
on de la Funci¶
on de Valor
La ecuaci¶on de Bellman (2.18) puede resolverse num¶ericamente usando el m¶etodo
de iteraci¶on de la funci¶on de valor. Dada una malla (K1; K2;:::; K p) para el stock de
capital y la malla (µ1 ; µ2 ; :::; µq ) para los shocks tecnol¶ogicos, de¯nimos la matriz
M de orden pq £ p de la siguiente manera:
2 3
F (K1; K1 ; µ1 ) F (K1 ; K2; µ 1) ::::: F (K1; Kp ; µ1 )
6 7
6 ::::::::::::::::::::::::: :::::::::::::::::::::::: ::::: :::::::::::::::::::::: 7
6 7
6 F (Kp; K1 ; µ1 ) F (Kp ; K2; µ 1) ::::: F (Kp; Kp ; µ1 ) 7
6 7
6 7
6 F (K1; K1 ; µ2 ) F (K1 ; K2; µ 2) ::::: F (K1 ; Kp; µ 2) 7
6 7
6 ::::::::::::::::::::::::: ::::::::::::::::::::::: ::::: :::::::::::::::::::::::: 7
M =6
6
7
7
6 F (Kp; K1 ; µ2 ) F (Kp ; K2; µ 2) ::::: F (Kp ; Kp; µ 2) 7
6 7
6
6
::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: 7
7
6 F (K1; K1 ; µq ) F (K1; K 2; µ q ) ::::: F (K1 ; Kp; µ q ) 7
6 7
6 7
4 :::::::::::::::::::::::: :::::::::::::::::::::::: ::::: :::::::::::::::::::::: 5
F (Kp; K1 ; µq ) F (Kp; K 2; µ q ) ::::: F (Kp ; Kp; µ q )

21
en donde F (x; y; µ) = u [µf (x) + (1 ¡ ±) x ¡ y]. Nuevamente, imponemos las
restricciones tecnol¶ogicas en la matriz M haciendo::
Mp(l¡1)+i;j ´ F (K i; Kj ; µ l ) = 0 si K j > µ l f (K i) + (1 ¡ ±) Ki
Una vez constru¶ida M, escojemos cualquier vector columna V 0 2 Rpq (por
ejemplo, V 0 = 0) e iniciamos el siguiente algoritmo con s = 0:
³ ´
1. Dado el vector V s = V1s ; V2s ; :::; Vpqs , calcular una matriz W s de q £ p de
acuerdo a:
2 Pq Pq Pq 3
s s s
j=1 ¼ 1jV j(p¡1)+1 j=1 ¼1j Vj(p¡1)+2 ::::: j=1 ¼ 1j Vj(p¡1)+p
6 Pq s Pq s Pq s 7
s
6 j=1 ¼ 2jV j(p¡1)+1 j=1 ¼2j Vj(p¡1)+2 ::::: j=1 ¼ 2j Vj(p¡1)+p 7
W =6 6 7
4 ::::::::::::::::::::::::::: ::::::::::::::::::::::::::: ::::: ::::::::::::::::::::::::::: 7
5
Pq s Pq s Pq s
¼ V
j=1 qj j(p¡1)+1 ¼ V
j=1 qj j(p¡1)+2 ::::: ¼ V
j=1 qj j(p¡1)+p

2. Dados el vector W s y la matriz M , calcular la matriz M ¤ de orden pq £ p


de la siguiente manera:
2 s s s
3
M11 + ¯W11 M12 + ¯W12 ::::: M1p + ¯W1p
6 7
6 ::::::::::::::::::::::::::::::: ::::::::::::::::::::::::::::::: ::::: ::::::::::::::::::::::::::::::: 7
6 s s s 7
6 Mp1 + ¯W11 Mp2 + ¯W12 ::::: Mpp + ¯W1p 7
6 7
6 s s s 7
6 Mp+1;1 + ¯W21 Mp+1;2 + ¯W22 ::::: Mp+1;p + ¯W2p 7
6 7
6 ::::::::::::::::::::::::::::::: ::::::::::::::::::::::::::::::: ::::: ::::::::::::::::::::::::::::::: 7
M¤ = 6
6 s s s
7
7
6 M2p;1 + ¯W21 M2p;2 + ¯W22 ::::: M2p;p + ¯W2p 7
6 7
6
6
::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: 7
7
6 M(q¡1)p+1;1 + ¯Wq1 s
M(q¡1)p+1;2 + ¯Wq2 s
::::: M(q¡1)p+1;p + ¯Wqp s 7
6 7
6 7
4 ::::::::::::::::::::::::::::::: ::::::::::::::::::::::::::::::: ::::: ::::::::::::::::::::::::::::::: 5
Mqp;1 + ¯Wq1 s Mqp;2 + ¯Wq2 s ::::: Mqp;p + ¯Wqp s

3. Dada la matriz M ¤, calcular el vector V s+1 como:


V s+1 = max M ¤
donde el m¶aximo es calculado por ¯la.
4. Evaluar kV s+1 ¡ V sk. Si la norma es mayor que el criterio de tolerancia per-
mitido, regresar al paso 1 con s = s + 1. En caso contrario, el procedimiento
termina con la soluci¶on V = V s+1.
La regla de decisi¶on ¶optima se calcula como antes:
G = arg max M ¤
en donde M ¤ es la matriz obtenida en el segundo paso de la u¶ltima iteraci¶on.

22
2.3.2. Simulaci¶
on de las Trayectorias Optimas
Con el m¶etodo anterior, obtenemos la funci¶on de valor V y la regla de decisi¶on
¶optima G evaluadas para cada stock de capital y cada shock tecnol¶ogico. Estos
vectores est¶an ordenados de la siguiente manera:
2 3 2 3
v (K 1; µ 1) g (K1;µ 1)
6 v (K 2; µ 1) 7 6 g (K2;µ 1) 7
6 7 6 7
6 7 6 7
6
6
::::::::::::::: 7
7
6
6
::::::::::::::: 7
7
6 v (K p; µ 1) 7 6 g (Kp; µ1 ) 7
6 7 6 7
6 7 6 7
6
6
v (K 1; µ 2) 7
7
6
6
g (K1;µ 2) 7
7
V = 6 ::::::::::::::: 7 G =6 ::::::::::::::: 7
6 7 6 7
6 7 6 7
6 v (K p; µ 2) 7 6 g (Kp; µ2 ) 7
6 7 6 7
6 ::::::::::::::: 7 6 ::::::::::::::: 7
6 7 6 7
6 v (K 1; µ q ) 7 6 g (K1;µ q ) 7
6 7 6 7
6 7 6 7
4 ::::::::::::::: 5 4 ::::::::::::::: 5
v (K p; µ q ) g (Kp; µq )

en donde l = g (K i; µ j ) nos indica que, dado el stock de capital y la realizaci¶on


del shock tecnol¶ogico, el plani¯cador social escoger¶a un stock de capital para el
siguiente per¶iodo igual a Kl .
Para obtener una secuencia ¶optima de capital k0; k1 ; :::; kT debemos entonces
simular primero una historia de realizaci¶on de shocks tecnol¶ogicos µ 0; µ 1; :::; µ T ,
usando por supuesto la informaci¶on contenida en la matriz de transici¶on ¦.
Cualquier lenguaje de programaci¶on escoje n¶ umeros aleatrios de acuerdo a una dis-
tribuci¶on espec¶i¯ca. Por ejemplo, podemos pedir que escoja µ 0 asignando
³ la misma
´
1 2
probabilidad 1=q a cada uno de los posibles valores en la malla µ ; µ ; :::; µ q . A
continuaci¶on, pedimos que simule recursivamente una secuencia ³ µ 1; :::; µ´T de man-
era tal que, dado µ t = µ , escoja µt+1 entre los valores µ ; µ ; :::; µ q con una
i 1 2

distribuci¶on de probabilidad (¼i1; ¼ i2; ::; ¼iq ).


Una vez conocida la secuencia de shocks tecnol¶ogicos, podemos simular una
secuencia ¶optima para el capital k0; k1 ; :::; kT y para el resto de variables, usando
la regla de decisi¶on ¶optima G. Estas secuencias representan series de tiempo,
cuyos principales estad¶isticos (media, varianza, patr¶on de correlaciones) pueden
ser calculados y comprados con los datos. N¶otese, sin embargo, que las series de
tiempo obtenidas dependen de la particular realizaci¶on de los shocks tecnol¶ogicos.
Por eso, se recomienda hacer un n¶umero grande de simulaciones y usar el promedio
(entre simulaciones) de cada uno de los estad¶isticos mencionados.

23
2.3.3. Limitaciones
El m¶etodo de iteraci¶on de la funci¶on de valor tiene la ventaja de ser bastante
preciso cuando la malla de valores para las variables de estado es su¯cientemente
¯na. Adem¶as, permite incorporar incertidumbre de una manera natural. Sin
embargo, este m¶etodo tiene a su vez ciertas limitaciones. Primero, su aplicabilidad
es mayor para econom¶ias en las que los Teoremas del Bienestar se cumplen y
podemos entonces resolver el problema del plani¯cador social. Ya hemos visto
las di¯cultades que se presentan al tratar de resolver directamente el Equilibrio
Competitivo.
En segundo lugar, al aumentar el n¶umero de variables de estado y/o el n¶umero
de puntos en la malla, la dimensi¶on del problema (de la matriz M ) crece expo-
nencialmente volviendo este m¶etodo muy lento y costoso en t¶erminos computa-
cionales.
Por ¶ultimo, los m¶etodos basado en la programaci¶on din¶amica solo permiten
introducir shocks estoc¶asticos de una determinada estructura, b¶asicamente pro-
cesos de Markov de primer orden con n¶ umero ¯nito de estados. Otros procesos
estoc¶asticos m¶as generales requieren m¶etodos distintos, como el que analizaremos
en la pr¶oxima sesi¶on.

24
3. Tercera Sesi¶
on
En esta sesi¶on revisaremos el m¶etodo de aproximaci¶on lineal-cuadr¶atica en torno al
estado estacionario. Durante muchos a~nos, este m¶etodo fue considerado est¶andar
para resolver modelos macroecon¶omicos din¶amicos, especialmente el modelo de
Ciclos Econ¶omicos Reales de Kydland y Prescott (1982). Empezaremos revisando
las t¶ecnicas para analizar y resolver problemas de maximizaci¶on intertemporal en
los cuales la funci¶on objetivo toma una forma cuadr¶atica y las restricciones son
lineales. Una buena referencia para esta secci¶on es el libro de Sargent (1987). En
la segunda parte, veremos como transformar el problema del plani¯cador social
y el Equilibrio Competitivo en problemas lineal-cuadr¶aticos, a ¯n de resolverlos
usando las t¶ecnicas anteriores.

3.1. El Modelo Lineal-Cuadr¶atico


Consideremos el siguiente problema de optimizaci¶on din¶amica:
1
X h i
max E0 ¯ t xTt Rxt + 2yTt W xt + ytT Qyt (3.1)
fyt g
t=0

s:t: xt+1 = Axt + Byt + "t+1 8t


"t+1 » (0; §) 8t
en donde xt es un vector columna de p variables de estado (incluyendo la con-
stante), yt es un vector columna de q variables de control y "t es un vector de p
variables aleatorias (ruidos blancos) distribuidas conjuntamente con media cero
y matriz de varianzas-covarianzas §. Las matrices de coe¯cientes Rp£p, Wq£p ,
Qq£q , Ap£p, Bp£q y §p£p son datos del problema, as¶i como el vector inicial de
variables de estado x0 . Finalmente, asumimos que tanto R como Q son matrices
sim¶etricas, R negativa semide¯nida y Q negativa de¯nida.
El problema (3.1) pertenece a la clase de modelos lineal-cuadr¶aticos, en los
cuales se maximiza la suma descontada de una funci¶on objetivo cuadr¶atica su-
jeto a una secuencia de restricciones lineales. En esta secci¶on estudiaremos las
propiedades de este modelo y un m¶etodo num¶erico para resolverlo.

3.1.1. Ecuaci¶
on de Bellman
Podemos reformular el problema (3.1) de manera recursiva como un problema de
programaci¶on din¶amica:

25
n o
v(x) = max xT Rx + 2yT W x + yT Qy + ¯Ev (x0) (3.2)
y

s:t: x0 = Ax + By + "0
" 0 » (0; §)
en donde el valor esperado dentro de la maximizaci¶on se calcula en base a toda
la informaci¶on contenida en el vector de variables de estado x.
Para resolver la ecuaci¶on de Bellman (3.2), proponemos que la funci¶on de valor
tiene la siguiente forma:

v (x) = xT P x + d (3.3)
en donde P es una matriz sim¶etrica, negativa semide¯nida, de orden p £ p y:

d = ¯ (1 ¡ ¯)¡1 traza (P §) (3.4)


M¶as adelante veri¯caremos que la soluci¶on toma efectivamente esa forma.
Reemplazando esta soluci¶on propuesta en (3.2), tenemos:
n h io
v(x) = max xT Rx + 2yT W x + yT Qy + ¯E (x0)T P x0 + d
y

y, usando la ley de movimiento del vector de variables de estado:


n
v(x) = max xT Rx + 2yT W x + yT Qy
y
h io
+¯E (Ax + By + "0 )T P (Ax + By + " 0) + d
que, simpli¯cando, nos da:
n
v(x) = max xT Rx + 2yT W x + yT Qy + 2¯y T B T P Ax (3.5)
y
o
T
+¯yT BT P By + ¯xT AT P Ax + ¯E ("0 ) P "0 + ¯d
Ahora bien, n¶otese que E (" 0)T P "0 = traza E (" 0 )T P " 0 = traza P E ("0 )T "0 =
traza (P §). Reemplazando en (3.5) y usando la de¯nici¶on de d en (3.4), obten-
emos ¯nalmente:
n
v(x) = max xT Rx + 2y T W x + y T Qy + 2¯yT BT P Ax (3.6)
y
o
+¯y T B T P By + ¯xT AT P Ax + d

26
3.1.2. Calculo de la Regla de Decisi¶
on Optima
El siguiente paso consiste en resolver la maximizaci¶on en (3.6), usando la condici¶on
de primer orden:
@v(x)
= 2W x + 2Qy + 2¯B T P Ax + 2¯B T P By = 0
@y
que, despejando, nos da la regla de decisi¶on ¶optima y = Gx, con la matriz:
³ ´¡1 ³ ´
G = ¡ Q + ¯BT P B W + ¯BT P A (3.7)
N¶otese dos propiedades de esta regla de decisi¶on ¶optima. En primer lugar, es
una funci¶on lineal de las variables de estado. En segundo lugar, G es independiente
de la estructura estoc¶astica del problema, en particular de la matriz de varianzas-
covarianzas § 9. Ambas propiedades son espec¶i¯cas al modelo lineal-cuadr¶atico.

3.1.3. Iteraci¶
on de la Matriz de Ricatti
Nos queda veri¯car que la soluci¶on toma efectivamente la forma propuesta en
(3.3), encontrando una matriz P que satisfaga:

xT P x + d = xT Rx + 2 (Gx)T W x + (Gx)T Q (Gx)

+2¯ (Gx)T BT P Ax + ¯ (Gx)T B T P B (Gx) + ¯xT AT P Ax + d


en donde el lado derecho de la ecuaci¶on se obtiene reemplazando la regla de
decisi¶on ¶optima en (3.6). Eliminando d de ambos lados y dividiendo la ecuaci¶on
por xT x, nos queda:

P = R + 2GT W + GT QG + 2¯G T BT P A + ¯GT B T P BG + ¯AT P A

y, reemplazando la de¯nici¶on de G (3.7) y simpli¯cando, obtenemos ¯nalmente:

³ ´³ ´¡1 ³ ´
P = R + ¯AT P A ¡ W T + ¯AT P B Q + ¯B T P B W + ¯BT P A (3.8)

una expresi¶on conocida como la ecuaci¶on de Ricatti.


9
A esta segunda propiedad se le conoce como equivalencia de certidumbre. Ella nos permite
hallar la regla de decisi¶on ¶o ptima resolviendo el problema determin¶istico y usar la estructura
estoc¶a stica del modelo u¶ nicamente para la simulaci¶on de las trayectorias ¶o ptimas.

27
Se puede demostrar que la ecuaci¶on (3.8) tiene una u¶nica soluci¶on P sim¶etrica
y negativa semide¯nida. Adem¶as, podemos encontrar esa soluci¶on mediante el
siguiente proceso iterativo. Partiendo de cualquier matriz P0 sim¶etrica y negativa
semide¯nida (por ejemplo, P0 = 0), calculamos recursivamente:
³ ´³ ´¡1 ³ ´
Pn+1 = R + ¯AT Pn A ¡ W T + ¯AT PnB Q + ¯B T Pn B W + ¯B T PnA

hasta obtener convergencia. Se demuestra que, conforme n tiende a in¯nito, la


secuencia P n converge a la verdadera soluci¶on P .

3.1.4. Simulaci¶
on de Trayectorias Optimas
Una vez calculada la matriz P que satisface la ecuaci¶on de Ricatti, podemos
calcular la funci¶on de valor (3.3) y la regla de decisi¶on ¶optima (3.7). Volviendo a
la ley de movimiento de las variables de estado:

xt+1 = Axt + Byt + "t+1

y reemplazando la regla de decisi¶on ¶optima G:

xt+1 = (A + BG) xt + "t+1 (3.9)


obtenemos un sistema lineal de ecuaciones en diferencia para xt , sujeta a shocks
estoc¶asticos.
Este sistema nos permite simular las trayectorias ¶optimas de las variables
de estado, dados x0 y una determinada secuencia de realizaciones de los shocks
estoc¶asticos "t . Tambi¶en nos permite analizar la estabilidad del sistema, es decir
si luego de un shock que aleje al vector xt del estado estacionario ¶este vuelve a
converger al mismo en el largo plazo. Para que el modelo sea estable, tiene que
cumplirse que los valores propios de la matriz (A + BG) sean todos menores que
uno en valor absoluto.

3.1.5. Computaci¶
on E¯ciente
La e¯ciencia del m¶etodo linear-cuadr¶atico puede ser aumentada considerablemente
mediante unas simples transformaciones. La idea es simpli¯car la versi¶on deter-
min¶istica del problema (3.2) eliminando el factor de descuento y los productos
cruzados, para obtener un problema de la forma:

28
n o
~ x + y~T Q~
x) = max x~T R~
v(~ ~y + v (~
x0) (3.10)
y~

s:t: ~x + B~ y~
x~0 = A~

Esa simpli¯caci¶on puede obtenerse mediante las siguientes transformaciones:

t
x~t = ¯ 2 x³t
t
´
y~t = ¯ 2 yt + Q¡1 Wxt
~
R = R ¡ W T Q¡1W
Q~ = Q
q ³ ´
A~ = ¯ A ¡ BQ¡1W
q
B~ = ¯B

Para resolver el problema transformado (3.10) seguimos los mismos pasos que
en el caso del problema original. En primer lugar, proponemos una soluci¶on
x) = x~T P x~, en donde P es una matriz sim¶etrica negativa semide¯nida. En
v (~
~ x, obteniendo:
segundo lugar, derivamos la regla de decisi¶on ¶optima y~ = G~
³ ´¡1
~ =¡ Q
G ~+B
~ T P B~ ~ T P A~
B (3.11)

Finalmente, calculamos la matriz P resolviendo iterativamente la ecuaci¶on de


Ricatti:
³ ´¡1
~ + A~T P A~ ¡ A~T P B~ Q
P=R ~+B
~ T P B~ B~T P A~ (3.12)
que es computacionalmente m¶as sencilla que su similar (3.8).
~ podemos recu-
N¶otese que, una vez calculada la regla de decisi¶on ¶optima G,
perar la regla de decisi¶on para el problema original:
³ ´
~ ¡ Q¡1W x
y= G

e, introduciendo los shocks estoc¶asticos, simular las trayectorias ¶optimas de las


variables originales.

29
3.2. Aproximaci¶
on Lineal-Cuadr¶
atica en Torno al Estado Estacionario
En general, los modelos con los que trabajamos no tienen una estructura lineal-
cuadr¶atica equivalente al problema (3.2). No podemos, por lo tanto, aplicar el
m¶etodo de soluci¶on presentado en la secci¶on anterior, al menos directamente.
La estrategia que seguiremos es construir una aproximaci¶on lineal-cuadr¶atica a
nuestro modelo en torno al estado estacionario (determin¶istico), utilizando para
ello una expansi¶on de Taylor de segundo orden. Esta t¶ecnica, usada inicialmente
por Kydland y Prescott (1982), es facilmente aplicable para resolver el problema
del plani¯cador social. Como veremos al ¯nal, tambi¶en podemos usar un versi¶on
de este m¶etodo para resolver el Equilibrio Competitivo en una econom¶ia para la
cual no se cumplen los supuestos de los Teoremas del Bienestar.

3.2.1. Resolviendo el Problema del Plani¯cador Social


Empecemos con el problema del plani¯cador social con shocks tecnol¶ogicos en su
forma recursiva. Reemplazando las restricciones no-lineales dentro de la funci¶on
objetivo, tenemos:

v (k; µ) = max fu [µf (k) ¡ i] + ¯Eµ v (k0 ; µ 0)g (3.13)


i

s:t: k0 = (1 ¡ ±) k + i
µ0 = (1 ¡ ½) + ½µ + "0µ
³ ´
"0µ » 0; ¾2µ

N¶otese que hemos cambiado la especi¯caci¶on estoc¶astica de los shocks tecnol¶ogicos.


En la sesi¶on anterior trabajamos con un proceso de Markov de primer orden con
n¶umero ¯nito de estados. Hemos generalizado dicha representaci¶on a un proceso
autoregresivo de primer orden con media uno. Una de las ventajas del m¶etodo
lineal-cuadr¶atico es que permite trabajar con este tipo de procesos.
Tenemos entonces identi¯cadas dos variables de estado k, µ, asi como la vari-
able de control i. El siguiente paso es calcular los valores de estado estacionario
determin¶istico (eliminando el ruido estoc¶astico) de estas variables:

µ¤ = 1 " #
1
k ¤ = fk¡1 ¡ (1 ¡ ±)
¯

30
" #
¤ 1
i = ±fk¡1 ¡ (1 ¡ ±)
¯
y aproximar la funci¶on de retorno U (k; µ; i) ´ u [µf (k) ¡ i] mediante una ex-
pansi¶on de Taylor de segundo orden en torno a dichos valores:

U (k; µ; i) ¼ U (²) + Uk (²) (k ¡ k¤) + Uµ (²) (µ ¡ µ¤ ) + Ui (²) (i ¡ i¤)

µ ¶ µ ¶ µ ¶
1 ¤ 2 1 ¤ 2 1
+ Ukk (²) (k ¡ k ) + Uµµ (²) (µ ¡ µ ) + Uii (²) (i ¡ i¤)2
2 2 2

+Ukµ (²) (k ¡ k ¤) (µ ¡ µ ¤) + Uki (²) (k ¡ k ¤) (i ¡ i¤ )

+Uµi (²) (µ ¡ µ¤ ) (i ¡ i ¤) (3.14)


en donde todas las funciones con argumento (²) est¶an evaluadas en el vector de
estado estacionario (k¤; µ ¤; i ¤).
La aproximaci¶on de Taylor (3.14) nos da una funci¶on de retorno cuadr¶atica.
Reemplazandola en el problema del plani¯cador social (3.13), tenemos ahora s¶i
un objeto equivalente a (3.2), con:
2 3 2 3
1 "1
x=6 7
"=6 7
4 k ¡ k¤ 5 y = [i ¡ i¤ ] 4 "k 5
µ ¡ µ¤ "µ

2 3 2 3
2U (²) Uk (²) Uµ (²) Ui (²)
R = 4 Uk (²) Ukk (²) Ukµ (²) 7
6
W = 4 Uki (²) 7
T 6
5 5 Q = [Uii (²)]
Uµ (²) Ukµ (²) Uµµ (²) Uµi (²)

2 3 2 3 2 3
1 0 0 0 0 0 0
A = 4 0 1¡± 0 7
6
B=4 1 7
6
§=4 0 0 0 7
6
5 5 5
0 0 ½ 0 0 0 ¾ 2µ

y en donde R es sim¶etrica y negativa semide¯nida y Q es sim¶etrica y negativa


de¯nida10 .
10
Estas propiedades de las matrices R y Q pueden demostrarse usando la concavidad de las
funciones de utilidad y de producci¶o n.

31
Podemos entonces resolver este problema mediante las t¶ecnicas analizadas en
la secci¶on anterior, obtener la regla de decisi¶on ¶optima (lineal) y hacer las simula-
ciones estoc¶asticas. N¶otese, sin embargo, que todas las variables est¶an expresadas
en t¶erminos de desviaciones con respecto al estado estacionario. Los resultados
deben transformarse adecuadamente para recuperar las variables en t¶erminos ab-
solutos.

3.2.2. Resolviendo el Equilibrio Competitivo


Trabajar directamente con el Equilibrio Competitivo implica resolver el problema:

v (k; K; µ) = max fu (c) + ¯Eµ v (k 0 ; K 0 ; µ0 )g (3.15)


c;i

s:t: c +i = w (K) + r (K) k


k0 = (1 ¡ ±) k + i
r (K ) = fk (K)
w (K ) = f (K) ¡ fk (K) K
K0 = ¡ (K)
µ0 = (1 ¡ ½) + ½µ + " 0µ
³ ´
"0µ » 0; ¾ 2µ

en donde la ley de movimiento del capital agregado ¡ no es conocida. Sin em-


bargo, sabemos que en equilibrio la igualdad K = k se cumple, aunque el agente
representativo no toma en cuenta esa condici¶on de equilibrio al resolver su maxi-
mizaci¶on.
Reemplazando la restricci¶on presupuestaria y las de¯niciones de precios dentro
de la funci¶on de utilidad, obtenemos la ecuaci¶on de Bellman:

v (k; K; µ) = max fU (k; K; µ; i) + ¯Eµ v (k0 ; K 0; µ 0 )g (3.16)


i

s:t: k0 = (1 ¡ ±) k + i
µ0 = (1 ¡ ½) + ½µ + "0µ
³ ´
" 0µ » 0; ¾2µ

32
en donde U (k; µ; i; K ) ´ u [µf (K ) ¡ µfk (K ) K + µfk (K ) k ¡ i], junto con la
condici¶on de equilibrio K = k.
Nuevamente aproximamos la funci¶on U mediante una expansi¶on de Taylor de
segundo orden en torno al vector de estado estacionario (k¤ ; µ¤ ; i¤; K ¤), obteniendo
un problema lineal-cuadr¶atico del tipo:
n o
v(x) = max xT Rx + 2yT W x + yT Qy + ¯Ev (x0) (3.17)
y

s:t: x01 = Ax1 + By + C x2 + "0


"0 » (0; §)

m¶as la condici¶on de equilibrio:

x2 = Dx1 + Hy

en donde:
2 3 2 3
1 " # "1
x1
x1 = 4 k ¡ k¤ 7
6
" = 4 "k 7
6
5 x2 = [K ¡ K ¤] x= y = [i ¡ i ¤] 5
¤ x2
µ¡µ "µ

2 3 2 3
2U (²) Uk (²) Uµ (²) UK (²) Ui (²)
6 Uk (²) Ukk (²) Ukµ (²) Ukµ (²) 7 6 Uki (²) 7
R =6 7
WT = 6 7
6 7 6 7
4 Uµ (²) Ukµ (²) Uµµ (²) UµK (²) 5 4 Uµi (²) 5
UK (²) UkK (²) UµK (²) UKK (²) UKi (²)

2 3 2 3 2 3
1 0 0 0 0
A =4 0 1¡± 0 7
6
B =4 1 7
6
C =4 0 7
6
Q = [Uii (²)] 5 5 5
0 0 ½ 0 0

2 3 2 3
0 0 0 0
DT = 6 7
§= 6 7
4 1 5 H = [0] 4 0 0 0 5
0 0 0 ¾2µ

con R y Q sim¶etricas, R negativa semide¯nida y Q negativa de¯nida.

33
De¯namos ¯nalmente las matrices auxiliares:
2 3 2 3
2U (²) Uk (²) Uµ (²) UK (²)
R1 = 6 7
R2 = 6 7
4 Uk (²) Ukk (²) Ukµ (²) 5 4 Ukµ (²) 5
Uµ (²) Ukµ (²) Uµµ (²) UµK (²)

2 3
Ui (²) h i
W1T = 6 7
4 Uki (²) 5 W2 = Uµi (²)
Uµi (²)

que son simples particiones de las matrices R y W .


Para resolver el problema (3.17), vamos a utilizar la equivalencia de certidum-
bre y trabajar con el problema determin¶istico. Adem¶as, mediante las siguientes
transformaciones:
t
x~t = ¯ 2 x³t
t ´
y~t = ¯ 2 yt + Q¡1W xt
R~ = R ¡ W T Q ¡1 W
Q~ = Q
q ³ ´
A~ = ¯ A ¡ BQ ¡1W1
q
~ =
B ¯B
q ³ ´
C~ = ¯ C ¡ BQ¡1 W2
³ ´¡1 ³ ´
~ =
D I + H Q¡1W2 D ¡ HQ¡1W1
³ ´¡1
~ =
H I + H Q¡1W2 H

simpli¯camos el problema eliminando el factor de descuento y los productos cruza-


dos. Nos queda un problema de la forma:
n o
~ x + y~T Q~
x) = max x~T R~
v(~ ~y + v (~
x0) (3.18)
y~

s:t: ~x1 + B~ y~ + C~ x~2


x~01 = A~ (3.19)
m¶as la condici¶on de equilibrio:

~ x1 + H
x~2 = D~ ~ y~ (3.20)

34
Las condiciones de primer orden para (3.18) incluyen:

@v (~x) ~ y + B~ T ¸ = 0
= 2Q~ (3.21)
@ y~
@v (~ x) ~ 1x~01 + 2R~2x~02 + A~T ¸0 = 0
= ¡¸ + 2R (3.22)
@ x~01
en donde ¸ es el vector de multiplicadores de Lagrange asociado a la restricci¶on
(3.19). N¶otese que no podemos tomar la derivada con respecto a x~2, pues no
conocemos la ley de movimiento de las variables agregadas. Sin embargo, sabemos
que en equilibrio la condici¶on (3.20) se cumple.
El siguiente paso consiste en proponer una soluci¶on para el multiplicador de
Lagrange, que luego veri¯caremos. Proponemos la regla ¸ = 2S~ x01 , en donde S es
una matriz negativa semide¯nida. Reemplazando en (3.21):

~ y + B~ T S~
Q~ x01 = 0

y usando la restricci¶on (3.19) junto con la condici¶on de equilibrio (3.20):


³ ´ ³ ´
~ y + B~ T S A~ + C
Q~ ~D~ x~1 + B~ T S B~ + C
~H~ y~ = 0

~ x1, con:
obtenemos la regla de decisi¶on ¶optima y~ = G~
h ³ ´i ¡1 ³ ´
~=¡ Q
G ~+B
~ T S B~ + C~H
~ B~ T S A~ + C~D
~ (3.23)
Para veri¯car esta soluci¶on y encontrar la matriz S, trabajamos con la ecuaci¶on
(3.22). Reemplazando ¸ por 2S x~01 y usando la condici¶on de equilibrio (3.20),
tenemos:
³ ´
~ 1 + R~2 D
R ~ ¡ S x~01 + R
~ 2H
~ y~0 + A~T S~
x001 = 0

lo que, rezagando un per¶iodo y usando la restricci¶on (3.19), nos da:


³ ´ ³ ´
~1 + R
R ~ 2D
~ ¡ S x~1 + R
~2 H
~ y~ + A~T S A~
~x1 + B~ y~ + C~x~2 = 0

Usando la condici¶on de equilibrio (3.20) junto con la regla de decisi¶on ¶optima


~x1 , nos queda:
y~ = G~
n ³ ´ h ³ ´i o
~ 1 + R~2D
R ~ ¡ S + A~T S A~ + C
~D~ + R
~ 2H
~ + A~T S B~ + C
~H~ ~ x~1 = 0
G

35
~ en
Finalmente, eliminando x~1 a ambos lados, reemplazando la de¯nici¶on de G
(3.23) y reordenando t¶erminos, obtenemos:
³ ´
S = R~1 + R
~2 D
~ + A~T S A~ + C~D
~

h ³ ´i h ³ ´i¡1 ³ ´
~2 H
¡ R ~ + A~T S B~ + C
~H~ ~ + B~ T S B~ + C~ H
Q ~ B~T S A~ + C~ D
~

una versi¶on de la ecuaci¶on de Ricatti (3.12) que puede resolverse iterativamente


como antes11 .
Una vez hallada la matriz S y calculada la regla de decisi¶on ¶optima G, ~ recu-
peramos la regla de decisi¶on para el problema original:
³ ´¡1 h i
y = I + Q¡1W2H ~ ¡ Q ¡1 (W1 + W2D) x1
G

y simulamos las trayectorias ¶optimas de las principales variables. Recu¶erdese


nuevamente que estas variables est¶an expresadas como desviaciones con respecto
a su nivel de estado estacionario.

3.2.3. Limitaciones
El m¶etodo de aproximaci¶on lineal-cuadr¶atica ofrece un procedimiento bastante
simple y r¶apido en t¶erminos computacionales, incluso cuando el n¶ umero de vari-
ables se incrementa. Al no forzar la discretizaci¶on del espacio para las variables
de estado, las soluciones tienden a ser m¶as precisas. Sin embargo, su principal
limitaci¶on es que asume que las reglas de decisi¶on ¶optima son lineales, lo que
constituye una buena aproximaci¶on u¶nicamente cuando el modelo se mantiene
cerca del estado estacionario. Este m¶etodo no ser¶a el adecuado, por lo tanto,
para econom¶ias que empiezan con un capital inicial muy por debajo del nivel de
estado estacionario, o para aquellas en las cuales los shocks estoc¶asticos tienen
una varianza muy alta.

11
McGrattan (1994) desarrolla de manera similar un m¶etodo para resolver el Equilibrio Com-
petitivo mediante una aproximaci¶on lineal-cuadr¶a tica. Adicionalmente, presenta un m¶etodo
alternativo para resolver la ecuaci¶o n de Ricatti que no requiere de iteraciones.

36
References
[1] Bergoeing, Raphael. "Notas en Experimentos Computacionales y Teoria
de Equilibrio General Aplicada", Documento de Docencia D-6, Ilades-
Georgetown University, 1998.

[2] Cooley, Thomas y Edward Prescott. "Economic Growth and Business Cycles".
En: Cooley, Thomas (ed.). Frontiers of Business Cycle Research, Princeton
University Press, 1995.

[3] Den Haan, Wouter y Albert Marcet. "Solving the Stochastic Growth Model
by Parametrizing Expectations", Journal of Business and Economic Statistics,
1990.

[4] Kydland, Finn y Edward Prescott. "Time to Build and Aggregate Fluctua-
tions", Econometrica 50, 1982.

[5] McGrattan, Ellen. "A Note on Computing Competitive Equilibria in Linear


Models", Journal of Economic Dynamics and Control, 1994.

[6] McGrattan, Ellen. "Solving the Stochastic Growth Model with a Finite Ele-
ment Method", Federal Reserve Bank of Minneapolis, 1994.

[7] McGrattan, Ellen. "Application of Weighted Residual Methods to Dynamic


Economic Models", Sta® Report 232, Federal Reserve Bank of Minneapolis,
1998.

[8] Rios-Rull, Jose Victor. "Computation of Equilibria in Heterogeneous Agent


Models", University of Pennsylvania, 1998.

[9] Sargent, Thomas. Dynamic Macroeconomic Theory, Harvard University Press,


1987.

[10] Stokey, Nancy y Robert Lucas. Recursive Methods in Economic Dynamics,


Harvard University Press, 1989.

[11] Urrutia, Carlos. "Notas sobre Crecimiento y Ciclos Economicos", Documento


de Docencia D-5, Ilades-Georgetown University, 1996.

37
A. Ejercicios de Repaso
A.1. Primera Sesi¶
on
1) Usar el m¶etodo de Newton-Raphson para aproximar con un nivel de tolerancia
de 10¡5 las soluciones de las siguientes ecuaciones:

x = (2 ¡ ex + x2 )=3

3x2 ¡ ex = 0

ex + 2¡x + 2 cos (x) ¡ 6 = 0


Repetir el ejercicio usando el m¶etodo de secante.

2) La ecuaci¶on (4x ¡ 7)=(x ¡ 2) = 0 tiene una soluci¶on x = 1:75. Usar el


m¶etodo de Newton-Raphson para la ecuaci¶on anterior con los siguientes valores
iniciales:
x0 = 1:625 x0 = 1:875 x0 = 1:45 x0 = 3
y explicar gr¶a¯camente los resultados obtenidos.

3) Encontrar y gra¯car las trayectorias ¶optimas para el capital, consumo, pro-


ducto, salario real y tasa de inter¶es en el Modelo de Crecimiento Neocl¶asico Simple,
con las siguientes formas funcionales:

u(c) = log(c) f(k) = Ak®


los siguientes valores para los par¶ametros:

¯ = 0:99 A = 10 ® = 0:35 ± = 0:06


y un stock de capital inicial k0 igual a la mitad del capital de estado estacionario
k ¤, utilizando el m¶etodo de iteraci¶on de Gauss-Seidel con 100 per¶iodos >C¶omo se
modi¯can dichas trayectorias cuando cambiamos el valor de ¯ a 0:98?

4) Repetir los pasos en la parte (3) para una econom¶ia en la cual el gobierno
impone una tasa impositiva al ingreso de 20%, cuya recaudaci¶on es devuelta a los
agentes como una transferencia lump-sum. >C¶omo se modi¯can dichas trayectorias
cuando la tasa impositiva asumenta a 25%? Evaluar el efecto sobre el bienestar
del agente representativo de dicha medida.

38
A.2. Segunda Sesi¶
on
1) Encontrar y gra¯car las trayectorias ¶optimas para el capital, consumo, pro-
ducto, salario real y tasa de inter¶es en el Modelo de Crecimiento Neocl¶asico Sim-
ple, con las siguientes formas funcionales:

u(c) = log(c) f(k) = Ak®

los siguientes valores para los par¶ametros:

¯ = 0:99 A = 10 ® = 0:35 ± = 0:06

y un stock de capital inicial k0 igual a dos tercios del capital de estado estacionario
k ¤, utilizando el m¶etodo de iteraci¶on de la funci¶on de valor. Usar una malla para
el stock de capital de 500 puntos igualmente espaciados desde 0:5k ¤ hasta 1:2k ¤
y gra¯car las funciones de valor obtenidas en cada una de las iteraciones.

2) Considere una econom¶ia similar a la de la parte (1) sujeta a un shock tecnol¶ogico


µ que puede tomar los siguientes valores µ 2 f0; 0:5; 1g y con matriz de transici¶on:
2 3
0:5 0:3 0:2
¦ = 4 0:1 0:7 0:2 7
6
5
0 0:4 0:6

Resolver el modelo utilizando el m¶etodo de iteraci¶on de la funci¶on de valor, con


una malla para el stock de capital de 500 puntos igualmente espaciados desde 0
hasta 1:5k¤ . Partiendo con un k0 igual al stock de capital de estado estacionario
y con µ 0 = 0:5, simular y gra¯car una realizaci¶on de la trayectoria ¶optima (una
serie de tiempo) para el capital, consumo, producto, salario real y tasa de inter¶es,
por 50 per¶iodos. Usando un promedio de 100 simulaciones, calcular la desviaci¶on
est¶andar del logaritmo de cada una de las series obtenidas y su correlaci¶on con el
producto.

A.3. Tercera Sesi¶


on
Considere el siguiente modelo de Ciclos Econ¶omicos Reales. El agente represen-
tativo maximiza su utilidad esperada, que depende del consumo y el ocio:
1
X
E0 ¯t [log (ct ) + °log (1 ¡ lt )]
t=0

39
sujeto a la restricci¶on presupuestaria:

ct + it = wt lt + (1 ¡ ¿) rt kt + Tt

en donde ¿ es un impuesto (o subsidio, si menor que cero) proporcional al ingreso


por renta del capital, cuya recaudaci¶on es devuelta mediante una transferencia Tt .
La regla de acumulaci¶on de capital sigue siendo:

k t+1 = (1 ¡ ±) kt + i t

La ¯rma representativa opera con una tecnolog¶ia descrita por la funci¶on de


producci¶on:

F (Kt ; Lt ) = µKt® L1¡®


t

en donde µ es un par¶ametro que mide la productividad.


Tanto el impuesto ¿ como el par¶ametro productivo µ est¶an sujetos a shocks
estoc¶asticos, de la forma:

¿ t+1 = ´¿ t + » t+1
µt+1 = (1 ¡ ½) + ½µ t + "t+1

en donde los ruidos blancos se distribuyen conjuntamente de acuerdo a:


" # Ã" # " #!
»t 0 ¾21 ¾ 12
» ;
"t 0 ¾12 ¾ 22

1) Utilizando la siguiente parametrizaci¶on:

¯ = 0:99 ° = 0:3 ® = 0:35 ± = 0:06

´ = 0:7 ½ = 0:5 ¾ 21 = 0:01 ¾22 = 0:02 ¾12 = 0:001

resolver el modelo anterior mediante una aproximaci¶on lineal-cuadr¶atica en torno


al estado estacionario. Encontrar la regla de decisi¶on ¶optima. Partiendo con un
nivel de capital igual al de estado estacionario, simular y gra¯car una realizaci¶on
de la trayectoria optima (una serie de tiempo) para el capital, consumo, empleo,

40
producto, salario real y tasa de inter¶es por 50 periodos. Usando un promedio de
100 simulaciones, calcular la desviaci¶on est¶andar del logaritmo de cada una de las
series obtenidas y su correlaci¶on con el producto.

2) Volver a simular y hallar los estad¶isticos para las series se~naladas en la parte (1)
en una econom¶ia sin shocks de pol¶itica ¯scal (con ´ = ¾21 = ¾12 = 0). Comparar
los resultados y evaluar el bene¯cio sobre el bienestar del agente representativo
de eliminar las °uctuaciones de pol¶itica ¯scal.

41
B. Librer¶ia de Programas en Matlab

42

Vous aimerez peut-être aussi