SciELO - Scientific Electronic Library Online

 
 número68Voters' Rationality Under Four Electoral Rules: A Simulation Based on the 2010 Colombian Presidential ElectionsA Solownian Model and the Case of the Endogenous Savings Rate índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Em processo de indexaçãoCitado por Google
  • Não possue artigos similaresSimilares em SciELO
  • Em processo de indexaçãoSimilares em Google

Compartilhar


Desarrollo y Sociedad

versão impressa ISSN 0120-3584

Desarro. soc.  n.68 Bogotá jul./dez. 2011

 

Método numérico para la calibración de un modelo DSGE*

Numerical method for the calibration of DSGE models

Pietro Bonaldi**,
Juan D. Prada***,
Andrés González, Diego Rodríguez y Luis E. Rojas****

* Los resultados y opiniones expresados en este trabajo son responsabilidad exclusiva de los autores y su contenido no compromete al Banco de la República ni a su Junta Directiva. Los autores agradecen a Lawrence Christiano, Fabio Canova, Douglas Laxton, Juan C. Parra, Sebastian Rassa y a los participantes del Central Bank Workshop (2008) por sus comentarios.

** Departamento de Economía, Universidad de Chicago. Correo electrónico: bonaldi@uchicago.edu.

*** Departamento de Economía, Universidad de Northwestern. Correo electrónico: juanprada2013@u.northwestern.edu.

**** Departamento de Modelos Macroeconómicos, Banco de la República. Correos electrónicos: agonzago@banrep.gov.co, drodrigu@banrep.gov.co, Luis.Rojas@eui.eu.

Este artículo fue recibido el 2 de diciembre de 2010; modificado el 2 de agosto de 2011 y, finalmente, aceptado el 19 de agosto de 2011.


Resumen

En este artículo se propone un método numérico para la calibración de un modelo de equilibrio general dinámico y estocástico (DSGE). Esencialmente, este consiste en utilizar un algoritmo híbrido de optimización, primero para encontrar un estado estacionario del modelo y luego para minimizar una función objetivo que se define según el propósito que tenga el investigador con el proceso de calibración. El algoritmo propuesto consiste en una aplicación del algoritmo de simulated annealing, seguido de métodos tradicionales de optimización. Las bondades del algoritmo se analizan mediante simulaciones de Monte Carlo, usando un modelo de economía cerrada cuyo estado estacionario no tiene solución analítica. Los resultados de este ejercicio muestran que el algoritmo propuesto genera resultados más precisos y utiliza menos recursos computacionales que las alternativas tradicionales. Además, se presentan los resultados de la calibración de un modelo para la economía colombiana que consta de 179 ecuaciones y que se ajusta a cincuenta razones con cincuenta parámetros. La máxima desviación porcentual entre las razones del modelo y los valores correspondientes de la economía colombiana es de 7,9% y, en veintinueve de los cincuenta casos, esta desviación es menor o igual a 1%.

Palabras clave: simulated annealing, calibración, DSGE, estado estacionario.

Clasificación JEL: C61, C63, E10, E37, E50.


Abstract

This paper proposes a numerical method for the calibration of dynamic stochastic general equilibrium (DSGE) models. The method consists in the use of a hybrid algorithm, first to find the steady state, and then to minimize an objective function defined by the researcher according to the purposes of the calibration. The proposed method consists in the use of the Simulated Annealing algorithm followed by traditional optimization routines. The virtues of the algorithm are analyzed through Monte Carlo simulations, using a closed-economy model that has a steady state with no analytical solution. The results obtained in this exercise show that the proposed algorithm generates more precise results using less computational resources than traditional alternatives. Finally we present the calibration of a model for the Colombian economy, consisting of 179 equations and adjusted through 50 parameters to replicate 50 ratios. The maximum percent deviation of the steady-state ratios of the model with respect to the corresponding values in the Colombian economy is 7.9%, and in 29 of all the 50 cases this deviation is less than or equal to 1%.

Key words: Simulated annealing, calibration, DSGE, steady state.

JEL classification: C61. C63, E10, E37, E50.


Introducción

Es estándar en la literatura sobre modelos de equilibrio general dinámico y estocástico (DSGE, por sus siglas en inglés) definir un estado estacionario para las variables involucradas y plantear la solución del modelo mediante funciones de política que describen la dinámica de estas variables en función de sus respectivas desviaciones de los niveles del estado estacionario. El valor numérico que se asigne a los parámetros del modelo determina el nivel del estado estacionario de las variables y su respectiva dinámica en presencia de un conjunto de choques exógenos, cuyas medias y varianzas se incluyen en el conjunto de parámetros.

Entendemos la calibración como el procedimiento de asignar valores a los parámetros en la búsqueda de la máxima coherencia entre el objetivo planteado y la herramienta que se utilizará. Por ejemplo, cuando se tiene una pregunta empírica concreta sobre una economía en particular, la calibración suele consistir en escoger el valor de los parámetros de tal forma que permita que el modelo replique ciertos hechos estilizados de la economía. En general, según el interés del investigador, el método propuesto permite hallar parámetros que minimicen alguna función objetivo, por ejemplo, las correspondientes a los métodos de máxima verosimilitud y al método generalizado de momentos, o que puedan ser utilizados en la generación de priors para una estimación bayesiana.

En términos generales, para calibrar estos modelos es necesario encontrar el estado estacionario correspondiente a cada asignación de valores de los parámetros y simular el comportamiento de las variables en el tiempo o calcular momentos que describan estas dinámicas. Los modelos que se utilizan tradicionalmente como herramientas de análisis de política o pronóstico exigen el uso de métodos numéricos para encontrar el valor del estado estacionario. La eficacia de estos métodos depende en parte de la selección adecuada de los valores iniciales. El objetivo de este artículo es presentar un método numérico que resuelve el problema de la selección de valores iniciales de manera eficiente y que sirve para encontrar fácilmente el estado estacionario y para calibrar modelos.

Las bondades del método propuesto se analizan mediante simulaciones de Monte Carlo, usando un modelo de economía cerrada cuyo estado estacionario no tiene solución analítica. Los resultados de este ejercicio muestran que el algoritmo propuesto genera resultados más precisos y utiliza menos recursos computacionales que las alternativas tradicionales. Además, se presentan los resultados de la calibración de un modelo para la economía colombiana que consta de 179 ecuaciones y que se ajusta a cincuenta razones con cincuenta parámetros. La máxima desviación porcentual entre las razones del modelo y los valores correspondientes de la economía colombiana es de 7,9% y, en veintinueve de los cincuenta casos, esta desviación es menor o igual a 1%. Tales resultados sugieren que la utilización de un algoritmo híbrido es de gran utilidad en la calibración de un modelo DSGE.

El artículo está organizado de la siguiente forma. En la sección I se propone la utilización del algoritmo híbrido descrito por Brooks y Morgan (1995), a saber, la aplicación secuencial del método de simulated annealing (Kirkpatrick, Gelatt y Vecchi, 1983) y un algoritmo de región de confianza (Moré, 1983), para encontrar el estado estacionario y para calibrar un modelo DSGE. La inclusión del simulated annealing como la primera instancia del algoritmo híbrido facilita la resolución de estos problemas porque no depende de la selección adecuada de un vector inicial. En la sección II se pone a prueba el método de calibración propuesto mediante el uso de simulaciones de Monte Carlo. En la sección III se utiliza el método propuesto para calibrar el largo plazo del modelo desarrollado por González, Mahadeva, Prada y Rodríguez (2011), con lo que se busca que este replique los hechos estilizados sobre la economía colombiana, calculados por Mahadeva y Parra (2008) y Parra (2008). Por último, la sección IV concluye.

I. El algoritmo híbrido

El algoritmo presentado en esta sección es una variante del método propuesto por Brooks y Morgan (1995), el cual consta de dos componentes. En la primera de ellas se utiliza el algoritmo simulated annealing (en adelante, SA) para generar semillas o valores iniciales para la segunda componente, que consiste en un algoritmo tradicional de búsqueda lineal o de región de confianza. Como muestran Brooks y Morgan (1995), este sirve para eludir el problema de la alta sensibilidad de los resultados frente a la elección del valor inicial.

El algoritmo SA, propuesto originalmente por Kirkpatrick et al. (1983), está basado en la analogía entre la simulación del proceso de recocido (annealing) y la resolución de un problema de optimización combinatoria. Los métodos propuestos por la mecánica estadística para analizar las propiedades agregadas de un sistema conformado por un gran número de átomos contenidos en una muestra de materia sólida o líquida motivan la mencionada analogía. Según Kirkpatrick et al. (1983), una cuestión primordial de la mecánica estadística consiste en determinar qué ocurre con dichos sistemas en el límite cuando su temperatura decrece, es decir, en su estado fundamental. Experimentalmente, dicho estado puede encontrarse utilizando un proceso que se conoce como recocido, consistente en calentar la muestra de materia y luego disminuir la temperatura lentamente de tal forma que esta permanezca durante un prolongado período de tiempo en niveles cercanos al punto de congelación. De acuerdo con Kirkpatrick et al. (1983), encontrar el estado fundamental de un sistema, si se cuenta con un método para determinar su energía, es un problema comparable con los que aparecen recurrentemente en el campo de la optimización combinatoria. Por tanto, una simulación del proceso de recocido debe poderse aplicar en la resolución de dichos problemas.

En efecto, si el valor de la función objetivo se equipara con la energía del sistema previamente descrito y los argumentos con respecto a los cuales se realiza la optimización con las configuraciones del sistema, definidas por las posiciones de los átomos, entonces el algoritmo SA provee un método para aproximarse al estado en el que el valor de dicha función es mínimo, el cual es comparable con el estado fundamental. Una ventaja del SA frente a los algoritmos de mejoramiento iterativo (iterative improvement) consiste en que los últimos solo admiten estados para los cuales el valor de la función objetivo es menor a los previamente obtenidos y, en tal caso, el algoritmo puede converger rápidamente a un mínimo local, que no necesariamente coincide con el mínimo global. El SA, en cambio, incorpora en una instancia el procedimiento de Metropolis, Rosenbluth, Rosenbluth, Teller y Teller (1953), lo cual le permite dar pasos en una dirección que no mejora el valor de la función objetivo y escapar así de los mínimos locales.

El SA se utiliza para buscar el mínimo de una función f : Rn → R. El algoritmo se inicializa en un nivel de temperatura To y la temperatura decrece secuencialmente durante su ejecución. En cada nivel de temperatura dado, T, en la k-ésima iteración correspondiente a ese nivel de temperatura, se selecciona aleatoriamente un argumento para la función que se pretende minimizar, xalt ∈ Rn, cerca del último valor previamente seleccionado, xk - 1, siguiendo una distribución uniforme1. Luego se evalúa la función objetivo en xalt y se compara con su valor actual. Si Δf = f (xalt) - f (xk-1) ≤ 0, se acepta el argumento seleccionado, es decir, xkxalt. Hasta este punto el SA se comporta como un algoritmo de mejoramiento iterativo. Sin embargo, el procedimiento de Metropolis et al. (1953) introduce una diferencia importante, a saber, si Δf > 0, es decir, si la función objetivo no mejora, el argumento seleccionado xalt es aceptado con probabilidad , siendo kB la constante de Boltzmann que, para fines prácticos, puede ser remplazada por uno. Para implementar esta instancia del algoritmo, Kirkpatrick et al. (1983) proponen usar números aleatorios distribuidos de manera uniforme en el intervalo [0, 1] y compararlos con el valor p. Si el número generado es menor que p, el argumento xalt es aceptado, y en caso contrario se mantienen los valores anteriores para el argumento, xkxk-1 y en la siguiente iteración se selecciona aleatoriamente un nuevo argumento xalt. El proceso anteriormente descrito se repite para un número N de iteraciones hasta que se satisfaga algún criterio de parada. Luego se disminuye la temperatura secuencialmente siguiendo, por ejemplo, un proceso autorregresivo de la forma Tt + 1 = ρTt, donde 0 < ρ < 1 y, en cada nivel, se permite que el sistema alcance dicho equilibrio2. El proceso de disminución de la temperatura se detiene cuando el sistema se congela, es decir, cuando el porcentaje de argumentos aceptados es, para fines prácticos, igual a cero. Laarhoven y Aarts (1987) realizan una descripción precisa de esta y otras versiones del algoritmo SA, junto con un análisis de sus respectivas propiedades de convergencia. La especificación formal de la versión del SA utilizada en los ejercicios de calibración descritos en las secciones II y III es muy similar a la descrita en la sección 5.2 de Laarhoven y Aarts (1987).

La propuesta de Brooks y Morgan (1995) es detener prematuramente el SA, es decir, en un nivel de temperatura en el que el sistema no se haya congelado aún, y usar todos los argumentos aceptados en este último nivel, junto con el argumento para el cual el valor de la función objetivo es mínimo, elegido entre todos los que fueron generados durante la ejecución del SA, como semillas para inicializar el algoritmo en la segunda componente. Luego se comparan los valores de la función objetivo obtenidos por la segunda componente para cada una de las semillas y se elige el argumento correspondiente al mínimo de dichos valores.

A. Aplicación del algoritmo híbrido para encontrar un estado estacionario

El estado estacionario de un modelo DSGE puede ser descrito por un sistema de m ecuaciones con n incógnitas conformadas por un subconjunto de todas las condiciones de primer orden del modelo. En adelante, ∈ Rn denotará los valores de las variables en el estado estacionario, sin diferenciar si estos representan tasas de crecimiento o niveles.

El estado estacionario del modelo está determinado por un sistema de m ecuaciones, F (,) = 0, siendo F : Rn x Θ → Rm, ∈ Θ ⊆ Rk el vector de todos los parámetros relevantes para determinar el estado estacionario y Θ el subespacio de Rk en el que las asignaciones de valores para los parámetros del modelo tienen sentido económico o son consistentes con las condiciones de primer orden del modelo. La solución de este sistema adopta la forma i = i (), para todo i = l,..., n. Por esta razón, se denomina solución del estado estacionario al vector (1 (),...,n ()).

Para la gran mayoría de los modelos de interés, y en particular para todos los ejemplos que se desarrollan más adelante en este artículo, el sistema F (,) = 0 es no lineal, por lo cual puede resultar muy difícil o incluso imposible encontrar el estado estacionario analíticamente. Por tanto, es necesario recurrir a un algoritmo numérico para aproximarse a la solución deseada.

Existe una gran variedad de algoritmos para encontrar la solución de un sistema de ecuaciones no lineales. En general, estos requieren como argumento un valor inicial o semilla, con la cual se realiza la primera evaluación de la función objetivo. Aun suponiendo que el modelo está correctamente especificado y tiene un estado estacionario bien definido, es posible que el algoritmo elegido no pueda encontrar la solución del sistema de ecuaciones que describe dicho estado estacionario. Esto podría deberse a una elección inadecuada de los parámetros, es decir, ∉ Θ. Pero incluso si ∉ Θ, el hecho de que el algoritmo no converja a la solución del sistema puede deberse simplemente a que este haya sido inicializado en una semilla inadecuada. En consecuencia, escoger una semilla tal que aumente la probabilidad de que el algoritmo converja a una solución del estado estacionario es un problema adicional que debe ser encarado directamente.

El algoritmo híbrido soluciona el problema de la selección de un valor inicial adecuado. Su aplicación en la resolución del sistema de ecuaciones F (,) = 0 se desarrolla en los siguientes pasos:

1) El SA implementado en la primera componente busca un argumento que minimice la función objetivo fobj (,) = F (,)' F (,) y elige un conjunto de semillas S = {1s,..., Ss} según el criterio propuesto por Brooks y Morgan (1995).

2) Se elige un algoritmo adecuado para la resolución de sistemas de ecuaciones no lineales, por ejemplo, la versión Dogleg del algoritmo de región de confianza, y se ejecuta tomando como valor inicial cada uno de los argumentos del conjunto S3.

3) Se seleccionan los argumentos obtenidos en el paso anterior (solo aquellos que satisfagan el criterio de convergencia), se evalúa la función objetivo fobj (,) en cada uno de estos argumentos y se elige aquel para el cual esta alcanza el mínimo valor. Dicho argumento se toma como el estado estacionario del modelo cuando los parámetros toman los valores .

Es importante hacer algunas anotaciones adicionales sobre el problema descrito. En principio, la solución del sistema F (,) = 0 puede ser cualquier vector en Rn. Sin embargo, por las características específicas del sistema, es posible que solo se consideren relevantes las soluciones que se encuentren dentro de un conjunto restringido. Para el caso que nos concierne aquí directamente, en el que el sistema representa el estado estacionario de un modelo, la estructura misma del modelo impone restricciones sobre los valores que pueden tomar las variables. En tales circunstancias, el algoritmo híbrido debe ser modificado para incorporar dichas restricciones. Por ejemplo, para cada variable xi se puede definir un intervalo Ii y se restringe la búsqueda a este intervalo. De manera correspondiente, el problema que se resuelve con el SA en la primera componente del algoritmo se transforma en una optimización con restricciones. Formalmente, el SA se utiliza entonces para aproximarse a la solución del problema: min { fobj (,) : . Para poner esto en práctica, es necesario modificar el SA de tal manera que xalt , es decir, que solo genere argumentos para la función objetivo dentro de los intervalos definidos. Esta modificación es sencilla y basta con elegir adecuadamente los parámetros de la distribución uniforme (multivariada) que usa el algoritmo para tomar los muestreos aleatorios. En el anexo 1.1 se presenta un esquema del algoritmo utilizado para encontrar el estado estacionario.

B. Aplicación del algoritmo híbrido para calibración de un modelo

Al igual que en la sección anterior, el método híbrido puede ser empleado para calibrar un modelo DSGE. Para tal efecto, es necesario determinar unos objetivos cuantificables que puedan ser incluidos en una función objetivo. Ejemplos de estos objetos son los primeros y segundos momentos o las funciones impulso respuesta. Vale la pena mencionar que el método numérico presentado en esta sección puede ser usado también para la estimación de máxima verosimilitud o para encontrar el máximo de la función a posteriori si la estimación está basada en métodos bayesianos.

Es usual en los procesos de calibración seguir la estrategia de Kydland y Prescott (1982), en la cual primero se calibran los parámetros que determinan el estado estacionario y luego los que afectan la dinámica del modelo. No obstante, esta separación del vector de parámetros puede presentar cierta dificultad en modelos grandes, en la medida en que un conjunto de parámetros puede afectar tanto la dinámica como el estado estacionario. En consecuencia, en este trabajo no hacemos esta separación. Sin embargo, definiendo adecuadamente la función objetivo es posible calibrar solo el estado estacionario del modelo o calibrarlo conjuntamente con las dinámicas de corto plazo.

En general, los problemas de calibración pueden plantearse como un problema de minimización cuadrática con una función objetivo dada por:

siendo un vector conformado por todos los parámetros que varían durante el proceso de calibración, qobj un vector que incluye los objetivos a calibrar y q () un vector equivalente derivado del modelo. qobj incluye usualmente primeros y segundos momentos de las series observadas, pero puede incluir elementos no necesariamente observables. W es una matriz cuadrada conformable de ponderaciones subjetivas para los distintos objetivos.

El cálculo de la función fobj () requiere recalcular el estado estacionario para cada posible elección de . Entonces, si se utiliza un algoritmo para resolver en forma numérica el problema de minimización, este tiene que contener una subrutina que encuentre el estado estacionario, como la que se propone en la sección I.A.

El problema de la minimización numérica de fobj () es también sensible a la selección del valor inicial. Por esto, el algoritmo híbrido propuesto por Brooks y Morgan (1995) parece un buen candidato para resolver este problema. Esquemáticamente, esta minimización puede describirse en los siguientes pasos:

1) Se establecen rangos razonables para los parámetros contenidos en el vector , con base en un conocimiento previo de la estructura del modelo y de los datos que se quiere replicar.

2) Se utiliza el algoritmo SA para buscar un vector SA que minimice fobj ().

3) Se ejecuta un algoritmo estándar de optimización usando como valor inicial SA. El algoritmo de Nelder y Mead (NM) es adecuado, pues no requiere el cálculo de derivadas, el cual puede ser costoso en el caso de un modelo DSGE4.

Los pasos 2 y 3 requieren que la función objetivo sea calculada para múltiples selecciones del vector , lo cual, a su vez, exige que el estado estacionario sea obtenido en cada iteración. En principio, podría utilizarse el algoritmo descrito en la sección I.A cada vez que sea necesario calcular el estado estacionario del modelo, pero en la práctica esto podría ser poco eficiente en cuanto al tiempo de ejecución, por lo cual es necesario contar con un procedimiento alternativo para obtener () durante la ejecución del SA en el paso 2 y del NM en el paso 35. A continuación se explica cómo ajustar los distintos algoritmos para evitar el problema mencionado.

De acuerdo con la descripción del SA, si este se usa para minimizar fobj (), informalmente puede afirmarse que generará aleatoriamente vectores alt en el espacio determinado por los rangos definidos en el paso 1. Supóngase que el último vector aceptado por el algoritmo fue k-1 y que ahora este va a desplazarse a un nuevo vector alt. La especificación convencional del SA incluye la definición de una estructura de cercanía (neighbourhood structure) que impone una restricción adicional al conjunto de posibles valores que puede tomar alt, dado el vector k-1 (véanse, por ejemplo, Laarhoven y Aarts, 1987). Una manera sencilla de definir tal estructura es tomar un valor positivo ε y modificar el algoritmo de forma tal que ||alt - k-1|| < ε, siendo ||.|| una norma en el espacio euclidiano correspondiente. Para el caso que aquí nos concierne, el valor de ε es crucial para poder calcular el estado estacionario (alt) de una forma sencilla. En efecto, si ε es suficientemente pequeño, entonces es altamente probable que un algoritmo tradicional para solucionar sistemas de ecuaciones, como el mencionado en la sección I.A, converja al estado estacionario (alt) tomando como valor inicial (k-1), suponiendo que las funciones que describen el estado estacionario son continuas en una vecindad de (k-1). De esta manera, la subrutina descrita en I.A, solo tendrá que ser ejecutada para calcular el estado estacionario inicial en los casos en que el algoritmo seleccionado no converja al estado estacionario (alt).

La función que se pretende minimizar utilizando el algoritmo NM en el paso 3 depende directamente del vector de parámetros . Por tanto, durante su ejecución, este evaluará la función objetivo para distintos vectores de parámetros que satisfagan las restricciones impuestas en el paso 1, pero mantendrá constante cualquier otro argumento con el que haya sido inicializado, en particular, la semilla (SA). Como este valor inicial es tomado por el NM como un argumento constante, a medida que el vector en el que se pretende evaluar fobj () se aleje de SA, es probable que no sea posible encontrar el estado estacionario correspondiente. Ante la posibilidad de que el NM, u otro algoritmo similar que pudiera ser utilizado en el paso 3, pierda el estado estacionario durante su ejecución, la solución que se propone aquí es que se interrumpa su ejecución, se almacene el último vector L generado por el algoritmo, se use la subrutina descrita en I.A para encontrar el estado estacionario (L) y, finalmente, se reinicie el algoritmo, tomando como valor inicial L y como argumento constante (L).

Es importante recordar, sin embargo, que el algoritmo híbrido consiste en utilizar el SA para encontrar una semilla o valor inicial, a partir de la cual un segundo algoritmo de búsqueda lineal o de región de confianza alcanza el óptimo global de la función objetivo. Más aun, de acuerdo con las pruebas realizadas por Brooks y Morgan (1995), el SA converge a valores que están cerca del óptimo global, es decir, en una vecindad de dicho óptimo en la que este es el único óptimo local. Por tanto, si se permite que el SA converja a un valor semejante, en vez de truncarlo prematuramente, el vector SA deberá estar lo suficientemente cerca del mínimo global como para evitar que el NM pierda el estado estacionario. En el anexo 1.2 se presenta un esquema del algoritmo utilizado para calibrar un modelo.

II. Evaluación del algoritmo de calibración mediante simulaciones de Monte Carlo

En esta sección se presentan los resultados de un ejercicio de simulación que ilustra las propiedades del algoritmo de calibración. El diseño del experimento es el siguiente: dados un modelo DSGE junto con una asignación de valores para sus parámetros, Θ*, se calculan tanto el valor del estado estacionario como los segundos momentos teóricos, algunos de los cuales se incluyen en el vector q(Θ*) de la función objetivo 6. La simulación consiste en minimizar esta función inicializando el algoritmo en distintos valores para . Si el método funciona, entonces debería ser capaz de recuperar el vector de parámetros que dio origen a los datos, independientemente del valor inicial.

Para la calibración se utilizó un modelo neokeynesiano de economía cerrada7, con rigideces reales. Los hogares que conforman la economía descrita por el modelo son idénticos, derivan utilidad del consumo y del tiempo que dedican al ocio, intercambian bonos entre sí, deciden cuánto invertir del producto para acumular capital, lo cual acarrea unos costos de ajuste, y rentan una porción del stock de capital a las firmas productoras, con lo que incurren en costos de utilización. Existe un continuo de medida unitaria de dichas firmas en competencia monopolística, que contratan capital y trabajo para producir variedades diferenciadas del único bien de la economía que, a su vez, puede ser utilizado para consumo o inversión. Además, venden su variedad del producto a una firma agregadora y enfrentan rigideces de precios a la Calvo (1983), lo cual implica la existencia de una curva de Phillips y garantiza la efectividad real de la política monetaria. Esta última es determinada por el banco central, que fija la tasa de interés nominal siguiendo una regla de política que depende de un rezago de la tasa de interés y de la desviación de la inflación con respecto a la meta. Las ecuaciones que describen las condiciones de primer orden de este modelo pueden consultarse en el anexo 2. A pesar de que este modelo es pequeño, las formas funcionales seleccionadas impiden que se pueda calcular analíticamente8 un estado estacionario.

Durante la ejecución del proceso de calibración se dejaron en libertad los parámetros correspondientes a la depreciación del capital, el inverso de la elasticidad de Frisch, las persistencias y medias de los procesos de los estados exógenos (excepto la media del proceso zu), la probabilidad de no ajustar precios de manera óptima, la elasticidad de sustitución entre variedades diferenciadas del producto, el coeficiente de participación del capital en la función de producción, la elasticidad de sustitución entre capital y trabajo, el coeficiente de respuesta a la desviación de la inflación en la regla de política y el coeficiente de costo de ajuste de la inversión. La tasa de descuento intertemporal de los hogares y el valor del estado estacionario de la renta del capital se calculan en función de otros parámetros que varían en la calibración y, finalmente, los demás parámetros del modelo se mantienen en los valores que les fueron asignados para la generación de los datos. El cuadro 1 contiene la lista de los parámetros que varían en el proceso de calibración, los valores que les fueron asignados para generar los datos y las cotas que se utilizaron para definir los intervalos a los que se restringe la búsqueda.

Los momentos incluidos en la función objetivo se encuentran en el cuadro 2. Para escoger estos momentos se tuvieron en cuenta dos criterios. Primero, que correspondan a variables potencialmente observables y, segundo, que permitan la identificación de parámetros particulares. Por ejemplo, la varianza de las horas de trabajo se incluyó para identificar el inverso de la elasticidad de Frisch. Asimismo, la autocovarianza de orden uno de la tasa de interés nominal permite recuperar el coeficiente de suavizamiento de la regla de política. Adicionalmente, la identificación de la probabilidad de ajustar precios se logró al incluir las covarianzas de la inflación con respecto a sus rezagos de órdenes uno y dos.

Los valores de los parámetros del algoritmo híbrido que se utilizaron en este ejercicio son: la temperatura inicial fue 0,75, y con esta se obtuvo una tasa de aceptación del 40%. Por cada nivel de temperatura se realizaron 250 iteraciones y el algoritmo se detuvo luego de 150 disminuciones de la temperatura, la cual se redujo siguiendo la ecuación Tt = ρTt - 1, con ρ = 0,985. La región de búsqueda se definió usando las cotas inferiores y superiores para los parámetros que se presentan en las columnas cuatro y cinco del cuadro 1. En la segunda componente, se usó el último vector de parámetros aceptado por el SA, SA, como semilla para la primera de cuatro ejecuciones consecutivas del NM. Las siguientes tres utilizan como semilla el resultado obtenido por la ejecución inmediatamente anterior. Cada ejecución consiste en 10.000 iteraciones9.

Para realizar una comparación entre el desempeño del algoritmo híbrido y el de otros algoritmos de optimización tradicionales, se realizó la siguiente prueba con el método propuesto por Goffe, Ferrier y Rogers (1994). En la primera etapa, se ejecutó cien veces el algoritmo híbrido, manteniendo constante su configuración y modificando el vector de parámetros iniciales y la semilla del generador de números aleatorios. En la segunda etapa, se removió el SA de la primera instancia del algoritmo híbrido y se remplazó por un programa que genera aleatoriamente un vector de parámetros dentro de los rangos permitidos. Este vector se utilizó como semilla de la primera de las cuatro ejecuciones consecutivas del NM. Este algoritmo modificado, que en adelante se denotará NM4, se ejecutó mil veces, cambiando en cada ejecución la semilla del generador de números aleatorios.

El cuadro 3 resume y compara los resultados de los algoritmos mencionados. La primera columna establece una cota superior sobre el valor que toma la función objetivo. En (a) se presenta el porcentaje de ejecuciones en las que la función objetivo alcanza un valor menor que la cota establecida en la primera columna, tanto para el algoritmo híbrido como para el NM4. En (b), (c) y (d) se presentan el promedio, la desviación estándar y el máximo, respectivamente, de la máxima desviación porcentual entre el vector de parámetros que generó los datos, Θ*, y los vectores que satisfacen el criterio establecido en (a). Se observa que el valor de estas estadísticas disminuye junto con el valor de la función objetivo. Por ejemplo, cuando la cota superior es de 10-9, el 37% de las ejecuciones del híbrido alcanza un valor de la función objetivo menor que la cota, el promedio de la máxima desviación porcentual de sus parámetros es de 1,97 × 10-5, la desviación estándar correspondiente es de 4,56 × 10-5 y el máximo es de 2 × 10-4. Estos resultados sugieren que, para el modelo con el que se realizaron las pruebas, la función fobj () tiene un mínimo global que los algoritmos propuestos son capaces de recuperar10. Sin embargo, esto no significa que no se puedan presentar problemas de identificación al intentar calibrar cualquier otro modelo.

Para todos los casos reportados en el cuadro 3, el desempeño del algoritmo híbrido fue superior al del NM411, en cuanto al porcentaje de ejecuciones para las cuales el valor de la función objetivo fue menor que la cota establecida. Por ejemplo, el NM4 alcanzó un valor para la función objetivo menor que 10-9 en solo 2,2% de las ejecuciones, mientras que el algoritmo híbrido lo hizo en el 37% de las veces. Asimismo, los valores de las estadísticas reportadas en las columnas (b), (c) y (d) son menores para el algoritmo híbrido que para el NM4, en todos los casos. Sin embargo, es conveniente mencionar que, en promedio, cada ejecución del híbrido tardó el doble del tiempo que una del NM4.

Adicionalmente, recuérdese que en la sección I.B se señaló que el NM puede perder la semilla con la que calcula el estado estacionario del modelo durante el proceso de calibración. De hecho, en la prueba realizada, el NM4 perdió la semilla en aproximadamente un 12% de las ejecuciones, por lo que requirió el uso del algoritmo híbrido descrito en la sección I.A para poder calcular el estado estacionario. Esta proporción se conserva si se consideran las quinientas y las cien ejecuciones del NM4 para las que el valor de la función objetivo fue menor.

En el gráfico 1 se presentan los resultados de un ejercicio alternativo. A partir del ejercicio anterior, se hizo un remuestreo (bootstrapping) consistente en seleccionar aleatoriamente n y m elementos de las cien ejecuciones del algoritmo híbrido y las mil del NM4, respectivamente, para aproximar la probabilidad de que el mínimo valor de la función objetivo obtenido en n ejecuciones del híbrido sea menor que el mínimo correspondiente a m ejecuciones del NM4. Para cada par (n, m) se tomaron diez mil muestras aleatorias con reemplazamiento. El eje horizontal en el gráfico 1 representa a m y el vertical, la proporción de veces que el valor de la función objetivo obtenido con el híbrido fue menor que el obtenido con el NM4. Cada curva en este gráfico corresponde a un valor diferente de n.

Los puntos por debajo de la línea horizontal que corta el eje vertical en 0,5, en el gráfico 1, representan los casos en los que m ejecuciones del NM4 superan a n del híbrido. A pesar de que el híbrido tarda el doble que el NM4 en ejecutarse, en todos estos casos, m es al menos diez veces mayor que n y crece con n. Por ejemplo, para superar tres ejecuciones del híbrido se requieren al menos setenta ejecuciones del NM4, pero estas últimas tardan doce veces el tiempo de ejecución. En los casos en que las ejecuciones tardan en promedio el mismo tiempo (m = 2n), el híbrido presenta mejores resultados que el NM4 en al menos un 83% de las veces. Para el caso en que n = 10, este porcentaje corresponde al 92%.

Según los resultados, el algoritmo híbrido mostró un desempeño superior que el NM4, en cuanto a tiempo y precisión, en la calibración del modelo considerado. Por claridad, cabe anotar algunas características específicas del ejercicio. Una de estas es que, dados los momentos incluidos en la función objetivo, los parámetros que varían durante el proceso de calibración no parecen presentar problemas de identificación. Otra es que los datos fueron generados con el modelo y, por tanto, existe un mínimo global para la función objetivo, en el vector de parámetros Θ*.

Con respecto a la primera característica, en ejercicios preliminares al presentado se incluyó una regla de política que dependía también de la desviación del producto con respecto a su nivel de estado estacionario. En este caso se encontraron problemas de identificación; en particular, no pudieron recuperarse los parámetros que determinan los coeficientes de respuesta a la desviación de la inflación y del producto. En efecto, distintas combinaciones de valores para estos parámetros arrojaron los mismos momentos teóricos para las variables incluidas en el ejercicio de calibración. Este tipo de problema de identificación global no puede ser resuelto usando el algoritmo propuesto.

En relación con la segunda característica, si la función objetivo ha sido construida usando datos tomados de la economía, en vez de datos generados por el modelo, entonces no necesariamente existe un mínimo global para esta función y, aun si existiera, el investigador podría estar interesado en escoger otro conjunto de valores para los parámetros del modelo, en los que el valor de la función objetivo sea lo suficientemente bajo, pero que, por ejemplo, se asemejen más a los valores encontrados por otros estudios empíricos. Una alternativa es explotar la gran flexibilidad que existe en cuanto a la definición de la función objetivo. Como se vio en la sección I.B, se pueden elegir los pesos asignados a los distintos términos incluidos en ella y también es posible redefinir su dominio, a saber, el conjunto de los valores relevantes para los parámetros del modelo en el proceso de calibración. Estas modificaciones alteran la concavidad y el conjunto de puntos críticos de la función objetivo y, por tanto, permiten encarar algunos de los problemas de identificación previamente señalados.

III. Calibración del largo plazo de un modelo para la economía colombiana

En esta sección se presentan los resultados obtenidos al aplicar el método de calibración propuesto en la sección I.B a un modelo para la economía colombiana. El modelo es una extensión del que se utilizó para realizar la simulación descrita en la sección anterior. En este se plantea una economía pequeña y abierta que intercambia bienes y servicios con el exterior y puede adquirir deuda en moneda extranjera. El consumo y la inversión resultan de la agregación de un componente doméstico y uno importado. Además, su función de utilidad incorpora formación de hábito en el consumo y depende también de la fracción de tiempo dedicada al ocio.

El producto de la economía es transformado en bienes y servicios destinados a diferentes usos, a saber, el consumo e inversión domésticos, las exportaciones y comercialización y el transporte, todos ellos con precios relativos distintos. Los bienes de consumo e inversión, sean producidos domésticamente o importados, se combinan con servicios de comercialización para adaptarlos para su uso final. De manera semejante, los bienes de exportación requieren servicios de transporte y comercialización para ser colocados en los puertos. Todas las firmas encargadas de elaborar los bienes finales, combinando los usos del producto con los servicios de comercialización, enfrentan rigideces de precios a la Calvo.

De manera similar, los hogares se enfrentan en competencia monopolística para vender variedades diferenciadas de trabajo, pero solo una fracción de estos puede ajustar el salario de manera óptima en cada período. Además de la existencia de bienes de consumo e inversión importados, al capital y al trabajo se les añade ahora un insumo de producción importado, materias primas, razón por la cual la tasa de cambio tiene un efecto directo sobre los costos de producción y, en general, sobre la inflación. Finalmente, los hogares pueden endeudarse con el exterior a una tasa de interés que depende positivamente de la desviación de la razón de la deuda al producto interno bruto (PIB) con respecto a su nivel de estado estacionario. Por lo demás, este modelo es muy similar al que aparece descrito en el anexo 1 y su formulación detallada ha sido desarrollada recientemente por González et al. (2011)12.

Por su parte, Mahadeva y Parra (2008) han construido una base de datos para este modelo, a partir de la información disponible en las diferentes oficinas de estadística consultadas por Parra (2008), para reconstruir algunos hechos estilizados de la economía colombiana. Uno de los propósitos de esta base de datos es proveer información consistente con el modelo propuesto por González et al. (2011), de tal forma que este resulte apropiado para producir pronósticos de la economía colombiana.

Para calibrar el largo plazo del modelo de González et al. (2011), usando la base de datos de Mahadeva y Parra (2008), se calculan los promedios de los últimos tres años (2004 Q1-2007 Q1) de las razones y niveles de algunas series y se comparan con el valor del estado estacionario de las variables correspondientes del modelo. Para ello, se define una función objetivo como la descrita en la sección I.B, que incluye algunas razones y el nivel del PIB, y se minimiza esta función objetivo aplicando el algoritmo híbrido.

El cuadro 4 contiene los resultados obtenidos en la calibración del largo plazo del modelo. En este se presentan las razones y niveles incluidos en la función objetivo, los valores encontrados para estos en los datos de la economía colombiana, los correspondientes en el modelo calibrado y la desviación porcentual entre los dos últimos.

En el proceso de calibración se permitió que variaran cincuenta de los parámetros del modelo. En el anexo 3 se reportan los parámetros mencionados y su valor calibrado. En dicho proceso, el algoritmo híbrido encontró un vector de parámetros tal que las razones y niveles generados por el modelo replican de cerca los datos de la economía colombiana. La mayor desviación porcentual entre el modelo y los datos fue de 7,9% y, en veintinueve de los cincuenta casos, esta desviación fue menor o igual a 1%.

El problema de minimizar la función objetivo planteada aumenta su complejidad a medida que se incluyan más elementos en la función objetivo, en este caso, más razones o niveles de variables de la economía por calibrar. Por otra parte, si durante la calibración se le permite al algoritmo utilizar un gran número de parámetros relevantes, aumentan las posibles combinaciones que este puede ensayar. En este caso, es de esperar que el algoritmo converja a un punto en el que el valor de la función objetivo es, a lo sumo, igual. Sin embargo, aumentar el número de parámetros por calibrar con el mismo conjunto de información puede resultar en problemas de identificación. Por esta razón, vale la pena resaltar que en el ejercicio anterior se utilizó el mismo número de parámetros que de elementos en la función objetivo, con lo que se evitó una excesiva flexibilidad en el proceso de calibración para fijar los parámetros y, aun así, se encontró un alto ajuste del modelo con los datos.

IV. Conclusiones

La utilización de un algoritmo híbrido, que incorpore una versión del SA para abordar el problema de la selección de un valor inicial, puede resultar de gran utilidad en la calibración de un modelo DSGE. En primer lugar, porque facilita la resolución del sistema de ecuaciones que define el estado estacionario del modelo, puesto que no requiere de una semilla o valor inicial, a diferencia de los métodos tradicionales como los algoritmos de región de confianza o las distintas versiones de los algoritmos newtonianos. En segunda instancia, porque permite obtener resultados más precisos y en un menor tiempo, en comparación con otros métodos que podrían ser utilizados en el proceso de calibración, entendido este como la minimización de una función objetivo que depende de los valores que toman las variables del modelo y de los criterios establecidos por el investigador.


NOTAS AL PIE

1 Otro parámetro del algoritmo, denominado ε, permite controlar qué tan cerca deben estar xk - 1 y xalt.

2 En efecto, de acuerdo con Metropolis et al. (1953), a medida que N aumenta, el sistema descrito converge a un equilibrio, para el nivel de temperatura correspondiente, en el que los argumentos aceptados se distribuyen siguiendo la distribución de probabilidad de Boltzmann.

3 Si m = n, el algoritmo utilizado en este paso puede utilizar el jacobiano del sistema F (,) = 0 para encontrar un cero. Para reducir el tiempo computacional es recomendable alimentar el algoritmo con la representación analítica del jacobiano.

4 Una descripción esquemática de este procedimiento puede verse en el anexo 1.2.

5 Aunque el estado estacionario depende del vector , abusamos aquí de la notación al hacerlo depender de .

6 El modelo fue resuelto usando la aproximación de primer orden descrita en Schmitt-Grohé y Uribe (2004). Los momentos teóricos se calcularon usando el código del programa Matlab de Schmitt-Grohé y Uribe, disponibles en http://www.econ.duke.edu/uribe/2nd_order.htm.

7 Ejemplos de este tipo de modelos se encuentran en Walsh (2010).

8 El algoritmo utilizado para encontrar numéricamente el estado estacionario fue evaluado mediante simulaciones. En cada simulación el algoritmo híbrido se inicializó desde semillas diferentes y se usó una versión del modelo con solución de estado estacionario analítica, la cual se obtiene cambiando la función de producción CES por una de tipo Cobb-Douglas. Se encontró que en todas las simulaciones el algoritmo híbrido logró encontrar la solución del estado estacionario.

9 Para este ejercicio se utilizó el algoritmo NM de la rutina fminsearch.m del programa Matlab (2008a). Cabe anotar que no es equivalente realizar una ejecución de 40.000 iteraciones a cuatro ejecuciones de 10.000 cada una.

10 En la gran mayoría de los casos el algoritmo híbrido se detuvo porque alcanzó el máximo número de iteración permitido, no porque el vector encontrado haya satisfecho algún criterio de convergencia. Presumiblemente, si se aumenta el número de iteraciones (y el tiempo de ejecución) se obtendrán mejores resultados.

11 Un ejercicio similar se realizó utilizando dos algoritmos de optimización adicionales, el de BFGS, disponible en el programa Matlab, y el csminwel, disponible en http://sims.princeton.edu/yftp/optimize. Ninguno de los algoritmos alcanzó un valor de la función objetivo menor a 10-3.

12 Para realizar la calibración, se utilizó una versión anterior al modelo disponible en González et al. (2011). Se diferencian en la manera en que se introducen los costos de ajuste a la inversión y la utilización variable del capital. Las formas funcionales utilizadas son las mismas a las presentadas en el anexo 2.


Referencias

1. BROOKS, S. P. y MORGAN, B. J. T. (1995). "Optimization using simulated annealing", Journal of the Royal Statistical Society, Series D, The Statistician, 44(2):241-257.        [ Links ]

2. CALVO, G. A. (1983). "Staggered prices in a utility-maximizing framework", Journal of Monetary Economics, 12(3):383-398.        [ Links ]

3. GOFFE, W. L., FERRIER, G. D. y ROGERS, J. (1994). "Global optimization of statistical functions with simulated annealing", Journal of Econometrics, 60(1-2):65-99.        [ Links ]

4. GONZÁLEZ, A., MAHADEVA, L., PRADA, J. D. y RODRÍGUEZ, D. (2011). "Policy analysis tool applied to Colombian needs: PATACON model description" (Borradores de Economía 656). Banco de la República.        [ Links ]

5. KIRKPATRICK, S., GELATT, C. D. y VECCHI, M. P. (1983). "Optimization by simulated annealing", Science, 220(4598): 671-680.        [ Links ]

6. KYDLAND, F. E. y PRESCOTT, E. C. (1982). "Time to build and aggregate fluctuations", Econometrica, 50(6):1345-1370.        [ Links ]

7. LAARHOVEN, P. J. M. y AARTS, E. H. L. (1987). Simulated annealing: Theory and applications. Norwell, MA, Kluwer Academic Publishers.        [ Links ]

8. MAHADEVA, L. y PARRA, J. C. (2008). "Testing a DSGE model and its partner database" (Borradores de Economía 479). Banco de la República.        [ Links ]

9. METROPOLIS, N., ROSENBLUTH, A., ROSENBLUTH, M., TELLER, A. y TELLER, E. (1953). "Equation of state calculations by fast computing machines", Journal of Chemical Physics, 21.        [ Links ]

10. MORÉ, J. J. (1983). "Recent developments in algorithms and software for trust region methods", en Mathematical programming: The state of the art (pp. 258-287). Springer-Verlag.        [ Links ]

11. PARRA, J. C. (2008). "Hechos estilizados de la economía colombiana: fundamentos empíricos para la construcción y evaluación de un modelo DSGE" (Borradores de Economía 509). Banco de la República.        [ Links ]

12. SCHMITT-GROHÉ, S. y URIBE, M. (2004). "Solving dynamic general equilibrium models using a second-order approximation to the policy function", Journal of Economic Dynamics and Control, 28(4):755-775.        [ Links ]

13. WALSH, C. E. (2010). Monetary theory and policy (3rd ed.). MIT Press.        [ Links ]

Anexos

Anexo 1. Esquemática del método de calibración

Anexo 1.1. Procedimiento para encontrar el estado estacionario del modelo

El objetivo de este procedimiento es resolver el sistema de ecuaciones FSS (x,θ) = 0 que describe el estado estacionario del modelo, siendo x el vector de las variables de estado estacionario cuyo valor depende de un vector de parámetros θ.

1) Simplificación algebraica del estado estacionario:

Reduzca el sistema FSS (x,θ) = 0 y expréselo en función de:

• Un vector que contiene un subconjunto con n de las variables del estado estacionario.
• Un sistema reducido SS (,θ) = 0 con n ecuaciones del estado estacionario. Este sistema reducido puede contener variables que no estén en el vector , solo en la medida en que estas hayan sido definidas previamente en función de las variables en y los parámetros θ.

Nota: este primer paso es difícil de automatizar y requiere de un buen número de procesos algebraicos tediosos.

2) Utilización del algoritmo híbrido sugerido por Brooks y Morgan (1995) en la resolución del sistema reducido SS (,θ) = 0.

a) Use el algoritmo de simulated annealing (SA) para seleccionar un conjunto de semillas, dado un vector de parámetros θ.
El SA debe detenerse prematuramente, antes de que alcance su punto de congelamiento, y se toman como semillas todos los valores aceptados en el último nivel de temperatura.
b) Utilice todas las semillas encontradas en el paso anterior para inicializar un algoritmo numérico que resuelva sistemas de ecuaciones no lineales, por ejemplo, la versión Dogleg del método de región de confianza.
      1) Si encuentra un vector op tal que SS (op,θ) < vtol, donde vtol es un valor cercano a cero que determina el nivel de tolerancia en la elección de la solución, entonces continúe con el paso 2c.
      2) Si SS (,θ) > vtol para todas las semillas obtenidas en 2a, entonces vuelva al paso 2a. (Como el SA utiliza un generador de números aleatorios, si se modifica la semilla de este último, los valores producidos en cada ejecución truncada del SA serán distintos.)
c) Obtenga los valores de todas las variables x(θ) del estado estacionario, a partir del subconjunto op(θ). Esto es posible gracias a la reducción del sistema realizada en el paso 1 (algunos de estos valores o todos pueden ser requeridos posteriormente para calcular la función objetivo del proceso de calibración).

Anexo 1.2. Procedimiento para calibrar el modelo

1) Establezca un criterio de calibración y defina una función objetivo fobj () consecuente con el criterio establecido, como las que se proponen en la sección I.B. El vector contiene el subconjunto de los parámetros del modelo que serán modificados durante el proceso de calibración.

2) Defina un conjunto , que establece restricciones a los valores que pueden tomar los parámetros en el vector .

3) Encuentre los valores de los parámetros que minimizan la función objetivo fobj ().

a) Asigne un valor inicial arbitrario in a los parámetros, en el conjunto .
b) Use el método descrito en el anexo 1.1 para obtener x(in), es decir, los valores de las variables del estado estacionario correspondiente al vector de parámetros in.
c) Use el algoritmo SA para obtener un vector de valores para los parámetros sa que minimice la función objetivo fobj (). De acuerdo con la sección I.B, para calcular el valor de fobj () es necesario calcular el estado estacionario x (). Por tanto, para cada selección aleatoria alt que realice el SA, se debe encontrar el estado estacionario correspondiente x ( alt ), de la siguiente forma:
      1) Utilice un algoritmo numérico que resuelva sistemas de ecuaciones no lineales, por ejemplo, la versión Dogleg del método de región de confianza, usando x (k-1) como semilla. k-1 denota el último vector de parámetros aceptado por el SA.
      2) Si el algoritmo en 3c1 no converge al estado estacionario x ( alt ), ignore alt, permita que SA elija otro vector aleatoriamente y repita el paso inmediatamente anterior.
d) Una vez encontrado el vector sa, úselo como semilla para inicializar un algoritmo de optimización tradicional, por ejemplo, el algoritmo de Nelder y Mead (NM), para minimizar la función fobj ().
Para realizar la k-ésima evaluación de la función objetivo, fobj (knm), es necesario calcular el estado estacionario x (knm). Sin embargo, durante la ejecución del algoritmo nm, el estado estacionario x (sa) se toma como un argumento que no puede ser modificado y, por tanto, el procedimiento descrito en 3c1 no puede ser replicado aquí. Una alternativa para calcular el estado estacionario en la k-ésima iteración es:
      1) Utilice un algoritmo numérico que resuelva sistemas de ecuaciones no lineales usando x (sa) como semilla.
      2) Si el algoritmo en el paso anterior no converge al estado estacionario x (knm), interrumpa la ejecución del NM.
      a) Use el método descrito en el anexo 1.1 para obtener x (knm).
      b) Reinicie el algoritmo en 3d usando como semilla el vector knm y x (knm) como argumento constante para calcular el estado estacionario de las siguientes evaluaciones de la función objetivo.
e) Repita el paso 3d hasta que el valor de la función objetivo satisfaga algún criterio de parada previamente establecido.

Anexo 2. Modelo neokeynesiano de economía cerrada

La economía que el modelo describe está habitada por un continuo de hogares j de medida uno. La población total Nt crece a una tasa exógena n (note que si Nt(j) es igual para todos los hogares, dada la medida uno, la población total es igual al tamaño de cada hogar). Así, Nt = Nt - 1 (1 + n) puede interpretarse como el número de habitantes de la economía y n es la tasa de crecimiento de la población. La tasa de crecimiento es igual para todos los hogares. La productividad de las horas trabajadas sigue el proceso At = (1 + g) At - 1. Se supone por simplicidad que A0 = 1. Es decir, la productividad de las horas de trabajo crece exógenamente a una tasa g > 0.

Finalmente, existe un proceso exógeno que determina la tasa de participación y la tasa de desempleo en esta economía. El número de personas que efectivamente participan del mercado laboral en cada período es:

Lt = (1 - TD)TBPNt,

siendo la tasa de desempleo y la tasa bruta de participación.

El modelo presenta crecimiento exógeno de la población y de la productividad de las horas de trabajo. Si t es una variable comodín que representa una cantidad agregada, las condiciones de primer orden del modelo pueden ser escritas en función de variables minúscula, , que denotan cantidades por habitante efectivo estandarizadas por las horas totales disponibles por habitante (veinticuatro horas diarias o aproximadamente 2.016 horas trimestrales). Finalmente, wt es el salario real y se define como .

Debido al crecimiento exógeno, con el fin de obtener soluciones al modelo, se deben imponer restricciones técnicas a las formas funcionales utilizadas. En particular, se requiere que las preferencias presenten una tasa intertemporal de sustitución en el consumo que debe ser invariante ante la escala del consumo y que los efectos ingreso y sustitución asociados con el crecimiento de la productividad no afecten la oferta de trabajo, para asegurar un estado estacionario compatible con el equilibrio competitivo. Además, con el fin de asegurar que todas las variables (excepto el tiempo de trabajo) crezcan a la misma tasa, la tecnología debe ser de rendimientos constantes a escala. Finalmente el crecimiento exógeno debe ser neutral a la Harrod, es decir, ahorrador de trabajo, con el fin de asegurar la existencia del estado estacionario. En el cuadro A2.1 se presentan los parámetros del modelo y en el cuadro A2.2 se presenta la definición de las variables del modelo.

A. Formas funcionales y condiciones de primer orden

Expresadas en variables que representan cantidades en función del habitante efectivo, estandarizadas por las horas totales disponibles por habitante.

1. Hogares

• Función de utilidad: la función de utilidad instantánea es separable en consumo y ocio:

• Restricción de presupuesto:

• Función de costos de utilización:

• Ecuación de acumulación del capital:

siendo D ≡ (1+n)(1+g)-(1-δ).

• Condiciones necesarias para la existencia de una solución al problema de los hogares:

2. Firmas productoras

• Función de producción:

• Condiciones de primer orden para el capital y el trabajo:

• Fijación de precios (a la Calvo):

• Beneficios de las firmas productoras:

• Demanda agregada:

3. Autoridad monetaria

4. Procesos exógenos

El modelo presenta los siguientes procesos exógenos que afectan la utilidad marginal del consumo, la utilidad marginal del ocio y la productividad:

Los choques asociados a estos procesos siguen una distribución normal estándar:

Creative Commons License Todo o conteúdo deste periódico, exceto onde está identificado, está licenciado sob uma Licença Creative Commons