SciELO - Scientific Electronic Library Online

 
vol.15 número28IMPLICACIONES DE UNA TEORÍA DEL CRECIMIENTO ENDÓGENO EN EL CONCEPTO MACROECONÓMICO DE RENDIMIENTOS CRECIENTES DE ALLYN YOUNGLA TEORÍA DEL CONSUMO Y DE LOS CICLOS EN THORSTEIN VEBLEN índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Revista de Economía Institucional

versión impresa ISSN 0124-5996

Rev.econ.inst. vol.15 no.28 Bogotá ene./jun. 2013

 

¿CRISIS DESPUÉS DE LA CRISIS? LA MACROECONOMÍA FINANCIERA DESPUÉS DE LA CRISIS GLOBAL

CRISIS AFTER THE CRISIS? FINANCIAL MACROECONOMICS AFTER THE GLOBAL CRISIS

Boris Salazar*

*Magíster en Economía, profesor del Departamento de Economía de la Universidad del Valle, Cali, Colombia, [bosalazar@gmail.com]. El autor agradece la generosa lectura que María del Pilar Castillo y Christian Frasser hicieron de una versión anterior de este artículo.

Fecha de recepción: 16 de enero de 2013, fecha de modificación: 19 de marzo de 2013, fecha de aceptación: 23 de abril de 2013.


RESUMEN

La crisis llevó a la aparición de nuevos hechos estilizados, y al uso de técnicas y herramientas provenientes de otras disciplinas, pero no provocó una crisis del programa dominante en macroeconomía financiera. Este artículo intenta explicar por qué se siguió ese rumbo y explora dos hipótesis: la asimetría entre los caminos que unen el núcleo firme de un programa de investigación con los cambios en el cinturón protector; lo que va del núcleo firme a la periferia nunca deja de fluir en la forma de módulos básicos para hacer nuevos modelos, y lo que se encuentra en la periferia nunca afecta al núcleo firme. La segunda es un hecho observable: tanto el programa rival más fuerte –la econofísica–, como los programas heterodoxos están por fuera de la economía dominante.

[Palabras clave: crisis financiera, macroeconomía financiera, programas de investigación, paradigma, crisis; JEL: B41, B22, G21, N20]


ABSTRACT

Though the global financial crisis induced the emergence of a new set of stylized facts, and propitiated the use of techniques and tools emerging from other disciplines, it did not unleash a crisis of the current research program in financial macroeconomics. This article is an attempt to explain that turn of events. It does explore two interlocked hypotheses: the structural asymmetry between paths linking the 'hard core' of a research program with its 'protective belt'; what goes from the hard core onto the periphery never stops flowing under the guise of basic modules required to build up new models, whereas the periphery's findings never make their way up to the hard core. The second one is an observable fact: both, the strongest contender for the DSGE models –econophysics– and the heterodox research programs, are outsiders in mainstream economics.

[Keywords: financial crisis, financial macroeconomics, research programs, paradigm, crisis; JEL: B41, B22, G21, N20]


Hace dos años Alan Kirman (2010) dijo que la crisis financiera iniciada en 2008 era también una crisis para la teoría económica. Más allá de la incierta popularidad de su afirmación o de su impacto en el trabajo cotidiano de los economistas, su tesis merece un escrutinio detallado. Dos razones esenciales saltan a la vista. La primera es la aparición o el retorno de preguntas y problemas que la teoría parecía haber resuelto o superado años atrás. Si el control de las fluctuaciones económicas era una tarea rutinaria y exitosa, ejecutada por economistas bien fundamentados en la teoría dominante, ¿cómo explicar que haya ocurrido una fluctuación de tamaña magnitud, sin que los economistas pudieran predecirla, controlarla y explicarla? En su debate con Robert Lucas, en las páginas de The Economist, Markus Brunnermeier describió así la situación de la macroeconomía después de 2008:

Sin embargo, el grueso de la investigación en macroeconomía simplemente suponía que las fricciones financieras no existían. El sistema financiero y sus detalles institucionales eran considerados a menudo como una distracción con respecto a los factores principales de la actividad económica. En estos modelos la caída de una institución financiera grande, como Lehman, no tendría consecuencias reales. Sin embargo, creo que todos podríamos ponernos de acuerdo –si aprendiéramos algo de la actual turbulencia financiera– en que las fricciones financieras y las instituciones financieras son de una importancia esencial para la macroeconomía (Brunnermeier, 2009b).

Estudiar las causas de las grandes crisis económicas era un anacronismo vergonzoso hasta septiembre de 2008. Peor: era una no pregunta o un no problema. Después volvió a ser una pregunta posible.

Lo que lleva a la segunda razón. Algunos economistas situados en las fronteras de la macroeconomía y la economía financiera y monetaria hoy dedican su tiempo y su habilidad a explicar la aparición de las crisis, y a buscar, en la teoría económica y fuera de ella, herramientas teóricas y empíricas que contribuyan a entenderlas. En esa búsqueda es inevitable el surgimiento de puntos de fuga potenciales en las herramientas, el lenguaje, los conceptos y las técnicas de medición. De pronto, en muchos artículos, con ópticas distintas, empiezan a desaparecer ciertos conceptos y a ser remplazados por otros, provenientes de otras disciplinas y de lenguajes ajenos al paradigma dominante. El uso de herramientas ajenas se vuelve legítimo y convergente: autores con opiniones diversas eligen herramientas similares para resolver problemas que las herramientas disponibles no pueden resolver. La exploración de la evidencia empírica lleva a encontrar nuevos hechos estilizados que exigen explicaciones causales que no encuentran los modelos conocidos, o a elaborar modelos cuya pertenencia a la secuencia legítima de modelos esperables es incierta.

La situación en la frontera de la disciplina puede tornarse inestable. Las divergencias locales pueden conducir a convergencias globales, y viceversa, en un movimiento imposible en tiempos de estabilidad. Los investigadores pueden dejar de usar la heurística y los conceptos disponibles, no porque dejen de creer en ellos, sino porque descubren, sobre la marcha, que ya no son los más efectivos. El uso de herramientas y conceptos extraños al paradigma dominante no es inocuo. Puede tener consecuencias epistemológicas: al pertenecer, por ejemplo, a heurísticas divergentes, propias de mundos posibles distintos al mundo ortodoxo, puede llevar a nuevos problemas y formas de resolverlos incompatibles con las creencias básicas que todos compartían hasta ese momento.

Pero puede no ocurrir así. Las diferencias entre las heurísticas alternativas y la actual pueden llevar a absorber las nuevas herramientas e incluso la nueva heurística en el paradigma dominante. En esas situaciones, para el investigador es casi natural conservar la heurística con la que construyó su carrera, y tratar los fenómenos esquivos empleando nuevos mecanismos e importando técnicas y estructuras extrañas compatibles con las restricciones y los principios de modelación reinantes. El impasse sería entonces un problema técnico que se puede resolver dentro de las restricciones y reglas formales del paradigma actual. Sería un episodio clásico de ciencia normal que elevaría el estatus de los científicos que logran resolver un problema, antes intratable, enfrentándolo como un desafío técnico en el que solo está en juego su virtuosismo y su tenacidad, y no la integridad de su paradigma o programa.

La línea que separa lo que puede ser absorbido de lo que no puede serlo se hace más fina en momentos de inestabilidad; y los investigadores actúan sin saber, con exactitud, en cuál lado de la línea divisoria se encuentran. Como mostró Lakatos (1970, 1974), solo después de que todo ha ocurrido y los nuevos programas de investigación logran reconocerse como tales, y mostrar si son progresivos o regresivos, se puede saber cuál de los dos estados terminó imponiéndose. En una situación de cambio como en la que hoy nos encontramos no es posible, entonces, predecir cuál predominará. Pero es posible esbozar las posibles trayectorias, a partir del estudio de la labor de los economistas que trabajan en la frontera de la macroeconomía y de la economía financiera y monetaria.

No hay una fórmula para conocer el resultado. Es posible que las nuevas herramientas y heurísticas que usan para resolver los problemas más urgentes sean absorbidas, sin mayores consecuencias, por el paradigma dominante. Pero, también, que la multiplicación de puntos de fuga y la posible convergencia de un buen número de investigadores hacia una heurística y unos modelos alternativos comunes configuren una crisis de la teoría en su conjunto. Este artículo evalúa el estado de la macro economía y de la economía financiera después de la crisis financiera. Su objetivo es descifrar los cambios que están ocurriendo en sus fronteras, y determinar si corresponden a una crisis de la teoría. Usa como evidencia los escritos de economistas que trabajan en esas áreas: artículos y libros –impresos y electrónicos– publicados desde 2007 en respuesta a ese evento. Sufre la limitación asociada al carácter provisional de una literatura en pleno despliegue, que cambia día a día a los ojos de todo el mundo.

Se fundamenta, hasta cierto punto, en la teoría de Kuhn (1962,1970, 1978) y en la reconstrucción racional de los programas de investigación propuesta por Lakatos (1970, 1974) en el periodo en que ambos, junto a Feyerabend (1970, 1975), revolucionaron la historia y la filosofía de la ciencia. Las propuestas de estos tres autores no son iguales ni del todo compatibles. La de Kuhn introdujo las dimensiones histórica y social en el estudio del progreso de la actividad científica. La de Lakatos fue concebida como una superación definitiva de la propuesta de Kuhn y de la opción falsacionista de Popper. La de Feyerabend es una crítica feroz de las interpretaciones racionalistas de la historia de la ciencia y del progreso del conocimiento.

La improbable integración de las tres en este artículo refleja las dificultades inherentes al estudio de los cambios en el conocimiento desencadenados por hechos externos a la actividad científica; como la crisis de 2007-2009. Una pregunta inmediata es cómo interpretar la reacción de los economistas. Una hipótesis tranquilizadora es suponer que no debía pasar nada y que nada pasó. Pero sabemos que no ocurrió así. La evidencia escrita muestra su reacción rápida, diversa y conflictiva ante la crisis. Este artículo examina hasta dónde ha cambiado el conocimiento de las grandes fluctuaciones económicas, y qué caminos siguen los economistas –y los no economistas– que intentan explicarlas y predecirlas.

LA CRISIS

Si tomamos como punto de entrada los cambios inducidos en los modelos predictivos de macroeconomistas y economistas financieros, la cuestión es cómo abordarlas. ¿Cómo abordar un evento colectivo, que supera la racionalidad de cada economista, o cómo evaluar el resultado de la agregación de numerosas decisiones guiadas por la razón individual? Aquí la intuición de Kuhn (1962) es crucial. Lo que ocurrió en la profesión después de la crisis se podría interpretar como una situación en la que la "ciencia normal" no es una guía apropiada para predecir fluctuaciones en economías financieras globalizadas. Nadie, ni siquiera los defensores más extremos de la ortodoxia, cree posible resolver ese problema con los modelos ejemplares que fueron tan útiles durante varias décadas. Todos, desde enfoques distintos, entraron en una nueva fase de actividad y la elección de heurísticas y modelos se convirtió de pronto en parte de la labor diaria. La convergencia de eventos no predecibles por el programa dominante, y de opciones teóricas y heurísticas nuevas o de variaciones de la teoría en estudio, configuran una situación potencial de crisis: el momento en el que la labor de los científicos no puede seguir siendo igual, y nuevas herramientas, hipótesis y eventos aparecen como posibles sustitutos. Un ejemplo de lo que Kuhn llama crisis del paradigma, que precede a la revolución científica.

No obstante, Kuhn señaló que toda crisis es resultado de un proceso que puede o no terminar en cambios sustantivos. Suponía que ciertos eventos pueden poner en marcha un complejo sistema de interacción entre científicos, teorías y hechos donde los primeros no pueden evitar encontrar, elegir y producir heurísticas y modelos ejemplares que difieren de los vigentes y que podrían predecir, en el caso ideal, nuevos hechos o explicar la evidencia empírica, lo que no puede hacer el paradigma dominante. El proceso puede terminar en una heurística y unos modelos ejemplares distintos, pero situados dentro de los límites del paradigma dominante, o generar una nueva heurística y unos modelos que rompen con el paradigma actual, volviéndolo inútil para esos científicos, y generando la crisis.

La crisis es, entonces, una situación en la que todos los científicos de un campo, en su labor creativa, eligen de hecho entre la ortodoxia y las opciones en formación. No es una elección racional o deliberada entre dos alternativas nítidamente distinguibles. Es, más bien, el acto espontáneo de seguir un camino u otro de acuerdo con el despliegue real de la labor investigativa de cada cual: lo que eligen es lo que hacen cuando su trabajo deja de ser rutinario –pues intenta resolver problemas inéditos– y cada acción, artículo y modelo los sitúa, aunque no lo sepan, en un camino que los aleja de la ortodoxia o los lleva de regreso a ella.

La proliferación de versiones de una teoría –perteneciente al paradigma dominante– es uno de los mejores signos de que hay una crisis (Kuhn, 1962). Refleja la rápida búsqueda de alternativas ante la imposibilidad de resolver un problema con los modelos y herramientas teóricas y empíricas disponibles. Un número creciente de científicos empieza a elaborar nuevas versiones de una teoría conocida y usada por todos, con relativa seguridad, durante algún tiempo. La elaboración de versiones dispares refleja las dificultades prácticas que tienen para resolver un problema siguiendo la heurística y los modelos ejemplares predominantes. Los obstáculos para resolver ciertos problemas llevan a formular alternativas y, eventualmente, a usar otras herramientas y heurísticas, y a reconocer la existencia de mundos incompatibles con los del programa original. Al mismo tiempo, quienes siempre han trabajado en programas alternativos pero marginales tienen de pronto la posibilidad de intentar nuevas soluciones siguiendo las certezas ontológicas, los instrumentos y las estrategias de modelación de su propio programa.

La proliferación de teorías en los programas en competencia solo se resuelve con la aparición de una solución teórica y empírica mejor: que cubra lo que esos programas cubrían, pero que supere sus dificultades y amplíe el alcance de la disciplina. La distancia entre el paradigma bajo asedio y el nuevo solo se puede cerrar si aparece una teoría superior, que anticipe hechos inéditos y abra nuevos campos de investigación y aplicación. En sentido estricto, los científicos no eligen nuevos programas de investigación: los encuentran cuando buscan soluciones reales. Pero podrían no encontrarlos o creer que el cambio requerido puede ocurrir sin afectar el núcleo firme del programa ni su heurística ni sus modelos ejemplares.

No es la crisis financiera per se –más allá de su enorme tamaño– lo que ha provocado dificultades en el programa dominante. La crisis podría ser, incluso, un no evento, algo externo al registro de la teoría económica, perteneciente al registro de la historia o la política, o a una nueva disciplina por descubrir –como lo interpretó Robert Lucas(2009) en su respuesta negacionista de las críticas a la economía académica por su incapacidad para predecir la crisis. La dificultad crucial está en la violenta ruptura de una certeza ontológica que hacía parte del sentido común de la profesión, y separó para siempre la macro keynesiana y "pre-científica", dominante hasta 1976, de la macro científica impulsada por Lucas y la nueva economía clásica (DeVroey2009, 2010): la certeza de que era imposible una crisis de la magnitud de la de 2008 porque las fluctuaciones económicas estaban bajo el control absoluto de la teoría y de la política económica.

Gary Gorton describe la situación de la macroeconomía académica en 2007:

Los macroeconomistas no intentaban explicar las crisis sistémicas antes del Pánico de 2007-2008, y no las incluyeron en sus modelos, porque creían que no volverían a ocurrir. Como planteó Thomas Sargent (ganador del premio Nobel en 2011): "Los modelos fueron diseñados para describir fluctuaciones económicas agregadas en tiempos normales cuando los mercados juntan prestatarios y prestamistas en forma ordenada, no durante crisis financieras y rupturas de los mercados". Esta no fue una elección consciente, como si hubiese otros modelos para explicar fluctuaciones en tiempos anormales, y se hubiera tomado la decisión de tener modelos para tiempos normales y modelos para tiempos anormales. [...] Los modelos fueron diseñados sin incorporar nada que explicara las crisis, porque los economistas creían que eran irrelevantes (Gorton, 2012, 93-95, cursivas mías).

Esta interpretación trae al escenario dos observaciones fundamentales para evaluar la sorpresa cognitiva de los economistas: la primera es que la gran mayoría creía que una crisis de la magnitud de la de 20072009 no volvería a ocurrir. Una creencia ontológica profunda, basada en la poca volatilidad de la historia macroeconómica reciente. Como sugiere Gorton (ibíd., 201-202), casi todos interpretaron lo ocurrido en los treinta años anteriores como un presente continuo y sin fin, que no cambiaría porque nada en los modelos más avanzados predecía un cambio súbito de régimen. Casi todos compartían la creencia de que "la gran tranquilidad" duraría para siempre. Y si no lo creían, sí creían que era imposible un cambio brusco en la actividad económica.

La segunda observación tiene que ver con la irrelevancia de las crisis en la labor de los macroeconomistas. Es la típica situación de formación de creencias en un proceso silencioso de retro alimentación positiva. Si, como establecía la mejor teoría disponible, las crisis eran irrelevantes por su improbabilidad, no valía la pena incorporar en los modelos ningún elemento que ayudara a explicarlas, y como ningún modelo aceptaba la posibilidad de crisis en nuestra época, las crisis eran irrelevantes. Este mecanismo circular explica la sorpresa cognitiva ante ese evento extremo: lo imposible ocurrió de pronto.

La reacción natural de los que creían en la eternidad de "la gran tranquilidad" fue el negacionismo absoluto: la teoría económica no podía predecir la caída de Lehman Brothers (Lucas, 2009), la crisis fue una confirmación radical de la hipótesis de mercados eficientes (Lucas, 2009; Fama, 2007; Cochrane, 2008), fue culpa del gobierno (Prescott), la teoría guió a las autoridades económicas en la búsqueda de una salida política a sus consecuencias más graves e inmediatas (Lucas, 2009). Estas respuestas revelan una posición defensiva que parece reflejar la incapacidad para repensar la teoría en la que seguían creyendo. La intuición inmediata es que reflejan más la actitud psicológica de sus autores que sus posiciones analíticas. En el otro extremo del espectro, los ataques radicales (Krugman, 2009; Kay, 2011) a la estrategia ortodoxa de modelación, y al inútil virtuosismo matemático desarrollado en los últimos treinta años (Lawson, 2009), contribuyeron al ruido inevitable generado por la crisis.

Después del ruido llegó la calma, con sus exigencias: cómo explicar lo que ocurrió y cómo afinar las herramientas de predicción. Formular esas preguntas es fácil. Contestarlas no lo es. Después del ruido, economistas con diversos enfoques han iniciado procesos de modelación que pueden explicar, y quizás predecir, la probabilidad de ocurrencia de crisis sistémicas, su tamaño y el papel de las instituciones financieras en su magnitud y frecuencia. Los resultados son inciertos por ahora. Pero es posible describir lo que ocurrió y lo que podría ocurrir en términos de los nuevos hechos estilizados que pretenden explicar y predecir con sus modelos. Estos hechos no son independientes de las posiciones teóricas. Captar la interacción entre sus estrategias de modelación y los hechos estilizados elegidos es parte de lo que intentaré ahora. Descubrir su dinámica ayudará a entender cómo está evolucionando la teoría económica ortodoxa ante los desafíos suscitados por la crisis.

SITUACIÓN ESTRATÉGICA Y PROGRAMAS DE INVESTIGACIÓN

En la metáfora espacial de la teoría de los programas de investigación científica de Lakatos (1970), todo programa está compuesto por un núcleo firme irrefutable, donde se concentran sus heurísticas positiva y negativa, y un "cinturón protector", donde ocurre el complejo intercambio entre hipótesis auxiliares refutables y realidad observable. El desarrollo de la economía académica en los últimos sesenta años tomó un camino similar. El programa de investigación neoclásico (PINC) elaboró un núcleo firme irrefutable, basado en una serie de axiomas y teoremas y unos modelos ejemplares organizados en forma modular, y extendió su dominio a nuevas áreas, con el desarrollo de numerosos campos de aplicación y de especializaciones disciplinarias que constituyen su relación con la realidad observable. La macroeconomía y la economía financiera y monetaria hacen parte de esas especializaciones. Las une lo que se espera de ellas: profanos y especialistas esperan que sus modelos predigan la magnitud de las fluctuaciones económicas. Es en ese espacio particular donde se debe estudiar la posibilidad de una crisis de la teoría económica, pues es allí donde hoy está en juego cuáles serán los próximos modelos que descifren y predigan –o ignoren– las crisis financieras.

La crisis de 2007-2009 sería una crisis de la teoría económica si se extendiera más acá de la macroeconomía y la economía financiera y monetaria, y afectara su "núcleo firme". Pero la forma en que está organizada la teoría lo hace poco probable. El "derrame" de lo que hoy ocurre en las fronteras de la macroeconomía y la economía financiera hacia el núcleo firme del PINC solo podría ocurrir si existieran trayectorias que condujesen desde los cambios ocurridos en ciertos lugares del cinturón protector hasta el núcleo. Esas trayectorias serían caminos de implicaciones teóricas y empíricas que convertirían los cambios en las fronteras locales o especializadas en contradicciones insostenibles con el núcleo firme, o en puntos de fuga con respecto a sus modelos ejemplares, sus límites y su heurística.

Estas trayectorias no son abstractas. Incluyen la labor real de quienes perciben –en su trabajo diario en la frontera del conocimiento– las contradicciones entre lo que están haciendo y descubriendo y los postulados del núcleo firme, y las transforman en acciones modelo y principios alternativos y, eventualmente, en un nuevo programa de investigación. Los caminos que van del núcleo al cinturón protector y los que van de este al núcleo no son simétricos y no tienen igual probabilidad de ocurrencia: es más probable el vínculo que une al núcleo firme con el trabajo en el cinturón protector que el que va de las especializaciones al núcleo firme.

El primero es natural en la estructura diseñada por Lakatos: los principios básicos, las creencias ontológicas, los modelos ejemplares y las heurísticas positiva y negativa fluyen naturalmente desde su origen hacia las fronteras de las especializaciones y campos de aplicación. Es la dirección que garantiza el avance del programa y lo que lo mantiene unido y activo. En economía esto ocurre con mayor probabilidad que en otras disciplinas, dada la importancia capital de la heurística positiva y de los métodos formales comunes al decidir el tipo de modelos que vale la pena construir. El segundo, en cambio, no tiene nada de natural. En principio, ningún adherente a un programa exitoso tiene razones para regresar continuamente al núcleo firme y descubrir incompatibilidades entre los principios básicos y los avances logrados, en constante cuestionamiento de sus problemas, heurísticas y modelos. Se supone que la actividad positiva de quienes conocen, desde un comienzo, las anomalías más probables, domina de tal forma su trabajo que la búsqueda de puntos de fuga, fisuras o inconsistencias no es parte de sus rutinas. Y el encuentro inevitable de inconsistencias y anomalías se supera con la creación de nuevos modelos o la introducción de nuevas hipótesis auxiliares.

En el lenguaje de teoría de grafos, los caminos que unen el núcleo firme y el cinturón protector son orientados: van del primero al segundo y no al contrario. Para construir un nuevo modelo en el cinturón protector es inevitable el uso de módulos básicos que vienen del núcleo. En cambio, es muy improbable o del todo improbable que un cambio en el cinturón protector desencadene un cambio en el núcleo. ¿Cómo es posible entonces que aparezcan nuevos programas de investigación? ¿Cómo es posible que el trabajo en el cinturón protector lleve a los científicos de regreso al núcleo firme? La respuesta es paradójica hasta cierto punto. Solo un éxito inusitado del programa dominante puede conducirlos de regreso al núcleo firme.

Inusitado significa un descubrimiento tal que su alcance y consecuencias hagan inevitable reconsiderar su compatibilidad con los principios y la heurística del programa. E implica que no solo no se puede derivar de sus primeros principios, sino que es inconsistente con sus predicciones fuertes. Pero los nuevos descubrimientos hacen parte, en principio, del éxito del programa. ¿Por qué habrían de llevar a reconsiderar la efectividad del núcleo firme? Porque a veces lo que los científicos descubren, aun a pesar suyo, entra encontradicción o es incompatible con la heurística y los modelos ejemplares del núcleo firme. Solo entonces se recorrerá el camino de la frontera al centro.

Aquí aparecen dos trayectorias posibles que se bifurcan, a su vez, en alternativas distintas hasta generar cuatro resultados posibles. Siguiendo la caracterización de Lakatos, los científicos que trabajan en la frontera de su especialidad en momentos de inestabilidad tienen dos opciones básicas: (1) injertar los nuevos modelos y herramientas en el cuerpo del programa dominante, o (2) derrocar en forma deliberada el programa actual poniendo en marcha un programa alternativo. La reconstrucción de los programas exitosos de Prout en química y de Bohr en física permitió que Lakatos revelara las cruciales diferencias estratégicas entre injertar y derrocar:

El programa de investigación de Prout le declaró la guerra a la química analítica de su tiempo: su heurística positiva fue diseñada para derrocarlo y remplazarlo. El programa de investigación de Bohr contenía un diseño parecido: su heurística positiva, aun si hubiera sido completamente exitosa, habría dejado sin resolver la inconsistencia con la teoría de Maxwell-Lorentz. Sugerir tal idea requería aún más valentía que la de Prout; la idea le pasó por la mente a Einstein, quien la encontró inaceptable y la rechazó. En verdad, algunos delos más importantes programas de investigación de la historia de la ciencia fueron injertados en antiguos programas con los cuales eran abiertamente inconsistentes (Lakatos, 1970, 141-142, cursivas del original).

Desde una óptica distinta, Feyerabend ligó la aparición de algunas de las mayores y más influyentes invenciones en ciencias naturales a la decisión de ciertos científicos de romper deliberadamente con las reglas metodológicas reinantes o de romperlas sin proponérselo:

Uno de los rasgos más impresionantes en las discusiones recientes en historia y filosofía de la ciencia, como la invención del atomismo en la antigüedad, la revolución copernicana, el surgimiento del atomismo moderno [...], la emergencia gradual de la teoría de la luz, solo ocurrieron porque algunos pensadores decidieron dejar de estar restringidos por ciertas reglas metodológicas obvias, o porque impensadamente las rompieron (Feyerabend, 1975, 7, cursivas del original).

Para Feyerabend, solo quienes deciden romper en forma deliberada con las reglas metodológicas que no dejan progresar su trabajo, o que las rompen en forma inadvertida, pueden inventar nuevas teorías, predecir nuevos hechos y cambiar el estado de la ciencia. Pero esto no hace equivalente su posición a la interpretación racionalista de Lakatos. Es más: para Feyerabend, solo la proliferación simultánea de teorías –originada incluso en el trabajo de los mismos autores– hace progresar la ciencia. Su posición pone en duda el papel de un núcleo firme en el desarrollo de un programa de investigación. ¿Para qué un núcleo firme si un investigador creativo no puede dejar de moverse de su posición a otra, tomando ideas de otros científicos, importando herramientas de disciplinas ajenas, combinando técnicas, superando sus modelos iniciales con modelos que tienen poco en común con los primeros? ¿Por qué habría de permanecer igual a lo largo del tiempo a pesar de todos los desarrollos y cambios ocurridos?

Dado que el objetivo de Feyerabend era aniquilar la idea positivista de la pertinencia de un método científico, y la idea racionalista de la superación de inconsistencias a través del desarrollo empírico de los programas de investigación, el injerto no podía ser una alternativa por derecho propio1. Para él, un injerto podía ser interpretado como la realización de una de las muchas instancias de creatividad que ocurren en cualquier ciencia viva y en desarrollo. Es obvio que el injerto, si ocurriera, podría llevar al choque inadvertido, o espontáneo, de uno o varios científicos con las reglas que impiden el progreso del conocimiento. Es más, la idea de injerto podría no ser más que un hecho trivial: toda nueva teoría, cuando está en desarrollo, existe a la sombra de teorías anteriores o es una combinación inspirada por diversas teorías.

Consideremos de nuevo la opción de injertar, en el cuerpo del programa existente, el trabajo original que se realiza en las fronteras de una disciplina. Es obvio que no es parte orgánica del cuerpo original, pero podría ser compatible o no con él si logra adaptarse o no a su funcionamiento. La virtud de la formulación de Lakatos es que la aparición de un nuevo programa no depende de un proceso determinista sino de un proceso estratégico y probabilístico que puede o no terminar en el desprendimiento del "injerto", por incompatibilidad, o en su absorción por adaptación a las restricciones del programa. Es un fenómeno temporal e incierto, con una dimensión estratégica a la que él daba importancia decisiva: algunos científicos aparentan seguir trabajando con las reglas del pasado, aunque su trabajo sea cada vez menos compatible con ellas. El ímpetu innovador es tal que no puede ser detenido por la inconsistencia evidente entre sus descubrimientos y los postulados básicos del programa huésped. Por el contrario: su éxito obedece a la decisión de continuar a pesar de la inconsistencia. O, más bien, debido a ella. La inconsistencia con los principios básicos del programa anterior los anima a persistir en la línea exitosa de descubrimientos. Inconsistencia y descubrimiento se apoyan mutuamente para recorrer una trayectoria que lleva a la ruptura inevitable con el núcleo firme del programa anterior y al desprendimiento de un nuevo programa.

Ante la posibilidad de injertar, los científicos deben elegir otra vez: continúan su trabajo renovador, a pesar de las inconsistencias con el programa actual, o reducen la novedad de sus herramientas y descubrimientos a los límites y restricciones del programa dominante. En la primera opción, el nuevo programa no se detiene, a pesar de sus inconsistencias con el programa dominante, termina desprendiéndose de él y consolidándose como rival del programa bajo ataque.

En la segunda, el nuevo programa no logra independencia y termina reducido a la heurística y los modelos ejemplares del programa dominante. La decisión de reducir la novedad de los descubrimientos al programa dominante puede ser deliberada, tomada desde un comienzo por los adherentes a un programa. En vez de iniciar su intervención como un proceso abierto, algunos deciden que todo lo nuevo se realizará dentro de sus límites y restricciones, aspirando a estar a la altura de sus exigencias formales. Aun así, el desarrollo de los acontecimientos podría provocar conflictos entre lo que están descubriendo y la decisión de permanecer dentro de los límites del viejo programa. En ese caso, la fuerza de las nuevas ideas y de los nuevos hechos empíricos se impondría sin remedio, superando el reduccionismo inicial de los propios científicos.

De vuelta al primer nodo, en vez de injertar lo nuevo en lo viejo, pueden elegir la opción de derrocar el programa existente. En tales situaciones, los desarrollos en la frontera no intentan proponer nuevas hipótesis auxiliares para proteger el núcleo firme, sino crear un nuevo programa, con su núcleo firme, con técnicas, herramientas, lenguaje y modelos ejemplares propios. En el enfoque de Lakatos, sería el surgimiento de un nuevo programa, animado por el objetivo de desarrollar al máximo las incompatibilidades con el antiguo núcleo firme, con la certeza de que su éxito no requiere el concurso del viejo programa. En vez de contribuir al avance del conocimiento, los postulados y la heurística del viejo núcleo firme no solo dejan de ser útiles: se convierten en un obstáculo cognitivo para el desarrollo de programas alternativos. Igual ocurre con la producción de nuevos hechos empíricos: o bien los principios del viejo núcleo firme se tornan inocuos a la hora de modelar la realidad, o son un obstáculo para generar nuevos conocimientos y predicciones.

PUNTOS DE FUGA

Solo la coincidencia entre puntos de fuga en la modelación y un descubrimiento de gran magnitud podría conducir, no a la conversión repentina de los adherentes al viejo programa sino a la aparición de un nuevo programa de investigación, con un creciente número de seguidores, y al rápido descenso del número de nuevos adherentes al viejo programa. Un punto de fuga ocurre cuando varios adherentes encuentran que no pueden resolver problemas empíricos o teóricos sin entrar en contradicción con la heurística y las creencias básicas del núcleo firme anterior, y los intentos exitosos de solución deben recurrir a técnicas, herramientas, creencias y conceptos ajenos a, y contradictorios con, los que todos compartían. El impacto del punto de fuga crece con el número de adherentes que dejan de tener éxito cuando siguen la heurística, los métodos y las creencias usuales, y empiezan a resolver problemas con estrategias alternativas.

El impacto del punto de fuga y del desprendimiento provocado es un efecto de la interacción de dos componentes básicos: la longitud de la secuencia de nuevos modelos exitosos elaborados por quienes terminan descubriendo que trabajan desde una óptica incompatible con la tradición, y la conectividad del trabajo de esos pioneros con el trabajo de investigadores en otros campos y especialidades. Si la aparición de puntos de fuga, y de éxitos incompatibles con el programa original, en otros campos o especialidades tiende a extenderse, la disciplina entra en crisis y un nuevo programa de investigación, o una nueva secuencia de teorías, puede estar en desarrollo.

El punto decisivo es que la irrupción de un nuevo programa nunca es resultado de la acumulación de anomalías o eventos negativos para el viejo programa, sino del éxito creciente de quienes usan técnicas, principios y modelos situados fuera del programa o, si están dentro, en contradicción directa con sus principios y creencias. De hecho, las revoluciones científicas de mayor impacto no han sido protagonizadas por revolucionarios, sino por adherentes clásicos que encuentran de pronto, en su mejor trabajo, que no pueden mantener las mismas creencias y avanzar con los principios y técnicas que usaban con seguridad rutinaria. El propio Kuhn (1978) reveló, en un estudio detallado y original, que la revolución cuántica no fue resultado del trabajo de revolucionarios deliberados y conscientes, sino de científicos –Planck y Einstein, sobretodo– que vieron que sus descubrimientos eran incompatibles con los principios y creencias de la física clásica. Fueron revolucionarios a su pesar, como plantea Graham Farmelo (2002) en su artículo sobre la invención de la ecuación de Planck-Einstein para la energía cuántica.

NUEVOS MUNDOS POSIBLES

Los especialistas en economía financiera y macroeconomía han intentado estar a la altura del desafío provocado por la crisis financiera. La oleada de nuevos modelos inducida por la crisis no está marcada por el sello de lo rutinario. Ni los hechos estilizados ni las técnicas ni los mecanismos elegidos coinciden del todo con los de los modelos estándar. Todos incluyen rasgos y propiedades del mundo real que hace apenas cinco años eran impensables. Es un giro significativo porque implica el abandono de ciertas creencias ontológicas y su remplazo por otras opiniones sobre las características de los mundos posibles que se investigan. Han aparecido sustituciones importantes en los mundos posibles sobre los que se construyen los modelos macroeconómicos. En vez de la ausencia total de bancos y firmas financieras –dominante en los modelos anteriores a 2008– los nuevos modelos añaden un sector financiero, y renuncian a la vieja creencia ontológica que postulaba la inocuidad del dinero y la autonomía de lo real con respecto a la dinámica del sector financiero.

Esta oleada de nuevos hechos trajo una ironía adicional: la financiación basada en activos y títulos transables en los mercados –en vez de generar mayor estabilidad en todo el sistema, como es usual en un modelo estándar– se ha empezado a interpretar como una fuente crucial de volatilidad. En vez de generar estabilidad, los mercados financieros contienen mecanismos perversos de amplificación, que profundizan los comportamientos excesivos –crecimiento auto sostenido o caída violenta y agrupada de los precios de los activos– en vez de corregirlos. Lo que supone añadir mecanismos de amplificación endógena adversa del riesgo sistémico a los modelos macro de economías financieras (Brunnermeier et al., 2011a, 2012; Adrian et al., 2012).

No es un giro ontológico inocuo. Es un cambio en las certezas básicas de los economistas financieros y monetarios. Ahora su mundo básico incluye un sector financiero –distinto de la oferta monetaria controlada por los bancos centrales– y se acepta que su dinámica difiere de la del resto de la economía y que puede tener, en condiciones que los modelos por desarrollar fijarán, gran impacto en el nivel y las fluctuaciones de la actividad económica global. Adrian et al. Registran la importancia del impacto ontológico de lo financiero en la modelación macroeconómica: "Enfrentamos la pregunta de por qué el sector bancario se comporta de forma tan diferente a la del resto de la economía" (Adrian et al., 2012, 3).

Este giro ontológico tiene otras implicaciones. El crecimiento acelerado de la financiación involucra miles de pares de firmas y bancos, en una compleja red de interacciones cuya existencia era intrascendente hasta hace poco en el trabajo de los macroeconomistas. La apertura repentina de esa puerta ontológica llevó también a tratar en forma explícita las innovaciones financieras, y las instituciones ligadas a ellas, en los modelos macroeconómicos. Así como a considerar los hechos asociados a su operación, y a legitimar la búsqueda de mecanismos de amplificación y retroalimentación poco usuales en el trabajo diario de la macro hasta 2008.

De aquí se desprenden dos nuevos desafíos teóricos. El primero, que los mecanismos de amplificación y retroalimentación, subyacentes a las fricciones financieras, hacen parte del proceso de fijación de precios en los mercados financieros. Es decir, de la operación de mercados competitivos en los que no se transan bienes reales sino activos, títulos y derivados financieros. Hoy casi todos reconocen que las propiedades de los mercados de bienes reales no se pueden extender, en forma automática, a los mercados financieros. Como señalan Caginalp et al. (2000) –en un artículo que no tuvo mayor eco en su momento2 –, las propiedades más deseadas de los mercados reales no son extensibles a los mercados financieros. El desacoplamiento entre elvalor fundamental de las acciones y su precio de mercado no es casual, es un fenómeno estructural que puede ocurrir en cualquier momento bajo la forma de reacciones extremas de los agentes y volatilidad de precios. Cuando la aceleración de las reacciones exageradas de los agentes conserva su momentum en el tiempo, pueden ocurrir burbujas y estallidos, en abierta contradicción con las propiedades deseables de los mercados.

El segundo tiene que ver con la compleja articulación entre la dinámica de los precios y la creciente conexión global entre bancos y firmas financieras. Los nuevos modelos deberían dar cuenta de los cambios en la dinámica de la actividad derivada de la interacción entre mecanismos amplificadores divergentes en los mercados financieros y la intrincada red de activos y obligaciones que unen a bancos y firmas financieras, y a estos con las firmas productivas. Los efectos de los mecanismos amplificadores no se limitan a mercados específicos, y a las "vecindades", donde primero ocurren, sino que se extienden, a través de la red de vínculos conformados por activos y obligaciones que une a bancos y firmas de inversión que buscan maximizar sus ganancias. Es una amplificación generalizada de procesos locales de retroalimentación que, en ciertas condiciones, podría llevar a una ruptura global del crédito y de la liquidez de la economía global.

La dificultad es modelar la posible ocurrencia de crisis financieras globales en economías que articulan procesos de amplificación adversa del riesgo sistémico con estructuras interconectadas de activos y obligaciones entre agentes financieros y reales. Por ello, nuevas herramientas han comenzado a penetrar el mundo de la economía financiera: las redes complejas y la física estadística (Gai y Kapadia,2010; Gai et al., 2011; Haldane, 2009). No son del todo nuevas en ese mundo: algunos autores (Allen y Gale, 2000; Freixas et al., 2000) ya habían explotado las posibilidades empíricas y formales de las redes complejas para estudiar los patrones de interconexión entre instituciones financieras. Mientras que Allen y Gale establecieron que, en general, las redes financieras complejas con mayor interconexión generan dinámicas más robustas, Freixas et al. (2000) encontraron que, si bien en situaciones de alta probabilidad de impago, la estructura óptima del mercado financiero es la de máxima interconexión, en el caso más general la respuesta es más compleja y depende tanto de la conectividad como de la calidad de la información disponible. Estos artículos pioneros no tuvieron eco en los primeros ocho años de este siglo. Solo con la explosión de la crisis financiera reaparecieron como antecedentes de los artículos que se empezaron a escribir con ese enfoque3.

La interacción con métodos, herramientas y lenguajes de otras disciplinas tiene aquí especial relevancia. Una vez que ciertos fenómenos no se pueden seguir abstrayendo o negando, la elección de las herramientas formales y empíricas más apropiadas para tratarlos vuelve a ser crucial. Haldane trazó un panorama posible de los cambios en la relación entre el estudio de sistemas naturales complejos y el de las estructuras interconectadas de las economías financieras actuales:

Las finanzas parecen estar siguiendo las huellas […] de los ecologistas, pero con un rezago generacional. Hasta hace muy poco, los modelos matemáticos financieros señalaban los efectos estabilizadores de las redes financieras complejas. Conectividad significaba dispersión del riesgo. La experiencia del mundo real parecía confirmar esa lógica. Entre 1997 y 2007, golpeado por choques de los precios del petróleo, guerras, la manía puntocom, el sistema financiero se mantuvo firme; parecía capaz de autorregularse y autorrepararse. Ecos de la ecología de los años 50 sonaron fuerte y lejos. Los últimos 18meses han revelado un sistema que ha mostrado no ser capaz de regularse ni repararse a sí mismo. Al igual que las selvas tropicales, al enfrentar una gran perturbación, el sistema financiero ha corrido, en ocasiones, el riesgo de ser no renovable. Muchas de las razones para esto tienen paralelos en otras disciplinas. En particular, al tratar de darle sentido a la dinámica reciente de las redes financieras, cuatro mecanismos parecen haber sido importantes: conectividad, retroalimentación, incertidumbre e innovación (Haldane, 2009, 9).

El giro ontológico no podía dejar de llegar hasta la evidencia empírica. ¿Los datos disponibles son los mejores para entender y predecir el comportamiento de economías financieras complejas? ¿Captan los cambios subyacentes en el riesgo, la liquidez, el endeudamiento? Gorton y asociados (Brunnermeier et al., 2011b; Gorton y Metrick,2012a) piensan que no y parten de un hecho incontrovertible: los índices disponibles solo captan instrumentos líquidos y balances, dejan por fuera un elemento decisivo: el riesgo. Para superar esa situación proponen construir e implementar un sistema de índices que capte el riesgo sistémico y la liquidez subyacentes a las operaciones financieras. He aquí su formulación más directa: "La idea básica detrás de la métrica de medición es recuperar, en forma regular, la sensibilidad de las firmas financieras a un número previamente especificado de factores y escenarios" (Brunnermeier et al., 2011b, 2).

Dos mediciones son fundamentales en este ejercicio: primera, medir el dólar ganado o perdido cuando uno de los factores relevantes cambia y, segunda, medir los cambios en la liquidez, en términos de pérdida o ganancia de capital por el cambio de precios de ciertos activos. La segunda permite calcular el índice de desajuste de liquidez (LMI, por sus siglas en inglés). La idea es captar los cambios subyacentes en la liquidez, no solo de cada firma individual, sino del conjunto de firmas y de sus interacciones en los mercados financieros. No es difícil ver cuán útil sería combinar la información derivada de la métrica de Gorton y asociados con las estructuras de redes complejas interconectadas que proponen Haldane (2009) y Gai y Kapadia (2010).

Esos autores aspiran a que su métrica induzca cambios significativos en la modelación macroeconómica. Más en concreto, a que los agregados financieros derivados de su estrategia empírica sean replicados por los modelos de macroeconomía financiera por venir (Brunnermeier et al., 2011b). Su optimismo se basa en una lectura ingenua del papel de los hechos estilizados en la elevación del modelo de crecimiento de Solow (1970) a modelo básico de los nuevos economistas clásicos (Kydland y Prescott, 1990). Pero como explica el mismo Solow, los seis hechos estilizados de Kaldor eran lo que "un modelo bien contado" de crecimiento debería ser capaz de reproducir. Es decir, un efecto de lo que la teoría era capaz de replicar en sus modelos. Su alcance estaba determinado por el alcance de los modelos teóricos disponibles. Se podía dudar si eran hechos o no, pero no de su carácter estilizado: eran un reflejo de lo que la teoría podía reproducir. El éxito del modelo de Solow no estuvo en haber tomado esos hechos estilizados como punto de partida, sino en el giro teórico inducido por la introducción del cambio técnico en la función de producción y en la estructura compacta y flexible de su modelo. Y fue este último rasgo el que llevó a Prescott y Kydl and a elegir el modelo de Solow como herramienta básica de modelación.

Pero nada de esto implica que se hubiera llegado al núcleo firme del programa, o que los nuevos mecanismos y métodos hubieran viajado hacia el núcleo de la teoría, transformándola o generando puntos de fuga. La asimetría señalada más atrás se mantuvo a pesar de todo. Una de las lecciones de este episodio es que los cambios ontológicos y el reconocimiento de nuevos hechos estilizados no generan por sí mismos incompatibilidades con el núcleo firme, ni cambios en las estrategias de modelación. Un programa de investigación es fuerte cuando convierte las anomalías en modelos más ricos en consecuencias empíricas, y el carácter incompleto de sus predicciones en un impulso para generar teorías de mayor alcance.

EN LA FRONTERA DE LA MACROECONOMÍA FINANCIERA

La reacción programática más clara en los días siguientes a la crisis financiera fue la de Markus Brunnermeier (2009b). El economista de Princeton propuso un programa reduccionista para la macroeconomía, cuyo principal objetivo sería incorporar las fluctuaciones económicas de gran tamaño en la secuencia de modelos DSGE que hoy constituyen la herramienta básica de los macroeconomistas:

Es un llamado a los economistas para desarrollar aún más nuestras herramientas [...] para integrar las intuiciones que los economistas financieros han desarrollado acerca de las fricciones y la formación de burbujas en los modelos completos, macro y monetarios, de equilibrio general estocástico y dinámico en los que los macroeconomistas han estado trabajando. Juntar a los economistas financieros con los economistas monetarios y macro para enfrentar el desafío de construir un nuevo modelo básico que incorpore fricciones financieras sería un primer gran paso en esta importante (y fascinante) tarea(Brunnermeier, 2009b).

Su propuesta se situaba, sin duda, dentro del programa dominante. Partía de una intuición optimista: bastaría integrar las intuiciones de los economistas financieros y el uso de herramientas matemáticas más finas para generar los nuevos modelos DSGE que darían cuenta del fenómeno ocurrido. Pero la búsqueda de las nuevas herramientas que ayudarían a modelar esas intuiciones hizo que el trabajo de Brunnermeier diera un giro que podría haberlo conducido por un camino menos simplista que el sugerido por su propuesta inicial. Este giro se aprecia en una propuesta de investigación para la National Science Foundation, en la que Brunnermeier et al. (2010) sugerían una nueva agenda de investigación, que no solo daría cuenta de la inestabilidad derivada del sector financiero, sino que produciría, eventualmente, los modelos, los datos y el acceso a los datos indispensables para detectar y superar el riesgo sistémico.

Después de reconocer el estado primitivo (ibíd., 2) de la modelación en ese campo, señalaron el carácter excesivamente estilizado de las consecuencias macroeconómicas de las fricciones financieras, y osaron proponer la necesidad de un enfoque más integrado para estudiar los desafíos generados por las innovaciones financieras y la creciente interconectividad del sector financiero:

Investigaciones provenientes de distintas áreas pueden ser catalizadores útilespara esta nueva agenda de investigación, pero requieren amplia modificación, extensión e integración. Por ejemplo, un enfoque intrigante para modelar la interacción de firmas financieras es ver la industria financiera como una red. Modelos de redes han sido usados en varias disciplinas, incluyendo la economía y otras ciencias sociales. Cuando se aplican a los mercados financieros, capturan efectos directos de derrame tales como el riesgo crediticio de las contrapartes. El estudio del riesgo sistémico requiere también estudiarlos derrames indirectos que ocurren a través de los precios que vacían los mercados porque en una situación de crisis estos efectos indirectos prometen una mejor forma de entender las consecuencias sistémicas de la falla de un componente clave de una red financiera (ibíd., 4).

Pero en la frase siguiente aparece un giro revelador que los lleva a retomar ciertos protocolos de investigación del PINC, y que refleja la tensión entre los métodos dominantes y el uso de herramientas provenientes de otras disciplinas: "Para impulsar este enfoque en direcciones cuantitativas será necesario recurrir a investigación anterior realizada en otros campos y a que cuenten con modelación cuantitativa y calibración empírica" (ibíd.).

La tensión entre las nuevas herramientas y los métodos establecidos puede verse en los párrafos siguientes, en los que reconocen, por un lado, las limitaciones de la teoría de la aversión al riesgo para tratar la incertidumbre en contextos complejos, y la necesidad de usar métodos de otras disciplinas, y confirman, por otro lado, el éxito del programa de investigación en diseño de mecanismos e incentivos en presencia de información privada. Pero es difícil ver qué tan útil puede ser el diseño de mecanismos para estudiar y predecir el comportamiento de sistemas financieros complejos.

Ahora bien, ¿dónde se han elaborado los nuevos modelos macro para predecir fluctuaciones sistémicas? En la macro ortodoxa, el estudio de las crisis financieras corresponde a la modelación de fricciones financieras –una sub especialización con pocos adherentes, y en hibernación virtual durante el estallido de la crisis. La exhaustiva reseña de modelos macro con fricciones financieras, realizada por Brunnermeieret al. (2012, 3), muestra la evolución y las consecuencias teóricas de lo que se ha hecho hasta ahora. Un giro ontológico que postula la existencia de dos mundos posibles: uno sin fricciones financieras donde los fondos de capital son líquidos y fluyen hacia los agentes más productivos, y un mundo donde la liquidez, el endeudamiento y la distribución de la riqueza tienen consecuencias sobre el producto real y la evolución de la economía. El primero es el mundo en el que los teóricos y los reguladores basaron sus predicciones y creencias en los últimos treinta años. El segundo es un mundo donde las fricciones financieras pueden conducir a procesos endógenos adversos y persistentes capaces de extenderse al sector real y generar, en ciertas condiciones, crisis sistémicas globales.

La aparición súbita de este segundo mundo posible no fue resultado de la evolución natural del conocimiento en las fronteras de la macroeconomía, la economía financiera y monetaria, sino de la magnitud de la crisis de 2007-2009, que llevó a sus mejores especialistas a reconsiderar los mundos posibles en que estaban trabajando. La entrada súbita de bancos, financiación por fondos externos y finanzas basadas en el mercado a los nuevos modelos macroeconómicos es el efecto más visible de ese giro4.

UN ATAJO POR LO REAL: LOS NUEVOS HECHOS ESTILIZADOS

Después de 2008, esos modelos pioneros se empezaron a leer con los lentes de quienes desean convertir la generación de fluctuaciones financieras en un rasgo permanente de los modelos macroeconómicos más avanzados. Se trata de evaluar hasta qué punto los modelos construidos, en mundos posibles ligeramente alterados, reproducen los hechos estilizados conocidos después de la crisis. O, mejor, qué tambien "replican" los hechos estilizados que empezaron a decantarse de los estudios empíricos posteriores a 2008. Lo que nos lleva al corazón del cambio en el conocimiento económico. Postular nuevos mundos posibles no afecta, en un sentido crucial, las estrategias de modelación de quienes se sitúan en la frontera del conocimiento. Nadie renuncia a sus creencias, heurísticas y modelos ejemplares cuando trata de ampliar el espectro de sus modelos para explicar los nuevos hechos observables. Los eventos del mundo real –no importa cuán grande sea su tamaño– no afectan per se la confianza de los científicos en sus estrategias de modelación y los principios compartidos.

Por el contrario, se convierten en desafíos para explicar, predecir y producir los nuevos hechos estilizados descubiertos con la heurística, las herramientas y las exigencias de modelación de su programa de investigación. "Replicar" los nuevos hechos, respetando las exigenciasy restricciones de las estrategias de modelación dominantes, hace más atractivo el desafío. En vez de socavar la confianza en sus herramientas y restricciones, incentiva la búsqueda de mejores técnicas y recursos de modelación. El estatus de los economistas que trabajan en la frontera depende de su capacidad para enfrentar los desafíos técnicos planteados por los hechos estilizados que ellos mismos producen. Si los modelos ejemplares y las estrategias de modelación disponibles dan cuenta de los nuevos hechos empíricos y resuelven los enigmas inéditos sugeridos por la investigación empírica y los desarrollos endógenos de la teoría, no tendría sentido elegir estrategias ajenas a su programa de investigación.

Es lo que han hecho, con gran solvencia técnica, Brunnermeier, Shin, Adrian, Gorton, Woodford y asociados. Si el desafío impuesto por la crisis de 2007-2009 es técnico, el problema es cómo generar de la manera más efectiva y elegante posible, dentro de las restricciones y exigencias de los modelos DSGE, grandes fluctuaciones en economías financieras complejas. El desafío ha tomado la forma de construir modelos que reproduzcan los hechos estilizados que describirían una economía financiera contemporánea. Estos hechos no son observables en sentido estricto: se derivan del alcance predictivo de los modelos teóricos que se construyen para producirlos. Igual que en el pasado, son los hechos que los nuevos modelos son capaces de reproducir.

Aunque Brunnermeier y Sannikov (2011a) no enuncian en forma explícita los hechos estilizados que su modelo con sector financiero debería producir, es fácil encontrar el hecho estilizado que pretenden reproducir: episodios de crisis que "hunden al sistema en un régimen de alta volatilidad" (ibíd., 2). Es, por tanto, el modelo que enfrenta ese desafío en forma más pura y directa. Si el hecho estilizado único es la posibilidad de que ocurran crisis con alta volatilidad, el problema técnico es cómo introducir, en un modelo DSGE, los procesos endógenos de retroalimentación y amplificación adversos que situarían a la economía por debajo de su estado estocástico estable.

La alternativa más optimista es que la adición de un módulo con procesos de retroalimentación adversa amplificados, que producen fuertes efectos no lineales, sería suficiente para combinar grandes fluctuaciones con un equilibrio dinámico estocástico. Eso es, en efecto, lo que ellos intentan. Siguiendo la tradición de los modelos de fricciones financieras con agentes heterogéneos, suponen una clase de agentes expertos que tienen más habilidad para invertir en activos productivos. Cuando ocurren choques con pérdidas significativas, los expertos reducen sus posiciones para protegerse de la vulnerabilidad inducida por los choques; esto afecta los precios de los activos y desencadena procesos de retroalimentación que refuerzan la caída de precios y de la actividad económica. Las consecuencias son evidentes:

Se sigue que, por debajo del estado estable, cuando los expertos se sienten más restringidos, el sistema deviene menos estable y la volatilidad se dispara. Los precios de los activos exhiben colas gruesas debido al riesgo sistémico endógeno más que a eventos extraños supuestamente exógenos (ibíd., 3).

Pero la adición del módulo de retroalimentación no es del todo inocua. Produce resultados "sorprendentes" frente a las intuiciones dominantes en esa tradición:

Planteamos que es típico que el sistema entre en episodios volátiles ocasionales lejos del estado estable porque la toma de riesgo es endógena. Esto puede parecer sorprendente, porque se podría intuir que la linealización logarítmica cerca del estado estable es una aproximación válida cuando los parámetros de riesgo exógeno son pequeños. En nuestro modelo esta intuición sería incorrecta, porque los expertos eligen su apalancamiento endógenamente en respuesta al riesgo de los activos que poseen. [...] De hecho, nuestros resultados sugieren que contexto de bajo riesgo exógeno conduce a un mayor crecimiento del riesgo sistémico (ibíd.).

Las colas gruesas y el alto riesgo sistémico endógeno (así como el bajo riesgo exógeno, su complemento) son incompatibles con la hipótesis de mercados eficientes. Tampoco pertenecen a la secuencia de modelos y creencias que los macroeconomistas compartieron durante los últimos treinta años. Pero la modelación sigue los estándares dominantes: resolver el equilibrio dinámico, derivando las condiciones para el capital óptimo de hogares y agentes expertos, y determinar precios, inversión y consumo en forma simultánea. Como es usual en este tipo de modelos, los autores derivan las condiciones de equilibrio que deben satisfacer las ecuaciones estocásticas del precio del capital y del valor neto, y muestran que la dinámica del modelo puede ser descrita por una variable de estado única en función de la cual se obtienen el precio del capital y el valor neto (ibíd., 12). El procedimiento es similar al que utilizan Adrian et al. (2012) y Daniel son et al. (2012).

Todos los modelos citados buscan diferenciarse por su capacidad para generar rasgos o hechos estilizados que los demás no pueden replicar, manteniéndose dentro del marco de los modelos DSGE. La posibilidad de alejarse de la modelación estándar, capitalizar puntos de fuga potenciales o profundizar las incompatibilidades con los modelos ejemplares es acotada por las exigencias que los investigadores se ponen a sí mismos. El exceso de contenido empírico toma la forma de hechos estilizados que solo divergen de la modelación estándar en la adición de módulos que generan procesos endógenos de amplificación del riesgo sistémico (Brunnermeier y Sannikov,2011a), apalancamiento procíclico y fluctuaciones debidas a cambios en la composición e intermediación del crédito (Adrian et al., 2012;Danielson et al., 2012).

Adrian et al. (2012, 45) lanzan un desafío teórico explícito a la nueva ola de modelos de equilibrio general dinámico elaborados después de la crisis financiera. Este desafío no se agota en lo técnico: da un rodeo inesperado por el mundo real y exige la incorporación de rasgos básicos de las instituciones financieras. El problema no es tanto modelar los fenómenos observados sino encontrar y replicar los fenómenos empíricos correctos. Lo que requiere, sin duda, saber cómo funcionan en realidad las instituciones financieras; algo que no parecía pertenecer al mundo de la macroeconomía teórica hasta los sucesos de 2007-2009. Su revisión de los artículos más notorios de esa tradición es implacable al mostrar cuán lejos se encuentran de replicar los hechos estilizados que ellos sugieren: todos, los más recientes y los que han elaborado los autores más importantes, solo replican uno o dos de esos hechos.

Sin embargo, situados en el primer nodo de nuestro esquema de trayectorias posibles, debemos aceptar que, en términos de los modelos elaborados, los autores eligieron injertar en el programa vigente los nuevos hechos estilizados, los procesos de amplificación adversa y las nuevas técnicas requeridas para generar grandes fluctuaciones. Es decir, lo que prometía ser una excursión fuera del programa de investigación dominante terminó de vuelta a sus dominios.

Adrian et al. (ibíd., 35 y 48) parten de establecer los hechos estilizados que se podrían usar como guía del ejercicio de modelación microeconómica acostumbrado:

  1. Los bancos y la financiación con bonos son cuantitativamente importantes en la provisión de crédito a las empresas no financieras.
  2. En las crisis financieras, y en las recesiones en general, el crédito en forma de préstamos se contrae, mientas que la financiación con bonos crece para llenar la brecha.
  3. Los márgenes (spreads) crecen para ambos tipos de endeudamiento durante las recesiones.
  4. Los préstamos bancarios cambian dólar por dólar con variaciones de la deuda, manteniendo "fijo" el valor del capital. Por tanto, la oferta de crédito de los bancos depende de su elección de apalancamiento.
  5. El apalancamiento bancario es procíclico: es alto cuando los activos son grandes.

Ese camino implica establecer primero los hechos empíricos estilizados que guiarán la modelación. No es una elección anodina. Tomar el atajo del conocimiento de lo real, para captar los cambios institucionales en la financiación bancaria y en la financiación con activos, es desviarse de la modelación estándar. Pese a su importancia, ese atajo no los ha llevado muy lejos. El regreso a lo microeconómico supone también el regreso a las formas ejemplares de modelación, mediante la micro fundamentación de los hallazgos empíricos, y la vuelta al núcleo firme del programa y al uso eventual de sus módulos básicos, integrando de paso los procesos procíclicos adversos exigidos por esos hechos. El producto final es un modelo de crédito directo e intermediación a través de bonos. Como ellos advierten, no es todavía un modelo de equilibrio general dinámico, sino un paso necesario para replicar los hechos empíricos encontrados. Así, su camino de investigación es reduccionista y la posibilidad de concretar los puntos de fuga potenciales se desvanece desde el comienzo.

Eso no quiere decir que su estrategia sea igual a la de otros autores que hoy siguen el mismo programa. Por el contrario, Adrian et al. Señalan que si bien otros economistas han modelado el carácter procíclico del crédito, y otros han sugerido la sustitución entre financiación con bonos o con préstamos, ningún otro modelo capta sus cinco hechos estilizados, como sí los capta el suyo. Su crítica va más allá: ponen en cuestión qué tan promisoria es la oleada de modelos de equilibrio general basados en fricciones financieras. Su juicio es negativo. Sin alejarse del marco de los modelos DSGE, proponen una línea de investigación que privilegia el conocimiento empírico de las instituciones financieras y la modelación explícita de los mecanismos reales que gobiernan las decisiones de bancos y firmas sobre crédito y apalancamiento en situaciones de crisis.

En un artículo posterior, Danielson et al. Avanzan por ese camino al "completar el círculo entre apalancamiento y volatilidad, endogenizando el carácter procíclico del apalancamiento" (2012, 34). A diferencia de otros modelos que tratan el mismo fenómeno, el suyo abandona el supuesto de preferencias logarítmicas de los inversionistas –que garantizaba el carácter contracíclico del apalancamiento– para hacerlo procíclico, como ocurre en la realidad, coincidiendo con el tratamiento que Gorton (2010) y Gorton y Metrick (2012a) proponen para el crecimiento de los recortes en los préstamos repo5 y sus implicaciones estructurales. Su logro va más allá de replicar los hechos estilizados: trata la circularidad entre volatilidad y apalancamiento mediante una solución de forma cerrada, extensible a otras áreas y a situaciones con múltiples activos. Una vez más, el rodeo por la realidad lleva de regreso a la ortodoxia: los autores valoran el haber llevado la discusión sobre crisis financieras de vuelta al estudio de la literatura clásica sobre los efectos de la volatilidad. Una trayectoria que los lleva hacia el pasado, hasta un texto clásico de Fisher Black (1976).

¿DÓNDE ESTÁN LOS PROGRAMAS RIVALES?

Consideremos esta descripción de una crisis financiera sistémica:

En consecuencia, para perturbaciones pequeñas la amplificación es limitada. Sin embargo, en respuesta a pérdidas más significantes, los expertos eligen reducir sus posiciones, afectando los precios de los activos y desencadenando circuitos de amplificación. Entre más fuerte sea la reacción de los precios delos activos a perturbaciones en el valor neto de los expertos, más fuerte elefecto de retroalimentación que causa mayores caídas en el valor, debido a la depresión en los precios. Por tanto, por debajo del estado estable, cuando los expertos se sienten más restringidos, el sistema deviene menos estable en la medida en que la volatilidad se dispara. Los precios de los activos exhiben colas gruesas debido al riesgo sistémico endógeno más que a eventos extraños supuestamente exógenos (Brunnermeier y Sannikov, 2011, 3).

El lenguaje de esta descripción está muy lejos de los conceptos, herramientas y mecanismos usuales en la presentación verbal de los resultados de los modelos DSGE. Más allá de la obvia heterogeneidad de los agentes, los conceptos de circuito o bucle de amplificación, retroalimentación positiva, sistema y colas gruesas, y sus mecanismos correspondientes, no pertenecen al lenguaje de la secuencia ortodoxa de modelos macro. De hecho, los conceptos y mecanismos mencionados pertenecen al campo de la complejidad (Mitchell, 2011). ¿Se ha integrado la macroeconomía financiera a las ciencias de la complejidad? No, de ninguna manera.

Mientras que en el lenguaje descriptivo es evidente la influencia de los desarrollos en complejidad y econofísica, en el lenguaje formal de estos modelos macroeconómicos los mecanismos complejos se integran a los módulos básicos de esa tradición. Los puntos de fuga potenciales correspondientes a la complejidad, los mecanismos de retroalimentación y amplificación y las colas gruesas no se concretan y quizás nunca se concreten, a menos que un descubrimiento de gran magnitud haga imposible seguir trabajando dentro del programa dominante, y nuevas generaciones de economistas elaboren una vigorosa secuencia de nuevos modelos.

¿No hay entonces programas alternativos que puedan competir con el dominante? Sí los hay, pero, o están fuera de la economía –y quizás lo sigan estando durante un lapso imposible de predecir–, o son marginales dentro de la profesión. El candidato más fuerte como serio rival del PINC es la econofísica, ideada en su vasta mayoría por físicos en los últimos diecisiete años (Mategna y Stanley, 2000; Rickles,2007). Desde que, en 1995, H. Eugene Stanley y Rosario Mategna publicaron el primer artículo en el campo, que acuñó el nombre que aún lleva, la econofísica no ha dejado de crecer, en adherentes y en publicaciones, sin penetrar en el territorio de la disciplina económica. Los pocos puentes trazados entre ambos programas son personales6 y solo involucran cambios en las estrategias de modelación de los economistas que, por razones fortuitas, cooperaron con los físicos en el estudio de los mercados financieros.

Los econofísicos modelan las fluctuaciones de precios de los activos financieros como un resultado macroscópico de la interacción entre gran número de agentes. Así mismo, modelan las fluctuaciones de las variables agregadas de una economía financiera como resultado de la evolución de un sistema complejo compuesto por numerosas partes, de cuya interacción surgen resultados no triviales y no lineales. En su interpretación más fuerte, esos resultados devienen leyes universales. Por ejemplo, los econofísicos consideran las leyes de escala, es decir, la repetición del mismo fenómeno a cualquier escala, como una ley universal de las economías financieras, compatible con todo tipo de interacción entre agentes o con cualquier micro estructura. El descubrimiento inicial de que las variaciones de precios de los activos financieros seguían una distribución libre de escala tipo Pareto-Lévy, realizado por Mandelbrot en los años sesenta, es hoy mucho más que un hecho estilizado: se interpreta como una ley emergente que no depende de los detalles microscópicos del sistema descrito (Rickles,2007, 23).

Aceptar que la economía agregada es un sistema complejo con propiedades emergentes (es decir, resultado de la interacción no trivial entre las partes del sistema), con leyes universales también emergentes, supondría abandonar algunos módulos básicos del PINC. Es obvio que el agente representativo no tiene cabida en una economía vista como sistema complejo, ni la hipótesis de expectativas racionales en su versión más fuerte. En un mundo dominado por leyes emergentes es irrelevante que los agentes puedan prever el futuro a la perfección o que conozcan todas las distribuciones de probabilidad objetivas. Y que el agente representativo pueda tomar decisiones óptimas en todos los nodos de decisión: los agentes con esa capacidad podrían ser compatibles con un mundo donde el estado de las variables agregadas resulta de la interacción entre muchos agentes optimizadores. O con uno donde no tengan esa capacidad. Ambos supuestos serían irrelevantes para establecer las leyes emergentes de sistemas financieros complejos.

Los pocos economistas (Rickles, 2007, 25-27) que toman enserio el trabajo de los econofísicos no dejan de expresar dudas sobre el alcance de las leyes que estos encuentran y, sobre todo, acerca del carácter complejo de la economía y la identificación de los procesos dinámicos que generan las distribuciones encontradas. Las críticas y las exigencias de los economistas podrían ser aplicables incluso a leyes de la física (no solo de la física estadística). En general, reflejan más su resistencia a renunciar a métodos refinados durante años que al genuino interés por la aplicación de ciertos hallazgos de la estadística física al estudio de la economía.

Pero algo más dificulta el avance del programa de la econofísica en el campo de la economía. La econofísica solo se ocupa del comportamiento agregado de los mercados financieros, y no estudia otras áreas que la economía estudia desde hace tiempo. Es decir, la intersección entre los dos programas se reduce, por ahora, al estudio de la dinámica agregada de los mercados financieros. El territorio restante estaría por fuera de los dominios de la econofísica. Dada la organización del PINC, los puntos de fuga se sitúan en su cinturón protector. Por ello, la complejidad, las colas gruesas en las distribuciones y los mecanismos de retroalimentación penetraron en el campo de la macroeconomía financiera sin poner en cuestión los módulos básicos del núcleo firme del PINC.

Es más: los artículos de frontera en macro financiera ni siquiera citan los estudios de los econofísicos sobre la dinámica de los mercados financieros7 y solo citan, como curiosidad, los trabajos de economistas heterodoxos sobre la volatilidad endógena de las economías modernas. Los casos de Minsky (1986, 1982, 1977), Kindlerberger (2000) y Keynes (1936, 1937) muestran que el camino de modelación dominante impide tomar en serio a quienes trabajan desde otra óptica. En el mejor caso, son pensadores marginales con una intuición maravillosa que jamás produjo modelos útiles para construir nuevos modelos en el presente.

El desconocimiento del trabajo de los economistas heterodoxos en el campo de la macroeconomía y de la dinámica financiera se extiende más allá de los trabajos clásicos citados: los artículos de los economistas heterodoxos de hoy no son citados desde la ortodoxia. Por razones de espacio y de enfoque este artículo no se ocupa de las alternativas heterodoxas actuales, pero no las desconoce: su situación y aportes merecen ser estudiados en detalle en otro artículo8.

Al mismo tiempo, los econofísicos más radicales (Bouchaud,2008, 2009) piden una revolución científica en la economía, en la que desaparecerían el agente representativo, la microeconomía y la macroeconomía, para recomenzar todo desde cero. Pero, como el propio Bouchaud reconoce, los econofísicos están muy fuera de la disciplina económica para inducir una revolución científica en sus dominios.

CONCLUSIÓN

La crisis financiera global no desencadenó una crisis en la teoría económica. En la mayoría de sus vastos dominios, el PNIC sigue activo como siempre. En macroeconomía financiera, sus adherentes más avanzados construyen modelos que generan grandes fluctuaciones económicas, incluyen mecanismos de amplificación adversa, admiten colas gruesas en la distribución de las variaciones de los precios de los activos financieros y consideran procíclico el apalancamiento. Es un giro ontológico nada insignificante que no ha producido, sin embargo, cambios decisivos en la estrategia de modelación. Los módulos básicos han sido preservados en el interim, privilegiando el virtuosismo técnico y la fundamentación microeconómica de la dinámica agregada.

Los puntos de fuga potenciales y las probables incompatibilidades entre mecanismo de amplificación, retroalimentación positiva y colas gruesas, de un lado, y principios básicos de los modelos DSGE, del otro, aún no se han concretado, lo que lleva a pensar que solo la aparición de grandes avances en la modelación alternativa podría inducir incompatibilidades con las creencias, opiniones y principios más profundos del núcleo firme del PINC.

Mientras tanto la econofísica –que podría ser un serio competidor en el estudio de los mercados financieros– como las corrientes heterodoxas siguen por fuera de los dominios de la economía dominante, y sus desarrollos no tienen impacto en el tratamiento y la predicción de las grandes fluctuaciones de economías financieras complejas.

La asimetría causal entre los caminos que van del núcleo firme al cinturón protector, y las que irían de campos del segundo al primero, es confirmada por lo que hoy ocurre. Mientras que en macro economía financiera aparecen nuevos hechos estilizados y se introducen mecanismos inéditos de retroalimentación y amplificación, los modelos construidos preservan el núcleo firme y recurren a los módulos básicos. Lo que ocurre en la periferia no afecta al centro, y lo que llega de afuera termina integrado a las estrategias de modelación dominantes. ¿Hasta cuándo podrá el progreso de la macroeconomía financiera seguir un camino que combina nuevos hechos estilizados con una estrategia de modelación conservadora? La respuesta está en lo que ocurra en los próximos años en la turbulenta frontera de la economía financiera, y en el hasta hoy improbable surgimiento de nuevos programas de investigación rivales en los dominios de la economía ortodoxa.


Pie de página

1Feyerabend siempre pensó que la posición de Lakatos sobre el progreso del conocimiento era política más que filosófica. El injerto solo sería una decisión tácticapara trabajar dentro de la teoría dominante, sin romper con ella abiertamente, con el fin deliberado de iniciar un nuevo programa y derrocar el anterior.
2El interés de Vernon Smith en la operación de los mercados financieros surgió con el estallido de la Bolsa de Valores de Nueva York en 1987. Smith et al. (1988) hicieron una serie de experimentos que les permitió explicar el porqué del estallido, y el carácter perverso de la automatización de las reacciones de los agentes para evitar movimientos alejados del equilibrio. Los macro economistas y economistas financieros consideraron que los hechos que ellos encontraron no eran hechos empíricos que merecieran atención. Una moraleja inmediata: los hechos empíricos o experimentales no siempre se convierten en hechos interesantes para la comunidad científica.
3En la última década, autores que trabajan en física estadística y redes complejas han estudiado fenómenos de fragilidad, contagio y cambios de estado en contextos financieros. Pero son trabajos escritos por no economistas, desde fuera de la profesión y sin seguir sus reglas. Por ello, su impacto en la macroeconomía y la economía financiera ha sido mínimo y marginal. El cierre de la economía a otras ciencias, o a la interacción abierta con ellas, después de la consolidación del PINC, es un hecho cuyos efectos en el desarrollo del conocimiento económico no se han tenido en cuenta.
4Algunos economistas ortodoxos trabajaron antes con mundos posibles donde la financiación podía tener efectos sobre las fluctuaciones económicas, desde la nueva síntesis neoclásica (Bernanke, 1989; Bernanke et al., 1999; Kiyotaki y Moore, 1997), introduciendo leves variaciones en el mundo posible elegido. Los primeros postularon un sector corporativo que podía enfrentar fricciones financieras, y los segundos introdujeron agentes que pedían préstamos con garantías que dependían, a su vez, del estado de sus finanzas, afectando su apalancamiento y produciendo eventuales pérdidas de capital y de valor de las garantías usadas, y la aparición de ciclos.
5En una operación repo se intercambia una suma de dinero por una garantía equivalente en bonos, papeles o activos más un interés; el "prestamista" puede devolver la garantía y recuperar su dinero cuando lo crea conveniente. Si los bonos, activos o papeles pierden valor en el mercado, se reciben con un "recorte"(20%, 40%, 60% o 70% del valor original) y una mayor tasa de interés. Como anota Gorton (2010, 7), la firma o inversionista que deposita o presta el dinero financia, de hecho, los bonos o activos que recibe a cambio. Esa es una de las claves del riesgo sistémico involucrado en esas operaciones.
6Un buen ejemplo es la relación entre el economista John Geanakopolos y el físico J. Doyne Farmer, que produjo un texto de extraña franqueza sobre el estatus de la teoría del equilibrio y el futuro de la economía financiera (Farmery Geanakopolos, 2008).
7Ni siquiera como curiosidad citan los trabajos predictivos, anteriores a la crisis global, de Didier Sornette (2003) y sus asociados.
8Aspiro a tratar los desarrollos heterodoxos, y su lugar en la profesión, en un artículo futuro.


REFERENCIAS BIBLIOGRÁFICAS

1. Adrian, T.; P. Colla y H. Shin. "Which financial frictions?: Parsingthe evidence for the financial crisis 2007-2009", NBER Macro Annual Conference, 2012.         [ Links ]

2. Adrian, T. y H. Shin. "Money, liquidity, and monetary policy", Federal Reserve Bank of New York Staff Reports, 360, 2009a.         [ Links ]

3. Adrian, T. y H. Shin. "Liquidity and leverage", Journal of Financial Intermediation 19, 3, 2009b, pp. 418-437.         [ Links ]

4. Allen, F. y D. Gale. "Financial contagion", Journal of Political Economy 108, 2000, pp. 1-33.         [ Links ]

5. Black, F. "Studies of stock price volatility changes", Proceedings of the 1976 Meetings of the American Statistical Association, Business and Economics Statistics Section, 1976, pp. 177-181.         [ Links ]

6. Bernanke, B. S.; M. Gertler y S. Gilchrist. "The financial accelerator in a quantitative business cycle framework", Taylor, J. B. y M. Woodford, Handbook of Macroeconomics, London, Elsevier, 1999.         [ Links ]

7. Bernanke, B. S. y M. Gertler. "Agency costs, net worth, and business fluctuations", American Economic Review 79, 1, 1989, pp. 14-31.         [ Links ]

8. Bouchaud, J. P. "The (unfortunate) complexity of economics", arXiv 0904.0805v1[q-fin.GN], 6 April 2009.         [ Links ]

9. Bouchaud, J. P. "Economics needs a scientific revolution", arXiv 08010.5306 v1 [q-fin. GN], 29 October 2008.         [ Links ]

10. Brunnermeier, M. "Deciphering the liquidity and credit crunch 20072008", Journal of Economic Perspectives 23, 1, 2009a, pp. 77-100.         [ Links ]

11. Brunnermeier, M. "Lucas roundtable: Mind the frictions", The Economist, August 6th, 2009b.         [ Links ]

12. Brunnermeier, M. y M. Oehmke. "Complexity in financial markets", Princeton University, mimeo, 2009c.         [ Links ]

13. Brunnermeier, M.; L. P. Hansen, A. Kashyap, A. Krishnamurthy y A. Lo. "Modeling and measuring systemic risk", 2010, http://ssrn.Com/abstract=1889163.         [ Links ]

14. Brunnermeier, M. E Y. Sannikov. "A macroeconomic model with a financial sector", Princeton University, mimeo, 2011a.         [ Links ]

15. Brunnermeier, M.; G. Gorton y A. Krishnamurthy. "Risk Topography", NBER Macroeconomics Annual 2011, 26, 2011b, pp. 149-176.         [ Links ]

16. Brunnermeier, M.; T. M. Eisenbach e Y. Sannikov. "Macroeconomicswith financial frictions: A Survey", New York, Federal Reserve Bankof New York, 2012.         [ Links ]

17. Caginalp, G.; D. Porter y V. Smith. "Momentum and overreaction in experimental asset markets", International Journal of Industrial Organization 18, 2000, pp. 187-203.         [ Links ]

18. Cochrane, J. H. "How did Krugman get it so wrong?", University of Chicago, mimeo, 2009.         [ Links ]

19. Danielson, J.; H. S. Shin y J. P. Zigrand. "Procyclical leverage and endogenous risk", Princeton University, mimeo, 2012.         [ Links ]

20. De Vroey, M. "Lucas on the Lucasian transformation of macroeconomics: An assessment", University of Louvain, mimeo, 2010.         [ Links ]

21. De Vroey, M. "New classical/real business cycle macroeconomics: Theanatomy of a revolution", First International Symposium on the Historyof Economic Thought, University of Sao Paulo, 3-5 August 2009.         [ Links ]

22. Fama, E. F. "A conversation with the intellectual father of the efficient market theory, Eugene Fama", The Region, December 2007.         [ Links ]

23. Farmelo, G. "A revolution with no revolutionaries: The Planck-Einstein equation for the energy of a quantum", Farmelo, G., ed., It must be beautiful: Great equations of modern science, London, Granta, 2002, pp. 1-27.         [ Links ]

24. Farmer, J.D. y J. Geanakopolos. "The virtues and vices of equilibrium economics and the future of financial economics", 2008. arXiv,0803.2996vol1 [physics.soc-ph] 20 March.         [ Links ]

25. Feyerabend, P. Against method [1975], London, Verso, 2010.         [ Links ]

26. Feyerabend, P. "Consolations for the specialist", Lakatos, I. y A. Musgrave, eds., Criticism and the growth of knowledge, New York, Cambridge University Press, 1970, pp. 197-230.         [ Links ]

27. Freixas, X., B. Parigi y J. C. Rochet. "Systemic risk, interbank relations and liquidity provision by the central bank", Journal of Money, Credit and Banking 32, 2000, pp. 611-638.         [ Links ]

28. Gai, P., A. Haldane y S. Kapadia. "Complexity, concentration and contagion", Journal of Monetary Economics 58, 5, 2011, pp. 453-470.         [ Links ]

29. Gai, P. y S. Kapadia. "Contagion in financial networks", Bank of England, Working Paper 383, 2010.         [ Links ]

30. Geanakopolos, J. "What's missing form macroeconomics: Endogenous leverage and default", Cowles Foundation Paper 1332, 2011.         [ Links ]

31. Gjerstad, S. y V. Smith. "Monetary policy, credit extension and housing bubbles: 2008 and 1929", Critical Review 21, 2009, pp. 269-300.         [ Links ]

32. Gorton, G. Slapped by the invisible hand, New York, Oxford University Press, 2010.         [ Links ]

33. Gorton, G. 2012. Misunderstanding financial crisis: Why we don't see them coming, New York, Oxford University Press.         [ Links ]

34. Gorton, G. y A. Metrick. "Securitized banking and the run on Repo", Journal of Financial Economics 104, 3, 2012a, pp. 425-451.         [ Links ]

35. Gorton, G. y A. Metrick. "Entérese rápidamente de la crisis financiera: guía de lectura para un fin de semana", Economía Institucional 14, 26, 2012b, pp. 15-46.         [ Links ]

36. Haldane, A. "Rethinking the financial network", speech delivered at the Financial Student Association, Amsterdam, April 2009.         [ Links ]

37. Kay, J. "The map is not the territory: An essay on the state of economics", September, 2011, [http://ineteconomics.org/blog/inet/john-kay-map-not-territory-essay-state-economics]         [ Links ].

38. Keynes, J. M. "The general theory of unemployment", The Quaterly Journal of Economics 51, 2, 1937, pp. 209-223.         [ Links ]

39. Keynes, J. M. The general theory of employment, interest and money, New York, Harcourt Brace, 1936.         [ Links ]

40. Kindleberger, C. P. Manias, panics and crashes: A history of financial crisis,New York, Wiley, 2000.         [ Links ]

41. Kirman, A. "The economic crisis is a crisis for economic theory", CESifo Economic Studies 56, 2010, pp. 498-535.         [ Links ]

42. Kiyotaki, N y J. Moore. "Credit cycles", Journal of Political Economy 105,2, 1997, pp. 211-248.         [ Links ]

43. Krugman, P. "How did economists get it so wrong?", New York Times, September 2, 2009.         [ Links ]

44. Kuhn, T. S. Black-body theory and the quantum discontinuity, 1894-1912, Chicago, University of Chicago Press, 1987.         [ Links ]

45. Kuhn, T. S. "Reflections on my critics", Lakatos, I. y A. Musgrave, eds., Criticism and the growth of knowledge. New York, Cambridge University Press, 1970, pp. 231-278.         [ Links ]

46. Kuhn, T. S. La estructura de las revoluciones científicas [1962], México D.F., Fondo de Cultura Económica, 1971.         [ Links ]

47. Kydland, F. y E. Prescott. "Business cycles: Real facts and a monetarymyth", Quaterly Review of the Federal Reserve Bank of Minneapolis, April 1990, pp. 3-18.         [ Links ]

48. Lakatos, I. Historia de la ciencia y sus reconstrucciones racionales, Madrid, Tecnos, 1974.         [ Links ]

49. Lakatos, I. "Falsification and the methodology of the scientific research programmes", Lakatos, I. y A. Musgrave, eds., Criticism and the growth of knowledge, New York, Cambridge University Press, 1970, pp. 91-196.         [ Links ]

50. Lawson, T. "The current economic crisis: Its nature and the course of academic economics", Cambridge Journal of Economics 33, 2009, pp. 759-777.         [ Links ]

51. Lucas, R. "In defence of the dismal science", The Economist, August 6th, 2009.         [ Links ]

52. Mategna, R. y H. E. Stanley. An introduction to Econophysics: Correlations and complexity in finance, New York, Cambridge University Press, 2000.         [ Links ]

53. Minsky, H. P. Stabilizing an unstable economy, New Haven, Yale University Press, 1986.         [ Links ]

54. Minsky, H. P. Can "it" happen again?: Essays on instability and finance, New York, M. E. Sharpe, 1982.         [ Links ]

55. Minsky, H. P. "The financial instability hypothesis: An interpretation of Keynes and an alternative to 'standard' theory", Challenge, March-April, 1977.         [ Links ]

56. Mitchell, M. Complexity: A guided tour, New York, Oxford University Press, 2011.         [ Links ]

57. Rickles, D. "Econophysics and the complexity of financial markets", Collier, J. y C. Hooker, eds., Handbook of the philosophy of science,vol. 10: Philosophy of complex systems, North Holland, Elsevier, 2007.         [ Links ]

58. Smith, V.; G. Suchanek y A. Williams. "Bubbles, crashes and endogenous expectations in experimental spot asset markets", Econometrica 56, 1988, pp. 1119-1151.         [ Links ]

59. Solow, R. Growth theory: An exposition, London, Oxford University Press, 1970.         [ Links ]

60. Sornette, D. Why stock markets crash: Critical events in complex financial systems, Princeton, Princeton University Press, 2003.         [ Links ]

61. Woodford, M. "Macroeconomic analysis without the rational expectations hypothesis", Columbia University, mimeo, 2012.         [ Links ]

62. Woodford, M. "What's wrong with economic models?", Columbia University, mimeo, 2011.         [ Links ]