Foto: Ditchling en la década de 1920

jueves, 25 de octubre de 2012

El viejo “distributismo” cobra nuevo impulso




Por David Gibson, Religion News Service, The Washington Post, 17 de octubre de 2012.

(Nueva York) ¿Puede un teólogo anglicano de Gran Bretaña revivir una teoría de justicia social católica de hace 80 años y dar solución a los problemas económicos y a la polarización política de los Estados Unidos?

Phillip Blond [foto], filósofo y pensador político, piensa que sí, y está empeñando en ello todo lo que tiene.

Blond, que ha sido asesor del primer ministro británico David Cameron, acaba de finalizar una gira de dos semanas por los Estados Unidos para publicitar su versión renovada del “distributismo”, una teoría que argumenta que el capitalismo y el gobierno están fuera de control.

En ese sentido, para los que así piensan, tanto los indignados de Wall Street como el Tea Party están en lo cierto.

“Lo que estamos generando en nuestra sociedad es un nuevo modelo de servidumbre”, declaró Blond el viernes (14 de octubre) en una conferencia que dio en la Universidad de Nueva York. “La retórica del libre mercado no ha producido mercados libres; ha producido mercados cerrados”, y el “capital social” de la nación está en decadencia, dejando detrás individuos aislados y familias fracturadas que deben depender de Washington para sobrevivir.

Con una tormenta de cuadros, Blond demostró gráficamente el quiebre de las normas sociales y de la unidad familiar —y el crecimiento del gobierno que debe encargarse de estos males— así como el mayor dominio de las corporaciones y los ricos en la economía actual.

Es el resultado de la “oscilación entre el colectivismo extremo y el individualismo extremo”, dice Blond. Ambas son manifestaciones del mismo impulso: la concentración del poder, primero en el Estado y luego también en los mercados. Y las “ortodoxias” liberal y conservadora han conducido al mismo resultado destructor de la sociedad.

O, como dijo en forma cortante, el liberalismo, tanto de izquierda como de derecha, “produjo una economía donde la gente piensa que puede aprovecharse del vecino y que todos se harán ricos”.

“Los indignados de Wall Street y el Tea Party son esencialmente expresiones diferentes de un mismo fenómeno”, dijo Blond. Ambos están enojados con la concentración del poder, pero los dos se encuentran en terreno pedregoso cuando exigen salvación a los dioses del mercado o a los del gobierno.

El distributismo, argumenta Blond, llama a una búsqueda más pequeña y local de soluciones (música para el oído de los conservadores clásicos), al mismo tiempo que deja al gobierno central ocuparse de construir la infraestructura y garantizar lo básico como la educación y el cuidado de la salud (ideas que enternecen a cualquier corazón herido).

Pocos saben que Blond ha adoptado la etiqueta de “conservador rojo”, o, lo que los americanos llamarían “derechista rojo” o, tal vez, “socialista del Tea Party”.

De hecho, el distributismo siempre ha sido algo extraño.

La idea se originó en Inglaterra en la década de 1920 con escritores profundamente católicos como G. K. Chesterton y Hilaire Belloc, que fundaron la Liga Distributista católica para desarrollar las teorías inspiradas en la encíclica Rerum Novarum de 1891 de León XIII sobre la justicia social y que desafiaba las problemas emergentes de la era industrial.

La preocupación por la enorme y deshumanizante fuerza del capitalismo y el comunismo ganó algo de peso en la Gran Depresión. Sin embargo, los que abogaban por esta teoría eran tenidos por excéntricos o directamente maniáticos, y fueron criticados como diletantes que “conducían sus automóviles para venir a discutir la abolición de las máquinas”.

Chesterton y Belloc convencía más como escritores que como economistas, y aunque su llamado a proteger a los pequeños comercios más que a las grandes cadenas podía sonar lindo, no tenían mucho que ofrecer en términos de soluciones reales.

Con el crecimiento impresionante de la economía posterior a la Segunda Guerra Mundial, dominada por las superpotencias y los mercados financieros globalizados, el distributismo se convirtió en una nota al pie y, en el peor de los casos, en el equivalente intelectual de los “aplanadores” —neo-medievalistas que propician una economía que se asemejara a la Tierra Media de J. R. R. Tolkien—.

Hasta hace muy pocos años esta teoría no hubiese obtenido demasiada atención.

Pero ahora, el distributismo se ha convertido quizá en la idea más intrigante de las que emergieron de las ruinas del colapso económico del siglo XXI, en no menor medida por el potencial que tiene de tender puentes entre los polos ideológicos que dominan el panorama político en los Estados Unidos.

Blond fue bien ponderado por David Brooks, columnista conservador de The New York Times, y por Adrianna Huffington, magnate izquierdista de los medios, y se encontró con políticos de ambos partidos durante su gira estadounidense. Fue invitado a hablar en la Universidad Católica en Washington por Stephen F. Schneck, el politólogo asesor de Obama, y en Nueva York fue incluido en una reunión a puertas cerradas con Philip K. Howard, el apóstol de las políticas públicas “de bien común” y ex asesor de Al Gore.

¿Pero puede el distributismo encontrar una audiencia dispuesta al cambio radical si apela a los defectos de ambos extremos pero niega sus remedios?

Blond es, sin complejos, un conservador con “c” minúscula. Sus teorías se inspiran en ideales religiosos, pero habla abiertamente de la centralidad de la renovación moral para restaurar la sociedad. Eso lo hace sospechoso para muchos en la izquierda. Pero existe también una vigorosa oposición desde la derecha a las críticas de Blond a los dogmas del libre mercado, sin mencionar su apertura al papel clave del gobierno en muchos sectores.

Dice Blond, por ejemplo, que se vio impresionado por la “sorprendentemente pobre” infraestructura urbana y de transportes que encontró al montar un tren desde Washington hasta Nueva York.

La infraestructura cultural y política estadounidense no es mejor, dijo Blond. Si los estadounidenses no llaman a una tregua en sus guerras culturales y terminan la “parálisis política endémica” que es causada por un sistema de controles y contrapesos, pero no por consensos, va a ser difícil lograr cualquier progreso.

Los norteamericanos, dijo, tienen que sentarse y decidir qué quieren ser como nación —y ésa es una respuesta de largo plazo que puede ser difícil de alcanzar en medio de esta crisis de corto plazo—.

“Es muy difícil ver alrededor de qué se pueden sentar los estadounidenses”, dijo al Religion News Service. “Se necesita una nueva cultura, o una nueva ‘comunalidad’ alrededor de la cual uno pueda asociarse y crear.”

“Y el problema es que no lo tienen porque están metidos en una guerra cultural. Y una vez que uno tiene una guerra cultural, lo que uno tiene es una sociedad fragmentada… lo que quiere decir que se ha convertido en una sociedad que no puede resolver problemas. Lo que es preocupante.”



lunes, 1 de octubre de 2012

Sobre el estado de la ciencia económica



El mapa no es el territorio: 
Ensayo sobre el estado de la ciencia económica

John Kay*, Institute for New Economic Thinking, 26 de septiembre de 2011.

La reputación de la ciencia económica y de los economistas, que nunca fue buena, es una de las víctimas de la crisis económica de 2008. La Reina [de Gran Bretaña] no estaba sola cuando preguntó públicamente por qué nadie la había predicho. Una crítica aún más seria es que el debate sobre la política económica que siguió parece una representación del que tuvo lugar tras 1929. La cuestión está en la disyuntiva austeridad presupuestaria versus estímulo fiscal, y las posiciones de los protagonistas son completamente predecibles en base a sus lealtades políticas previas.

El caudillo de los macroeconomistas modernos, Robert Lucas, respondió la pregunta de la Reina en un artículo escrito por invitación en la revista The Economist de agosto de 2009.[1] La crisis no fue predicha, explicaba, porque la teoría económica predice que tal tipo de eventos no pueden ser predichos. Ante una respuesta como esa, un soberano inteligente va a buscar respuestas en otro lado.

Pero no irá a buscarlas al principal socio de Lucas, que está aún menos dispuesto a pedir disculpas. Edward Prescott, como Lucas, un ganador del Premio Nobel, comenzó un reciente discurso ante un grupo de premiados anunciando que “ésta es una buena época para la economía agregada”. Thomas Sargent, cuyo rol en el desarrollo de las ideas de Lucas ha sido decisivo, aún es más duro.[2] Sargent observa que los críticos como Su Majestad “reflejan una triste ignorancia o un desprecio intencional de lo que trata la macroeconomía moderna”. “Cortadle la cabeza”, tal vez. Pero antes de considerar este tipo de respuestas como ridículas, consideremos por qué estos economistas las consideran apropiadas.

En su conferencia ofrecida al recibir el Premio Nobel de Economía en 1995,[3] Lucas describió su modelo básico. Ese modelo se ha desarrollado convirtiéndose en el enfoque dominante de la macroeconomía actual, llamado actualmente equilibrio general estocástico dinámico. En ese paper, Lucas hace los siguientes supuestos (entre otros): todos vivimos por dos períodos, de igual duración, y trabajamos en uno y gastamos en otro; sólo existe una mercancía y no hay posibilidad de atesorarla o invertirla; sólo existe un único tipo homogéneo de trabajo; no existe ningún tipo de mecanismo de apoyo familiar entre las generaciones más vieja y más joven. Y así otras.

Toda ciencia usa supuestos simplificadores irreales. Los físicos describen el movimiento en un plano sin fricción y la gravedad en un mundo sin resistencia aérea. No porque alguien crea que existe un mundo sin fricción o sin aire, sino porque es demasiado difícil estudiar todo a la vez. Un modelo simplificador elimina factores co-fundantes y se enfoca en un asunto particular que sea de interés. Para poner en práctica ese tipo de modelos, uno debe estar dispuesto a volver a incluir los factores excluidos.  Probablemente uno se encontrará con que esta modificación tiene importancia en algunos problemas y no la tiene en otros —la resistencia del aire hace la diferencia cuando se trata de la caída de una pluma, pero no con una bala de cañón.

Pero Lucas y los que lo siguen, se empeñan sin disimulo en un ejercicio muy distinto, de la clase explicada por la filósofa Nancy Cartwright.[4] La característica distintiva de este enfoque es que la lista de supuestos irreales simplificadores es demasiado larga. Lucas fue explícito en cuanto a sus objetivos: [5] “la construcción de un mundo mecánico artificial poblado por robots interactivos como lo que estudia la economía de manera típica”. Una teoría económica, explica, es algo que “puede ser introducido y corrido en una computadora”. Lucas llamó a las estructuras como éstas “economías análogas”, porque son, de alguna forma, sistemas económicos completos. Se parecen al mundo desde lejos, pero un mundo tan rebajado que todo en él es conocido o puede ser fabricado. Estos modelos se parecen a la Tierra Media de Tolkien o a un juego de computadoras como el “Grand Theft Auto” (GTA).

El creer que todo problema tiene una respuesta, incluso y tal vez especialmente si tal respuesta es difícil de encontrar, llena una necesidad muy humana. Por esa razón, mucha gente tiene obsesión con estos mundos artificiales, como los juegos de computadora, en que pueden verse las conexiones entre las acciones y los resultados. Muchos economistas que persiguen este tipo de enfoques son similarmente a-sociales. Probablemente no es un accidente que la economía sea, por lejos, una de las ciencias sociales con mayor proporción de varones.

Uno puede aprender técnicas o adquirir ideas útiles jugando estos juegos, y algunos lo hacen. Si los compiladores son buenos en su trabajo, como lo son, los efectos de sonido, los eventos y los resultados de los juegos de computadora se parecen a los que escuchamos y vemos —pueden, para utilizar un término que Lucas y sus colegas han popularizado, ser calibrados frente al mundo real. Pero esa correspondencia no valida el modelo de ninguna forma. La naturaleza de estos sistemas auto-contenidos es que las estrategias exitosas son el producto de los supuestos hechos por los autores. Obviamente no se puede inferir que las políticas que resultaron en el Grand Theft Auto sean políticas apropiadas para los gobiernos y las empresas.

Sin embargo, esta correspondencia parece ser lo que los proponentes de este enfoque esperan lograr —e incluso dicen haber logrado. El debate entre la austeridad y el estímulo, en los círculos académicos, es en gran parte un debate sobre la validez de una propiedad llamada equivalencia ricardiana, que se observa en este tipo de modelo. Si el gobierno emprende el estímulo fiscal de gastar más o reducir impuestos, la gente se dará cuenta de que esa política significa mayores impuestos o un menor gasto en el futuro. Incluso si creen estar mejor hoy, se verán más pobres en el futuro, y por una cantidad similar. Anticipando esto, se retraerán y el gasto público reemplazará al gasto privado. La política fiscal será, por lo tanto, ineficaz como medio para responder a la dislocación económica.

En una defensa más extendida del enfoque DSGE, John Cochrane, colega de Lucas en Chicago, presenta la tesis de la ineficacia de la política —reconociendo inmediatamente que los supuestos que levanta “son, como es costumbre, obviamente irreales”.[6] Para la mayoría de la gente, eso puede ser el final de la discusión. Pero no lo es. Cochrane prosigue diciendo que “si uno quiere entender los efectos del gasto público, tiene que especificar por qué los supuestos que llevan a la equivalencia ricardiana son falsos”. Ésta es una exigencia razonable, aunque sea demasiado fácil de satisfacer —como el mismo Cochrane reconoce.

Pero Cochrane no se va a rendir tan fácilmente. Sigue diciendo que “los economistas han pasado una generación dándole vueltas a la teoría de la equivalencia ricardiana y calculando los efectos probables del estímulo fiscal a la luz de esta teoría, generalizando los ‘qué pasa si’ e imaginando los ‘por lo tanto’. Justamente ésta es la forma correcta de hacer las cosas.” El programa que describe Cochrane modifica el modelo básico de un modo mecánico que lo hace más complejo, pero no necesariamente más realista, al introducir parámetros adicionales que llevan etiquetas como “fricciones” o “costos de transacción” —del mismo modo que el compilador de un videojuego puede introducir un módulo nuevo o un efecto de sonido adicional.

¿Por qué es ésta “justamente la forma correcta de hacer las cosas”? Existen, al menos, dos formas alternativas de proceder.  Uno podría construir una economía análoga distinta. Joe Stiglitz, por ejemplo, favorece un modelo que retiene muchos de los supuestos de Lucas pero que da importancia crítica a las imperfecciones de la información.[7] Después de todo, la equivalencia ricardiana requiere que los hogares posean mucha cantidad de información acerca de sus futuras opciones presupuestarias o que, al menos, se comporten como si la tuvieran. Una modificación más radical podría ser un modelo basado en agentes, por ejemplo, que asume que los hogares responden rutinariamente a los eventos de acuerdo con reglas específicas de comportamiento. Estos modelos pueden también ser “introducidos y corridos en una computadora”. No es obvio al comienzo —ni en retrospectiva generalmente— si los supuestos, o conclusiones, de estos modelos son más, o menos, plausibles que las del tipo de modelo que favorecen Lucas y Cochrane.

Pero otro enfoque descartaría en su conjunto la idea de que el mundo económico puede ser descripto por un modelo de aplicación universal en que todas las relaciones claves estén predeterminadas. La conducta económica está influenciada por la tecnología y la cultura, las cuales evolucionan de maneras que, si bien no son aleatorias, no pueden ser descriptas totalmente, o tal vez,  no pueden ser descriptas con las variables y las ecuaciones que son familiares para los economistas. Los modelos, al ser empleados, deben por lo tanto especificar su contexto, de la manera sugerida en un libro reciente por Roman Frydman y Michael Goldberg.[8]

En ese mundo ecléctico, la equivalencia ricardiana no es más que una hipótesis sugerente. Es posible que algunos de sus efectos existan. Un puede ser escéptico acerca de si son muchos efectos y sospechar su tamaño depende de un rango de factores co-fundantes y contingentes —la naturaleza del estímulo, la situación política completa, la naturaleza de los mercados financieros y de los sistemas de seguridad social. Esto es lo que la generación de economistas que siguieron a Keynes hicieron cuando estimaron la función de consumo —intentaron medir cuánto del estímulo fiscal se gastaba— y el “multiplicador” que de ello resultaba.

Pero hoy en día uno no puede publicar artículos similares en las buenas revistas de economía. Se le dirá que su modelo es teóricamente inadecuado —carente de rigor, sin demostrar consistencia. Sería acusado del pecado cardinal de ser “ad hoc”. Rigor y consistencia son las palabras más poderosas en la ciencia económica actual.

Tienen virtudes innegables, pero para los economistas tienen interpretaciones particulares. La consistencia significa que cualquier proposición acerca del mundo debe ser hecha a la luz de una teoría descriptiva y comprensiva del mundo. El rigor significa que las únicas afirmaciones válidas son las deducciones lógicas a partir de supuestos específicos. La consistencia es, por lo tanto, una invitación a la ideología, y el rigor es una invitación a la matemática. Esta curiosa combinación de ideología y matemática es el fundamento de lo que con frecuencia llamamos “economía de agua dulce” —nombre que refleja la proximidad de Chicago, y otros centros académicos como Minneapolis y Rochester, a los Grandes Lagos.

La consistencia y el rigor son característicos del enfoque deductivo que saca conclusiones de un grupo de axiomas —y cuya relevancia empírica depende por completo de la validez universal de sus axiomas. Las únicas descripciones que llenan por completo los requisitos de consistencia y rigor son los mundos completos artificiales, como los del Grand Theft Auto, que pueden ser “introducidos y corridos” en una computadora.

Para muchos, el razonamiento deductivo es la marca de la ciencia, mientras que la inducción —en la que el argumento es derivado de la materia objeto— es la característica del método de la historia y la crítica literaria. Pero ésta es una distinción artificial y exagerada. “La primera sirena de la belleza”, dice Cochrane, “es la consistencia lógica”. Parece imposible que cualquiera que conozca los grandes logros de la humanidad —en el arte, en las humanidades o en las ciencias— pueda realmente creer que la primera sirena de la belleza es la consistencia. Ésta no es la forma en que Shakespeare, Mozart o Picasso —o Newton o Darwin— enfocaron su tarea.

El asunto aquí no es, por lo tanto, la matemática contra la poesía. El razonamiento deductivo de cualquier tipo necesariamente se basa en la matemática y la lógica formal. El razonamiento inductivo se basa en la experiencia y, sobre todo, en la cuidadosa observación y puede, o no, hacer uso de la estadística y la matemática. La mayor parte del progreso científico ha sido inductivo: se observan las regularidades empíricas antes de tener una comprensión clara de los mecanismos que las generan. Esto es cierto incluso en las ciencias duras como la física, y más cierto aún en las disciplinas aplicadas como la medicina o la ingeniería. Los economistas que afirman que las únicas prescripciones válidas de política económica son las deducciones lógicas de un sistema axiomático completo, siguen las recetas de doctores que, con frecuencia, no saben de esas medicinas mucho más de que aparentemente sirven para tratar esa enfermedad. Esos médicos son “ad hoc” sin vergüenzas; aunque tal vez pragmático es un término mejor. Con ironía exquisita, Lucas está a cargo de la cátedra John Dewey, el teórico del pragmatismo norteamericano.

Tal vez se puede criticar a los ingenieros y a los doctores por dar demasiada ponderación a su propia experiencia y a sus observaciones personales. Con frecuencia son escépticos, no sólo respecto a la teoría, sino también en relación a datos que no hayan relevados ellos mismos. Por el contrario, la mayoría de los economistas modernos no realizan observaciones personales de ningún tipo. El trabajo empírico de la ciencia económica, del que hay bastante, consiste predominantemente en el análisis estadístico de grandes series de datos compilados por otra gente.

Pocos economistas modernos, por ejemplo, monitorearían la conducta de Procter & Gamble, recolectarían datos del mercado del acero, u observarían el comportamiento de los corredores de valores. El economista moderno es un médico clínico sin pacientes, un ingeniero sin proyectos. Y dado que estos economistas no parecen relacionarse con los asuntos que preocupan a las empresas reales y a los hogares reales, los clientes no llegan.

Sin embargo, existen muchos trabajos bien remunerados para los economistas fuera de la academia. Ya no en empresas industriales y comerciales, que mayormente han decidido que los economistas no les sirven. Los economistas empresariales trabajan en instituciones financieras, que principalmente los usan para entretener a sus clientes en el almuerzo o hacer publicidad de sus bancos en entrevistas televisivas. Las consultoras económicas emplean a economistas que escriben panfletos dirigidos a los economistas que trabajan en el gobierno o en agencias regulatorias.

El desprecio mutuo entre el economista y la gente práctica no es el resultado del desinterés de la gente práctica en los asuntos económicos —están obsesionados con ellos. Frustrados, basan sus ideas macroeconómicas en un razonamiento inductivo rudimentario, como en los intentos de encontrar algún patrón elemental en los datos —¿la recesión tendrá la forma de una “V” o de una “L”? El libro Freakonomics,[9] que aplica pensamiento analítico simple a los problemas diarios, ha sido un best-seller por muchos años. Ideas elegantemente etiquetadas que resuenan con la experiencia reciente —como el momento Minsky, el punto crítico [10], el Cisne Negro [11]— son absorbidas entusiastamente por la cultura popular.

Si mucho del trabajo de investigación moderna de la profesión del economista está, por lo tanto, desconectada del mundo diario de las empresas y las finanzas, lo mismo puede decirse de lo que se enseña a los alumnos. La mayoría de los finalizan un curso de grado de economía hoy no está equipada para leer el Financial Times. Pueden importar datos del PBI o del índice de inflación minorista desde un paquete estadístico, y lo habrán hecho ya, pero no tienen idea de dónde provienen esos números. Apenas estarán mejor preparados que la gente de la calle para responder a preguntas como “¿por qué las industrias nacionalizadas en Francia fueron más eficientes que las nacionalizadas en Gran Bretaña?”, “¿por qué un maestro de escuela en Suiza recibe un mejor salario que uno en la India?”, o la vieja pregunta filtro de examen, “¿los asientos de cine en Londres son caros porque los alquileres en Londres son caros o viceversa?”

En una defensa muy comentada de su reciente educación de postgrado, Kartik Athreya explica —aprobándolo— que “la mayor parte de mi trabajo de primer año (del doctorado) consistió en escribir definiciones tediosas de resultados internamente consistentes. No analizarlos, sólo definirlos”.[12] Muchas disciplinas incluyen la tediosa adquisición repetitiva de conocimientos básicos —pensemos en el derecho o la medicina— ¿pero puede ser correcto que la esencia de la capacitación avanzada en economía consista en el chequeo de definiciones de consistencia?

Un informe sobre la enseñanza de la economía de hace dos décadas concluyó que los estudiantes debían aprender a “pensar como economistas”. Pero “pensar como economista” se ha llegado a ser interpretado como la aplicación del razonamiento deductivo sobre la base de un conjunto particular de axiomas. Otro premio Nobel de Chicago, Gary Becker, ofrece la siguiente definición: “la combinación de supuestos de conducta maximizadora, equilibrio de mercado y preferencias estables, utilizados de manera continua y consistente, constituyen el centro del enfoque económico”.[13] El Nobel de Becker le fue otorgado por “haber extendido el dominio del análisis microeconómico a un amplio abanico de conductas económicas”. Pero tal extensión no es un fin en sí misma: su valor sólo puede descansar en nuevos estudios de esas conductas.

“El enfoque económico” descripto por Becker no es, en sí mismo, absurdo. Lo que es absurdo es pretender la exclusividad como él hace: la deducción a priori de un conjunto particular de supuestos simplificadores irreales no es una buena herramienta sino “el centro del enfoque económico”. La exigencia de universalidad va adherida a los requerimientos de consistencia y rigor. Creyendo que la economía es como suponen que es la física —en forma no necesariamente correcta—, los economistas como Becker consideran una teoría científicamente válida como una representación de la verdad —una descripción del mundo que es independiente del tiempo, el lugar, el contexto o el observador.  Eso es lo que Prescott tiene en mente al insistir en el término “economía agregada” en vez de macroeconomía —sólo existe una única economía, explica.

El requisito de universalidad, unido al supuesto de consistencia, lleva a la hipótesis de las expectativas raciones y a un conjunto de argumentos agrupados bajo la rúbrica de “la crítica de Lucas”. Si existiese un modelo universal como ése del mundo económico, los agentes económicos deberían comportarse como si tuvieran conocimiento del mismo o, al menos, como si contasen con todo el conocimiento de aquél que está disponible, sino su conducta maximizadora sería inconsistente con las predicciones del modelo. Éste es un argumento de reductio ad absurdum que demuestra la imposibilidad de cualquier modelo universal —dado que las implicancias de la conclusión de la conducta de todos los días son ridículas, el supuesto de un modelo universal es falso.

Pero ésta no es la forma en que dicho argumento ha sido interpretado. Dado que los seguidores de este enfoque creen fuertemente en la premisa—negar que exista un único modelo pre-especificado que determine la evolución de las series económicas sería, según ellos, negar que pueda existir una ciencia económica— aceptan la conclusión de que las expectativas sean conformadas por un proceso consistente con el conocimiento general de ese modelo. Bajo ningún aspecto es la primera vez que gente cegada por la fe o la ideología han seguido premisas falsas hacia conclusiones absurdas —y, como sus predecesores religiosos y políticos, han llegado a creer que aquéllos que no están de acuerdo lo hacen por “triste ignorancia o desprecio intencional”.

Sin embargo, esto no es ciencia, sino lo opuesto. La ciencia practicada apropiadamente siempre es provisoria y abierta a revisión a la luz de nuevos datos o la experiencia; pero la mayoría de la macroeconomía moderna tortura los datos para demostrar la consistencia de una cosmovisión a priori o elabora la definición de racionalidad para hacerla consistencia con cualquier conducta observada.

Esta falacia es bien descripta por Donald Davidson:

“Tal vez es natural pensar que existe una única forma de describir las cosas que llega a su naturaleza esencial, ‘una interpretación del mundo que es correcta’, y, una descripción de ‘la realidad como es en sí misma’. Por supuesto que no existe una ‘interpretación’ o descripción única, ni siquiera en el o los idiomas que dominemos, ni en ningún lenguaje posible. O tal vez deberíamos sólo decir que ésta es una idea sobre la cual nadie ha pensado lo suficiente.” [14]

Y los economistas no han pensado lo suficiente en esto, aunque han sido persistentes intentándolo.

Los modelos económicos no son más, ni menos, que abstracciones potencialmente iluminadoras. Otro filósofo, Alfred Korzybski, lo pone en términos sintéticos: “el mapa no es el territorio”.[15] La economía no es una técnica en busca de problemas sino un conjunto de problemas en busca de una solución. Estos problemas son variados y las soluciones serán inevitablemente eclécticas.

Esto es cierto especialmente al analizar la crisis del mercado financiero de 2008. La afirmación de Lucas de que “nadie pudo haberla predicho” contiene una verdad importante, aunque parcial. No existe base objetiva para predicciones del tipo “Lehman Brothers será liquidada el 15 de septiembre”, porque si así fuese, la gente actuaría con esa expectativa y, muy probablemente, Lehman sería liquidada inmediatamente. El mundo económico, mucho más que el mundo físico, está influenciado por sus propias creencias acerca de él mismo.

Esta forma de pensar lleva, como explica Lucas, directamente a la hipótesis del mercado eficiente —la información disponible ya está incorporada en el precio de los títulos valores. Y ciertamente hay una cuota sustancial de verdad en esto—las posibilidades de crecimiento de Apple y Google, los problemas de Grecia y la Eurozona, todos están reflejados en los precios de las acciones, los bonos y las divisas. La hipótesis del mercado eficiente es una idea iluminadora, pero no es “la realidad en sí misma”. La información se refleja en los precios, pero no necesariamente de manera correcta o completa. Existe una enorme diferencia entre comprender y creer, y las diferentes percepciones acerca del futuro apenas si son perceptibles.

En su respuesta en The Economist, Lucas reconoce que se han descubierto “excepciones y anomalías” de la hipótesis de mercado eficiente, “pero que a los fines de los análisis y pronósticos macroeconómicos son demasiado pequeñas para importar algo”. ¿Cómo puede alguien prever por adelantado no sólo esta crisis sino también cualquier crisis futura, si las excepciones y las anomalías de la hipótesis de mercado eficiente son “demasiado pequeñas para importar algo”?

Se puede aprender bastante acerca de los desvíos a la hipótesis de la eficiencia de mercado y del rol que éstos jugaron en la reciente crisis financiera, a partir de las descripciones periodísticas realizadas por gente como Michael Lewis [16] y Greg Zuckerman [17] que relatan las acciones de algunos individuo que sí los predijeron. El gran volumen de material de este tipo que ha aparecido sugiere distintos caminos que podemos explorar para comprender. Podríamos desarrollar modelos en los que algunos agentes comerciales tienen incentivos alineados con los de los inversores que los financian y otros no. Podríamos describir cómo los precios son productos del choque entre narraciones que compiten entre sí para explicar el mundo. Podríamos apreciar las reacciones humanas naturales que hacen difícil mantener posiciones cortas [es decir, sin la posesión del activo subyacente] cuando éstas generan pérdidas trimestre tras trimestre.

Este pensamiento pragmático, que emplea numerosas herramientas, es una forma mejor de comprender el fenómeno económico que “la combinación de supuestos de conducta maximizadora, equilibrio de mercado y preferencias estables, utilizados de manera continua y consistente” —y la exclusión de cualquier otro enfoque “ad hoc”. Un análisis más ecléctico requeriría no sólo de una lógica deductiva sino también de la comprensión de la formación de los procesos de creencias, de la antropología, de la psicología y del comportamiento organizacional, y de la meticulosa observación de lo que la gente, las empresas y los gobiernos hacen realmente. No se puede aprender nada acerca de cómo estas cosas influyen en los precios con la premisa de que los desvíos a una teoría específica de la determinación de precios son “demasiado pequeños para importar” porque todo lo que es conocible ya es sabido y, por lo tanto, está “en el precio”. Y ésta es la razón por la cual los estudiantes, de hecho,  no aprenden nada de estas materias, excepto tal vez mediante las lecturas extracurriculares.

Lo que Lucas quiere significar cuando afirma que los desvíos son “demasiado pequeños para importar” es que los intentos de construir modelos generales a partir de los desvíos a la hipótesis del mercado eficiente —especificando reglas mecánicas de transacciones o desarrollando ecuaciones para identificar burbujas en los precios de activos financieros— no han tenido demasiado éxito. Pero esto es equivocar el tiro: el jugador experto de billar realiza un juego casi perfecto [18], pero son las imperfecciones de juego entre los expertos las que determinan el resultado del partido. Hay un cierto sentido—trivial—en el cual los desvíos en los mercados eficientes son demasiado pequeños para importar —y hay otro sentido, más importante, donde los desvíos son lo principal que importa.

La afirmación de que la mayoría de las oportunidades de ganancias en los negocios o en los mercados de títulos valores ya han sido aprovechadas está justificada. Pero es la búsqueda de oportunidades de negocios que no han sido aprovechadas las que llevan adelante los negocios, la creencia de que aún existen oportunidades de ganancias que no han sido arbitradas es la que explica por qué aún se negocian tantos títulos valores. Lejos de ser “demasiado pequeños para importar”, estos desvíos de los supuestos del mercado eficiente, no necesariamente grandes, son la dinámica de la economía capitalista.

Estas anomalías son idiosincrásicas y no pueden, por su propia naturaleza, ser derivadas de deducciones lógicas a partir de un sistema axiomático. La característica distintiva de un Henry Ford, un Steve Jobs, un Warren Buffett o un George Soros es que sus conductas no pueden ser predichas por ningún modelo pre-especificado. Si el comportamiento de estos individuos pudiese ser predicho de esta forma, no hubiesen sido innovadores ni ricos. Por eso las consecuencias no son simplemente “demasiado pequeñas para importar”.

La afirmación prepostera de que los desvíos de la eficiencia del mercado no sólo son irrelevantes en la reciente crisis sino que nunca podrían ser relevantes, es el producto de un medioambiente en el que la deducción ha reemplazado a la inducción y en el que la ideología ha tomado el lugar de la observación. La creencia en que los modelos no sólo son herramientas útiles sino incluso capaces de producir descripciones comprehensivas y universales del mundo, han cegado a sus proponentes ante realidades que les dan en la cara. Esa ceguera fue un elemento de la crisis actual y condiciona nuestras aún ineficaces respuestas. Los economistas—tanto en la función pública como en la academia—estuvieron jugando obsesivamente al Grand Theft Auto mientras que el mundo a su alrededor se desmoronaba.




* John Kay es un economista británico (n. 1948 en Edinburgo, Escocia). Educado en Oxford, donde fue profesor durante 8 años, pasó luego al Instituto de Estudios Fiscales durante similar período. Ingresó posteriormente a la London Business School y fundó la consultora London Economics. Cuando la Universidad de Oxford creó su Escuela de Negocios, fue designado su primer director; pero renunció a los 2 años por diferencias con las autoridades. Desde entonces, además de consultor, dicta conferencias y contribuye regularmente al Financial Times. Su último libro, en el terreno de la divulgación, es Obliquity: Why our goals are best achieved indirectly, donde demuestra por qué las empresas que van detrás de objetivos económicos terminan perdiendo vigor y decayendo, mientras que aquéllas que persiguen la excelencia en lo que hacen, luego consiguen el éxito económico necesario.
[1] Robert Lucas, “In defence of the dismal science”, The Economist, 6 de agosto de 2009.
[2] “Interview with Thomas Sargent”, The Region: Banking and Policy Issues Magazine (The Federal Reserve Bank of Minneapolis), agosto de 2010.
[3] Robert Lucas, “Monetary Neutrality”, Prize Lecture to the Memory of Alfred Nobel, 7 de diciembre de 1995, Nobel Lectures: Economics 1991-1995 (Singapore: Torsten Persson/World Scientific Publishing, 1997).
[4] Nancy Cartwright, Hunting Causes and Using Them: Approaches in Philosophy and Economics (Cambridge: University Press, 2007).
[5] Robert E. Lucas Jr., “On the mechanics of economic development”, Journal of Monetary Economics, vol. 22, issue 1, Julio de 1988, pp. 3-42.
[6] John H. Cochrane, “How did Paul Krugman get it so Wrong?”, Chicago Faculty Research Paper, 16 de septiembre de 2009.
[7] Joseph E. Stiglitz y Andrew Murray Weiss, “Credit Rationing in Markets with Imperfect Information”, American Economic Review, vol. 71, issue 3 (1981), pp. 393-410.
[8] Roman Frydman y Michael D. Goldberg, Imperfect Knowledge Economics: Exchange Rates and Risk (Princeton: University Press, 2007).
[9] Steven D. Levitt y Stephen J. Dubner, Freakonomics: A Rogue Economist Explores the Hidden Side of Everything (Nueva York: Harper Collins, 2005).
[10] Malcolm Gladwell, The Tipping Point: How Little Things Can Make a Big Difference (Nueva York: Little, Brown & Co., 2000).
[11] Nassim Nicholas Taleb, The Black Swan: The Impact of the Highly Improbable (Nueva York: Random House, 2007).
[12] Kartik Athreya, “Economics is Hard: Don’t Let Bloggers Tell You Otherwise”, Research Department, Federal Reserve Bank of Richmond, 17 de junio de 2010.
[13] Gary S. Becker, The Economic Approach to Human Behavior (Chicago: University Press, 1978).
[14] Robert B. Brandom (Ed.), Rorty and His Critics (Malden, MA: Blackwell, 2000).
[15] Alfred Korzybski, A Non-Aristotelian System and its Necessity for Rigour in Mathematics and Physics, Paper presentado ante la American Mathematical Society, en Nueva Orleans, el 28 de diciembre de 1931.
[16] Michael Lewis, The Big Short: Inside the Doomsday Machine (Nueva York: W. W. Norton, 2010).
[17] Gregory Zuckerman, The Greatest Trade Ever: The Behind-the-Scenes Story of How John Paulson Defied Wall Street and Made Financial History (Nueva York: Crown Business, 2009).
[18] El famoso ejemplo utilizado por Milton  Friedman y L. J. Savage, “The Utility Analysis of Choices Involving Risk”, The Journal of Political Economy, vol. LVI, number 4 (Agosto, 1948).

Related Posts Plugin for WordPress, Blogger...