28 ene 2013

Parte 3: ¿Cuáles son las estimaciones de mercado sobre las probabilidades de un default?


Continuando con la serie aqui les dejo la tercera parte, y las anteriores: parte 1,
parte 2, parte 2b

Parte 3: ¿Cuáles son las estimaciones de mercado sobre las probabilidades de  un default?

Nota  de Riesgo Calculado: Esta serie pertenece a some investor guy.
Hay múltiples  maneras  de calcular las probabilidades de un default y/o las pérdidas esperadas, que incluyen: el rendimiento de bonos vs. un bajo nivel de bonos en default o ningún bono en default en la misma moneda, los precios de  seguros de impago de deuda (CDS), una valoración de los bonos y un análisis de los factores económicos subyacentes.


Las calificaciones de  bonos varían más lentamente que el rendimiento de bonos o los precios de los CDS. Las calificaciones a menudo se revisan a la baja solamente después de que  se pone de manifiesto un problema serio y  ya se incorpora  a los rendimientos o precios de los CDS. Mientras que los precios de los bonos pueden ser de ayuda,  hay una variedad de problemas para intentar extraer probabilidades de default. Uno es la curva de rendimiento, y que para muchas naciones no hay muchos  vencimientos pendientes. Tratar de obtener una probabilidad de  default a 5 años de un conjunto de datos incluyendo solo  un vencimiento  a 2 y 20 años presenta algunos problemas analíticos. Los precios de los bonos también tienen una  cantidad de diferencias sorprendentes debido exclusivamente a la liquidez. Para ver un ejemplo vea a Longstaff.

“Encontramos una gran prima de liquidez en los bonos del Tesoro, que puede ser más del 15% del valor de algunos de los bonos del Tesoro. Esta prima de liquidez está relacionada con los cambios en la confianza del consumidor, la cantidad de deuda del Tesoro disponible para los inversores,  y  flujos  hacia el  capital y los  fondos de mutualidad en los mercados de dinero. Esto sugiere que la popularidad de los bonos del Tesoro afecta directamente a sus valores.”
Sí, eso es un 15% entre diferentes títulos del Tesoro norteamericanos y una serie de bonos explícitamente garantizados por el gobierno estadounidense, Resolución de 1990. Incluso los títulos del Tesoro estadounidense de emisión reciente (on the run) y los emitidos con anterioridad (off the run) tienen distintos rendimientos debido a la liquidez.

Dado que se provee de información diaria para casi todas las naciones grandes, y se calculan probabilidades acumuladas de default (cumulative default probabilities=CDP), utilizamos datos provenientes de CMAVision para estimar las probabilidades de defaults soberanos.

Este cuadro muestra la deuda pendiente con el  CDP  de cada país. A pesar de tener  una moderada probabilidad de default del 8.3%, la enorme cartera de títulos pendientes de Japón  lo convierte en el  mayor contribuyente a las pérdidas soberanas esperadas. Sin embargo es improbable que algún país solo tuviese  default en un pequeño grupo de bonos. Si Japón cayera en default, es probable que la mayoría o el total de su deuda pendiente sea reestructurada (ejemplo,  distinto tipo de interés, planes de pago extendidos, un recorte del capital.
CDPS del 31/3/10 and 30/06/10 se muestran en el siguiente cuadro.
Las barras rojas son Q2 y las naranjas son Q1. Evidentemente,  algunos precios de seguros de impago de deuda se movieron de forma sustancial en esos tres meses como Grecia, Portugal, España y Bélgica.

Al 30 de junio del 2010, la tasa de incumplimiento (o de morosidad) media ponderada es del 7.4%.
Cuando es medida por el valor de  deuda pendiente,  el precio de los CDP en todo el mundo indica un 7.4% de su incumplimiento dentro de 5 años. Si la deuda pendiente todavía era de 34 millones  como fue reportado al 31 de diciembre de 2009, eso es 2.5 trillones de la deuda  en cesación de pago.


Antes de que pierdas la paciencia y empieces a recortar deuda o te aterres al pensar acerca de tu jubilación , recuerda que los tenedores de bonos (obligacionistas) rara vez pierden todo su dinero en bonos moratorios. A veces las tasas de recuperación son bastantes buenas. Otras veces, no tanto.


Nota de Riesgo Calculado: Esto proviene de “some investor guy”. Durante la próxima semana, Algún tipo inversor tratara varias cuestiones. ¿Cuáles son las pérdidas totales estimadas de bonos soberanos debido al default? , ¿Qué sucede si las cosas van realmente mal y cuáles son los efectos indirectos del default?
Más adelante esta semana: la parte 4: ¿Cuáles son las pérdidas totales estimadas de bonos soberanos debido al default?


Escrito por Maximiliano Greco / @mngreco
Leer más...

27 ene 2013

Geografía económica (II): Un repaso histórico del espacio


Para llegar a comprender el estado presente de cierto espectro del análisis económico de una manera completa, no deberíamos perdernos una cierta explicación de cómo hemos llegado hasta donde estamos. No es una labor realmente necesaria, ya que podría explicar directamente los conceptos e instrumentos empleados a día de hoy que, en base a una ciencia acumulativa, incorporan ya el recorrido histórico que los preceden. Pero nos perderíamos parte de la diversión asociada al descubrimiento.

Primero, conviene recordar qué estábamos estudiando. Pues la geografía económica no da cuenta de los patrones de comercio entre estructuras productivas dadas, sino como estas estructuras evolucionan a través de la interacción (movimiento comercial, empresarial y poblacional) entre los diferentes países.

Repartiendo la tierra


Johan Heinrich von Thünen fue quizás el primero que aunó en un análisis espacial la consideración de que la tierra era homogénea y la existencia de costes de transporte. Es decir, intentó eliminar las diferencias derivadas de la 1º naturaleza (fertilidad de la tierra, orografía…) para centrarse en la 2º, aquella que nace de las diferencias económicas (valor, productividad…). En su conocido modelo sobre el uso agrario de la tierra (que data de 1826, pero que no llegó a traducirse al inglés hasta 1966), intenta explicar como se distribuía la producción de variedades (productos agrarios) en el espacio que rodea una hipotética ciudad.

La primera consideración es la de la tierra como un input más, por el que hay una cierta competencia. Cada porción de tierra es diferente, pues estará más o menos alejada de la ciudad (donde se vende el producto agrícola producido en dicha tierra) y por tanto, llevará aparejada unos costes de transporte diferentes (mayores cuanto más alejada esté, claro).

Cada porción de tierra será propiedad de aquel que más pueda pagar por ella, es decir, del que pueda obtener un mayor beneficio por ella. Pues bien, hay cuatro factores que afectan al beneficio: La productividad por unidad de tierra (derivado del producto), el precio de mercado, el coste de producción (laboral), y el coste de transporte (asociado a la distancia).

Así, el beneficio, que será la máxima cantidad que se estará dispuesto a pagar por ese terreno, se puede derivar de la siguiente formula:


El producto que genere un mayor valor será el que obtenga la parcela más próxima a la ciudad. Como los productos tienen diferentes productividades, el coste de transporte (que va asociado al producto) es también diferente para cada producto. Si yo produzco el doble, deberé pagar el doble para transportar mi carga. Así, los productos más valiosos y productivos generan un mayor valor que ofrecer en las parcelas cerca de la ciudad, pero en cambio pueden ofrecer menos en las parcelas más alejadas, que serán apropiadas por productos menos productivos pero que se enfrentarán a menores costes de transporte.

Eso genera una distribución de la tierra en anillos concéntricos, donde las variedades menos productivas estarán más alejadas de la ciudad.


Esto se complementa de forma indirecta con la visión ricardiana de los rendimientos decrecientes de la tierra para ver las diferencias existentes entre 1º y 2º naturaleza. En el caso de David Ricardo, es la tierra la que es heterogénea, siendo más o menos productiva. De forma que siempre empezaremos a utilizar las tierras más fértiles y, cuando queramos aumentar nuestra producción, deberemos emplear las tierras que quedan, menos productivas.

Utilizar el espacio para estudiar la 2º naturaleza, aquella que se deriva de la interacción económica de los agentes en un espacio homogéneo (donde la heterogeneidad viene dada por la variedad a producir), fue el primer pasó para encauzar lo que después sería la Geografía Económica.

El nacimiento de las ciudades


Los siguientes desarrollos que seguirían esta línea hablarían de un elemento más importante: La propia formación de la ciudad. En el modelo de Von Tünen la ciudad está dada de forma exógena, pero su formación y evolución puede también interpretarse de manera económica.

Es cierto que el nacimiento de las ciudades puede no derivar puramente de aspectos económicos, sino históricos. Sin embargo, estos procesos de aglomeración poblacional (pues las ciudades no son sino clusters poblacionales) que tienen sus raíces en el conocido libro de Marshall de 1890 (Principios de Economía), pueden describirse a partir de cuatro fuerzas:

    • Economías de escala a nivel microeconómico.
    • Una oferta de trabajo más amplia y especializada.
    • Un capital humano naciente derivado del face to face.
    • La generación de infraestructuras e instituciones modernas.

Esas fuerzas hacían que el beneficio económico de una empresa fuera mayor conforme mayor fuera el número de población en la que se asentara (eliminando la obviedad de que vendería más). Esto hace que la economía tienda aglomerarse para aprovechar estas fuerzas positivas.
Por otro lado, la forma de la estructura urbana también suele desarrollarse teóricamente a partir de las funciones bid-rent, que son una derivación sencilla del propio modelo de Von Thunen por William Alonso en 1964, donde la demanda de espacio para trabajar (empresas) o residir (viviendas) y un coste de transporte (denominado commuting) determinan como se distribuirán las zonas residenciales, comerciales, industriales y agrarias, la formación de policentros… en lo que actualmente es la rama de Economía Urbana.

Competencia espacial


Si en el primer caso veamos la competencia de las empresas por un mismo input (la tierra y, por tanto, el espacio), el modelo de Hotelling (que data de 1929) enmarca el proceso de competencia espacial por una demanda dada.
Si bien el modelo confeccionado originalmente por Hotelling no trata el espacio físico, se puede (y así se suele hacer) simplificar de esta forma.

Imagínense que la población vive distribuida a lo largo de una calle (una línea, vamos). ¿Cómo se situarán dos empresas que intenten maximizar sus beneficios? ¿Dónde se localizarán las dos?

Hay dos fuerzas que juegan parte en esta competición estratégica. La primera, es el poder de monopolio, la segunda la atracción de consumidores.

El lugar desde donde se es más accesible a la totalidad de la población (que vive en una hipotética línea y que incurre en unos costes de transporte para moverse por esa linea), es estar en el centro. Así, con unos costes de transporte lineales, las empresas maximizaran su beneficio intentando vender al máximo de población, esto es, acercándose al centro. Al final esto hace que las dos empresas estén juntas en medio de la calle.
Esto explica porque los partidos políticos quieren o tienden a decir que son de centro, para maximizar el espectro de población a la que vender sus ideas dentro del espacio ideológico.

En 1979, Aspremont cambió un elemento del modelo. Le dio más importancia a los costes de transporte, y en vez de lineales, los hizo cuadráticos. Esto es, moverte dos kilómetros te cuesta más del doble que moverte uno. Digamos que esto hace que la gente esté más “atrapada” o esté menos dispuesta a moverse a buscar la empresa más barata.

El resultado será justamente el contrario, las empresas se irán a los extremos de la calle. De esta forma, pueden generar una competencia monopolística, al reducir la competencia directa (que se producía al estar juntas). Las empresas prefieren no buscar tanta demanda yéndose al centro, sino poder aumentar el precio a una población que tiene menos incentivos a irse a la otra empresa (que está más lejos), y para ello lo mejor es alejarte de la competencia.

Como vemos, diferentes costes de transporte dan resultados totalmente opuestos. Si hay mucha libertad de movimiento en la demanda (bajos costes de transporte), las empresas tendrán que intentar apropiarse de ella y tendrán que competir más fuertemente. Si hay poca libertad de movimiento (altos costes de transporte) las empresas se aprovecharán creando monopolios sobre una población a la que le cuesta irse a la competencia.

Este simple modelo ha generado dos ideas importantes: El diferente resultado que puede emerger a través de un elemento como los costes de transporte, y que la competencia espacial es, por naturaleza oligopolistica. En palabras de Thisse: “Una vez que se ha reconocido que las empresas operan en el espacio, es fácil ver que cada una compite únicamente con las empresas que se sitúen en su “barrio”, independientemente del total de empresas que existan”. Esto generará un debate entre la competencia monopolística de Chamberlin y la teoría del oligopolio que defiende Kaldor. Pero en cualquier caso importa la idea de que, una vez que incluyes el espacio, la competencia perfecta desaparece.

El nacimiento de la Nueva Geografía Económica


En 1957, Myrdal daría en otra de las claves de un sistema económico complejo, la causación acumulativa: “no hay ninguna tendencia que implique una estabilización automática en un sistema social…Puede existir una causación circular que haga que un pequeño cambio produzca cambios mayores en la misma dirección, por lo que el proceso social sea acumulativo y gane velocidad”.

En un contexto espacial esto es obvio bajo un elemento que todo el mundo conoce: Los pueblos.
En la estructura espacial de  los pueblos (lo que podríamos llamar su modelo macroeconómico), no existe nada parecido a un equilibrio sobre el que orbitar. Si un pueblo pierde población, eso va generando fuerzas que hacen que más población quiera irse (menos tiendas, menos trabajadores…). De forma que los pueblos se quedan cada vez con menos gente y las ciudades van concentrando población, no hay ningún equilibrio previo que sustente una estructura de status quo. La pregunta es, ¿Este proceso que vemos entre pueblos y ciudades, puede suceder entre regiones, países o zonas geográficas?


¿Puede suceder algo así en España, donde cada vez más población se vaya a otros países, (véase Alemania) y esto genere no menos sino más incentivos para que más gente se vaya en un bucle que termine por romper España?
¿Puede que esto no suceda con la población pero si con las empresas, de forma que una tipología de empresa (las más productivas, más globalizadas, más libres) se concentre en una región y potencie aun más la diferenciación en la estructura productiva de un país?

Esto es lo que la Nueva Geografía Económica en general y Krugman en particular (como impulso original de esta rama a partir del libro Geografía y comercio y el paper “Increasing returns and economic geography “, ambos de 1991), se encargarán de explicar.
Cómo diferentes regiones ven cambiar sus estructuras productivas, que se polarizaran más o menos, en base al movimiento de bienes, empresas y trabajadores, en un contexto de competencia imperfecta y costes de transporte en lo que se llama el modelo Centro-periferia.

Para explicar en detalle lo que representa este modelo económico, primero explicaremos una serie de conceptos previos sobre la competencia imperfecta y las fuerzas de aglomeración espacial. Pero eso será en el siguiente capítulo.

 Escrito por Miguel Puente Ajovin / @Caoticaeconomía

Leer más...

23 ene 2013

Coursera, una visión particular


Llevo ya unas tres semanas haciendo un curso de Coursera sobre Teoría de juegos, y el año pasado me animé con algún otro que no pude acabar. Me dispongo a comentar un poco por encima que me está pareciendo este invento. Desearía que todo aquel que haya participado en algún curso pudiera dar su opinión después si se anima.
 Es un curso, pero no lo es.

Una de mis principales motivaciones para entrar en uno de estos cursos era, además de educativa, académica y, también, pura curiosidad. Cuando se empezaron a promocionar se escribió mucho sobre el futuro de la educación y lo que suponía Coursera (y otras web similares que están y seguirán surgiendo), llegando a leer alguna que otra barbaridad fruto de la emoción del momento.

Para mi, al menos tal y como están actualmente dispuestos los cursos, no es, ni mucho menos, una evolución de la universidad a lo 2.0, pero si una evolución más que correctísima, si se supieran mejorar algunas cosas, de los típicos manuales educativos.

Piénsenlo bien, realmente no hacía falta matricularte en una universidad para poder aprender de un tema en concreto, ya sea a nivel general o específico. Los manuales que se utilizan en las asignaturas de las carreras se pueden comprar (aunque valgan una pasta) sin estar matriculado. En esos manuales, se encuentran las explicaciones ortodoxas  del puño y letra de, seguramente, un buen profesional en su materia y, en la materia que lo precise, ejercicios variados para poder ejercitarse y comprobar tus conocimientos.

En Coursera nos encontramos lo mismo. Miles y miles de personas alrededor del mundo escuchando las mismas explicaciones, letra por letra, palabra por palabra. La diferencia es que en vez de estar plasmadas en un libro, son videos explicativos por el profesor que lo imparte. Los ejercicios se hacen por internet y hay exámenes con notas que te permiten más adelante obtener una acreditación de completitud.

Obviamente no es lo mismo. La gratuidad del curso es el mayor avance, por su puesto, ya que pone todos esos conocimientos, que generalmente suele costar bastante adquirir, de una forma accesible y “amena”. Digo amena por el contexto más dinámico e interactivo del proceso.

¿Cómo potenciar Coursera?


En primer lugar, más recursos. Más ejercicios. Más de todo. Al menos en los cursos en los que he estado, faltan recursos para el que quiera ahondar más en un tema. Nos solo de forma intensiva (explicar mejor un concepto), sino extensiva (llevarlo hasta sus últimas consecuencias). 
Si el concepto se queda en simples videos programados para aparecer en una fecha señalada, la cosa no avanzará mucho.

Muchos podrían decir que las clases presenciales de las verdaderas universidades tampoco se diferencian mucho de los ortodoxos y estáticos manuales. Díganmelo a mi, que he tenido que lidiar, como todos, con los típicos maniquíes que solo saben leer sus apuntes o pasar diapositivas.

Las clases presenciales deben servir, sobre todo, para potenciar el aprendizaje a través de una interacción directa, tanto entre alumnos (debates, competiciones, exposiciones…), como entre profesores y alumnos (explicaciones detalladas, dudas, elementos de interés…). Bolonia, al menos en teoría, iba por ahí.
La diferencia entre un elemento estático (manual, Coursera) y un elemento dinámico (profesor presencial, si lo es, claro), es que el segundo es mucho más útil para encauzar, y potenciar las reflexiones (y el aprendizaje en base a estas) de los alumnos.

En segundo lugar, varios niveles de dificultad. Hablamos de cursos interactivos donde aprender. Pero las necesidades de conocer, así como el interés por el mismo, puede variar en diferentes grados.
En una clase universitaria el nivel debe ser igual para todos (otra cosa será debatir si este debe ser bajo o alto). En un curso gratuito, que no va a determinar el futuro laboral de nadie, lo que se debe apuntalar no es la consecución de test que determinen si sabes o no sabes como mecanismo de obtención de un título acreditativo. Lo que se debe potenciar es el aprendizaje en sí mismo. Y para ello, se necesitan diferentes grados que se adecuen a los diferentes alumnos.

Para ello, se pueden poner test de diferente dificultad, que no solo indiquen qué grado de conocimiento tienes, sino que incentiven la reflexión y el aprendizaje de una manera más desafiante.

También se pueden recomendar libros y artículos con más asiduidad que permitan a aquellos que quieran pasar de los videos a algo más serio.

Otro de los problemas lo he visto en los foros. Mucha gente se queja de que no se entera de nada. De que es bastante difícil. Puede parecer algo contradictorio con lo que he dicho anteriormente, pero no es así.

Una de las cosas que sí me gustaron de Courera es que no es tan fácil como yo pensaba. Los cursos no son un simple camino de rosas. La intención de hacerlos lo más “realistas” posibles, entendiéndolos como parejos a los contenidos impartidos por las clases que imparten los propios profesores que dirigen cada curso, hacen que, en un nivel práctico, la cosa pinte, a veces, un poco jodida.
Las explicaciones, no obstante, no son todo lo buenas que deberían.

En un contexto en el que hay apenas unos 40 minutos de video a la semana, la explicación se realiza de una manera rápida y, en ocasiones, muy por encima. Esto hace que ejercicios que son relativamente asequibles se hagan difíciles. No tanto porque sean un reto una vez adquiridos los conocimientos, sino por la falta de estos (a nivel teórico o práctico).
Esto creo que puede ser un lastre que hará que muchos dejen los cursos a mitad. Algo que me gustaría saber son los ratios de abandono y notas, que para estudiar de una forma objetiva este proyecto no estaría mal.

El problema, por supuesto, es la falta de contacto directo entre alumnos y profesores. Sí, se hacen sesiones de videoconferencias. Sí, algunos dan un email. Pero no es lo mismo.

Mi postura una vez probado Coursera, es que una herramienta extremadamente útil si se sabe utilizar y posicionar en su correcto plano educativo.
Creo que se debe dejar de intentar imitar una clase presencial y especializarse en dar contenidos y evaluar de una manera dinámica el aprendizaje sobre los mismos, como una introducción o un proceso perfectamente desarrollado de autoaprendizaje, una guía más que válida para todos a los que nos gusta estudiar y aprender por hobby.

Quien intente hacer otra cosa, me temo que se va a quedar en un quiero y no puedo, insatisfactorio para tanto los alumnos como los profesores.

PD: Huelga decir que no creo que haya dos cursos iguales. Esta reflexión forma parte de lo que creo que sería la forma óptima de un curso en Coursera. Si hay cursos que ya son así, bienvenido sean. 
Leer más...

22 ene 2013

¿Estamos haciendo las cosas bien?

La competitividad se ha convertido en el gran gurú del mundo globalizado. Todos los gobiernos, todas las políticas tienen como objetivo esa palabra que, aseguran, será el motor de la recuperación de las economías y la solución de nuestros problemas.
En el mundo actual es indiferente producir un bien en un país o en otro, dado que hemos abolido los aranceles y las trabas a los productos, de forma que no tenemos armas para la competencia. Por lo tanto, deberíamos producir sólo aquellos bienes donde tengamos una ventaja comparativa. Pero eso no es tan lineal y la teoría de la ventaja competitiva no se cumple en la vida real. Al final, todos los países tienden a producir de todo, bien por una cuestión estratégica o por un nacionalismo mal entendido, pero el hecho cierto es que no estamos aplicando los postulados de la teoría económica que afirman que cada país debería especializarse en la producción de aquellos bienes en los que existe una ventaja en la producción.
Por lo tanto, dado que no vamos a especializarnos en unos pocos bienes, ¿qué podemos hacer para competir con los salarios extraordinariamente bajos de los países como China o  India?, ¿debemos considerar que nuestro futuro es tener unos sistemas sociales tan mínimos como el que menos para poder competir en el mundo globalizado y producir cosas?. Voy a dar algunas claves que me parecen importantes para evitarnos los disgustos que se producen en cada crisis.
Cuando contamos en clase algunas nociones del mercado de trabajo hablamos de ciertos  conceptos que pasan desapercibidos para la mayoría de los opinadores y economistas que intentan explicarnos los problemas del mercado de trabajo. Uno de ellos es de los ‘salarios de eficiencia’, es decir, el nivel salarial que implica mayor implicación de los trabajadores en la producción y, en consecuencia, un nivel de productividad más elevado que en el resto de las empresas. Eso lo demostró Ford cuando dobló el salario de sus trabajadores y, desde ese momento, la productividad se disparó y, por ende, los beneficios de su empresa. Pues bien, en tiempos de crisis como la que estamos viviendo, al confundir competitividad con precios bajos, se ha abandonado ese concepto de forma que nadie se ocupa de él y las consecuencias pueden ser terribles.
Otro concepto que parece abandonarse en busca de esa competitividad es el ‘know how’, el conocimiento propio de las empresas que nadie está intentando conservar y que, en el supuesto de una recuperación de la actividad, la mayoría de las empresas tendrán problemas en adaptarse de nuevo y volveremos a perder esa ventaja que ahora, vía precios por los despidos, hemos conseguido. Y ese concepto va unido a otro que conocemos como el ‘salario de reserva’, es decir, aquel que los trabajadores deben tener para mantener un mínimo nivel de vida.
Además existen ciertos hechos en esta crisis que me hacen replantearme si estamos en el buen camino o nos estamos confundiendo en las medidas. Porque en el año 2007 la distribución de la renta en España era 50/50 entre renta empresarial / renta salarial y en la actualidad ese ratio es algo así como 55/45, es decir, se ha sesgado hacia la renta empresarial descompensando el reparto.
Tenemos también el hecho irrefutable que nuestra economía ajusta siempre por el lado de las cantidades y no de los precios. Por ejemplo, con un mercado inmobiliario colapsado y con una actividad paralizada, en vez de producirse rebajas en el precio y disminuciones de la oferta, se produce un stock de viviendas sin vender (hasta un millón de viviendas vacías); o un mercado laboral que en vez de producir un ajuste de salarios expulsa trabajadores y cierra empresas. Todo ello se debe a la falta de competencia en esos mercados, pero no son los únicos: electricidad, petróleo, distribución, etc, son mercados que deberíamos reformar con el objetivo de introducir mayor competencia y así mejorar la asignación de los recursos.
Todo ello parece indicarnos que no estamos obteniendo resultados razonables en la reforma de nuestra economía y que, después de un periodo de espejismo en la supuesto recuperación (cuando se produzca) nos conducirá al mismo punto anterior y, en consecuencia, a los mismos síntomas y errores que estamos cometiendo en la actualidad.
Lo primero que deberíamos estar haciendo es buscar una forma de competencia distinta de la actual, es decir, nunca tendremos costes laborales tan bajos como los países del sudeste asiático. En primer lugar porque las condiciones sociales nunca serán iguales (jornadas, seguridad social, pensiones, desempleo, salud laboral, etc), y los salarios, por consiguiente, menos aún. Por lo tanto, si no podemos competir con los costes laborales, debemos encontrar algo que nos permita hacerlo. Y ese algo es el valor añadido, que debe encontrarse en la I+D+i. Debemos hacer un esfuerzo extraordinario en la inversión en investigación que proporcione mayor valor añadido y, en consecuencia, mayor productividad. Y debemos mejorar esa productividad también en el marco de la educación y la formación. Trabajadores mejor formados permiten una adaptación más rápida y efectiva a las empresas y, en consecuencia, mejores productos y servicios. Y si invertimos en formación, mejoras rápidas en los nuevos procesos. Justo lo contrario que estamos haciendo en la actualidad.
En segundo lugar, debemos redefinir las relaciones laborales de nuestras empresas, de forma que se mantenga el know how, se alcancen salarios de eficiencia y se garantice el salario de reserva que permita la adaptación de las estructuras productivas sin desprenderse de lo único que las hace únicas: su fuerza laboral. Se han establecido distintos modelos para el mantenimiento del empleo en la economía, como es el caso del modelo alemán (basado en compartir el salario de eficiencia entre las empresas y el estado a través de los minijobs), o el modelo austriaco (eliminando trabas a la movilidad de los trabajadores con la creación de una especie de fondo de reserva que conjuga desempleo, indemnización y pensión). Son todos loables intentos de solucionar un problema que no garantizan la inmunidad a los problemas económicos generales. Creo que lo más razonable es provocar la flexibilidad salarial interna de las empresas de forma que el salario se componga de una parte fija que represente el salario de reserva y una parte variable que se vincule a la productividad de forma que la distribución de rentas se aproxime a la proporción 45/55 y se provoque que se alcancen los salarios de eficiencia en función de la evolución de la situación. Esto provocaría dos cosas importantes: en primer lugar, el ajuste se produciría automáticamente ante las crisis económicas y, en segundo lugar, se mantendrían los puestos de trabajo fundamentales en las empresas de forma que no se perdiera todo el conocimiento necesario para la producción.  
Y, en tercer lugar, deberíamos estar buscando cómo maximizar los beneficios de aquellas actividades en las que somos especialmente competitivos. Es decir, si tenemos, por ejemplo, uno de los mejores sistemas sanitarios del mundo (y también de los más baratos) deberíamos centrarnos en cómo poder explotarlo en beneficio de los propios ciudadanos. Si somos capaces de ‘vender’ nuestro sistema sanitario al resto de países europeos (por poner un ejemplo), con esos ingresos podríamos mantener el sistema, reducir el déficit y dedicar parte a la investigación. Y para ello, en vez de poner trabas a la intervención de los extranjeros, deberíamos centrarnos en que la Unión Europea establezca un fondo de compensación que posibilite la movilidad y compense los costes de un sistema. Es sólo un ejemplo, aunque podríamos hablar de otros sectores (agricultura, pesca, energías renovables, etc) en los que tendríamos que centrarnos. En definitiva, encontrar motores de nuestro crecimiento futuro que actúan como palancas.
Aunque las cifras del sector exterior hayan mejorado, ese espejismo no debe cegarnos y comprender que realmente no estamos cambiando nada en nuestra estructura económica que nos permita vislumbrar el futuro con garantía de mejora de las condiciones y, por consiguiente, ante una nueva crisis o recaída de la actual, los problemas seguirán siendo los mismos y los ajustes también.
Y seguiré siendo el economista perplejo.

@juanignaciodeju
Leer más...

21 ene 2013

parte 2B Mas sobre las investigaciones de países en default.


Poco a poco voy completando la serie de Calulated Risk. Los anteriores artículos:


Traducción del Post Original:


Riesgo calculado: Finanzas y Economía
Mas sobre las investigaciones de países en default.
Esta serie proviene del lector/libro de lectura “un tipo inversor”. La parte 2b en es repuesta a algunas de las preguntas en los comentarios.

Algunos investigadores, especialmente Reinhart and Rogoff, afirman que “esta vez no es diferente”, y que hay características comunes que sucedieron antes y después de un default alrededor del mundo durante muchos siglos. Los políticos pueden conocer o no la historia. Sin embargo uno se pregunta hasta donde los operadores de bonos (bond traders) y los que participan en el mercado CDS están de acuerdo con los académicos.

Dentro del mercado de bonos, mercado CDS, y los gobiernos mismos, existe la posibilidad de que alguien conozca información importante sobre las probabilidades de impago que otros no. Por ejemplo, mala exposición de información oficial sobre los ingresos del gobierno, las reservas o préstamos.

Hay un esfuerzo muy activo de muchos países para convencer a los votantes o inversores de que “todo estará bien” o que “todas las deudas serán pagadas según lo previsto”. A menudo estas afirmaciones son correctas. Si los tipos de interés de los bonos del gobierno y la liquidez son fijados en base  a la percepción de riesgo, el movimiento podría ahorrar billones de dólares públicos en gastos de financiamiento reducidos. Si el movimiento pierde toda credibilidad, un funcionario particular del gobierno podría ser considerado como el “Baghdad  Bob de los bonos” (término creado a partir del apodo del ministro de información de Saddam Husssein, Baghad Bob).

Investigaciones

Pablo Manasse y Nouriel Roubini estudiaron el riesgo  de default soberano y llegaron a la conclusión de que muchas de las pautas usadas para estimar cuando el default era probable, no funcionaron bien cuando fueron usadas aisladamente, fundamentalmente porque esas pautas miran riesgos diferentes. Por ejemplo, el total de la deuda del gobierno que excede el 200% del PIB se usa a menudo para indicar tensión. Sin embargo, ciertas  circunstancias podrían hacer los problemas menos graves, otros pueden hacerlos empeorar (“Reglas Prácticas”, para una crisis de deuda soberana, Paolo Manasse y Nouriel Roubini):
“El análisis tiene una importante, aunque simple, implicación (consecuencia implícita) para el análisis de la sustentabilidad. Muestra que los límites sin condiciones, por ejemplo para las proporciones de producción de deuda, importan poco por si mismos para evaluar la probabilidad de default. Un país puede estar  fuertemente endeudado pero tener una desdeñable probabilidad de default, cuando un segundo puede tener moderados valores de proporción de deuda y al mismo tiempo correr un considerable riesgo de default. ¿Por qué? Porque la unión de  los efectos del corto vencimiento, la incertidumbre política, y tipos de cambio relativamente fijos hacen mucho más  probable una crisis de liquidez en la última mencionada que una crisis de solvencia en la primera, en particular si el gran peso de la deuda externa va junto con  la estabilidad monetaria, un gran superávit en la cuenta corriente y una situación financiera pública saneada.”





Para ciertos países, las probabilidades de default de este modelo podrían ser actualizadas tan pronto como lo sea la información sobre la economía  pertinente.

En un anterior informe del FMI, encontraron que:
“La evidencia empírica sugiere que un número de factores económicos  predicen la crisis de deuda y  la entrada a la crisis de deuda. Las medidas de solvencia de deuda importan: altos niveles de deuda externa (en relación a la medida de  la capacidad de pago, como el PIB) incrementan  las posibilidades  de un default o la entrada  al default. Medidas de falta de liquidez, en particular deuda a corto plazo (en relación a las reservas extranjeras) y medidas de obligaciones de servicios de deuda también son importantes en la predicción de las crisis, lo que concuerda con la visión de que algunas crisis recientes tuvieron que ver con la falta de liquidez y/o la interacción entre la falta de liquidez y la insolvencia.

Otras variables macroeconómicas sugeridas desde la literatura analítica sobre la sostenibilidad de la deuda también son significativas a la hora de predecir crisis. Bajo crecimiento del PIB; desequilibrios en la cuenta corriente; baja apertura del comercio; liquidez y condiciones monetarias limitadas/ajustadas en el grupo de los siete países; mala administración monetaria (en forma de inflación alta); incertidumbre de políticas (en la forma  de una alta volatilidad de  inflación); e incertidumbre política que lleva a incertidumbre económica (años de elecciones presidenciales).”


Otra línea de investigación proviene de Carmen Reinhart y Kenneth Rogoff. Ellos tienen varios trabajos, incluyendo: ”Esta vez es distinto: ocho siglos de crisis financieras”.

“Descubrimos que  defaults consecutivos es casi un fenómeno universal a medida que los países luchan por transformarse de mercados emergentes a  economías avanzadas. Los episodios más graves de default ocurren con espacio de años o décadas, creando la ilusión de que “esta vez es diferente” entre los responsables de las políticas e inversores. Un ejemplo reciente del síndrome “esta vez es diferente” es la falsa creencia de que la deuda interna es un rasgo novedoso del panorama financiero moderno. También confirmamos que las crisis frecuentemente emanan de los centros financieros con transmisión mediante shocks de tipo de interés y los precios de la productos (commodity) se desploman.”



Ochos siglos de crisis financieras también contienen bastante información sobre la inflación, que el autor ve como una segunda forma de default (si los bonos son expresados en la unidad monetaria propia de la nación en cuestión),  y problemas de tipos de cambio.

Históricamente vemos que el porcentaje promedio de países en situación de impago o en reestructuración han sido muchos (fuente: 8 siglos de crisis financieras página 4).
Rogoff también analiza qué sucede con los grandes niveles de deuda cuando no hay default. A algunos lectores les encantará su trabajo de principios de 2008: “es la crisis financiera subprime (crisis que resulta del impago de las hipotecas de riesgo elevado) americana del año 2007 tan diferente?



Volveremos sobre ambos  autores cuando miremos los efectos indirectos del default en la siguiente serie. Muchos han mencionado que en la investigación de Rogoff se muestra una posible caída del crecimiento por encima de un umbral de  90% de deuda al PIB ( este nivel causa controversia).

CR NOTE: esto proviene de “some investor guy”. La próxima semana un some investor guy tratara las siguientes preguntas: ¿Cuáles son las estimaciones de mercado sobre la posibilidad de default?, ¿Cuales son las pérdidas estimadas totales de los bonos soberanos a causa del  default?, ¿qué pasa si las cosas van realmente mal y cuáles son los efectos indirectos del default?
Lo que viene el lunes: Parte 3. ¿Cuáles son las estimaciones de mercado sobre la posibilidad de default?
Escrito por Maximiliano Greco / @mngreco
Leer más...

16 ene 2013

Como saciar a un economista y no morir en el intento


Los economistas, en el desarrollo de la teoría del consumidor, deben suponer el comportamiento racional del hombre de maneras concretas y, si puede ser, matematizables.
El primero de los elementos a construir es la función de utilidad, que proporciona la estructura de las preferencias de los individuos sobre los bienes que puede consumir.

Ahora bien, esta utilidad incluye ciertos supuestos básicos para describir las propiedades de estas preferencias. Esto es, que sean completas, consistentes (¿y el teorema de incompletitud de Gödel?), continuas e insaciables.
Hoy quiero centrarme en esta última propiedad de todo ser "racional".

¿Qué es el axioma de insaciabilidad?

Básicamente que el individuo no se puede “saciar”, esto es, que siempre va a preferir tener más que menos. Entre dos naranjas o una, prefiere dos. Entre quince pisos o uno, prefiere quince. Hablamos de preferir no de obtener efectivamente, ya que cada producto lleva asociado un coste y nuestra renta es limitada.

Es un supuesto relativamente lógico. Pero excluye otros dos: la saciabilidad y la utilidad marginal negativa.

Por ejemplo, comamos hamburguesas. Hay dos razones por las cuales no te comerías diez hamburguesas de golpe.
La primera, la saciabilidad, el hecho de que, probablemente, cuando te hayas comido cinco tu estómago esté físicamente lleno.
La segunda, la utilidad marginal negativa, es cuando introduces en tu análisis racional el hecho de que comer hamburguesas engorda, y que, por tanto, genera una desutilidad, (produce una disminución de tu bienestar). Si estás a dieta probablemente no quieras comerte ninguna aunque te las dieran gratis.

Esa es la razón por la que podemos rechazar la propaganda que nos dan por la calle y seguir siendo racionales (aunque sea papel gratis) ya que lo vemos como basura, y, por tanto, genera desutilidad.
O la razón de rechazar una cerveza gratis, si incluyes la desutilidad de la resaca futura asociada al consumo presente.

Ante el supuesto de insaciabilidad, nos convertimos en máquinas de desear, incapaces de dejar de optimizar nuestra utilidad bajo la base del aumento del deseo (esto es, la necesidad de preferir más a menos). Un infinito por llenar y una vida limitada para intentarlo, irremediablemente moriríamos en el intento de saciar a un economista denominado en estos términos.

En cierta forma, el supuesto de insaciabilidad imposibilita al hombre el llegar a lo que algunos filósofos denominaban “la buena vida”. Algo así como el estado estacionario del hombre en el plano económico, un punto en el que no es que no pueda mejorar, sino que no lo desea. Quizás siempre podamos aumentar nuestra felicidad, pero puede llegar un punto en el que sea imposible disminuir nuestra infelicidad. Y ¿cómo se relacionan estos términos? ¿Es el genio de la lámpara de Aladdin plenamente feliz cuando lo liberan de la lámpara?

Padre e hijo (Robert y Edward) Skidelsky se hicieron una pregunta parecida, ¿Cúanto es suficiente? 
Es una pregunta que no tiene sentido bajo el axioma de insaciabilidad, puesto que, por definición, nada es suficiente. Y nada es suficiente porque no hay nada que alcanzar. Ya puede dar vueltas al mundo el burro que lo va a tener jodido para alcanzar la zanahoria. ¿Es acaso el deseo una mera zanahoria para los hombres? ¿Es imposible que deseemos, simplemente, dejar de “andar” como burros y disfrutemos del pienso que nos da la vida”?

La pregunta va más allá. Y como lo primero en filosofía, antes de buscar la respuesta, es analizar muy bien la pregunta, conocer bien qué es el deseo y su relación con las necesidades humanas es obligatorio ¿necesitamos desear para poder ser humanos?

Para un tour de forcé por todas estas cosas, el libro ¿Cuánto es suficiente? Es magnifico. Pinceladas de Fausto y Marx se entrecruzan con las visiones de Aristóteles, y las preguntas vertidas no dejan de hacerte pensar sobre la propia condición humana, tal y como he intentado, a mi manera, hacer aquí.

Porque si todo es relativo y es cierto que es más rico, no quien más tiene, sino quien menos necesita. ¿No sería mejor desear no necesitar? Si nos topamos con el genio de la lampara, ¿No sería lo mejor desear no desear?

Sea como fuere, espero haberos causado el deseo de, como mínimo, mirar la contraportada del libro en vuestra librería más cercana. 
PD: En el (muy recomendable) blog Economía en dos tardes tenéis una entrevista a Robert Skidelsky sobre el tema. 
Leer más...

14 ene 2013

Irracionalmente fumadores

Todos sabemos lo malo que es fumar y lo pernicioso que es este vicio para la salud del fumador como la de quienes le rodean, en este post voy a analizarlo desde el punto de vista económico.

Digamos que en economía lo “importante” es la utilidad que tiene un bien -o un mal, que no es más que un bien con utilidad negativa- así que vamos a darle un nombre más pedagógico al término utilidad, le llamaremos felicidad.

En este sentido cuando consumimos algún bien lo hacemos porque obtenemos una gratificación, esto es felicidad.

Caracterización del bien:

El Tabaco es un bien que causa adicción, esto en economía quiere decir que el consumo -demanda- varía muy poco ante cambios en el precio, dicho de otro modo tiene una demanda inelástica. Esto nos dice la teoría económica, veamos que sucede:

A precios constantes de 2006 el consumo desciende a un ritmo mayor a partir de 2008, coincide con el inicio de la crisis, dato curioso ya que por un lado se esperaría que dado el aumento del estrés la demanda aumentaría, quizá si lo hace solo que en productos más baratos -efecto sustitución- por otro lado la crisis afecta a nuestra renta disponible -efecto renta- haciendo que gastemos menos y prioricemos más. La brecha -o GAP- entre precios corrientes y constantes nos da la inflación que han sufrido los productos de la industria tabaquera, que claramente aumentan. Aquí se empieza a intuir un cierta relación negativa entre precio y el gasto. En el siguiente gráfico se aprecia mejor esto.




Aunque hay muy pocos datos para ser rigurosos para mostrar la relación es suficiente, en el gráfico vemos que hay una relación inversa entre precio y demanda -gasto- de tabaco, lo que indicaría que la elasticidad de la demanda no es perfectamente inelástica, ya que ante variaciones positivas en el precio, eje de ordenadas, disminuyen el consumo, eje de abscisas. Para saber su elasticidad habría que hacer un estudio econométrico y no es el propósito del post, aun así este estudio corrobora esta misma conclusión para Europa.


En españa el porcentaje del número de fumadores ha aumentado un 0,50% respecto del anterior informe de 2007, en este período la población aumentó un 4,57%, cogiendo datos del ine de la población y haciendo un par de cuentas, obtenemos el número de fumadores y su incremento que es del 5,09%, Gráficamente:
Por tanto aunque aumenta el número de fumadores el gasto no lo hace, bien porque se fuma menos, se evita ofrecer, o se produce un efecto sustitución hacia marcas o productos más baratos como el tabaco de liar, que es justamente lo que muestra el siguiente gráfico a partir de 2010 de la variación del gasto a precios constantes:


Análisis Coste-Beneficio

Costes:

  • Salud: Según la OMS es la principal causa de muerte en el mundo y a su vez la más prevenible. También los fumadores son más proclives a sufrir enfermedades.

  • Económicos: Claramente el precio es el primero que nos viene a la mente -esto es la elasticidad, explicada arriba- este esta asociado a la mayoría de bienes pero ligada al anterior también existe un incremento de costes ligados a la seguridad social dado que aquellos países con mayor consumo de tabaco entre su población tendrán una población con mayor riesgo a sufrir alguna patología asociada a el. Esto hace a los fumadores menos productivos de lo que podría ser y por ende la economía.

  • Sociales: Tener que salir de un establecimiento público cada vez que llama el vicio, dejando a los amigos/familiares dentro (a menos que todos vuestros amigos/familiares fumen con vosotros claro).

Beneficios:

  • A priori podríamos hablar de esa felicidad/placer que provoca el fumar. Este punto se desmiente mas abajo.


  • Salud: En dosis bajas puede ser saludable, a esto se le denomina efecto hormesis, cuando se toma toxina en dosis bajas provoca provoca el efecto contrario al que tendría con dosis más elevadas. También se han hallado pruebas de que puede ser beneficioso para prevenir el Parkinson, sufrir obesidad, menor riesgo de necesitar cirugía de rodilla, ayuda a una droga contra ataques al corazón a trabajar mejor y reduce el riesgo de muerte tras un ataque al corazón.

Según estos puntos, estará de acuerdo conmigo el lector que fumar tiene menos beneficios que costes, aunque algunos beneficios resultan cuando menos curiosos, son mínimos frente a los costes claramente definidos y cuantificables en dinero y vidas.

La utilidad que reporta fumar:

Según un estudio los ex-fumadores que han dejado durante un año o más son más felices que los actuales fumadores y similares a los no fumadores. Lo que evidencia que el fumar puede disminuir la felicidad y dejar de fumar la aumenta. Otro estudio que respalda esta idea de utilidad -o felicidad- dice que los ex fumadores mayoritariamente reportaron estar más felices ahora, que cuando fumaba. El estudio señala que hay muchas explicaciones para este hallazgo, incluyendo la auto-justificación.

Por tanto, dados los motivos que tengamos para fumar el lector observará que la conclusión razonable desde el punto de vista racional -racional: persona que sopesa costes y beneficios y actúa en consecuencia, elige la mejor opción, la que le reporta mayor utilidad- es que fumar disminuye la felicidad/utilidad aunque no sean conscientes los fumadores de esto, decidir fumar no es más que otra evidencia de que no somos racionales. La economía conductual nos diría que esta mal hábito de fumar es consecuencia de una primera decisión que tomamos como buena y que pensábamos que era inofensiva hasta que nos damos cuenta que la venimos arrastrando sin plantearnos cuando buena o mala fue. El componente adictivo hace que sea un poco más complejo cambiar de decisión frente a otros hábitos pero vale la pena intentarlo.

Nota: Todos los gráficos son de elaboración propia a partir de datos del INE y Separ.

Escrito por Maximiliano Greco / @mngreco
Leer más...