A donde vamos sí necesitamos caminos (puentes, transporte, electricidad…)

l-enigme-de-gustave-dor.jpg!HD

L’Énigme – Doré

La calidad de los servicios de infraestructura en nuestra tierra no es otra cosa que una obvia consecuencia de la pobre inversión en infraestructura, independientemente si ésta es privada o pública. El rol preponderante en esta materia es del Estado -después de todo, la inversión en este particular tipo de activo es un bien público con externalidades y efectos de red-, y la principal herramienta es una planificación eficiente, sobre todo en electricidad y transporte, fundamentales para la vida de las personas.

La provisión óptima de infraestructura es importante porque sin ella fracasaría cualquier política de desarrollo. Un servicio que se brinda eficientemente reduce los costos de producción y de transacción. Le permite a pequeños productores y pequeñas firmas acceder a mercados lejanos y contactarse con clientes, inalcanzables sin una red de transporte y telecomunicaciones relativamente barata. Como si se tratase de una disminución de tarifas. La infraestructura mejora la calidad de vida: tiene un efecto positivo en el ingreso y el bienestar (por ejemplo, a través de mejores rutas, de sistemas de agua y de desechos asequibles, de una adecuada red eléctrica, etcétera). La infraestructura física -y los servicios que esta brinda- afecta el clima de inversiones y hacen atractivo (o no) a un país (o región), moldeando la geografía económica por sus características de inmovilidad y larga duración.

La infraestructura es, después de todo, el resultado de los esfuerzos de las personas y las comunidades por modificar las características físicas de su entorno con el fin de mejorar su comodidad y productividad, protegerse de los elementos y dominar las distancias (World Bank, 1994). La infraestructura acorta espacios, reduce las barreras al comercio, y agranda el mercado laboral, el mercado de bienes y hasta el mercado de ideas, incrementando la productividad y el producto (Prud’Homme, 2004). Y aunque es vista como la base sobre la cual se construye una economía (MacDonald, 2008), se debe determinar fehacientemiente el impacto esperado de aquella inversión para poder darle prioridad a ciertas obras por sobre otras.

Podemos definir a la infraestructura como un tipo de capital de larga vida útil (tenemos rutas que datan de la época del imperio romano), utilizado por los hogares y los sectores productivos de una economía. La infraestructura económica incluye el sistema de transporte, energía y telecomunicaciones, los de agua potable y saneamiento. Dentro de la infraestructura social se encuentran las escuelas, hospitales y cualquier instalación donde se presten servicios sociales.

Es posible distinguir algunos mecanismos a través de los cuales la inversión en infraestructura -gastos en construcción y mantenimiento de estos activos- impacta en el crecimiento y el desarrollo económico. Los servicios asociados aumentan el bienestar, mejorando la calidad de la fuerza de trabajo (y con ello, la productividad), y el capital humano (a través de la educación y la salud). Tiene efecto directo sobre el producto vía disminución de los costos de algunos inputs de las firmas -todo lo relacionado con energía, transporte y comunicaciones-, que opera de manera similar al progreso técnico. Otro mecanismo relevante, ya citado, es la expansión de los mercados, lo que incentiva la competencia, la especialización y las economías de escala. El último, puede decirse que es un mecanismo más bien indirecto, relacionado con la infraestructura como fuente de externalidades. Esta asociación justificaría la intervención pública: si los privados se ocuparan, por ejemplo, de construir un puente o una ruta, no tendrían en cuenta posibles efectos negativos en la población en su conjunto (costos y beneficios privados no coinciden con los públicos).

Así, el Estado será fundamental para la determinación de las reglas de juego, el control y supervisión de la inversión ya acordada, sin importar el régimen institucional (público, privado o PPI). Deberá, por otro lado, considerar no solo el análisis de costo-beneficio sino también las cuestiones ambientales y sociales a la hora de elegir un proyecto y, una vez realizado, asegurar el acceso de la población de menores recursos a los servicios en cuestión. Según World Bank (1994) la pobreza en países en desarrollo está emparentada con las zonas rurales: el desarrollo de la infraestructura la reducirá a través de las mejoras en el empleo y la productividad mencionadas.

Sabemos que durante la fase descendente del ciclo el recorte en la inversión en capital de infraestructura es severo, de manera que la suerte estaría echada si la economía fuese mal. Afortunadamente, no es el caso. La clave estaría en brindar servicios eficientes más que agregar un kilómetro de ruta o un metro de cable. Según una publicación reciente del BID, esto podría hacerse eligiendo bien los proyectos, o sea invirtiendo bien los recursos desde el momento cero para evitar los elefantes blancos (como la “escalera hacia la nada”). Habría que evitar también los cuellos de botella aumentadores de los costos de construcción, esto es, adquisición de tierras, técnicas de construcción obsoletas, retrasos, mucho trabajo informal (no confundamos esto con los inefables sobrecostos, nada extraños en una inversión tan grande, riesgosa y de largo desarrollo). Y, finalmente, habría que mejorar la eficiencia de la oferta existente para no tener que construir nuevamente (a mayor costo). Lo fundamental en este tercer ítem es el mantenimiento: los gobiernos dan por hecho que el servicio provisto por la infraestructura será al nivel de calidad inmediatamente termina la construcción ad-infinitum (IADB, 2018). Y siempre será políticamente más atractivo la construcción que el mantenimiento (Jaffe, 2015).

Con todas las complejidades del caso, cualquier habitante de un país en desarrollo conoce mejor que nadie las consecuencias de servicios de infraestructura deficientes, que no reciben el mantenimiento adecuado, deseado y merecido, sea por falta de recursos, por incapacidad o por corrupción. Cualquiera sabe la inenarrable desgracia que acarrean las inundaciones, los cortes masivos de energía, los accidentes en caminos derruidos, el no poder acceder a una salud gratuita de calidad y viajar en medios transporte francamente ominosos.

TW: @navarrojuguete

Anuncios

Regímenes cambiarios: ¿qué opciones existen?

Pablo Picasso Nina a caballo X

Nina a Caballo X – Picasso

Durante las décadas del 50 y del 60 los países tenían un régimen de tipo de cambio fijo respecto al dólar. Este era un sistema monetario establecido mediante el acuerdo de Bretton Woods, heredado de la Segunda Guerra. En los ’70, con la inconvertibilidad del dólar a oro, se quiebra el sistema y, aunque en la práctica los países ya habían dejado flotar su moneda, no es sino hasta el Acuerdo de Jamaica que se reconoce formalmente la flotación controlada, dejando a criterio de los países el régimen a implementar. Así se desarrollaron los mercados de cambio y sus derivados. Un dato no menor es el aumento coordinado de precios del petróleo que tuvo lugar en aquel periodo, lo que permitió el crecimiento de los flujos de capitales internacionales estimulando la progresiva desregulación de la cuenta de capital.

Un régimen de tipo de cambio es definido como el grado de intervención de la autoridad monetaria en el mercado de divisas. Así, por ejemplo, un Banco Central puede comprometerse a no intervenir en el mercado, dejando que el tipo de cambio nominal sea determinado enteramente por el mercado (Floating o Free Floating). Como tal, se encuentra muy ligado a la política monetaria.

El FMI ha publicado todos los años desde el 1950 el Annual Report on Exchange Arrangements and Exchange Restrictions (AREAER) donde vuelca información disponible, provista por los países miembros, la cual ha sido preparada en conjunto con las autoridades nacionales correspondientes con el fin de proveer una descripción de los regímenes de tipo de cambio adoptado, sistemas cambiarios y comerciales y los controles de capital que se aplican. En lo que respecta al régimen cambiario, existía una discrepancia en cuanto a lo que las autoridades declaraban al Fondo y lo que hacían realmente, imposibilitando cualquier tipo de investigación; así, en 2009 establece una clasificación de facto, donde el staff del Fondo confirma empíricamente lo declarado de jure por la autoridad. Dicha clasificación se basa en un enfoque backward-looking. La clasificación de los arreglos del tipo de cambio puede, entonces, ordenarse de la siguiente manera: hard pegs, es decir aquellos que son fijos, los intermedios o soft pegs, los de flotación pura o free floating -determinado por el mercado- y un residual que involucra a otros que no entran en ninguna de las categorías anteriores (IMF, 2016).

No olvidemos que el tipo de cambio es el precio de un activo y una variable más del sistema, por tanto, tendrá injerencia en la determinación de otras variables de la economía. Asimismo, es posible identificar un tipo de cambio real interno, definido como el precio relativo entre bienes transables y no transables dentro de una economía, y un tipo de cambio real externo, que da cuenta del precio relativo entre canastas (similares) de bienes que se intercambian, dentro y fuera del país (Frenkel y Rapetti, 2010).

Aunque no existen dos regímenes cambiarios idénticos, la pretensión aquí es describir los más importantes. A grandes rasgos, la implicancia de aquellos en cuanto a política monetaria:

  • Cuando las autoridades no se comprometen con un tipo de cambio nominal determinado quitan los incentivos para especular y obtienen mayor flexibilidad de cara a posibles shocks externos.
  • En los países con pasado inflacionario mantener un tipo fijo es útil como ancla -en el sentido de que se utiliza como ancla de las expectativas inflacionarias-, incluso en periodos de hiper; sin embargo, con una inflación moderada no sería del todo necesario (por supuesto, no existe consenso acerca del umbral que separa una inflación moderada de una crisis inflacionaria).

En líneas generales, los regímenes son de tipo fijo, el de flotación pura y sus variantes. El primero, como se dijo, implica un Central que se compromete a mantener una paridad, siendo el caso más extremo cuando la autoridad cede el derecho soberano de emitir su propia moneda (por ejemplo, una dolarización de la economía). El segundo comprende un tipo de cambio nominal determinado enteramente por las fuerzas del mercado. Podemos ubicar el resto de los regímenes en medio de aquellos dos.

Cuadro regimenes cambiarios

Argentina adoptó un régimen de bandas dentro de las cuales el precio de la divisa flota libremente, en principio con 44 pesos por dólar como límite superior y 34 como límite inferior; fuera de las bandas la autoridad se compromete a intervenir reservándose el derecho de esterilizar los pesos que, por caso, queden en circulación si ocurre una apreciación. La banda se ajusta diariamente a una tasa mensual del 3%, con una revisión prevista para el mes de diciembre; esta medida de ajuste se recalibrará a principios del 2019. Este régimen cumple con características propias del Crawling Bands. No obstante, no se halla una explicación para la regla mediante la cual se van ajustando las bandas. Al observar las expectativas de inflación del REM, estas giran alrededor de esa cifra, pero sólo para el mes de diciembre, ya que dada la inflación de los últimos meses la tasa de ajuste de las bandas se encontró muy por detrás, amén a la formidable depreciación de los últimos meses la cual acumula hasta octubre un 52,5% (IPoM OCT2018).

TW: @mbananita

QE y QT: los hermanos no convencionales

san-giorgio-maggiore-in-the-morning

San Giorgio Maggiore in the Morning – Turner

A bordo de un navío desvencijado con rumbo desconocido, con un capitán completamente mareado, asistimos hace poco al décimo aniversario de la caída del banco de inversión Lehman Brothers. Fue una de las marcas de la crisis financiera global. Una marca acaso menos espectacular -a nadie se le ocurriría hacer una película sobre esto- fue la decisión de la Reserva Federal de los Estados Unidos de llevar a cabo una política monetaria no convencional, basada en el manejo del balance sheet de la entidad.

Con la crisis amenazando con devorarse absolutamente todo, las primeras respuestas del Comité Federal de Mercado Abierto (FOMC) fueron la reducción de la tasa de Fed Funds (tasa de overnight interbancario e instrumento de política), más un recorte de las tasas de descuento y un alargamiento de los plazos en los préstamos a bancos. La persistente debilidad de la economía obligó a seguir reduciendo el objetivo de los FF, hasta alcanzar el rango 0-25 puntos básicos en diciembre de 2008. Ante esta situación desesperante (conocida en la literatura como zero lower bound) se decidió seguir la experiencia japonesa de comienzos de siglo. La política no tradicional dejaba de lado un objetivo de tasa de interés y se enfocaba en la hoja de balances del banco central y en la comunicación pública de la autoridad monetaria.

Las medidas buscaban a través de la compra a escala intergaláctica de activos -bonos, en particular- alentar al resto de los agentes y aumentar el precio de los activos vapuleados. Ahí estaba el famoso quantitative easing (QE). El aumento de la base monetaria consecuente sería irrelevante si la formación de expectativas sobre las tasas de corto tenía influencia en los rendimientos de largo plazo. El efecto portfolio balance indicaba que la compra de bonos de largo reduciría los rendimientos en el tramo largo de la curva y los rendimientos de los sustitutos (a través de la prima).

Idea: los activos financieros no son sustitutos perfectos (hay restricciones institucionales, costos de transacción e información, y riesgo). Ello implica que cambios en la oferta de los activos disponibles para los privados puede afectar los precios y los rendimientos de tales títulos. Si la Fed compra, el precio de ese título debería aumentar y su rendimiento, caer. Al momento de rebalancear sus portfolios, los inversores reemplazarán los títulos, -comprados por la Fed- por otros títulos, cuyo precio debería aumentar, mientras su rendimiento debería caer. Todo aquello aliviaría las condiciones financieras generales y estimularía la economía de la misma manera que la PM convencional (Bernanke, 2012).

Se advertía, sin embargo, que la compra de activos podía complicar el funcionamiento de los mercados de títulos. La oferta, si bien era bastante amplia, no podía ser infinita, y mucha compra por parte de la Reserva Federal en ciertos segmentos del mercado podía complicar las transacciones entre los privados, haciendo desaparecer la liquidez. Un sistema financiero poco profundo e ilíquido podía impedir la transmisión de la política monetaria, por ejemplo a través de mayores primas por liquidez en los títulos del tesoro, impidiendo la baja deseada en los rendimientos. Otro problema guardaba relación con la capacidad del Central de salir de su stance de política con una hoja de balances inflada. Por último -y fuera de programa- los menores rendimientos podían inducir a los inversores a tomar malas decisiones en la búsqueda de aumentarlos, poniendo en riesgo a todo el sistema.

El QE1 (de finales del año 2008) buscó salvar al mercado inmobiliario. Consistió en la compra de deuda de empresas patrocinadas por el gobierno (empresas que habían nacido para dotar de liquidez y de estabilidad al mercado secundario de hipotecas, promoviendo el acceso a los créditos, cuya estructura falló escandalosamente), de títulos respaldados por hipotecas (MBS) emitidos por dichas empresas y de Treasuries de LP. El dinero de alta potencia y el exceso de reservas de la Fed aumentaron notablemente.

Pronto, la política no tradicional buscó también estimular a la economía real. Ante el pánico deflacionario (el índice de precios al consumidor rondaba el punto porcentual) la Fed anunció que reinvertiría los pagos de los activos adquiridos anteriormente en bonos del tesoro (QE2). Para 2011 se reinvirtieron los MBS y se adoptó el programa de extensión de madurez (MEP): la autoridad extendió la madurez de su portfolio de Treasuries con el fin de reducir las tasas de largo en relación con las de corto (dando vuelta la curva de rendimiento). La Reserva Federal compró, entonces, activos de largo vendiendo los activos de corto en su poder. Con todo esto no hubo expansión de la base monetaria pues el fondeo se hizo con las ventas de títulos.

Durante la primera mitad de 2012 se observó una evolución poco favorable tanto del empleo como de los salarios en los Estados Unidos. La Fed decidió extender el MEP: las compras y las ventas continuaron. Sin mejoras, se anunció el QE3, donde la clave no era el monto de las compras sino el ritmo de las mismas, atado a que el mercado laboral mejorara (siempre en un marco de estabilidad de precios). En diciembre de ese año se anunció que continuaría el programa de extensión de madurez pero sin esterilización: las compras futuras sí expandirían la base monetaria.

Resultado: se observó la caída en los rendimientos de los bonos del tesoro de largo plazo, pero también lo hicieron los rendimientos de los bonos corporativos. Por otro lado, el aumento de los precios de las acciones -debido a la menor tasa de descuento y las mejores perspectivas económicas- impulsó el consumo y la inversión. Por supuesto, hay quienes consideran que la recuperación de la economía americana distó de ser la pregonada por las autoridades, con marcadas desigualdades a la hora de distribuir los beneficios.

Con la crisis financiera los capitales volaron a las economías emergentes, donde las tasas de interés eran naturalmente mayores. La mayor flexibilidad de las condiciones financieras y la apreciación del tipo de cambio no deseada eran reforzadas por el quantitative easing, siempre considerando las particularidades de cada economía. Al mismo tiempo, los flujos entrantes y el aumento de los precios de los activos consolidaron el endeudamiento de las firmas en aquellas naciones, las cuales quedaron muy expuestas a una deuda contraída con un dólar débil[1].

La reversión de esta política monetaria comenzó hace poco. El quantitative tightening supone un desafío inmenso para la economía global, tanto como su hermano. La Reserva Federal deja madurar los bonos en su poder, normalizando de a poco (muy de a poco) su stance de política, y desinflando la hoja de balances. Este proceso es acompañado por aumentos en la tasa de Fed Funds -desde hace una semana en el rango 200-225 puntos básicos- a bordo de alentadores datos sobre inflación, crecimiento y empleo. Estas no son buenas noticias para las naciones emergentes: las tasas de los bonos del Tesoro han reaccionado rápidamente al cambio de política, fortaleciendo al dólar. Justo al dólar.

[1] Quedarán para otro momento los efectos de la política monetaria no convencional en Europa y Japón.

TW: @navarrojuguete

La lección de Estocolmo

hb_57.92

Autumn Rhythm (Number 30) – Pollock

La intención -aquí- no es resaltar que todos los países (con excepción del nuestro) son capaces de manejar correctamente una crisis económica. Más bien es un lamento: la clase política argentina, que tanto ha contribuido al eterno subdesarrollo, es la que debe decidir, en pleno, sobre uno de los elementos cruciales del acuerdo con el Fondo Monetario Internacional. Acostumbrados a que todos los debates en el Congreso acaben en una batalla campal, una guerra insólita y atroz contra nosotros mismos, asistiremos a la discusión sobre la Ley de Presupuesto 2019. Esperamos que todos se echen la culpa del actual estado de situación. Cuando estamos inmersos en el caos, nuestros dirigentes no fallan.

Sin embargo, hace casi tres décadas, la clase política de Suecia hizo algo distinto. Sin exageraciones ni eufemismos, el parlamento de aquel país -el riksdag– logró ponerse de acuerdo cuando todo se caía a pedazos. Gobierno y oposición reconocieron su cuota de errores, y fue esta unidad política la que hizo el aporte fundamental para la solución de la crisis financiera de principio de los noventa. Veamos de qué se trató.

La economía sueca operaba bajo estrictos controles en la cuenta de capital desde la Segunda Guerra Mundial. El banco central -el riksbank– decidía a gusto e piacere los sectores que podían acceder al crédito. El final de Bretton Woods no fue suficiente para que se dieran de baja estas restricciones que mantenían aislado al país desde el punto de vista financiero y a los bancos prácticamente fuera del negocio. La política que perseguía el pleno empleo tuvo como resultado altas tasas de inflación y sucesivas devaluaciones. Al menos hasta 1982, cuando la corona sueca fue fijada a una canasta de monedas.

En la llamada “revolución de noviembre” se desregularon los mercados financieros: fueron eliminadas las restricciones de préstamos para los bancos (debido a desbalances en los portfolios de los agentes privados). Al aumentar los créditos -firmas y hogares tenían ahora importantes incentivos para endeudarse-, aumentó también la competencia entre los bancos, los cuales bajaron los estándares de calificación en la búsqueda de market share. Una parte considerable del incremento en el volumen de crédito iba a los mercados de real estate y a acciones, vía compañías financieras. Estas tomaban dinero de los bancos y la prestaban, ignorando el riesgo, de manera que los bancos pasaron de una actividad prácticamente libre de riesgo a tomar, con este mecanismo, cada vez más riesgo indirecto (agravado por el descalce de plazos típico: prestaban a largo y mediano, y tomaban a corto).

Como cabría esperar, los precios de las propiedades y de las acciones se fueron a las nubes. Problema: se utilizaron estos activos reales en ascenso como collateral para endeudarse más, concentrando el riesgo en aquel sector. La tasa de interés real estaba en un valor muy bajo -incluso negativo- por la mayor tasa de inflación (y altas expectativas de inflación). El sistema impositivo, a su vez, favorecía el endeudamiento. Con esta tentación, inversión y consumo crecieron alocadamente, empujando y sobrecalentando la economía real. El ratio deuda-PBI se mantenía bajo gracias al superávit presupuestario, pero ya se observaban problemas en la cuenta corriente por el crecimiento desmesurado de las importaciones y un sector transable (exportador) noqueado. Resultado: burbuja hecha de excesivo endeudamiento privado y excesivos prestamos del sector financiero, con un mercado que vislumbraba el atraso cambiario. La mesa estaba servida.

Un giro en la tasa de interés hizo estallar la burbuja.

Pero ¿por qué aumentó la tasa de interés? El Banco Central de Alemania debía financiar un enorme gasto para absorber a Alemania del Este. Se llevó adelante una política monetaria demasiado tight, para sí mismo y para el resto de Europa. Esto presionó a los otros países del continente para la depreciación de sus monedas contra el marco alemán. La corona sueca, bajo ataque especulativo, fue defendida con varias herramientas por parte del gobierno. La más sorprendente fue un aumento de la tasa de interés por encima de la de sus vecinos (la tasa overnight llegó a 500%).

El aumento de la tasa doméstica desplomó el precio de los activos (desplome impulsado , nuevamente, por expectativas); la demanda agregada también se vio afectada; el desempleo sobrepasó los 8 puntos; las bancarrotas aumentaron. Las mayores tasas y la imposibilidad de las compañías financieras para repagar sus deudas -afectando a los bancos que les habían prestado el dinero- gatillaron la crisis bancaria. En septiembre de 1992 el gobierno intervino para prevenir un colapso mayor, garantizando de forma ilimitada los pasivos de los bancos. Esta garantía sobre los depósitos del sistema estaba basada en un acuerdo entre el gobierno de aquel entonces (centro-derecha) y la oposición (social-demócratas), coronado con la creación de la BSA, la Autoridad de Apoyo Bancario. La idea inicial detrás del acuerdo era defender el tipo de cambio fijado -ahora- a la unidad de moneda europea (ECU) y llevar tranquilidad a los mercados. Pero era también un compromiso irrestricto de la clase política frente a una crisis que amenazaba con llevarse todo puesto. Se convenía que si el ratio de capital de los bancos caía por debajo de cierto umbral, aquella garantía se convertiría en préstamo o en capital equity.

La tan famosa agencia, independiente del gobierno, del banco central y de la Autoridad de Supervisión Financiera (FSA), fue la encargada de manejar la crisis bancaria, clasificando mediante un modelo predictivo el desarrollo financiero de cada entidad. Se las clasificó en 3 grupos: i) las que tenían ganancias a mediano plazo e iban a poder solucionar sus problemas con una inyección de capital de sus dueños; ii) las que tenían problemas temporarios y necesitaban de esa garantía del gobierno sobre sus pasivos; y iii) las que no tenían futuro, con apoyo o sin apoyo, a quienes les esperaba la bancarrota o ser absorbidas por un banco más fuerte. Las entidades en la segunda categoría debían separar los buenos préstamos de los malos préstamos y transferir estos últimos a corporaciones que manejaban los activos de los bancos. Las entidades que acudían por ayuda debían mostrar sus libros, su posición financiera. La ayuda, por otro lado, suponía ser justa al rescatar únicamente al banco y no a sus propietarios.

En noviembre de 1992, luego de otro ataque especulativo, se dejó flotar la corona sueca. La crisis acabó con una importante depreciación (a posteriori, la depreciación aumentó la competitividad de los bienes suecos, lo que impulsó las exportaciones, motor de la recuperación del país).

Las decisiones de política económica no tienen porqué ser compartidas por todo el espectro político (así no funciona la cosa). Mucho menos podemos establecer al consenso como condición necesaria en un país con una dirigencia tan heterogénea -y en muchos casos vergonzosa, con historiales preocupantes en esta materia-, cuya prioridad es siempre obtener algún rédito político, y evitar hacerse responsable de sus errores y horrores. Frente al mar de incertidumbre, no pinchemos el salvavidas de 50 mil millones de dólares.

TW: @navarrojuguete

La Ley de Okun en Argentina

collivadino

La hora del almuerzo – Collivadino

Existe una relación entre el desempleo y el producto, conocida en la literatura como la Ley de Okun. Se trata de una “regularidad empírica” que constituye un indicador básico de los costes globales del desempleo cíclico, por tanto se debe tener en cuenta su efecto distributivo, ya que el desempleo afecta más a los pobres que a los ricos (Dornbusch y Fisher, 1994). En síntesis: cuando la economía crece también lo hace el empleo, pero si la economía no crece lo suficiente el desempleo aumentará.

En un trabajo preliminar, estimamos esta relación para la Argentina en el período 1993-2013, comprobando su existencia si se considera toda la muestra. A partir de las dos primeras especificaciones originales de Okun -el modelo estándar de primeras diferencias y el método de brechas- se obtuvieron coeficientes de -0,398 y -0,408, respectivamente. Esto es, que ante un aumento de 1 punto porcentual en la tasa de crecimiento del PBI -de un trimestre a otro- la tasa de desempleo caerá aproximadamente 0,40 puntos porcentuales

okunardo

Fuente: Elaboración propia en base a ARKLEMS e INDEC.

Se encontró que la sensibilidad de dicho coeficiente es mayor en los períodos en los cuales el producto se encuentra por debajo de su tendencia, su valor natural (-0,43 contra -0,37). Esto se encuentra en la vereda opuesta de lo que se observa empíricamente en la mayoría de los casos, pues uno esperaría que por razones sociales -y políticas- los trabajadores tienden a mantener su puesto a pesar de las turbulencias cíclicas. Al respecto pueden encontrarse diversas teorías.

En este marco, podemos decir que la Ley no se cumple durante la década del 90, observándose que la relación negativa planteada por Okun se da a partir del 2003. En dicho año, el coeficiente empieza a ser significativo, aumentando en valor absoluto hasta 2009, para luego ubicarse por encima de -0,4.

¿Por qué sucede esto? Veamos el mercado laboral y el comportamiento de las firmas locales.

Un poco más atrás en el tiempo, durante los ochenta, debido a la incertidumbre económica imperante, las firmas argentinas habían desarrollado rutinas y conductas funcionales a un contexto de alta regulación. Aquella forma de operar terminó por tornarse en un escenario de ‘incertidumbre estratégica’ para la clase empresarial de la siguiente década.

Es bien sabido que en los países expuestos a largos periodos de inestabilidad -y con inexistentes mercados de capital a largo plazo- las firmas operativas suelen ser aquellas del tipo capital-intensivo para compensar la volatilidad del ciclo económico. Con este tipo de conducta, en la cual se opta por acortar el horizonte temporal, la clase empresarial buscaba cierta flexibilidad ante eventuales cambios en el panorama económico (Fanelli y Frenkel, 1996).

Los noventa estuvieron atravesados por cambios estructurales. Ante estas nuevas reglas de juego la respuesta de muchas de las firmas fue la reducción de personal y el cierre de líneas de producción, entre otras; es decir buscaron achicarse. Estas fueron las denominadas ‘estrategias defensivas’. Las funciones de producción se volvieron menos trabajo-intensivas, lo que llevó a una destrucción de las capacidades existentes. Aquí las firmas que sobrevivieron al nuevo marco fueron las que incorporaron ‘reestructuraciones ofensivas’ que los acercaron a las mejores prácticas internacionales (López, 2006).

Si bien los cambios en la legislación laboral tenían como objetivo flexibilizar el marco normativo, eliminar las distorsiones existentes y disminuir los costos salariales (lo que aumentaría la competitividad de las empresas, traduciéndose esto en un aumento de la demanda de empleo), existieron efectos muy bajos sobre la elasticidad empleo-producto (MTEYSS, 2013). Además, los cambios tecnológicos de los noventa aumentaron el requerimiento del nivel educativo.

Así las cosas, durante buena parte de la primera mitad de los noventa la economía creció pero la generación de empleo fue débil. Como consecuencia del efecto Tequila, la tasa de desempleo tuvo un salto significativo y se consolidó el empeoramiento de las condiciones del mercado de trabajo. Hacia finales de aquella década se registró creación de empleo, esta vez durante una recuperación económica.

Entre mayo de 1998 y mayo de 2001 la economía argentina se contrajo 5,4 por ciento. En ese periodo el desempleo aumentó de 13,2 a 16,4 puntos; la creación de empleo fue de 1,23 millones mientras que la destrucción de puestos de trabajo fue de 1,26 millones (UCA, 2009).

Las mejoras en los indicadores laborales en la primera década de los 2000 se debieron tanto al mejor desempeño económico como a políticas activas que buscaron, en gran medida, promover la inserción laboral de los trabajadores desocupados. Puede notarse que la tasa de empleo no registrado comienza una clara tendencia descendente desde el cuarto trimestre de 2004 para comenzar a aumentar en el tercer trimestre de 2008. Y si bien existió una desaceleración en la creación de empleos, que coincidió temporalmente con la crisis internacional, esto se explicaría más por factores internos (crecientes costos salariales) que externos.

A pesar de un proceso de reversión en la dinámica de la estructura productiva, el crecimiento de las distintas ramas productivas no logró recuperar completamente su peso relativo, aunque sirve para explicar el comportamiento de la actividad económica y el crecimiento del empleo. Para 2014 la matriz productiva continuaba mostrando rasgos de industrialización fragmentada, exhibiendo brechas de productividad intra e intersectorial, con las habituales limitaciones de la restricción externa (debido a la dependencia de las importaciones). Por otro lado, el empleo público fue en aumento desde la crisis de 2001-2002, hasta llegar a un 35% del total de ocupados hacia 2011. Durante aquel periodo el crecimiento del empleo asalariado se atribuye particularmente al formal. Por otra parte el empleo asalariado informal exhibe un claro descenso si se toma el periodo 2003-1014 (Bertranou y Casanova, 2015).

Se puede inferir, entonces, que los cambios introducidos luego de la crisis del 2001 determinan el cambio en el coeficiente de Okun, el cual planteaba una relación inexistente hasta el año 2003 [1].

Por último, resulta necesario aclarar que entre los economistas existe consenso en cuanto a ciertos aspectos de la relación desempleo-producto. A saber: dicha relación varía en el tiempo; no responde igual en momentos de expansión como en los de recesión; y varía entre países debido a que la estructura subyacente de cada economía es diferente (tecnología, instituciones, etc). Además, los resultados de las mediciones (y la validez de la Ley) difieren en la medida que se emplean distintas metodologías para testearla. El mismo autor advierte sobre supuestos bien fundamentados que afectan el valor del coeficiente relevante, como ser la productividad, las horas trabajadas y la tasa de participación (Okun, 1962).

[1] Para otros estudios sobre la Ley de Okun en Argentina, ver Abril et al. (1998), Gulli (2005), Fernández y Simes (2006) y Apella (2016).

Referencias

Abril, J. C., Ferullo, H., & Gaínza, A. (1998). Estimación de la relación de Okun: Argentina 1980-1996.

Apella, I. (2016). Employment-GDP Elasticity in Argentina during 2004-2014. International Journal of Social Science Studies, 4(3), 72-82.

Bertranou, F., & Casanova, L. (2015). El contexto macroeconómico, las transformaciones en la estructura productiva y el desempeño del mercado de trabajo. En F. Bertranou, & L. Casanova, Las Instituciones laborales y desempeño del mercado de trabajo en Argentina (págs. 18-23). OIT.

Dornbusch, R., & Fisher, S. (1994). Macroeconomía. Aravaca: McGraw-Hill.

Fanelli, R., & Frenkel, R. (1996). Estabilidad y estructura: interacciones en el crecimiento económico. En J. Katz, Estabilización macroeconómica, reforma estructural y comportamiento inductrial, estructura y funcionamiento del sector manufacturero latinoamericano en los años 90 (págs. 21-79). Buenos Aires: Alianza Editorial S.A.

Fernández, R., & Simes, H. (2006). Cumplimiento de la Ley de Okun en la ciudad de Posadas utilizando modelos estáticos. Revista Científica” Visión de Futuro”, 6(2), 151-174.

Gulli, I. (2005). Ley de Okun descomposición de las fluctuaciones económicas. Asociación Argentina de Economía Política.

López, A. (2006). Empresarios, instituciones y desarrollo económico: el caso argentino. Buenos Aires: CEPAL.

Maurizio, R. (2016). Formalización del empleo en Argentina durante la década del 2000. Un análisis de sus factores determinantes. En R. Rofman, La Protección Social en Argentina, el rol de las provincias (págs. 69-138). Ciudad Autonoma de Buenos Aires: World Bank.

Ministerio de Trabajo, Empleo y Seguridad Social. (2013). La inspección del trabajo en la Argentina 2003-2012.

Okun, A. (1963). Potential GNP: Its measurement and significance. Yale University, Cowles Foundation for Research in Economics, 98-103.

Pontificia Universidad Católica Argentina. (2009). El trabajo informal está en aumento y es necesario reformular las políticas de empleo. Informe de Economía real, empleo y desarrollo social, 4(19).

 TW: @mbananita

Israel y Argentina: el cuento de la inflación

woman-reading-the-reader-50

La Liseuse – Renoir

Todos conocen el cuento.

Una economía que no crece. Los clásicos problemas en el balance de pagos. Creciente dependencia de financiamiento externo. La siempre temible espiral inflacionaria por el bien conocido camino de las expectativas y la devaluación. Cierta preocupación por el tamaño del Estado. Pérdida de confianza en el plan económico, traducida en sucesivas corridas contra la moneda doméstica y en fuga de capitales.

Bien podría ser el cuento de la Argentina.

Un programa de estabilización exitoso debería apuntar directamente al aumento de los precios y a los desequilibrios externos. Estos, a su vez, son consecuencia de dos factores: i) el déficit presupuestario, que hace crecer la deuda interna y también la externa; y ii) pérdida de ancla nominal, pues ha fallado la sincronización de salarios, precios y tipo de cambio. Ambos factores deberían ser atacados simultáneamente para evitar efectos indeseados, sobre todo en el empleo.

En este marco, se instala con fuerza el debate: shock o gradualismo. Los defensores de éste último se apoyan -obviamente- en el costo social de un ajuste drástico. Los partidarios del shock, por cuestiones de political economy, creen que el gobierno tiene únicamente una bala, y que la inercia hace imposible una disminución gradual de la inflación.

Muy pero muy parecido al cuento de la Argentina.

Primero se intenta por el camino gradualista, vía acuerdos entre las partes -gobierno, empresarios y trabajadores, quienes deciden congelar precios y estipular los aumentos salariales- y algo de ayuda externa. Resultado 1: se observa una mejora en la cuenta corriente del balance de pagos. Resultado 2: la tasa de inflación anual se acelera dramáticamente. Al final, se toma partido por el ajuste drástico.

Este cuento nada tiene que ver con Argentina.

El fuerte ajuste que llevó a cabo Israel (que siguió al derrotado plan gradual) tiene que ver con un programa que se implementó en julio de 1985, cuyas bases eran:

  • recorte presupuestario, por el lado de los subsidios (con bastante consenso de todo el arco político) y con aumento de los impuestos, buscando atenuar el desequilibrio en el balance de pagos y poner un alto al incremento de la deuda pública;
  • devaluación y posterior fijación del tipo de cambio (no es verdad que para el plan de aquel año se dejó flotar el tipo de cambio, mucho cuidado);
  • política salarial que incluyó un pacto tripartito, similar al anterior, con control de precios temporario, más ajustes salariales preestablecidos.

La inflación mensual pasó de 15 por ciento a 3-4 por ciento en los primeros tres meses (cabe destacar que Israel no tenía nuestro ominoso historial inflacionario). A pesar de una pequeña crisis en 1986, se mantuvieron los recortes en el presupuesto, lo que contrajo el déficit presupuestario poco más de 10 puntos del producto. Y el desempleo –el punto crítico para el gobierno israelí- apenas aumentó un par de puntos. Hay que destacar que el contexto internacional tuvo su aporte en esta historia: Israel pasó a tener unos términos de intercambio favorables gracias a la caída del precio del petróleo y de las materias primas (las mejoras en la competitividad vinieron por el lado de la devaluación inicial), mientras la ayuda económica de los Estados Unidos -eterno aliado- sirvió como colchón para la estabilización del tipo de cambio.

La experiencia israelí puede no ser replicable en nuestro país. Tanto el frente externo como el interno difieren marcadamente. Israel –entonces- y Argentina –hoy- no comparten el instrumento de política monetaria, con una insólita injerencia del Ejecutivo en el Central en nuestro caso. La terapia de shock –en el sentido de recortes de subsidios, por ejemplo- prácticamente no tiene adeptos dentro de la clase gobernante. El mismo movimiento de precios internacionales de materias primas que favoreció a Israel, hoy perjudica a la Argentina. Y así podríamos seguir.

Aunque en economía no hay dos cuentos idénticos, existen aspectos innegociables para que un plan anti-inflacionario sea eminentemente exitoso (hace poco estas cuestiones fueron destacadas por el economista Jakob Frenkel, a manera de ‘principios universales’, si se quiere): responsabilidad fiscal -un estado que no gaste más de lo que le ingresa- e independencia del Banco Central, algo que, con el cambio en las metas de inflación de diciembre último, sigue estando en discusión.

TW: @navarrojuguete

“Pobre Cerebro”, de Sebastián Lipina

Lipina [tapa]

Esta entrada no pretende ser una reseña. Más bien sería un resumen con algo de opinión. Y es que el enfoque neuro-científico de la pobreza resulta ser muy atractivo para quienes nos hemos topado alguna vez con esa vasta bibliografía que concluye que un niño pobre (en un sentido amplio, no solo bajo un enfoque monetario) difícilmente puede aspirar a ascender socialmente. El principal argumento de estos trabajos gira en torno a que es éste un país donde dicho ascenso es prácticamente imposible, pues las oportunidades son escasas y el nivel educativo de los padres y al que el niño pueda acceder lo condicionan de manera casi terminal. De esto surgen dos interrogantes algo radicales: ¿no importará el esfuerzo porque simplemente no le va a dar la cabeza? y ¿qué probabilidades hay que el hijo de un cartonero se reciba de médico? Por otro lado, existen factores adicionales que condicionan al individuo en su paso por una institución educativa como pueden ser una obligación laboral, tiempo que se pierde viajando, si cuenta o no con un sitio donde estudiar en la casa (porque fuera del hogar es bastante difícil hacerlo), y si viviera en un ambiente hostil o de importantes carencias materiales (como servicios de luz, gas, agua potable). ¿Qué podríamos decir en cuánto a su futuro? En este libro, Lipina argumenta que se ven afectadas su personalidad y deseos -aquello que pudiera llegar a ser o hubiese querido hacer-, sus pensamientos y emociones; esto decanta en lo que pudiera ser la mayor de las faltas, porque los pensamientos pierden grados de libertad, embarcando al individuo en una suerte de “yo” alternativo desde el origen de sus tiempos. La parte más dura es que quienes la padecen ni siquiera sufren su ausencia/pérdida, no se percatan de ello. Después de todo ¿cómo sufrir por algo que nunca existió? En contraposición, el individuo tendrá libertad si goza de la capacidad de llevar la vida que quiera llevar, esto último siguiendo la noción de Amartya Sen respecto a la libertad en el marco del desarrollo económico. Sin embargo no es mi intención hacer una ensalada conceptual. Para el lector interesado, recomiendo “Desarrollo y Libertad”. Finalmente existen esperanzas: a la luz de diversas investigaciones (citadas en Pobre Cerebro) queda claro que, sin importar las condiciones iniciales, la recuperación es posible.

Antes de entrar en materia, serán necesarias algunas definiciones (aunque ninguna muy específica):

Los estresores son circunstancias ambientales; hay que tener en cuenta que “las experiencias estresantes dependen tanto de la historia sociocultural del individuo como de la manera en que esta moldea diferentes redes neurales durante su desarrollo”.

La autorregulación se trata de conductas que se orientan a solucionar un problema específico de adaptación; por ejemplo, poder comportarse de manera adecuada ante cierta situación o lugar en que nos encontremos.

La sinapsis es el proceso de unión de células nerviosas.

La cognición tiene que ver con la capacidad de pensar, ésta consiste en procesos como razonamientos, aprendizaje, resolución de problemas e incluso los sentimientos. La neurociencia considera a la cognición como “una suma de componentes biológicos que realizan cómputos programados para llevar a término tareas complejas”.

Siguiendo la línea que nos ocupa, el enfoque neurocientífico moderno de la pobreza “propone analizar cómo diferentes factores individuales y ambientales asociados a ingresos bajos o condiciones de vida en que las necesidades básicas de alimentación, vivienda, educación y salud están insatisfechas influyen en el desarrollo neural”. La pobreza es un fenómeno multidimensional (en el sentido que debe ser explicada y estudiada desde distintas áreas) y afecta al sistema nervioso central.

Existe algo llamado Eje HPA (H de hipotálamo, P de pituitaria y A de adrenal), un sistema que regula la capacidad para adaptarnos a diferentes ambientes y nos prepara para dar una respuesta. Este sistema es activado por los estresores y “en situaciones tempranas de adversidad causadas por la pobreza extrema, el maltrato y el abandono, el sistema se activa en forma crónica y daña la salud física y psicológica de todos los integrantes de la familia, en especial de los niños, desde antes de su nacimiento”.

Pero, al fin y al cabo, ¿qué es la pobreza? En palabras del autor: “la pobreza es una violación de la dignidad humana, en tanto trunca el desarrollo de las capacidades de las personas, y una de las señales más potentes de desigualdad. En cualquiera de sus definiciones y más allá de la forma en la que se la mida, causa enfermedad, muerte prematura y humillación, se la asocia con la discriminación, la sujeción, la vergüenza y la falta de confianza”. Y al ser la pobreza de carácter multidimensional, su tratamiento ha de ser interdisciplinario, lo que constituye uno de los puntos importantes que aquí se tratan.

¿Cómo y por qué la pobreza es una limitación? “las condiciones de vida hacen que las oportunidades de estimular las competencias cognitivas y el desarrollo emocional, intelectual y social de los niños disminuyan porque la tensión psicológica y la impotencia de los adultos para alcanzar estándares mínimos de dignidad cotidiana pueden provocar un aumento de la incidencia de estresores en los ambientes de crianza”. A partir de aquí, desarrolla la desigualdad que genera la pobreza desde el punto de vista psicológico y neurocientifico, y cómo ésta afecta a nivel regulatorio y el descenso de oportunidades para el desarrollo de capacidades.

La definición conceptual de la pobreza determina la forma en la que se estudia el fenómeno, tal es así que las políticas y estrategias para modificar sus causas y sus efectos son distintas. Respecto a los efectos de la pobreza en la salud física y psicológica, el impacto sobre el desarrollo cognitivo, emocional y social de los niños depende de la cantidad de factores de riesgo a los que están expuestos, de los momentos de la vida en el que experimentan las privaciones y de su susceptibilidad al ambiente: “el mismo nivel de ingreso o confort material puede ser percibido de forma diferente por los integrantes de la familia”. También “la experiencia subjetiva de la pobreza depende en muchos casos de las comparaciones entre pares en los diferentes contextos de desarrollo, incluidos los medios masivos de comunicación y las redes sociales”. Y es que la pobreza “refiere a un conjunto de requisitos psicológicos, físicos y culturales cuyo cumplimiento representa una condición mínima necesaria para el desarrollo de la vida humana en sociedad” (para la llamada Teología de la liberación “un individuo que vive en situación de pobreza pierde la capacidad de ser consciente de que es un sujeto de derecho”). La neurociencia cognitiva y la psicología del desarrollo contemporáneo afirman que la pobreza influye negativamente en el desarrollo de las competencias autorregulatorias, y las experiencias tempranas adversas pueden modificar la organización de los sistemas de regulación emocional al estrés. Es importante aclarar que, si bien los efectos de la pobreza son evidentes, ésta limita las capacidades tanto por oportunidades como también de una forma autoimpuesta dada la baja autoestima a raíz de las experiencias (producto del ambiente y su influencia). Existen trabajos que asocian a la pobreza con la posibilidad de adquirir enfermedades más tempranamente y, por consiguiente, sufrir una muerte prematura. Así y todo “el hecho de que una familia padezca pobreza por ingreso no implica necesariamente que los niños que la integran vayan a tener dificultades de desarrollo o de aprendizaje”. En esta cita la palabra clave es “pobreza por ingreso”: no se involucra otro tipo de carencias.

Entre muchos trabajos que en el libro aparecen, cabe mencionar el de Bradley y Corwyn (2002), que aclara: “cuanto mayor es el tiempo que vive una familia en situación de pobreza menor es la cantidad y calidad de estímulos para el desarrollo cognitivo y el aprendizaje en el hogar”. Otros trabajos indican que la pobreza no necesariamente implica un déficit cognitivo, o buscan predecir el desempeño en tareas donde se utiliza la memoria y el control cognitivo que tendrá un individuo en el futuro en función de ciertos parámetros como el ambiente lingüístico, el nivel educativo de la madre y las prácticas de crianza.

Ampliando la definición de autorregulación: “es un concepto psicológico que se refiere a la capacidad de ajustar, en función del contexto, los pensamientos, emociones y conductas”. Ayuda a las personas a adaptarse a los cambio. Al mismo tiempo, conlleva un proceso de aprendizaje, cambia durante el ciclo vital. En resumen, “son procesos psicológicos como la atención, la identificación de pensamientos y emociones adecuados para lograr un objetivo, el recuerdo y el uso de información relevante para la tarea, la posibilidad de cambiar el rumbo de pensamiento o la acción cuando las circunstancias ambientales cambian, imaginar los pasos que deben cumplirse para realizar una tarea compleja y luego ejecutarlos”. Estos procesos son resultado de la socialización según cada cultura, la construcción biológica y el ambiente en el que se encuentra cada individuo. Ésta “es más vulnerable en entornos poco estimulantes o con estresores intensos y habituales”.

Es importante comprender cuáles son los grados de libertad que permiten al ser humano cambiar y adaptarse a las contingencias ambientales desde su nacimiento. Cabe aclarar que el sistema nervioso cambia y se organiza durante toda la vida en función de la interacción entre las características propias del individuo (el genoma humano o aquello que traemos de fábrica, la esencia de cada uno) y el ambiente en que le tocó vivir (además del esfuerzo y las posibilidades de adaptación). El cambio que sufre el sistema es denominado “plasticidad neural”. Esta plasticidad varía según la etapa de la vida, es decir que los componentes neuronales cambian más o menos de acuerdo al momento del ciclo vital en el que nos encontremos: este cambio es mayor durante las primeras etapas. La organización del sistema nervioso involucra mecanismos como la generación de sinapsis y la poda sináptica. El autor mantiene una posición crítica ante la poca importancia que se le da al desarrollo luego de los míticos primeros mil días de vida, ya que el desarrollo regulatorio se extiende hasta la segunda década de vida. Esto afecta la generación de oportunidades.

En líneas generales, para explicar el proceso de desarrollo neuronal tenemos que “desde el nacimiento, cada experiencia de vida tiende a generar contactos entre las neuronas […] la regulación e integración de la información que cada neurona recibe a través de miles de sinapsis son las responsables de la capacidad de procesamiento del cerebro”. Cerca de la mitad de las neuronas sobreviven en la vida adulta, estas se van perdiendo a través de un proceso denominado “poda sináptica” la misma tiene lugar a través de la “muerte celular programada” y la eliminación de conexiones poco utilizadas (aquí las células que tienen poca o ninguna actividad mueren). Los momentos de máxima organización neural son los llamados “periodos críticos”, cuando cada función cerebral se va estableciendo pues allí los sistemas se transforman y dan lugar a una habilidad o función particular, por tanto estos sistemas son muy sensibles a ciertos factores: “luego de cada periodo crítico, las conexiones neurales disminuyen y son menos proclives al cambio”. En vista de ello, se estima que la poda de procesamiento sensorial y motriz culmina alrededor de los 24 meses de edad, mientras que en las del área frontal termina no antes de los 15 años, e incluso la generación de sinapsis puede extenderse al menos hasta los 20 años. Este dato resulta central porque los componentes neurales que conforman las diferentes redes de las zonas frontales del cerebro están involucrados en los procesos de autorregulación, pensamiento y aprendizaje”. De allí la importancia de la estimulación y de proveer un ambiente seguro que permitan enfrentar situaciones adversas durante las primeros 20 años de vida (como dice el autor, no es lo mismo escapar de un depredador que resolver un problema de algebra). Existen también los denominados “periodos sensibles”, de mayor duración. Estos refieren “no sólo a la etapa durante la cual el cerebro es especialmente sensible a cierto estímulos ambientales, sino también a una ventana de tiempo durante la cual el cerebro es más receptivo a la experiencia que contribuye a su formación”; a saber: el desarrollo autorregulatorio del lenguaje y del aprendizaje corresponde a muchos periodos sensibles

Entonces, de no haber existido estímulos adecuados ni un ambiente seguro, ¿es posible la recuperación? La respuesta esbozada por Lipina es que “en general, la recuperación cognitiva luego de una privación de estímulos ambientales suele ser mayor durante las etapas tempranas de desarrollo cerebral”, pero “que se haya alcanzado un número estable de sinapsis en cada área cerebral no significa que el desarrollo cognitivo y el aprendizaje se cierren, dado que siguen abiertas las oportunidades de generar nuevos contactos por intervenciones ambientales” y tal es así que asegura que mucho después de la ocurrencia de la “poda sináptica” es posible continuar construyendo conocimientos de cierta complejidad  y “si bien el desarrollo neural se concentra en las etapas tempranas de la vida, no implica que no se pueda continuar aprendiendo y formándose durante la vida adulta, aun en condiciones ambientales adversas”. Se citan en el libro multiples trabajos en los cuales se demuestra que por medio de diversos tratamientos la recuperación es eminentemente posible.

En efecto, no sólo importan los primeros tres años de vida: no es más que un mito. Es erróneo pensar que para que los niños no pierdan oportunidades de desarrollo hay que estimularlos antes de que cierren los períodos de poda sináptica. En vista que diversos estudios han demostrado que pueden existir recuperaciones más allá de los 2 años -debido a que “el desarrollo autorregulatorio puede ser modificado por las pautas de crianza en el hogar, la socialización y la educación formal y no formal”-, las intervenciones también deben apuntar a la adolescencia, a fin de abarcar una mayor cantidad de etapas en el desarrollo de los miembros de la sociedad. Concluye el autor que “la plasticidad neural es una fuente de oportunidades en el sentido de que los cambios que produce en la organización y el desarrollo del sistema nervioso están influidos por el ambiente de crianza y, por lo tanto, por la manera en que las sociedades se organizan y se cuidan. Si bien la organización neural, en particular, y la construcción de un individuo, en general, dependen de múltiples factores individuales y sociales, los cuidados que cada comunidad les ofrece a sus niños influye en las oportunidades de desarrollo, aunque no existe evidencia neurocientífica que nos permita calcular cuántos cambios en la plasticidad se relacionan con qué cantidad de privaciones materiales y simbólicas”. Se debe considerar que “todo cambio en el ambiente de crianza de los niños que vivencian la pobreza requiere revisar y explicitar los supuestos acerca de qué es y cómo se produce el desarrollo infantil”.

Ciertamente es mucho más adecuada una perspectiva de la pobreza a partir del bienestar humano y la inclusión social que la meramente monetaria. Es importante plantear el crecimiento de las sociedades sobre la base de la igualdad de oportunidades y el bienestar de las personas para lograr equidad y “detener la producción de residuos humanos”. Sobre esto hace incapié el libro. Es fundamental la calidad de los ambientes de crianza a la hora de diseñar intervenciones orientadas a mejorar el desarrollo autorregulatorio de los niños expuestos a la pobreza, a fin de que no se encuentren condicionados durante la adultez tras una vida de carencias (materiales, afectivas y de estímulos) que les haya arrebatado la posibilidad de desarrollar y mejorar, al mismo tiempo, sus capacidades. Y todo esto será no solo para una ostensible mejora en el bienestar individual, sino también un avance a nivel social, pues las interacciones sociales ricas nos ayudan a mejorar. Algo así como lo que Adam Smith llamaba “los misterios que flotan en el aire”. Así se nos ocurrirán mejores ideas.

TW: @mbananita