Le Monde diplomatique ÍndicesBúsquedaEste cdAyuda  
Home

Ceguera ante una amenaza mortal

A fines de la década de 1980 los primeros estudios importantes de muestras de hielo antártico reforzaron las presunciones sobre la existencia de un recalentamiento del planeta, en estrecha relación con las emisiones de gas carbónico producidas por las sociedades humanas: desechos industriales, consumo doméstico de los países ricos, deforestación (favorecida por esos mismos países) de los países pobres. Esas presunciones se han confirmado y agravado, pero el trabajo de los lobbies industriales impide encarar soluciones.

Hace dos décadas, la incertidumbre era aún muy importante, dado que en 1988 los modelos estimaban que el recalentamiento podría ir de 0,4° a 8,33° centígrados para fines del siglo XXI, aunque los valores generalmente admitidos van de 2° a 5,5°1. Tales resultados eran preocupantes: durante la última era glacial, hace 18.000 años, la temperatura promedio, a escala planetaria, había sido inferior de apenas 4° a 5° respecto de la actual. Si las previsiones pesimistas se confirman, los cambios climáticos que se producirían el siglo próximo podrían ser de la misma magnitud que los de una glaciación, aunque en sentido inverso. El efecto previsible no era un recalentamiento homogéneo de varios grados en todas las latitudes, sino una fuerte variación que hasta podría causar la suspensión de la Corriente del Golfo, lo que daría a Europa y a América del Norte un clima de características polares; o bien la multiplicación de las “anomalías” climáticas como las tormentas o el fenómeno de El Niño2.

Otra consecuencia, el aumento del nivel de las aguas de hasta un metro, a causa del deshielo de las masas árticas y antárticas, implicaba el “riesgo” de sumergir una parte de las costas, deltas y planicies donde se concentra la mayor parte de las tierras fértiles y de la población del planeta. Esas transformaciones a su vez significaban un “riesgo” de movimientos migratorios incontrolables, junto a otros fenómenos difíciles de prever, como la llegada a los países del Norte de enfermedades tropicales del tipo del paludismo o del dengue hemorrágico.

“Riesgo incierto”

Por supuesto, el “punto débil” de la argumentación era la palabra “riesgo”. A falta de certidumbres, importantes Estados y la comunidad internacional, a través del Grupo Intergubernamental sobre la Evolución Climática (GIEC), consagraron sumas considerables para establecer el nivel de probabilidades de esas previsiones. El primer informe del GIEC, publicado en 1990, confirmó el recalentamiento, pero sin poder precisar su magnitud. Sin embargo, la inquietud fue suficiente para que, en mayo de 1992, en Nueva York, se adoptara una Convención sobre los cambios climáticos que al mes siguiente, en ocasión de la gran conferencia de la ONU sobre el medio ambiente realizada en Río de Janeiro, fue firmada por 154 Estados.

En esencia, esa Convención proponía a los firmantes trabajar para “estabilizar las concentraciones de gas de efecto invernadero en la atmósfera a un nivel que impida cualquier perturbación antrópica peligrosa del sistema climático”. Ese ambicioso objetivo estaba mitigado por el hecho de que el nivel en cuestión no se precisaba. Sin embargo, el artículo 3 de la Convención estipulaba: “Cuando hay riesgo de perturbaciones graves o irreversibles, la falta de certidumbre científica absoluta no puede servir de excusa para aplazar la adopción de medidas de precaución para prever, prevenir o atenuar las causas de los cambios climáticos y limitar sus efectos nefastos”. La comunidad científica, política o mediática muy pocas veces invocó este último párrafo.

En abril de 1996 un segundo informe del GIEC, redactado por dos mil especialistas internacionales, siguió alimentando los temores, a pesar de las extremas precauciones terminológicas de los expertos. Según ellos, un “conjunto de elementos sugiere que hay una influencia humana sobre el clima”. ¿Por qué seguir utilizando una formulación tan reservada a pesar de la acumulación de pruebas? La explicación es que también se financiaron numerosas investigaciones para tratar de mostrar que el papel humano en las emisiones de gas no estaba “probado”, que el fenómeno podía deberse a un aumento de la actividad solar, o que migraciones de burbujas dentro del hielo hubieran podido exagerar la magnitud del fenómeno.

La disputa tuvo verdaderamente lugar un año y medio después en Kyoto, en diciembre de 1997. Estados Unidos (4% de la población y 22% de las emisiones de CO2) propuso, “como máximo”, estabilizar en 2012 sus emisiones al nivel de las de 1990, agregando a esa propuesta la creación de un mercado de “derechos para contaminar”, en el cual los países ricos que no llegaban a cumplir con sus objetivos podían comprar toneladas de carbono a los países más virtuosos o más pobres. Los europeos, más ambiciosos, defendían una reducción global de los países industrializados del 15% respecto de 1990, pero evitando que esas medidas limitaran a los llamados “países en desarrollo”.

Como en muchas conferencias internacionales, el resultado fue un arreglo que no dejó conforme a nadie: una propuesta de disminución del 5,2% en 2012 respecto del nivel de 1990, aplicable únicamente a los países industrializados. Para Estados Unidos o Japón ello significaba una obligación de reducir sus emisiones de gas en un 18% y un 16% respectivamente. Para la Unión Europea, cuya economía estaba estancada, el objetivo era menos difícil de alcanzar, pues la baja global era de apenas 5%, y de sólo 1% para un país como Francia, a causa de su compromiso con la energía nuclear. Por otra parte, el texto dejaba en suspenso la cuestión de los llamados “países en desarrollo”, a los cuales, en la lógica del “desarrollo industrial para todos” era difícil imponerles limitaciones, a pesar de que algunos de ellos, como Corea del sur, China o India, mostraban un rápido aumento en las emisiones de gas de efecto invernadero.

Sin embargo, el objetivo fijado por el protocolo de Kyoto es irrisorio. Según algunos expertos, corresponde a una reducción de 0,06° sobre un aumento de 2° estimado para 2050, es decir, 3% del esfuerzo previsto para frenar efectivamente el recalentamiento3. Las organizaciones ecologistas, luego de haber denunciado esas proposiciones por blandas y débiles, se aferraron a dicho texto como a un madero en medio de un naufragio. Siguiendo esa línea, los medios de comunicación y algunos gobiernos organizaron una defensa contraproducente y hasta peligrosa.

En efecto, existen dos hipótesis: o bien el calentamiento es una ficción, en cuyo caso todo ese esfuerzo prácticamente no sirve de nada; o bien es real, y entonces resulta indispensable actuar en serio y no limitarse al 3% del esfuerzo mínimo necesario. Algunos objetan, de buena fe, que el protocolo de Kyoto es un “primer paso en la dirección correcta”. Pero cuando se ven las increíbles dificultades que tienen los países industrializados para alcanzar a duras penas ese 3%, resulta difícil imaginar cómo se podrían implementar esfuerzos treinta veces mayores (es decir, el restante 97%) en un plazo razonable.

Aun más teniendo en cuenta que las grandes reuniones sobre el clima fueron registrando fracasos y renuncias cada vez más importantes. En noviembre de 2000, los países que se consideraban “progresistas”, dirigidos por el holandés Jan Pronk, enviado especial del secretario general de Naciones Unidas, lucharon en La Haya para oponerse fundamentalmente al principio de los permisos para contaminar y de los “pozos” de carbono que permiten mantener los desechos a condición de almacenar el carbono en alguna parte. De hecho, la conferencia terminó en un duro fracaso, pues Estados Unidos se retiró de las negociaciones, arrastrando a sus socios del llamado “Grupo Paraguas” (Australia, Canadá, Japón…). En 2001, el triunfo de George W. Bush, a quien se considera con estrechas relaciones con los lobbies petroleros, no arregló para nada la situación.

En un tercer informe importante, en 2001, los expertos climatólogos mundiales del GIEC revelaron que era “muy probable” que el nivel de concentración en dióxido de carbono jamás haya sido tan importante en veinte millones de años y que varios otros gases de efecto invernadero –como el metano, el dióxido de azufre o los óxidos nitrosos– habían alcanzado un nivel nunca antes conocido4. Esos aumentos se manifiestan en una elevación de la temperatura media del planeta de 0,6° en el siglo XX, con una sensible aceleración a partir del fin de los años 1960, correspondiente a más de 0,2° cada diez años, aunque se registraban períodos de estabilización.

Se comprobó además una muy fuerte aceleración a partir de 1990, pues la última década del siglo fue la más caliente desde hace al menos mil años. El nivel del mar subió entre 10 y 20 centímetros, a la vez que se comprobaban o se preveían modificaciones localizadas, como el aumento del fenómeno de El Niño, el adelgazamiento en un 40% de la capa de hielo ártica desde la Segunda Guerra Mundial, o perturbaciones en los monzones asiáticos.

Pero el informe terminaba señalando que las perturbaciones más importantes tendrían lugar “sin dudas” en los países tropicales. Esa previsión, más que dudosa, reforzó paradójicamente la posición permisiva de los países industrializados –sobre todo de Estados Unidos– ya que serían los países del Sur los que más sufrirían por esos cambios climáticos. En efecto, mientras que en la década de 1990 la existencia de un agujero en la capa de ozono, que amenazaba principalmente a la población del hemisferio Norte, había generado una rápida reacción con la firma del protocolo de Montreal en 1997, ninguna voluntad similar se manifestó contra el efecto invernadero.

Nuevas concesiones

En julio de 2001 los organizadores de una nueva conferencia climática, en Bonn, fueron obligados a realizar nuevas concesiones sobre los derechos para contaminar y los “pozos” de carbono, en particular respecto de Japón, Canadá y Rusia, a fin de “salvar” el protocolo de Kyoto, reduciendo las obligaciones a una simple estabilización de las emisiones al nivel de 1990 y no ya a una baja del 5,2% como en 1997. El mismo mes, sobre la base de un modelo creado por el Massachusetts Institute of Technology (MIT), un equipo de investigadores estadounidenses llegó a un porcentaje de probabilidades de recalentamiento del 90%5. Sin embargo, eso no alcanzó para modificar la posición del presidente Bush, que prefirió apostar al 10% de probabilidades de que el planeta no se encamine a una catástrofe. Pocos meses después, el 10-11-01, al cabo de una pulseada sin precedentes en los anales de la ecología, Europa logró convencer a 167 países de firmar el acuerdo de Marrakech, que implementaba las reglas jurídicas necesarias para la ratificación y la aplicación del protocolo de Kyoto.

Mientras que en 2001 Estados Unidos registraba un aumento del 3,1% de sus emisiones de gas de efecto invernadero (el mayor crecimiento anual desde 1990) dos nuevos estudios independientes de la ONU aparecidos en abril de 2002 llegaban a la conclusión de que probablemente el cambio climático había sido subestimado y el aumento de la temperatura se situaría más bien entre 5,8° y 6,9° alrededor de 21006.

Presentando como un axioma el hecho de que resulta imposible pedirle a los ciudadanos estadounidenses que cambien de modo de vida, la administración Bush se limitó a seguir pidiendo a los industriales que desarrollaran iniciativas espontáneas, a la vez que declaraba, sin sonrojarse: “Estados Unidos está comprometido en numerosas tareas que ayudarán a la nación y al resto del mundo a reducir su vulnerabilidad y a adaptarse a los cambios climáticos”7.

¿Qué se puede hacer? A la ineficacia del protocolo de Kyoto se agregan considerables efectos perversos. El lobby nuclear, que en la década de 1990 había sido seriamente cuestionado, aprovechó la brecha que dejaba ese texto. Aunque aún se ignora la forma de deshacerse de los residuos nucleares –que conservan su toxicidad durante miles de años– los promotores de esa industria la presentan como un modelo de limpieza (pues no libera gas carbónico).

Junto a ese primer lobby, el de las compañías forestales encontró un buen argumento. Desde la década de 1970 los empresarios del sector en los países tropicales eran criticados por la prensa y por las organizaciones no gubernamentales (ONG) ecológicas. Kyoto y los avatares de Bonn y Marrakech, otorgaron a los países industrializados la posibilidad de crear “pozos de carbono” en lugar de reducir la contaminación. Los proyectos de reforestación en zonas tropicales pueden entrar en esa categoría, más aun teniendo en cuenta la crítica deforestación que allí se registra desde hace décadas. Pero los bosques densos en general se hallan en una situación de equilibrio, y hasta de emisión de carbono; por lo tanto, los industriales del sector no tienen mejor solución para proponer que talar los bosques antiguos (cuya madera pueden explotar de paso) y remplazarlos por árboles jóvenes de especies de crecimiento rápido (acacia, eucalipto…) que absorben mucho más rápidamente el carbono. Y todo ello financiado con primas a la protección ambiental. Climáticamente inútil, el protocolo de Kyoto se convirtió además en el primer promotor de la energía nuclear y de la deforestación en zonas tropicales.

Sobre los escritorios de los tecnócratas expertos, la lista de proyectos para capturar el carbono es cada vez más larga. Y esos especialistas se ven apremiados por los dirigentes mundiales para hallar soluciones alternativas (sin contar con que el carbono no es el único elemento responsable, y que otros productos registraron un fuerte aumento paralelo, como el metano, a través de la agricultura por riego y sobre todo de la ganadería). Así, algunos proponen plantar más bosques en el extremo norte canadiense o europeo, pero esa vegetación absorbería la energía solar habitualmente reflejada por la nieve y el resultado sería nulo, sino desfavorable. Se podría aprisionar el carbono en los grandes fondos oceánicos: eso podría perturbar aún más el papel clave de los océanos, que ya absorbieron una parte de los residuos carbónicos humanos. Se podría sobrealimentar el plancton en las zonas árticas inyectándole altas dosis de carbono, pero existe incertidumbre sobre la resistencia del medio marino a ese tratamiento. Se podrían modificar genéticamente ciertas plantas para aumentar su potencial de absorción (allí entra en acción el lobby de los Organismos Genéticamente Modificados).

Incluso, algunos iniciaron estudios sobre productos capaces de reducir las flatulencias del ganado ¡pues los gases vacunos son ricos en metano! Otros consideran la idea de rociar la atmósfera con aerosoles especiales, y hasta de enviar cohetes para instalar pantallas o espejos en el espacio, con el objeto de filtrar una parte de la radiación solar y reducir el recalentamiento. No hace falta decir que existe una total incertidumbre sobre las consecuencias de tales proyectos.

Ignorar el problema

Mientras tanto, se acumulan los elementos coincidentes sobre los cambios que ya se están registrando. En un estudio aparecido en 2001 en la revista Nature, un equipo británico-noruego mostró que el caudal de la Corriente del Golfo disminuyó en al menos un 20% desde 19508. Si ese fenómeno continuara, se podrían cuestionar las evaluaciones de la comunidad científica occidental respecto de que los países del Sur serían los más afectados. En marzo de 2002, un fragmento del casquete antártico, de 3.250 km2 (más grande que Luxemburgo) y de 12.000 años de edad, se fracturó en miles de icebergs de un volumen total de 720.000 millones de toneladas de hielo.

Esos signos no cuentan. En nombre del “rigor” científico, la comunidad de investigadores y de políticos prefiere esperar hipotéticas “certidumbres” antes que tratar de aplicar el principio de precaución. Ellos se limitan a decir que se ignora la naturaleza y la magnitud del cambio, y que lo más importante es hacer nuevos estudios. Por supuesto que esos estudios son útiles, y hasta indispensables, pero ¿qué investigación climática podrá brindar alguna vez la “prueba irrefutable” de que vamos rumbo a una catástrofe?

Esos estudios tienen además la ventaja considerable de permitir afirmar que se hace algo, a la vez que no cuestan casi nada comparados con lo que representarían medidas concretas, y necesariamente radicales.

De manera metafórica podría decirse que los expertos responsables de “Kyoto” estaban admitiendo que la humanidad posiblemente se había vuelto loca, y que nuestro modelo de “desarrollo” se parece a un auto que va a 100 kilómetros por hora en dirección a un pared, y que por lo tanto es urgente reducir esa velocidad a 97 kilómetros por hora…

¿Pero qué responsable político o qué gobierno de país industrializado se atreverá a reconocer que el tipo de vida y de consumo que defiende representan un enorme riesgo para una parte importante de la especie humana y quizás, incluso, para nuestras civilizaciones?

  1. Pierre Thuillier, L’humanité saisie par l’effet de serre, La Recherche, París, 1992.
  2. El Niño es una perturbación irregular del clima en el océano Pacífico tropical, que incluye una modificación del régimen de vientos y de temperatura del agua, lo que causa principalmente fuertes precipitaciones e inundaciones, a la vez que importantes sequías.
  3. Ver principalmente: Antoine Bonduelle, “Dix défauts du protocole de Kyoto”, Institut d’évaluation des stratégies sur l’énergie et l’environnement en Europe (Inestene), París, 2001; y Franck Lecocq, “Distribution spatiale et temporelle des coûts des politiques publiques de long terme sous incertitude: théorie et pratique dans le cas de l’effet de serre”, Engref-CNRS, París, julio de 2000.
  4. GIEC, “Third Assessment Report, Summary for Policymakers”, UNEP/WMO, Ginebra, febrero de 2001.
  5. Science, Washington, 20-7-01.
  6. Associated Press, 17-4-02.
  7. United States Environemental Protection Agency, “US Climate Action Report 2002”, Washington.
  8. Bogi Hansen y al. “Decreasing overflow from the Nordic seas into the Atlantic Ocean through the Faroe Bank channel since 1950”, Nature, Londres, 21-6-01.
Autor/es Frédéric Durand
Publicado en Edición Cono Sur
Número de ediciónNúmero 42 - Diciembre 2002
Páginas:28,29
Traducción Carlos Alberto Zito
Temas Medioambiente, Salud