domingo, 14 de abril de 2024

Hidrógeno y agua de mar

Estoy casi seguro que todos los que me leen habrán oído o leído recientemente (incluso en este Blog) términos como hidrógeno verde, economía basada en el hidrógeno o cosas similares como propuesta para descarbonizar el planeta o, lo que es lo mismo, dejar de emitir CO2 como consecuencia de quemar combustible fósiles. Y que, para conseguir ese objetivo, necesitaríamos grandes cantidades de hidrógeno que se pretenden obtener mediante los llamados electrolizadores, dispositivos que descomponen el agua para dar, exclusivamente, oxígeno e hidrógeno.

Supongo que también sabrán que ese proceso consume mucha energía que, para que el hidrógeno así obtenido pueda denominarse verde, la hemos de sacar de alguna fuente que no produzca CO2 (eólica, fotovoltaica, hidroeléctrica e incluso, y no sin debate, nuclear). Hoy por hoy, el hidrógeno verde supone menos del 5% de la producción mundial (90MM de toneladas) de este gas. El resto se obtiene a partir de metano y genera CO2 en su producción por lo que se le suele adjetivar como marrón.

Pero lo que no se suele contar con tanta insistencia es que para llevar a cabo la descomposición (electrolisis) del agua, lo primero que se necesita es agua de una extraordinaria pureza. Para ser más exactos, los llamados electrolizadores de intercambio de protones, que parece que dominarán el futuro mercado, necesitan agua con contenidos en sales inferiores a los microgramos por litro y sin prácticamente materia orgánica. Si no es así, el asunto se complica, las instalaciones pueden dañarse con cierta rapidez y el hidrógeno que se genera puede no ser tan puro como es deseable.

Con estas premisas, la idea que se va imponiendo es que, dado que necesitamos usar energía de fuentes como las arriba mencionadas, mucho del hidrógeno que se produzca en el futuro estará en zonas con alto grado de insolación o con regímenes de vientos importantes. Lo cual implica que, en muchos casos, esas instalaciones tienen muchas probabilidades de instalarse en zonas de Oriente Próximo, la costa oeste americana, el Magreb, Sudáfrica, Australia o ciertas zonas del Oeste de China. Donde pocas fuentes de agua dulce hay.

Así que la solución aparentemente lógica es echar mano del agua de mar que, no en vano, constituye la reserva hídrica más importante de la Tierra ya que más del 70% de la superficie del planeta está ocupada por los océanos. Pero el agua de mar tiene en promedio más de 36 gramos por litro de diversas sales, sobre todo cloruro sódico o sal común, pero también contiene sales de magnesio, calcio o potasio. En definitiva, muy lejos de los requerimientos de agua ultrapura que necesitan los electrolizadores.

Sin meteros en muchas profundidades químicas, cuando se hace la electrolisis en presencia de la sal común del agua de mar se genera cloro que compite con la producción de oxígeno que se forma usando agua pura, lo cual complica el proceso de muchas maneras. Por otro lado, el calcio o el magnesio pueden depositarse en los electrodos necesarios para el proceso, haciendo que se deterioren rápidamente en su función.

En el momento actual, la idea que parece ir ganando terreno para obtener hidrógeno verde con los electrolizadores, es localizar en un mismo sitio geográfico, próximo al mar, generadores de energía verde que alimenten primero a una planta desaladora, basada en el proceso denominado ósmosis inversa (para saber más picar aquí), que produzca agua ultrapura. Esos mismos generadores de energía verde alimentarían, en segundo término, a los electrolizadores que descompondrían el agua proveniente de la desaladora, dando lugar al hidrógeno verde.

Sin embargo, a pesar de los inconvenientes arriba mencionados sobre electrolizar agua con contenido en sales, en los últimos quince años, está creciendo el número de artículos científicos dedicados a la llamada electrolisis directa del agua de mar, que pretende utilizarla sin necesidad de desaladora alguna. Para conseguir ese objetivo, se pretende usar una serie de aditivos y catalizadores que impidan el proceso que da lugar a la producción de cloro también mencionada. En estos mismos recientes años, se han patentado muchos de estos procesos y se están financiando muchos proyectos dedicados a ese fin, como el denominado COSAS (Controlling Oxygen Selectivity at Atomic Scale), de la investigadora asturiana afincada en el Centro de Física de Materiales de Donosti, Sara Barja.

Pero curioseando la bibliografía, me he encontrado artículos recientes e incluso informes del Foro Económico Mundial (los gurús de Davos) que cuestionan la viabilidad económica de esa electrolisis directa del agua. Argumentan que el paso previo de la desalinización del agua de mar supone una parte pequeña del costo de un complejo mixto que desale y electrolice y que ambas tecnologías (ósmosis inversa y electrolisis) son suficientemente maduras como para no tener la necesidad de invertir en la alternativa de la desalinización directa del agua de mar que, todavía, está en su infancia. Y que valdría más invertir ese dinero en mejorar algunos aspectos de la desalación poco deseados como, por ejemplo, el de qué hacer con el agua más concentrada en sal que inevitablemente se genera como subproducto y cuyo vertido al propio mar puede causar daños medioambientales.

A un servidor estos criterios puramente mercantilistas nunca le han convencido del todo y prefiero esperar a ver si, como consecuencia de estudios como el Sara, no se puede dar lugar a alguna “mutación” científica que suponga un avance sostenible en el uso del agua de mar para obtener hidrógeno. Tiempo hay, porque esto del hidrógeno verde no es para mañana por la tarde.

Y hablando del agua, mirad cómo tocaban en 2016 la Música Acuática de Haendel las chicas y chicos de la “cantera” de la Orquesta Sinfónica de Galicia bajo la batuta de Jorge Montes.

Leer mas...

domingo, 31 de marzo de 2024

Insecticidas Gran Reserva


Siendo un chaval con edad de un solo dígito y alumno de las Escuelas Públicas Viteri de mi pueblo, recuerdo haber sido sometido, no sé si una vez o más, a una especie de fumigación individual contra piojos, pulgas y otros parásitos. No tengo pruebas sobre qué sustancia nos aplicaron, pero intuyo que era un compuesto de DDT del tipo del que se muestra en la figura que ilustra esta entrada (y que podéis ver en más detalle clicando en ella). Era una época (finales de los cincuenta, inicio de los sesenta) en la que muchas empresas químicas españolas estaban fabricando DDT bajo patente de la suiza Geigy, como ha documentado en varias entradas el Blog de Carlos Pradera, entre ellas ésta, donde aparece un niño alemán siendo rociado con DDT.

Todo esto viene a cuento porque me acabo de enterar de que, hace algo más de dos meses, falleció Ron Hites, un veterano científico (1942) de la Universidad de Indiana que ha estado activo hasta su fallecimiento. Le he seguido desde hace algún tiempo y gracias a su producción científica, he podido escribir y hablar en más de un foro sobre la historia de las dioxinas, sobre las que Hites es un referente. En un artículo publicado meses antes de su muerte, firmado junto a su colaboradora Marta Venier en la revista Environmental Science & Technology, se estudiaba la evolución en el tiempo de la concentración en el aire de algunos compuestos químicos (casi todos insecticidas), entre los que se incluía el DDT. El título del artículo es “Buenas noticias: Algunos insecticidas han sido virtualmente eliminados en el aire cerca de los Grandes Lagos”.

El DDT es uno de los ejemplos más evidentes de la doble cara de la Química, pues ha salvado millones de personas en todo el mundo de morir de malaria al acabar con los mosquitos Anófeles que la propagan pero, por otro lado, presenta graves problemas al ser persistente en el medio ambiente y acumulativo en la grasa de los animales, incluidos los humanos. Su caída en desgracia empezó con la publicación del famoso libro de Rachel Carson “La primavera silenciosa” y la posterior decisión de la EPA americana de prohibirlo. Sobre esto ya he hablado con más detalle en otra entrada de este Blog pero hay también textos muy interesantes, como el de mi colega en la UPV/EHU Eduardo Angulo (ver aquí).

Probablemente el más conocido de una serie de insecticidas que surgieron en los años cercanos a la Segunda Guerra Mundial, el DDT contiene cloro, que también contienen otros insecticidas famosos como el Lindano u otros menos conocidos como el clordano o el hexaclorobenceno. Algunos de ellos estaban en la llamada docena negra (the dirty dozen), con la que la Convención de Estocolmo de 2004 empezó a restringir o prohibir el uso de sustancias químicas que pudieran constituir un peligro para el medio ambiente. Incluso antes, 1990, muchas de esas y otras sustancias empezaron a ser monitorizadas en la zona de los Grandes Lagos entre USA y Canadá, donde cada doce días se vienen realizando periódicas medidas de la contaminación del aire y el agua.

Sobre una base de datos de más de 150 sustancias analizadas, el artículo de Hites y Vernier se ha centrado solamente en unos cuantos insecticidas porque son compuestos sobre los que se tienen más datos y porque han querido mostrar con ellos diferentes modos de comportamiento de la evolución en el tiempo hacia su total eliminación.

Si os fijáis en el título del artículo, los autores hablan de que algunos de estos compuestos han sido virtualmente (no totalmente) eliminados. Y eso es así porque una de las aspiraciones de Raquel Carson, la eliminación total en el ambiente (“tolerancia cero”) de estas sustancias producidas por el hombre, es muy complicado de poderse conseguir. Las sucesivas técnicas analíticas introducidas por los químicos están permitiendo llegar a medir concentraciones cada vez más pequeñas y concentraciones no detectadas en tiempos de la Carson (y que serían entonces establecidas como concentraciones cero) son hoy fácilmente detectables y medibles. Así que, conscientes de ello, los autores del artículo declaran a un insecticida como “desaparecido” cuando su concentración está por debajo del nivel más bajo de cuantificación (LOQ) de las técnicas más potentes actualmente empleadas y que ellos sitúan en 0,1 picogramos por metro cúbico de muestra de aire analizada. Un picogramo, os recuerdo, es la billonésima parte del gramo (0.000000000001 gramos).

Algunos insecticidas estudiados por Hites y Vernier, tras su prohibición, han ido desapareciendo de forma continuada. En ese caso están el lindano o el endosulfán que, a la luz de los datos existentes, estarán virtualmente eliminados en esa región de América del Norte en 2025. EL DDT está también en clara regresión sobre todo en zonas agrícolas aunque todavía parece resistirse en el entorno de las ciudades. Los autores especulan que ello es debido a que el terreno agrícola es removido periódicamente facilitando la emisión del DDT al aire y su posterior degradación, mientras que los suelos urbanos, más estables, constituyen un reservorio bastante consistente, por ahora, de la sustancia.

La concentración de clordano está también descendiendo a un ritmo que hace que cada 10-15 años su valor se reduzca a la mitad, pero aún está lejos de poderse afirmar que vaya a pasar próximamente a la categoría de virtualmente desaparecido. Ese descenso es particularmente evidente en las zonas urbanas, algo que no es de extrañar dado que que esta sustancia se empleó para proteger contra las termitas las maderas de las casas.

Finalmente está el caso de insecticidas como el hexaclorobenceno. Su concentración parece ser estable en el tiempo a pesar de que lleva años prohibido. Los autores arguyen que hay otras fuentes de esa sustancia, ligadas a la fabricación de metales como el aluminio o el magnesio que generan emisiones de él. Un artículo publicado en red hace unos días constata algo parecido en el caso de los famosos PCB’s, también incluidos en la lista negra de la Convención de Estocolmo pero que, a pesar de haber cesado su fabricación y uso, parecen seguirse emitiendo como subproductos de ciertos procesos industriales.

Así que habrá que seguir monitorizándolos para estar seguros de que estamos en el buen camino. Aunque vuelvo a llamar vuestra atención sobre el hecho de que es la progresiva mejora de las técnicas analíticas lo que nos permite seguir detectándolos en el ambiente. Suelo decir en mis charlas de divulgación que ese continuo progreso es uno de los causantes de la Quimiofobia contra la que me peleo en este Blog.

Y un poco de musica para estos días tranquilos (solo tres minutos). La Pavana de Gabriel Fauré con la Filarmónica de Berlín bajo la batuta de Sir Simon Rattle. Lo del flautista es una pasada.

Leer mas...

miércoles, 13 de marzo de 2024

El escuadrón del veneno

El ciudadano de frente despejada que veis situado en la fila de atrás de la foto, el tercero por la izquierda, se llamaba Harvey W. Wiley (1844-1930) y en 1902 había enrolado a doce jóvenes (en la foto, faltan dos), todos ellos varones americanos, blancos y de buena salud para emplearlos como cobayas en sus intentos de demostrar que muchos conservantes (sobre todo) y otros aditivos que se estaban utilizando en la incipiente industria alimentaria de los Estados Unidos, así como otras sustancias vendidas como “medicamentos”, eran nocivos para la salud humana. Los enrolados en este Escuadrón del Veneno (Poison Squad, como popularmente se les denominó en USA*), estaban obligados a desayunar, comer y cenar comida normal, pero la mitad del grupo lo tenía que hacer con alimentos deliberadamente contaminados (la otra mitad no) con el aditivo bajo estudio y por lo que recibían un estipendio de 5 dólares de la época al mes.

Aunque ahora pueda parecer que nuestros ancestros de esa época tenían una alimentación sana y “natural”, lo cierto es que desde mediados del siglo XIX, tanto en países europeos como Alemania o Gran Bretaña o en los Estados Unidos, era evidente que muchos proveedores de alimentos estaban usando prácticas que disminuían la calidad de los mismos y, en algunos casos, ponían en grave riesgo la salud de de los consumidores. Desde vender leche que previamente se había desnatado y a la que se había añadido agua (algo que en mi infancia recuerdo que mi madre denunciaba), como en el uso de compuestos de cromo o arsénico en la confección de golosinas coloreadas con ellos, lo que estuvo en el origen de varias muertes en Inglaterra. En esa época, charlatanes y boticarios vendían pretendidos fármacos como, por ejemplo, el que se ve en la foto de abajo, que contenía cocaína para aliviar el problema de los primeros dientes en los niños.

En 1878, el Wiley de la foto volvió a su puesto de la Universidad de Purdue (Indiana) tras un periodo sabático en Alemania donde, además de asistir a las conferencias de August Wilhelm von Hofmann, el descubridor de los derivados orgánicos del alquitrán, como la anilina, trabajó en el Laboratorio Imperial de Alimentos de Bismarck, lo que le hizo dominar el uso de instrumentos como el polarímetro, entonces en boga en el estudió de los azúcares. A su regreso, las autoridades sanitaria de Indiana le pidieron que analizara los azúcares y jarabes a la venta en el estado para detectar cualquier adulteración. Wiley publicó su primer artículo sobre la adulteración del azúcar con glucosa en 1881.

Al año siguiente, Wiley aceptó una oferta del Departamento de Agricultura americano (USDA) como responsable de su Unidad de Química, que estaba al cargo del estudio y control de muchos alimentos y empezó su particular cruzada en la que, además de buscar posibles adulteraciones en los mismos, propugnaba que los alimentos, las bebidas y los fármacos se etiquetaran verazmente para que el consumidor supiera lo que estaba comprando.

Tras organizar su equipo de trabajo, en 1887 la USDA publicó el primer examen detallado de productos alimenticios titulado Foods and Food Adulterants (también conocido como Boletín técnico nº 13). Revelaba, como era de esperar, que al analizar muestras de leche, los químicos del equipo de Wiley habían encontrado muchas veces un producto casi siempre diluido con agua y blanqueado con tiza para darle un aspecto menos sucio. Detectaron muchas bacterias nadando en la leche y, en algún caso, hasta gusanos en el fondo de la botella. Los hallazgos sobre otros productos lácteos fueron igualmente reveladores. Gran parte de la "mantequilla" que los científicos encontraron en el mercado no tenía nada que ver con un producto lácteo, excepto por el nombre ficticio que figuraba en la etiqueta del producto.

En los años siguientes hubo escándalos sonados que tenían que ver con otros alimentos y bebidas. Uno de los que más repercusión tuvieron en los medios fue la constatación de que algunos de los whiskys que se vendían eran auténticos timos. Se obtenían con alcohol obtenido por destilación de diversas fuentes, al que se añadían diversos colorantes y aditivos para simular el producto que se proclamaba en la etiqueta. Otro escándalo similar se produjo tras la guerra de Cuba entre Estados Unidos y España en Cuba, que terminó en 1898, cuando se hizo público el cabreo de la Marina americana por haber estado consumiendo unas latas de carne a las que, para preservarlas de su normal deteriorο, se añadía formaldehído. Dado que este producto, cuyos efectos tóxicos hoy conocemos bien, se empleaba y emplea para conservar cadáveres, el asunto pasó a la prensa americana bajo el término “embalmed beef” (carne embalsamada).

En mayo de 1902, Wiley consiguió que el Congreso americano le proporcionara una subvención de 5.000 dólares de la época para poner en marcha los ensayos con su “escuadrón del veneno”, sobre algunos aditivos que estaban causando alarma. Solo seis meses más tarde se inició el primer test, dedicado al bórax, que se estaba empleando como conservante de la leche y la mantequilla (en las casas no había aún frigoríficos eléctricos como los que ahora conocemos). A ellos siguieron otros como el formadehído ya citado, el ácido salicílico, la sacarina, de la que enseguida hablaremos, o el benzoato sódico.

Tras cada publicación de los resultados en los que, invariablemente, Wiley recomendaba la eliminación de esos aditivos a la vista de los efectos evidenciados en la muchachada del escuadrón, las industrias usuarias de los mismos le acababan llamando de todo. Pero, pese a todo, consiguió que, en 1906, el Congreso aprobara la desde entonces famosa Ley de Alimentos y Fármacos Puros (Pure Food and Drug Acta). Con ella en la mano, el Departamento de Wiley pudo emprender una labor más sistemática en la búsqueda de contaminantes y en el requerimiento de adecuadas formas de etiquetar los alimentos, bebidas y fármacos.

Todo ello gracias al apoyo del presidente Theodore Roosevelt (no confundir con otro presidente Roosevelt, el de la segunda guerra mundial) que le defendió a capa y espada. Sin embargo, al final del mandato de Roosevelt, las chispas saltaron entre él y Wiley como resultado de que este último propusiera a la USDA la prohibición de la sacarina, al entender que era un aditivo sin valor energético, derivado del alquitrán y que había causado algunos problemas a sus cobayas humanos. Pero el médico personal de Roosevelt le había recomendado sustituir el azúcar por sacarina, como forma de controlar sus problemas de sobrepeso y su incipiente diabetes. Podéis leer la atribulada historia de la sacarina en Estados Unidos en dos entradas sucesivas (y muy visitadas) que escribí en 2013 en el Blog del Búho, picando aquí y aquí.

Al principio, Roosevelt se rebeló contra las intenciones de Wiley, nombrando una Comisión de cinco miembros, entre los que estaba el descubridor de la sacarina (Ira Remsten) para el estudio de la propuesta. Pero pronto quedó claro que la Comisión no podía ser objetiva porque el propio Presidente se encargó de dejar claro en una de las reuniones que “quienquiera que piense que la sacarina es dañina es un perfecto idiota”. Así que la Comisión no se atrevió a aprobar su prohibición aunque, de manera suave y para satisfacción del lobby de los azucareros, indicó que no tenía valor alimentario y que, por tanto, no podía sustituir al azúcar sin hacer que los alimentos que lo contuvieran "perdieran calidad".

Tras el fin del mandato de Roosevelt, las cosas tampoco mejoraron para Wiley con el siguiente presidente (William H. Taft) así que el 15 de marzo de 1912, cuarenta años antes de que naciera este vuestro Búho, Wiley dimitió de su cargo. Pero, por encima de su problemática vida en la USDA, la historia americana le recuerda como el creador de la Pure Food and Drug Acta arriba mencionada, cuya aplicación evidenció la necesidad de la creación en 1927 de la actual Food and Drug Administration, la conocida y poderosa FDA americana que controla todo lo que tiene que ver con la alimentación y medicamentos vendidos en EEUU.

Y para terminar sin perder las buenas costumbres, un poco de música (menos de 4 minutos). El Vals de la suite Masquerade de Katchaturian por la Orquesta de la Scala dirigida por Daniel Harding.

(*) Este post está inspirado en una reciente charla online de la American Chemical Society, impartida por Deborah Blum, una prestigiosa periodista científica americana que me indujo a leer su libro, publicado en en 2019 y titulado The Poison Squad, sobre la vida de Harvey Wiley.

Leer mas...

miércoles, 28 de febrero de 2024

Dioxinas y fuego


En esta fecha, hace 18 añitos de nada, empecé a escribir este Blog. Ahora que ya es mayor de edad va siendo tiempo de hacer quizás algunos cambios. Los tengo en la cabeza pero creo que van a tener que esperar un poco más. Así que todo se va a quedar en felicitarme a mi mismo por el empeño de llegar hasta aquí y celebrar este cumpleaños haciendo lo mismo que en los anteriores. Escribiendo una entrada. Y, para ello, voy a aprovechar algo del material que, la pasada semana, mostré en una charla que impartí en ese magnífico escenario que es el TOPIC (Museo y Centro Internacional de la Marioneta de Tolosa) para los amigos del Beti Ikasten Elkartea.Y que, a pesar de hablar del fuego, no tuvo nada que ver con el tremendo incendio de Valencia.

Las dioxinas, una extensa familia de sustancias químicas, fueron alarmando progresivamente a la población a partir de finales de los cincuenta, con casos como el edema de los pollos en USA, las consecuencias de la deforestación de amplias zonas de Vietnam, Laos y Camboya con el agente naranja usado por los americanos en la guerra de Vietnam o el desastre de Seveso (más detalles de todo ello aquí).

En todos esos incidentes, las dioxinas causantes de los problemas se originaron como subproductos no intencionados e inadvertidos durante las reacciones de obtención de ciertos productos químicos comerciales, especialmente compuestos con cloro. Porque, en realidad, la industria química nunca ha producido comercialmente dioxinas.

Un giro en el entendimiento del complicado origen de las dioxinas se produjo en 1977, cuando un artículo científico de investigadores holandeses hizo notar que las dioxinas estaban presentes en las cenizas que desprendían tres incineradoras de su país.  Tres años después, en 1980, un grupo de investigación americano perteneciente a la empresa DOW, en Michigan, dirigido por Robert Bumb, mostró que las dioxinas estaban presentes en las partículas que se generan durante la combustión de la mayoría de lo que los químicos llamamos sustancias orgánicas (que contienen carbono), lo que hace que se emitan dioxinas en cualquier incendio (natural o provocado), entre los que se incluyen la combustión de residuos municipales y la de residuos químicos.

Este fue un descubrimiento importante. Ya no se podía culpar de la presencia de dioxinas en el ambiente ÚNICAMENTE a subproductos derivados de los procesos de la industria química. De hecho,  el propio Bumb, antes de que se publicara el artículo arriba mencionado, ya había declarado a la revista Chemical Engineering and News que "Ahora creemos que las dioxinas han estado con nosotros desde el advenimiento del fuego. Lo único que es diferente es nuestra nueva capacidad para detectarlas en el medio ambiente”.

Pero esa tesis que ligaba las dioxinas al fuego, desde épocas pretéritas, fue refutada en 1990 por un estudio de Ronald Hites de la Universidad de Indiana, tras estudiar las concentraciones de dioxinas (y de sus primos los furanos) en las capas acumuladas de sedimentos en una serie de lagos americanos. Ello le permitió reconstruir las concentraciones de esos mismos compuestos en la atmósfera desde la que se habían depositado esos sedimentos. Observando que era solo a partir de la década de los años 30 (ver la gráfica), cuando las concentraciones de esas sustancias comenzaron a aumentar, alcanzando un máximo alrededor de 1970, tras lo que empezaron a disminuir. Indicando que los niveles atmosféricos de dioxinas y furanos habían evolucionado de manera similar.


¿Qué pasó alrededor de 1935 para que iniciara ese crecimiento en la concentración de dioxinas en el ambiente?. Estaba claro que algo más que el fuego tenía que ser ya que la combustión de carbón, que se inició con la Revolución Industrial bastantes decenios antes, no podía explicar el registro histórico observado. La quema de carbón fue casi constante entre 1910 y 1980, sin que hubiera un cambio importante ni en la cantidad quemada ni en la tecnología de combustión durante los años 30.

En el artículo, el autor sugería que fue un cambio en la industria química lo que tuvo lugar aproximadamente en este momento. Antes de la Segunda Guerra Mundial (1939-1945), la industria química producía y vendía grandes cantidades de productos inorgánicos, generalmente sales, que no contenían carbono y que, por tanto, era difícil que generaran dioxinas.

Durante la Segunda Guerra Mundial, se introdujeron muchos productos orgánicos (con carbono). Además, algunos de ellos, contenían adicionalmente átomos de cloro, como el PVC, un plástico que contiene cloro en su molécula. U otros productos que también lo contienen, como los insecticidas o herbicidas o los PCBs (hoy ya prohibidos). A medida que se quemaban materiales de desecho que contenían estos productos químicos con carbono y cloro en sus moléculas, se producían dioxinas que se liberaban a la atmósfera. Desde ella, estos compuestos se depositaban en el agua o en el suelo y terminaban, en el caso de los lagos, en los sedimentos que el artículo investigó.

El máximo a mediados de los setenta coincide con el inicio de la preocupación en Europa y USA, tras los sucesivos accidentes en los que dioxinas estaban presentes. Ya en los principios de los 80 ese grado de preocupación había tenido como consecuencia no solo restricciones en procesos capaces de generar compuestos similares a las dioxinas, sino en la realización de inventarios de posibles fuentes de esos compuestos. Para principios de los noventa, muchos países tenían legislaciones mucho más estrictas en lo relativo a emisiones de dioxinas y furanos en las incineradoras de residuos urbanos y en industrias que, como las acerías, la industria química o las papeleras, eran fuentes importantes de estos compuestos.

Hoy en día, como dice un amigo que sabe de esto, las incineradoras han dejado de ser emisoras netas de dioxinas para convertirse, por tanto, en sumideros que las eliminan. El principal cambio tecnológico fue calentar a temperaturas superiores a 850 ºC, durante unos pocos segundos, los gases producidos en la combustión antes de emitirlos al medio ambiente, destruyendo como consecuencia de ello las dioxinas producidas.

Con estos cambios, mientras que en los años 80 las emisiones de dioxinas procedentes de incineradoras americanas suponían más del 80% del total, ahora no llegan al 4%. Y algo similar pasa con las industrias sujetas a regulación. De hecho, en USA, el primer emisor de dioxinas (casi el 33%) son actualmente las fogatas y hogueras hechas en los jardines y huertas de las casas individuales.

Paralelamente, diversos estudios realizados sobre la carga de dioxinas en humanos, provenientes sobre todo del consumo de pescado, carne, huevos o leche, han ido descendiendo progresivamente, aunque debemos seguir insistiendo en medidas que rebajen aún más esa exposición. Un buen ejemplo de lo conseguido en años reciente es este artículo que estudió, entre 1972 y 2011, la evolución del contenido en dioxinas de la leche materna de lactantes suecas.

Y hablando de fuego y para celebrar el cumple, un extracto de 3 minutos del Pájaro de Fuego de Igor Stravinsky, con la Filarmónica de Berlín bajo la dirección de Kirill Petrenko.

Leer mas...

martes, 13 de febrero de 2024

Más plásticos que peces


Tiempo habrá para utilizar la abundante documentación que he almacenado en una carpeta sobre el asunto de la granza gallega, de lo que escribí hace poco. Vamos a dejar pasar las elecciones en ese territorio y veremos si me da por volver sobre el tema. Pero sin hacer referencia concreta al desgraciado incidente del contenedor, voy a utilizar como excusa para la entrada de hoy un artículo que publicó un periódico que se vende en mi pueblo. Decía su contundente titular “En 2050 habrá más plásticos que peces en el mar”. Su autora repite la misma frase en el primer párrafo del artículo, pero ahí se acaba todo. Ni una sola referencia que justifique la afirmación. El resto del artículo, en su mayor parte, da pábulo a un portavoz de Greenpeace en Galicia que, aprovechando que parte de la granza acabó en su tierra, nos sermonea con su conocido mantra sobre los microplásticos y sus males.

En el año 2016, la Fundación Ellen MacArthur publicó un extenso informe titulado “The New Plastics Economy. Rethinking the future of plastics”. La mencionada Fundación tiene entre sus objetivos el estudio de la llamada Economía Circular, como estrategia para abordar problemas como el cambio climático, la pérdida de biodiversidad o el problema de los microplásticos. En un corto párrafo de la página 17, el informe dice que “Las mejores investigaciones disponibles en la actualidad estiman que hay más de 150 millones de toneladas de plásticos en el océano hoy en día. En un escenario sin cambios, se espera que el océano contenga 1 tonelada de plástico por cada 3 toneladas de pescado en 2025 y, en 2050, mas plásticos que peces (en peso)”.

Me vais a dejar que, al hilo del asunto que nos ocupa, os cuente una interesante historia sobre plásticos y peces. Que tiene que ver con la expedición Malaspina, llevada a cabo durante 2011 y 2012 por dos buques oceanográficos españoles (el Hespérides y el Sarmiento de Gamboa), que emularon otra expedición llevada a cabo por el italiano Alessandro Malaspina, al servicio de la Corona española, a finales del siglo XVIII. Aunque, esta vez, los objetivos de la nueva Malaspina eran puramente científicos. Entre ellos evaluar la cantidad total de peces en el mar o, también, la cantidad de plástico que había flotando en la superficie de los océanos.

Empecemos por los peces. O, más específicamente, por la biomasa de peces existente en los océanos. La Fundación Ellen MacArthur, en 2016, hablaba de que los océanos contenían unos 900 millones de toneladas de peces, citando un único artículo de 2008 (aunque el informe hable de las mejores investigaciones disponibles, en plural). Esos números han sido posteriormente (2015) puestos en duda por el propio primer autor del artículo en cuestión, confirmando lo que otros autores ya habían venido publicando entre ambas fechas, gracias al empleo de nuevas técnicas (observaciones acústicas) en la evaluación de la biomasa global de peces.

Entre esos nuevos resultados estaban precisamente los de la expedición Malaspina, publicados en 2014 en Nature, y que concluían que la biomasa total de peces existente en los océanos podía ser entre 10 y 30 veces más grande que las novecientas mil toneladas que evaluó el artículo de 2008 arriba mencionado y que usó la Fundación Ellen MacArthur.

En un artículo (os pongo enlace pero es de pago) publicado en El País, con ocasión del trabajo publicado en Nature arriba mencionado, el prestigioso oceanógrafo Carlos Duarte (uno de los firmantes del mismo) hablaba de la gran cantidad de especies existentes en las zonas mesopelágicas (entre 300 y 700 metros de profundidad) de los océanos, como los peces linterna (Myctophidae) o los peces luciérnaga (Cyclothone): “Se pensaba que las aguas, a esas profundidades, son prácticamente un desierto y no es así. Lo que pasa es que la vida se esconde en ellas de día, porque aproximadamente una tercera parte de esos peces ascienden de noche a alimentarse a la zona superficial del agua”.

Así que hay muchos más peces que los que se creía. Y probablemente haya muchísimos más. El mismo artículo de El País se hacía eco de otro de los resultados sorprendentes de la Malaspina, que tenía que ver con los plásticos. Aunque era cierto que habían encontrado mucho residuo plástico en la zona superficial del océano (casi todo en forma de Microplásticos, acumulados especialmente en los giros oceánicos que dan lugar a las llamadas “islas de basura”), los investigadores calcularon que los océanos acumulaban en su superficie entre 7.000 y 35.000 toneladas de estos residuos, solo un 1% del plástico que se estimaba debía estar flotando en el mar.

Entre las diversas causas de esa aparente desaparición del plástico en el mar, el artículo lanzaba la hipótesis de que la biomasa pelágica arriba mencionada podía ser una de ellas. Esos peces suben de noche a la superficie, comen plástico que confunden con presas y vuelven a las profundidades donde, en su mayor parte, devuelven el plástico al mar en forma de heces. Una hipótesis que, desde entonces, nadie ha confirmado.

Si la Malaspina tuvo dificultades para evaluar la masa de plástico que flotaba en la superficie del mar, evaluar la masa perdida en la vasta extensión y profundidad de los océanos del mundo es casi una labor imposible. En su informe, la Fundación Ellen MacArthur empleó los datos de un único artículo de 2015 en la revista Science. Los autores, con los datos existentes hasta entonces, los extrapolaban hasta 2025. Suponiendo que la cantidad de plástico que va a entrar en el océano seguirá creciendo como hasta ahora (escenario business-as-usual), la Fundación realizó una ulterior extrapolación hasta 2050. Sin embargo, un artículo de 2021 que revisaba diversas estimaciones de la basura plástica que entró en los océanos hasta 2019, viene a mostrar que, aunque la producción de plástico sigue creciendo, la basura plástica que va al mar parece haberse estabilizado e incluso, en algunos ámbitos, está decreciendo.

Es decir, que la masa de plástico que habrá en 2050 tampoco está clara. En definitiva, el titular que usó el diario de mi pueblo, al igual que, ya en 2016, usaron otros medios y ONGs, no tiene unas sólidas raíces en cuanto a los datos se refiere. Unos y otras solo los usaron para titulares, desechando las 113 páginas restantes del informe de la Fundación Ellen MacArthur, dedicadas a analizar los problemas que las basuras plásticas plantean y a proponer muy diversas soluciones. Todo ello desde estrategias factibles, muchas de las cuales ya están en marcha en los países más ricos. Pero eso no vende. Son argumentos retardacionistas, un término en boga entre los activistas.

Como dice Hannah Ritchie, editora adjunta de Our World in Data y autora del reciente libro Not the end of the World (2024), que os recomiendo, “poco importa el que en 2050 haya mas plástico que peces o no. Sería también un problema el que hubiera la mitad, la cuarta parte o la décima de la biomasa de peces. La basura plástica es un problema a lo largo y ancho de los océanos del mundo y no hay necesidad de exagerarlo”. Lo importante es que el plástico no debe seguir entrando en el mar. Y hay que trabajar duro en ello.

Un poco de música para acabar: un extracto (3’) de La mer de Claude Debussy, de la mano de su tocayo Claudio Abbado y la Filarmónica de Berlín.

Leer mas...

Powered By Blogger