Archivo de diciembre, 2010

La red de transporte interplanetario

Desarrollada teóricamente a finales del siglo XIX y resuelta en los últimos años del XX,
la Red de Transporte Interplanetario resuelve el problema de viajar entre mundos
con un coste energético ridículamente bajo. Sólo es un poco más lenta.


Lanzamiento de la nave espacial interplanetaria New Horizons
con destino a Plutón-Caronte y el cinturón de Kuiper,
a bordo de un cohete Atlas V-Star 48B, el 19 de enero de 2006.
Llegará en junio de 2015, tras un viaje de cinco mil millones de kilómetros.
Los cohetes sólo actúan durante los primeros minutos;
el resto del viaje carece de propulsión autónoma. (NASA)

La nave New Horizons durante su ensamblaje final.

La nave New Horizons durante su ensamblaje final. Cuenta con dieciséis motores de 4,4 newtons para correcciones de trayectoria y doce de 0,9 newtons para el control de actitud, pero ningún impulsor principal, al igual que el resto de naves espaciales humanas del presente y del futuro próximo. Foto: NASA. (Nueva ventana o pestaña para ampliar)

A pesar de lo que se pudiera concluir tras ver muchas pelis de ciencia-ficción, las naves espaciales carecen generalmente de propulsión propia. Sólo llevan una pequeña cantidad de combustible y unos motorcitos minúsculos para realizar ocasionalmente maniobras de corrección de trayectoria, casi siempre con el propósito de mantener la posición. Así es tanto en los satélites como en las sondas de espacio profundo, así ha sido durante toda la Era Espacial, sigue siéndolo en la actualidad y seguirá siéndolo durante una buena temporada. No hacemos vuelo libre por el espacio, sino que describimos órbitas y realizamos triquiñuelas aprovechando los efectos de la gravedad y la velocidad, en una especie de billar cósmico.

En cierto sentido, una nave espacial se parece mucho más a un velero gravitacional que a un navío a motor. Esos enormes cohetes que vemos encenderse con poderosos rugidos y llamaradas sólo están para sacar la nave del pozo gravitatorio terrestre. Tragan combustible a mares y se agotan enseguida. Al poco del lanzamiento se van apagando y desprendiendo, normalmente por fases, y unos pocos minutos después se acaban todas y liberan la nave. En un lanzamiento sencillo a la órbita baja terrestre, esto está visto para sentencia en menos de diez minutos. Por ejemplo, la impulsión para una Soyuz con destino a la Estación Espacial Internacional termina a los nueve minutos; el resto del viaje se completa por la órbita, conservando la velocidad adquirida durante el lanzamiento sin propulsión significativa adicional.

Para ir más lejos, lo que requiere ir algo más rápido, se suele utilizar una última fase que se enciende de nuevo al llegar a un cierto punto de la órbita para darle un último empujón. Esto es lo que hace, por ejemplo, la etapa Fregat de las Soyuz o la S-IVB de los Saturno V que los estadounidenses usaron para llevar a la humanidad a la Luna. Pero incluso estas últimas aportaban una impulsión adicional de apenas seis minutos. Quien desea ir a Venus o Marte, pongamos por caso, lo hace de manera muy parecida; en este último enlace puede verse cómo un viaje a Marte sólo está propulsado seriamente al principio, durante unos catorce minutos y pico en total, de los siete meses que dura. A partir de ahí sólo actuarán los motores de maniobra, muy de tarde en tarde, para realizar pequeñas correcciones o forzar la inyección final en la órbita marciana.

Esto es posible porque en el espacio no se produce arrastre aerodinámico, dado que no hay aire. Una nave colocada en una órbita estable a una velocidad determinada tiende a mantener esta velocidad en virtud de la primera ley de Newton. Como decía al principio, después se pueden utilizar trucos para aumentar (o reducir) esta velocidad, del tipo de la asistencia gravitatoria. El vuelo espacial es un juego de trayectorias y velocidades. Sí, como en el billar.

Venera-7, la primera nave espacial humana que completó un viaje interplanetario.

Venera-7, la primera nave espacial humana que aterrizó con bien en otro mundo. Se posó cerca de Safo de Venus, al sur de la Planicie de Ginebra, siendo las 05:34:10 GMT del 15 de diciembre de 1970; acaba de hacer cuarenta años. (Clic para ampliar)

Vuelo interplanetario.

Para viajar entre astros hay que tener claros dos conceptos fundamentales: la velocidad de escape y la órbita de transferencia de Hohmann.  Dicho en plan sencillo, la velocidad de escape es lo rápido que hay que ir para escapar de la atracción gravitatoria de la Tierra o cualquier otro astro. Más técnicamente, se define como la velocidad a la que la energía cinética de la nave contrarresta a la energía potencial gravitatoria resultante de la interacción entre la nave y el astro. La velocidad de escape es independiente de la masa del objeto que escapa: da igual si tu nave pesa un kilo o un millón de toneladas (en este último caso necesitarás más energía para acelerarla hasta ese punto, pero la velocidad de escape no varía). Por el contrario, es dependiente de la distancia entre la nave y el astro. Por ejemplo, si la nave estuviera situada sobre la superficie terrestre, la velocidad de escape sería de 11,2 km/s (40.320 km/h); sin embargo, en la órbita baja desciende a 10,9 km/s (39.240 km/h) y a nueve mil kilómetros de distancia, cae a algo menos de 7,1 km/s (25.560 km/h). De hecho la velocidad de escape depende sólo de la distancia entre ambos objetos y la intensidad del campo gravitatorio en ese punto, y se describe con la ecuación ve = (2gr)½, donde g es el campo gravitatorio y r la distancia que separa sus centros de masas. La velocidad de escape es un fenómeno que se deriva del principio de la conservación de la energía.

Hablar de velocidad de escape a pelo no tiene demasiado sentido. Hablamos siempre de velocidad de escape desde algún sitio con respecto a algo: la Tierra, el Sol, la Luna, Saturno, el centro de la galaxia, lo que sea. Por ejemplo: ya hemos dicho que la velocidad de escape desde la órbita baja terrestre con respecto a la Tierra son 10,9 km/s. Pero la velocidad de escape desde este mismo lugar con respecto al Sol asciende a 42,1 km/s (151.560 km/h). Esto quiere decir que una nave situada más o menos por donde la Estación Espacial Internacional necesita ir a algo menos de cuarenta mil kilómetros por hora para escapar de la gravedad terrestre, pero tendría que viajar a más de ciento cincuenta mil para zafarse de la del Sol desde el mismo punto, por ejemplo con el propósito de efectuar un viaje interestelar. Evidentemente, los científicos e ingenieros espaciales tratan de jugar con las distancias y velocidades para conseguir el máximo ahorro de energía, de tal modo que estos viajes sean posibles con los motores y las cantidades de combustible que somos capaces de manejar.

Cuando una nave espacial alcanza la velocidad de escape entra en órbita de escape, que es una trayectoria parabólica de mínima energía (o sea, una órbita de Kepler con excentricidad 1) que la lleva hacia el infinito mientras la velocidad con respecto al objeto del que ha escapado tiende a cero. Y yendo un poco más deprisa, se puede pasar también a una trayectoria hiperbólica (es decir, una órbita de Kepler con excentricidad mayor que 1). Así se puede viajar hacia cualquier lugar del cosmos sin necesidad de llevar propulsión todo el tiempo.

Sin embargo, se intuye fácilmente que hace falta mucha energía para alcanzar estas velocidades. En torno a 1925 un ingeniero alemán llamado Walter Hohmann, inspirado por la lectura de obras de ciencia ficción, intentó encontrar una manera de reducirlas. También por las mismas fechas, un matemático soviético de nombre Vladimir P. Vetchinkin estuvo estudiando la cuestión. Resulta difícil determinar cuál dio con la solución primero, pero ambos alcanzaron las mismas conclusiones, que en Occidente se denominan las órbitas de Hohmann y en el espacio ex-soviético, de Hohmann-Vetchinkin.

Una órbita de Hohmann (o Hohmann-Vetchinkin) no es una órbita típica de escape, parabólica o hiperbólica, sino un tipo particular de órbita elíptica. Una órbita elíptica es una órbita de Kepler con excentricidad menor que 1, hasta la órbita circular, con excentricidad cero (aunque normalmente esta última se denomina órbita circular a secas). Simplificando, es cualquier órbita que no escapa de un astro determinado (aunque puede alejarse bastante de él). En consecuencia, la velocidad (y por tanto la energía) necesaria para establecerse en ella resulta significativamente menor. Hay varios tipos posibles de órbitas elípticas, algunos de ellos muy prácticos, desde la conocida Molniya hasta la más rara órbita tundra.

Órbita de transferencia Hohmann-Vetchinkin entre una órbita baja y otra geoestacionaria.

Órbita de transferencia Hohmann-Vetchinkin (2) entre una órbita baja (1) y otra geoestacionaria (3).

Una órbita de transferencia Hohmann (o Hohmann-Vetchinkin :-D ) es una órbita elíptica parcial que sirve para saltar entre dos órbitas circulares situadas a distinta distancia. Por ejemplo, en la imagen de la izquierda la vemos utilizada para conmutar entre una órbita baja (1) y una órbita geoestacionaria (3) en ambos casos con la Tierra en el centro; es el tramo amarillo (2). Para realizar esta maniobra, sólo necesitamos dos impulsos, uno a la entrada y otro a la salida. La gracia radica en que estos dos impulsos consumen bastante menos energía que la necesaria para alcanzar la velocidad de escape (y no digamos si encima hay que abandonarla en destino). La desgracia, que resulta en un recorrido más largo que la trayectoria parabólica y mucho más largo que la hiperbólica.

Pero en la mayoría de casos, resulta la manera energéticamente más económica de viajar entre dos órbitas circulares que no tienen por qué pertenecer al mismo astro (si bien la mecánica específica se complica un poco más en este último caso). Es decir: podemos salir de una órbita circular alrededor de la Tierra y acabar en una órbita circular alrededor de Venus o Marte o el Sol o cualquier otro lugar con menos coste energético que tratando de alcanzar la velocidad de escape. Dicho de otra manera, es la forma más eficiente de trasladar una nave espacial entre dos órbitas distintas. Bajo determinadas circunstancias, la transferencia bi-elíptica puede optimizar aún más el coste energético.

Y es que en las naves espaciales del presente (y del futuro próximo) el problema fundamental es el coste energético. Cuanta más energía necesite una nave espacial para completar su viaje, requerirá más combustible y más motores, es decir más masa y volumen. O sea que tendrá que ser una nave más grande, más difícil de construir y con un coste económico mucho mayor. A partir de cierto punto, el proyecto se tornará irrealizable. Por eso el balance energético de una misión espacial es tan importante. Cualquier cosa que lo mejore no sólo reduce el dinero a gastar, sino que abre puertas al futuro que de otra manera no serían posibles en la práctica.

Plan de vuelo para la nave interplanetaria soviética Venera-5, enero-mayo 1969.

Plan de vuelo Tierra-Venus para la nave interplanetaria soviética Venera-5, utilizando una órbita de transferencia Hohmann-Vetchinkin de tipo I durante la ventana de enero de 1969.

Los puntos de Lagrange.

Estatua a Joseph-Louis de Lagrange (Giuseppe Luigi Lagrangia) en Turín.

Estatua a Joseph-Louis de Lagrange (Giuseppe Luigi Lagrangia) en Turín.

Y ahora vamos a hacer un inciso, que resulta imprescindible para poder continuar. Érase una vez que se era un matemático ítalofrancés llamado Joseph-Louis de Lagrange, que trabajaba en el problema newtoniano de los tres cuerpos; como puede suponerse fácilmente, una extensión del problema de los dos cuerpos. :-D Dicho a lo fácil, esto del problema de los tres (o más) cuerpos estudia cómo se influyen mutuamente tres (o más) cuerpos que interaccionan gravitacionalmente entre sí. Por ejemplo, el sistema Sol-Tierra-Luna. O el Tierra-Venus-nave espacial, por decir otro.

Ciento ochenta y siete años antes del primer viaje a la Luna, este señor Lagrange dedujo matemáticamente una cosita interesante. Como la Wikipedia lo explica bastante bien, vamos a citarla:

En 1772, el matemático ítalo-francés Joseph-Louis Lagrange estaba trabajando en el célebre Problema de los tres cuerpos cuando descubrió una interesante peculiaridad. Originalmente, trataba de descubrir una manera de calcular fácilmente la interacción gravitatoria de un número arbitrario de cuerpos en un sistema. La mecánica newtoniana determina que un sistema así gira caóticamente hasta que; o bien se produce una colisión, o alguno de los cuerpos es expulsado del sistema y se logra el equilibrio mecánico. Es muy fácil de resolver el caso de dos cuerpos que orbitan alrededor del centro común de gravedad. Sin embargo, si se introduce un tercer cuerpo, o más, los cálculos matemáticos son muy complicados. Una situación en la que se tendría que calcular la suma de todas las interacciones gravitatorias sobre cada objeto en cada punto a lo largo de su trayectoria.

Sin embargo, Lagrange quería hacer esto más sencillo, y lo logró mediante una simple hipótesis: La trayectoria de un objeto se determina encontrando un camino que minimice la acción con el tiempo. Esto se calcula substrayendo la energía potencial de la energía cinética. Siguiendo esta manera de pensar, Lagrange reformuló la mecánica clásica de Newton para dar lugar a la mecánica lagrangiana. Con su nueva forma de calcular, el trabajo de Lagrange le llevó a plantear la hipótesis de un tercer cuerpo de masa despreciable en órbita alrededor de dos cuerpos más grandes que ya estuvieran girando a su vez en órbita cuasi circular. En un sistema de referencia que gira con los cuerpos mayores, encontró cinco puntos fijos específicos en los que el tercer cuerpo, al seguir la órbita de los de mayor masa, se halla sometido a fuerza cero. Estos puntos fueron llamados puntos de Lagrange en su honor.

es.wikipedia, «Puntos de Lagrange«, redacción del 22/12/2010.

Dos cuerpos orbitando alrededor del centro de masas común.

Dos cuerpos orbitando alrededor de su centro de masas común. El "problema de los dos cuerpos" que se pregunta por su comportamiento tiene solución relativamente sencilla mediante las integrales de movimiento; pero el "problema de los tres (o más) cuerpos", que surge al añadir otros, carece de una solución general y sólo se puede resolver para casos particulares. Estudiando esta cuestión, Lagrange dedujo sus puntos de Lagrange.

Los puntos de Lagrange en el sistema Sol-Tierra

Los puntos de Lagrange para el sistema Sol-Tierra. Una nave espacial establecida en esas posiciones puede mantenerse en las mismas únicamente con energía de maniobra.

El primer punto de Lagrange, L1, es intuitivo y se da incluso aunque todos los cuerpos estén estáticos: en la línea imaginaria entre dos objetos con masa y por tanto gravedad, existe un lugar donde la atracción gravitatoria de uno cancela a la del otro. Un objeto de masa comparativamente despreciable situado justo en esa posición flotará entre ambos de forma indeterminada sin necesidad de ningún aporte de energía. En un sistema rotativo real como el Tierra-Luna, L1 está un poco desplazado y es levemente inestable, lo que se puede compensar con pequeñas maniobras.

L2 se encuentra en la misma línea que une a los dos objetos mayores, pero más allá de la menor. En este punto, la atracción gravitatoria de las dos masas principales entra en equilibrio con el efecto centrífugo de la masa menor que gira alrededor. L3 hace lo propio «al otro lado», más allá de la masa mayor. Por su parte, L4 y L5 se encuentran en los vértices de los triángulos equiláteros con base común en la línea que une ambas masas mayores; es decir, que giran 60º delante y detrás del cuerpo con masa menor, según se ve desde la masa mayor. Podemos verlos en la imagen de la izquierda.

La gracia de los puntos de Lagrange es que una nave espacial establecida en los mismos puede mantenerse ahí indefinidamente con energía teórica cero, y en la práctica tan solo con un poco de energía de maniobra para L1, L2 y L3 y ninguna para L4 y L5. Estos puntos de estacionamiento, excelentes candidatos a convertirse en terreno para construir las casas de postas cósmicas, constituyen una especie de órbitas Lagrange-estacionarias –por analogía a las geoestacionarias– que están disponibles entre dos pares de astros cualesquiera.

Mapa de potencial en los puntos de Lagrange y órbitas posibles en torno a L1 y L2.

Mapa de potencial en los puntos de Lagrange y órbitas posibles en torno a L1 y L2. Imagen: R. A. Tacchi en Interplanetary Transport Network, Universidad de California en Davis. (Clic para ampliar)

De hecho, por su estabilidad gravitacional, en los puntos de Lagrange cuarto y quinto tienden a acumularse ciertas cantidades de materia. Los asteroides troyanos se concentran alrededor de los puntos L4 y L5, y muy notablemente en los del sistema Sol-Júpiter (¿alguien ha dicho «estación minera»?). El sistema TetisSaturno presenta a su vez dos pequeñas lunas, Telesto y Calipso, en L4 y L5.; lo mismo ocurre con Helena y Pollux en los de Dione – Saturno. Marte presenta cuatro asteroides en L4 y L5 de Sol – Marte. En torno a los de Sol – Tierra podrían encontrarse las nubes de polvo de Kordylewsky. El planetoide compañero de la Tierra, 3753 Cruithne, intercambia energía con la misma a través de los lagrangianos Sol – Tierra; lo mismo sucede entre Epimeteo y Jano (Saturno), de manera mucho más notable.

Se sugiere que los puntos L1 y L2 de cualquier astro serían el lugar idóneo para instalar un ascensor espacial (específicamente los llamados ascensores espaciales lunares). La Sociedad L5, ahora parte de la National Space Society, viene proponiendo directamente la colonización de los puntos de Lagrange desde 1975. La Administración Obama acaricia la idea para el proyecto de enviar una misión tripulada a Marte. Tímidamente, la especie humana ya ha empezado a ocupar los lagrangianos L1 y L2 de Sol-Tierra con algunas naves científicas. Una característica peculiar de los puntos de Lagrange es que un objeto (incluída una nave espacial) puede orbitar a su alrededor exactamente igual que en torno a un astro, a pesar de que en ellos no haya ningún cuerpo con masa.

¿Y todo esto a qué viene? Pues viene a que aprovechando la interacción gravitatoria entre los distintos astros, y circulando a través de los puntos de Lagrange, se configura una especie de red de metro interplanetaria de mínima energía que nos permite viajar entre los distintos planetas y lunas con un coste energético mucho menor que en las órbitas de transferencia de Hohmann-Vetchinkin. De hecho, con un coste energético próximo a cero. Este metro, con sus estaciones en los puntos de Lagrange de los diversos pares de astros, se conoce como la red de transporte interplanetario.

El metro interplanetario.

Esquema conceptual de la red de transporte interplanetario.

Esquema conceptual de la red de transporte interplanetario. NASA. (Clic para ampliar)

La red de transporte interplanetario (ITN, por sus siglas en inglés) es un conjunto de rutas cósmicas que requieren muy poca y a menudo ninguna propulsión para que una nave espacial las recorra. Teóricamente, la energía de impulsión necesaria una vez iniciado el viaje podría ser cero; en la práctica, estaría muy próxima a cero. Esto fue demostrado por el ICE internacional en 1978 y la sonda lunar japonesa Hiten en 1991; después, ha sido utilizado por otras naves espaciales como la Génesis norteamericana (2001) o la SMART-1 de la Agencia Espacial Europea (2003).

Trayectoria descrita por la nave espacial Génesis.

Trayectoria descrita en la realidad por la nave espacial Génesis, utilizando el concepto de red de transporte interplanetario (2001-2004). Imagen: NASA.

Trayectoria ITN de entrada al sistema solar interior.

Una trayectoria ITN de entrada al sistema solar interior con coste energético mínimo, vía los lagrangianos L1 y L2 del sistema Sol-Júpiter. Imagen: R. A. Tacchi en Interplanetary Transport Network, Universidad de California en Davis. (Clic para ampliar)

Toda la propulsión necesaria para la realización de un viaje así se aplica durante el lanzamiento, con el propósito de alejar la nave del planeta Tierra y colocarla en un rumbo determinado a una velocidad precisa. A partir de ese punto, todo sucede solo, sin necesidad de aportar ninguna otra energía de impulsión más que para las posibles correcciones. Eso sí, el rumbo y la velocidad han de ser exactas de narices, pero esto es algo que ya cae actualmente dentro de las posibilidades tecnológicas humanas. De esta manera, toda la energía necesaria para el viaje se obtiene mediante la interacción gravitatoria con los distintos astros a través de sus puntos de Lagrange. Aplicando esta técnica no se requieren grandes motores ni grandes cargas de combustible (una vez ya estás en el espacio), sino sólo lo imprescindible para maniobrar en caso necesario.

La posibilidad de este metro interplanetario de consumo casi-cero ya fue teorizada por el matemático Henri Poincaré a finales del siglo XIX, pero no se pudo demostrar en la práctica hasta los vuelos de la ICE en 1978 y la Hiten en 1991. A partir de ahí se realizó un importantísimo trabajo de matemática aplicada, conocido en todo el mundo menos aquí (como siempre), por Gerard Gómez de la Universitat de Barcelona y Josep Masdemont de la Universitat Politècnica de Catalunya; sobre esta base, Martin Lo de la Universidad Purdue desarrolló una herramienta computacional llamada LTool, que permite calcular estas trayectorias y viene siendo utilizada desde entonces por el Jet Propulsion Laboratory y otras instituciones astronáuticas para crear el trazado de la red.

El principal problema con estas trayectorias es que son típicamente más largas que las órbitas de escape y las órbitas de transferencia de Hohmann-Vetchinkin, y además el paso por los puntos de Lagrange puede llegar a ser exasperantemente lento si queremos mantenernos en el coste energético mínimo. Por otra parte, las ventanas de lanzamiento óptimas pueden llegar a hallarse muy separadas entre sí. Esto tiene soluciones mixtas posibles, que con poco aporte de energía adicional pueden mejorar bastante algunos de los peores cuellos de botella, pero aún así la red de transporte interplanetario sólo resulta verdaderamente interesante cuando el tiempo de viaje es secundario. Por ello, en la actualidad sólo se plantea para sondas automáticas, no para vuelos tripulados. Pero esto podría cambiar en cualquier momento, y de hecho ya hay varias propuestas que utilizarían la ITN para misiones tripuladas.

La galaxia Renacuajo.

La "cola" de la galaxia Renacuajo son los restos de uno de estos túneles de baja energía que quedó establecido en el pasado, cuando otra galaxia pasó cerca, por donde se deslizaron las estrellas de una a otra.

La comprensión cada vez mejor del problema de los tres cuerpos y de las dinámicas asociadas a los puntos de Lagrange no sólo son de interés en la exploración espacial. Esta idea de los pasadizos de baja energía tiene otras aplicaciones. Por ejemplo: en el año 2000 Charles Jaffé, un químico de la Universidad de Virginia Occidental, observó que bajo determinadas condiciones experimentales las rutas que toman los electrones de valencia en átomos de Rydberg son muy parecidas a la trayectoria de la sonda Génesis. Y cuando estos átomos se someten a campos eléctricos y magnéticos perpendiculares, también realizan estos recorridos tubulares. Esto ha sentado las bases para el desarrollo futuro de nuevas teorías y aplicaciones en química y tecnologías de materiales, pues las matemáticas subyacentes son válidas a todas las escalas, desde los átomos a las distancias intergalácticas.

Hablando de galaxias, científicos de las universidades de Tokio y Edimburgo han mostrado que unos tubos relacionados con los puntos de Lagrange conducen a la «evaporación» de pequeños cúmulos estelares en órbita alrededor de algunas galaxias. Este efecto es mucho más notable cuando interaccionan dos de ellas: la galaxia Renacuajo manifiesta evidencias de un episodio muy violento en su pasado, un raspón como si dijéramos. La enorme cola que se extiende tras el renacuajo señala el lugar donde miles de estrellas entraron en tubos conectados con otra galaxia que pasó cerca. La cola del renacuajo es, pues, un puente hacia la nada de 280.000 años-luz. Otras galaxias presentan túneles de interconexión similares.

Aúnque aún no se han elaborado los mapas, cabe esperar que existan trayectorias parecidas conectando las estrellas entre sí; por ejemplo, al Sol con las estrellas cercanas. Esto constituiría una red de transporte interestelar donde una nave del tipo de las Voyager podría viajar directamente a Alfa Centauri, por decir algo, sin coste de propulsión adicional alguno. Le costaría miles de años hacerlo, pero aquí asoma un asunto interesante: en el pasado, hubo estrellas que estaban mucho más cerca del Sol (y en el futuro volverá a haberlas). Es posible que nos intercambiáramos material con ellas a través de estos canales. Qué material exactamente queda por el momento a la imaginación de cada cual.

Hace apenas cuarenta años y una semana, Venera 7 se posaba con bien en Venus tras utilizar una primitiva órbita de transferencia Hohmann-Vetchinkin con un coste energético de 3,8 megajulios por kilo. Fue una hazaña extraordinaria, ejecutada con tecnologías primitivas y a lo bruto porque en ese momento no se podía hacer de ninguna otra manera. Ahora sabemos que es posible llegar a la mayor parte de sitios interesantes en el sistema solar, y quizás en torno a otras estrellas y galaxias, con una milésima parte de esa energía. Si no lo estamos haciendo ya más y mejor, no es porque no sepamos, sino por simple ceguera y mezquindad. Ah, sí, por cierto. En salvar a los bancos, europeos y norteamericanos hemos comprometido dinero suficiente (unos trece billones de dólares sólo en los EEUU) para hacer unas mil misiones tripuladas a Marte y mantener el CERN durante más de diez mil años: las dos cosas a la vez y pagadas a tocateja con un solo cheque. Menos mal que no había pasta, ¿eh?

Para más información:

  • Ross, Shane D (2006), The interplanetary transport network, en American Scientist, vol. 94, págs. 230-237.
  • Conley, C. C. (1968), Low energy transit orbits in the restricted three-body problem. En SIAM Journal on Applied Mathematics 16:732–746.
  • Fukushige, T., y D. C. Heggie (2000), The time-scale of escape from star clusters. En Monthly Notices of the Royal Astronomical Society 318:753–761.
  • Jaffé, C., S. Ross, M. Lo, J. Marsden, D. Farrelly y T. Uzer (2002), Statistical theory of asteroid escape rates. En Physical Review Letters 89:011101.
  • Marsden, J. E., y S. D. Ross. (2006), New methods in celestial mechanics and mission design, en Bulletin of the American Mathematical Society 43:43–73.
  • Smith, D. L. (2002), Next exit 0.5 million kilometers, en Engineering & Science LXV(4):6–15.

54 Comentarios Trackbacks / Pingbacks (8)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (90 votos, media: 4,90 de 5)
Cargando...
Be Sociable, Share!

Antibióticos para la vida

En un mundo sin antibióticos, ¿seguirías con vida?

La peste negra representada en la Biblia de Toggenburg.

La peste negra, aquí representada en la Biblia de Toggenburg (1411), mató a entre el 30% y el 60% de la población europea entre 1348 y 1350 y no desapareció hasta el siglo XVIII, cuando se vio sustituida por el cólera (mi bisabuela aún recordaba la espantosa epidemia de cólera de Valencia de 1885). Ninguna de estas enfermedades habría representado un gran problema teniendo antibióticos. Pero no teníamos.

Amoxicilina

La amoxicilina, uno de los antibióticos más utilizados en la actualidad, sigue siendo una penicilina betalactámica semisintética.

Hace poco escribí un post sobre el abuso de los antibióticos y los problemas de salud pública que está ocasionando en todo el mundo por el surgimiento de cepas resistentes y demás. Sin embargo, no disponer de ellos sería… bueno, espantoso, otra de esas cosas que nos mantendrían atados a un pasado de mierda. Los antibióticos, además de imprescindibles para la medicina moderna, son fascinantes: sustancias asombrosas capaces de matar a los agentes causantes de las enfermedades… sin matarnos a nosotros, cosa más extraordinaria de lo que nos hemos ya acostumbrado a pensar.

Hoy por hoy, en general, al menos los antibióticos sencillos se pueden encontrar hasta en los peores pudrideros del Tercer Mundo; y en los países desarrollados, los médicos disponen de un impresionante arsenal farmacológico para atacar a las enfermedades infecciosas ocasionadas por bacterias. Que son buena parte de las que nos liquidaban como a chinches hasta tiempos bien recientes, y cuando no, nos arruinaban la vida de mala manera. Entre ellas, bromitas como la peste bubónica, la difteria, el cólera, la lepra, la sífilis o la tuberculosis; por no mencionar todas esas infecciones que hoy en día consideramos leves pero que en el pasado tenían la costumbre de llevarse a la chiquillería y también a sus mamás al otro barrio por oleadas.

Los antibióticos carecen de utilidad contra los virus, a pesar de la afición del personal a atizárselos para tratar el resfriado común, la gripe y cosas así. Y el tratamiento de las enfermedades ocasionadas por hongos es cosa de los antifúngicos. Los antibióticos sólo sirven para curarnos de los males que causan las bacterias patógenas, ¡pero de qué manera! A menos que nos enfrentemos a una de esas cepas multirresistentes que han evolucionado a consecuencia de su abuso y mal uso, suelen ser mano de santo, curando en pocos días enfermedades que a menudo nos enviaban a la tumba o a la invalidez por muchas manos de santo auténticas que nos impusieran.

Los tres dominios de la vida: archaeas, bacterias y eucariontes.

Los tres dominios de la vida: archaeas, bacterias y eucariontes. Nosotros pertenecemos a un tipo de eucariontes, los animales (arriba a la derecha).

Del casi infinito dominio de las bacterias.

En este planeta, las bacterias contienen casi tanta biomasa como las plantas y las procariotas en general (el inmenso reino al que pertenecen) forman más de la mitad de la materia viva terrestre. De hecho, en la actualidad, esto de los reinos ya no se lleva mucho. Los biólogos se han hecho, digamos, pelín republicanos desde que descubrieron que la clara mayoría democrática de todas las cosas vivas que medramos sobre la faz de este mundo viejo son las bacterias y las archaeas; y también fueron las primeras en llegar, por algún millar de millones de años, con lo que el derecho de sangre les corresponde sin duda ninguna. Así pues, ahora dividimos a las cosas que viven en tres dominios: archaeas, bacterias y eucariontes; dentro de esos dominios, ya puede haber reinos y pequeñeces así. Los eucariontes somos el batiburrillo de lo que no son bacterias o archaeas, las cosas que poseen núcleo celular verdadero y que va desde los hongos hasta animales mamíferos como el homo sapiens. (Véase: Esta es tu herencia en este mismo blog)

Las procariotas son absolutamente esenciales para la vida terrestre. Si mañana la humanidad se extinguiese, incluso si todos los primates nos extinguiéramos, nadie notaría gran cosa y sería un incidente absolutamente menor en la historia de la vida; algo surgió, luego desapareció, ninguna novedad. Pero si las procariotas se extinguiesen, toda la vida terrestre se pondría del revés y probablemente desaparecería. Eso sí, la clase de cosa necesaria para matarlas pertenece a la liga de los grandes impactos planetarios y las estrellas agónicas zampándose mundos entre fases de fusión; un súper-meteorito de tres al cuarto o una escalera siberiana del montón no les hacen ni reir.

Se estima que hay aproximadamente 5 · 1030 bacterias en la Tierra. O sea, un cinco seguido de treinta ceros, lo que vienen siendo cinco quintillones. Es decir, más de un trillón de bacterias por cada galaxia del universo observable. Quinientos mil millones por cada insecto, más de quinientos mil millones por cada puñetero grano de arena en las playas de este mundo. Es difícil encontrar cifras a escala humana tan inmensas como para comparar. Una jartá, oiga.

E. coli

Tenemos más bacilos E. coli como los de la imagen en el colon intestinal que células en el conjunto del cuerpo. E. coli es un comensal generalmente inocuo, aunque algunas cepas son muy peligrosas.

A diferencia de lo que ocurre con las archaeas, que pasan señorialmente del resto de las cosas vivas desde su enigmático dominio primordial (si bien llevamos algunas en el intestino, las metanógenas), una parte significativa de las bacterias interaccionan con animales como nosotros y hasta pueden ocasionarnos enfermedades: decimos entonces que son patógenas. Esto es un temita peliagudo, dado que en un cuerpo humano hay diez veces más bacterias que células nativas propias y necesitamos la mayor parte de ellas para seguir bien de salud. Con estas cifras en la mano, no sería totalmente abusivo afirmar que somos básicamente una colonia de bacterias fecales rodeadas por unas capas celulares para asegurar su alimentación. Desde el corazón de nuestro culo, cien billones de bacterias preguntan a diez billones de células eucariotas quién es aquí el simbionte de quién. ;-) El Proyecto Microbioma Humano estudia esta materia con gran afán, entre otras cosas de peculiar interés.

Bacterias enrolladas y bacterias chungas.

Aunque llevamos bacterias por todas partes y especialmente en los ojos, la piel, la nariz, la boca, la vagina y el intestino delgado, la mayor parte se encuentran en el intestino grueso y sobre todo en el colon; donde reside, por ejemplo, la conocida vecina E. coli. Escherichia coli vive ahí de nuestro culo para arriba tranquilamente, respetuosa de la ley y sin dar pie a muchas habladurías, alimentándose de… pues de qué va a ser, de la mierda, facilitándonos la absorción de nutrientes en el proceso. Es una buena chica, muy trabajadora y fiel, que nos coloniza unas 48 horas después del nacimiento y ya no nos abandona hasta que nos hemos convertido en contaminación ambiental. Incluso sirve para elaborar medicamentos contra las enfermedades inflamatorias intestinales.

Pero no todas las E. coli son igual de dóciles y laboriosas. Algunas cepas resultan francamente peligrosas, entre ellas O157:H7, O121 u O104:H21, que producen potentes toxinas y son causa habitual de intoxicaciones alimentarias. Cuando nos pegamos un banquete de estas cepas, normalmente acompañado con algo de comer, nos ponemos muy malitos e incluso nos podemos morir –una parte de las toxinas que fabrican se parecen bastante a las del cólera–. Tampoco nos sienta bien que la E. coli buena se salga de su sitio y vaya a parar a otros lugares, como por ejemplo mediante una herida abdominal: provoca rápidamente peritonitis, que también nos puede enviar fácilmente al lugar silencioso. En la actualidad, hay verdadero miedo a que E. coli haya adquirido multirresistencia por el abuso de antibióticos y no se pueda controlar en estos casos.

Otras bacterias son directamente unas hideputas que vienen a buscarnos las vueltas, diciendo que necesitan sobrevivir a nuestra costa y que más vale que llore tu madre que no la mía. Entre estas se encuentran algunas tipas tan chungas como Vibrio cholerae (cólera), Yersinia pestis (peste bubónica, que una vez se cargó a media Europa), Mycobacterium leprae (o bacilo de Hansen, encargado de llenar las leproserías), Mycobacterium tuberculosis (o bacilo de Koch, tisis) o Treponema pallidum, esa guarrindonga que acecha el día en que te dejaste los condones en casa y suele ingeniárselas para encontrar un camino de tu entrepierna a tu cerebro (cosa que probablemente no sea muy difícil :-P ).

Treponema pallidum, el agente causante de la sífilis.

Treponema pallidum, el agente causante de la sífilis, una enfermedad de transmisión sexual que por sí sola justifica el uso de todos los condones del mundo.

He citado cinco de las más conocidas, pero en realidad hay miles de especies bacterianas patógenas, que se contagian por tierra, agua, aire y polvo (sí, en el sentido que estás pensando). No existe prácticamente ningún orden de la realidad en la superficie terrestre donde no haya bacterias, y eso incluye a las patógenas.

Por ello, la higiene y la asepsia (y en su caso la antisepsia) son importantísimas, la primera barrera y la más esencial contra las enfermedades infecciosas (aunque existen indicios para pensar que la excesiva higiene puede ser contraproducente, al impedir que el sistema inmunológico de los niños se desarrolle correctamente y fomentar la resistencia microbiana –pero sin exagerar–). Uno de los más grandes éxitos a la hora de evitar que las mamás se murieran como ratas de sepsis puerperal fue lograr que los médicos y obstetras se lavaran las puñeteras manos antes de atender el parto. Con la asepsia quirúrgica se logra erradicar casi todas las bacterias que puedan llegar al paciente en un quirófano, siempre que se siga escrupulosamente el procedimiento.

La guerra entre las bacterias, los hongos y los humanos.

Una vez la infección se ha producido, sólo existen dos maneras de enfrentarla. La primera es dejar que el sistema inmunológico haga su trabajo para eliminarla, como de hecho hace constantemente. Sin embargo, es evidente que numerosas infecciones son capaces de vencer al sistema inmunológico y comérsenos; algunas resultan tan peligrosas que ni siquiera merece la pena correr el riesgo de esperar a que el sistema inmunitario haga lo suyo. En realidad hay una tercera posibilidad: amputar el miembro u ógano infectado… con la esperanza de que eso no empeore las cosas aún más. Por eso antiguamente las amputaciones iban que volaban, mientras hoy en día se reservan para casos extremos.

En el pasado, al llegar a este punto en el que quedamos infectados por algo que el sistema inmunitario no puede afrontar… pues la liamos parda. Durante la mayor parte de la historia de la humanidad, no existió ningún mecanismo claro o eficaz para combatir la infección desde fuera. Esencialmente, o tu sistema inmunológico lograba vencerla, o te amputaban a tiempo sin causarte una infección aún mayor o te ibas para el hoyo –y esto ocurría con gran frecuencia–. Hasta finales del siglo XIX no hubo realmente medicamentos dignos de tal nombre, y ese es uno de los motivos fundamentales de que hasta principios del XX la esperanza de vida incluso en los países ricos se mantuviera sólidamente por debajo de los 50 años, y la media mundial fuera de 31 años, peor que en el Paleolítico (cuando se estima que fue de 33 años). Hoy en día los países que peor están rondan los 40 años (Swazilandia), aunque cifras en torno a los 50 son más comunes en el África pobre; la media mundial en 2005 fue de 67,2 años, algo nunca visto, y los países desarrollados nos mantenemos sólidamente en torno a los 75 – 80. La diferencia entre países ricos y pobres se ha reducido de 25 años en 1950 a 11,5 en la actualidad. En apenas un siglo, hemos logrado entre un 29% (caso peor) y un 162% (caso mejor) de vida extra para el conjunto de la humanidad.

Mortalidad infantil y esperanza de vida 1950-2010

Mortalidad infantil y esperanza de vida 1950-2010, con desglose del total mundial y los países más y menos desarrollados. Fuente: División de población de las Naciones Unidas (http://esa.un.org/unpp/index.asp?panel=2). (Clic para ampliar)

Funeral del primogénito, por Nikolai Yaroshenko, 1893

Funeral del primogénito, por Nikolai Yaroshenko, 1893. La experiencia de enterrar a un hijo pequeño, hoy en día poco común y generalmente consecuencia de la fatalidad, era cosa corriente en todo el mundo hasta la segunda mitad del siglo XX.

Las cifras de mortalidad infantil han mejorado aún mucho más. Durante la mayor parte de la historia se encontraba en el 30% y a veces ascendía hasta el 50%. Es decir, entre uno de cada tres y uno de cada dos nacidos desaparecía antes de alcanzar la edad adulta. Hoy, el peor país para venir al mundo es Angola (18,2%, una barbaridad) y el mejor, Singapur (0,2%); la media mundial está en el 4 a 5%. Tan solo en 1950, la media mundial rondaba aún el 15% (tan mala como si todo el mundo fuera el Afganistán de hoy). Eso es una reducción global del 70% en apenas sesenta años. De nuevo, la diferencia entre ricos y pobres ha caído de 115 puntos a principios de los ’50 a 46 hoy en día. Y en su gran mayoría, es la obra de la ciencia moderna (y también de la mentalidad moderna).

Entre los conocimientos, métodos y técnicas que han logrado este resultado maravilloso se encuentran las vacunas, la higiene y los antibióticos. En el mundo clásico protocientífico existieron algunos a modo de antibióticos, que parece que mejoraban algo las cosas. Diversas culturas de la Antigüedad descubrieron que aplicando ciertos mohos y plantas a las heridas la infección se reducía. En mundo rural ruso, es tradicional tratar las heridas infectadas con trozos de tierra caliente (que contiene mohos), y en Serbia y Grecia, usando trozos de pan florecido. Pero eso fue todo y, a todas luces, no fue lo suficiente. Tuvimos que esperar hasta 1875 para que un médico irlandés, por nombre John Tyndall, verificara una cosita curiosa descubierta poco tiempo atrás: algunas bacterias parecían tener problemas para cultivarse allá donde medraba un cierto hongo de los alimentos estropeados llamado Penicillium. En 1876, dejaría escrito: «donde el [Penicillium] es sólido y coherente, las bacterias murieron o se adormecieron y cayeron al fondo [del tubo de ensayo] como un sedimento». Lamentablemente, así quedó la cosa por el momento.

En 1877, Louis Pasteur y Robert Kochnadie, vamos– observaron también que un hongo presente en el aire inhibía el crecimiento del carbunco («ántrax«) durante sus estudios refutando la generación espontánea para demostrar la Teoría Microbiana de la Enfermedad. El francés comentó: «si pudiéramos intervenir en el antagonismo observado entre algunas bacterias, se podría quizás ofrecer las mayores esperanzas en materia terapéutica». Pero si hay que mencionar un nombre como inventor de la farmacología quimioterapéutica moderna y de los antibióticos eficaces, tal nombre es el del alemán Paul Ehrlich.

Paul Ehrlich, padre del primer antibiótico eficaz.

Paul Ehrlich, premio Nobel y padre del primer antibiótico eficaz: el Salvarsán de 1909, contra la sífilis. Fue virulentamente atacado como "peón del diablo" (Wick, 1988), por interponerse en el "castigo divino a la promiscuidad".

La bala mágica del doctor Ehrlich.

Entre otras cosas, Ehrlich era un destacado histólogo especializado en el uso de tintes para teñir selectivamente diversos tejidos y microorganismos, que inventó varias de las técnicas precursoras a la tinción de Gram. También postulaba que las toxinas y antitoxinas eran agentes químicos, no muy distintos de algunos de estos tintes. Esto le condujo a elaborar una idea singular: al igual que ciertos tintes teñían únicamente un tipo de células o microorganismos, al igual que las antitoxinas van a buscarles las vueltas a las toxinas, debían existir sustancias tóxicas sólo para un tipo de células o microorganismos, que no causasen daños a las demás. Así, sería posible inyectar esta sustancia tóxica a un paciente de tal modo que matara a la enfermedad sin matar al enfermo. Y lo expresó así: «debemos aprender a disparar a los microbios con balas mágicas». Una bala mágica que se cargara al microorganismo patógeno sin tocar a su portador.

Cuando en 1899 Ehrlich fue nombrado director del Instituto Real de Terapias Experimentales en Fráncfort, se dedicó a investigar estas hipotéticas balas mágicas con gran afán. A lo largo de cientos de experimentos, él y su equipo terminaron concentrándose en una familia de compuestos arsénicos trivalentes que habían demostrado su efectividad contra los tripanosomas. No mucho después Schaudinn y Hoffman descubrieron que la Treponema pallidum, una bacteria espiroqueta, era la causante de la temida enfermedad de transmisión sexual conocida como sífilis. Ehrlich consideró que la Treponema constituía un blanco idóneo para sus balas mágicas, y el mismo año en que recibía el Premio Nobel por sus trabajos sobre la inmunidad, pidió a su discípulo japonés Sahachirō Hata –autor de una técnica para infectar la sífilis en los conejos– que probara a destruirla con una sustancia previamente descartada: el compuesto 606 (porque era el sexto compuesto del sexto grupo de compuestos arsénicos que habían probado).

Así, siendo 1909, el doctor Sahachirō Hata probó el compuesto 606 para destruir la sífilis en conejos, siguiendo las instrucciones del doctor Paul Ehrlich de Fráncfort. Y el compuesto 606 funcionó.

Por primera vez, la humanidad disponía de un veneno capaz de matar a la enfermedad sin matar al enfermo. Fue bautizado como arsfenamina y comercializado bajo la marca Salvarsán. Al poco, en 1912, comenzaron a distribuir un nuevo compuesto ligeramente menos eficaz pero con mejor comportamiento clínico denominado Neosalvarsán. Ambos son profármacos, es decir, sustancias poco activas que el propio organismo metaboliza para convertirlas en activas. Y la sífilis, que había arruinado millones de vidas, se comenzó a curar.

Los de siempre montaron en cólera. La iglesia, los políticos conservadores e incluso una parte de sus colegas llamaron de todo a aquel judío que había osado interponer la mano protectora de la ciencia entre la humanidad y el justo castigo por el pecado de promiscuidad. Fue tachado de peón del diablo (Wick MD, M.R.. Retrospective-Paul Ehrlich: The Prototypic Clinical Pathologist. Am J Clin Pathol. 90:329-332 , 1988), vituperado, vilipendiado, acosado e incluso demandado en los tribunales por asesinato (como cualquier otro medicamento primitivo, el Salvarsán tenía fuertes efectos secundarios y unos cuarenta pacientes murieron, pero miles y miles se salvaban). Ehrlich acusó muy mal estos ataques y se dice que eso tuvo bastante que ver en los dos accidentes cerebrovasculares que le costaron la muerte durante el verano de 1915, a los 61 años de edad. Hay una peli de 1940 sobre todo esto, La bala mágica del doctor Ehrlich.

A pesar de los canallas, la razón se impuso y el Salvarsán se convirtió en el medicamento más vendido del mundo durante los siguientes treinta años. En 1935, Bayer desarrolló un tinte antibiótico llamado Prontosil, siguiendo técnicas basadas en las de Ehrlich; se trataba de la primera sulfamida y el primer antibiótico de amplio espectro. Es decir, un perdigonazo mágico: los antibióticos de amplio espectro son capaces de atacar a una diversidad de microorganismos sin causar daños significativos al paciente.  Las sulfamidas fueron el antibiótico más utilizado durante la Segunda Guerra Mundial, salvando a miles de soldados y otras víctimas de la enfermedad y la guerra. Pero lo mejor aún estaba por llegar.

Sir Alexander Fleming recogiendo el premio Nobel.

Sir Alexander Fleming (izda.) recogiendo el premio Nobel de manos del rey de Suecia Gustav V (1945).

Penicilina.

Según sus propias palabras, cuando el doctor Alexander Fleming se levantó de la cama el 28 de septiembre de 1928, no había decidido revolucionar toda la medicina de la humanidad para la hora de la cena. Y sin embargo, eso fue lo que ocurrió.

Alexander Fleming era un biólogo y farmacéutico escocés muy tímido y observador, al que cuando algo le picaba, no paraba hasta rascárselo. Así había descubierto ya la lisozima unos años atrás, importante en los procesos gangrenosos. Estuvo de vacaciones con la familia durante el mes de agosto de 1928 y volvió a su laboratorio el 3 de septiembre. Al revisar unos cultivos de estafilococos que estaba estudiando y dejó almacenados antes de irse, constató que una de las cepas estaba contaminada por un hongo. Alrededor del hongo, todos los estafilococos estaban muertos. Al comentárselo a su ayudante, éste contestó: «Así es como descubriste la lisozima, ¿no?»

Fleming estudió el hongo con atención, que resultó ser aquel Penicillum cuya capacidad bactericida ya había quedado establecida por Tyndall en 1875. Y se picó, y quiso rascarse. Así que se puso a hacer más experimentos. El 7 de marzo de 1929, puso nombre al jugo de moho con el que había estado trabajando todos esos meses: lo llamó penicilina. Y esta penicilina resultó ser la bala mágica soñada por el doctor Ehrlich, capaz de matar a decenas de bacterias patógenas peligrosísimas con una mínima toxicidad para el paciente.

El éxito no vino de inmediato. Su hallazgo recibió poca atención, pues no parecía aportar gran cosa sobre el trabajo de Tyndell cincuenta años atrás, y la producción en masa de esta penicilina resultó ser más difícil de lo que parecía en un principio. Trató de encontrar a un químico que la produjera, pero el sector privado no se interesó y a las universidades les parecía poco prometedor. Con el paso del tiempo, surgieron más problemas: el propio Fleming llegó a la conclusión de que la penicilina duraba demasiado poco tiempo en el organismo para actuar eficazmente, y además actuaba demasiado despacio. Hacia finales de los años ’30, se había desanimado y ya sólo le prestaba alguna atención ocasional.

El hongo Penicillium, que produce la penicilina, creciendo en agar.

El hongo Penicillium, que produce la penicilina, creciendo en agar.

En 1940, poco después de que comenzara la Segunda Guerra Mundial, Ernst Chain y Edward Abraham de la Universidad de Oxford descubrieron la estructura química exacta de la penicilina y hallaron un modo de aislarla y purificarla. No era más que un oscuro paper bioquímico sin ninguna aplicación clara en ese momento, pero en cuanto Fleming lo leyó se le hizo la luz de nuevo y llamó por teléfono a Howard Florey, que era el jefe del departamento donde trabajaban Chain y Abraham. Dicen que al colgar el teléfono, se oyó susurrar a Florey, refiriéndose a Fleming: «Dios… creía que el tipo estaba muerto». Sobre otra idea de Norman Heatley, Florey y Chain encontraron la manera de producir esta penicilina en masa.

Así, lo que solamente era una curiosidad científica se transformó rápidamente en una gran industria. El nuevo fármaco, que inició su andadura como penicilina G o bencilpenicilina, resultó ser de excepcional eficacia y bajísima toxicidad para el tratamiento y prevención de la gonorrea, la sífilis (desplazando finalmente al Salvarsán), la meningitis, la neumonía, la sepsis infantil, el tétanos, la gangrena y casi toda clase de infecciones producidas por heridas. Con la Segunda Guerra Mundial en marcha, no faltaban heridas de todas clases, y en 1944 ya se estaba produciendo penicilina suficiente para atender a todos los ejércitos aliados occidentales. Fleming, Florey y Chain recibieron el premio Nobel de medicina en 1945.

La penicilina tiene una bajísima toxicidad, pero en un 10% de los pacientes puede producir alergias y en ocasiones la muerte por shock anafiláctico. Descontando este problema, durante décadas no tuvo parangón y surgieron un montón de variantes mejores para esto o aquello, conocidas genéricamente como penicilinas. A partir de los años ’70 surgieron las penicilinas sintéticas, producidas de manera completamente artificial (o sea, sin tener que andar trasteando con los hongos), que permiten una diversidad de fórmulas mayor. En la actualidad, los antibióticos primarios siguen siendo penicilinas, como la amoxicilina o la cloxacilina. Una alternativa a las penicilinas, que sigue el mismo principio pero se origina en un hongo de las alcantarillas sardas, son las cefalosporinas.

En décadas recientes han surgido nuevos antibióticos totalmente sintéticos como las quinolonas (bastante más tóxicas), las tetraciclinas y algunas otras. En general, ninguno de estos antibióticos resulta tan eficaz como las penicilinas/cefalosporinas y buena parte presentan muchos más efectos secundarios. Como comentábamos al principio, en la actualidad el problema ya no es tanto matar bichejos chungos como pasarnos de vueltas y provocar la evolución sistemática de cepas resistentes a los antibióticos. Porque eso significaría volver al pasado, a aquella época que algunos creen más feliz pero donde las tasas de mortalidad infantil eran de dos dígitos, la esperanza de vida  menor que cincuenta años y cualquier microcabrito nos podía mandar al otro barrio con facilidad; un fenómeno que ya ha empezado a ocurrir y debemos evitar.

Ver también: Viruela: cuando la mano del Hombre fue más poderosa que el puño de Dios

68 Comentarios Trackbacks / Pingbacks (7)
¡Qué malo!Pschá.No está mal.Es bueno.¡¡¡Magnífico!!! (84 votos, media: 4,82 de 5)
Cargando...
Be Sociable, Share!

« Entradas anteriores Página siguiente » Página siguiente »