TECNOLOGÍA SEGUNDA MITAD DEL SIGLO XX

  LA REVOLUCIÓN TECNOLÓGICA

  LA SOCIEDAD DE LA INFORMACIÓN

La revolución del transistor

La segunda guerra mundial supuso un momento de fortísima aceleración en el desarrollo de la industria de la electrónica, y las investigaciones ligadas al sector de la defensa han seguido constituyendo el principal estímulo para el desarrollo del sector durante toda la segunda mitad del siglo. La introducción del transistor en 1.948 supuso la innovación más importante, estimulada por las investigaciones bélicas sobre el radar. Fue posible, después de la guerra, gracias a las cuantiosas inversiones de la aviación norteamericana, que apreciaba su pequeño tamaño comparado con el de las válvulas que se utilizaban por aquel entonces, su resistencia mecánica, su economía en el uso y la ausencia de problemas de enfriado. El éxito de las aplicaciones civiles del transistor fue enorme, y entre ellas destaca sobre todas las demás la invención de las radios portátiles que funcionaban con baterías que, en pocos años, revolucionaron el mercado radiofónico y las costumbre de los oyentes. La radio familiar o pública que escuchaban varias personas que se reunían en la misma estancia fue sustituida por aparatos personales que podían utilizarse en los sitios más dispares, poniendo en marcha el proceso de sonorización de la vida diaria. La difusión de la televisión en la posguerra siguió un camino análogo, marcado por el uso de tecnologías de producción derivadas de los sistemas de los radares militares, como los tubos catódicos de buena calidad y los estudios sobre las altas frecuencias de radio, así como de la reducción de los costes gracias a la expansión de la industria electrónica.

Los progresos de la electrónica también hicieron posible que se perfeccionaran otras aplicaciones de antes de la guerra, rentabilizando el uso de las mismas, como en el caso de los radiotelescopios y los microscopios electrónicos, que se perfeccionaron muchísimo a partir de los años 50 y se convirtieron en un instrumento científico esencial para el progreso de los conocimientos en el campo de la física y de la biología.

 

La expansión de la industria informática

En febrero de 1.946, el laboratorio de investigaciones balísticas del Ejército de los Estados Unidos puso en funcionamiento el primer calculador electrónico de la Historia. El ENIAC  (integrador y calculador numérico electrónico), que es como se llamaba dicha máquina, empleaba por vez primera en forma utilizable válvulas termoiónicas  (18.000)  en lugar de los relés mecánicos, más lentos, y su realización fue posible gracias únicamente a las enormes inversiones realizadas por el aparato militar. La puesta en marcha, unos años más tarde, de una nueva máquina análoga proyectada para funcionar de forma lógica, utilizando la aritmética binaria, dio inicio a la informática moderna, mientras que la sustitución de las válvulas por transistores y luego por circuitos integrados llevó a la construcción de ordenadores cada vez más potentes y compactos, a costes incomparablemente inferiores a los que podían obtenerse antes.

En los años 70, la difusión de las calculadoras de bolsillo, producidas por lo general por la industria japonesa, supuso el principio del despegue de la nueva microelectrónica en los mercados de consumo. En la década siguiente, la introducción de los primeros ordenadores personales y la aplicación de la electrónica a la industria del automóvil condujeron a una expansión decisiva de la industria electrónica. En 1.978, sólo el 1% de los coches fabricados por Ford en Estados Unidos contenía un microprocesador, pero dicha presencia marginal se traducía ya en una cifra de negocios que, en la industria automovilística estadounidense, superaba con creces los 200 millones de dólares. Hoy en día, el uso de circuitos integrados abarca casi todos los procesos industriales y muchísimos productos de consumo, y la elaboración electrónica gobierna casi todas las actividades complejas, desde la previsión de los fenómenos atmosféricos hasta las transacciones bursátiles, pasando por los servicios de reservas turísticas.

 

Los nuevos hogares

En 1.946, en Estados Unidos había cerca de 17.000 particulares que poseían un televisor. Al cabo de quince años, tres familias americanas de cada cuatro poseían al menos uno. El número de familias que tenían televisor era prácticamente igual que el de las que tenían radio, y los índices de escucha de los programas de televisión superaban las cinco horas al día. En Europa Occidental, el número de aparatos despegó con unos años de retraso, pero los cambios iban en la misma dirección. En 1.960, en Gran Bretaña había cerca de once millones de televisores, cuatro millones y medio en Alemania, más de dos millones en Italia y unos cinco millones en la URSS. La aparición de los primeros aparatos de vídeo hacia mediados de los años 50 revolucionó los programas de televisión, que hasta entonces se retransmitían en la mayoría de los casos en directo, según un modelo parecido al de la radio. En 1.954, la televisión americana lanzó el formaton de los telefilmes por capítulos, que se convirtieron en una de las características del nuevo medio de comunicación, facilitando la programación y garantizando, por lo general, buenos ingresos comerciales de los espónsors.

Casi desde el primer momento, la televisión se convirtió en el principal medio de entretenimiento y en la industria publicitaria más importante, y en los años 60 se transformó también en el principal vehículo de información. Pero la nueva industria nunca fue neutral desde el punto de vista político. Desde el principio, sobre todo en Estados Unidos, donde su difusión coincidió con el apogeo de la caza de brujas, la televisión fue antes que nada un medio de propaganda política y de difusión de mensajes indeológicos, tanto directamente como a través de la imagen que daba de la sociedad. La pobreza, las diferencias raciales o los problemas sociales raramente aparecían en las series de telefilmes y en los anuncios comerciales de Estados Unidos, mientras que en Europa el monopolio público, que due adoptado en casi todos los países como régimen de transmisión, hizo que se tratara de un medio fuertemente orientado por el poder político.

   

LAS PROMESAS DEL ÁTOMO

Atomos para la paz

El uso de las tecnologías nucleares con fines pacíficos y militares es muy difícil de separar. Desde el principio de la era atómica, quedó claro que la realización de reactores de fisión constituía una forma relativamente sencilla de adquirir una capacidad atómica militar, dado que uno de los productos de la combustión del uranio empleado en los reactores era el plutonio, necesario para la fabricación de artefactos nucleares. Además, la construcción de centrales era indispensable para adquirir la capacidad necesaria para fabricar motores de propulsión nuclear destinados a fines militares, como los de los submarinos oceánicos  (la aplicación a la navegación civil no sale a cuenta). La pérdida de la ventaja nuclear frente a la Unión Soviética y la conciencia de dichos hechos determinaron en gran medida la decisión estadounidense de lanzar, a finales de 1.953, un programa para el uso pacífico de la energía atómica, denominado “átomos para la paz”. La propuesta, formulada por el presidente Eisenhower a la ONU, consistía en un programa de cesión progresiva de material fisible por parte de los países productores a una organización controlada por la propia ONU, que tenía que vigilar que el combustible nuclear no se utilizara con fines militares. Las discusiones que desencadenó la propuesta norteamericana, que gozó de una buena acogida por parte de la Unión Soviética por razones análogas, llevaron a fundar en 1.957 la Agencia Internacional de la Energía Atómica, de la que entraron a formar parte 81 estados. Un año antes, Gran Bretaña había introducido en la red de suministro, por primera vez, la energía producida en una central nuclear, inaugurando oficialmente la era electronuclear. En años sucesivos, Estados Unidos le arrebatarona  Gran Bretaña la primacía, logrando imponer las tecnologías de construcción orteamericanas a cambio de la concesión del material fisible, y la producción de energía eléctrica alcanzó su punto máximo en 1.973, cuando, a pesar de las crisis petrolíferas de los años 70, su uso tendió a disminuir a causa de la creciente desconfianza de la opinión pública y a los costes escasamente competitivos respecto a los que se obtenían utilizando petróleo o carbón.

 

Las centrales electronucleares

Los proyectos faraónicos para utilizar la energía nuclear para excavar enormes grutas subterráneas en las que hacer confluir las reservas de petróleo, o para derribar montañas, se dejaron de lado muy pronto, y los usos civiles más significativos siguieron siendo los relacionados con la producción de energía eléctrica y, en menor medida, con la medicina nuclear.

El primer país que emprendió la construcción de centrales nucleares a gran escala fue Gran Bretaña, que en 1.960 ya producía con energía nuclear el 1,6% de la electricidad que precisaba. La primacía británica se mantuvo hasta los años 80, cuando otros países, con Francia en cabeza, se convirtieron en los mayores usuarios de energía electronuclear :  en el caso de Francia, a finales de los años 80 las centrales nucleares cubrían casi el 80% de la demanda nacional, mientars que en los demás países desarrollados se llegaba como máximo al 34% aproximadamente de Alemania.

El gran empeño británico de los años 50, al igual que el de Francia en las décadas siguientes, se explica con creces por el interés en desarrollar una capacidad nuclear militar autónoma, pero el mercado pacífico del átomo constituyó también un terreno de considerable competición económica en los primeros años de la era atómica. Las tecnologías británicas y francesas, basadas en reactores ralentizados con grafito, enfriados con gas y que empleaban uranio natural, fueron superadas por las tecnologías americanas, basadas en el uranio ligeramente enriquecido y en al ralentización y enfriado por agua. El interés de las empresas americanas por exportar sus tecnologías contó con un fuerte apoyo por parte del Gobierno estadounidense, mediante la concesión de uranio enriquecido a precios asequibles a los países interesados. De esta forma se superó el retraso tecnológico inicial con respecto a los ingleses, gracias a una estrategia basada en el poder político, y en 1.977 las empresas americanas llegaron a cubrir el 73% de los encargos internacionales :  la energía electronuclear constituye un caso ejemplar de cómo el desarrollo de las tecnologías no tiene por qué estar determinado únicamente por criterios de eficiencia y economía.

   

NUEVOS MEDICAMENTOS Y TERAPIAS GÉNICAS

Las fronteras de la vida

A partir de los años 70, los rapidísimos progresos de la genética dieron origen a una nueva frontera de la ciencia médica, ligada a la manipulación de los códigos contenidos en las moléculas de ADN. En 1.977 se insertó en una bacteria el primer gen humano aislado y reproducido el año anterior, dando lugar al primer organismo transgénico de la Historia. La inserción en las bacterias, que pueden intercambiarse el patrimonio genético, permitía reproducir el gen en cantidades industriales, para comercializarlo luego como medicamento para el tratamiento de enfermedades relacionadas, como sucedió en seguida con la insulina y, poco tiempo después, con la hormona del crecimiento, llevando al nacimiento de una nueva rama de la industria médica. A principios de la década siguiente, el implante transgénico tuvo éxito también en una rata de laboratorio, lo que permitió experimentar tratamientos específicos para las enfermedades del hombre, inducidas artificialmente en los animales de laboratorio. Nuevos progresos condujeron al empleo de virus, modificados para hacerlos inofensivos, como vehículos para implantar el gen deseado en los casos en que no puede reproducirse en las bacterias. Pero la consecuencia más destacada de los descubrimientos de la genética se refiere a la posibilidad de obtener de otros mamíferos, como por ejemplo los cerdos, los órganos destinados a los trasplantes humanos, y de elaborar tratamientos génicos para las enfermedades inducidas en el hombre por los defectos del ADN, enfermedades cuya lista se hace más largo de año en año, y que incluye numerosas formas cancerosas. Las terapias génicas, cuya experimentación ha dado comienzo recientemente, recibirán un impulso decisivo una vez que concluya el proyecto de trazado del mapa de todo el patrimonio genético humano, emprendido en 1.990. De todos modos, el rápido desarrollo de la ingeniería genética ha suscitado una alarma considerable debido a los problemas éticos ligados a la reglamentación de las actividades de investigación, que afectan tanto al uso de embriones humanos como a la futura posibilidad de adoptar criterios de manipulación que no correspondan a necesidades terapéuticas evidentes, sino más bien a la voluntad de seleccionar determinadas características humanas, en base a convicciones ideológicas o debido a intereses económicos o militares específicos.

 

La lucha contra las enfermedades

El perfeccionamiento de vacunas que lograron vencer enfermedades antes endémicas, la introducción de una clase de fármacos completamente nuevos, como los antibióticos, y los continuos progresos de las técnicas quirúrgicas, ampliaron enormemente los porcentajes de curación y los campos de actuación de la medicina en la posguerra. De entre las vacunas, cuya elaboración fue precedida  por el cultivo in vitro de los virus, que se logró por primera vez a finales de los años 40, la antipoliomielítica  - introducida en dos versiones, una en 1.955 y otra en 1.957 -  fue, sin lugar a dudas, la más importante. En 1.970 se había vacunado a unos 500 millones de personas, y la poliomielitis empezó a desaparecer. Sin embargo, precisamente la introducción en 1.955 de la primera vacuna contra la polio, que había provocado doscientos casos de la enfermedad, once de ellos mortales debido al uso de preparados imperfectos, demostró que el interés de los laboratorios farmacéuticos favorecía especulaciones peligrosas. Esto se vio confirmado por la enorme difusión de los sedantes, introducidos en los años 50, sin preocuparse por los efectos secundarios, y en el caso extremo de la taleidomida, un medicamento que se administraba durante el embarazo y que provocó el nacimiento de muchos bebés con espantosas malformaciones.

A nivel estadístico, la introducción de los antibióticos  - es decir, medicamentos de alto poder antibacteriano -  constituyó el otro progreso fundamental de la medicina de la posguerra. La penicilina, el primer antibiótico, había sido aislada en Inglaterra en 1.940, y durante la guerra le siguieron otrso medicamentos análogos. La producción de antibióticos sintéticos, obtenida por vez primera en Estados Unidos en 1.947, abrió paso a su empleo a gran escala, después de que ya durante la guerra su empleo había reducido enormemente la mortalidad debida a las heridas de guerra entre los militares aliados. Junto con las sulfamidas, introducidas en vísperas del conflicto, los nuevos medicamentos lograron vencer las infecciones bacterianas que atormentaban a la Humanidad desde hacía siglos y para las que casi no había posibilidad de curación. Hoy en día, el desarrollo de cepas de bacterias resistentes ha reducido considerablemente el espectro de acción de los antibióticos, pero las nuevas generaciones de fármacos permitirán ocupar su lugar en el futuro.

 

Las biotecnologías

El uso de las biotecnologías en el campo de la alimentación ha constituido uno de los efectos más importantes de los descubrimientos de la genética de posguerra. Las investigaciones se desarrollaron en los años 70, utilizando al principio una bacteria existente en la Naturaleza que actúa como modificadora del patrimonio del ADN de determinadas plantas, para que produzcan sustancias de las que pueda alimentarse. Los primeros experimentos de ingeniería genética aplicada a la agricultura estaban relacionados con la producción de plantas de tabaco y tomate transgénicas, resistentes a determinadas bacterias y a los tratamientos con herbicidas. De todos modos, el campo de aplicación de las tecnologías que modifican en ADN afecta a un amplio espectro de investigaciones, como las destinadas a desarrollar plantas resistentes a los climas áridos, cultivables en áreas desérticas, o que sinteticen directamente el nitrógeno de la atmósfera, eliminando la necesidad  de abonos nitrogenados, etcétera. La intención estriba en reducir el empleo de sustancias contaminantes reduciendo a la vez los costes, en aumentar el rendimiento y mejorar las características nutritivas de los productos sin necesidad de aumentar las superficies cultivadas, en extender las áreas cultivables a los países áridos o desprovistos de agua dulce, etcétera. En mayo de 1.999 se puso a punto una técnica que permitió salvar un obstáculo, el de la supresión del gen introducido por parte de la planta tratada, que hasta entonces había dificultado la aplicación de las tecnologías de transformación genética, limitando el éxito de los implantes múltiples de genes ajenos. En el futuro, el desarrollo de estas tecnologías podría favorecer una revolución agrícola cuyo impacto resulta muy difícil de prever, y que acaso podría resolver los problemas ligados a la alimentación de una población humana cada vez más numerosa. Sin embargo, las biotecnologías son objeto de críticas crecientes, que subrayan los riesgos de que determinadas características, como por ejemplo la resistencia a los herbicidas, puedan extenderse inadvertidamente a plantas nocivas. Otro riesgo es el de que la adopción generalizada de cultivos protegidos frente a una bacteria determinada pueda conducir al desarrollo de cepas resistentes, que luego acarrearían unos daños considerables a las cosechas a escala mundial. Además, los riesgos de toxicidad y alergias ligados a la introducción de genes procedentes de especies antes ajenas a la alimentación humana, requerirían prolongados plazos de investigación, algo que en la actualidad no sucede. Por ello, la desconfianza de la opinión pública y de una parte de los ambientes científicos llevó recientemente a la Unión Europea a reconsiderar la reglamentación de la comercialización de productos transgénicos. En cambio, en los Estados Unidos la soja y elmaíz modificados ya cubren el 50% aproximadamente del mercado, y se emplean en la elaboración de un elevado porcentaje de comidas preparadas.

   

DE LA TIERRA A LA LUNA

La nueva frontera del poder

El 4 de octubre de 1.957 se puso en órbita alrededor de la Tierra el primer satélite artificial de la Historia, el Sputnik soviético, que pesaba 83 Kilos, seguido al cabo de un mes de un segundo satélite de media tonelada de peso con la perrita Laika a bordo. El éxito soviético, que impresionó enormemente a la opinión pública y a los gobiernos occidentales, no sólo significaba una victoria prestigiosa y de enorme valor propagandístico, sino que, concretamente, implicaba el fin de la sustancial invulnerabilidad continental de Estados Unidos frente a un ataque nuclear :  los cohetes que habían puesto en órbita los primeros satélites soviéticos, con un alcance superior a los 10.000 Kilómetros y una carga útil considerable, podían transportar igualmente una ogiva nuclear de un continente a otro. La denominada “brecha misilística” que se le reprochaba a la presidencia de Eisenhower, acusada de haberse quedado atrás respecto a los progresos soviéticos, fue más que nada una estrategia electoral del partido rival, y una estratagema de las industrias interesadas para conseguir el apoyo de la opinión pública para un programa que preveía unos gastos militares enormes. Eisenhower ya había emprendido un programa misilístico que, en pocos años, situó a los Estados Unidos en una posición de superioridad estratégica en términos de misiles balísticos intercontinentales  (ICBM)  y de misiles lanzados por submarinos nucleares  (SLBM). En 1.962, frente a los 35 ICBM soviéticos, los Estados Unidos poseían 287 ICBM y 112 SLBM, además de un número considerable de misiles de medio alcance con bases en Gran Bretaña, Italia y Turquía, así como una neta superioridad del arma aérea.

El desafío misilístico entre las dos superpotencias se convirtió en un desafío espacial. A principios de los años 60, tanto rusos como americanos habían lanzado las primeras sondas lunares hacia Venus, y el 12 de abril de 1.961 Yuri Gagarin se convirtió en el primer hombre en el espacio, seguido al cabo de poco tiempo de los norteamericanos Alan Shepard y John Glenn.

 

Satélites y desafíos espaciales

Un mes después del vuelo de Gagarin, el presidente norteamericano John Kennedy lanzó el programa más ambicioso jamás imaginado :  el desembarco del hombre en la Luna antes del final de la década. En los años que siguieron, la carrera espacial de amabas superpotencias siguió adelante, invirtiéndose enormes sumas de dinero en eventos seguidos en todo el mundo por televisión :  lanzamientos de misiles, paseos por el espacio, encuentros entre cápsulas orbitantes. El programa americano de desembarco en la Luna prosiguió bajo la dirección del alemán Werner von Braun  - el inventor de las V-2 nazis y principal jefe de los proyectos misilísticos norteamericanos – en Cabo Cañaveral, Florida  (o, como decía von Braun recordando el centro misilístico hitleriano, “Peenemünde sur”). El 20 de julio de 1.969  (hora estadounidense), los astronautas Neil Armstrong y Edwin Aldrin fueron los primeros hombres que pisaron la Luna, coronando un programa financiado con enormes cantidades de dinero, perseguido en medio de dificultades técnicas aparentemente insuperables y que había costado tres vidas humanas en los ensayos anteriores. La aventura lunar prosiguió  (se efetuaron cinco desembarcos más hasta 1.972)  pero, mientras tanto, la misilística había perseguido otro objetivo de primer plano :  la puesta en órbita de satélites civiles y militares.

Desde el primer Sputnik, los satélites habían servido para recoger información acerca de la composición de las capas altas de la atmósfera, pero la principal finalidad de los satélites, además de los usos científicos, era la militar  y para las comunicaciones. Los primeros satélites de comunicaciones entraron en funcionamiento en 1.962, y en 1.969 se realizó la primera red satelitar global, que enlazaba 45 estados mediante un sistema de tres satélites geoestacionarios. Diez años antes los Estados Unidos ya habían realizado otra red de satélites equipados para el espionaje militar, seguida en 1.961 de una red de satélites de captación antimisilística. Desde entonces, el número de satélites militares lanzados por las potencias que poseían tecnología misilística no ha hecho más que aumentar, hasta alcanzar miles de ejemplares. Hoy en día, muchos de estos satélites desempeñan también funciones meteorológicas, y uno de los sistemas que pusieron a punto las fuerzas armadas estadounidenses se utiliza en la actualidad para proporcionar datos de longitud y latitud con una aproximación sumamente apurada a todos aquéllos que posean un sensor adecuado.

   

Tecnologías espaciales

El desarrollo de la misilística y la astronáutica ha tenido considerables efectos a nivel de repercusiones tecnológicas en sectores sumamente distantes. Una de las mayores consecuencias fue la de apurar la “ciencia de la fiabilidad”, que ya había dado sus primeros pasos inmediatamente antes de la guerra en el campo de la aeronáutica. La extremada complejidad de los sistemas astronáuticos y, sobre todo, de los nuevos aparatos electrónicos, hizo que fuera necesario desarrollar unos modelos matemáticos y unas estrategias de ensayo sin los que las empresas espaciales hubieran resultado imposibles, o habrían tenido unos costes materiales y humanos mucho más elevados. Además de este beneficio de repercusión general, hubo efectos más específicos, como la introducción de la integración a gran escala de componentes electrónicos, que hizo posible la miniaturización, el desarrollo de equipos médicos de monitorización de las condiciones psicofísicas de los pacientes, originalmente creados para controlar a distancia las condiciones de los astronautas, los paneles para el uso de la energía solar, empleados en los vehículos espaciales y los satélites y ahora disponibles en la Tierra. A estos efectos indirectos de la carrera espacial se han añadido recientemente los que son fruto de una investigación orientada, realizada a través de experimentos llevados a cabo a bordo de cápsulas orbitantes, y con aparatajes científicos puestos en órbita mediante cohetes o, a partir de 1.981, mediante las lanzaderas espaciales estadounidenses. Uno de los ejemplos más importantes fue el del transporte y puesta en funcionamiento del telescopio espacial Hubble mediante la lanzadera espacial Discovery en 1.990. En 1.993 Hubble empezó a funcionar con eficiencia y, desde entonces, ha sacado más de 100.000 fotografías, proporcionando una mole enorme de datos acerca de la estructura del Universo. También han demostrado ser de suma importancia los datos enviados por las sondas de exploración lanzadas hacia varios planetas del Sistema Solar.

   

LAS INCERTIDUMBRES DE LA GLOBALIDAD

Los nuevos amos del vapor

La globalización económica se caratcerizó por el desarrollo de empresas “multinacionales”, que operan a menudo a través de una red de empresas asociadas en países distintos de aquél en el que establecen sus negocios. Esto permite ahorrar impuestos y evitar los reglamentos impuestos por los países para limitar la concentración de las actividades de un sector determinado bajo el control de unos pocos sujetos. Al principio, las multinacionales fueron un fenómeno predominantemente estadounidense, pero muy pronto se extendieron a otros países de Europa Occidental y al Japón. Las empresas norteamericanas con filiales extranjeras pasaron de 7.500 en 1.950 a 23.000 en 1.966, y en 1.980 las sociedades anónimas de carácter transnacional llegaron a controlar tres cuartas partes de las exportaciones estadounidenses y casi la mitad de las importaciones. A menudo, dichos flujos comerciales consistían en intercambios de mercancías entre empresas pertenecientes a los mismos holdings societarios. A mediados de los años 70, la facturación anual de las cincuenta mayores sociedades multinacionales ya superaba el producto interior bruto de cualquier país, salvo los Estados unidos y la URSS. La expansión del poder, cuando no del número de las  grandes empresas multinacionales  (unas 300 hoy en día, en su mayoría con domicilio social en EE.UU.)  ha sufrido una aceleración considerable en los últimos veinte años, y ha llevado a una nueva oleada de cartelización después de la de finales del siglo pasado. Sin embargo, las estructuras societarias y los métodos empleados son bastante más complejos, e incluyen técnicas de organización comercial como las franquicias y sofisticadas estrategias de participaciones accionariales. Además, a diferencia de los monopolios clásicos de la industrialización de finales del Ochocientos, los gobiernos cada vez son menos capaces de impedir la cartelización de los mercados, ya que las políticas empresariales se desarrollan precisamente a escala transnacional.

La concentración del control de los procesos productivos ha ido acompañada de la del sector financiero. En la actualidad, éste está organizado en torno a un número limitado de grandes oepradores, fruto del proceso de fusiones societarias de los años 80. Además, los mercados financieros han sufrido una expansión considerable, concentrada sobre todo en las operaciones especulativas y en los cambios de divisas, que han provocado reajustes en las paridades de cambio de las divisas internacionales en numerosas ocasiones. Se calcula que, a principios de los años 90, sólo el 5% aproximadamente de las actividades diarias globales de cambio exterior  (que ascendían entonces a 900.000 millones de dólares)  estaba vinculado a flujos comerciales, y el 10% a flujos de capital. El 85% restante tenía su origen en operaciones bursátiles de varios tipos, incluida la especulación en el cambio.

 

La globalización y los estados nacionales

Una de las consecuencias más relevantes de la transnacionalización de la economía fue la de eorisonar considerablemente el poder de las instituciones del Estado de guiar los procesos económicos nacionales. La creciente liberalización de los mercados les permitió a las empresas moverse en una dimensión transnacional, mientras que las instituciones políticas representativas, los gobiernos  (y, a otro nivel, las organizaciones sindicales) siguen estando estructuradas en la mayoría de los casos sobre una base nacional. Dicho fenómeno no se manifestó únicamente en las economías débiles del Tercer Mundo, cuyos márgenes de autonomía se restringieron aún más, sino también en los países desarrollados de Occidente. La internacionalización de la competencia capitalista hizo que resultara sustancialmente imposible mantener a escala nacional las políticas comerciales de protección de los sectores económicos clave, como el de la industria del automóvil, que tanto los gobiernos europeos como Japón habían aplicado durante largo tiempo.

Al mismo tiempo, la modernización tecnológica y la dislocación de las actividades productivas a áreas geográficas más convenientes  (debido al bajo coste de la mano de obra o a políticas fiscales de incentivos a las actividades empresariales)  aportaron profundos cambios a la estructura y a los niveles de empleo, conduciendo a fuertes cambios en los sistemas fiscales y acentuando las desigualdades sociales.

Estas modificaciones hicieron que resultara cada vez más difícil mantener las políticas de welfare, de pleno empleo y de reparto de las rentas, a la base del consenso político y del crecimiento de las economías occidentales en la posguerra. La extensión de la unión económica en Europa Occidental y su profundización, hasta la creación de un área monetaria única, constituyeron también una respuesta a la creciente convicción de que es imposible corregir a escala nacional las dinámicas de las fuerzas de la economía transnacional.

 

La crisis del "estado del bienestar"

Las crecientes dificultades de los países de Europa Occidental para mantener las políticas de seguridad social encaminadas durante la posguerra, aun siendo debidas en gran parte a los cambios en la composición demográfica de la población, también son una consecuencia de la remodelación del mercado del trabajo y del creciente desempleo, debidos a los cambios de la economía contemporánea.

Los costes de los sistemas de previsión han aumentado, ante todo, a causa de los cambios estructurales de las sociedades europeas. El envejecimiento de la población y el debilitamiento de las redes de protección familiar llevaron a la asignación de pensiones durante mucho tiempo y a una atención sanitaria más cara. Las mayores necesidades de formación profesional ligadas a los cambios del mundo productivo también supusieron nuevos costes. Sin embargo, hoy en día las sociedades europeas, en valor absoluto, son más ricas que en los años 70, y el problema de la cobertura del presupuesto de costes del estado del bienestar emana, entre otras cosas, de los profundos cambios en el mercado del trabajo y del empleo, así como de la adopción de políticas económicas limitadas por la internacionalización de la economía.

Por ejemplo, en Alemania, en los años 80, frente a una duplicación aproximada de los beneficios de las empresas, los ingresos procedentes del impuesto sobre la renta de las sociedades pasaron del 25% al 13% del total de los ingresos, debido principalmente a la dislocación en el exterior de las actividades productivas de las grandes empresas. Al mismo tiempo, el desempleo y el subempleo, ambos en aumento, llevaron a una disminución general, en términos porcentuales, de las rentas salariales sometidas a cotizaciones, precisamente al hacerse más necesarios los amortiguadores sociales del estado del bienestar.

  

LAS CONEXIONES

Las redes de comunicaciones

El desarrollo de las redes informáticas y la creciente integración entre las distintas tecnologías de difusión de la información  - en el sentido más amplio de la palabra -  constituyeron una relevante novedad de la última década del siglo. Las primeras redes telemáticas se remontan a los años 70, y utilizaban las redes telefónicas existentes para el suministro comercial de datos y servicios “en línea”. El ejemplo más significativo de dichas redes fue el Videotel, implantado en 1.982 en Francia, cuya difusión contó con un fuerte apoyo del Estado, con el objetivo de conectar al servicio a todas las familias en poco tiempo. Posteriormente, estos primeros experimentos quedaron superados por la difusión de Internet a escala planetaria. Internet se desarrolló a partir de una red que en los años 60 crearon las estructuras militares estadounidenses, que necesitaban una estructura flexible capaz de asegurar las conexiones, incluso en caso de ataque nuclear. Pro ello, la estructura de Internet está organizada en torno a una pluralidad de enlaces, efectuados mediante redes telefónicas via cable y via satélite, para enviar paquetes de datos que pueden viajar descompuestos siguiendo distintos itinerarios y recomponiéndose al llegar a su destino. Esto garantiza un alto grado de flexibilidad. A principios de los años 80, las instituciones universitarias estadounidenses se hicieron cargo de la red militar y ésta, con el tiempo, se convirtió en un poderoso instrumento de acceso a bases de datos y de contactos directos entre usuarios particulares. Hoy en día, Internet está cobrando gran relevancia económica con el desarrollo del comercio en línea, que sin duda alguna constituirá uno de los sectores de mayor crecimiento en los próximos años.

La difusión de las redes telemáticas tuvo, en primer lugar, un efecto cuantitativo, al permitir una divulgación sumamente amplia de la información a la que antes sólo tenía acceso una minoría. En segundo lugar, la informatización difusa vinculada al desarrollo de las redes y la puesta a punto de tecnologías digitales cada vez más complejas prefiguran una profunda remodelación de la industria de los medios de comunicación de masas. Esta está destinada a evolucionar en la dirección de una integración cada vez mayor con el sector de las telecomunicaciones, a menos que este gigantismo industrial se limite mediante acuerdos internacionales para la salvaguardia del pluralismo de la información y de fragmentación del oligopolio industrial en el sector de los medios de comunicación y de la informática.

 

La nueva "koinè"

La globalización es un fenómeno que no sólo afecta a la economía. También afecta a la cultura, provocando conflictos, pero también puntos de contacto entre sociedades profundamente distintas. El proceso de globalización cultural no se lleva a cabo en una sola dirección. Por una parte, indudablemente da lugar a una creciente universalización de los símbolos culturales y los estilos de vida, favorecida por la difusión de la economía del consumo individual de masas y por los mensajes transportados por el medio de comunicación global por antonomasia, la televisión, tanto bajo el perfil de la publicidad comercial como en la programación normal. Esto refleja también la creciente concentración de la información y de la industria del entretenimiento en manos de unos pocos colosos, la mayoría de ellos con base en Estados Unidos. Sin embargo, tanto desde el punto de vista económico como cultural, la globalización produce forzosamente nuevos “localismos”. La descentralización de los procesos productivos y la penetración comercial y cultural a escala global implican, de hecho, un proceso de arraigue en la realidad local. Por ello, los grandes grupos industriales que dominan el mercado mundial interpretan explícitamente la transnacionalización de la economía como “localización global”, más que como exportación de un modelo de conducta del centro a la periferia. Al igual que el “estilo de vida americano” no provocó el traslado de la sociedad estadounidense a Europa en los años 60, sino más bien una síntesis específica entre estilos de vida tradicionales y sociedad de masas, lo mismo pasó con la creciente implantación de la industria de consumo a escala global. La modernización tecnológica y económica que transformó el mundo en la segunda mitad de siglo modificó, pues, las sociedades industriales occidentales, donde tuvo su inicio, tanto como las de los países que se hallaban en una etapa distinta del desarrollo económico. Es decir, que la hegemonía del mercado, por su propia naturaleza, actúa como agente de mediación entre culturas distintas, que se unen en un solo modelo de desarrollo económico. Esto llevó a elaborar el concepto de “glocalización”  (globalización y localización)  como forma descriptiva más correcta para la nueva koiné cultural mundial.

 

EL PESO DE LA MODERNIDAD

 

EL BOOM DEMOGRÁFICO

 

Virus y carestías

Los costes sociales del boom demográfico se manifestaron de forma creciente a partir de los años 70, cuando una serie de carestías provocadas por una sequía especialmente grave, como consecuencia de una explotación excesiva de los terrenos cultivables, tuvo consecuencias trágicas en muchos países pobres, sobre todo en Africa. Pero, aunque no se verifiquen eventos fuera de lo corriente, de todos modos las condiciones alimentarias de gran parte de la población mundial son sumamente difíciles. A principios de los años 80 se calculaba que 1.000 millones de personas vivían en condiciones de pobreza absoluta, disponiendo de una cantidad de comida insuficiente para llevar una vida activa. La desnutrición y las difíciles condiciones de vida provocan la muerte de unos quince millones de personas al año, sobre todo niños, y las condiciones no hacen más que empeorar :  de 1.980 a 1.992 la renta per cápita en los países del Africa subsahariana ha pasado de 570 a 350 dólares estadounidenses, y además estas estadísticas no reflejan más que agregaciones teóricas, y no una disponibilidad real. Las condiciones de desnutrición reflejan tanto el crecimiento demográfico como la destinación de extensas áreas cultivadas a la producción de alimentos destinados a la exportación, causando el desplazamiento de la población a los centros urbanos, donde lleva una existencia sumida en la más completa miseria.

El empeoramiento de las condiciones de vida ligado a la superpoblación ha llevado asimismo a la difusión endémica de graves enfermedades, como el síndrome de inmunodeficiencia adquirida  (SIDA), que en Africa ha alcanzado proporciones de auténtica plaga. En los países occidentales se ha contrarrestado la difusión del síndrome gracias a la adopción de medidas de prevención, y los enfermos se someten a tratamientos que, últimamente, han alcanzado resultados considerables en cuanto a retrasar la evolución de la enfermedad. En cambio, en los países pobres el coste de los medicamentos impide cualquier tipo de profilaxis, y las condiciones de vida facilitan el contagio. De los 30 millones de enfermos de SIDA que había en 1.998, la gran mayoría de ellos vivían en países en vias de desarrollo, y casi todos, tal y como están las cosas, están destinados a morir. En Botswana y Zimbabwe una tercera parte de la población adulta es portadora del virus VIH  (que provoca el SIDA), y en Suráfrica y Namibia el 25%. En las áreas urbanas, los porcentajes aumentan de forma dramática :  el 70% de las mujeres sometidas a análisis en las ciudades del Africa subsahariana eran seropositivas.

 

El ritmo de crecimiento

En 1.950 la población mundial ascendía a unos 2.500 millones de habitantes. En las décadas posteriores llegó casia triplicarse, con un crecimiento que se concentró principalmente en los países en vias de desarrollo, reflejo de la irrupción masiva y concentrada en un corto espacio de tiempo del progreso tecnológico.  De hecho, la industrialización de los países occidentales en el Ochocientos había sido un fenómeno relativamente prolongado, lo que permitió que los índices de natalidad y mortalidad se fueran equilibrando de forma progresiva. La vida se alargaba, pero el número de hijos disminuía al cambiar las estructuras sociales. En cambio, en el Tercer Mundo los rápidos progresos de la medicina y las técnicas sanitarias de la posguerra se introdujeron en sociedades cuyos modelos todavía se basaban en estructuras agrarias tradicionales, que se caracterizaban por unas altas tasas de fertilidad. De esta forma, mientras que entre 1.950 y 1.990 la población de los países desarrollados aumentó un 45%, la del resto del mundo aumentó un 143%. El período de máxima expansión en valores relativos se verificó durante los años 60. A partir de entonces, los índices de crecimiento de la población de algunas áreas densamente antropizadas, como la China  - que en la actualidad cuenta con más de 1.000 millones de habitantes -  y la India disminuyeron. Actualmente , China ha alcanzado un nivel de natalidad que garantiza la estabilidad de la población. Sin embargo, las tasas de crecimiento siguen siendo elevadas en los demás países del Tercer Mundo, y sobre todo en Africa, donde ha llegado al 3% anual, el valor más alto de la historia de la Humanidad. Las previsiones más actualizadas suponen que la población mundial no se estabilizará antes del 2.085, fecha en la que ascenderá a más de 11.000 millones de personas.

 

Cada vez más jóvenes, cada vez más viejos

El aumento demográfico y las diferencias en su evolución en los países desarrollados y en el resto del mundo han dado lugar a una “tijera de envejecimiento”, provocando una fuerte diversificación en la estructura de la población por grupos de edad. El aumento de la esperanza de vida y las bajas tasas de natalidad de las sociedades occidentales han hecho que se incremente el número de habitantes de más de sesenta y cinco años, tanto en valor absoluto como porcentual. En 1.950, en los países desarrollados de Occidente las personas de más de sesenta y cinco años eran unos 50 millones, una cifra que en los cuarenta años siguientes se duplicó con creces, alcanzando aproximadamente el 13% de la población. La estabilización de las tasas de natalidad en torno a dos hijos por mujer, dado que compensa el número de nacimientos y muertes, ha reducido a la vez la población adolescente, que de una relación aproximada de tres a uno con respecto a las personas de más de sesenta y cinco años en 1.950 ha pasado a una equivalencia sustancial en la actualidad. En cambio, en los países en vias de desarrollo, las altas tasas de natalidad mantienen alto el porcentaje de jóvenes en la población. En el Africa subsahariana, el caso más extremo, por cada 100 personas de más de sesenta y cinco años hay en la actualidad 159 jóvenes de menos de 15 años. Considerando que, desde el punto de vista estadístico, la población activa se concentra en los grupos de edad comprendidos entre los 15 y los 65 años, estos spreads generacionales de signo opuesto han dado lugar a un efecto parecido tanto en los países desarrollados de Occidente como en las naciones más pobres, es decir, un peso económico cada vez mayor que tiene que llevar la población activa. Este “índice de dependencia demográfica” es particularmente elevado en Africa, donde la proporción entre la población no productiva y la activa es del 93% aproximadamente. En cambio, en Europa dicha proporción es del 49%, un valor que, a pesar de resultar elevado, tiene un significado sumamente distinto, dado que el excedente de riqueza de los países occidentales ha permitido introducir unos amplios programas de jubilaciones.

 

 

LA CONTAMINACIÓN DE LA ECÓSFERA

 

Lluvias ácidas y contaminación

La contaminación de las aguas es debida tanto a la contaminación atmosférica como a los vertidos de residuos procedentes de las sociedades humanas. La contaminación atmosférica da lugar a las denominadas “lluvias ácidas”, es decir, precipitaciones cargadas de partículas contaminantes, sobre todo compuestos del azufre y el nitrógeno, que se absorben en la atmósfera y se descargan sobre el terreno, alterando la composición química del mismo, provocando la corrosión de los suelos y los monumentos y causando graves daños a las especies vegetales. Se trata de un fenómeno bastante extenso, pero que provoca unos efectos esencialmente reversibles. Bastante más graves son los daños causados por el vertido directo, en el terreno o en las corrientes de agua, de grandes cantidades de sustancias contaminantes, fruto de los procesos industriales, asl actividades agrícolas y las grandes concentraciones urbanas. Debido a dichos vertidos, el terreno y el agua absorben considerables cantidades de metales pesados altamente tóxicos, sustancias minerales insolubles, fosfatos, plaguicidas y residuos de todo tipo. El efecto acumulativo de la polución provocada de esta forma se manifiesta tanto en la contaminación de los alimentos producidos para el consumo humano como en la alteración del equilibrio ecológico. Ejemplo de ello son las eutrofizaciones de los grandes lagos americanos y del Báltico y el Adriático, que han alterado la fauna íctica, así como los desastres medioambientales provocados por los reiterados accidentes sufridos por los grandes petroleros oceánicos. Las actividades de las industrias químicas también han causado daños considerables, con algunos picos desastrosos. En 1.984, un escape de sustancias venenosas en una planta de Bophal  (India)  provocó la muerte de más de 2.000 personas. Ese mismo año, un incendio en una fábrica de Basilea causó una extensa contaminación del Rhin.

En 1.992, la Conferencia sobre el medio ambiente que se celebró en Río de Janeiro supuso un primer intento de negociar la limitación de las actividades contaminantes a escala internacional, precisando políticamente el concepto de “desarrollo sostenible”. Sin embargo, las indicaciones generales de Río tuvieron efectos limitados a nivel de las políticas nacionales, y la reciente conferencia de Nueva York  (1.997) no parece haber dado mejores resultados. Los principales obstáculos para la introducción de serias medidas de limitación de los daños medioambientales proceden de los sectores económicos, que pagarían los costes directos de ello, así como de muchos países en vias de desarrollo, que temen que una legislación en este sentido ralentice su ya precario desarrollo económico.

   

La biodiversidad

La contaminación y las actividades humanas ponen en grave peligro la biodiversidad, es decir, la variedad de formas de vida en la Tierra. A pesar de que la comprensión de los mecanismos por los que se rigen a largo plazo los ciclos de existencia de las especies vivas todavía es muy limitada, es indudable que la desaparición de muchas formas de vida es debida al hombre y, principalmente, a la destrucción de los hábitats naturales. Este proceso ha sufrido una fuerte aceleración en las últimas décadas, coincidiendo con el boom demográfico y la extensión de los sistemas industriales. El ritmo actual de extinción de las razas es probablemente equivalente al de la desaparición de un número comprendido entre 50 y 100 especies al día, más de las que antaño desaparecían en 100 años. Esto comporta graves consecuencias bajo el perfil ecológico, que gran parte de la opinión pública no ha comprendido todavía. De hecho, el problema de la defensa de la biodiversidad no afecta únicamente a la ética del comportamiento y al respeto por las formas de vida distintas de la humana, sino que también reviste gran importancia para mantener el equilibrio del ecosistema en el que vivimos. El cambio y la diversidad  (genética y funcional en el ámbito de un ecosistema determinado)  son, de hecho, la base de la vida en la Tierra. No se trata, pues, de simpatizar con las especies animales ni de deplorar la desaparición de especies vegetales, sino sobre todo de comprender la importancia de las formas de vida microscópicas, como las bacterias y demás microorganismos, que constituyen la base de la pirámide biológica de todo el planeta, ya que juegan un papel esencial incluso en el mantenimiento de los equilibrios climáticos, como en el caso de las barreras coralinas del Pacífico, que actualmente presentan preocupantes signos de deterioro irreversible. La existencia de los elementos más dispares, que componen el equilibrio ecológico que hace posible que el hombre sobreviva, altera dicho equilibrio de forma imperceptible pero acumulativa. No es la supervivencia del planeta la que corre peligro, sino la estabilidad de las condiciones por las que se rige nuestra vida asociada.

   

LOS CAMBIOS CLIMÁTICOS

La reducción de la capa de ozono

Los científicos previeron la reducción de la capa de ozono de la estratosfera debido a sustancias emanadas como resultado de las actividades humanas y, efectivamente, dicho fenómeno se ha verificado, con graves riesgos para la salud de las especies que viven en la Tierra. Las mediciones efectuadas en los años 90 confirmaron unos daños bastante extensos, que obligaron a adoptar conductas prudenciales al exponerse al sol en los países del continente australiano. El ozono de la estratosfera, que se encuentra en una banda situada a una altitud de entre 15 y 40 Km., desempeña una función esencial de pantalla frente a los rayos ultravioletas, cuya parcial nocividad para el patrimonio genético es bien conocida. Los principales responsables de los daños de la capa de ozono son los clorofluorocarburos, muy utilizados en los aerosoles, en los sistemas de refrigeración y en la fabricación de materiales plásticos expandidos. Al final de la guerra mundial, su empleo era casi nulo, pero en 1.974 la cantidad liberada en la atmósfera superaba las 400.000 toneladas. En los años 90, el compromiso de la comunidad internacional para reducir su empleo a escala global, con la oposición de algunos países en vias de desarrollo, constituyó una de las primeras medidas que se adoptaron a gran escala para limitar los daños al medio ambiente. De todos modos, a partir de los años 70 las fuertes presiones de la opinión pública, así como los daños comprobados de determinadas formas de contaminación, ya habían hecho que se introdujeran medidas orientadas a limitar la contaminación a escala nacional o regional. Ejemplo de ello es el compromiso firmado en Europa Occidental para reducir sustancialmente las emanaciones de dióxido de azufre provocadas por una parte de las centrales de producción de energía, y que se consideran como las principales responsables de la lluvia ácida. A finales de siglo, dichas emanaciones se han reducido a menos de la mitad, y se prevé que en los próximos años se van a reducir aún más.

 

El efecto invernadero

La climatología es una ciencia sumamente compleja, que sólo recientemente ha empezado a comprender los mecanismos capaces de regular la marcha de los fenómenos atmosféricos. En cualquier caso, todo lo que sabemos acerca del clima confirma que el ecosistema terrestre está basado en un equilibrio delicado, que refleja la interacción de todos los factores. Tal y como afirma la ecología, el movimiento de un ala de  mariposa puede provocar un huracán. Un riesgo recientemente identificado, menos inmediato que la contaminación, pero potencialmente de bastante mayor envergadura, es el relacionado con el aumento de la temperatura media de la Tierra, provocado por el denominado “efecto invernadero”. Dicho fenómeno sería una consecuencia de la refracción hacia la superficie terrestre de una parte de la energía solar, que antes se disperdía hacia el cielo, a causa de determinados gases presentes en la atmósfera como consecuencia de las actividades humanas. De esta forma, el retraso en la dispersión del calor provocado por las radiaciones solares causa un aumento de la temperatura media de la superficie terrestre. En particular, la alarma es debida al aumento del dióxido de carbono, como consecuencia de la combustión de carburantes fósiles  (petróleo, carbón y gas natural)  y, en menor medida, a la deforestación. Al ritmo actual de las emisiones de dióxido de carbono, la cantidad del mismo en la atmósfera se duplicará en un espacio de tiempo comprendido entre 50 y 100 años. Esto podría conllevar un aumento medio de la temperatura de unos 2ºC, con consecuencias como el derretimiento de una parte de los casquetes polares y el aumento del nivel del mar. Se trata de un fenómeno muy discutido, ya que no es seguro que el recalentamiento que se ha observado dependa de las actividades humanas. Sin embargo, resulta cada vez más evidente que ya no puede suponerse que unos cambios tan grandes como los que han causado las sociedades humanas en los últimos siglos y, en particular, en las últimas décadas, no tengan repercusiones en el equilibrio medioambiental. Un ejemplo reciente, que algunos científicos consideran como un efecto de la actividades humanas, es el de El Niño. Se trata de un sistema de circulaciones atmosféricas que se observó por primera vez en 1.997, y cuyos efectos consisten en calentar las aguas tropicales del Pacífico, provocando fuertes perturbaciones climáticas con efectos catastróficos en el continente americano.

 

La deforestación

Una de las consecuencias más preocupantes del modelo de desarrollo actual en el plano de los equilibrios climáticos está ligada a la deforestación. El ritmo con que cada año desaparecen las áreas cubiertas de bosques ha alcanzado en la actualidad el valor de 12 millones de hectáreas aproximadamente, a las que hay que añadir 10 millones de hectáreas de superficie forestal gravemente dañada. Más de la mitad de este proceso de deforestación es debida a la demanda de leña para quemar o para producir carbón, seguida de la demanda de madera para la construcción, la industria del mueble y la del papel y el cartón, y  - en el Amazonas -  el aumento de las superficies destinadas a pastos para la cría de animales bovinos  (que cada año causan la pérdida de 3 millones de hectáreas de selva pluvial). La deforestación también es debida, aunque en medida bastante inferior, a métodos de cultivo arcaicos en áreas quemadas de antemano.

Esta ingente disminución de la superficie forestal tiene un efecto acumulativo en los cambios climáticos. Ante todo, la deforestación acelera el ciclo de las aguas, reduciendo el tiempo de recorrido de las mismas hasta los ríos. Esto provoca una acentuación de los fenómenos durante la estación húmeda y la estación seca, causando inundaciones y sequías que conllevan daños enormes a los cultivos y a las zonas habitadas. Al mismo tiempo, la disminución de la superficie forestal modifica el grado de humedad del aire y la temperatura. Los bosques tienen un efecto regulador del clima, al liberar lentamente en el aire la humedad que absorben del terreno. Su desaparición elimina dicho efecto, agravando el régimen de lluvias con un efecto sinérgico en los cursos de agua, tal y como ya hemos descrito más arriba. En cuanto al aumento de las temperaturas, está ligado a la deforestación de dos formas :  por una parte, debido a una menor absorción de la radiación solar cálida por parte de la superficie deforestada y, por otra, debido al aumento porcentual de anhídrido carbónico en la atmósfera, lo que probablemente favorece el recalentamiento del planeta con el denominado “efecto invernadero”.

   

EL APOCALIPSIS NUCLEAR

El "Síndrome de China"

En los albores de la era nuclear, los conocimientos acerca de las consecuencias de la radiactividad, sobre todo en lo que se refiere a sus efectos a largo plazo, eran relativamente limitados. Durante los años 50, decenas de miles de soldados estadounidenses estuvieron expuestos a dosis masivas de radiaciones en el transcurso de ejercicios y experimentos, sufriendo a menudo daños irreparables. De igual forma, cuanto se habló de la posibilidad de utilizar la energía nuclear en el campo civil, se presentó – en parte con buena fe -  como una forma de energía limpia, capaz de evitar la contaminación provocada por el empleo del carbón y el petróleo. En realidad, tal y como se ha sabido en los últimos años, en 1.958 ya se produjo en la URSS un accidente nuclear que contaminó una extensa zona en Celjabinsk. A partir de los años 70, la desconfianza de la opinión pública occidental hacia las centrales nucleares aumentó de forma considerable, a la vez que aparecían los primeros movimientos ecologistas. La oposición se vio reforzada por el primer accidente grave de que se tuvo noticia en Occidente, el que se produjo en 1.979 en la central de Three Miles Island  (Pennsylvania). Un error humano provocó un escape limitado de radiactividad que ocasionó daños al personal de la central pero que, al menos oficialmente, no creó problemas en el área circundante. De todos modos se evacuó a la población, suscitando una alarma enorme. Pero el accidente más grave que se ha registrado en la historia de las centrales nucleares fue el ocurrido en 1.986 en la central soviética de Chernobyl, en Ucrania. Un experimento temerario, realizado con los equipos de seguridad desactivados, provocó la fusión del núcleo y el incendio de la central. Una gran nube radiactiva se desprendió del reactor y contaminó una extensa área de Ucrania, y las corrientes atmosféricas la empujaron hacia Occidente, donde provocó daños a la agricultura y a la ganadería y suscitó una enorme preocupación. El accidente provocó inmediatamente unos treinta muertos, y cien personas quedaron mortalmente afectadas, pero los daños a largo plazo son incalculables. El número de niños que nacen con malformaciones y la incidencia de las enfermedades ligadas a la exposición a la radiactividad siguen en aumento en la zona afectada por el accidente.

 

El invierno nuclear

La acumulación de conocimientos científicos sobre la radiactividad y los fenómenos vinculados a las explosiones nucleares ha demostrado que la tesis de una guerra nuclear “limitada”, que en los ambientes militars de ambas superpotencias se consideraba en los años 80 como una opción viable, carece por completo de fundamento. Se ha calculado que un ataque nuclear “limitado” contra Italia  (unos treinta misiles soviéticos de medio alcance)  provocaría de 4 a 10 millones de muertes inmediatas, a las que habría que añadir los efectos a largo plazo en la población y el territorio. Además, el impulso electromagnético provocado por las explosiones nucleares  (conocido desde los años 60)  inutilizaría los sistemas de guía de los misiles siguientes, que podrían caer imprevisiblemente en cualquier lugar, sin garantizar por tanto la supuesta “limitación” del ataque a los objetivos militares. Pero acaso la consecuencia más escalofriante de una guerra atómica, como se desprende de estudios realizados durante los años 80, sería la del llamado “invierno nuclear”. Al igual que en el caso de las erupciones volcánicas, pero a una escala mucho mayor, las nubes ocasionadas por miles de explosiones nucleares producirían una capa de partículas que envolvería el planeta a una altitud comprendida entre los 8.000 y los 30.000 metros, dejando el cielo a oscuras por espacio de meses. Todas las simulaciones efectuadas están de acuerdo en afirmar que esto provocaría una disminución de la temperatura media, que bajaría a varias decenas de grados bajo cero durante bastantes meses.  Además, algunos estudiosos afirman que al invierno nuclear le seguiría como reacción un aumento de la temperatura de varias decenas de grados por encima de los niveles actuales. Pero, probablemente, entonces ya no quedaría demasiado que destruir. La agricultura ya habría quedado dañada por el frío y la caída de partículas radiactivas, no habría agua porque se habría helado o estaría contaminada, la flora y la fauna ya habrían sufrido daños irreparables y la vida, tal y como la conocemos nosotros, habría terminado.

 

REGRESAR A PÁGINA PRINCIPAL

Hosted by www.Geocities.ws

1