Mostrando las entradas con la etiqueta Hobsbawm Eric. Mostrar todas las entradas

14 jun. 2013

Descarga: Eric Hobsbawm - Historia del siglo XX

No hay comentarios. :

Descarga: Eric Hobsbawm - Historia del siglo XX

En su particular autobiografía, Años interesantes. Una vida en el siglo XX , Eric Hobsbawm reconoce que «Historia del siglo xx fue mi obra de mayor éxito, tanto por lo que se refiere a las ventas como en lo tocante a la acogida de los críticos. Fue bien recibida en todos los ambientes ideológicos del mundo -con excepción de Francia-, ganó premios en Canadá y Taiwán, y traducida al hebreo y al árabe, al mandarín de Taiwán y al de China continental, se hicieron ediciones serbias y croatas, en la lengua que los de mi generación siguen llamando serbocroata, y se tradujo incluso al albanés y al macedonio. En 2002, habrá aparecido en 37 lenguas distintas». Ciertamente, cuando la obra vio la luz en 1994, Hobsbawm ya era de modo incontrovertido uno de los principales historiadores del siglo xx y, tal como lo expresó Orlando Figes, era el historiador vivo más conocido del mundo. Sus fructíferos años dedicados a analizar y explicar el siglo xix, pueden parecer difícilmente superables o no, pero lo cierto es que la obra Historia del siglo xx constituirá su legado fundamental, porque Hobsbawm ha sido capaz de ensamblar el análisis más riguroso de los grandes acontecimientos del siglo con su propia experiencia personal.

18 oct. 2012

Eric Hobsbawm: Brujos y Aprendices: Las ciencias naturales

No hay comentarios. :





-¿Cree usted que, en el mundo de hoy, hay un lugar para la filosofía?
-Por supuesto, pero sólo si ésta se basa en el estado actual de los conocimientos y logros científicos… Los filósofos no pueden aislarse de la ciencia. Ésta no sólo ha ampliado y transformado nuestra visión de la vida y del universo enormemente, sino que también ha revolucionado las reglas con las que opera el intelecto.
Claude Lèvi-Strauss (1988)

El texto de referencia sobre dinámica de gases fue escrito mientras su autor disfrutaba de una beca Guggenheim, y él mismo lo describió como un texto cuya forma le fue dictada por las necesidades de la industria. Dentro de este marco, confirmar la teoría de la relatividad general de Einstein se llegó a considerar un paso crucial para mejorar «la precisión de los misiles balísticos, gracias a la estimación minuciosa de los efectos gravitatorios». Cada vez más, la física de la posguerra concentró sus estudios en aquellas áreas que se pensaba podían tener aplicaciones militares.
Margaret Jacob (1993, pp. 66-67)


I

Ningún otro período de la historia ha sido más impregnado por las ciencias naturales, ni más dependiente de ellas, que el siglo XX. No obstante, ningún otro período, desde la retractación de Galileo, se ha sentido menos a gusto con ellas. Esta es la paradoja con que los historiadores del siglo deben lidiar. Pero antes de intentarlo, hay que comprobar la magnitud del fenómeno.

En 1919 el número total de físicos y químicos alemanes y británicos juntos llegaba, quizás, a los 8.000. A finales de los años ochenta, el número de científicos e ingenieros involucrados en la investigación y el desarrollo experimental en el mundo, se estimaba en unos 5 millones, de los que casi 1 millón se encontraban en los Estados Unidos, la potencia científica puntera, y un número ligeramente mayor en los estados europeos.[171]

Aunque los científicos seguían siendo una fracción mínima de la población, incluso en los países desarrollados, su número crecía espectacularmente, y llegaría prácticamente a doblarse en los veinte años posteriores a 1970, incluso en las economías más avanzadas. Sin embargo, a fines de los ochenta eran la punta de un iceberg mucho mayor de lo que podría llamarse personal científico y técnico potencial, que reflejaba en esencia la evolución educativa de la segunda mitad del siglo (véase el capítulo 10). Representaban, tal vez el 2 por 100 de la población global, y puede que el 5 por 100 de la población estadounidense (UNESCO, 1991, cuadro 5.1). Los científicos propiamente dichos eran seleccionados por medio de tesis doctorales avanzadas que se convirtieron en el pasaporte de entrada en la profesión. En los años ochenta un país occidental avanzado medio generaba unos 130-140 de estos doctores en ciencias al año por cada millón de habitantes (Observatoire, 1991). Estos países empleaban también sumas astronómicas en estas actividades, la mayoría de las cuales procedían del erario público, incluso en los países de más ortodoxo capitalismo. De hecho, las formas más caras de la «alta ciencia» estaban incluso fuera del alcance de cualquier país individual, a excepción (hasta los años noventa) de los Estados Unidos.

De todas maneras, se produjo una gran novedad. Pese a que el 90 por 100 de las publicaciones científicas (cuyo número se doblaba cada diez años) aparecían en cuatro idiomas (inglés, ruso, francés y alemán), el eurocentrismo científico terminó en el siglo XX. La era de las catástrofes y, en especial, el triunfo temporal del fascismo, desplazaron su centro de gravedad a los Estados Unidos, donde ha permanecido. Entre 1900 y 1933 sólo se habían otorgado siete premios Nobel a los Estados Unidos, pero entre 1933 y 1970 se les concedieron setenta y siete. Los otros países de asentamiento europeo (Canadá, Australia, la a menudo infravalorada Argentina)[172] también se convirtieron en centros de investigación independientes aunque algunos de ellos, por razones de tamaño o de política, exportaron a la mayoría de sus principales científicos (Nueva Zelanda, Suráfrica, etc.).

Al mismo tiempo, el auge de los científicos no europeos, especialmente de Extremo Oriente y del subcontinente indio, era muy notable. Antes del final de la segunda guerra mundial sólo un asiático había ganado un premio Nobel en ciencias (C. Raman, en física, el año 1930). Desde 1946 estos premios se han otorgado a más de diez investigadores con nombre japonés, chino, hindú o paquistaní, aunque se sigue infravalorando el auge de la ciencia asiática de la misma forma que antes de 1933 se infravaloraba el de la ciencia estadounidense. Sin embargo, a fines del siglo todavía había zonas del mundo que generaban muy pocos científicos en términos absolutos y aún menos en términos relativos, como por ejemplo la mayor parte de África y de América Latina.

No obstante, resulta notable que al menos un tercio de los premiados asiáticos no figuren como científicos de sus respectivos países de origen, sino como estadounidenses (veintisiete de los laureados estadounidenses son inmigrantes de primera generación). Porque, en un mundo cada vez más globalizado, el hecho de que las ciencias naturales hablen un mismo lenguaje y empleen una misma metodología ha contribuido, paradójicamente, a que se concentren en los pocos centros que disponen de los medios adecuados para desarrollar su trabajo; es decir, en unos pocos países ricos altamente desarrollados y, sobre todo, en los Estados Unidos.

Los cerebros del mundo que en la era de las catástrofes escaparon de Europa por razones políticas, se han ido de los países pobres a los países ricos desde 1945 principalmente por razones económicas.[173] Esto es normal, puesto que durante los años setenta y ochenta los países capitalistas desarrollados sumaban casi las tres cuartas partes del total de las inversiones mundiales en investigación y desarrollo, mientras que los países pobres («en desarrollo») no invertían más del 2 o 3 por 100 (UN World Social Situation, 1989, p. 103).

Sin embargo, incluso dentro del mundo desarrollado la ciencia fue concentrándose gradualmente, en parte debido a la reunión de científicos y recursos, por razones de eficacia, y en parte porque el enorme crecimiento de los estudios superiores creó inevitablemente una jerarquía, o más bien una oligarquía, entre sus instituciones. En los años cincuenta y sesenta la mitad de los doctorados de los Estados Unidos salió de las quince universidades de mayor prestigio, a las que procuraban acudir la mayoría de los jóvenes científicos más brillantes. En un mundo democrático y populista, los científicos formaban una elite que se concentró en unos pocos centros financiados. Como especie se daban en grupo, porque la comunicación, el tener «alguien con quien hablar», era fundamental para sus actividades. A medida que pasó el tiempo estas actividades fueron cada vez más incomprensibles para los no científicos, aunque hiciesen un esfuerzo desesperado por entenderlas con la ayuda de una amplia literatura de divulgación, escrita algunas veces por los mejores científicos. En realidad, a medida que aumentaba la especialización, incluso los propios científicos necesitaron revistas para explicarse mutuamente lo que sucedía fuera de sus campos.

Que el siglo XX dependía de la ciencia es algo que no necesita demostración. La ciencia «avanzada», es decir, el tipo de conocimiento que no podía adquirirse con la experiencia cotidiana, ni practicarse o tan siquiera comprenderse sin muchos años de estudios, que culminaban con unas esotéricas prácticas de posgrado, tuvo un estrecho margen de aplicación hasta finales del siglo XIX. La física y las matemáticas del siglo XVII influían en los ingenieros, mientras que, a mediados del reinado de Victoria, los descubrimientos químicos y eléctricos de finales del siglo XVIII y principios del XIX eran ya esenciales para la industria y las comunicaciones, y los estudios de los investigadores científicos profesionales se consideraban la punta de lanza incluso de los avances tecnológicos. En resumen, la tecnología basada en la ciencia estaba ya en el centro del mundo burgués del siglo XIX, aunque la gente práctica no supiese muy bien qué hacer con los triunfos de la teoría científica, salvo, en los casos adecuados, convertirla en ideología, como sucedió en el siglo XVIII con Newton y a fines del XIX con Darwin.

Sin embargo, muchas áreas de la vida humana seguían estando regidas casi exclusivamente por la experiencia, la experimentación, la habilidad, el sentido común entrenado y, a lo sumo, la difusión sistemática de conocimientos sobre las prácticas y técnicas disponibles. Este era claramente el caso de la agricultura, la construcción, la medicina y de toda una amplia gama de actividades que satisfacían las necesidades y los lujos de los seres humanos.

Esto empezó a cambiar en algún momento del último tercio del siglo. En la era del imperio no sólo comenzaron a hacerse visibles los resultados de la alta tecnología moderna (no hay más que pensar en los automóviles, la aviación, la radio y el cinematógrafo), sino también los de las modernas teorías científicas: la relatividad, la física cuántica o la genética. Se pudo ver además que los descubrimientos más esotéricos y revolucionarios de la ciencia tenían un potencial tecnológico inmediato, desde la telegrafía sin hilos hasta el uso médico de los rayos X, basados ambos en descubrimientos realizados hacia 1890. No obstante, aun cuando la alta ciencia del siglo XX era ya perceptible antes de 1914, y pese a que la alta tecnología de etapas posteriores estaba ya implícita en ella, la ciencia no había llegado todavía a ser algo sin lo cual la vida cotidiana era inconcebible en cualquier parte del mundo.

Y esto es lo que está sucediendo a medida que el milenio toca a su fin. Como hemos visto (capítulo IX), la tecnología basada en las teorías y en la investigación científica avanzada dominó la explosión económica de la segunda mitad del siglo XX, y no sólo en el mundo desarrollado. Sin los conocimientos genéticos, la India e Indonesia no hubieran podido producir suficientes alimentos para sus crecientes poblaciones, y a finales de siglo la biotecnología se había convertido en un elemento importante para la agricultura y la medicina.

El caso es que estas tecnologías se basaban en descubrimientos y teorías tan alejados del entorno cotidiano del ciudadano medio, incluso en los países más avanzados del mundo desarrollado, que sólo unas docenas, o a lo sumo unos centenares de personas en todo el mundo podían entrever inicialmente que tenían implicaciones prácticas. Cuando el físico alemán Otto Hahn descubrió la fisión nuclear a principios de 1939, incluso algunos de los científicos más activos en ese campo, como el gran Niels Bohr (1885-1962), dudaron de que tuviese aplicaciones prácticas en la paz o en la guerra, por lo menos en un futuro previsible. Y si los físicos que comprendieron su valor potencial no se lo hubieran comunicado a sus generales y a sus políticos, éstos no se hubieran enterado de ello, salvo que fuesen licenciados en física, lo que no era frecuente.

Por poner otro ejemplo, el célebre texto de Alan Turing de 1935, que proporcionaría los fundamentos de la moderna teoría informática, había sido escrito originalmente como una exploración especulativa para lógicos matemáticos. La guerra dio a él y a otros científicos la oportunidad de traducir la teoría a unos primeros pasos de la práctica empleándola para descifrar códigos, pero cuando el texto se publicó originalmente, nadie, a excepción de un puñado de matemáticos, pareció enterarse de sus implicaciones. Este genio de tez pálida y aspecto desmañado, que era por aquel entonces un joven becario aficionado al jogging y que se convirtió póstumamente en una especie de ídolo para los homosexuales, no era una figura destacada ni siquiera en su propia facultad universitaria, o al menos yo no lo recuerdo como tal.[174] Incluso cuando los científicos se entregaban a la resolución de problemas de importancia conocida, sólo unos pocos cerebros aislados en una pequeña parcela intelectual podían darse cuenta de lo que se traían entre manos. Por ejemplo, el autor de estas líneas era un becario en Cambridge durante la misma época en que Crick y Watson preparaban su triunfal descubrimiento de la estructura del ADN (la «doble hélice»), que fue inmediatamente reconocido como uno de los grandes acontecimientos científicos del siglo. Sin embargo, aunque recuerdo que en aquella época coincidí con Crick en diversos actos sociales, la mayoría de nosotros ignorábamos por completo que tan extraordinarios acontecimientos tenían lugar a pocos metros de la puerta de nuestra facultad, en laboratorios ante los que pasábamos regularmente y en bares donde íbamos a tomar unas copas. No es que tales cuestiones no nos interesasen, sino que quienes trabajaban en ellas no veían la necesidad de explicárnoslas, ya que ni hubiésemos podido contribuir a su trabajo, ni siquiera comprendido exactamente cuáles eran sus dificultades.

No obstante, por más esotéricas o incomprensibles que fuesen las innovaciones científicas, una vez logradas se traducían casi inmediatamente en tecnologías prácticas. Así, los transistores surgieron, en 1948, como un subproducto de investigaciones sobre la física de los sólidos, es decir, de las propiedades electromagnéticas de cristales ligeramente imperfectos (sus inventores recibieron el premio Nobel al cabo de ocho años); como sucedió con el láser (1960), que no surgió de estudios sobre óptica, sino de trabajos para hacer vibrar moléculas en resonancia con un campo eléctrico (Bernal, 1967, p. 563). Sus inventores también fueron rápidamente recompensados con el premio Nobel, como lo fue, tardíamente, el físico soviético de Cambridge Peter Kapitsa (1978) por sus investigaciones acerca de la física de bajas temperaturas, que dieron origen a los superconductores.

La experiencia de las investigaciones realizadas durante la guerra, entre 1939 y 1946, que demostró, por lo menos a los anglonorteamericanos, que una gran concentración de recursos podía resolver los problemas tecnológicos más complejos en un intervalo de tiempo sorprendentemente corto,[175] animó a una búsqueda tecnológica sin tener en cuenta los costes, ya fuese con fines bélicos o por prestigio nacional, como en la exploración del espacio. Esto, a su vez, aceleró la transformación de la ciencia de laboratorio en tecnología, parte de la cual demostró tener una amplia aplicación a la vida cotidiana. El láser es un ejemplo de esta rápida transformación. Visto por primera vez en un laboratorio en 1960, a principios de los ochenta había llegado ya a los consumidores a través del disco compacto. La biotecnología llegó al público aún con mayor rapidez: las técnicas de recombinación del ADN, es decir, las técnicas para combinar genes de una especie con genes de otra, se consideraron factibles en la práctica en 1973. Menos de veinte años después la biotecnología era una de las inversiones principales en medicina y agricultura.

Además, y gracias en buena medida a la asombrosa expansión de la información teórica y práctica, los nuevos avances científicos se traducían, en un lapso de tiempo cada vez menor, en una tecnología que no requería ningún tipo de comprensión por parte de los usuarios finales. El resultado ideal era un conjunto de botones o un teclado a prueba de tontos que sólo requería que se presionase en los lugares adecuados para activar un proceso automático, que se autocorregía e incluso, en la medida de lo posible, tomaba decisiones, sin necesitar nuevas aportaciones de las limitadas y poco fiables habilidades e inteligencia del ser humano medio. En realidad, el proceso ideal podía programarse para actuar sin ningún tipo de intervención humana a menos que algo se estropease. El método de cobro de los supermercados de los años noventa tipificaba esta eliminación del elemento humano. No requería del cajero más que el conocimiento de los billetes y monedas del país y la acción de registrar la cantidad entregada por el comprador.

Un lector automático traducía el código de barras de los productos en el precio de los mismos, sumaba todas las compras, restaba el total de la cantidad dada por el comprador e indicaba al cajero el cambio que tenía que devolver. El procedimiento que se requiere para realizar todas estas actividades con seguridad es extraordinariamente complejo, basado como está en la combinación de un hardware altamente sofisticado con unos programas muy elaborados. Pero hasta que -o a menos que- algo se estropease, estos milagros de la tecnología científica de finales del siglo XX no pedían a los cajeros más que el conocimiento de los números cardinales, una cierta atención y una capacidad mayor de tolerancia al aburrimiento. Ni siquiera requería alfabetización. Por lo que hacía a la mayoría de ellos, las fuerzas que les decían que debía informar al cliente que tenía que pagar 2 libras con 15 peniques y les explicaban que había de ofrecerle 7 libras y 85 peniques como cambio por un billete de 10 libras no les importaban ni les eran comprensibles. No necesitaban comprender nada acerca de las máquinas para trabajar con ellas. Los aprendices de brujo ya no tenían que preocuparse por su falta de conocimientos.

A efectos prácticos, la situación del cajero del supermercado ejemplifica la norma humana de finales de siglo: la realización de milagros con una tecnología científica de vanguardia que no necesitamos comprender o modificar, aunque sepamos o creamos saber cómo funciona. Alguien lo hará o lo ha hecho ya por nosotros. Porque, aun cuando nos creamos unos expertos en un campo u otro, es decir, la clase de persona que podría hacer funcionar un aparato concreto estropeado, que podría diseñarlo o construirlo, enfrentados a la mayor parte de los otros productos científicos y tecnológicos de uso diario somos unos neófitos ignorantes. Y aunque no lo seamos, nuestra comprensión de lo que hace que una cosa funcione, y de los principios en que se sustenta, son conocimientos de escasa utilidad, como lo son los procesos técnicos de fabricación de las barajas para el jugador (honrado) de póker. Los aparatos de fax han sido diseñados para que los utilicen personas que no tienen ni la más remota idea de por qué una máquina reproduce en Londres un texto emitido en Los Angeles. Y no funcionan mejor cuando los manejan profesores de electrónica.

Así, a través de la estructura tecnológicamente saturada de la vida humana, la ciencia demuestra cada día sus milagros en el mundo de fines del siglo XX. Es tan indispensable y omnipresente -ya que hasta en los rincones más remotos del planeta se conocen el transistor y la calculadora electrónica- como lo es Alá para el creyente musulmán. Podemos discutir cuándo se empezó a ser consciente, por lo menos en las zonas urbanas de las sociedades industriales «desarrolladas», de la capacidad que poseen algunas actividades humanas para producir resultados sobrehumanos. Ello sucedió, con toda seguridad, tras la explosión de la primera bomba atómica en 1945. Sin embargo, no cabe duda de que el siglo XX ha sido el siglo en que la ciencia ha transformado tanto el mundo como nuestro conocimiento del mismo.

Hubiéramos podido esperar que las ideologías del siglo XX glorificasen los logros de la ciencia, que son los logros de la mente humana, tal como hicieron las ideologías laicas del siglo XIX. Hubiéramos esperado también que se debilitase la resistencia de las ideologías religiosas tradicionales, que durante el siglo pasado fueron los grandes reductos de resistencia a la ciencia. Y ello no sólo porque el arraigo de las religiones tradicionales disminuyó durante todo el siglo, como veremos, sino también porque la propia religión llegó a ser tan dependiente de la alta tecnología científica como cualquier otra actividad humana en el mundo desarrollado. Un obispo, un imán o un santón podían actuar a comienzos del siglo XX como si Galileo, Newton, Faraday o Lavoisier nunca hubieran existido, es decir, sobre la base de la tecnología del siglo XV y de aquella parte de la del siglo XIX que no plantease problemas de compatibilidad con la teología o los textos sagrados. Resultó cada vez más difícil hacerlo en una época en que el Vaticano se veía obligado a comunicarse vía satélite y a probar la autenticidad de la sábana santa de Turín mediante la datación por radiocarbono, en que el ayatolá Jomeini difundía sus mensajes en Irán mediante grabaciones magnetofónicas, y cuando los estados que seguían las leyes coránicas trataban de equiparse con armas nucleares. La aceptación de facto de la ciencia contemporánea más elevada a través de la tecnología que dependía de ella era tal que en la Nueva York de fin de siglo las ventas de equipos electrónicos y fotográficos de alta tecnología eran en buena medida la especialidad del jasidismo, una rama oriental del judaísmo mesiánico conocida sobre todo por su extremo ritualismo y por su insistencia en llevar una indumentaria semejante a la de los polacos del siglo XVIII, y por preferir la emoción extática a la investigación intelectual.

En algunos aspectos, la superioridad de la «ciencia» era aceptada incluso oficialmente. Los fundamentalistas protestantes estadounidenses que rechazaban la teoría de la evolución por ser contraria a las sagradas escrituras, ya que según éstas el mundo tal como lo conocemos fue creado en seis días, exigían que la enseñanza de la teoría darwinista se sustituyese o, al menos, se compensase, con la enseñanza de lo que ellos describían como «ciencia de la creación».

Pese a todo, el siglo XX no se sentía cómodo con una ciencia de la que dependía y que había sido su logro más extraordinario. El progreso de las ciencias naturales se realizó contra un trasfondo de recelos y temores que, ocasionalmente, se convertía en un arrebato de odio y rechazo hacia la razón y sus productos. Y en el espacio indefinido entre la ciencia y la anticiencia, entre los que buscaban la verdad última por el absurdo y los profetas de un mundo compuesto exclusivamente de ficciones, nos encontramos cada vez más con la «ciencia ficción», ese producto -muy anglonorteamericano- característico del siglo, en especial de su segunda mitad. Este género, anticipado por Julio Verne (1828-1905), fue iniciado por H. G. Wells (1866-1946) a finales del siglo XIX. Mientras sus formas más juveniles -como las series de televisión y los westerns espaciales cinematográficos, con naves espaciales y rayos mortíferos en lugar de caballos y revólveres- continuaban la vieja tradición de aventuras fantásticas con artilugios de alta tecnología, en la segunda mitad del siglo las contribuciones más serias al género empezaron a ofrecer una versión sombría, o cuando menos ambigua, de la condición humana y de sus expectativas.

Los recelos y temores hacia la ciencia se vieron alimentados por cuatro sentimientos: el de que la ciencia era incomprensible; que sus consecuencias (ya fuesen) prácticas (o morales) eran impredecibles y probablemente catastróficas; que ponía de relieve la indefensión del individuo y que minaba la autoridad. Sin olvidar el sentimiento de que la ciencia era intrínsecamente peligrosa en la medida en que interfería el orden natural de las cosas. Los dos sentimientos que he mencionado en primer lugar eran compartidos por científicos y legos; los dos últimos correspondían más bien a los legos. Las personas sin formación científica sólo podían reaccionar contra su sensación de impotencia intentando explicar lo que «la ciencia no podía explicar», en la línea de la afirmación de Hamlet de que «hay más cosas en el cielo y la tierra… de las que puede soñar tu filosofía»; negándose a creer que la «ciencia oficial» pudiera explicarlas y ansiosos por creer en lo inexplicable porque parecía absurdo. En un mundo desconocido e inexplicable todos nos enfrentaríamos a la misma impotencia. Cuanto más palpables fuesen los éxitos de la ciencia, mayor era el ansia por explicar lo inexplicable.

Poco después de la segunda guerra mundial, que culminó en la bomba atómica, los Estados Unidos (1947) -seguidos poco tiempo después, como de costumbre, por sus parientes culturales británicos- se pusieron a observar la llegada masiva de OVNIs, «objetos volantes no identificados», evidentemente inspirados por la ciencia ficción. Se creyó de buena fe que estos objetos procedían de civilizaciones extraterrestres, distintas y superiores a la nuestra. Los observadores más entusiastas llegaron a ver cómo sus pasajeros, con cuerpos de extraño aspecto, emergían de esos «platillos volantes», y un par de ellos hasta aseguraron haber dado un paseo en sus naves. El fenómeno adquirió una dimensión mundial, aunque un mapa de los aterrizajes de estos extraterrestres mostraría una notable predilección por aterrizar o circular sobre territorios anglosajones. Cualquier actitud escéptica respecto de los ovnis se achacaba a los celos de unos científicos estrechos de miras que eran incapaces de explicar los fenómenos que se producían más allá de su limitado horizonte, o incluso a una conspiración de quienes mantenían al hombre de la calle en una servidumbre intelectual para mantenerle lejos de la sabiduría superior.

Estas no eran las creencias en la magia y en los milagros propias de las sociedades tradicionales, para quienes tales intervenciones en la realidad formaban parte de unas vidas muy poco controlables, y eran mucho menos sorprendentes que, por poner un ejemplo, la contemplación de un avión o la experiencia de hablar por teléfono. Ni formaban parte tampoco de la universal y permanente fascinación humana por todo lo monstruoso, lo raro y lo maravilloso, de que la literatura popular ha dado testimonio desde la invención de la imprenta y los grabados en madera hasta las revistas ilustradas de supermercado. Expresaban un rechazo a las reivindicaciones y dictados de la ciencia, a veces conscientemente, como en la extraordinaria (y norteamericana) rebelión de algunos grupos marginales contra la práctica de fluorizar los suministros de agua cuando se descubrió que la ingestión diaria de este elemento reducía drásticamente los problemas dentales de la población urbana. Estos grupos se resistieron apasionadamente a la fluorización no sólo por defender su libertad de tener caries, sino, por parte de sus antagonistas más extremos, por considerarla una vil conspiración para debilitar a los seres humanos envenenándolos. En este tipo de reacciones, vivamente reflejadas por Stanley Kubrik en 1963 con su película ¿Teléfono rojo? Volamos hacia Moscú, los recelos hacia la ciencia se mezclaban con el miedo a sus consecuencias prácticas.

El carácter enfermizo de la cultura norteamericana ayudó también a difundir estos temores, a medida que la vida se veía cada vez más inmersa en la nueva tecnología, incluyendo la tecnología médica, con sus riesgos. La predisposición peculiar de los norteamericanos para resolver todas las disputas humanas a través de litigios nos permite hacer un seguimiento de estos miedos (Huber, 1990, pp. 97-118). ¿Causaban los espermaticidas defectos en el nacimiento? ¿Eran los tendidos eléctricos de alta tensión perjudiciales para la salud de las personas que vivían cerca de ellos? La distancia entre los expertos, que tenían algún criterio a partir del cual juzgar, y los legos, que sólo tenían esperanza o miedo, se ensanchó a causa de la diferencia entre una valoración desapasionada, que podía considerar que un pequeño grado de riesgo era un precio aceptable a cambio de un gran beneficio, y los individuos que, comprensiblemente, deseaban un riesgo cero, al menos en teoría.[176]

Estos eran los temores que la desconocida amenaza de la ciencia causaba a los hombres y mujeres que sólo sabían que vivían bajo su dominio. Temores cuya intensidad y objeto variaba según la naturaleza de sus puntos de vista y temores acerca de la sociedad contemporánea (Fischhof et al., 1978, pp. 127-152).[177]

Sin embargo, en la primera mitad del siglo las mayores amenazas para la ciencia no procedían de quienes se sentían humillados por su vasto e incontrolable poder, sino de quienes creían poder controlarla. Los dos únicos tipos de regímenes políticos que (aparte de las entonces raras conversiones al fundamentalismo religioso) dificultaron la investigación científica estaban profundamente comprometidos en principio con el progreso técnico ilimitado y, en uno de los casos, con una ideología que lo identificaba con la «ciencia» y que alentaba a la conquista del mundo en nombre de la razón y la experimentación. Así, tanto el estalinismo como el nacionalsocialismo alemán rechazaban la ciencia, aunque con diferentes argumentos y pese a que ambos la empleasen para fines tecnológicos. Lo que ambos objetaban era que desafiase visiones del mundo y valores expresados en forma de verdades a priori.

Ninguno de los dos se sentía a gusto con la física posteinsteiniana. Los nazis la rechazaban por «judía» y los ideólogos soviéticos porque no era suficientemente «materialista», en el sentido que Lenin daba al término, si bien ambos la toleraron en la práctica, puesto que los estados modernos no podían prescindir de los físicos posteinsteinianos. Sin embargo, los nazis se privaron de los mejores talentos dedicados a la física en la Europa continental al forzar al exilio a los judíos y a otros antagonistas políticos, destruyendo así, de paso, la supremacía científica germana de principios de siglo. Entre 1900 y 1933, 25 de los 66 premios Nobel de física y de química habían correspondido a Alemania, mientras que después de 1933 sólo recibió uno de cada diez. Ninguno de los dos regímenes sintonizaba tampoco con las ciencias biológicas.

La política racial de la Alemania nazi horrorizó a los genetistas responsables que -sobre todo debido al entusiasmo de los racistas por la eugenesia- habían empezado ya desde la primera guerra mundial a marcar distancias respecto de las políticas de selección genética y reproducción humana (que incluía la eliminación de los débiles y «tarados»), aunque debamos admitir con tristeza que el racismo nazi encontró bastante apoyo entre los médicos y biólogos alemanes (Proctor, 1988).

En la época de Stalin, el régimen soviético se enfrentó con la genética, tanto por razones ideológicas como porque la política estatal estaba comprometida con el principio de que, con un esfuerzo suficiente, cualquier cambio era posible, siendo así que la ciencia señalaba que este no era el caso en el campo de la evolución en general y en el de la agricultura en particular. En otras circunstancias, la polémica entre los biólogos evolucionistas seguidores de Darwin (que consideraban que la herencia era genética) y los seguidores de Lamarck (que creían en la transmisión hereditaria de los caracteres adquiridos y practicados durante la vida de una criatura) se hubiera ventilado en seminarios y laboratorios. De hecho, la mayoría de los científicos la consideraban decidida en favor de Darwin, aunque sólo fuese porque nunca se encontraron pruebas satisfactorias de la transmisión hereditaria de los caracteres adquiridos. Bajo Stalin, un biólogo marginal, Trofim Denisovich Lysenko (1898-1976), obtuvo el apoyo de las autoridades políticas argumentando que la producción agropecuaria podía multiplicarse aplicando métodos lamarckianos, que acortaban el relativamente lento proceso ortodoxo de crecimiento y cría de plantas y animales. En aquellos días no resultaba prudente disentir de las autoridades. El académico Nikolai Ivanovich Vavilov (1885-1943), el genetista soviético de mayor prestigio, murió en un campo de trabajo por estar en desacuerdo con Lysenko -como lo estaban el resto de los genetistas soviéticos responsables-, aunque no fue hasta después de la segunda guerra mundial cuando la biología soviética decidió rechazar oficialmente la genética tal como se entendía en el resto del mundo, por lo menos hasta la desaparición del dictador. El efecto que ello tuvo en la ciencia soviética fue, como era de prever, devastador.

El régimen nazi y el comunista soviético, pese a todas sus diferencias, compartían la creencia de que sus ciudadanos debían aceptar una «doctrina verdadera», pero una que fuese formulada e impuesta por las autoridades seculares político-ideológicas. De aquí que la ambigüedad y la desazón ante la ciencia que tantas sociedades experimentaban encontrase su expresión oficial en esos dos estados, a diferencia de lo que sucedía en los regímenes políticos que eran agnósticos respecto a las creencias individuales de sus ciudadanos, como los gobiernos laicos habían aprendido a ser durante el siglo XIX. De hecho, el auge de regímenes de ortodoxia seglar fue, como hemos visto (capítulos IV y XIII), un subproducto de la era de las catástrofes, y no duraron. En cualquier caso, el intento de sujetar a la ciencia en camisas de fuerza ideológicas tuvo resultados contraproducentes aun en aquellos casos en que se hizo seriamente (como en el de la biología soviética), o ridículos, donde la ciencia fue abandonada a su propia suerte, mientras se limitaban a afirmar la superioridad de la ideología (como sucedió con la física alemana y soviética).[178]

A finales del siglo XX la imposición de criterios oficiales a la teoría científica volvió a ser practicada por regímenes basados en el fundamentalismo religioso. Sin embargo, la incomodidad general ante ella persistía, mientras iba resultando cada vez más increíble e incierta. Pero hasta la segunda mitad del siglo esta incomodidad no se debió al temor por los resultados prácticos de la ciencia.

Es verdad que los propios científicos supieron mejor y antes que nadie cuáles podrían ser las consecuencias potenciales de sus descubrimientos. Desde que la primera bomba atómica resultó operativa, en 1945, algunos de ellos alertaron a sus jefes de gobierno acerca del poder destructivo que el mundo tenía ahora a su disposición. Sin embargo, la idea de que la ciencia equivale a una catástrofe potencial pertenece, esencialmente, a la segunda mitad delsiglo; en su primera fase -la de la pesadilla de una guerra nuclear- corresponde a la era de la confrontación entre las superpotencias que siguió a 1945; en su fase posterior y más universal, a la era de crisis que comenzó en los setenta. Por el contrario, la era de las catástrofes, quizás porque frenó el crecimiento económico, fue todavía una etapa de complacencia científica acerca de la capacidad humana de controlar las fuerzas de la naturaleza o, en el peor de los casos, acerca de la capacidad por parte de la naturaleza de ajustarse a lo peor que el hombre le podía hacer.[179] Por otra parte, lo que inquietaba a los científicos era su propia incertidumbre acerca de lo que tenían que hacer con sus teorías y sus hallazgos.


II

En algún momento de la era del imperio se rompieron los vínculos entre los hallazgos científicos y la realidad basada en la experiencia sensorial, o imaginable con ella; al igual que los vínculos entre la ciencia y el tipo de lógica basada en el sentido común, o imaginable con él. Estas dos rupturas se reforzaron mutuamente, ya que el progreso de las ciencias naturales dependió crecientemente de personas que escribían ecuaciones -es decir, formulaciones matemáticas- en hojas de papel, en lugar de experimentar en el laboratorio. El siglo XX iba a ser el siglo en que los teóricos dirían a los técnicos lo que tenían que buscar y encontrar a la luz de sus teorías. Dicho en otros términos, iba a ser el siglo de las matemáticas. La biología molecular, campo en que, según me informa una autoridad en la materia, existe muy poca teoría, es una excepción.

No es que la observación y la experimentación fuesen secundarias. Al contrario, sus tecnologías sufrieron una revolución mucho más profunda que en cualquier otra etapa desde el siglo XVII, con nuevos aparatos y técnicas, muchas de las cuales recibirían el espaldarazo científico definitivo del premio Nobel.[180] Por poner sólo un ejemplo, las limitaciones de la ampliación óptica se superaron gracias al microscopio electrónico, en 1937, y al radiotelescopio, en 1957, con el resultado de permitir observaciones más profundas del reino molecular e incluso atómico, así como de los confines más remotos del universo.

En las décadas recientes la automatización de las rutinas y la informatización de las actividades y los cálculos de laboratorio, cada vez más complejos, ha aumentado considerablemente el poder de los experimentadores, de los observadores y de los teóricos dedicados a la construcción de modelos. En algunos campos, como el de la astronomía, esta automatización e informatización desembocó en descubrimientos, a veces accidentales, que condujeron a una innovación teórica. La cosmología moderna es, en el fondo, el resultado de dos hallazgos de este tipo: el de Hubble, que descubrió que el universo está en expansión basándose en el análisis de los espectros de las galaxias (1929), y el descubrimiento de Penzias y Wilson de la radiación cósmica de fondo (ruido de radio) en 1965. Sin embargo, a pesar de que la ciencia es y debe ser una colaboración entre teoría y práctica, en el siglo XX los teóricos llevaban el volante.

Para los propios científicos la ruptura con la experiencia sensorial y con el sentido común significó una ruptura con las certezas tradicionales de su campo y con su metodología. Sus consecuencias pueden ilustrarse claramente siguiendo la trayectoria de la física, la reina indiscutible de las ciencias durante la primera mitad del siglo. De hecho, en la medida en que es todavía la única que se ocupa tanto del estudio de los elementos más pequeños de la materia, viva o muerta, como de la constitución y estructura del mayor conjunto de materia, el universo, la física siguió siendo el pilar fundamental de las ciencias naturales incluso a finales de siglo, aunque en la segunda mitad tuvo que afrontar la dura competencia de las ciencias de la vida, transformadas después de los años cincuenta, tras la revolución de la biología molecular.

Ningún otro ámbito científico parecía más sólido, coherente y metodológicamente seguro que la física newtoniana, cuyos fundamentos se vieron socavados por las teorías de Planck y de Einstein, así como por la transformación de la teoría atómica que siguió al descubrimiento de la radiactividad en la década de 1890. Era objetiva, es decir, se podía observar adecuadamente, en la medida en que lo permitían las limitaciones técnicas de los aparatos de observación (por ejemplo, las del microscopio óptico o del telescopio). No era ambigua: un objeto o un fenómeno eran una cosa u otra, y la distinción entre ambos casos estaba clara. Sus leyes eran universales, válidas por igual en el ámbito cósmico y en el microscópico. Los mecanismos que relacionaban los fenómenos eran comprensibles, esto es, susceptibles de expresarse en términos de «causa y efecto». En consecuencia, todo el sistema era en principio determinista y el propósito de la experimentación en el laboratorio era demostrar esta determinación eliminando, hasta donde fuera posible, la compleja mescolanza de la vida ordinaria que la ocultaba. Sólo un tonto o un niño podían sostener que el vuelo de los pájaros y de las mariposas negaba las leyes de la gravitación. Los científicos sabían muy bien que había afirmaciones «no científicas», pero éstas no les atañían en cuanto científicos.

Todas estas características se pusieron en entredicho entre 1895 y 1914. ¿Era la luz una onda en movimiento continuo o una emisión de partículas separadas (fotones) como sostenía Einstein, siguiendo a Planck? Unas veces era mejor considerarla del primer modo; otras, del segundo. Pero ¿cómo estaban conectados, si lo estaban, ambos? ¿Qué era «en realidad» la luz? Como afirmó el gran Einstein veinte años después de haber creado el rompecabezas, «ahora tenemos dos teorías sobre la luz, ambas indispensables, pero debemos admitir que no hay ninguna conexión lógica entre ellas, a pesar de los veinte años de grandes esfuerzos realizados por los físicos teóricos» (Holton, 1970, p. 1.017). ¿Qué pasaba en el interior del átomo, que ahora ya no se consideraba (como implicaba el nombre griego) la unidad de materia más pequeña posible y, por ello, indivisible, sino como un sistema complejo integrado por diversas partículas aún más elementales? La primera suposición, después del gran descubrimiento del núcleo atómico realizado por Rutherford en 1911 en Manchester -un triunfo de la imaginación experimental y el fundamento de la moderna física nuclear y de lo que se convirtió en «gran ciencia»-, fue que los electrones describían órbitas alrededor de este núcleo a la manera de un sistema solar en miniatura. No obstante, cuando se investigó la estructura de átomos individuales, en especial la del de hidrógeno realizada en 1912-1913 por Niels Bohr, que conocía la teoría de los «cuantos» de Max Planck, los resultados mostraron, una vez más, un profundo conflicto entre lo que hacían los electrones y, empleando sus propias palabras, «el cuerpo de concepciones, de una admirable coherencia, que se ha dado en llamar, con toda corrección, la teoría electrodinámica clásica» (Helton, 1970, p. 1.028). El modelo de Bohr funcionaba, es decir, poseía una brillante potencia explicativa y predictiva, pero era «bastante irracional y absurdo» desde el punto de vista de la mecánica newtoniana clásica y, en cualquier caso, no daba ninguna idea de lo que sucedía en realidad dentro del átomo cuando un electrón «saltaba» o pasaba de alguna manera de una órbita a otra, o de lo que sucedía entre el momento en que era descubierto en una y aquel en que aparecía en otra.

Les sucedía lo que les ocurrió a las certidumbres de la propia ciencia a medida que se fue viendo cada vez más claro que el mismo proceso de observar fenómenos a nivel subatómico los modificaba: por esta razón, cuanto con más precisión queramos saber la posición de una partícula atómica, menos certeza tendremos acerca de su velocidad. Como se ha dicho de todos los medios para observar detalladamente dónde está «realmente» un electrón, «mirarlo es hacerlo desaparecer» (Weisskopf, 1980, p. 37). Esta fue la paradoja que un brillante y joven físico alemán, Werner Heisenberg, generalizó en 1927 con el famoso «principio de indeterminación» que lleva su nombre. El mero hecho de que el nombre haga hincapié en la indeterminación o incertidumbre resulta significativo, puesto que indica qué es lo que preocupaba a los exploradores del nuevo universo científico a medida que dejaban tras de sí las certidumbres del universo antiguo. No es que ellos mismos dudasen o que obtuviesen resultados dudosos. Por el contrario, sus predicciones teóricas, por raras y poco plausibles que fuesen, fueron verificadas por las observaciones y los experimentos rutinarios, a partir del momento en que la teoría general de la relatividad de Einstein (1915) pareció verse probada en 1919 por una expedición británica que, al observar un eclipse, comprobó que la luz de algunas estrellas distantes se desviaba hacia el Sol, como había predicho la teoría. A efectos prácticos, la física de las partículas estaba tan sujeta a la regularidad y era tan predecible como la física de Newton, si bien de forma distinta y, en todo caso, Newton y Galileo seguían siendo válidos en el nivel supraatómico. Lo que ponía nerviosos a los científicos era que no sabían cómo conciliar lo antiguo con lo moderno.

Entre 1924 y 1927 las dualidades que habían preocupado a los físicos durante el primer cuarto de siglo fueron eliminadas, o más bien soslayadas, gracias a un brillante golpe dado por la física matemática: la construcción de la «mecánica cuántica», que se desarrolló casi simultáneamente en varios países. La verdadera «realidad» que había dentro del átomo no era o una onda o una partícula, sino «estados cuánticos» indivisibles que se podían manifestar en cualquiera de estas dos formas, o en ambas. Era inútil considerarlo como un movimiento continuo o discontinuo, porque nunca se podrá seguir, paso a paso, la senda del electrón.

Los conceptos clásicos de la física, como la posición, la velocidad o el impulso, no son aplicables más allá de ciertos puntos, señalados por el «principio de indeterminación» de Heisenberg. Pero, por supuesto, más allá de estos puntos se aplican otros conceptos que dan lugar a resultados que no tienen nada de inciertos, y que surgen de los modelos específicos producidos por las «ondas» o vibraciones de electrones (con carga negativa) mantenidos dentro del reducido espacio del átomo cercano al núcleo (positivo). Sucesivos «estados cuánticos» dentro de este espacio reducido producen unos modelos bien definidos de frecuencias diferentes que, como demostró Schrödinger en 1926, se podían calcular del mismo modo que podía calcularse la energía que corresponde a cada uno («mecánica ondulatoria»).

Estos modelos de electrones tenían un poder predictivo y explicativo muy notable. Así, muchos años después, cuando en Los Álamos se produjo plutonio por primera vez mediante reacciones nucleares, durante el proceso de fabricación de la primera bomba atómica, las cantidades eran tan pequeñas que sus propiedades no podían observarse. Sin embargo, a partir del número de electrones en el átomo de este elemento, y a partir de los modelos para estos noventa y cuatro electrones que vibraban alrededor del núcleo, y sin nada más, los científicos predijeron, acertadamente, que el plutonio resultaría ser un metal marrón con una masa específica de unos veinte gramos por centímetro cúbico, y que poseería una determinada conductividad y elasticidad eléctrica y térmica. La mecánica cuántica explicó también por qué los átomos (y las moléculas y combinaciones superiores basadas en ellos) permanecen estables o, más bien, qué carga suplementaria de energía sería necesaria para cambiarlos. En realidad, se ha dicho que incluso los fenómenos de la vida (la forma del ADN y el que diferentes nucleótidos sean resistentes a oscilaciones térmicas a temperatura ambiente) se basan en estos modelos primarios. El hecho de que cada primavera broten las mismas flores se basa en la estabilidad de los modelos de los diferentes nucleótidos (Weisskopf, 1980, pp. 35-38).

No obstante, este avance tan grande y tan fructífero en la exploración de la naturaleza se alcanzó sobre las ruinas de todo lo que la teoría científica había considerado cierto y adecuado, y por una suspensión voluntaria del escepticismo que no sólo los científicos de mayor edad encontraban inquietante. Consideremos la «antimateria» que propuso desde Cambridge Paul Dirac, una vez descubrió, en 1928, que sus ecuaciones tenían soluciones que correspondían a estados del electrón con una energía menor que la energía cero del espacio vacío. Desde entonces el término «antimateria», que carece de sentido en términos cotidianos, fue alegremente manejado por los físicos (Weinberg, 1977, pp. 23-24). La palabra misma implicaba un rechazo deliberado a permitir que el progreso del cálculo teórico se desviase a causa de cualquier noción preconcebida de la realidad: fuera lo que fuese en último término la realidad, respondería a lo que mostraban las ecuaciones. Y sin embargo, esto no era fácil de aceptar, ni siquiera para aquellos científicos que habían olvidado ya la opinión de Rutherford de que no podía considerarse buena una física que no pudiese explicarse a una camarera.

Hubo pioneros de la nueva ciencia a quienes les resultó imposible aceptar el fin de las viejas certidumbres, incluyendo a sus fundadores, Max Planck y el propio Albert Einstein, quien expresó sus recelos en el reemplazo de la causalidad determinista por leyes puramente probabilísticas con la famosa frase: «Dios no juega a los dados». Einstein no tenía argumentos válidos, pero comentó: «una voz interior me dice que la mecánica cuántica no es la verdad» (citado en Jammer, 1966, p. 358).

Más de uno de los propios revolucionarios cuánticos había soñado en eliminar las contradicciones, subsumiendo unas bajo otras. Por ejemplo, Schrödinger creyó que su «mecánica ondulatoria» había diluido los presuntos «saltos» de los electrones de una órbita atómica a otra en el proceso continuo del cambio energético, con lo que se preservaban el espacio, el tiempo y la causalidad clásicas. Algunos pioneros de la revolución reacios a aceptar sus consecuencias extremas, como Planck y Einstein, respiraron con alivio, pero fue en vano. El juego era nuevo y las viejas reglas ya no servían.

¿Podían aprender los físicos a vivir en una contradicción permanente? Niels Bohr pensaba que podían y debían hacerlo. No había manera de expresar la naturaleza en su conjunto con una única descripción, dada la condición del lenguaje humano. No podía haber un solo modelo que lo abarcase todo directamente. La única forma de aprehender la realidad era describirla de modos diferentes y juntar todas las descripciones para que se complementasen unas con otras, en una «superposición exhaustiva de descripciones distintas que incorporan nociones aparentemente contradictorias» (Holton, 1970, p. 1.018). Este era el «principio de complementariedad» de Bohr, un concepto metafísico relacionado con la relatividad, que dedujo de autores muy alejados del mundo de la física, y al que se asignó una aplicación universal. La «complementariedad» de Bohr no se proponía contribuir al avance de las investigaciones de los científicos atómicos, sino más bien tranquilizarles justificando su confusión. Su atractivo no pertenece al ámbito de la razón.

Porque aunque todos nosotros, y mucho más los científicos inteligentes, sabemos que hay formas distintas de percibir la realidad, no siempre comparables e incluso contradictorias, y que se necesitan todas para aprehenderla en su globalidad, no tenemos idea de cómo conectarlas. El efecto de una sonata de Beethoven se puede analizar física, fisiológica y psicológicamente, y también se puede asimilar escuchándola, pero ¿cómo se conectan estas formas de comprensión? Nadie lo sabe.

Sin embargo, la incomodidad persistió. Por un lado estaba la síntesis de la nueva física de mediados de los años veinte, que proporcionaba un procedimiento muy efectivo para introducirse en las cámaras blindadas de la naturaleza. Los conceptos básicos de la revolución de los cuantos seguían aplicándose a fines del siglo XX. Y a menos que sigamos a quienes consideran que el análisis no lineal, posible gracias a los ordenadores, es un punto de partida radicalmente nuevo, debemos convenir que desde el período de 1900-1927 la física no ha experimentado ninguna revolución, sino tan sólo gigantescos avances evolutivos dentro del mismo marco conceptual.

Por otro lado, hubo una incoherencia generalizada, que en 1931 alcanzó el último reducto de la certidumbre: las matemáticas. Un lógico matemático austríaco, Kurt Gödel, demostró que un sistema de axiomas nunca puede basarse en sí mismo. Si hay que demostrar su solidez, hay que recurrir a afirmaciones externas al sistema. A la luz del «teorema de Gödel» no se puede tan siquiera pensar en un mundo no contradictorio e internamente consistente.

Tal era «la crisis de la física», si se me permite citar el título de un libro escrito por un joven intelectual británico, autodidacto y marxista, que murió en España: Christopher Caudwell (1907-1937). No se trataba tan sólo de una «crisis de los fundamentos», como se llamó en matemáticas al período de 1900-1930 (véase La era del imperio, capítulo 10), sino también de la visión que los científicos tenían del mundo en general. En realidad, a medida que los físicos aprendieron a despreocuparse por las cuestiones filosóficas, al tiempo que se sumergían en el nuevo territorio que se abría ante ellos, el segundo aspecto de la crisis se hizo todavía mayor, ya que durante los años treinta y cuarenta la estructura del átomo se fue complicando de año en año. La sencilla dualidad de núcleo positivo y electrón(es) negativo(s) ya no bastaba. Los átomos estaban habitados por una fauna y flora crecientes de partículas elementales, algunas de las cuales eran verdaderamente extrañas. Chadwick, de Cambridge, descubrió la primera de ellas en 1932, los neutrones, partículas que tienen casi la misma masa que un protón pero sin carga eléctrica. Sin embargo, con anterioridad ya se habían anticipado teóricamente otras partículas, como los neutrinos, partículas sin masa y eléctricamente neutrales.

Estas partículas subatómicas, efímeras y fugaces, se multiplicaban sobre todo con los aceleradores de alta energía de la «gran ciencia», disponibles después de la segunda guerra mundial. A finales de los años cincuenta había más de un centenar de ellas y no se divisaba su final. El panorama se complicó además, desde comienzos de los treinta, con el descubrimiento de dos fuerzas oscuras y desconocidas que operaban dentro del átomo, además de las fuerzas eléctricas que mantenían unido al núcleo con los electrones. Eran las llamadas fuerza de «interacción fuerte», que ligaban el neutrón y el protón de carga positiva con el núcleo atómico, y de «interacción débil», responsable de ciertos tipos de descomposición de las partículas.

En el marasmo conceptual sobre el que se edificaron las ciencias del siglo XX, había sin embargo un presupuesto básico y esencialmente estético que no se puso en duda. Y que, a medida que la incertidumbre iba cubriendo a los demás, se fue haciendo cada vez más central para los científicos. Éstos, al igual que Keats, creían que «la belleza es verdad, y la verdad, belleza», aunque su criterio de belleza no coincidía con el del poeta. Una teoría bella, lo que ya era en sí mismo una presunción de verdad, debe ser elegante, económica y general. Debe unificar y simplificar, como lo habían hecho hasta entonces los grandes hitos de la teoría científica.

La revolución científica de la época de Galileo y de Newton demostró que las leyes que gobernaban el cielo y la tierra eran las mismas. La revolución química redujo la infinita variedad de formas en que aparecía la materia a noventa y dos elementos sistemáticamente conectados. El triunfo de la física del siglo XIX consistió en demostrar que la electricidad, el magnetismo y los fenómenos ópticos tenían las mismas raíces. Sin embargo, la nueva revolución científica no produjo una simplificación, sino una complicación.

La maravillosa teoría de la relatividad de Einstein, que describía la gravedad como una manifestación de la curvatura del espacio-tiempo, introdujo, de hecho, una dualidad inquietante en la naturaleza: «por un lado, estaba el escenario: es decir, el espacio-tiempo curvo, la gravedad; y por otro, los actores: los electrones, los protones, los campos electromagnéticos… y no había conexión entre ellos» (Weinberg, 1979, p. 43). En los últimos cuarenta años de su vida, Einstein, el Newton del siglo XX, trabajó para elaborar una «teoría unificada» que enlazaría el electromagnetismo con la gravedad, pero no lo consiguió y ahora existían otras dos clases, aparentemente no conectadas entre sí, de fuerzas de la naturaleza, sin relación aparente con la gravedad y el electromagnetismo.

La multiplicación de las partículas subatómicas, por muy estimulante que fuese, sólo podía ser una verdad temporal y preliminar porque, por muy hermosa que fuera en el detalle, no había belleza en el nuevo átomo como la había habido en el viejo. Incluso los pragmáticos puros de la época, para quienes el único criterio sobre la validez de una hipótesis era que ésta funcionase, habían soñado alguna vez con una «teoría de todo» -por emplear la expresión de un físico de Cambridge, Stephen Hawking- que fuese noble, bella y general. Pero esta teoría parecía estar cada vez más lejana, pese a que desde los años sesenta los físicos comenzaron, una vez más, a percibir la posibilidad de tal síntesis. De hecho, en los años noventa volvió a extenderse entre los físicos la creencia generalizada de que estaban a punto de alcanzar un nivel verdaderamente básico y que la multiplicidad de partículas elementales podría reducirse a un grupo relativamente simple y coherente.

Al mismo tiempo, y a caballo entre los indefinidos límites de disciplinas tan dispares como la meteorología, la ecología, la física no nuclear, la astronomía, la dinámica de fluidos y distintas ramas de las matemáticas desarrolladas independientemente en la Unión Soviética y (algo más tarde) en Occidente, y con la ayuda del extraordinario desarrollo de los ordenadores como herramientas analíticas y de inspiración visual, se iba abriendo paso, o iba resurgiendo, un nuevo tipo de síntesis conocido con el nombre, bastante engañoso, de «teoría del caos». Y era engañoso porque lo que revelaba no era tanto los impredecibles resultados de procedimientos científicos perfectamente deterministas, sino la extraordinaria universalidad de formas y modelos de la naturaleza en sus manifestaciones más dispares y aparentemente inconexas.[181]

La teoría del caos ayudó a dar otra vuelta de tuerca a la antigua causalidad. Rompió los lazos entre ésta y la posibilidad de predicción, puesto que no sostenía que los hechos sucediesen de manera fortuita, sino que los efectos que se seguían de unas causas específicas no se podían predecir. Ello reforzó, además, otra cuestión avanzada por los paleontólogos y de considerable interés para los historiadores: la sugerencia de que las cadenas de desarrollo histórico o evolutivo son perfectamente coherentes y explicables después del hecho, pero que los resultados finales no se pueden predecir desde el principio, porque, si se dan las mismas condiciones otra vez, cualquier cambio, por insignificante o poco importante que pueda parecer en ese momento, «hará que la evolución se desarrolle por una vía radicalmente distinta» (Gould, 1989, p. 51). Las consecuencias políticas, económicas y sociales de este enfoque pueden ser de largo alcance.

Por otra parte, estaba también el absurdo total de gran parte del nuevo mundo de los físicos. Mientras estuviese confinado en el átomo, no afectaba directamente a la vida cotidiana, en la que incluso los científicos estaban inmersos, pero hubo al menos un nuevo e inasimilable descubrimiento que no se pudo poner también en cuarentena. Este era el hecho extraordinario, que algunos habían anticipado a partir de la teoría de la relatividad, y que había sido observado en 1929 por el astrónomo estadounidense E. Hubble, de que el universo entero parecía expandirse a una velocidad de vértigo. Esta expansión, que incluso muchos científicos encontraban difícil de aceptar, por lo que algunos llegaron a idear teorías alternativas sobre el «estado estacionario» del cosmos, fue verificada con la obtención de nuevos datos astronómicos en los años sesenta. Era imposible no hacerse preguntas acerca de hacia dónde se (y nos) dirigía esta expansión; acerca de cuándo y cómo comenzó y, por consiguiente, especular sobre la historia del universo, empezando por el big bang o explosión inicial.

Este descubrimiento produjo el floreciente campo de la cosmología, la parte de la ciencia del siglo XX más apta para inspirar bestsellers, y aumentó enormemente el papel de la historia en las ciencias naturales que, a excepción de la geología y sus derivadas, habían manifestado hasta entonces una desdeñosa falta de interés por ella. Disminuyó, además, la identificación de la ciencia «dura» con la experimentación, es decir, con la reproducción de los fenómenos naturales. Porque ¿cómo se iban a repetir hechos que eran irrepetibles por definición? Así, el universo en expansión se añadió a la confusión en que estaban sumidos tanto los científicos como los legos.

Esta confusión hizo que quienes vivieron en la era de las catástrofes, y conocían o reflexionaban sobre estas cuestiones, se reafirmasen en su convicción de que el mundo antiguo había muerto o, como mínimo, estaba en una fase terminal, pero que los contornos del nuevo no estaban todavía claramente esbozados. El gran Max Planck no tenía dudas sobre la relación entre la crisis de la ciencia y de la vida cotidiana:

Estamos viviendo un momento muy singular de la historia. Es un momento de crisis en el sentido literal de la palabra. En cada rama de nuestra civilización espiritual y material parecemos haber llegado a un momento crítico. Este espíritu se manifiesta no sólo en el estado real de los asuntos públicos, sino también en la actitud general hacia los valores fundamentales de la vida social y personal… Ahora, el iconoclasta ha invadido el templo de la ciencia. Apenas hay un principio científico que no sea negado por alguien. Y, al propio tiempo, cualquier teoría, por absurda que parezca, puede hallar prosélitos y discípulos en un sitio u otro (Planck, 1933, p. 64).

Nada podía ser más natural que el hecho de que un alemán de clase media, educado en las certidumbres del siglo XIX, expresase tales sentimientos en los días de la Gran Depresión y de la ascensión de Hitler al poder.

Sin embargo, no era precisamente pesimismo lo que sentían la mayoría de los científicos. Estaban de acuerdo con Rutherford, que en 1923, ante la British Association, afirmó: «estamos viviendo en la era heroica de la física» (Howarth, 1978, p. 92). Cada nuevo ejemplar de las revistas científicas, cada coloquio (puesto que a la mayoría de los científicos les encantaba, más que nunca, combinar cooperación y competencia), traía avances nuevos, profundos y estimulantes. La comunidad científica era todavía lo bastante reducida, al menos en disciplinas punta como la física nuclear y la cristalografía, como para ofrecer a todo joven investigador la posibilidad de alcanzar el estrellato. Ser un científico era ser alguien envidiado. Quienes estudiábamos en Cambridge, de donde surgieron la mayoría de los treinta premios Nobel británicos de la primera mitad del siglo -que, a efectos prácticos, constituía la ciencia británica en ese tiempo-, sabíamos cuál era la materia que nos hubiera gustado estudiar, si nuestras matemáticas hubieran sido lo suficientemente buenas para ello.

En realidad, las ciencias naturales no podían esperar más que mayores hitos y avances intelectuales, que hacían tolerables los parches, imperfecciones e improvisaciones de las teorías al uso, puesto que éstas estaban destinadas a ser sólo temporales. ¿Cómo iban a desconfiar del futuro personas que recibían premios Nobel por trabajos realizados cuando contaban poco más de veinte años?[182] Y, sin embargo, ¿cómo iban a poder los hombres (y las pocas mujeres) que seguían poniendo a prueba la realidad de la vacilante idea de «progreso» en su ámbito de actividad, permanecer inmunes ante la época de crisis y catástrofes en la que vivían?

No podían, y no lo hicieron. La era de las catástrofes fue, por tanto, una de las comparativamente raras etapas en las que hubo científicos politizados, y no sólo porque se demostró (cuando muchos de ellos tuvieron que emigrar de grandes zonas de Europa porque eran considerados racial o ideológicamente inaceptables) que no podían dar por supuesta su inmunidad personal. En todo caso, el científico británico característico de los años treinta era miembro del «Grupo de científicos contra la guerra», organización izquierdista radicada en Cambridge, y profesaba un radicalismo acentuado por el talante abiertamente radical de sus mentores, cuyos méritos habían reconocido desde la Royal Society hasta el premio Nobel: Bernal (cristalografía), Haldane (genética), Needham (embriología química),[183] Blackett (física), Dirac (física) y el matemático G. H. Hardy, para quien sólo había dos personajes en el siglo XX que pudieran compararse al jugador de cricket australiano Don Bradman, a quien admiraba: Lenin y Einstein.

El típico físico joven estadounidense de los años treinta tendría probablemente problemas políticos en la época de la guerra fría que siguió a la contienda, a causa de las inclinaciones radicales que había manifestado antes de la guerra o que conservaba, como les sucedió a Robert Oppenheimer (1904-1967), el gran artífice de la bomba atómica, y a Linus Pauling, el químico (1901) que ganó dos premios Nobel, uno de ellos por su contribución a la paz, y un premio Lenin. El científico francés típico era simpatizante del Frente Popular en los años treinta y activista de la Resistencia durante la guerra, algo de que no muchos franceses podían enorgullecerse. Y el científico refugiado característico de la Europa central había de ser hostil al fascismo, por muy poco interesado que estuviese en la vida pública. Los científicos que siguieron en los países fascistas y en la Unión Soviética -o que no pudieron abandonarlos- no podían mantenerse al margen de la política de sus gobiernos, tanto si simpatizaban con ella como si no, aunque sólo fuera por los gestos públicos que les imponían, como el saludo nazi en la Alemania de Hitler, que el gran físico Max von Laue (1897-1960) procuraba evitar llevando algo en las dos manos siempre que salía de su casa.

A diferencia de lo que ocurre con las ciencias sociales o humanas, esta politización era excepcional en las ciencias naturales, cuya materia no exige, ni siquiera sugiere -salvo en ciertos ámbitos de las ciencias de la vida- opiniones sobre los asuntos humanos, aunque a menudo las sugiera sobre Dios.

Sin embargo, los científicos estaban más directamente politizados por sus bien fundadas creencias de que los legos, incluyendo a los políticos, no tenían ni idea del extraordinario potencial que la ciencia moderna, adecuadamente empleada, ponía en manos de la sociedad humana. Y tanto el colapso de la economía mundial como el ascenso de Hitler parecieron confirmarlo de modos distintos. Por el contrario, la devoción marxista oficial de la Unión Soviética y su inclinación hacia las ciencias naturales engañó a muchos científicos occidentales de la época, haciéndoles creer que era un régimen adecuado para realizar este potencial. La tecnocracia y el radicalismo convergieron porque en este punto era la izquierda política, con su compromiso ideológico con la ciencia, el racionalismo y el progreso (ridiculizado por los conservadores mediante un neologismo, el «cientifismo»),[184] la que representaba naturalmente el reconocimiento y el respaldo adecuados para «la función social de la ciencia», por citar el título de un libro-manifiesto de gran influencia en esa época (Bernal, 1939), escrito, como no podía ser menos, por un físico marxista brillante y militante.

También es significativo que el gobierno del Frente Popular francés de 1936-1939 creara la primera subsecretaría de investigación científica (dirigida por Irene Joliot-Curie, galardonada con el Nobel) y desarrollase lo que aún hoy es el principal mecanismo de subvención de la investigación francesa, el CNRS, Centre National de la Recherche Scientifique. En realidad, cada vez resultaba más evidente, por lo menos para los científicos, que la investigación no sólo necesitaba fondos públicos, sino también una organización pública. Los servicios científicos del gobierno británico, que en 1930 empleaban en su conjunto a un total de 743 científicos, eran insuficientes (treinta años después daban empleo a más de 7.000) (Bernal, 1967, p. 931).

La etapa de la ciencia politizada alcanzó su punto álgido en la segunda guerra mundial, el primer conflicto (desde la era jacobina, durante la revolución francesa) en que los científicos fueron movilizados de forma sistemática y centralizada con fines militares, con mayor eficacia, probablemente, por parte de los aliados que por parte de Alemania, Italia y Japón, porque los aliados no pretendían ganar la guerra rápidamente con los métodos y los recursos de que disponían en aquel momento (véase el capítulo I).

Trágicamente, la guerra atómica resultó ser hija del antifascismo. Una simple guerra entre estados-nación no hubiera movido a la flor y nata de los físicos nucleares, gran parte de ellos refugiados o exiliados del fascismo, a incitar a los gobiernos británico y estadounidense a que construyeran la bomba atómica. Y el mismo horror de estos científicos cuando la lograron, sus esfuerzos de última hora para evitar que los políticos y militares la usasen, y su posterior resistencia a la construcción de la bomba de hidrógeno, muestran la fuerza de las pasiones políticas. En realidad, el apoyo que las campañas antinucleares impulsadas tras la segunda guerra mundial encontraron entre la comunidad científica lo recibieron de los miembros de las politizadas generaciones antifascistas.

Al mismo tiempo, la guerra acabó de convencer a los gobiernos de que dedicar recursos inimaginables hasta entonces a la investigación científica era factible y esencial para el futuro. Ninguna economía, excepto la de los Estados Unidos, podía haber reunido dos mil millones de dólares (al valor de los tiempos de guerra) para construir la bomba atómica en plena conflagración. Pero también es verdad que ningún gobierno, antes de 1940, hubiera soñado en gastar ni siquiera una pequeña fracción de todo ese dinero en un proyecto hipotético, basado en los cálculos incomprensibles de unos académicos melenudos. Después de la guerra sólo el cielo o, mejor dicho, la capacidad económica fue el límite del gasto y de los empleos científicos de los gobiernos. En los años setenta el gobierno estadounidense sufragaba los dos tercios de los costes de la investigación básica que se desarrollaba en su país, que en aquel tiempo sumaban casi cinco mil millones de dólares anuales, y daba trabajo a casi un millón de científicos e ingenieros (Holton, 1978, pp. 227-228).


III

La temperatura política de la ciencia bajó después de la segunda guerra mundial. Entre 1947 y 1949 el radicalismo experimentó un rápido descenso en los laboratorios, cuando opiniones que en otros lugares se consideraban extrañas e infundadas se convirtieron en obligatorias para los científicos de la Unión Soviética. Incluso los comunistas leales encontraban imposible de tragar el «lysenkoísmo». Además, cada vez fue más evidente que los regímenes que seguían el modelo soviético carecían de atractivo material y moral, al menos para la mayoría de los científicos.

Por otra parte, y pese a la ingente propaganda realizada, la guerra fría entre Occidente y el bloque soviético nunca generó entre los científicos nada parecido a las pasiones políticas desencadenadas por el fascismo. Puede que ello se debiera a la tradicional afinidad entre los racionalismos liberal y marxista, o a que la Unión Soviética, a diferencia de la Alemania nazi, nunca pareció estar en situación de conquistar Occidente, ni aunque se lo hubiese propuesto, lo cual era muy dudoso. Para la mayor parte de los científicos occidentales la Unión Soviética, sus satélites y la China comunista eran malos estados cuyos científicos eran dignos de compasión, más que imperios del mal contra los que hubiera que hacer una cruzada.

En el mundo occidental desarrollado las ciencias naturales permanecieron política e ideológicamente inactivas durante una generación, disfrutando de sus logros intelectuales y de los vastos recursos de que ahora disponían para sus investigaciones. De hecho, el magnánimo patrocinio de los gobiernos y de las grandes empresas alentó a un tipo de investigadores que no discutían la política de quienes les pagaban y preferían no pensar en las posibles implicaciones de sus trabajos, especialmente cuando pertenecían al ámbito militar. A lo sumo, los científicos de estos sectores protestaban por no poder publicar los resultados de sus investigaciones.

De hecho, la mayoría de los componentes de lo que en ese momento era el enorme ejército de doctores en física contratados por la NASA (National Aeronautics and Space Administration), fundada como respuesta al reto soviético de 1958, no tenían mayor interés en conocer las razones que orientaban sus actividades que los miembros de cualquier otro ejército. A fines de los años cuarenta todavía había hombres y mujeres que se torturaban con el dilema de si entrar o no en los centros gubernamentales especializados en investigaciones de guerra química y biológica.[185] No parece que posteriormente hubiera dificultades para reclutar personal para estos puestos.

Un tanto inesperadamente, fue en la zona de influencia soviética donde la ciencia se politizó más a medida que avanzaba la segunda mitad del siglo. No era una casualidad que el portavoz nacional (e internacional) de la disidencia soviética fuese un científico, Andrei Sajarov (1921-1989), el físico que había sido el principal responsable de la construcción, a fines de los años cuarenta, de la bomba de hidrógeno soviética. Los científicos eran miembros por excelencia de la amplia nueva clase media profesional, instruida y técnicamente preparada, que era el principal logro del sistema soviético, al mismo tiempo que la clase más consciente de sus debilidades y limitaciones. Eran mucho más necesarios para el sistema que sus colegas occidentales, ya que eran tan sólo ellos los que hacían posible que una economía atrasada en muchos aspectos pudiese enfrentarse a los Estados Unidos como una superpotencia. Y demostraron que eran indispensables al permitir que la Unión Soviética adelantase durante un tiempo a Occidente en la tecnología más avanzada: la espacial. El primer satélite construido por el hombre (Sputnik, 1957), el primer vuelo espacial tripulado por hombres y mujeres (1961, 1963) y los primeros paseos espaciales fueron rusos. Concentrados en institutos de investigación o en «ciudades científicas», unidos por su trabajo, apaciguados y disfrutando de un cierto grado de libertad concedido por el régimen posestalinista, no es sorprendente que surgieran opiniones críticas en ese ámbito investigador, cuyo prestigio social era, en todo caso, mucho mayor que el de cualquier otra ocupación en la sociedad soviética.


IV

¿Puede decirse que estas fluctuaciones en la temperatura política e ideológica afectaron al progreso de las ciencias naturales? Mucho menos de lo que afectaron a las ciencias humanas y sociales, por no hablar de las ideologías y filosofías. Las ciencias naturales podían reflejar el siglo en que vivían los científicos tan sólo dentro de los confines de la metodología empírica que, en una época de incertidumbre epistemológica, se generalizó necesariamente: la de la hipótesis verificable -o, en términos de Karl Popper (1902-1994), falsable- mediante pruebas prácticas. Esto imponía límites a su ideologización. La economía, aunque sujeta a exigencias de lógica y consistencia, ha florecido como una especie de teología -probablemente como la rama más influyente de la teología secular, en el mundo occidental- porque normalmente se puede formular, y se formula, en unos términos que le permiten rehuir el control de la verificación. La física no puede permitírselo. Así, mientras que en el ámbito de la economía se puede demostrar que las escuelas en conflicto y el cambio de las modas del pensamiento económico son fiel reflejo de las experiencias y del debate ideológico contemporáneos, esto no sucede en el ámbito de la cosmología.

Pese a todo la ciencia se hizo eco de su tiempo, aunque es innegable que algunos movimientos científicos importantes son endógenos. Así, era prácticamente inevitable que la desordenada proliferación de partículas subatómicas, especialmente tras la aceleración experimentada en los años cincuenta, condujese a los científicos a buscar simplificación. La arbitraria naturaleza de la nueva, e hipotéticamente «última», partícula de la que se decía ahora que estaban compuestos los protones, neutrones, electrones y demás, queda reflejada en su mismo nombre, quark, término tomado de Finnegan’s Wake de James Joyce (1963). Éste fue muy pronto dividido en tres o cuatro subespecies (con sus «antiquarks»), descritas como up, down, sideways o strange, y quarks con charm, cada una de ellos dotada de una propiedad llamada «color». Ninguna de estas palabras tenía nada que ver con sus significados comunes. Como de costumbre, a partir de esta teoría se hicieron predicciones acertadas, encubriendo así el hecho de que en los noventa no se ha encontrado ningún tipo de evidencia experimental que avale la existencia de quarks de ningún tipo.[186]

Si estos nuevos avances constituían una simplificación del laberinto subatómico o, por el contrario, un aumento de su complejidad, es algo que debe dejarse al juicio de los físicos capacitados para ello. Sin embargo, el observador lego escéptico, aunque admirado, puede recordar a veces los titánicos esfuerzos intelectuales y las dosis de ingenio empleadas a fines del siglo XIX para mantener la creencia científica en el «éter», antes de que los trabajos de Planck y Einstein lo relegaran al museo de las pseudoteorías junto al «flogisto» (véase La era del imperio, capítulo 10).

La misma falta de contacto de estas construcciones teóricas con la realidad que intentan explicar (excepto en calidad de hipótesis falsables) las abrió a las influencias del mundo exterior. ¿No era lógico que, en un siglo tan dominado por la tecnología, las analogías mecánicas contribuyeran a conformarlas, aunque esta vez en la forma de técnicas de comunicación y control en los animales y las máquinas, que desde 1940 han generado un corpus teórico conocido bajo varios nombres (cibernética, teoría general de sistemas, teoría de la información, etc.)?

Los ordenadores electrónicos, que se desarrollaron a una velocidad de vértigo después de la segunda guerra mundial, especialmente tras la invención del transistor, tenían una enorme capacidad para hacer simulaciones, lo que hizo mucho más fácil que antes desarrollar modelos mecánicos de las que, hasta entonces, se consideraban las funciones físicas y mentales básicas de los organismos, incluyendo el humano. Los científicos de fines del siglo XX hablaban del cerebro si éste fuese esencialmente un elaborado sistema de procesamiento de información, y uno de los debates filosóficos habituales de la segunda mitad del siglo era si se podía, y en tal caso cómo, diferenciar la inteligencia humana de la «inteligencia artificial»; es decir, qué es lo que había -si lo había- en la mente humana que no fuese programable en teoría en un ordenador.

Es indudable que estos modelos tecnológicos han hecho avanzar la investigación. ¿Dónde estaría el estudio de la neurología -esto es, el estudio de los impulsos eléctricos nerviosos- sin los de la electrónica? No obstante, en el fondo estas resultan ser unas analogías reduccionistas, que un día probablemente parecerán tan desfasadas como nos lo parece ahora la descripción que se hacía en el siglo XVIII del movimiento humano en términos de un sistema de poleas.

Estas analogías fueron útiles para la formulación de modelos concretos. Sin embargo, más allá de éstos, la experiencia vital de los científicos había de afectar a su forma de mirar a la naturaleza. El nuestro ha sido un siglo en el cual, por citar a un científico que reseñaba la obra de otro, «el conflicto entre gradualistas y catastrofistas impregna la experiencia humana» (Jones, 1992, p. 12). Y, por ello, no es sorprendente que haya impregnado también la ciencia.

En un siglo XIX de mejoras y progreso burgués, la continuidad y el gradualismo dominaron los paradigmas de la ciencia. Fuera cual fuese el sistema de locomoción de la naturaleza, no le estaba permitido avanzar a saltos. El cambio geológico y la evolución de la vida en la tierra se habían desarrollado sin catástrofes, poco a poco. Incluso el previsible final del universo, en algún futuro remoto, sería gradual, mediante la perceptible pero inexorable transformación de la energía en calor, de acuerdo con la segunda ley de la termodinámica (la «muerte térmica del universo»). La ciencia del siglo XX ha desarrollado una imagen del mundo muy distinta.

Nuestro universo nació, hace quince mil millones de años, de una explosión primordial y, según las especulaciones cosmológicas que se barajan en el momento de escribir esto, podría terminar de una forma igualmente espectacular. Dentro de él la «biografía» de las estrellas y, por tanto, la de sus planetas está, como el universo, llena de cataclismos: novas, supernovas, estrellas gigantes rojas, estrellas enanas, agujeros negros y otros fenómenos astronómicos que antes de los años veinte eran desconocidos o considerados como periféricos.

Durante mucho tiempo la mayor parte de los geólogos se resistieron a la idea de grandes desplazamientos laterales, como los de la deriva de los continentes a través del planeta en el transcurso de la historia de la tierra, aunque la evidencia en su favor fuese considerable. Su oposición se fundamentaba en cuestiones básicamente ideológicas, a juzgar por la acritud de la polémica contra el principal defensor de la «deriva continental», Alfred Wegener. En todo caso, el argumento de quienes consideraban que la «deriva continental» no podía ser cierta porque no había ningún mecanismo geofísico conocido que pudiese llevar a cabo tales movimientos no era, a priori, más convincente que el razonamiento de lord Kelvin, en el siglo XIX, según el cual la escala temporal postulada en aquel tiempo por los geólogos no podía ser verdadera porque la física, tal como se conocía entonces, consideraba que la tierra era mucho más joven de lo que decía la geología. Sin embargo, en los años sesenta lo que antes era impensable se convirtió en la ortodoxia cotidiana de la geología: un mundo compuesto por gigantescas placas movedizas, a veces en rápido movimiento («tectónica de placas»).[187]

Quizá resulte aún más ilustrativo el hecho de que desde los años sesenta la geología y la teoría evolucionista regresaran a un catastrofismo directo a través de la paleontología. Una vez más, las evidencias prima facie eran conocidas desde hacía mucho tiempo: todos los niños saben que los dinosaurios se extinguieron al final del período Cretácico. Pero era tal la fuerza de la creencia darwinista según la cual la evolución no era el resultado de catástrofes (o de la creación), sino de lentos y pequeños cambios que se produjeron en el transcurso de la historia geológica, que este aparente cataclismo biológico llamó poco la atención.

Sencillamente, el tiempo geológico se consideraba lo suficientemente prolongado como para dar cuenta de cualquier cambio evolutivo. ¿Debemos sorprendernos de que, en una época en que la historia humana estaba tan marcada por los cataclismos, las discontinuidades evolutivas llamaran de nuevo la atención? Todavía podríamos ir más lejos: el mecanismo predilecto de los geólogos y los paleontólogos catastrofistas en el momento en que escribo esto es el de un bombardeo del espacio exterior, es decir, la colisión con uno o varios grandes meteoritos. Según algunos cálculos, es probable que cada trescientos mil años llegue a la Tierra un asteroide lo suficientemente grande como para destruir la civilización, esto es, el equivalente a ocho millones de Hiroshimas.

Estas disquisiciones habían sido siempre propias de una prehistoria marginal; pero, antes de la era de la guerra nuclear, ¿algún científico serio hubiese pensado en esos términos? Estas teorías de la evolución que la consideran como un proceso lento, interrumpido de vez en cuando por un cambio súbito («equilibrio puntuado»), siguen siendo objeto de polémica en los años noventa, pero son parte ahora del debate dentro de la comunidad científica. Al observador lego tampoco puede pasarle desapercibida la aparición, dentro del campo del pensamiento más alejado de la vida cotidiana, de dos áreas de las matemáticas conocidas, respectivamente, como «teoría de las catástrofes», iniciada en los sesenta, y «teoría del caos», iniciada en los ochenta. La primera de ellas se desarrolló en Francia en los años sesenta a partir de la topología, e investigaba las situaciones en que un cambio gradual produce rupturas bruscas, es decir, la interrelación entre el cambio continuo y el discontinuo. La segunda, de origen estadounidense, hizo modelos de las situaciones de incertidumbre e impredictibilidad en las que hechos aparentemente nimios, como el batir de las alas de una mariposa, pueden desencadenar grandes resultados en otro lugar, como por ejemplo un huracán.

Para quienes han vivido las últimas décadas del siglo no resulta difícil comprender por qué tales imágenes de caos y de catástrofe aparecían en las mentes de científicos y matemáticos.


V

Sin embargo, a partir de los años setenta el mundo exterior afectó a la actividad de laboratorios y seminarios de una manera más indirecta, pero también más intensa, con el descubrimiento de que la tecnología derivada de la ciencia, cuyo poder se multiplicó gracias a la explosión económica global, era capaz de producir cambios fundamentales y tal vez irreversibles en el planeta Tierra, o al menos, en la Tierra como hábitat para los organismos vivos. Esto era aún más inquietante que la perspectiva de una catástrofe causada por el hombre, en forma de guerra nuclear, que obsesionó la conciencia y la imaginación de los hombres durante la larga guerra fría, ya que una guerra nuclear globalizada entre la Unión Soviética y los Estados Unidos parecía poder evitarse y, en efecto, se evitó. No era tan fácil escapar de los subproductos del crecimiento científico-económico. Así, en 1973, dos químicos, Rowland y Molina, fueron los primeros en darse cuenta de que los clorofluorocarbonados, ampliamente empleados en la refrigeración y en los nuevos y populares aerosoles, destruían el ozono de la atmósfera terrestre. No es de extrañar que este fenómeno no se hubiese percibido antes, ya que a principios de los años cincuenta la emisión de estos elementos químicos (CFC 11 y CFC 12) no superaba las cuarenta mil toneladas, mientras que entre 1960 y 1972 se emitieron a la atmósfera más de 3,6 millones de toneladas.[188] Así, a principios de los años noventa, la existencia de grandes «agujeros en la capa de ozono» de la atmósfera era del dominio público, y la única pregunta a hacerse era con qué rapidez se agotaría la capa de ozono, y cuándo se rebasaría la capacidad de recuperación natural. Estaba claro que si nos deshacíamos de los CFC la capa de ozono se repondría. Desde los años setenta empezó a discutirse seriamente el problema del «efecto invernadero», el calentamiento incontrolado de la temperatura del planeta debido a la emisión de gases producidos por el hombre, y en los años ochenta se convirtió en una de las principales preocupaciones de especialistas y políticos (Smil, 1990). El peligro era real, aunque en ocasiones se exageraba mucho.

Casi al mismo tiempo el término «ecología», acuñado en 1873 para describir la rama de la biología que se ocupaba de las interrelaciones entre los organismos y su entorno, adquirió su connotación familiar y casi política (Nicholson, 1970).[189] Estas eran las consecuencias naturales del gran boom económico del siglo (véase el capítulo IX).

Estos temores bastarían para explicar por qué en los años setenta la política y las ideologías volvieron a interesarse por las ciencias naturales, hasta el punto de penetrar en algunas partes de las propias ciencias en forma de debates sobre la necesidad de límites prácticos y morales en la investigación científica.

Estas cuestiones no se habían planteado seriamente desde el final de la hegemonía teológica. Y no debe sorprendernos que se planteasen precisamente desde aquellas ramas de las ciencias naturales que siempre habían tenido, o parecían tener, implicación directa con las cuestiones humanas: la genética y la biología evolutiva. Ello sucedió porque, diez años después de la segunda guerra mundial, las ciencias de la vida experimentaron una revolución con los asombrosos avances de la biología molecular, que desvelaron los mecanismos universales de la herencia, el «código genético».

La revolución de la biología molecular no fue un suceso inesperado. Después de 1914 podía darse por hecho que la vida podía y tenía que explicarse en términos físicos y químicos, y no en términos de alguna esencia inherente a los seres vivos.[190] De hecho, los modelos bioquímicos sobre el posible origen de la vida en la Tierra, empezando con la luz solar, el metano, el amoníaco y el agua, fueron sugeridos por primera vez (en buena medida con intenciones antirreligiosas) en la Rusia soviética y en Gran Bretaña durante los años veinte, y situaron el tema en el terreno de la discusión científica seria. Dicho sea de paso, la hostilidad hacia la religión siguió siendo un elemento dinamizador de las investigaciones en este campo, y tanto Crick como Linus Pauling son ejemplos de ello (Olby, 1970, p. 943). Durante décadas la biología dedicó sus mayores esfuerzos al estudio de la bioquímica y de la física, desde que se supo que las moléculas de las proteínas se podían cristalizar y, por tanto, analizar cristalográficamente. Se sabía que una sustancia, el ácido desoxirribonucleico (ADN), desempeñaba un papel, posiblemente el papel central, en la herencia; parecía ser el componente básico del gen, la unidad de la herencia. A finales de los años treinta aún se intentaba desentrañar el problema de cómo el gen «causa[ba] la síntesis de otra estructura idéntica a él mismo, en la que incluso se copia[ba]n las mutaciones del gen original» (Mullen, 1951, p. 95). En definitiva, se investigaba cómo actuaba la herencia. Después de la guerra estaba claro que, como dijo Crick, «grandes cosas aguardaban a la vuelta de la esquina». El brillo del descubrimiento hecho por Crick y Watson de la estructura de doble hélice del ADN y la forma en que explicaba la «copia de genes» mediante un elegante modelo mecánico-químico, no queda empañado por el hecho de que otros investigadores estuviesen acercándose a los mismos resultados a principios de los años cincuenta.

La revolución del ADN, «el mayor descubrimiento de la biología» (J. D. Bernal), que dominó las ciencias de la vida durante la segunda mitad del siglo, se refería esencialmente a la genética y, en la medida en que el darwinismo del siglo XX es exclusivamente genético, a la evolución.[191] Tanto la genética como el darwinismo son materias muy delicadas, porque los modelos científicos de estos campos tienen muchas veces una carga ideológica -cabe recordar aquí la deuda de Darwin con Malthus (véase Desmond y Moore, capítulo 18)- y porque frecuentemente tienen efectos políticos (como el «darwinismo social»). El concepto de «raza» ilustra esta interacción. El recuerdo de la política racial del nazismo hizo que para los intelectuales liberales, entre los que se encontraban la mayoría de los científicos, fuera prácticamente impensable trabajar con este concepto. De hecho, muchos dudaron incluso que fuese legítimo investigar sistemáticamente las diferencias genéticamente determinadas entre los grupos humanos, por temor a que los resultados sirviesen de apoyo a las tesis racistas. De manera más general, en los países occidentales la ideología posfascista de democracia e igualdad resucitó los viejos debates de «la naturaleza contra la crianza» o de la herencia contra el entorno. Evidentemente, el individuo humano es configurado por la herencia y por el entorno; por los genes y por la cultura. Pero los conservadores se inclinaban con gusto a aceptar una sociedad de desigualdades inamovibles, esto es, genéticamente determinadas, y la izquierda, con su compromiso con la igualdad, sostenía que la acción social podía superar todas las desigualdades ya que, en el fondo, éstas estaban determinadas por el entorno. La controversia se enconó con la cuestión de la inteligencia humana que, por sus implicaciones en la escolarización universal o selectiva, era altamente política, hasta el punto que generó polémicas aún más encendidas que las suscitadas por la raza, aunque ambas estaban relacionadas. Cuán importantes eran estos debates se pudo ver con el resurgimiento del movimiento feminista (véase el capítulo X), algunos de cuyos ideólogos llegaron prácticamente a afirmar que todas las diferencias mentales entre hombres y mujeres estaban determinadas por la cultura, esto es, por el entorno. De hecho, la adopción del término «género» en sustitución de «sexo» implicaba la creencia de que «mujer» no era tanto una categoría biológica como un rol social. El científico que intentase investigar cuestiones tan delicadas sabía que se estaba aventurando en un campo de minas político. Incluso quienes se adentraban en él deliberadamente, como E. O. Wilson, de Harvard (1929), el paladín de la «sociobiología», evitaban hablar con claridad.[192]

Lo que todavía enrareció más el ambiente fue que los propios científicos, especialmente los del ámbito más claramente social de las ciencias de la vida (la teoría evolutiva, la ecología, la etología o estudio del comportamiento social de los animales y similares) abusaban del uso de metáforas antropomórficas o sacaban conclusiones humanas. Los sociobiólogos, o quienes popularizaban sus hallazgos, sugirieron que en nuestra existencia social todavía predominaban los caracteres (masculinos) heredados de los milenios durante los cuales el hombre primitivo experimentó un proceso de selección para adaptarse, como cazador, a una existencia más predadora en hábitats abiertos (Wilson, ibid.). Esto no sólo irritó a las mujeres, sino también a los historiadores. Los teóricos evolucionistas analizaron la selección natural, a la luz de la gran revolución biológica, como la lucha por la existencia de «el gen egoísta» (Dawkins, 1976). Incluso los partidarios de la versión dura del darwinismo se preguntaban qué tenía que ver realmente la selección genética con los debates sobre el egoísmo, la competencia y la cooperación humanas. Una vez más, la ciencia se vio asediada por los críticos, aunque, significativamente, no sufrió ya el acoso de la religión tradicional, exceptuando algunos grupos fundamentalistas intelectualmente insignificantes. El clero aceptaba ahora la hegemonía del laboratorio, y procuraba extraer todo el consuelo teológico posible de la cosmología científica cuyas teorías del big bang podían, a los ojos de la fe, presentarse como prueba de que un Dios había creado el mundo. Por otro lado, la revolución cultural occidental de los años sesenta y setenta produjo un fuerte ataque neorromántico e irracionalista contra la visión científica del mundo; un ataque cuyo tono podía pasar de radical a reaccionario con facilidad.

A diferencia de lo que ocurría en las trincheras exteriores de las ciencias naturales, el bastión principal de la investigación pura en las ciencias «duras» se vio poco afectado por estos ataques, hasta que en los años setenta se vio claro que la investigación no se podía divorciar de las consecuencias sociales de las tecnologías que ahora engendraba. Fueron las perspectivas de la «ingeniería genética» -en los seres humanos y en otras formas de vida- las que llevaron a plantearse la cuestión de si debían ponerse límites a la investigación científica. Por vez primera se oyeron opiniones de este tipo entre los propios científicos, especialmente en el campo de la biología, porque a partir de aquel momento algunos de los elementos esenciales de las tecnologías «frankensteinianas» ya no eran separables de la investigación pura o simples consecuencias de ella, sino que, como en el caso del proyecto Genoma, que pretende hacer el mapa de todos los genes humanos hereditarios, eran la investigación básica. Estas críticas minaron lo que todos los científicos habían considerado hasta entonces, y la mayoría siguió considerando, como el principio básico de la ciencia, según el cual, salvo concesiones marginales a las creencias morales de la sociedad,[193] la ciencia debe buscar la verdad dondequiera que esta búsqueda la lleve. Los científicos no tenían ninguna responsabilidad por lo que los no científicos hicieran con sus hallazgos. Que, como observó un científico estadounidense en 1992, «ningún biólogo molecular importante que yo conozca ha dejado de hacer alguna inversión financiera en el negocio biotecnológico» (Lewontin, 1992, p. 37; pp. 31-40), o que «la cuestión (de la propiedad) está en el centro de todo lo que hacemos» (ibid, p. 38), pone en entredicho esta pretensión de pureza.

De lo que se trataba ahora no era de la búsqueda de la verdad, sino de la imposibilidad de separarla de sus condiciones y consecuencias. Al mismo tiempo, el debate se dirimía esencialmente entre los optimistas y los pesimistas acerca de la raza humana, ya que el presupuesto básico de quienes contemplaban restricciones o autolimitaciones en la investigación científica era que la humanidad, tal como estaba organizada hasta el momento, no era capaz de manejar el potencial de transformación radical que poseía, ni siquiera de reconocer los riesgos que estaba corriendo. Porque incluso los brujos que no aceptaban límites en sus investigaciones desconfiaban de sus aprendices. Los argumentos en favor de una investigación ilimitada «atañen a la investigación científica básica, no a las aplicaciones tecnológicas de la ciencia, algunas de las cuales deben restringirse» (Baltimore, 1978).

Pero incluso estos argumentos se alejaban de lo esencial. Porque, como todos los científicos sabían, la investigación científica no era ilimitada y libre, aunque sólo fuese porque necesitaba unos recursos que estaban limitados. La cuestión no estribaba en si alguien debía decir a los investigadores qué podían hacer o no, sino en quién imponía tales límites y directrices, y con qué criterios. Para la mayoría de los científicos, cuyas instituciones estaban directa o indirectamente financiadas con fondos públicos, los controladores de la investigación eran los gobiernos, cuyos criterios, por muy sincera que fuese su devoción por los valores de la libre investigación, no eran los de un Planck, un Rutherford o un Einstein.

Sus prioridades no eran, por definición, las de la investigación «pura», especialmente cuando esa investigación era cara. Cuando el gran boom global llegó a su fin, incluso los gobiernos más ricos, cuyos ingresos no superaban ya a sus gastos, tuvieron que hacer cuentas. Tampoco eran, ni podían ser, las prioridades de la investigación «aplicada», que daba empleo a la gran mayoría de los científicos, porque éstas no se fijaban en términos del «avance del conocimiento» en general (aunque pudiera resultar de ella), sino en función de la necesidad de lograr ciertos resultados prácticos, como, por ejemplo, una terapia efectiva para el cáncer o el SIDA. Quienes investigaban en estos campos no se dedicaban necesariamente a aquello que verdaderamente les interesaba, sino a lo que era socialmente útil o económicamente rentable, o por lo menos aquello para lo que se disponía de dinero, aunque confiasen en que volviera a llevarles alguna vez a la senda de la investigación básica. En estas circunstancias, resultaba retórico afirmar que poner límites a la investigación era intolerable porque el hombre, por naturaleza, pertenecía a una especie que necesitaba «satisfacer su curiosidad, explorar y experimentar» (Lewis Thomas, en Baltimore, 1978, p. 44), o que, siguiendo la consigna de los montañeros, debemos escalar las cimas del conocimiento «porque están ahí».

La verdad es que la «ciencia» (un término por el que mucha gente entiende las ciencias naturales «duras») era demasiado grande, demasiado poderosa, demasiado indispensable para la sociedad en general y para sus patrocinadores en particular como para dejarla a merced de sí misma. La paradoja de esta situación era que, en último análisis, el poderoso motor de la tecnología del siglo XX, y la economía que ésta hizo posible, dependían cada vez más de una comunidad relativamente minúscula de personas para quienes estas colosales consecuencias de sus actividades resultaban secundarias o triviales. Para ellos la capacidad humana de viajar a la Luna o de transmitir vía satélite las imágenes de un partido de fútbol disputado en Brasil para que pudiera verse en un televisor de Dusseldorf, era mucho menos interesante que el descubrimiento de un ruido de fondo cósmico que perturbaba las comunicaciones, pero que confirmaba una teoría sobre los orígenes del universo. No obstante, al igual que el antiguo matemático griego Arquímedes, sabían que habitaban, y estaban ayudando a configurar, un mundo que no podía comprender lo que hacían, ni se preocupaba por ello. Su llamamiento en favor de la libertad de investigación era como el grito de Arquímedes a los soldados invasores, contra quienes había diseñado artefactos militares para la defensa de su ciudad, Siracusa, en los que ni se fijaron cuando le mataban: «Por Dios, no destrocéis mis diagramas». Era comprensible, pero poco realista.

Sólo los poderes transformadores de los que tenían la llave les sirvieron de protección, porque éstos parecían depender de que se permitiera seguir a su aire a una elite privilegiada e incomprensible -hasta muy avanzado el siglo, incomprensible incluso por su relativa falta de interés en los signos externos de la riqueza y el poder-. Todos los estados del siglo XX que actuaron de otra manera tuvieron ocasión de lamentarlo. En consecuencia, todos los estados apoyaron la ciencia, que, a diferencia de las artes y de la mayor parte de las humanidades, no podía funcionar de forma eficaz sin tal apoyo, a la vez que evitaban interferir en ella en la medida de lo posible. Pero a los gobiernos no les interesan las verdades últimas (salvo las ideológicas o religiosas) sino la verdad instrumental. Pueden a lo sumo fomentar la investigación «pura» (es decir, la que resulta inútil de momento) porque podría producir algún día algo útil, o por razones de prestigio nacional, ya que en este terreno la consecución de premios Nobel se antepone a la de las medallas olímpicas, y se valora mucho más. Estos fueron los fundamentos sobre los que se erigieron las estructuras triunfantes de la investigación y la teoría científica, gracias a las cuales el siglo XX será recordado como una era de progreso y no únicamente de tragedias humanas.


Notas (se respeta la numeración editorial)

171 El número incluso mayor de científicos en la entonces Unión Soviética (cerca de 1,5 millones) no era probablemente del todo comparable (UNESCO, 1991, cuadros 5.2, 5.4 y 5.16).
172 Tres premios Nobel, todos después de 1947.
173 También en los Estados Unidos se produjo una pequeña huida temporal en los años del maccarthysmo, y huidas políticas ocasionales mayores de la zona soviética (Hungría en 1956; Polonia y Checoslovaquia en 1968; China y la Unión Soviética a finales de los ochenta), así como un flujo constante de científicos de la Alemania Oriental a la Alemania Occidental.
174 Turing se suicidó en 1954, tras haber sido condenado por comportamiento homosexual, que por aquel entonces se consideraba un delito y también una patología que podía curarse mediante un tratamiento médico o psicológico. Turing no pudo soportar la «cura» que le impusieron. No fue tanto una víctima de la criminalización de la homosexualidad (masculina) en Gran Bretaña antes de los años sesenta, como de su propia incapacidad para asumirla. Sus inclinaciones sexuales no provocaron ningún problema en el King’s College de Cambridge, ni entre el notable conjunto de personas raras y excéntricas que durante la guerra se dedicaron a descifrar códigos en Bletchiey, donde Turing vivió antes de trasladarse a Manchester, una vez terminada la guerra. Sólo a un hombre que, como él, desconocía el mundo en que vivían los demás podía ocurrírsele ir a denunciar el robo cometido en su casa por un amigo íntimo (temporal), dando así a la policía la oportunidad de detener a dos delincuentes a la vez.
175 Ha quedado claro que si la Alemania nazi no pudo hacer la bomba atómica, no fue porque los científicos alemanes no supieran cómo hacerla, o porque no lo intentaran, con diferentes grados de mala conciencia, sino porque la maquinaria de guerra alemana era incapaz de dedicar a ello los recursos necesarios. Abandonaron por ello el esfuerzo y se concentraron en lo que les pareció más efectivo: los cohetes, que prometían beneficios más rápidos.
176 En este aspecto la diferencia entre teoría y práctica es enorme, puesto que personas que están dispuestas a correr graves riesgos en la práctica, por ejemplo viajando en coche por una autopista o desplazándose en metro por Nueva York, pueden resistirse a tomar una aspirina porque saben que en algunos raros casos tiene efectos secundarios.
177 En este estudio de Fischhof los participantes evaluaban los riesgos y los beneficios de veinticinco tecnologías: neveras, fotocopiadoras, anticonceptivos, puentes colgantes, energía nuclear, juegos electrónicos, diagnóstico por rayos X, armas nucleares, ordenadores, vacunas, fluorización del agua, placas de energía solar, láser, tranquilizantes, cámaras Polaroid, energías fósiles, vehículos a motor, efectos especiales en las películas, pesticidas, opiáceos, conservantes de alimentos, cirugía a corazón abierto, aviación comercial, ingeniería genética y molinos de viento. (Véase también Wildavsky, 1990, pp. 41-60.)
178 Así, la Alemania nazi permitió que Werner Heisenberg explicase la teoría de la relatividad, pero a condición de que no mencionase a Einstein (Peierls, 1992, p. 44). 179 En 1930 Robert Millikan (premio Nobel en 1923), del Caltech, escribió la siguiente frase: «uno puede dormir en paz consciente de que el Creador ha puesto en su obra algunos elementos a toda prueba, y que por tanto el hombre no puede infligirle ningún daño grave».
180 Desde la primera guerra mundial más de veinte premios Nobel de física y química han sido otorgados, total o parcialmente, a nuevos métodos, instrumentos y técnicas de investigación.
181 El desarrollo de la «teoría del caos» en los años setenta y ochenta tiene algo en común con el surgimiento, a comienzos del siglo XIX, de una escuela científica «romántica» centrada principalmente en Alemania (la Naturphilosophie), en reacción contra la corriente principal «clásica», centrada en Francia y Gran Bretaña. Es interesante señalar que dos eminentes pioneros de la nueva escuela, Feigenbaum y Libchaber (véase Gleick, 1988, pp. 163 y 197), se inspiraron en la lectura de la apasionadamente antinewtoniana teoría de los colores de Goethe, y en su tratado sobre la transformación de las plantas, que puede considerarse como una teoría evolucionista antidarwinista anticipada. (Sobre la Naturphilosophie véase Las revoluciones burguesas, capítulo 15.)
182 La revolución de la física de 1924-1928 la llevaron a cabo personas como Heisenberg, Pauli, Dirac, Fermi y Joliot, nacidas entre 1900 y 1902. Schrödinger, De Broglie y Max Born estaban en la treintena.
183 Más adelante se convirtió en un eminente historiador de la ciencia china. 
184 El término apareció por primera vez en 1936 en Francia (Guerlac, 1951, pp. 93-94). 
185 Recuerdo de aquella época la preocupación de un bioquímico amigo mío, antiguo pacifista y después comunista, que había aceptado un puesto de estas características en un centro británico.
186 John Maddox afirma que esto depende de lo que cada uno entienda por «encontrar». Se identificaron algunos efectos de los quarks, pero, al parecer, éstos no se encuentran «solos», sino en pares o tríos. Lo que confunde a los científicos no es si los quarks existen o no, sino el motivo por el cual nunca están solos.
187 Las evidencias prima facie consistían en: a) el «ajuste» de las líneas costeras de continentes separados, especialmente el de las costas occidentales de África y las orientales de América del Sur; b) la similitud de los estratos geológicos en tales casos, y c) la distribución geográfica de ciertos tipos de animales y plantas. Puedo recordar mi sorpresa cuando en los años cincuenta, poco antes del avance de la tectónica de placas, un colega geofísico se negaba ni siquiera a considerar que esto necesitase explicación.
188 World Resources, 1986, cuadro 11.1. p. 319.
189 «La ecología… es también la principal disciplina y herramienta intelectual que nos permite esperar que la evolución humana pueda mutarse, pueda desviarse hacia un nuevo cauce de manera que el hombre deje de ser un peligro para el medio ambiente del que depende su propio futuro.»
190 «¿Cómo pueden explicar la física y la química los acontecimientos espacio-temporales que se producen dentro de los límites espaciales de un organismo vivo?» (Schrödinger, 1944, p. 2).
191 También a la variante esencialmente matemático-mecánica de la ciencia experimental, a lo que quizá se debe que no haya encontrado un entusiasmo al cien por cien en otras ciencias de la vida menos cuantificables o experimentales, como la zoología y la paleontología (véase Lewontin, 1973).
192 «Mi impresión general sobre la información disponible es que Homo sapiens es una especie animal muy característica en cuanto se refiere a la calidad y a la magnitud de la diversidad genética que afecta a su conducta. Si se me permite la comparación, la unidad psíquica de la especie humana ha rebajado su estatus, y de ser un dogma se ha convertido en una hipótesis verificable. Esto no es nada fácil de decir en el ambiente político actual de los Estados Unidos, y algunos sectores de la comunidad académica lo consideran una herejía punible. Pero si las ciencias sociales quieren ser honestas no tienen otra alternativa que afrontar directamente la cuestión. Es preferible que los científicos estudien la cuestión de la diversidad conductual genética que mantener una conspiración de silencio en nombre de las buenas intenciones» (Wilson. 1977, p. 133). El significado real de este retorcido párrafo es que las razas existen y que, por razones genéticas, en algunos aspectos concretos son permanentemente desiguales.
193 Como, en especial, la restricción de no experimentar con seres humanos.


En Historia del siglo XX (Londres-Nueva York, 1993-1994), Cap. XVIII
Traducción castellana de Juan Faci, Jordi Ainaud y Carmen Castells
Buenos Aires, Grijalbo Mondadori, 1999
Foto: Caricature by John Minnion of Eric Hobsbawm/Corbis