ERIC HOBSBAWM

 

LAS CIENCIAS NATURALES




 

I

 

Ningún otro período de la historia ha sido más impregnado por las ciencias naturales,

ni más dependiente de ellas, que el siglo XX. No obstante, ningún otro período, desde

la retractación de Galileo, se ha sentido menos a gusto con ellas. Esta es la paradoja

con que los historiadores del siglo deben lidiar. Pero antes de intentarlo, hay que

comprobar la magnitud del fenómeno.

 

En 1919 el número total de físicos y químicos alemanes y británicos juntos llegaba, quizás,

a los 8.000. A finales de los años ochenta, el número de científicos e ingenieros involucrados

en la investigación y el desarrollo experimental en el mundo, se estimaba en unos 5 millones,

de los que casi 1 millón se encontraban en los Estados Unidos, la potencia científica puntera,

y un número ligeramente mayor en los estados europeos. 1

 

Aunque los científicos seguían siendo una fracción mínima de la población, incluso en

los países desarrollados, su número crecía espectacularmente, y llegaría prácticamente a

doblarse en los veinte años posteriores a 1970, incluso en las economías más avanzadas.

Sin embargo, a fines de los ochenta eran la punta de un iceberg mucho mayor de lo que

podría llamarse personal científico y técnico potencial, que reflejaba en esencia la

evolución educativa de la segunda mitad del siglo (véase el capítulo 10). Representaban,

tal vez el 2 por 100 de la población global, y puede que el 5 por 100 de la población

estadounidense (UNESCO, 1991, cuadro 5. 1). Los científicos propiamente dichos eran

seleccionados por medio de tesis doctorales avanzadas que se convirtieron en el pasaporte

de entrada en la profesión. En los años ochenta un país occidental avanzado medio

generaba unos 130-140 de estos doctores en ciencias al año por cada millón de

habitantes (Observa-toire, 1991). Estos países empleaban también sumas astronómicas

en estas actividades, la mayoría de las cuales procedían del erario público, incluso en los

países de más ortodoxo capitalismo. De hecho, las formas más caras de la «alta ciencia»

estaban incluso fuera del alcance de cualquier país individual, a excepción (hasta los

años noventa) de los Estados Unidos.

 

De todas maneras, se produjo una gran novedad. Pese a que el 90 por 100 de las

publicaciones científicas (cuyo número se doblaba cada diez años) aparecían en cuatro

idiomas (inglés, ruso, francés y alemán), el eurocentrismo científico terminó en el siglo

XX. La era de las catástrofes y, en especial, el triunfo temporal del fascismo, desplazaron

su centro de gravedad a los Estados Unidos, donde ha permanecido. Entre 1900 y 1933

sólo se habían otorgado siete premios Nobel a los Estados Unidos, pero entre 1933 y

1970 se les concedieron setenta y siete. Los otros países de asentamiento europeo (Canadá,

Australia, la a menudo infravalorada Argentina)2 también se convirtieron en centros de

investigación independientes aunque algunos de ellos, por razones de tamaño o de política,

exportaron a la mayoría de sus principales científicos (Nueva Zelanda, Suráfrica, etc.)

 

Al mismo tiempo, el auge de los científicos no europeos, especialmente de Extremo

Oriente y del subcontinente indio, era muy notable. Antes del final de la segunda guerra

mundial sólo un asiático había ganado un premio Nobel en ciencias (C. Raman, en física,

el año 1930). Desde 1946 estos premios se han otorgado a más de diez investigadores con

nombre japonés, chino, hindú o paquistaní, aunque se sigue infravalorando el auge de la

ciencia asiática de la misma forma que antes de 1933 se infravaloraba el de la ciencia

estadounidense. Sin embargo, a fines del siglo todavía había zonas del mundo que

generaban muy pocos científicos en términos absolutos y aún menos en términos relativos,

como por ejemplo la mayor parte de África y de América Latina.

 

No obstante, resulta notable que al menos un tercio de los premiados asiáticos no

figuren como científicos de sus respectivos países de origen, sino como estadounidenses

(veintisiete de los laureados estadounidenses son inmigrantes de primera generación).

Porque, en un mundo cada vez más globalizado, el hecho de que las ciencias naturales

hablen un mismo lenguaje y empleen una misma metodología ha contribuido,

paradójicamente, a que se concentren en los pocos centros que disponen de los medios

adecuados para desarrollar su trabajo; es decir, en unos pocos países ricos altamente

desarrollados y, sobre todo, en los Estados Unidos.

 

Los cerebros del mundo que en la era de las catástrofes escaparon de Europa por

razones políticas, se han ido de los países pobres a los países ricos desde 1945

principalmente por razones económicas. 3 Esto es normal, puesto que durante los años

setenta y ochenta los países capitalistas desarrollados sumaban casi las tres cuartas partes

del total de las inversiones mundiales en investigación y desarrollo, mientras que los

países pobres («en desarrollo») no invertían más del 2 o 3 por 100 (UN World Social

Situation, 1989, p. 103).

 

Sin embargo, incluso dentro del mundo desarrollado la ciencia fue concentrándose

gradualmente, en parte debido a la reunión de científicos y recursos, por razones de

eficacia, y en parte porque el enorme crecimiento de los estudios superiores creó

inevitablemente una jerarquía, o más bien una oligarquía, entre sus instituciones. En los

años cincuenta y sesenta la mitad de los doctorados de los Estados Unidos salió de las

quince universidades de mayor prestigio, a las que procuraban acudir la mayoría de los

jóvenes científicos más brillantes. En un mundo democrático y populista, los científicos

formaban una elite que se concentró en unos pocos centros financiados. Como especie

se daban en grupo, porque la comunicación, el tener «alguien con quien hablar», era

fundamental para sus actividades. A medida que pasó el tiempo estas actividades fueron

cada vez más incomprensibles para los no científicos, aunque hiciesen un esfuerzo

desesperado por entenderlas con la ayuda de una amplia literatura de divulgación, escrita

algunas veces por los mejores científicos. En realidad, a medida que aumentaba la

especialización, incluso los propios científicos necesitaron revistas para explicarse

mutuamente lo que sucedía fuera de sus campos.

 

Que el siglo XX dependía de la ciencia es algo que no necesita demostración. La ciencia

«avanzada», es decir, el tipo de conocimiento que no podía adquirirse con la experiencia

cotidiana, ni practicarse o tan siquiera comprenderse sin muchos años de estudios, que

culminaban con unas esotéricas prácticas de posgrado, tuvo un estrecho margen de aplicación

hasta finales del siglo XIX. La física y las matemáticas del siglo XVII influían en los ingenieros,

mientras que, a mediados del reinado de Victoria, los descubrimientos químicos y eléctricos de

finales del siglo XVIII y principios del XIX eran ya esenciales para la industria y las

comunicaciones, y los estudios de los investigadores científicos profesionales se

consideraban la punta de lanza incluso de los avances tecnológicos. En resumen, la

tecnología basada en la ciencia estaba ya en el centro del mundo burgués del siglo

XIX, aunque la gente práctica no supiese muy bien qué hacer con los triunfos de la

teoría científica, salvo, en los casos adecuados, convertirla en ideología, como

sucedió en el siglo XVIII con Newton y a fines del XIX con Darwin.

 

Sin embargo, muchas áreas de la vida humana seguían estando regidas casi

exclusivamente por la experiencia, la experimentación, la habilidad, el sentido

común entrenado y, a lo sumo, la difusión sistemática de conocimientos sobre las

prácticas y técnicas disponibles. Este era claramente el caso de la agricultura, la

construcción, la medicina y de toda una amplia gama de actividades que satisfacían

las necesidades y los lujos de los seres humanos.

 

Esto empezó a cambiar en algún momento del último tercio del siglo. En la era

del imperio no sólo comenzaron a hacerse visibles los resultados de la alta tecnología

moderna (no hay más que pensar en los automóviles, la aviación, la radio y el

cinematógrafo), sino también los de las modernas teorías científicas: la relatividad, la

física cuántica o la genética. Se pudo ver además que los descubrimientos más

esotéricos y revolucionarios de la ciencia tenían un potencial tecnológico inmediato,

desde la telegrafía sin hilos hasta el uso médico de los rayos X, basados ambos en

descubrimientos realizados hacia 1890. No obstante, aun cuando la alta ciencia del

siglo XX era ya perceptible antes de 1914, y pese a que la alta tecnología de etapas

posteriores estaba ya implícita en ella, la ciencia no había llegado todavía a ser algo

sin lo cual la vida cotidiana era inconcebible en cualquier parte del mundo.

 

Y esto es lo que está sucediendo a medida que el milenio toca a su fin. Como

hemos visto (capítulo IX), la tecnología basada en las teorías y en la investigación

científica avanzada dominó la explosión económica de la segunda mitad del siglo

XX, y no sólo en el mundo desarrollado. Sin los conocimientos genéticos, la India e

Indonesia no hubieran podido producir suficientes alimentos para sus crecientes

poblaciones, y a finales de siglo la biotecnología se había convertido en un elemento

importante para la agricultura y la medicina.

 

El caso es que estas tecnologías se basaban en descubrimientos y teorías tan

alejados del entorno cotidiano del ciudadano medio, incluso en los países más

avanzados del mundo desarrollado, que sólo unas docenas, o a lo sumo unos

centenares de personas en todo el mundo podían entrever inicialmente que tenían

implicaciones prácticas. Cuando el físico alemán Otto Hahn descubrió la fisión

nuclear a principios de 1939, incluso algunos de los científicos más activos en ese campo,

como el gran Niels Bohr (1885-1962), dudaron de que tuviese aplicaciones prácticas en

la paz o en la guerra, por lo menos en un futuro previsible. Y si los físicos que

comprendieron su valor potencial no se lo hubieran comunicado a sus generales y a sus

políticos, éstos no se hubieran enterado de ello, salvo que fuesen licenciados en física, lo

que no era frecuente.

 

Por poner otro ejemplo, el célebre texto de Alan Turing de 1935, que proporcionaría los

fundamentos de la moderna teoría informática, había sido escrito originalmente como una

exploración especulativa para lógicos matemáticos. La guerra dio a él y a otros científicos

la oportunidad de traducir la teoría a unos primeros pasos de la práctica empleándola para

descifrar códigos, pero cuando el texto se publicó originalmente, nadie, a excepción de un

puñado de matemáticos, pareció enterarse de sus implicaciones. Este genio de tez pálida

y aspecto desmañado, que era por aquel entonces un joven becario aficionado al jogging

y que se convirtió póstumamente en una especie de ídolo para los homosexuales, no era

una figura destacada ni siquiera en su propia facultad universitaria, o al menos yo no lo

recuerdo como tal. 4 Incluso cuando los científicos se entregaban a la resolución de

problemas de importancia conocida, sólo unos pocos cerebros aislados en una pequeña parcela

intelectual podían darse cuenta de lo que se traían entre manos. Por ejemplo, el autor

de estas líneas era un becario en Cambridge durante la misma época en que Crick y Watson

preparaban su triunfal descubrimiento de la estructura del ADN (la «doble hélice»), que fue

inmediatamente reconocido como uno de los grandes acontecimientos científicos del siglo.

Sin embargo, aunque recuerdo que en aquella época coincidí con Crick en diversos actos

sociales, la mayoría de nosotros ignorábamos por completo que tan extraordinarios

acontecimientos tenían lugar a pocos metros de la puerta de nuestra facultad, en

laboratorios ante los que pasábamos regularmente y en bares donde íbamos a tomar unas

copas. No es que tales cuestiones no nos interesasen, sino que quienes trabajaban en ellas

no veían la necesidad de explicárnoslas, ya que ni hubiésemos podido contribuir a su

trabajo, ni siquiera comprendido exactamente cuáles eran sus dificultades.

 

No obstante, por más esotéricas o incomprensibles que fuesen las inno-

vaciones científicas, una vez logradas se traducían casi inmediatamente en

tecnologías prácticas. Así, los transistores surgieron, en 1948, como un subproducto de

investigaciones sobre la física de los sólidos, es decir, de las propiedades

electromagnéticas de cristales ligeramente imperfectos (sus inventores recibieron el

premio Nobel al cabo de ocho años); como sucedió con el láser (1960), que no surgió de

estudios sobre óptica, sino de trabajos para hacer vibrar moléculas en resonancia con un

campo eléctrico (Bernal, 1967, p. 563). Sus inventores también fueron rápidamente

recompensados con el premio Nobel, como lo fue, tardíamente, el físico soviético de

Cambridge Peter Kapitsa (1978) por sus investigaciones acerca de la física de bajas

temperaturas, que dieron origen a los superconductores.

 

La experiencia de las investigaciones realizadas durante la guerra, entre 1939 y

1946, que demostró, por lo menos a los anglonorteamericanos, que una gran concentración

de recursos podía resolver los problemas tecnológicos más complejos en un intervalo de

tiempo sorprendentemente corto, 5 animó a una búsqueda tecnológica sin tener en cuenta

los costes, ya fuese con fines bélicos o por prestigio nacional, como en la exploración del

espacio. Esto, a su vez, aceleró la transformación de la ciencia de laboratorio en

tecnología, parte de la cual demostró tener una amplia aplicación a la vida cotidiana. El

láser es un ejemplo de esta rápida transformación. Visto por primera vez en un laboratorio en

1960, a principios de los ochenta había llegado ya a los consumidores a través del disco

compacto. La biotecnología llegó al público aún con mayor rapidez: las técnicas de

recombinación del ADN, es decir, las técnicas para combinar genes de una especie con

genes de otra, se consideraron factibles en la práctica en 1973. Menos de veinte años

después la biotecnología era una de las inversiones principales en medicina y agricultura.

 

Además, y gracias en buena medida a la asombrosa expansión de la información

teórica y práctica, los nuevos avances científicos se traducían, en un lapso de tiempo

cada vez menor, en una tecnología que no requería ningún tipo de comprensión por parte

de los usuarios finales. El resultado ideal era un conjunto de botones o un teclado a

prueba de tontos que sólo requería que se presionase en los lugares adecuados para

activar un proceso automático, que se autocorregía e incluso, en la medida de lo posible,

tomaba decisiones, sin necesitar nuevas aportaciones de las limitadas y poco fiables

habilidades e inteligencia del ser humano medio. En realidad, el proceso ideal podía

programarse para actuar sin ningún tipo de intervención humana a menos que algo se

estropease. El método de cobro de los supermercados de los años noventa tipificaba esta

eliminación del elemento humano. No requería del cajero más que el conocimiento de los

billetes y monedas del país y la acción de registrar la cantidad entregada por el

comprador.

 

Un lector automático traducía el código de barras de los productos en el precio de los

mismos, sumaba todas las compras, restaba el total de la cantidad dada por el

comprador e indicaba al cajero el cambio que tenía que devolver. El procedimiento

que se requiere para realizar todas estas actividades con seguridad es

extraordinariamente complejo, basado como está en la combinación de un hardware

altamente sofisticado con unos programas muy elaborados. Pero hasta que —o a

menos que— algo se estropease, estos milagros de la tecnología científica de finales

del siglo XX no pedían a los cajeros más que el conocimiento de los números

cardinales, una cierta atención y una capacidad mayor de tolerancia al aburrimiento.

Ni siquiera requería alfabetización. Por lo que hacía a la mayoría de ellos, las fuerzas

que les decían que debía informar al cliente que tenía que pagar 2 libras con 15

peniques y les explicaban que había de ofrecerle 7 libras y 85 peniques como cambio

por un billete de 10 libras no les importaban ni les eran comprensibles. No

necesitaban comprender nada acerca de las máquinas para trabajar con ellas. Los

aprendices de brujo ya no tenían que preocuparse por su falta de conocimientos.

 

A efectos prácticos, la situación del cajero del supermercado ejemplifica la norma

humana de finales de siglo: la realización de milagros con una tecnología científica

de vanguardia que no necesitamos comprender o modificar, aunque sepamos o

creamos saber cómo funciona. Alguien lo hará o lo ha hecho ya por nosotros. Porque,

aun cuando nos creamos unos expertos en un campo u otro, es decir, la clase de

persona que podría hacer funcionar un aparato concreto estropeado, que podría

diseñarlo o construirlo, enfrentados a la mayor parte de los otros productos

científicos y tecnológicos de uso diario somos unos neófitos ignorantes. Y aunque no

lo seamos, nuestra comprensión de lo que hace que una cosa funcione, y de los

principios en que se sustenta, son conocimientos de escasa utilidad, como lo son los

procesos técnicos de fabricación de las barajas para el jugador (honrado) de poker.

Los aparatos de fax han sido diseñados para que los utilicen personas que no tienen

ni la más remota idea de por qué una máquina reproduce en Londres un texto emitido

en Los Angeles. Y no funcionan mejor cuando los manejan profesores de electrónica.

 

Así, a través de la estructura tecnológicamente saturada de la vida humana, la

ciencia demuestra cada día sus milagros en el mundo de fines del siglo XX. Es tan

indispensable y omnipresente —ya que hasta en los rincones más remotos del planeta

se conocen el transistor y la calculadora electrónica— como lo es Alá para el

creyente musulmán. Podemos discutir cuándo se empezó a ser consciente, por lo

menos en las zonas urbanas de las sociedades industriales «desarrolladas», de la

capacidad que poseen algunas actividades humanas para producir resultados

sobrehumanos. Ello sucedió, con toda seguridad, tras la explosión de la primera

bomba atómica en 1945. Sin embargo, no cabe duda de que el siglo XX ha sido el

siglo en que la ciencia ha transformado tanto el mundo como nuestro conocimiento

del mismo.

 

Hubiéramos podido esperar que las ideologías del siglo XX glorificasen los logros de la

ciencia, que son los logros de la mente humana, tal como hicieron las ideologías laicas del

siglo XIX. Hubiéramos esperado también que se debilitase la resistencia de las ideologías

religiosas tradicionales, que durante el siglo pasado fueron los grandes reductos de

resistencia a la ciencia. Y ello no sólo porque el arraigo de las religiones tradicionales

disminuyó durante todo el siglo, como veremos, sino también porque la propia religión

llegó a ser tan dependiente de la alta tecnología científica como cualquier otra actividad

humana en el mundo desarrollado. Un obispo, un imán o un santón podían actuar a

comienzos del siglo XX como si Galileo, Newton, Faraday o Lavoisier nunca hubieran

existido, es decir, sobre la base de la tecnología del siglo XV y de aquella parte de la del

siglo XIX que no plantease problemas de compatibilidad con la teología o los textos

sagrados. Resultó cada vez más difícil hacerlo en una época en que el Vaticano se veía

obligado a comunicarse vía satélite y a probar la autenticidad de la sábana santa de Turín

mediante la datación por radiocarbono, en que el ayatolá Jomeini difundía sus mensajes en

Irán mediante grabaciones magnetofónicas, y cuando los estados que seguían las leyes

coránicas trataban de equiparse con armas nucleares. La aceptación de facto de la ciencia

contemporánea más elevada a través de la tecnología que dependía de ella era tal que en la

Nueva York de fin de siglo las ventas de equipos electrónicos y fotográficos de alta

tecnología eran en buena medida la especialidad del jasidismo, una rama oriental del

judaismo mesiánico conocida sobre todo por su extremo ritualismo y por su insistencia en

llevar una indumentaria semejante a la de los polacos del siglo XVIII, y por preferir la

emoción extática a la investigación intelectual.

 

En algunos aspectos, la superioridad de la «ciencia» era aceptada incluso oficialmente.

Los fundamentalistas protestantes estadounidenses que rechazaban la teoría de la

evolución por ser contraria a las sagradas escrituras, ya que según éstas el mundo tal

como lo conocemos fue creado en seis días, exigían que la enseñanza de la teoría

darwinista se sustituyese o, al menos, se compensase, con la enseñanza de lo que ellos

describían como «ciencia de la creación».

 

Pese a todo, el siglo XX no se sentía cómodo con una ciencia de la que dependía y que

había sido su logro más extraordinario. El progreso de las ciencias naturales se realizó

contra un trasfondo de recelos y temores que, ocasionalmente, se convertía en un arrebato

de odio y rechazo hacia la razón y sus productos. Y en el espacio indefinido entre la

ciencia y la anticiencia, entre los que buscaban la verdad última por el absurdo y los

profetas de un mundo compuesto exclusivamente de ficciones, nos encontramos cada vez

más con la «ciencia ficción», ese producto —muy anglonorteamericano— característico

del siglo, en especial de su segunda mitad. Este género, anticipado por Julio Verne (1828-

1905), fue iniciado por H. G. Wells (1866-1946) a finales del siglo XIX. Mientras sus

formas más juveniles —como las series de televisión y los westerns espaciales

cinematográficos, con naves espaciales y rayos mortíferos en lugar de caballos y

revólveres— continuaban la vieja tradición de aventuras fantásticas con artilugios de alta

tecnología, en la segunda mitad del siglo las contribuciones más serias al género empezaron

a ofrecer una versión sombría, o cuando menos ambigua, de la condición humana y de sus

expectativas.

 

Los recelos y temores hacia la ciencia se vieron alimentados por cuatro sentimientos: el

de que la ciencia era incomprensible; que sus consecuencias (ya fuesen) prácticas (o

morales) eran impredecibles y probablemente catastróficas; que ponía de relieve la

indefensión del individuo y que minaba la autoridad. Sin olvidar el sentimiento de que la

ciencia era intrínsecamente peligrosa en la medida en que interfería el orden natural de las

cosas. Los dos sentimientos que he mencionado en primer lugar eran compartidos por

científicos y legos; los dos últimos correspondían más bien a los legos. Las personas sin

formación científica sólo podían reaccionar contra su sensación de impotencia intentando

explicar lo que «la ciencia no podía explicar», en la línea de la afirmación de Hamlet de

que «hay más cosas en el cielo y la tierra... de las que puede soñar tu filosofía»; negándose

a creer que la «ciencia oficial» pudiera explicarlas y ansiosos por creer en lo inexplicable

porque parecía absurdo. En un mundo desconocido e inexplicable todos nos enfrentaríamos

a la misma impotencia. Cuanto más palpables fuesen los éxitos de la ciencia,

mayor era el ansia por explicar lo inexplicable.

 

Poco después de la segunda guerra mundial, que culminó en la bomba atómica, los

Estados Unidos (1947) —seguidos poco tiempo después, como de costumbre, por sus

parientes culturales británicos— se pusieron a observar la llegada masiva de OVNIs,

«objetos volantes no identificados», evidentemente inspirados por la ciencia ficción. Se

creyó de buena fe que estos objetos procedían de civilizaciones extraterrestres, distintas y

superiores a la nuestra. Los observadores más entusiastas llegaron a ver cómo sus pasajeros,

con cuerpos de extraño aspecto, emergían de esos «platillos volantes», y un par de ellos

hasta aseguraron haber dado un paseo en sus naves. El fenómeno adquirió una dimensión

mundial, aunque un mapa de los aterrizajes de estos extraterrestres mostraría una notable

predilección por aterrizar o circular sobre territorios anglosajones. Cualquier actitud

escéptica respecto de los ovnis se achacaba a Jos celos de unos científicos estrechos de

miras que eran incapaces de explicar los fenómenos que se producían más allá de su limitado

horizonte, o incluso a una conspiración de quienes mantenían al hombre de la calle en

una servidumbre intelectual para mantenerle lejos de la sabiduría superior.

 

Estas no eran las creencias en la magia y en los milagros propias de las sociedades

tradicionales, para quienes tales intervenciones en la realidad formaban parte de unas vidas

muy poco controlables, y eran mucho menos sorprendentes que, por poner un ejemplo, la

contemplación de un avión o la experiencia de hablar por teléfono. Ni formaban parte

tampoco de la universal y permanente fascinación humana por todo lo monstruoso, lo raro

y lo maravilloso, de que la literatura popular ha dado testimonio desde la invención de la

imprenta y los grabados en madera hasta las revistas ilustradas de supermercado.

Expresaban un rechazo a las reivindicaciones y dictados de la ciencia, a veces conscientemente,

como en la extraordinaria (y norteamericana) rebelión de algunos grupos marginales contra

la práctica de fluorizar los suministros de agua cuando se descubrió que la ingestión

diaria de este elemento reducía drásticamente los problemas dentales de la población

urbana. Estos grupos se resistieron apasionadamente a la fluorización no sólo por defender

su libertad de tener caries, sino, por parte de sus antagonistas más extremos, por considerarla

una vil conspiración para debilitar a los seres humanos envenenándolos. En este tipo de

reacciones, vivamente reflejadas por Stanley Kubrik en 1963 con su película ¿Teléfono rojo?

Volamos hacia Moscú, los recelos hacia la ciencia se mezclaban con el miedo a sus consecuencias prácticas.

 

El carácter enfermizo de la cultura norteamericana ayudó también a difundir estos

temores, a medida que la vida se veía cada vez más inmersa en la nueva tecnología,

incluyendo la tecnología médica, con sus riesgos. La predisposición peculiar de los

norteamericanos para resolver todas las disputas humanas a través de litigios nos permite

hacer un seguimiento de estos miedos (Huber, 1990, pp. 97-118). ¿Causaban los

espermaticidas defectos en el nacimiento? ¿Eran los tendidos eléctricos de alta tensión

perjudiciales para la salud de las personas que vivían cerca de ellos? La distancia entre los

expertos, que tenían algún criterio a partir del cual juzgar, y los legos, que sólo tenían

esperanza o miedo, se ensanchó a causa de la diferencia entre una valoración

desapasionada, que podía considerar que un pequeño grado de riesgo era un precio aceptable

a cambio de un gran beneficio, y los individuos que, comprensiblemente, deseaban un

riesgo cero, al menos en teoría. 6

 

Estos eran los temores que la desconocida amenaza de la ciencia causaba a los

hombres y mujeres que sólo sabían que vivían bajo su dominio. Temores cuya intensidad

y objeto variaba según la naturaleza de sus puntos de vista y temores acerca de la

sociedad contemporánea (Fischhof et al., 1978, pp. 127-152). 7

 

Sin embargo, en la primera mitad del siglo las mayores amenazas para la ciencia no

procedían de quienes se sentían humillados por su vasto e incontrolable poder, sino de

quienes creían poder controlarla. Los dos únicos tipos de regímenes políticos que (aparte

de las entonces raras conversiones al fundamentalismo religioso) dificultaron la

investigación científica estaban profundamente comprometidos en principio con el progreso

técnico ilimitado y, en uno de los casos, con una ideología que lo identificaba con la «ciencia»

y que alentaba a la conquista del mundo en nombre de la razón y la experimentación. Así, tanto

el estalinismo como el nacionalsocialismo alemán rechazaban la ciencia, aunque con

diferentes argumentos y pese a que ambos la empleasen para fines tecnológicos. Lo que

ambos objetaban era que desafiase visiones del mundo y valores expresados en forma de

verdades a priori.

 

Ninguno de los dos se sentía a gusto con la física posteinsteiniana. Los nazis la

rechazaban por «judía» y los ideólogos soviéticos porque no era suficientemente

«materialista», en el sentido que Lenin daba al término, si bien ambos la toleraron en la

práctica, puesto que los estados modernos no podían prescindir de los físicos

posteinsteinianos. Sin embargo, los nazis se privaron de los mejores talentos dedicados a

la física en la Europa continental al forzar al exilio a los judíos y a otros antagonistas

políticos, destruyendo así, de paso, la supremacía científica germana de principios de siglo.

Entre 1900 y 1933, 25 de los 66 premios Nobel de física y de química habían correspondido

a Alemania, mientras que después de 1933 sólo recibió uno de cada diez. Ninguno

de los dos regímenes sintonizaba tampoco con las ciencias biológicas.

 

La política racial de la Alemania nazi horrorizó a los genetistas responsables que —

sobre todo debido al entusiasmo de los racistas por la eugenesia— habían empezado ya

desde la primera guerra mundial a marcar distancias respecto de las políticas de selección

genética y reproducción humana (que incluía la eliminación de los débiles y «tarados»),

aunque debamos admitir con tristeza que el racismo nazi encontró bastante apoyo entre los

médicos y biólogos alemanes (Proctor, 1988).

 

En la época de Stalin, el régimen soviético se enfrentó con la genética, tanto por

razones ideológicas como porque la política estatal estaba comprometida con el principio

de que, con un esfuerzo suficiente, cualquier cambio era posible, siendo así que la ciencia

señalaba que este no era el caso en el campo de la evolución en general y en el de la

agricultura en particular. En otras circunstancias, la polémica entre los biólogos

evolucionistas seguidores de Darwin (que consideraban que la herencia era genética) y los

seguidores de Lamarck (que creían en la transmisión hereditaria de los caracteres adquiridos

y practicados durante la vida de una criatura) se hubiera ventilado en seminarios y

laboratorios. De hecho, la mayoría de los científicos la consideraban decidida en favor de

Darwin, aunque sólo fuese porque nunca se encontraron pruebas satisfactorias de la

transmisión hereditaria de los caracteres adquiridos. Bajo Stalin, un biólogo marginal,

Trofim Denisovich Lysenko (1898-1976), obtuvo el apoyo de las autoridades políticas

argumentando que la producción agropecuaria podía multiplicarse aplicando métodos lamarckianos,

que acortaban el relativamente lento proceso ortodoxo de crecimiento y cría

de plantas y animales. En aquellos días no resultaba prudente disentir de las autoridades.

El académico Nikolai Ivanovich Vavilov (1885- 1943), el genetista soviético de mayor prestigio,

murió en un campo de trabajo por estar en desacuerdo con Lysenko —como lo estaban el resto

de los genetistas soviéticos responsables—, aunque no fue hasta después de la segunda guerra

mundial cuando la biología soviética decidió rechazar oficialmente la genética tal

como se entendía en el resto del mundo, por lo menos hasta la desaparición del

dictador. El efecto que ello tuvo en la ciencia soviética fue, como era de prever,

devastador.

 

El régimen nazi y el comunista soviético, pese a todas sus diferencias, compartían

la creencia de que sus ciudadanos debían aceptar una «doctrina verdadera», pero una

que fuese formulada e impuesta por las autoridades seculares político-ideológicas.

De aquí que la ambigüedad y la desazón ante la ciencia que tantas sociedades

experimentaban encontrase su expresión oficial en esos dos estados, a diferencia de

lo que sucedía en los regímenes políticos que eran agnósticos respecto a las creencias

individuales de sus ciudadanos, como los gobiernos laicos habían aprendido a ser

durante el siglo XIX. De hecho, el auge de regímenes de ortodoxia seglar fue, como

hemos visto (capítulos IV y XIII), un subproducto de la era de las catástrofes, y no

duraron. En cualquier caso, el intento de sujetar a la ciencia en camisas de fuerza

ideológicas tuvo resultados contraproducentes aun en aquellos casos en que se hizo

seriamente (como en el de la biología soviética), o ridículos, donde la ciencia fue

abandonada a su propia suerte, mientras se limitaban a afirmar la superioridad de la

ideología (como sucedió con la física alemana y soviética). 8

 

A finales del siglo XX la imposición de criterios oficiales a la teoría científica

volvió a ser practicada por regímenes basados en el fundamentalismo religioso. Sin

embargo, la incomodidad general ante ella persistía, mientras iba resultando cada vez

más increíble e incierta. Pero hasta la segunda mitad del siglo esta incomodidad no

se debió al temor por los resultados prácticos de la ciencia.

 

Es verdad que los propios científicos supieron mejor y antes que nadie cuáles

podrían ser las consecuencias potenciales de sus descubrimientos. Desde que la

primera bomba atómica resultó operativa, en 1945, algunos de ellos alertaron a sus

jefes de gobierno acerca del poder destructivo que el mundo tenía ahora a su

disposición. Sin embargo, la idea de que la ciencia equivale a una catástrofe

potencial pertenece, esencialmente, a la segunda mitad del siglo: en su primera fase

—la de la pesadilla de una guerra nuclear— corresponde a la era de la confrontación

entre las superpotencias que siguió a 1945; en su fase posterior y más universal, a la

era de crisis que comenzó en los setenta. Por el contrario, la era de las catástrofes,

quizás porque frenó el crecimiento económico, fue todavía una etapa de complacencia

científica acerca de la capacidad humana de controlar las fuerzas de la naturaleza

o, en el peor de los casos, acerca de la capacidad por parte de la naturaleza de ajustarse a

lo peor que el hombre le podía hacer. 9 Por otra parte, lo que inquietaba a los científicos

era su propia incertidumbre acerca de lo que tenían que hacer con sus teorías y sus hallazgos.

 

II

 

En algún momento de la era del imperio se rompieron los vínculos entre los hallazgos

científicos y la realidad basada en la experiencia sensorial, o imaginable con ella; al igual

que los vínculos entre la ciencia y el tipo de lógica basada en el sentido común, o

imaginable con él. Estas dos rupturas se reforzaron mutuamente, ya que el progreso de las

ciencias naturales dependió crecientemente de personas que escribían ecuaciones —es

decir, formulaciones matemáticas— en hojas de papel, en lugar de experimentar en el

laboratorio. El siglo XX iba a ser el siglo en que los teóricos dirían a los técnicos lo que

tenían que buscar y encontrar a la luz de sus teorías. Dicho en otros términos, iba a ser el

siglo de las matemáticas. La biología molecular, campo en que, según me informa una

autoridad en la materia, existe muy poca teoría, es una excepción.

 

No es que la observación y la experimentación fuesen secundarias. Al contrario, sus

tecnologías sufrieron una revolución mucho más profunda que en cualquier otra etapa

desde el siglo XVII, con nuevos aparatos y técnicas, muchas de las cuales recibirían el

espaldarazo científico definitivo del premio Nobel. 10 Por poner sólo un ejemplo, las

limitaciones de la ampliación óptica se superaron gracias al microscopio electrónico, en

1937, y al radiotelescopio, en 1957, con el resultado de permitir observaciones más

profundas del reino molecular e incluso atómico, así como de los confines más remotos

del universo.

 

En las décadas recientes la automatización de las rutinas y la informatización de las

actividades y los cálculos de laboratorio, cada vez más complejos, ha aumentado

considerablemente el poder de los experimentadores, de los observadores y de los

teóricos dedicados a la construcción de modelos. En algunos campos, como el de la

astronomía, esta automatización e informatización desembocó en descubrimientos, a

veces accidentales, que condujeron a una innovación teórica. La cosmología moderna es,

en el fondo, el resultado de dos hallazgos de este tipo: el de Hubble, que descubrió que el

universo está en expansión basándose en el análisis de los espectros de las galaxias (1929),

y el descubrimiento de Penzias y Wilson de la radiación cósmica de fondo (ruido de

radio) en 1965. Sin embargo, a pesar de que la ciencia es y debe ser una colaboración entre

teoría y práctica, en el siglo XX los teóricos llevaban el volante.

 

Para los propios científicos la ruptura con la experiencia sensorial y con el sentido

común significó una ruptura con las certezas tradicionales de su campo y con su

metodología. Sus consecuencias pueden ilustrarse claramente siguiendo la trayectoria de la

física, la reina indiscutible de las ciencias durante la primera mitad del siglo. De hecho, en la

medida en que es todavía la única que se ocupa tanto del estudio de los elementos más

pequeños de la materia, viva o muerta, como de la constitución y estructura del mayor

conjunto de materia, el universo, la física siguió siendo el pilar fundamental de las ciencias

naturales incluso a finales de siglo, aunque en la segunda mitad tuvo que afrontar la dura

competencia de las ciencias de la vida, transformadas después de los años cincuenta, tras la

revolución de la biología molecular.

 

Ningún otro ámbito científico parecía más sólido, coherente y metodológicamente seguro

que la física newtoniana, cuyos fundamentos se vieron socavados por las teorías de Planck

y de Einstein, así como por la transformación de la teoría atómica que siguió al

descubrimiento de la radiactividad en la década de 1890. Era objetiva, es decir, se podía

observar adecuadamente, en la medida en que lo permitían las limitaciones técnicas de los

aparatos de observación (por ejemplo, las del microscopio óptico o del telescopio). No era

ambigua: un objeto o un fenómeno eran una cosa u otra, y la distinción entre ambos

casos estaba clara. Sus leyes eran universales, válidas por igual en el ámbito cósmico y

en el microscópico. Los mecanismos que relacionaban los fenómenos eran comprensibles,

esto es, susceptibles de expresarse en términos de «causa y efecto». En consecuencia, todo

el sistema era en principio determinista y el propósito de la experimentación en el laboratorio

era demostrar esta determinación eliminando, hasta donde fuera posible, la compleja

mezcolanza de la Vida ordinaria que la ocultaba. Sólo un tonto o un niño podían sostener

que el vuelo de los pájaros y de las mariposas negaba las leyes de la gravitación. Los

científicos sabían muy bien que había afirmaciones «no científicas», pero éstas no les

atañían en cuanto científicos.

 

Todas estas características se pusieron en entredicho entre 1895 y 1914. ¿Era la luz una

onda en movimiento continuo o una emisión de partículas separadas (fotones) como

sostenía Einstein, siguiendo a Planck? Unas veces era mejor considerarla del primer

modo; otras, del segundo. Pero ¿cómo estaban conectados, si lo estaban, ambos? ¿Qué

era «en realidad» la luz? Como afirmó el gran Einstein veinte años después de haber

creado el rompecabezas, «ahora tenemos dos teorías sobre la luz, ambas indispensables,

pero debemos admitir que no hay ninguna conexión lógica entre ellas, a pesar de los

veinte años de grandes esfuerzos realizados por los físicos teóricos» (Holton, 1970, p. 1.

017). ¿Qué pasaba en el interior del átomo, que ahora ya no se consideraba (como

implicaba el nombre griego) la unidad de materia más pequeña posible y, por ello,

indivisible, sino como un sistema complejo integrado por diversas partículas aún más

elementales? La primera suposición, después del gran descubrimiento del núcleo

atómico realizado por Rutherford en 1911 en Manchester —un triunfo de la imaginación

experimental y el fundamento de la moderna física nuclear y de lo que se convirtió en «gran

ciencia»—, fue que los electrones describían órbitas alrededor de este núcleo a la

manera de un sistema solar en miniatura. No obstante, cuando se investigó la

estructura de átomos individuales, en especial la del de hidrógeno realizada en 1912-

1913 por Niels Bohr, que conocía la teoría de los «cuantos» de Max Planck, los

resultados mostraron, una vez más, un profundo conflicto entre lo que hacían los

electrones y, empleando sus propias palabras, «el cuerpo de concepciones, de una

admirable coherencia, que se ha dado en llamar, con toda corrección, la teoría

electrodinámica clásica» (Holton, 1970, p. 1. 028). El modelo de Bohr funcionaba, es

decir, poseía una brillante potencia explicativa y predictiva, pero era «bastante

irracional y absurdo» desde el punto de vista de la mecánica newtoniana clásica y, en

cualquier caso, no daba ninguna idea de lo que sucedía en realidad dentro del átomo

cuando un electrón «saltaba» o pasaba de alguna manera de una órbita a otra, o de lo

que sucedía entre el momento en que era descubierto en una y aquel en que aparecía

en otra.

 

Les sucedía lo que les ocurrió a las certidumbres de la propia ciencia a medida

que se fue viendo cada vez más claro que el mismo proceso de observar fenómenos a

nivel subatómico los modificaba: por esta razón, cuanto con más precisión queramos

saber la posición de una partícula atómica, menos certeza tendremos acerca de su

velocidad. Como se ha dicho de todos los medios para observar detalladamente

dónde está «realmente» un electrón, «mirarlo es hacerlo desaparecer» (Weisskopf,

1980, p. 37). Esta fue la paradoja que un brillante y joven físico alemán, Werner

Heisenberg, generalizó en 1927 con el famoso «principio de indeterminación» que

lleva su nombre. El mero hecho de que el nombre haga hincapié en la

indeterminación o incertidumbre resulta significativo, puesto que indica qué es lo

que preocupaba a los exploradores del nuevo universo científico a medida que

dejaban tras de sí las certidumbres del universo antiguo. No es que ellos mismos

dudasen o que obtuviesen resultados dudosos. Por el contrario, sus predicciones

teóricas, por raras y poco plausibles que fuesen, fueron verificadas por las observaciones

y los experimentos rutinarios, a partir del momento en que la teoría general

de la relatividad de Einstein (1915) pareció verse probada en 1919 por una

expedición británica que, al observar un eclipse, comprobó que la luz de algunas

estrellas distantes se desviaba hacia el Sol, como había predicho la teoría. A efectos

prácticos, la física de las partículas estaba tan sujeta a la regularidad y era tan

predecible corno la física de Newton, si bien de forma distinta y, en todo caso,

Newton y Galileo seguían siendo válidos en el nivel supraatómico. Lo que ponía

nerviosos a los científicos era que no sabían cómo conciliar lo antiguo con lo

moderno.

 

Entre 1924 y 1927 las dualidades que habían preocupado a los físicos durante el

primer cuarto de siglo fueron eliminadas, o más bien soslayadas, gracias a un

brillante golpe dado por la física matemática: la construcción de la «mecánica

cuántica», que se desarrolló casi simultáneamente en varios países. La verdadera

«realidad» que había dentro del átomo no era o una onda o una partícula, sino

«estados cuánticos» indivisibles que se podían manifestar en cualquiera de

estas dos formas, o en ambas. Era inútil considerarlo como un movimiento continuo o

discontinuo, porque nunca se podrá seguir, paso a paso, la senda del electrón.

 

Los conceptos clásicos de la física, como la posición, la velocidad o el impulso, no

son aplicables más allá de ciertos puntos, señalados por el «principio de indeterminación»

de Heisenberg. Pero, por supuesto, más allá de estos puntos se aplican otros conceptos

que dan lugar a resultados que no tienen nada de inciertos, y que surgen de los modelos

específicos producidos por las «ondas» o vibraciones de electrones (con carga negativa)

mantenidos dentro del reducido espacio del átomo cercano al núcleo (positivo). Sucesivos

«estados cuánticos» dentro de este espacio reducido producen unos modelos bien

definidos de frecuencias diferentes que, como demostró Schrodinger en 1926, se podían

calcular del mismo modo que podía calcularse la energía que corresponde a cada uno

(«mecánica ondulatoria»).

 

Estos modelos de electrones tenían un poder predictivo y explicativo muy notable.

Así, muchos años después, cuando en Los Álamos se produjo plutonio por primera vez

mediante reacciones nucleares, durante el proceso de fabricación de la primera bomba

atómica, las cantidades eran tan pequeñas que sus propiedades no podían observarse. Sin

embargo, a partir del número de electrones en el átomo de este elemento, y a partir de los

modelos para estos noventa y cuatro electrones que vibraban alrededor del núcleo, y sin

nada más, los científicos predijeron, acertadamente, que el plutonio resultaría ser un

metal marrón con una masa específica de unos veinte gramos por centímetro cúbico, y que

poseería una determinada conductividad y elasticidad eléctrica y térmica. La mecánica

cuántica explicó también por qué los átomos (y las moléculas y combinaciones superiores

basadas en ellos) permanecen estables o, más bien, qué carga suplementaria de energía

sería necesaria para cambiarlos. En realidad, se ha dicho que:  incluso los fenómenos de la

vida (la forma del ADN y el que diferentes nucleótidos sean resistentes a oscilaciones térmicas

a temperatura ambiente) se basan en estos modelos primarios. El hecho de que cada primavera

broten las mismas flores se basa en la estabilidad de los modelos de los diferentes nucleótidos (Weisskopf, 1980, pp. 35-38).

 

No obstante, este avance tan grande y tan fructífero en la exploración de la naturaleza

se alcanzó sobre las ruinas de todo lo que la teoría científica había considerado cierto y

adecuado, y por una suspensión voluntaria del escepticismo que no sólo los científicos de

mayor edad encontraban inquietante. Consideremos la «antimateria» que propuso desde

Cambridge Paul Dirac, una vez descubrió, en 1928, que sus ecuaciones tenían soluciones

que correspondían a estados del electrón con una energía menor que la energía cero del

espacio vacío. Desde entonces el término «antimateria», que carece de sentido en términos

cotidianos, fue alegremente manejado por los físicos (Weinberg, 1977, pp. 23-24).

La palabra misma implicaba un rechazo deliberado a permitir que el progreso del cálculo

teórico se desviase a causa de cualquier noción preconcebida de la realidad: fuera lo que

fuese en último término la realidad, respondería a lo que mostraban las ecuaciones.

Y sin embargo, esto no era fácil de aceptar, ni siquiera para aquellos científicos que habían

olvidado ya la opinión de Rutherford de que no podía considerarse buena una física que no

pudiese explicarse a una camarera.

 

Hubo pioneros de la nueva ciencia a quienes les resultó imposible aceptar el fin de

las viejas certidumbres, incluyendo a sus fundadores, Max Planck y el propio Albert

Einstein, quien expresó sus recelos en el reemplazo de la causalidad determinista por

leyes puramente probabilísticas con la famosa frase: «Dios no juega a los dados». Einstein

no tenía argumentos válidos, pero comentó: «una voz interior me dice que la mecánica

cuántica no es la verdad» (citado en Jammer, 1966, p. 358).

 

Más de uno de los propios revolucionarios cuánticos había soñado en eliminar las

contradicciones, subsumiendo unas bajo otras. Por ejemplo, Schrodinger creyó que su

«mecánica ondulatoria» había diluido los presuntos «saltos» de los electrones de una

órbita atómica a otra en el proceso continuo del cambio energético, con lo que se

preservaban el espacio, el tiempo y la causalidad clásicas. Algunos pioneros de la

revolución reacios a aceptar sus consecuencias extremas, como Planck y Einstein,

respiraron con alivio, pero fue en vano. El juego era nuevo y las viejas reglas ya no

servían.

 

¿Podían aprender los físicos a vivir en una contradicción permanente? Niéls Bohr

pensaba que podían y debían hacerlo. No había manera de expresar la naturaleza en su

conjunto con una única descripción, dada la condición del lenguaje humano. No podía

haber un solo modelo que lo abarcase todo directamente. La única forma de aprehender la

realidad era describirla de modos diferentes y juntar todas las descripciones para que se

complementasen unas con otras, en una «superposición exhaustiva de descripciones

distintas que incorporan nociones aparentemente contradictorias» (Holton, 1970, p. 1.

018). Este era el «principio de complementariedad» de Bohr, un concepto metafísico

relacionado con la relatividad, que dedujo de autores muy alejados del mundo de la física, y

al que se asignó una aplicación universal. La «complementariedad» de Bohr no se proponía

contribuir al avance de las investigaciones de los científicos atómicos, sino más bien

tranquilizarles justificando su confusión. Su atractivo no pertenece al ámbito de la razón.

Porque aunque todos nosotros, y mucho más los científicos inteligentes, sabemos que

hay formas distintas de percibir la realidad, no siempre comparables e incluso

contradictorias, y que se necesitan todas para aprehenderla en su globalidad, no tenemos

idea de cómo conectarlas. El efecto de una sonata de Beethoven se puede analizar física,

fisiológica y psicológicamente, y también se puede asimilar escuchándola, pero ¿cómo se

conectan estas formas de comprensión? Nadie lo sabe.

 

Sin embargo, la incomodidad persistió. Por un lado estaba la síntesis de la nueva física

de mediados de los años veinte, que proporcionaba un procedimiento muy efectivo para

introducirse en las cámaras blindadas de la naturaleza. Los conceptos básicos de la revolución

de los cuantos seguían aplicándose a fines del siglo XX. Y a menos que sigamos a quienes

consideran que el análisis no lineal, posible gracias a los ordenadores, es un punto de partida

radicalmente nuevo, debemos convenir que desde el período de 1900-1927 la física no ha

experimentado ninguna revolución, sino tan sólo gigantescos avances evolutivos dentro del

mismo marco conceptual.

 

Por otro lado, hubo una incoherencia generalizada, que en 1931 alcanzó el último

reducto de la certidumbre: las matemáticas. Un lógico matemático austriaco, Kurt Gödel,

demostró que un sistema de axiomas nunca puede basarse en sí mismo. Si hay que

demostrar su solidez, hay que recurrir a afirmaciones externas al sistema. A la luz del

«teorema de Gödel» no se puede tan siquiera pensar en un mundo no contradictorio e

internamente consistente.

 

Tal era «la crisis de la física», si se me permite citar el título de un libro escrito por un

joven intelectual británico, autodidacto y marxista, que murió en España: Christopher

Caudwell (1907-1937). No se trataba tan sólo de una «crisis de los fundamentos», como se

llamó en matemáticas al período de 1900-1930 (véase La era del imperio, capítulo 10),

sino también de la visión que los científicos tenían del mundo en general. En realidad, a

medida que los físicos aprendieron a despreocuparse por las cuestiones filosóficas, al

tiempo que se sumergían en el nuevo territorio que se abría ante ellos, el segundo aspecto

de la crisis se hizo todavía mayor, ya que durante los años treinta y cuarenta la estructura

del átomo se fue complicando de año en año. La sencilla dualidad de núcleo positivo y

electrón(es) negativo(s) ya no bastaba. Los átomos estaban habitados por una fauna y

flora crecientes de partículas elementales, algunas de las cuales eran verdaderamente

extrañas. Chadwick, de Cambridge, descubrió la primera de ellas en 1932, los neutrones,

partículas que tienen casi la misma masa que un protón pero sin carga eléctrica. Sin

embargo, con anterioridad ya se habían anticipado teóricamente otras partículas, como los

neutrinos, partículas sin masa y eléctricamente neutrales.

 

Estas partículas subatómicas, efímeras y fugaces, se multiplicaban sobre todo con los

aceleradores de alta energía de la «gran ciencia», disponibles después de la segunda

guerra mundial. A finales de los años cincuenta había más de un centenar de ellas y no se

divisaba su final. El panorama se complicó además, desde comienzos de los treinta, con

el descubrimiento de dos fuerzas oscuras y desconocidas que operaban dentro del átomo,

además de las fuerzas eléctricas que mantenían unido al núcleo con los electrones. Eran las

llamadas fuerza de «interacción fuerte», que ligaban el neutrón y el protón de carga

positiva con el núcleo atómico, y de «interacción débil», responsable de ciertos tipos de

descomposición de las partículas.

 

En el marasmo conceptual sobre el que se edificaron las ciencias del siglo XX, había

sin embargo un presupuesto básico y esencialmente estético que no se puso en duda. Y

que, a medida que la incertidumbre iba cubriendo a los demás, se fue haciendo cada vez

más central para los científicos. Éstos, al igual que Keats, creían que «la belleza es verdad,

y la verdad, belleza», aunque su criterio de belleza no coincidía con el del poeta. Una teoría

bella, lo que ya era en sí mismo una presunción de verdad, debe ser elegante, económica y

general. Debe unificar y simplificar, como lo habían hecho hasta entonces los grandes hitos

de la teoría científica.

 

La revolución científica de la época de Galileo y de Newton demostró que las leyes

que gobernaban el cielo y la tierra eran las mismas. La revolución química redujo la

infinita variedad de formas en que aparecía la materia a noventa y dos elementos

sistemáticamente conectados. El triunfo de la física del siglo XIX consistió en demostrar

que la electricidad, el magnetismo y los fenómenos ópticos tenían las mismas raíces. Sin

embargo, la nueva revolución científica no produjo una simplificación, sino una

complicación.

 

La maravillosa teoría de la relatividad de Einstein, que describía la gravedad como una

manifestación de la curvatura del espacio-tiempo, introdujo, de hecho, una dualidad

inquietante en la naturaleza: «por un lado, estaba el escenario: es decir, el espacio-tiempo

curvo, la gravedad; y por otro, los actores: los electrones, los protones, los campos

electromagnéticos... y no había conexión entre ellos» (Weinberg, 1979, p. 43). En los

últimos cuarenta años de su vida, Einstein, el Newton del siglo XX, trabajó para elaborar

una «teoría unificada» que enlazaría el electromagnetismo con la gravedad, pero no lo

consiguió y ahora existían otras dos clases, aparentemente no conectadas entre sí, de

fuerzas de la naturaleza, sin relación aparente con la gravedad y el electromagnetismo.

 

La multiplicación de las partículas subatómicas, por muy estimulante que fuese, sólo

podía ser una verdad temporal y preliminar porque, por muy hermosa que fuera en el

detalle, no había belleza en el nuevo átomo como la había habido en el viejo. Incluso los

pragmáticos puros de la época, para quienes el único criterio sobre la validez de una

hipótesis era que ésta funcionase, habían soñado alguna vez con una «teoría de todo» —

por emplear la expresión de un físico de Cambridge, Stephen Hawking— que fuese

noble, bella y general. Pero esta teoría parecía estar cada vez más lejana, pese a que

desde los años sesenta los físicos comenzaron, una vez más, a percibir la posibilidad de tal

síntesis. De hecho, en los años noventa volvió a extenderse entre los físicos la creencia

generalizada de que estaban a punto de alcanzar un nivel verdaderamente básico y que la

multiplicidad de partículas elementales podría reducirse a un grupo relativamente simple y

coherente.

 

Al mismo tiempo, y a caballo entre los indefinidos límites de disciplinas tan dispares

como la meteorología, la ecología, la física no nuclear, la astronomía, la dinámica de

fluidos y distintas ramas de las matemáticas desarrolladas independientemente en la

Unión Soviética y (algo más tarde) en Occidente, y con la ayuda del extraordinario

desarrollo de los ordenadores como herramientas analíticas y de inspiración visual, se iba

abriendo paso, o iba resurgiendo, un nuevo tipo de síntesis conocido con el nombre,

bastante engañoso, de «teoría del caos». Y era engañoso porque lo que revelaba no era

tanto los impredecibles resultados de procedimientos científicos perfectamente

deterministas, sino la extraordinaria universalidad de formas y modelos de la

naturaleza en sus manifestaciones más dispares y aparentemente inconexas. "

 

La teoría del caos ayudó a dar otra vuelta de tuerca a la antigua causalidad.

Rompió los lazos entre ésta y la posibilidad de predicción, puesto que no sostenía

que los hechos sucediesen de manera fortuita, sino que los efectos que se seguían de

unas causas específicas no se podían predecir. Ello reforzó, además, otra cuestión

avanzada por los paleontólogos y de considerable interés para los historiadores: la

sugerencia de que las cadenas de desarrollo histórico o evolutivo son perfectamente

coherentes y explicables después del hecho, pero que los resultados finales no se

pueden predecir desde el principio, porque, si se dan las mismas condiciones otra

vez, cualquier cambio, por insignificante o poco importante que pueda parecer en ese

momento, «hará que la evolución se desarrolle por una vía radicalmente distinta»

(Gould, 1989, p. 51). Las consecuencias políticas, económicas y sociales de este

enfoque pueden ser de largo alcance.

 

Por otra parte, estaba también el absurdo total de gran parte del nuevo mundo de

los físicos. Mientras estuviese confinado en el átomo, no afectaba directamente a la

vida cotidiana, en la que incluso los científicos estaban inmersos, pero hubo al menos

un nuevo e inasimilable descubrimiento que no se pudo poner también en cuarentena.

Este era el hecho extraordinario, que algunos habían anticipado a partir de la teoría

de la relatividad, y que había sido observado en 1929 por el astrónomo

estadounidense E. Hubble, de que el universo entero parecía expandirse a una

velocidad de vértigo. Esta expansión, que incluso muchos científicos encontraban

difícil de aceptar, por lo que algunos llegaron a idear teorías alternativas sobre el

«estado estacionario» del cosmos, fue verificada con la obtención de nuevos datos

astronómicos en los años sesenta. Era imposible no hacerse preguntas acerca de hacia

dónde se (y nos) dirigía esta expansión; acerca de cuándo y cómo comenzó y, por

consiguiente, especular sobre la historia del universo, empezando por el big bang o

explosión inicial.

 

Este descubrimiento produjo el floreciente campo de la cosmología, la parte de la

ciencia del siglo XX más apta para inspirar bestsellers, y aumentó enormemente el

papel de la historia en las ciencias naturales que, a excepción de la geología y sus

derivadas, habían manifestado hasta entonces una desdeñosa falta de interés por ella.

Disminuyó, además, la identificación de la ciencia «dura» con la experimentación,

es decir, con la reproducción de los fenómenos naturales. Porque ¿cómo se iban a repetir

hechos que eran irrepetibles por definición? Así, el universo en expansión se añadió a la

confusión en que estaban sumidos tanto los científicos como los legos.

 

Esta confusión hizo que quienes vivieron en la era de las catástrofes, y conocían o

reflexionaban sobre estas cuestiones, se reafirmasen en su convicción de que el

mundo antiguo había muerto o, como mínimo, estaba en una fase terminal, pero que

los contornos del nuevo no estaban todavía claramente esbozados. El gran Max

Planck no tenía dudas sobre la relación entre la crisis de la ciencia y de la vida

cotidiana:

 

Estamos viviendo un momento muy singular de la historia. Es un momento de

crisis en el sentido literal de la palabra. En cada rama de nuestra civilización espiritual

y material parecemos haber llegado a un momento crítico. Este espíritu se manifiesta

no sólo en el estado real de los asuntos públicos, sino también en la actitud general

hacia los valores fundamentales de la vida social y personal... Ahora, el iconoclasta

ha invadido el templo de la ciencia. Apenas hay un principio científico que no sea

negado por alguien. Y, al propio tiempo, cualquier teoría, por absurda que parezca,

puede hallar prosélitos y discípulos en un sitio u otro (Planck, 1933, p. 64).

 

Nada podía ser más natural que el hecho de que un alemán de clase media, educado

en las certidumbres del siglo XIX, expresase tales sentimientos en los días de la Gran

Depresión y de la ascensión de Hitler al poder.

 

Sin embargo, no era precisamente pesimismo lo que sentían la mayoría de los

científicos. Estaban de acuerdo con Rutherford, que en 1923, ante la British

Association, afirmó: «estamos viviendo en la era heroica de la física» (Howarth,

1978, p. 92). Cada nuevo ejemplar de las revistas científicas, cada coloquio (puesto

que a la mayoría de los científicos les encantaba, más que nunca, combinar

cooperación y competencia), traía avances nuevos, profundos y estimulantes. La

comunidad científica era todavía lo bastante reducida, al menos en disciplinas punta

como la física nuclear y la cristalografía, como para ofrecer a todo joven investigador

la posibilidad de alcanzar el estrellato. Ser un científico era ser alguien envidiado.

Quienes estudiábamos en Cambridge, de donde surgieron la mayoría de los treinta

premios Nobel británicos de la primera mitad del siglo —que, a efectos prácticos,

constituía la ciencia británica en ese tiempo—, sabíamos cuál era la materia que nos

hubiera gustado estudiar, si nuestras matemáticas hubieran sido lo suficientemente

buenas para ello.

 

En realidad, las ciencias naturales no podían esperar más que mayores hitos y

avances intelectuales, que hacían tolerables los parches, imperfecciones e

improvisaciones de las teorías al uso, puesto que éstas estaban destinadas a ser sólo

temporales. ¿Cómo iban a desconfiar del futuro personas que recibían premios Nobel

por trabajos realizados cuando contaban poco más de veinte años?12 Y, sin embargo,

¿cómo iban a poder los hombres (y las pocas mujeres) que seguían poniendo a prueba

la realidad de la vacilante idea de «progreso» en su ámbito de actividad, permanecer

inmunes ante la época de crisis y catástrofes en la que vivían?

 

No podían, y no lo hicieron. La era de las catástrofes fue, por tanto, una de las

comparativamente raras etapas en las que hubo científicos politizados, y no sólo porque se

demostró (cuando muchos de ellos tuvieron que emigrar de grandes zonas de Europa

porque eran considerados racial o ideológicamente inaceptables) que no podían dar por

supuesta su inmunidad personal. En todo caso, el científico británico característico de los

años treinta era miembro del «Grupo de científicos contra la guerra», organización

izquierdista radicada en Cambridge, y profesaba un radicalismo acentuado por el talante

abiertamente radical de sus mentores, cuyos méritos habían reconocido desde la Royal

Society hasta el premio Nobel: Bernal (cristalografía), Haldane (genética), Needham

(embriología química), 13 Blackett (física), Dirac (física) y el matemático G. H. Hardy, para

quien sólo había dos personajes en el siglo XX que pudieran compararse al jugador de

cricket australiano Don Bradman, a quien admiraba: Lenin y Einstein.

 

El típico físico joven estadounidense de los años treinta tendría probablemente

problemas políticos en la época de la guerra fría que siguió a la contienda, a causa de las

inclinaciones radicales que había manifestado antes de la guerra o que conservaba, como

les sucedió a Robert Oppenheimer (1904-1967), el gran artífice de la bomba atómica, y a

Linus Pauling, el químico (1901) que ganó dos premios Nobel, uno de ellos por su

contribución a la paz, y un premio Lenin. El científico francés típico era simpatizante del

Frente Popular en los años treinta y activista de la Resistencia durante la guerra, algo de

que no muchos franceses podían enorgullecerse. Y el científico refugiado característica de

la Europa central había de ser hostil al fascismo, por muy poco interesado que estuviese en

la vida pública. Los científicos que siguieron en los países fascistas y en la Unión Soviética

—o que no pudieron abandonarlos— no podían mantenerse al margen de la política de sus

gobiernos, tanto si simpatizaban con ella como si no, aunque sólo fuera por los gestos

públicos que les imponían, como el saludo nazi en la Alemania de Hitler, que el gran físico

Max von Laue (1897-1960) procuraba evitar llevando algo en las dos manos siempre

que salía de su casa.

 

A diferencia de lo que ocurre con las ciencias sociales o humanas, esta politización era

excepcional en las ciencias naturales, cuya materia no exige, ni siquiera sugiere —salvo en

ciertos ámbitos de las ciencias de la vida— opiniones sobre los asuntos humanos, aunque

a menudo las sugiera sobre Dios.

 

Sin embargo, los científicos estaban más directamente politizados por sus bien

fundadas creencias de que los legos, incluyendo a los políticos, no tenían ni idea del

extraordinario potencial que la ciencia moderna, adecuadamente empleada, ponía en

manos de la sociedad humana. Y tanto el colapso de la economía mundial como el

ascenso de Hitler parecieron confirmarlo de modos distintos. Por el contrario, la

devoción marxista oficial de la Unión Soviética y su inclinación hacia las ciencias

naturales engañó a muchos científicos occidentales de la época, haciéndoles creer

que era un régimen adecuado para realizar este potencial. La tecnocracia y el

radicalismo convergieron porque en este punto era la izquierda política, con su compromiso

ideológico con la ciencia, el racionalismo y el progreso (ridiculizado por los

conservadores mediante un neologismo, el «cientifismo»), 14 la que representaba

naturalmente el reconocimiento y el respaldo adecuados para «la función social de la

ciencia», por citar el título de un libro-manifiesto de gran influencia en esa época

(Bernal. 1939), escrito, como no podía ser menos, por un físico marxista brillante y

militante.

 

También es significativo que el gobierno del Frente Popular francés de 1936-

1939 creara la primera subsecretaría de investigación científica (dirigida por Irene

Joliot-Curie, galardonada con el Nobel) y desarrollase lo que aún hoy es el principal

mecanismo de subvención de la investigación francesa, el CNRS, Centre National de

la Recherche Scientifique. En realidad, cada vez resultaba más evidente, por lo

menos para los científicos, que la investigación no sólo necesitaba fondos públicos,

sino también una organización pública. Los servicios científicos del gobierno

británico, que en 1930 empleaban en su conjunto a un total de 743 científicos, eran

insuficientes (treinta años después daban empleo a más de 7. 000) (Bernal, 1967, p.

931).

 

La etapa de la ciencia politizada alcanzó su punto álgido en la segunda guerra

mundial, el primer conflicto (desde la era jacobina, durante la revolución francesa)

en que los científicos fueron movilizados de forma sistemática y centralizada con

fines militares, con mayor eficacia, probablemente, por parte de los aliados que por

parte de Alemania, Italia y Japón, porque los aliados no pretendían ganar la guerra

rápidamente con los métodos y los recursos de que disponían en aquel momento

(véase el capítulo I).

 

Trágicamente, la guerra atómica resultó ser hija del antifascismo. Una simple

guerra entre estados-nación no hubiera movido a la flor y nata de los físicos

nucleares, gran parte de ellos refugiados o exiliados del fascismo, a incitar a los

gobiernos británico y estadounidense a que construyeran la bomba atómica. Y el

mismo horror de estos científicos cuando la lograron, sus esfuerzos de última hora

para evitar que los políticos y militares la usasen, y su posterior resistencia a la

construcción de la bomba de hidrógeno, muestran la fuerza de las pasiones políticas.

En realidad, el apoyo que las campañas antinucleares impulsadas tras la segunda

guerra mundial encontraron entre la comunidad científica lo recibieron de los miembros

de las politizadas generaciones antifascistas.

 

Al mismo tiempo, la guerra acabó de convencer a los gobiernos de que dedicar

recursos inimaginables hasta entonces a la investigación científica era factible y esencial

para el futuro. Ninguna economía, excepto la de los Estados Unidos, podía haber reunido

dos mil millones de dólares (al valor de los tiempos de guerra) para construir la bomba

atómica en plena conflagración. Pero también es verdad que ningún gobierno, antes de

1940, hubiera soñado en gastar ni siquiera una pequeña fracción de todo ese dinero en un

proyecto hipotético, basado en los cálculos incomprensibles de unos académicos

melenudos. Después de la guerra sólo el cielo o, mejor dicho, la capacidad económica fue

el límite del gasto y de los empleos científicos de los gobiernos. En los años setenta el

gobierno estadounidense sufragaba los dos tercios de los costes de la investigación básica

que se desarrollaba en su país, que en aquel tiempo sumaban casi cinco mil millones de

dólares anuales, y daba trabajo a casi un millón de científicos e ingenieros (Holton,

1978, pp. 227-228).

 

III

 

La temperatura política de la ciencia bajó después de la segunda guerra mundial. Entre

1947 y 1949 el radicalismo experimentó un rápido descenso en los laboratorios, cuando

opiniones que en otros lugares se consideraban extrañas e infundadas se convirtieron en

obligatorias para los científicos de la Unión Soviética. Incluso los comunistas leales

encontraban imposible de tragar el «lysenkoísmo» (véanse pp. 526-527). Además, cada vez

fue más evidente que los regímenes que seguían el modelo soviético carecían de atractivo

material y moral, al menos para la mayoría de los científicos.

 

Por otra parte, y pese a la ingente propaganda realizada, la guerra fría entre Occidente

y el bloque soviético nunca generó entre los científicos nada parecido a las pasiones

políticas desencadenadas por el fascismo. Puede que ello se debiera a la tradicional

afinidad entre los racionalismos liberal y marxista, o a que la Unión Soviética, a diferencia

de la Alemania nazi, nunca pareció estar en situación de conquistar Occidente, ni aunque

se lo hubiese propuesto, lo cual era muy dudoso. Para la mayor parte de los científicos

occidentales la Unión Soviética, sus satélites y la China comunista eran malos estados

cuyos científicos eran dignos de compasión, más que imperios del mal contra los que

hubiera que hacer una cruzada.

 

En el mundo occidental desarrollado las ciencias naturales permanecieron política e

ideológicamente inactivas durante una generación, disfrutando de sus logros intelectuales

y de los vastos recursos de que ahora disponían para sus investigaciones. De hecho, el

magnánimo patrocinio de los gobiernos y de ¡as grandes empresas alentó a un tipo de

investigadores que no discutían la política de quienes les pagaban y preferían no pensar en

las posibles implicaciones de sus trabajos, especialmente cuando pertenecían al ámbito militar.

A lo sumo, los científicos de estos sectores protestaban por no poder publicar los resultados de

sus investigaciones.

 

De hecho, la mayoría de los componentes de lo que en ese momento era el enorme

ejército de doctores en física contratados por la NASA (National Aeronautics and Space

Administration), fundada como respuesta al reto soviético de 1958, no tenían mayor

interés en conocer las razones que orientaban sus actividades que los miembros de

cualquier otro ejército. A fines de los años cuarenta todavía había hombres y mujeres que

se torturaban con el dilema de si entrar o no en los centros gubernamentales

especializados en investigaciones de guerra química y biológica. 15 No parece que

posteriormente hubiera dificultades para reclutar personal para estos puestos.

 

Un tanto inesperadamente, fue en la zona de influencia soviética donde la ciencia se

politizó más a medida que avanzaba la segunda mitad del siglo. No era una casualidad

que el portavoz nacional (e internacional) de la disidencia soviética fuese un científico,

Andrei Sajarov (1921-1989), el físico que había sido el principal responsable de la

construcción, a fines de los años cuarenta, de la bomba de hidrógeno soviética. Los

científicos eran miembros por excelencia de la amplia nueva clase media profesional,

instruida y técnicamente preparada, que era el principal logro del sistema soviético, al

mismo tiempo que la clase más consciente de sus debilidades y limitaciones. Eran mucho

más necesarios para el sistema que sus colegas occidentales, ya que eran tan sólo ellos los

que hacían posible que una economía atrasada en muchos aspectos pudiese enfrentarse a

los Estados Unidos como una superpotencia. Y demostraron que eran indispensables al

permitir que la Unión Soviética adelantase durante un tiempo a Occidente en la tecnología

más avanzada: la espacial. El primer satélite construido por el hombre (Sputnik, 1957), el

primer vuelo espacial tripulado por hombres y mujeres (1961, 1963) y los primeros paseos

espaciales fueron rusos. Concentrados en institutos de investigación o en «ciudades

científicas», unidos por su trabajo, apaciguados y disfrutando de un cierto grado de libertad

concedido por el régimen pos-estalinista, no es sorprendente que surgieran opiniones

críticas en ese ámbito investigador, cuyo prestigio social era, en todo caso, mucho mayor

que el de cualquier otra ocupación en la sociedad soviética.

 

IV

 

¿Puede decirse que estas fluctuaciones en la temperatura política e ideológica

afectaron al progreso de las ciencias naturales? Mucho menos de lo que afectaron a las

ciencias humanas y sociales, por no hablar de las ideologías y filosofías. Las ciencias

naturales podían reflejar el siglo en que vivían los científicos tan sólo dentro de los confines

de la metodología empírica que, en una época de incertidumbre epistemológica, se generalizó necesariamente: la de la hipótesis verificable —o, en términos de Karl Popper (1902-1994),

falsable— mediante pruebas prácticas. Esto imponía límites a su ideologización. La economía,

aunque sujeta a exigencias de lógica y consistencia, ha florecido como una especie de teología

—probablemente como la rama más influyente de la teología secular, en el mundo

occidental— porque normalmente se puede formular, y se formula, en unos términos que

le permiten rehuir el control de la verificación. La física no puede permitírselo. Así,

mientras que en el ámbito de la economía se puede demostrar que las escuelas en

conflicto y el cambio de las modas del pensamiento económico son fiel reflejo de las

experiencias y del debate ideológico contemporáneos, esto no sucede en el ámbito de la

cosmología.

 

Pese a todo la ciencia se hizo eco de su tiempo, aunque es innegable que algunos

movimientos científicos importantes son endógenos. Así, era prácticamente inevitable que

la desordenada proliferación de partículas subatómicas, especialmente tras la aceleración

experimentada en los años cincuenta, condujese a los científicos a buscar simplificación.

La arbitraria naturaleza de la nueva, e hipotéticamente «última», partícula de la que se

decía ahora que estaban compuestos los protones, neutrones, electrones y demás, queda

reflejada en su mismo nombre, quark, término tomado de Finnegan's Wake de James Joyce

(1963). Éste fue muy pronto dividido en tres o cuatro subespecies (con sus «antiquarks»),

descritas como up, down, sideways o strange, y quarks con charm, cada una de ellos dotada

de una propiedad llamada «color». Ninguna de estas palabras tenía nada que ver con sus

significados comunes. Como de costumbre, a partir de esta teoría se hicieron

predicciones acertadas, encubriendo así el hecho de que en los noventa no se ha

encontrado ningún tipo de evidencia experimental que avale la existencia de quarks

de ningún tipo. 16

 

Si estos nuevos avances constituían una simplificación del laberinto subatómico o,

por el contrario, un aumento de su complejidad, es algo que debe dejarse al juicio de los

físicos capacitados para ello. Sin embargo, el observador lego escéptico, aunque

admirado, puede recordar a veces los titánicos esfuerzos intelectuales y las dosis de

ingenio empleadas a fines del siglo XIX para mantener la creencia científica en el «éter»,

antes de que los trabajos de Planck y Einstein lo relegaran al museo de las pseudoteorías

junto al «flogisto» (véase La era del imperio, capítulo 10).

 

La misma falta de contacto de estas construcciones teóricas con la realidad que

intentan explicar (excepto en calidad de hipótesis falsables) las abrió a las influencias

del mundo exterior. ¿No era lógico que, en un siglo tan dominado por la tecnología,

las analogías mecánicas contribuyeran a conformarlas, aunque esta vez en la

forma de técnicas de comunicación y control en los animales y las máquinas, que desde

1940 han generado un corpus teórico conocido bajo varios nombres (cibernética, teoría

general de sistemas, teoría de la información, etc.)?

 

Los ordenadores electrónicos, que se desarrollaron a una velocidad de vértigo después

de la segunda guerra mundial, especialmente tras la invención del transistor, tenían una

enorme capacidad para hacer simulaciones, lo que hizo mucho más fácil que antes

desarrollar modelos mecánicos de las que, hasta entonces, se consideraban las funciones

físicas y mentales básicas de los organismos, incluyendo el humano. Los científicos de

fines del siglo XX hablaban del cerebro si éste fuese esencialmente un elaborado sistema

de procesamiento de información, y uno de los debates filosóficos habituales de la

segunda mitad del siglo era si se podía, y en tal caso cómo, diferenciar la inteligencia

humana de la «inteligencia artificial»; es decir, qué es lo que había —si lo había— en la

mente humana que no fuese programable en teoría en un ordenador.

 

Es indudable que estos modelos tecnológicos han hecho avanzar la investigación.

¿Dónde estaría el estudio de la neurología —esto es, el estudio de los impulsos eléctricos

nerviosos— sin los de la electrónica? No obstante, en el fondo estas resultan ser unas

analogías reduccionistas, que un día probablemente parecerán tan desfasadas como nos lo

parece ahora la descripción que se hacía en el siglo XVIII del movimiento humano en

términos de un sistema de poleas.

 

Estas analogías fueron útiles para la formulación de modelos concretos. Sin embargo,

más allá de éstos, la experiencia vital de los científicos había de afectar a su forma de

mirar a la naturaleza. El nuestro ha sido un siglo en el cual, por citar a un científico que

reseñaba la obra de otro, «el conflicto entre gradualistas y catastrofistas impregna la

experiencia humana» (Jones, 1992, p. 12). Y, por ello, no es sorprendente que haya

impregnado también la ciencia.

 

En un siglo XIX de mejoras y progreso burgués, la continuidad y el gradualismo

dominaron los paradigmas de la ciencia. Fuera cual fuese el sistema de locomoción de la

naturaleza, no le estaba permitido avanzar a saltos. El cambio geológico y la evolución de

la vida en la tierra se habían desarrollado sin catástrofes, poco a poco. Incluso el

previsible final del universo, en algún futuro remoto, sería gradual, mediante la perceptible

pero inexorable transformación de la energía en calor, de acuerdo con la segunda ley de la

termodinámica (la «muerte térmica del universo»). La ciencia del siglo XX ha

desarrollado una imagen del mundo muy distinta.

 

Nuestro universo nació, hace quince millones de años, de una explosión primordial y,

según las especulaciones cosmológicas que se barajan en el momento de escribir esto,

podría terminar de una forma igualmente espectacular. Dentro de él la «biografía» de

las estrellas y, por tanto, la de sus planetas está, como el universo, llena de cataclismos:

novas, supernovas, estrellas gigantes rojas, estrellas enanas, agujeros negros y otros

fenómenos astronómicos que antes de los años veinte eran desconocidos o considerados

como periféricos.

 

Durante mucho tiempo la mayor parte de los geólogos se resistieron a la idea de

grandes desplazamientos laterales, como los de la deriva de los continentes a través del

planeta en el transcurso de la historia de la tierra, aunque la evidencia en su favor fuese

considerable. Su oposición se fundamentaba en cuestiones básicamente ideológicas, a

juzgar por la acritud de la polémica contra el principal defensor de la «deriva continental»,

Alfred Wegener. En todo caso, el argumento de quienes consideraban que la «deriva

continental» no podía ser cierta porque no había ningún mecanismo geofísico conocido

que pudiese llevar a cabo tales movimientos no era, a priori, más convincente que el

razonamiento de lord Kelvin, en el siglo XIX, según el cual la escala temporal postulada en

aquel tiempo por los geólogos no podía ser verdadera porque la física, tal como se conocía

entonces, consideraba que la tierra era mucho más joven de lo que decía la geología.

 

Sin embargo, en los años sesenta lo que antes era impensable se convirtió en la

ortodoxia cotidiana de la geología: un mundo compuesto por gigantescas placas

movedizas, a veces en rápido movimiento («tectónica de placas»). 17

 

Quizá resulte aún más ilustrativo el hecho de que desde los años sesenta la geología y

la teoría evolucionista regresaran a un catastrofismo directo a través de la paleontología.

Una vez más, las evidencias prima facie eran conocidas desde hacía mucho tiempo: todos

los niños saben que los dinosaurios se extinguieron al final del período Cretácico. Pero era

tal la fuerza de la creencia darwinista según la cual la evolución no era el resultado de

catástrofes (o de la creación), sino de lentos y pequeños cambios que se produjeron en el

transcurso de la historia geológica, que este aparente cataclismo biológico llamó poco la

atención.

 

Sencillamente, el tiempo geológico se consideraba lo suficientemente prolongado

como para dar cuenta de cualquier cambio evolutivo. ¿Debemos sorprendernos de que, en

una época en que la historia humana estaba tan marcada por los cataclismos, las

discontinuidades evolutivas llamaran de nuevo la atención? Todavía podríamos ir más

lejos: el mecanismo predilecto de los geólogos y los paleontólogos catastrofistas en el

momento en que escribo esto es el de un bombardeo del espacio exterior, es decir, la

colisión con uno o varios grandes meteoritos. Según algunos cálculos, es probable que

cada trescientos mil años llegue a la Tierra un asteroide lo suficientemente grande como

para destruir la civilización, esto es, el equivalente a ocho millones de Hiroshimas.

 

Estas disquisiciones habían sido siempre propias de una prehistoria marginal; pero,

antes de la era de la guerra nuclear, ¿algún científico serio hubiese pensado en esos

términos? Estas teorías de la evolución que la consideran como un proceso lento,

interrumpido de vez en cuando por un cambio súbito («equilibrio puntuado»), siguen

siendo objeto de polémica en los años noventa, pero son parte ahora del debate dentro

de la comunidad científica. Al observador lego tampoco puede pasarle desapercibida la

aparición, dentro del campo del pensamiento más alejado de la vida cotidiana, de dos

áreas de las matemáticas conocidas, respectivamente, como «teoría de las catástrofes»,

iniciada en los sesenta, y «teoría del caos», iniciada en los ochenta (véanse pp. 534 y ss.

). La primera de ellas se desarrolló en Francia en los años sesenta a partir de la topología,

e investigaba las situaciones en que un cambio gradual produce rupturas bruscas, es

decir, la interrelación entre el cambio continuo y el discontinuo. La segunda, de origen

estadounidense, hizo modelos de las situaciones de incertidumbre e impredictibilidad en

las que hechos aparentemente nimios, como el batir de las alas de una mariposa, pueden

desencadenar grandes resultados en otro lugar, como por ejemplo un huracán.

 

Para quienes han vivido las últimas décadas del siglo no resulta difícil comprender por

qué tales imágenes de caos y de catástrofe aparecían en las mentes de científicos y

matemáticos.

 

V

 

Sin embargo, a partir de los años setenta el mundo exterior afectó a la actividad de

laboratorios y seminarios de una manera más indirecta, pero también más intensa, con el

descubrimiento de que la tecnología derivada de la ciencia, cuyo poder se multiplicó

gracias a la explosión económica global, era capaz de producir cambios fundamentales y

tal vez irreversibles en el planeta Tierra, o al menos, en la Tierra como hábitat para los

organismos vivos. Esto era aún más inquietante que la perspectiva de una catástrofe causada

por el hombre, en forma de guerra nuclear, que obsesionó la conciencia y la

imaginación de los hombres durante la larga guerra fría, ya que una guerra nuclear

globalizada entre la Unión Soviética y los Estados Unidos parecía poder evitarse y, en

efecto, se evitó. No era tan fácil escapar de los subproductos del crecimiento científicoeconómico.

Así, en 1973, dos químicos, Rowland y Molina, fueron los primeros en darse

cuenta de que los clorofluorocarbonados, ampliamente empleados en la refrigeración y en

los nuevos y populares aerosoles, destruían el ozono de la atmósfera terrestre. No es de

extrañar que este fenómeno no se hubiese percibido antes, ya que a principios de los años

cincuenta la emisión de estos elementos químicos (CFC 11 y CFC 12) no superaba las

cuarenta mil toneladas, mientras que entre 1960 y 1972 se emitieron a la atmósfera más de

3, 6 millones de toneladas. 18 Así, a principios de los arios noventa, la existencia de grandes

«agujeros en la capa de ozono» de la atmósfera era del dominio público, y la única pregunta

a hacerse era con qué rapidez se agotaría la capa de ozono, y cuándo se rebasaría la capacidad de recuperación natural. Estaba claro que si nos deshacíamos de los CFC la capa de ozono se repondría. Desde los años setenta empezó a discutirse seriamente el problema del «efecto invernadero», el calentamiento incontrolado de la temperatura del planeta debido a la emisión de gases producidos

por el hombre, y en los años ochenta se convirtió en una de las principales preocupaciones de especialistas y políticos (Smil, 1990). El peligro era real, aunque en ocasiones se exageraba mucho.

 

Casi al mismo tiempo el término «ecología», acuñado en 1873 para describir la rama

de la biología que se ocupaba de las interrelaciones entre los organismos y su entorno,

adquirió su connotación familiar y casi política (Nicholson, 1970). 19 Estas eran las

consecuencias naturales del gran boom económico del siglo (véase el capítulo IX).

 

Estos temores bastarían para explicar por qué en los años setenta la política y las

ideologías volvieron a interesarse por las ciencias naturales, hasta el punto de penetrar en

algunas partes de las propias ciencias en forma de debates sobre la necesidad de límites

prácticos y morales en la investigación científica.

 

Estas cuestiones no se habían planteado seriamente desde el final de la hegemonía

teológica. Y no debe sorprendernos que se planteasen precisamente desde aquellas ramas

de las ciencias naturales que siempre habían tenido, o parecían tener, implicación directa

con las cuestiones humanas: la genética y la biología evolutiva. Ello sucedió porque, diez

años después de la segunda guerra mundial, las ciencias de la vida experimentaron una

revolución con los asombrosos avances de la biología molecular, que desvelaron los

mecanismos universales de la herencia, el «código genético».

 

La revolución de la biología molecular no fue un suceso inesperado. Después de 1914

podía darse por hecho que la vida podía y tenía que explicarse en términos físicos y

químicos, y no en términos de alguna esencia inherente a los seres vivos. 20 De hecho, los

modelos bioquímicos sobre el posible origen de la vida en la Tierra, empezando con la luz

solar, el metano, el amoníaco y el agua, fueron sugeridos por primera vez (en buena medida

con intenciones antirreligiosas) en la Rusia soviética y en Gran Bretaña durante los años

veinte, y situaron el tema en el terreno de la discusión científica seria. Dicho sea

de paso, la hostilidad hacia la religión siguió siendo un elemento dinamizador de las

investigaciones en este campo, y tanto Crick como Linus Pauling son ejemplos de

ello (Olby, 1970, p. 943). Durante décadas la biología dedicó sus mayores esfuerzos

al estudio de la bioquímica y de la física, desde que se supo que las moléculas de las

proteínas se podían cristalizar y, por tanto, analizar cristalográficamente. Se sabía

que una sustancia, el ácido desoxirribonucleico (ADN), desempeñaba un papel,

posiblemente el papel central, en la herencia; parecía ser el componente básico del

gen, la unidad de la herencia. A finales de los años treinta aún se intentaba

desentrañar el problema de cómo el gen «causa[ba] la síntesis de otra estructura

idéntica a él mismo, en la que incluso se copia[ba]n las mutaciones del gen original»

(Mullen 1951, p. 95). En definitiva, se investigaba cómo actuaba la herencia.

Después de la guerra estaba claro que, como dijo Crick, «grandes cosas aguardaban a

la vuelta de la esquina». El brillo del descubrimiento hecho por Crick y Watson de la

estructura de doble hélice del ADN y la forma en que explicaba la «copia de genes»

mediante un elegante modelo mecánico-químico, no queda empañado por el hecho

de que otros investigadores estuviesen acercándose a los mismos resultados a

principios de los años cincuenta.

 

La revolución del ADN, «el mayor descubrimiento de la biología» (J. D. Bernal),

que dominó las ciencias de la vida durante la segunda mitad del siglo, se refería

esencialmente a la genética y, en la medida en que el darwinismo del siglo XX es

exclusivamente genético, a la evolución. 21 Tanto la genética como el darwinismo

son materias muy delicadas, porque los modelos científicos de estos campos tienen

muchas veces una carga ideológica —cabe recordar aquí la deuda de Darwin con

Malthus (véase Desmond y Moore, capítulo 18) — y porque frecuentemente tienen

efectos políticos (como el «darwinismo social»). El concepto de «raza» ilustra esta

interacción. El recuerdo de la política racial del nazismo hizo que para los

intelectuales liberales, entre los que se encontraban la mayoría de los científicos,

fuera prácticamente impensable trabajar con este concepto. De hecho, muchos

dudaron incluso que fuese legítimo investigar sistemáticamente las diferencias

genéticamente determinadas entre los grupos humanos, por temor a que los resultados

sirviesen de apoyo a las tesis racistas. De manera más general, en los países

occidentales la ideología posfascista de democracia e igualdad resucitó los viejos

debates de «la naturaleza contra la crianza» o de la herencia contra el entorno.

Evidentemente, el individuo humano es configurado por la herencia y por el entorno;

por los genes y por la cultura. Pero los conservadores se inclinaban con gusto a

aceptar una sociedad de desigualdades inamovibles, esto es, genéticamente

determinadas, y la izquierda, con su compromiso con la igualdad, sostenía que la

acción social podía superar todas las desigualdades ya que, en el fondo, éstas estaban

determinadas por el entorno. La controversia se enconó con la cuestión de la inteligencia

humana que, por sus implicaciones en la escolarización universal o selectiva, era altamente

política, hasta el punto que generó polémicas aún más encendidas que las suscitadas por la

raza, aunque ambas estaban relacionadas. Cuan importantes eran estos debates se pudo ver

con el resurgimiento del movimiento feminista (véase el capítulo X), algunos de

cuyos ideólogos llegaron prácticamente a afirmar que todas las diferencias mentales

entre hombres y mujeres estaban determinadas por la cultura, esto es, por el entorno.

De hecho, la adopción del término «género» en sustitución de «sexo» implicaba la

creencia de que «mujer» no era tanto una categoría biológica como un rol social. El

científico que intentase investigar cuestiones tan delicadas sabía que se estaba aventurando

en un campo de minas político. Incluso quienes se adentraban en él

deliberadamente, como E. O. Wilson, de Harvard (1929), el paladín de la

«sociobiología», evitaban hablar con claridad. 22

 

Lo que todavía enrareció más el ambiente fue que los propios científicos,

especialmente los del ámbito más claramente social de las ciencias de la vida (la

teoría evolutiva, la ecología, la etología o estudio del comportamiento social de los

animales y similares) abusaban del uso de metáforas antropomórficas o sacaban

conclusiones humanas. Los sociobiólogos, o quienes popularizaban sus hallazgos,

sugirieron que en nuestra existencia social todavía predominaban los caracteres

(masculinos) heredados de los milenios durante los cuales el hombre primitivo

experimentó un proceso de selección para adaptarse, como cazador, a una existencia

más predadora en hábitats abiertos (Wilson, Ibíd...). Esto no sólo irritó a las mujeres,

sino también a los historiadores. Los teóricos evolucionistas analizaron la selección

natural, a la luz de la gran revolución biológica, como la lucha por la existencia de

«el gen egoísta» (Dawkins, 1976). Incluso los partidarios de la versión dura del

darwinismo se preguntaban qué tenía que ver realmente la selección genética con los

debates sobre el egoísmo, la competencia y la cooperación humana. Una vez más, la

ciencia se vio asediada por los críticos, aunque, significativamente, no sufrió ya el

acoso de la religión tradicional, exceptuando algunos grupos fundamentalistas

intelectualmente insignificantes. El clero aceptaba ahora la hegemonía del

laboratorio, y procuraba extraer todo el consuelo teológico posible de la cosmología

científica cuyas teorías del big bang podían, a los ojos de la fe, presentarse como prueba

de que un Dios había creado el mundo. Por otro lado, la revolución cultural occidental de

los años sesenta y setenta produjo un fuerte ataque neorromántico e irracionalista contra la

visión científica del mundo; un ataque cuyo tono podía pasar de radical a reaccionario con

facilidad.

 

A diferencia de lo que ocurría en las trincheras exteriores de las ciencias naturales, el

bastión principal de la investigación pura en las ciencias «duras» se vio poco afectado por

estos ataques, hasta que en los años setenta se vio claro que la investigación no se podía

divorciar de las consecuencias sociales de las tecnologías que ahora engendraba. Fueron las

perspectivas de la «ingeniería genética» —en los seres humanos y en otras formas de

vida— las que llevaron a plantearse la cuestión de si debían ponerse límites a la investigación

científica. Por vez primera se oyeron opiniones de este tipo entre los propios

científicos, especialmente en el campo de la biología, porque a partir de aquel momento

algunos de los elementos esenciales de las tecnologías «frankensteinianas» ya no eran

separables de la investigación pura o simples consecuencias de ella, sino que, como en el

caso del proyecto Genoma, que pretende hacer el mapa de todos los genes humanos

hereditarios, eran la investigación básica. Estas críticas minaron lo que todos los científicos

habían considerado hasta entonces, y la mayoría siguió considerando, como el principio

básico de la ciencia, según el cual, salvo concesiones marginales a las creencias morales de

la sociedad, 23 la ciencia debe buscar la verdad dondequiera que esta búsqueda la lleve. Los

científicos no tenían ninguna responsabilidad por lo que los no científicos hicieran con sus

hallazgos. Que, como observó un científico estadounidense en 1992, «ningún biólogo

molecular importante que yo conozca ha dejado de hacer alguna inversión financiera en el

negocio biotecnológico» (Lewontin, 1992, p. 37; pp. 31-40), o que «la cuestión (de la

propiedad) está en el centro de todo lo que hacemos» (Ibíd., p. 38), pone en entredicho

esta pretensión de pureza.

 

De lo que se trataba ahora no era de la búsqueda de la verdad, sino de la imposibilidad

de separarla de sus condiciones y consecuencias. Al mismo tiempo, el debate se dirimía

esencialmente entre los optimistas y los pesimistas acerca de la raza humana, ya que el

presupuesto básico de quienes contemplaban restricciones o autolimitaciones en la

investigación científica era que la humanidad, tal como estaba organizada hasta el

momento, no era capaz de manejar el potencial de transformación radical que poseía, ni

siquiera de reconocer los riesgos que estaba corriendo. Porque incluso los brujos que no

aceptaban límites en sus investigaciones desconfiaban de sus aprendices. Los argumentos

en favor de una investigación ilimitada «atañen a la investigación científica básica, no a

las aplicaciones tecnológicas de la ciencia, algunas de las cuales deben restringirse»

(Baltimore, 1978).

 

Pero incluso estos argumentos se alejaban de lo esencial. Porque, como

todos los científicos sabían, la investigación científica no era ilimitada y libre,

aunque sólo fuese porque necesitaba unos recursos que estaban limitados. La

cuestión no estribaba en si alguien debía decir a los investigadores qué podían hacer

o no, sino en quién imponía tales límites y directrices, y con qué criterios. Para la

mayoría de los científicos, cuyas instituciones estaban directa o indirectamente

financiadas con fondos públicos, los controladores de la investigación eran los

gobiernos, cuyos criterios, por muy sincera que fuese su devoción por los valores de

la libre investigación, no eran los de un Planck, un Rutherford o un Einstein.

 

Sus prioridades no eran, por definición, las de la investigación «pura»,

especialmente cuando esa investigación era cara. Cuando el gran boom global llegó a

su fin, incluso los gobiernos más ricos, cuyos ingresos no superaban ya a sus gastos,

tuvieron que hacer cuentas. Tampoco eran, ni podían ser, las prioridades de la

investigación «aplicada», que daba empleo a la gran mayoría de los científicos,

porque éstas no se fijaban en términos del «avance del conocimiento» en general

(aunque pudiera resultar de ella), sino en función de la necesidad de lograr ciertos

resultados prácticos, como, por ejemplo, una terapia efectiva para el cáncer o el

SIDA. Quienes investigaban en estos campos no se dedicaban necesariamente a

aquello que verdaderamente les interesaba, sino a lo que era socialmente útil o

económicamente rentable, o por lo menos aquello para lo que se disponía de dinero,

aunque confiasen en que volviera a llevarles alguna vez a la senda de la investigación

básica. En estas circunstancias, resultaba retórico afirmar que poner límites a la

investigación era intolerable porque el hombre, por naturaleza, pertenecía a una

especie que necesitaba «satisfacer su curiosidad, explorar y experimentar» (Lewis

Thomas, en Baltimore, 1978, p. 44), o que, siguiendo la consigna de los montañeros,

debemos escalar las cimas del conocimiento «porque están ahí».

 

La verdad es que la «ciencia» (un término por el que mucha gente entiende las

ciencias naturales «duras») era demasiado grande, demasiado poderosa, demasiado

indispensable para la sociedad en general y para sus patrocinadores en particular

como para dejarla a merced de sí misma. La paradoja de esta situación era que, en

último análisis, el poderoso motor de la tecnología del siglo XX, y la economía que

ésta hizo posible, dependían cada vez más de una comunidad relativamente

minúscula de personas para quienes estas colosales consecuencias de sus actividades

resultaban secundarias o triviales. Para ellos la capacidad humana de viajar a la Luna

o de transmitir vía satélite las imágenes de un partido de fútbol disputado en Brasil

para que pudiera verse en un televisor de Düsseldorf, era mucho menos interesante

que el descubrimiento de un ruido de fondo cósmico que perturbaba las

comunicaciones, pero que confirmaba una teoría sobre los orígenes del universo. No

obstante, al igual que el antiguo matemático griego Arquímedes, sabían que

habitaban, y estaban ayudando a configurar, un mundo que no podía comprender lo

que hacían, ni se preocupaba por ello. Su llamamiento en favor de la libertad de

investigación era como el grito de Arquímedes a los soldados invasores, contra quienes

había diseñado artefactos militares para la defensa de su ciudad, Siracusa, en los que ni

se fijaron cuando le mataban: «Por Dios, no destrocéis mis diagramas». Era comprensible,

pero poco realista.

 

Sólo los poderes transformadores de los que tenían la llave les sirvieron de

protección, porque éstos parecían depender de que se permitiera seguir a su aire a

una elite privilegiada e incomprensible —hasta muy avanzado el siglo,

incomprensible incluso por su relativa falta de interés en los signos externos de la

riqueza y el poder—. Todos los estados del siglo XX que actuaron de otra manera

tuvieron ocasión de lamentarlo. En consecuencia, todos los estados apoyaron la

ciencia, que, a diferencia de las artes y de la mayor parte de las humanidades, no

podía funcionar de forma eficaz sin tal apoyo, a la vez que evitaban interferir en ella

en la medida de lo posible. Pero a los gobiernos no les interesan las verdades últimas

(salvo las ideológicas o religiosas) sino la verdad instrumental. Pueden a lo sumo

fomentar la investigación «pura» (es decir, la que resulta inútil de momento) porque

podría producir algún día algo útil, o por razones de prestigio nacional, ya que en

este terreno la consecución de premios Nobel se antepone a la de las medallas

olímpicas, y se valora mucho más. Estos fueron los fundamentos sobre los que se

erigieron las estructuras triunfantes de la investigación y la teoría científica, gracias a

las cuales el siglo XX será recordado como una era de progreso y no únicamente de

tragedias humanas.

 

Notas:

 

1. El número incluso mayor de científicos en la entonces Unión Soviética (cerca de 1, 5 millones) no era

probablemente del todo comparable (UNESCO, 1991, cuadros 5. 2, 5. 4 y 5. 16).

2. Tres premios Nobel, todos después de 1947.

3. También en los Estados Unidos se produjo una pequeña huida temporal en los años del maccarthysmo, y

huidas políticas ocasionales mayores de la zona soviética (Hungría en 1956; Polonia y Checoslovaquia en 1968;

China y la Unión Soviética a finales de los ochenta), así como un flujo constante de científicos de la Alemania

Oriental a la Alemania Occidental.

4. Turing se suicidó en 1954, tras haber sido condenado por comportamiento homosexual, que por aquel

entonces se consideraba un delito y también una patología que podía curarse mediante un tratamiento médico o

psicológico. Turing no pudo soportar la «cura» que le impusieron. No fue tanto una víctima de la criminalización

de la homosexualidad (masculina) en Gran Bretaña antes de los años sesenta, como de su propia incapacidad para

asumirla. Sus inclinaciones sexuales no provocaron ningún problema en el King's College de Cambridge, ni

entre el notable conjunto de personas raras y excéntricas que durante la guerra se dedicaron a descifrar códigos en

Bletchley, donde Turing vivió antes de trasladarse a Manchester, una vez terminada la guerra. Sólo a un hombre

que, como él, desconocía el mundo en que vivían los demás podía ocurrírsele ir a denunciar el robo cometido en su

casa por un amigo íntimo (temporal), dando así a policía la oportunidad de detener a dos delincuentes a la

vez.

5. Ha quedado claro que si la Alemania nazi no pudo hacer la bomba atómica, no fue porque los científicos

alemanes no supieran cómo hacerla, o porque no lo intentaran, con diferentes grados de mala conciencia, sino

porque la maquinaria de guerra alemana era incapaz de dedicar a ello los recursos necesarios. Abandonaron por

ello el esfuerzo y se concentraron en lo que les pareció más efectivo: los cohetes, que prometían beneficios más

rápidos.

6. En este aspecto la diferencia entre teoría y práctica es enorme, puesto que personas que están dispuestas a

correr graves riesgos en la práctica, por ejemplo viajando en coche por una autopista o desplazándose en metro

por Nueva York, pueden resistirse a tomar una aspirina porque saben que en algunos raros casos tiene efectos

secundarios.

7. En este estudio de Fischhof los participantes evaluaban los riesgos y los beneficios de veinticinco

tecnologías: neveras, fotocopiadoras, anticonceptivos, puentes colgantes, energía nuclear, juegos electrónicos,

diagnóstico por rayos X, armas nucleares, ordenadores, vacunas, fluorización del agua, placas de energía solar,

láser, tranquilizantes, cámaras Polaroid, energías fósiles, vehículos a motor, efectos especiales en las películas,

pesticidas, opiáceos, conservantes de alimentos, cirugía a corazón abierto, aviación comercial, ingeniería

genética y molinos de viento. (Véase también Wildavsky, 1990, pp. 41-60. )

8. Así, la Alemania nazi permitió que Werner Heisenberg explicase la teoría de la relatividad, pero a

condición de que no mencionase a Einstein (Peierls, 1992, p. 44).

9. En 1930 Robert Millikan (premio Nobel en 1923), del Caltech, escribió la siguiente frase: «uno puede

dormir en paz consciente de que el Creador ha puesto en su obra algunos elementos a toda prueba, y que por

tanto el hombre no puede infligirle ningún daño grave».

10 Desde la primera guerra mundial más de veinte premios Nobel de física y química han sido otorgados,

total o parcialmente, a nuevos métodos, instrumentos y técnicas de investigación.

11. El desarrollo de la «teoría del caos» en los años setenta y ochenta tiene algo en común con el

surgimiento, a comienzos del siglo XIX, de una escuela científica «romántica» centrada principalmente en

Alemania (la Naturphilosophie), en reacción contra la corriente principal «clásica», centrada en Francia y Gran

Bretaña. Es interesante señalar que dos eminentes pioneros de la nueva escuela, Feigenbaum y Libchaber (véase

Gleick, 1988, pp. 163 y 197), se inspiraron en la lectura de la apasionadamente antinewtoniana teoría de los

colores de Goethe, y en su tratado sobre la transformación de las plantas, que puede considerarse como una teoría

evolucionista antidarwinista anticipada. (Sobre la Naturphilosophie véase Las revoluciones burguesas, capítulo 15.)

12. La revolución de la física de 1924-1928 la llevaron a cabo personas como Heisenberg, Pauli, Dirac,

Fermi y Joliot, nacidas entre 1900 y 1902. Schrödinger, De Broglie y Max Born estaban en la treintena.

13. Más adelante se convirtió en un eminente historiador de la ciencia china.

14. El término apareció por primera vez en 1936 en Francia (Guerlac. 1951. pp. 93-94).

15. Recuerdo de aquella época la preocupación de un bioquímico amigo mío, antiguo pacifista y después

comunista, que había aceptado un puesto de estas características en un centro británico.

16. John Maddox afirma que esto depende de lo que cada uno entienda por «encontrar». Se identificaron

algunos efectos de los quarks, pero, al parecer, éstos no se encuentran «solos», sino en pares o tríos. Lo que

confunde a los científicos no es si los quarks existen o no, sino el motivo por el cual nunca están solos.

17. Las evidencias prima facie consistían en: a) el «ajuste» de las líneas costeras de continentes separados,

especialmente el de las costas occidentales de África y las orientales de América del Sur; b) la similitud de los

estratos geológicos en tales casos, y c) la distribución geográfica de ciertos tipos de animales y plantas. Puedo

recordar mi sorpresa cuando en los años cincuenta, poco antes del avance de la tectónica de placas, un colega

geofísico se negaba ni siquiera a considerar que esto necesitase explicación.

18. World Resources, 1986, cuadro 11. 1. p. 319.

19. «La ecología... es también la principal disciplina y herramienta intelectual que nos permite esperar que

la evolución humana pueda mutarse, pueda desviarse hacia un nuevo cauce de manera que el hombre deje de ser

un peligro para el medio ambiente del que depende su propio futuro. »

20. « ¿Cómo pueden explicar la física y la química los acontecimientos espacio-temporales que se

producen dentro de los límites espaciales de un organismo vivo?» (Schrödinger, 1944, p. 2).

21. También a la vanante esencialmente matemático-mecánica de la ciencia experimental, a lo que

quizá se debe que no haya encontrado un entusiasmo al cien por cien en otras ciencias de la vida menos

cuantificables o experimentales, como la zoología y la paleontología (véase Lewontin, 1973).

22. «Mi impresión general sobre la información disponible es que Homo sapiens es una especie

animal muy característica en cuanto se refiere a la calidad y a la magnitud de la diversidad genética que

afecta a su conducta. Si se me permite la comparación, la unidad psíquica de la especie humana ha

rebajado su estatus, y de ser un dogma se ha convertido en una hipótesis verificable. Esto no es nada fácil

de decir en el ambiente político actual de los Estados Unidos, y algunos sectores de la comunidad

académica lo consideran una herejía punible. Pero si las ciencias sociales quieren ser honestas no tienen

otra alternativa que afrontar directamente la cuestión. Es preferible que los científicos estudien la cuestión

de la diversidad conductual genética que mantener una conspiración de silencio en nombre de las buenas

intenciones» (Wilson. 1977, p. 133).

El significado real de este retorcido párrafo es que las razas existen y que, por razones genéticas, en

algunos aspectos concretos son permanentemente desiguales.

23. Como, en especial, la restricción de no experimentar con seres humanos.

 

 

* Eric Hobsbawm, (1917), historiador marxista británico. Profesor de la Universidad de Stanford. Fue miembro de la Academia Británica.

 

-Tomado de su libro: Historia del siglo XX,  Capítulo XVIII BRUJOS Y APRENDICES: LAS CIENCIAS NATURALES.

 

Obras: "La era de la revolución, 1789 - 1848"; "La era del capital, 1848 - 1875"; "La era del imperio, 1875 - 1914"; "Las revoluciones burguesas"; "En torno a los orígenes de la revolución industrial".