ERIC
HOBSBAWM
LAS CIENCIAS NATURALES
I
Ningún otro período de la
historia ha sido más impregnado por las ciencias naturales,
ni más dependiente de
ellas, que el siglo XX. No obstante, ningún otro período, desde
la retractación de Galileo,
se ha sentido menos a gusto con ellas. Esta es la paradoja
con que los historiadores
del siglo deben lidiar. Pero antes de intentarlo, hay que
comprobar la magnitud del
fenómeno.
En 1919 el número total de
físicos y químicos alemanes y británicos juntos llegaba, quizás,
a los 8.000. A finales de
los años ochenta, el número de científicos e ingenieros involucrados
en la investigación y el
desarrollo experimental en el mundo, se estimaba en unos 5 millones,
de los que casi 1 millón se
encontraban en los Estados Unidos, la potencia científica puntera,
y un número ligeramente
mayor en los estados europeos. 1
Aunque los científicos
seguían siendo una fracción mínima de la población, incluso en
los países desarrollados,
su número crecía espectacularmente, y llegaría prácticamente a
doblarse en los veinte años
posteriores a 1970, incluso en las economías más avanzadas.
Sin embargo, a fines de los
ochenta eran la punta de un iceberg mucho mayor de lo que
podría llamarse personal
científico y técnico potencial, que reflejaba en esencia la
evolución educativa de la
segunda mitad del siglo (véase el capítulo 10). Representaban,
tal vez el 2 por 100 de la
población global, y puede que el 5 por 100 de la población
estadounidense (UNESCO,
1991, cuadro 5. 1). Los científicos propiamente dichos eran
seleccionados por medio de
tesis doctorales avanzadas que se convirtieron en el pasaporte
de entrada en la profesión.
En los años ochenta un país occidental avanzado medio
generaba unos 130-140 de
estos doctores en ciencias al año por cada millón de
habitantes (Observa-toire,
1991). Estos países empleaban también sumas astronómicas
en estas actividades, la
mayoría de las cuales procedían del erario público, incluso en los
países de más ortodoxo
capitalismo. De hecho, las formas más caras de la «alta ciencia»
estaban incluso fuera del
alcance de cualquier país individual, a excepción (hasta los
años noventa) de los
Estados Unidos.
De todas maneras, se
produjo una gran novedad. Pese a que el 90 por 100 de las
publicaciones científicas
(cuyo número se doblaba cada diez años) aparecían en cuatro
idiomas (inglés, ruso,
francés y alemán), el eurocentrismo científico terminó en el siglo
XX. La era de las
catástrofes y, en especial, el triunfo temporal del fascismo, desplazaron
su centro de gravedad a los
Estados Unidos, donde ha permanecido. Entre 1900 y 1933
sólo se habían otorgado
siete premios Nobel a los Estados Unidos, pero entre 1933 y
1970 se les concedieron
setenta y siete. Los otros países de asentamiento europeo (Canadá,
Australia, la a menudo
infravalorada Argentina)2 también se convirtieron en centros de
investigación
independientes aunque algunos de ellos, por razones de tamaño o de política,
exportaron a la mayoría de
sus principales científicos (Nueva Zelanda, Suráfrica, etc.)
Al mismo tiempo, el auge de
los científicos no europeos, especialmente de Extremo
Oriente y del subcontinente
indio, era muy notable. Antes del final de la segunda guerra
mundial sólo un asiático
había ganado un premio Nobel en ciencias (C. Raman, en física,
el año 1930). Desde 1946
estos premios se han otorgado a más de diez investigadores con
nombre japonés, chino,
hindú o paquistaní, aunque se sigue infravalorando el auge de la
ciencia asiática de la
misma forma que antes de 1933 se infravaloraba el de la ciencia
estadounidense. Sin
embargo, a fines del siglo todavía había zonas del mundo que
generaban muy pocos
científicos en términos absolutos y aún menos en términos relativos,
como por ejemplo la mayor
parte de África y de América Latina.
No obstante, resulta
notable que al menos un tercio de los premiados asiáticos no
figuren como científicos de
sus respectivos países de origen, sino como estadounidenses
(veintisiete de los
laureados estadounidenses son inmigrantes de primera generación).
Porque, en un mundo cada
vez más globalizado, el hecho de que las ciencias naturales
hablen un mismo lenguaje y
empleen una misma metodología ha contribuido,
paradójicamente, a que se
concentren en los pocos centros que disponen de los medios
adecuados para desarrollar
su trabajo; es decir, en unos pocos países ricos altamente
desarrollados y, sobre
todo, en los Estados Unidos.
Los cerebros del mundo que
en la era de las catástrofes escaparon de Europa por
razones políticas, se han
ido de los países pobres a los países ricos desde 1945
principalmente por razones
económicas. 3 Esto es normal, puesto que durante los años
setenta y ochenta los
países capitalistas desarrollados sumaban casi las tres cuartas partes
del total de las
inversiones mundiales en investigación y desarrollo, mientras que los
países pobres («en
desarrollo») no invertían más del 2 o 3 por 100 (UN World Social
Situation, 1989, p. 103).
Sin embargo, incluso dentro
del mundo desarrollado la ciencia fue concentrándose
gradualmente, en parte
debido a la reunión de científicos y recursos, por razones de
eficacia, y en parte porque
el enorme crecimiento de los estudios superiores creó
inevitablemente una
jerarquía, o más bien una oligarquía, entre sus instituciones. En los
años cincuenta y sesenta la
mitad de los doctorados de los Estados Unidos salió de las
quince universidades de
mayor prestigio, a las que procuraban acudir la mayoría de los
jóvenes científicos más
brillantes. En un mundo democrático y populista, los científicos
formaban una elite que se
concentró en unos pocos centros financiados. Como especie
se daban en grupo, porque
la comunicación, el tener «alguien con quien hablar», era
fundamental para sus
actividades. A medida que pasó el tiempo estas actividades fueron
cada vez más
incomprensibles para los no científicos, aunque hiciesen un esfuerzo
desesperado por entenderlas
con la ayuda de una amplia literatura de divulgación, escrita
algunas veces por los
mejores científicos. En realidad, a medida que aumentaba la
especialización, incluso
los propios científicos necesitaron revistas para explicarse
mutuamente lo que sucedía
fuera de sus campos.
Que el siglo XX dependía de
la ciencia es algo que no necesita demostración. La ciencia
«avanzada», es decir, el
tipo de conocimiento que no podía adquirirse con la experiencia
cotidiana, ni practicarse o
tan siquiera comprenderse sin muchos años de estudios, que
culminaban con unas
esotéricas prácticas de posgrado, tuvo un estrecho margen de aplicación
hasta finales del siglo
XIX. La física y las matemáticas del siglo XVII influían en los ingenieros,
mientras que, a mediados
del reinado de Victoria, los descubrimientos químicos y eléctricos de
finales del siglo XVIII y
principios del XIX eran ya esenciales para la industria y las
comunicaciones, y los estudios
de los investigadores científicos profesionales se
consideraban la punta de
lanza incluso de los avances tecnológicos. En resumen, la
tecnología basada en la
ciencia estaba ya en el centro del mundo burgués del siglo
XIX, aunque la gente
práctica no supiese muy bien qué hacer con los triunfos de la
teoría científica, salvo,
en los casos adecuados, convertirla en ideología, como
sucedió en el siglo XVIII
con Newton y a fines del XIX con Darwin.
Sin embargo, muchas áreas
de la vida humana seguían estando regidas casi
exclusivamente por la
experiencia, la experimentación, la habilidad, el sentido
común entrenado y, a lo
sumo, la difusión sistemática de conocimientos sobre las
prácticas y técnicas
disponibles. Este era claramente el caso de la agricultura, la
construcción, la medicina y
de toda una amplia gama de actividades que satisfacían
las necesidades y los lujos
de los seres humanos.
Esto empezó a cambiar en
algún momento del último tercio del siglo. En la era
del imperio no sólo
comenzaron a hacerse visibles los resultados de la alta tecnología
moderna (no hay más que
pensar en los automóviles, la aviación, la radio y el
cinematógrafo), sino
también los de las modernas teorías científicas: la relatividad, la
física cuántica o la
genética. Se pudo ver además que los descubrimientos más
esotéricos y
revolucionarios de la ciencia tenían un potencial tecnológico inmediato,
desde la telegrafía sin
hilos hasta el uso médico de los rayos X, basados ambos en
descubrimientos realizados
hacia 1890. No obstante, aun cuando la alta ciencia del
siglo XX era ya perceptible
antes de 1914, y pese a que la alta tecnología de etapas
posteriores estaba ya
implícita en ella, la ciencia no había llegado todavía a ser algo
sin lo cual la vida
cotidiana era inconcebible en cualquier parte del mundo.
Y esto es lo que está
sucediendo a medida que el milenio toca a su fin. Como
hemos visto (capítulo IX),
la tecnología basada en las teorías y en la investigación
científica avanzada dominó
la explosión económica de la segunda mitad del siglo
XX, y no sólo en el mundo
desarrollado. Sin los conocimientos genéticos,
Indonesia no hubieran
podido producir suficientes alimentos para sus crecientes
poblaciones, y a finales de
siglo la biotecnología se había convertido en un elemento
importante para la
agricultura y la medicina.
El caso es que estas
tecnologías se basaban en descubrimientos y teorías tan
alejados del entorno
cotidiano del ciudadano medio, incluso en los países más
avanzados del mundo
desarrollado, que sólo unas docenas, o a lo sumo unos
centenares de personas en
todo el mundo podían entrever inicialmente que tenían
implicaciones prácticas.
Cuando el físico alemán Otto Hahn descubrió la fisión
nuclear a principios de
1939, incluso algunos de los científicos más activos en ese campo,
como el gran Niels Bohr
(1885-1962), dudaron de que tuviese aplicaciones prácticas en
la paz o en la guerra, por
lo menos en un futuro previsible. Y si los físicos que
comprendieron su valor
potencial no se lo hubieran comunicado a sus generales y a sus
políticos, éstos no se
hubieran enterado de ello, salvo que fuesen licenciados en física, lo
que no era frecuente.
Por poner otro ejemplo, el
célebre texto de Alan Turing de 1935, que proporcionaría los
fundamentos de la moderna
teoría informática, había sido escrito originalmente como una
exploración especulativa
para lógicos matemáticos. La guerra dio a él y a otros científicos
la oportunidad de traducir
la teoría a unos primeros pasos de la práctica empleándola para
descifrar códigos, pero
cuando el texto se publicó originalmente, nadie, a excepción de un
puñado de matemáticos,
pareció enterarse de sus implicaciones. Este genio de tez pálida
y aspecto desmañado, que
era por aquel entonces un joven becario aficionado al jogging
y que se convirtió
póstumamente en una especie de ídolo para los homosexuales, no era
una figura destacada ni
siquiera en su propia facultad universitaria, o al menos yo no lo
recuerdo como tal. 4
Incluso cuando los científicos se entregaban a la resolución de
problemas de importancia
conocida, sólo unos pocos cerebros aislados en una pequeña parcela
intelectual podían darse
cuenta de lo que se traían entre manos. Por ejemplo, el autor
de estas líneas era un
becario en Cambridge durante la misma época en que Crick y Watson
preparaban su triunfal
descubrimiento de la estructura del ADN (la «doble hélice»), que fue
inmediatamente reconocido
como uno de los grandes acontecimientos científicos del siglo.
Sin embargo, aunque
recuerdo que en aquella época coincidí con Crick en diversos actos
sociales, la mayoría de
nosotros ignorábamos por completo que tan extraordinarios
acontecimientos tenían
lugar a pocos metros de la puerta de nuestra facultad, en
laboratorios ante los que
pasábamos regularmente y en bares donde íbamos a tomar unas
copas. No es que tales
cuestiones no nos interesasen, sino que quienes trabajaban en ellas
no veían la necesidad de
explicárnoslas, ya que ni hubiésemos podido contribuir a su
trabajo, ni siquiera
comprendido exactamente cuáles eran sus dificultades.
No obstante, por más
esotéricas o incomprensibles que fuesen las inno-
vaciones científicas, una
vez logradas se traducían casi inmediatamente en
tecnologías prácticas. Así,
los transistores surgieron, en 1948, como un subproducto de
investigaciones sobre la
física de los sólidos, es decir, de las propiedades
electromagnéticas de
cristales ligeramente imperfectos (sus inventores recibieron el
premio Nobel al cabo de
ocho años); como sucedió con el láser (1960), que no surgió de
estudios sobre óptica, sino
de trabajos para hacer vibrar moléculas en resonancia con un
campo eléctrico (Bernal,
1967, p. 563). Sus inventores también fueron rápidamente
recompensados con el premio
Nobel, como lo fue, tardíamente, el físico soviético de
Cambridge Peter Kapitsa
(1978) por sus investigaciones acerca de la física de bajas
temperaturas, que dieron
origen a los superconductores.
La experiencia de las
investigaciones realizadas durante la guerra, entre 1939 y
1946, que demostró, por lo
menos a los anglonorteamericanos, que una gran concentración
de recursos podía resolver
los problemas tecnológicos más complejos en un intervalo de
tiempo sorprendentemente
corto, 5 animó a una búsqueda tecnológica sin tener en cuenta
los costes, ya fuese con
fines bélicos o por prestigio nacional, como en la exploración del
espacio. Esto, a su vez,
aceleró la transformación de la ciencia de laboratorio en
tecnología, parte de la
cual demostró tener una amplia aplicación a la vida cotidiana. El
láser es un ejemplo de esta
rápida transformación. Visto por primera vez en un laboratorio en
compacto. La biotecnología
llegó al público aún con mayor rapidez: las técnicas de
recombinación del ADN, es
decir, las técnicas para combinar genes de una especie con
genes de otra, se
consideraron factibles en la práctica en 1973. Menos de veinte años
después la biotecnología
era una de las inversiones principales en medicina y agricultura.
Además, y gracias en buena
medida a la asombrosa expansión de la información
teórica y práctica, los
nuevos avances científicos se traducían, en un lapso de tiempo
cada vez menor, en una
tecnología que no requería ningún tipo de comprensión por parte
de los usuarios finales. El
resultado ideal era un conjunto de botones o un teclado a
prueba de tontos que sólo
requería que se presionase en los lugares adecuados para
activar un proceso
automático, que se autocorregía e incluso, en la medida de lo posible,
tomaba decisiones, sin
necesitar nuevas aportaciones de las limitadas y poco fiables
habilidades e inteligencia
del ser humano medio. En realidad, el proceso ideal podía
programarse para actuar sin
ningún tipo de intervención humana a menos que algo se
estropease. El método de
cobro de los supermercados de los años noventa tipificaba esta
eliminación del elemento
humano. No requería del cajero más que el conocimiento de los
billetes y monedas del país
y la acción de registrar la cantidad entregada por el
comprador.
Un lector automático
traducía el código de barras de los productos en el precio de los
mismos, sumaba todas las
compras, restaba el total de la cantidad dada por el
comprador e indicaba al
cajero el cambio que tenía que devolver. El procedimiento
que se requiere para
realizar todas estas actividades con seguridad es
extraordinariamente
complejo, basado como está en la combinación de un hardware
altamente sofisticado con
unos programas muy elaborados. Pero hasta que —o a
menos que— algo se
estropease, estos milagros de la tecnología científica de finales
del siglo XX no pedían a
los cajeros más que el conocimiento de los números
cardinales, una cierta
atención y una capacidad mayor de tolerancia al aburrimiento.
Ni siquiera requería
alfabetización. Por lo que hacía a la mayoría de ellos, las fuerzas
que les decían que debía
informar al cliente que tenía que pagar
peniques y les explicaban
que había de ofrecerle
por un billete de
necesitaban comprender nada
acerca de las máquinas para trabajar con ellas. Los
aprendices de brujo ya no
tenían que preocuparse por su falta de conocimientos.
A efectos prácticos, la
situación del cajero del supermercado ejemplifica la norma
humana de finales de siglo:
la realización de milagros con una tecnología científica
de vanguardia que no
necesitamos comprender o modificar, aunque sepamos o
creamos saber cómo
funciona. Alguien lo hará o lo ha hecho ya por nosotros. Porque,
aun cuando nos creamos unos
expertos en un campo u otro, es decir, la clase de
persona que podría hacer
funcionar un aparato concreto estropeado, que podría
diseñarlo o construirlo,
enfrentados a la mayor parte de los otros productos
científicos y tecnológicos
de uso diario somos unos neófitos ignorantes. Y aunque no
lo seamos, nuestra
comprensión de lo que hace que una cosa funcione, y de los
principios en que se
sustenta, son conocimientos de escasa utilidad, como lo son los
procesos técnicos de
fabricación de las barajas para el jugador (honrado) de poker.
Los aparatos de fax han
sido diseñados para que los utilicen personas que no tienen
ni la más remota idea de
por qué una máquina reproduce en Londres un texto emitido
en Los Angeles. Y no
funcionan mejor cuando los manejan profesores de electrónica.
Así, a través de la
estructura tecnológicamente saturada de la vida humana, la
ciencia demuestra cada día
sus milagros en el mundo de fines del siglo XX. Es tan
indispensable y
omnipresente —ya que hasta en los rincones más remotos del planeta
se conocen el transistor y
la calculadora electrónica— como lo es Alá para el
creyente musulmán. Podemos
discutir cuándo se empezó a ser consciente, por lo
menos en las zonas urbanas
de las sociedades industriales «desarrolladas», de la
capacidad que poseen
algunas actividades humanas para producir resultados
sobrehumanos. Ello sucedió,
con toda seguridad, tras la explosión de la primera
bomba atómica en 1945. Sin
embargo, no cabe duda de que el siglo XX ha sido el
siglo en que la ciencia ha
transformado tanto el mundo como nuestro conocimiento
del mismo.
Hubiéramos podido esperar
que las ideologías del siglo XX glorificasen los logros de la
ciencia, que son los logros
de la mente humana, tal como hicieron las ideologías laicas del
siglo XIX. Hubiéramos
esperado también que se debilitase la resistencia de las ideologías
religiosas tradicionales,
que durante el siglo pasado fueron los grandes reductos de
resistencia a la ciencia. Y
ello no sólo porque el arraigo de las religiones tradicionales
disminuyó durante todo el
siglo, como veremos, sino también porque la propia religión
llegó a ser tan dependiente
de la alta tecnología científica como cualquier otra actividad
humana en el mundo
desarrollado. Un obispo, un imán o un santón podían actuar a
comienzos del siglo XX como
si Galileo, Newton, Faraday o Lavoisier nunca hubieran
existido, es decir, sobre
la base de la tecnología del siglo XV y de aquella parte de la del
siglo XIX que no plantease
problemas de compatibilidad con la teología o los textos
sagrados. Resultó cada vez
más difícil hacerlo en una época en que el Vaticano se veía
obligado a comunicarse vía
satélite y a probar la autenticidad de la sábana santa de Turín
mediante la datación por
radiocarbono, en que el ayatolá Jomeini difundía sus mensajes en
Irán mediante grabaciones
magnetofónicas, y cuando los estados que seguían las leyes
coránicas trataban de
equiparse con armas nucleares. La aceptación de facto de la ciencia
contemporánea más elevada a
través de la tecnología que dependía de ella era tal que en la
Nueva York de fin de siglo
las ventas de equipos electrónicos y fotográficos de alta
tecnología eran en buena
medida la especialidad del jasidismo, una rama oriental del
judaismo mesiánico conocida
sobre todo por su extremo ritualismo y por su insistencia en
llevar una indumentaria
semejante a la de los polacos del siglo XVIII, y por preferir la
emoción extática a la
investigación intelectual.
En algunos aspectos, la
superioridad de la «ciencia» era aceptada incluso oficialmente.
Los fundamentalistas
protestantes estadounidenses que rechazaban la teoría de la
evolución por ser contraria
a las sagradas escrituras, ya que según éstas el mundo tal
como lo conocemos fue
creado en seis días, exigían que la enseñanza de la teoría
darwinista se sustituyese
o, al menos, se compensase, con la enseñanza de lo que ellos
describían como «ciencia de
la creación».
Pese a todo, el siglo XX no
se sentía cómodo con una ciencia de la que dependía y que
había sido su logro más
extraordinario. El progreso de las ciencias naturales se realizó
contra un trasfondo de
recelos y temores que, ocasionalmente, se convertía en un arrebato
de odio y rechazo hacia la
razón y sus productos. Y en el espacio indefinido entre la
ciencia y la anticiencia,
entre los que buscaban la verdad última por el absurdo y los
profetas de un mundo
compuesto exclusivamente de ficciones, nos encontramos cada vez
más con la «ciencia
ficción», ese producto —muy anglonorteamericano— característico
del siglo, en especial de
su segunda mitad. Este género, anticipado por Julio Verne (1828-
1905), fue iniciado por H.
G. Wells (1866-1946) a finales del siglo XIX. Mientras sus
formas más juveniles —como
las series de televisión y los westerns espaciales
cinematográficos, con naves
espaciales y rayos mortíferos en lugar de caballos y
revólveres— continuaban la
vieja tradición de aventuras fantásticas con artilugios de alta
tecnología, en la segunda
mitad del siglo las contribuciones más serias al género empezaron
a ofrecer una versión
sombría, o cuando menos ambigua, de la condición humana y de sus
expectativas.
Los recelos y temores hacia
la ciencia se vieron alimentados por cuatro sentimientos: el
de que la ciencia era
incomprensible; que sus consecuencias (ya fuesen) prácticas (o
morales) eran impredecibles
y probablemente catastróficas; que ponía de relieve la
indefensión del individuo y
que minaba la autoridad. Sin olvidar el sentimiento de que la
ciencia era intrínsecamente
peligrosa en la medida en que interfería el orden natural de las
cosas. Los dos sentimientos
que he mencionado en primer lugar eran compartidos por
científicos y legos; los
dos últimos correspondían más bien a los legos. Las personas sin
formación científica sólo
podían reaccionar contra su sensación de impotencia intentando
explicar lo que «la ciencia
no podía explicar», en la línea de la afirmación de Hamlet de
que «hay más cosas en el
cielo y la tierra... de las que puede soñar tu filosofía»; negándose
a creer que la «ciencia
oficial» pudiera explicarlas y ansiosos por creer en lo inexplicable
porque parecía absurdo. En un mundo desconocido e
inexplicable todos nos enfrentaríamos
a la misma impotencia.
Cuanto más palpables fuesen los éxitos de la ciencia,
mayor era el ansia por
explicar lo inexplicable.
Poco después de la segunda
guerra mundial, que culminó en la bomba atómica, los
Estados Unidos (1947)
—seguidos poco tiempo después, como de costumbre, por sus
parientes culturales
británicos— se pusieron a observar la llegada masiva de OVNIs,
«objetos volantes no
identificados», evidentemente inspirados por la ciencia ficción. Se
creyó de buena fe que estos
objetos procedían de civilizaciones extraterrestres, distintas y
superiores a la nuestra.
Los observadores más entusiastas llegaron a ver cómo sus pasajeros,
con cuerpos de extraño
aspecto, emergían de esos «platillos volantes», y un par de ellos
hasta aseguraron haber dado
un paseo en sus naves. El fenómeno adquirió una dimensión
mundial, aunque un mapa de
los aterrizajes de estos extraterrestres mostraría una notable
predilección por aterrizar
o circular sobre territorios anglosajones. Cualquier actitud
escéptica respecto de los
ovnis se achacaba a Jos celos de unos científicos estrechos de
miras que eran incapaces de
explicar los fenómenos que se producían más allá de su limitado
horizonte, o incluso a una
conspiración de quienes mantenían al hombre de la calle en
una servidumbre intelectual
para mantenerle lejos de la sabiduría superior.
Estas no eran las creencias
en la magia y en los milagros propias de las sociedades
tradicionales, para quienes
tales intervenciones en la realidad formaban parte de unas vidas
muy poco controlables, y
eran mucho menos sorprendentes que, por poner un ejemplo, la
contemplación de un avión o
la experiencia de hablar por teléfono. Ni formaban parte
tampoco de la universal y
permanente fascinación humana por todo lo monstruoso, lo raro
y lo maravilloso, de que la
literatura popular ha dado testimonio desde la invención de la
imprenta y los grabados en
madera hasta las revistas ilustradas de supermercado.
Expresaban un rechazo a las
reivindicaciones y dictados de la ciencia, a veces conscientemente,
como en la extraordinaria
(y norteamericana) rebelión de algunos grupos marginales contra
la práctica de fluorizar
los suministros de agua cuando se descubrió que la ingestión
diaria de este elemento
reducía drásticamente los problemas dentales de la población
urbana. Estos grupos se
resistieron apasionadamente a la fluorización no sólo por defender
su libertad de tener caries,
sino, por parte de sus antagonistas más extremos, por considerarla
una vil conspiración para
debilitar a los seres humanos envenenándolos. En este tipo de
reacciones, vivamente
reflejadas por Stanley Kubrik en 1963 con su película ¿Teléfono rojo?
Volamos hacia Moscú, los recelos hacia la ciencia se mezclaban con el miedo
a sus consecuencias prácticas.
El carácter enfermizo de la
cultura norteamericana ayudó también a difundir estos
temores, a medida que la
vida se veía cada vez más inmersa en la nueva tecnología,
incluyendo la tecnología
médica, con sus riesgos. La predisposición peculiar de los
norteamericanos para
resolver todas las disputas humanas a través de litigios nos permite
hacer un seguimiento de
estos miedos (Huber, 1990, pp. 97-118). ¿Causaban los
espermaticidas defectos en
el nacimiento? ¿Eran los tendidos eléctricos de alta tensión
perjudiciales para la salud
de las personas que vivían cerca de ellos? La distancia entre los
expertos, que tenían algún
criterio a partir del cual juzgar, y los legos, que sólo tenían
esperanza o miedo, se
ensanchó a causa de la diferencia entre una valoración
desapasionada, que podía
considerar que un pequeño grado de riesgo era un precio aceptable
a cambio de un gran
beneficio, y los individuos que, comprensiblemente, deseaban un
riesgo cero, al menos en
teoría. 6
Estos eran los temores que
la desconocida amenaza de la ciencia causaba a los
hombres y mujeres que sólo
sabían que vivían bajo su dominio. Temores cuya intensidad
y objeto variaba según la
naturaleza de sus puntos de vista y temores acerca de la
sociedad contemporánea
(Fischhof et al., 1978, pp. 127-152). 7
Sin embargo, en la primera
mitad del siglo las mayores amenazas para la ciencia no
procedían de quienes se
sentían humillados por su vasto e incontrolable poder, sino de
quienes creían poder
controlarla. Los dos únicos tipos de regímenes políticos que (aparte
de las entonces raras
conversiones al fundamentalismo religioso) dificultaron la
investigación científica
estaban profundamente comprometidos en principio con el progreso
técnico ilimitado y, en uno
de los casos, con una ideología que lo identificaba con la «ciencia»
y que alentaba a la
conquista del mundo en nombre de la razón y la experimentación. Así, tanto
el estalinismo como el nacionalsocialismo
alemán rechazaban la ciencia, aunque con
diferentes argumentos y
pese a que ambos la empleasen para fines tecnológicos. Lo que
ambos objetaban era que
desafiase visiones del mundo y valores expresados en forma de
verdades a priori.
Ninguno de los dos se
sentía a gusto con la física posteinsteiniana. Los nazis la
rechazaban por «judía» y
los ideólogos soviéticos porque no era suficientemente
«materialista», en el
sentido que Lenin daba al término, si bien ambos la toleraron en la
práctica, puesto que los
estados modernos no podían prescindir de los físicos
posteinsteinianos. Sin
embargo, los nazis se privaron de los mejores talentos dedicados a
la física en
políticos, destruyendo así,
de paso, la supremacía científica germana de principios de siglo.
Entre 1900 y 1933, 25 de
los 66 premios Nobel de física y de química habían correspondido
a Alemania, mientras que
después de 1933 sólo recibió uno de cada diez. Ninguno
de los dos regímenes
sintonizaba tampoco con las ciencias biológicas.
La política racial de
sobre todo debido al
entusiasmo de los racistas por la eugenesia— habían empezado ya
desde la primera guerra
mundial a marcar distancias respecto de las políticas de selección
genética y reproducción
humana (que incluía la eliminación de los débiles y «tarados»),
aunque debamos admitir con
tristeza que el racismo nazi encontró bastante apoyo entre los
médicos y biólogos alemanes
(Proctor, 1988).
En la época de Stalin, el
régimen soviético se enfrentó con la genética, tanto por
razones ideológicas como
porque la política estatal estaba comprometida con el principio
de que, con un esfuerzo
suficiente, cualquier cambio era posible, siendo así que la ciencia
señalaba que este no era el
caso en el campo de la evolución en general y en el de la
agricultura en particular.
En otras circunstancias, la polémica entre los biólogos
evolucionistas seguidores
de Darwin (que consideraban que la herencia era genética) y los
seguidores de Lamarck (que
creían en la transmisión hereditaria de los caracteres adquiridos
y practicados durante la
vida de una criatura) se hubiera ventilado en seminarios y
laboratorios. De hecho, la
mayoría de los científicos la consideraban decidida en favor de
Darwin, aunque sólo fuese
porque nunca se encontraron pruebas satisfactorias de la
transmisión hereditaria de
los caracteres adquiridos. Bajo Stalin, un biólogo marginal,
Trofim Denisovich Lysenko
(1898-1976), obtuvo el apoyo de las autoridades políticas
argumentando que la
producción agropecuaria podía multiplicarse aplicando métodos lamarckianos,
que acortaban el
relativamente lento proceso ortodoxo de crecimiento y cría
de plantas y animales. En
aquellos días no resultaba prudente disentir de las autoridades.
El académico Nikolai
Ivanovich Vavilov (1885- 1943), el genetista soviético de mayor prestigio,
murió en un campo de
trabajo por estar en desacuerdo con Lysenko —como lo estaban el resto
de los genetistas
soviéticos responsables—, aunque no fue hasta después de la segunda guerra
mundial cuando la biología
soviética decidió rechazar oficialmente la genética tal
como se entendía en el
resto del mundo, por lo menos hasta la desaparición del
dictador. El efecto que
ello tuvo en la ciencia soviética fue, como era de prever,
devastador.
El régimen nazi y el
comunista soviético, pese a todas sus diferencias, compartían
la creencia de que sus
ciudadanos debían aceptar una «doctrina verdadera», pero una
que fuese formulada e
impuesta por las autoridades seculares político-ideológicas.
De aquí que la ambigüedad y
la desazón ante la ciencia que tantas sociedades
experimentaban encontrase
su expresión oficial en esos dos estados, a diferencia de
lo que sucedía en los
regímenes políticos que eran agnósticos respecto a las creencias
individuales de sus
ciudadanos, como los gobiernos laicos habían aprendido a ser
durante el siglo XIX. De
hecho, el auge de regímenes de ortodoxia seglar fue, como
hemos visto (capítulos IV y
XIII), un subproducto de la era de las catástrofes, y no
duraron. En cualquier caso,
el intento de sujetar a la ciencia en camisas de fuerza
ideológicas tuvo resultados
contraproducentes aun en aquellos casos en que se hizo
seriamente (como en el de
la biología soviética), o ridículos, donde la ciencia fue
abandonada a su propia
suerte, mientras se limitaban a afirmar la superioridad de la
ideología (como sucedió con
la física alemana y soviética). 8
A finales del siglo XX la
imposición de criterios oficiales a la teoría científica
volvió a ser practicada por
regímenes basados en el fundamentalismo religioso. Sin
embargo, la incomodidad
general ante ella persistía, mientras iba resultando cada vez
más increíble e incierta.
Pero hasta la segunda mitad del siglo esta incomodidad no
se debió al temor por los
resultados prácticos de la ciencia.
Es verdad que los propios
científicos supieron mejor y antes que nadie cuáles
podrían ser las
consecuencias potenciales de sus descubrimientos. Desde que la
primera bomba atómica
resultó operativa, en 1945, algunos de ellos alertaron a sus
jefes de gobierno acerca
del poder destructivo que el mundo tenía ahora a su
disposición. Sin embargo,
la idea de que la ciencia equivale a una catástrofe
potencial pertenece,
esencialmente, a la segunda mitad del siglo: en su primera fase
—la de la pesadilla de una
guerra nuclear— corresponde a la era de la confrontación
entre las superpotencias
que siguió a 1945; en su fase posterior y más universal, a la
era de crisis que comenzó
en los setenta. Por el contrario, la era de las catástrofes,
quizás porque frenó el
crecimiento económico, fue todavía una etapa de complacencia
científica acerca de la
capacidad humana de controlar las fuerzas de la naturaleza
o, en el peor de los casos,
acerca de la capacidad por parte de la naturaleza de ajustarse a
lo peor que el hombre le
podía hacer. 9 Por otra parte, lo que inquietaba a los científicos
era su propia incertidumbre
acerca de lo que tenían que hacer con sus teorías y sus hallazgos.
II
En algún momento de la era
del imperio se rompieron los vínculos entre los hallazgos
científicos y la realidad
basada en la experiencia sensorial, o imaginable con ella; al igual
que los vínculos entre la
ciencia y el tipo de lógica basada en el sentido común, o
imaginable con él. Estas
dos rupturas se reforzaron mutuamente, ya que el progreso de las
ciencias naturales dependió
crecientemente de personas que escribían ecuaciones —es
decir, formulaciones
matemáticas— en hojas de papel, en lugar de experimentar en el
laboratorio. El siglo XX
iba a ser el siglo en que los teóricos dirían a los técnicos lo que
tenían que buscar y
encontrar a la luz de sus teorías. Dicho en otros términos, iba a ser el
siglo de las matemáticas.
La biología molecular, campo en que, según me informa una
autoridad en la materia,
existe muy poca teoría, es una excepción.
No es que la observación y
la experimentación fuesen secundarias. Al contrario, sus
tecnologías sufrieron una
revolución mucho más profunda que en cualquier otra etapa
desde el siglo XVII, con
nuevos aparatos y técnicas, muchas de las cuales recibirían el
espaldarazo científico
definitivo del premio Nobel. 10 Por poner sólo un ejemplo, las
limitaciones de la
ampliación óptica se superaron gracias al microscopio electrónico, en
1937, y al radiotelescopio,
en 1957, con el resultado de permitir observaciones más
profundas del reino
molecular e incluso atómico, así como de los confines más remotos
del universo.
En las décadas recientes la
automatización de las rutinas y la informatización de las
actividades y los cálculos
de laboratorio, cada vez más complejos, ha aumentado
considerablemente el poder
de los experimentadores, de los observadores y de los
teóricos dedicados a la
construcción de modelos. En algunos campos, como el de la
astronomía, esta
automatización e informatización desembocó en descubrimientos, a
veces accidentales, que
condujeron a una innovación teórica. La cosmología moderna es,
en el fondo, el resultado
de dos hallazgos de este tipo: el de Hubble, que descubrió que el
universo está en expansión
basándose en el análisis de los espectros de las galaxias (1929),
y el descubrimiento de
Penzias y Wilson de la radiación cósmica de fondo (ruido de
radio) en 1965. Sin
embargo, a pesar de que la ciencia es y debe ser una colaboración entre
teoría y práctica, en el
siglo XX los teóricos llevaban el volante.
Para los propios
científicos la ruptura con la experiencia sensorial y con el sentido
común significó una ruptura
con las certezas tradicionales de su campo y con su
metodología. Sus
consecuencias pueden ilustrarse claramente siguiendo la trayectoria de la
física, la reina
indiscutible de las ciencias durante la primera mitad del siglo. De hecho, en
la
medida en que es todavía la
única que se ocupa tanto del estudio de los elementos más
pequeños de la materia,
viva o muerta, como de la constitución y estructura del mayor
conjunto de materia, el
universo, la física siguió siendo el pilar fundamental de las ciencias
naturales incluso a finales
de siglo, aunque en la segunda mitad tuvo que afrontar la dura
competencia de las ciencias
de la vida, transformadas después de los años cincuenta, tras la
revolución de la biología
molecular.
Ningún otro ámbito
científico parecía más sólido, coherente y metodológicamente seguro
que la física newtoniana,
cuyos fundamentos se vieron socavados por las teorías de Planck
y de Einstein, así como por
la transformación de la teoría atómica que siguió al
descubrimiento de la
radiactividad en la década de 1890. Era objetiva, es decir, se podía
observar adecuadamente, en
la medida en que lo permitían las limitaciones técnicas de los
aparatos de observación
(por ejemplo, las del microscopio óptico o del telescopio). No era
ambigua: un objeto o un
fenómeno eran una cosa u otra, y la distinción entre ambos
casos estaba clara. Sus
leyes eran universales, válidas por igual en el ámbito cósmico y
en el microscópico. Los
mecanismos que relacionaban los fenómenos eran comprensibles,
esto es, susceptibles de
expresarse en términos de «causa y efecto». En consecuencia, todo
el sistema era en principio
determinista y el propósito de la experimentación en el laboratorio
era demostrar esta
determinación eliminando, hasta donde fuera posible, la compleja
mezcolanza de
que el vuelo de los pájaros
y de las mariposas negaba las leyes de la gravitación. Los
científicos sabían muy bien
que había afirmaciones «no científicas», pero éstas no les
atañían en cuanto
científicos.
Todas estas características
se pusieron en entredicho entre 1895 y 1914. ¿Era la luz una
onda en movimiento continuo
o una emisión de partículas separadas (fotones) como
sostenía Einstein,
siguiendo a Planck? Unas veces era mejor considerarla del primer
modo; otras, del segundo.
Pero ¿cómo estaban conectados, si lo estaban, ambos? ¿Qué
era «en realidad» la luz?
Como afirmó el gran Einstein veinte años después de haber
creado el rompecabezas,
«ahora tenemos dos teorías sobre la luz, ambas indispensables,
pero debemos admitir que no
hay ninguna conexión lógica entre ellas, a pesar de los
veinte años de grandes
esfuerzos realizados por los físicos teóricos» (Holton, 1970, p. 1.
017). ¿Qué pasaba en el
interior del átomo, que ahora ya no se consideraba (como
implicaba el nombre griego)
la unidad de materia más pequeña posible y, por ello,
indivisible, sino como un
sistema complejo integrado por diversas partículas aún más
elementales? La primera
suposición, después del gran descubrimiento del núcleo
atómico realizado por
Rutherford en 1911 en Manchester —un triunfo de la imaginación
experimental y el
fundamento de la moderna física nuclear y de lo que se convirtió en «gran
ciencia»—, fue que los
electrones describían órbitas alrededor de este núcleo a la
manera de un sistema solar
en miniatura. No obstante, cuando se investigó la
estructura de átomos
individuales, en especial la del de hidrógeno realizada en 1912-
1913 por Niels Bohr, que
conocía la teoría de los «cuantos» de Max Planck, los
resultados mostraron, una
vez más, un profundo conflicto entre lo que hacían los
electrones y, empleando sus
propias palabras, «el cuerpo de concepciones, de una
admirable coherencia, que
se ha dado en llamar, con toda corrección, la teoría
electrodinámica clásica»
(Holton, 1970, p. 1. 028). El modelo de Bohr funcionaba, es
decir, poseía una brillante
potencia explicativa y predictiva, pero era «bastante
irracional y absurdo» desde
el punto de vista de la mecánica newtoniana clásica y, en
cualquier caso, no daba ninguna
idea de lo que sucedía en realidad dentro del átomo
cuando un electrón
«saltaba» o pasaba de alguna manera de una órbita a otra, o de lo
que sucedía entre el
momento en que era descubierto en una y aquel en que aparecía
en otra.
Les sucedía lo que les
ocurrió a las certidumbres de la propia ciencia a medida
que se fue viendo cada vez
más claro que el mismo proceso de observar fenómenos a
nivel subatómico los
modificaba: por esta razón, cuanto con más precisión queramos
saber la posición de una
partícula atómica, menos certeza tendremos acerca de su
velocidad. Como se ha dicho
de todos los medios para observar detalladamente
dónde está «realmente» un
electrón, «mirarlo es hacerlo desaparecer» (Weisskopf,
1980, p. 37). Esta fue la
paradoja que un brillante y joven físico alemán, Werner
Heisenberg, generalizó en
1927 con el famoso «principio de indeterminación» que
lleva su nombre. El mero
hecho de que el nombre haga hincapié en la
indeterminación o incertidumbre
resulta significativo, puesto que indica qué es lo
que preocupaba a los
exploradores del nuevo universo científico a medida que
dejaban tras de sí las
certidumbres del universo antiguo. No es que ellos mismos
dudasen o que obtuviesen
resultados dudosos. Por el contrario, sus predicciones
teóricas, por raras y poco
plausibles que fuesen, fueron verificadas por las observaciones
y los experimentos
rutinarios, a partir del momento en que la teoría general
de la relatividad de
Einstein (1915) pareció verse probada en 1919 por una
expedición británica que,
al observar un eclipse, comprobó que la luz de algunas
estrellas distantes se
desviaba hacia el Sol, como había predicho la teoría. A efectos
prácticos, la física de las
partículas estaba tan sujeta a la regularidad y era tan
predecible corno la física
de Newton, si bien de forma distinta y, en todo caso,
Newton y Galileo seguían
siendo válidos en el nivel supraatómico. Lo que ponía
nerviosos a los científicos
era que no sabían cómo conciliar lo antiguo con lo
moderno.
Entre 1924 y 1927 las
dualidades que habían preocupado a los físicos durante el
primer cuarto de siglo
fueron eliminadas, o más bien soslayadas, gracias a un
brillante golpe dado por la
física matemática: la construcción de la «mecánica
cuántica», que se
desarrolló casi simultáneamente en varios países. La verdadera
«realidad» que había dentro
del átomo no era o una onda o una partícula, sino
«estados cuánticos»
indivisibles que se podían manifestar en cualquiera de
estas dos formas, o en
ambas. Era inútil considerarlo como un movimiento continuo o
discontinuo, porque nunca
se podrá seguir, paso a paso, la senda del electrón.
Los conceptos clásicos de
la física, como la posición, la velocidad o el impulso, no
son aplicables más allá de
ciertos puntos, señalados por el «principio de indeterminación»
de Heisenberg. Pero, por
supuesto, más allá de estos puntos se aplican otros conceptos
que dan lugar a resultados
que no tienen nada de inciertos, y que surgen de los modelos
específicos producidos por
las «ondas» o vibraciones de electrones (con carga negativa)
mantenidos dentro del
reducido espacio del átomo cercano al núcleo (positivo). Sucesivos
«estados cuánticos» dentro
de este espacio reducido producen unos modelos bien
definidos de frecuencias
diferentes que, como demostró Schrodinger en 1926, se podían
calcular del mismo modo que
podía calcularse la energía que corresponde a cada uno
(«mecánica ondulatoria»).
Estos modelos de electrones
tenían un poder predictivo y explicativo muy notable.
Así, muchos años después,
cuando en Los Álamos se produjo plutonio por primera vez
mediante reacciones
nucleares, durante el proceso de fabricación de la primera bomba
atómica, las cantidades
eran tan pequeñas que sus propiedades no podían observarse. Sin
embargo, a partir del
número de electrones en el átomo de este elemento, y a partir de los
modelos para estos noventa
y cuatro electrones que vibraban alrededor del núcleo, y sin
nada más, los científicos predijeron, acertadamente, que el
plutonio resultaría ser un
metal marrón con una masa
específica de unos veinte gramos por centímetro cúbico, y que
poseería una determinada
conductividad y elasticidad eléctrica y térmica. La mecánica
cuántica explicó también
por qué los átomos (y las moléculas y combinaciones superiores
basadas en ellos)
permanecen estables o, más bien, qué carga suplementaria de energía
sería necesaria para
cambiarlos. En realidad, se ha dicho que:
incluso los fenómenos de la
vida (la forma del ADN y el
que diferentes nucleótidos sean resistentes a oscilaciones térmicas
a temperatura ambiente) se
basan en estos modelos primarios. El hecho de que cada primavera
broten las mismas flores se
basa en la estabilidad de los modelos de los diferentes nucleótidos (Weisskopf,
1980, pp. 35-38).
No obstante, este avance
tan grande y tan fructífero en la exploración de la naturaleza
se alcanzó sobre las ruinas
de todo lo que la teoría científica había considerado cierto y
adecuado, y por una
suspensión voluntaria del escepticismo que no sólo los científicos de
mayor edad encontraban
inquietante. Consideremos la «antimateria» que propuso desde
Cambridge Paul Dirac, una
vez descubrió, en 1928, que sus ecuaciones tenían soluciones
que correspondían a estados
del electrón con una energía menor que la energía cero del
espacio vacío. Desde
entonces el término «antimateria», que carece de sentido en términos
cotidianos, fue alegremente
manejado por los físicos (Weinberg, 1977, pp. 23-24).
La palabra misma implicaba
un rechazo deliberado a permitir que el progreso del cálculo
teórico se desviase a causa
de cualquier noción preconcebida de la realidad: fuera lo que
fuese en último término la
realidad, respondería a lo que mostraban las ecuaciones.
Y sin embargo, esto no era
fácil de aceptar, ni siquiera para aquellos científicos que habían
olvidado ya la opinión de
Rutherford de que no podía considerarse buena una física que no
pudiese explicarse a una
camarera.
Hubo pioneros de la nueva
ciencia a quienes les resultó imposible aceptar el fin de
las viejas certidumbres,
incluyendo a sus fundadores, Max Planck y el propio Albert
Einstein, quien expresó sus
recelos en el reemplazo de la causalidad determinista por
leyes puramente
probabilísticas con la famosa frase: «Dios no juega a los dados». Einstein
no tenía argumentos
válidos, pero comentó: «una voz interior me dice que la mecánica
cuántica no es la verdad»
(citado en Jammer, 1966, p. 358).
Más de uno de los propios
revolucionarios cuánticos había soñado en eliminar las
contradicciones,
subsumiendo unas bajo otras. Por ejemplo, Schrodinger creyó que su
«mecánica ondulatoria»
había diluido los presuntos «saltos» de los electrones de una
órbita atómica a otra en el
proceso continuo del cambio energético, con lo que se
preservaban el espacio, el
tiempo y la causalidad clásicas. Algunos pioneros de la
revolución reacios a
aceptar sus consecuencias extremas, como Planck y Einstein,
respiraron con alivio, pero
fue en vano. El juego era nuevo y las viejas reglas ya no
servían.
¿Podían aprender los
físicos a vivir en una contradicción permanente? Niéls Bohr
pensaba que podían y debían
hacerlo. No había manera de expresar la naturaleza en su
conjunto con una única
descripción, dada la condición del lenguaje humano. No podía
haber un solo modelo que lo
abarcase todo directamente. La única forma de aprehender la
realidad era describirla de
modos diferentes y juntar todas las descripciones para que se
complementasen unas con
otras, en una «superposición exhaustiva de descripciones
distintas que incorporan
nociones aparentemente contradictorias» (Holton, 1970, p. 1.
018). Este era el
«principio de complementariedad» de Bohr, un concepto metafísico
relacionado con la
relatividad, que dedujo de autores muy alejados del mundo de la física, y
al que se asignó una
aplicación universal. La «complementariedad» de Bohr no se proponía
contribuir al avance de las
investigaciones de los científicos atómicos, sino más bien
tranquilizarles
justificando su confusión. Su atractivo no pertenece al ámbito de la razón.
Porque aunque todos
nosotros, y mucho más los científicos inteligentes, sabemos que
hay formas distintas de
percibir la realidad, no siempre comparables e incluso
contradictorias, y que se
necesitan todas para aprehenderla en su globalidad, no tenemos
idea de cómo conectarlas.
El efecto de una sonata de Beethoven se puede analizar física,
fisiológica y
psicológicamente, y también se puede asimilar escuchándola, pero ¿cómo se
conectan estas formas de
comprensión? Nadie lo sabe.
Sin embargo, la incomodidad
persistió. Por un lado estaba la síntesis de la nueva física
de mediados de los años
veinte, que proporcionaba un procedimiento muy efectivo para
introducirse en las cámaras
blindadas de la naturaleza. Los conceptos básicos de la revolución
de los cuantos seguían
aplicándose a fines del siglo XX. Y a menos que sigamos a quienes
consideran que el análisis
no lineal, posible gracias a los ordenadores, es un punto de partida
radicalmente nuevo, debemos
convenir que desde el período de 1900-1927 la física no ha
experimentado ninguna
revolución, sino tan sólo gigantescos avances evolutivos dentro del
mismo marco conceptual.
Por otro lado, hubo una
incoherencia generalizada, que en 1931 alcanzó el último
reducto de la certidumbre:
las matemáticas. Un lógico matemático austriaco, Kurt Gödel,
demostró que un sistema de
axiomas nunca puede basarse en sí mismo. Si hay que
demostrar su solidez, hay
que recurrir a afirmaciones externas al sistema. A la luz del
«teorema de Gödel» no se
puede tan siquiera pensar en un mundo no contradictorio e
internamente consistente.
Tal era «la crisis de la
física», si se me permite citar el título de un libro escrito por un
joven intelectual
británico, autodidacto y marxista, que murió en España: Christopher
Caudwell (1907-1937). No se
trataba tan sólo de una «crisis de los fundamentos», como se
llamó en matemáticas al
período de 1900-1930 (véase La era del imperio, capítulo 10),
sino también de la visión
que los científicos tenían del mundo en general. En realidad, a
medida que los físicos
aprendieron a despreocuparse por las cuestiones filosóficas, al
tiempo que se sumergían en
el nuevo territorio que se abría ante ellos, el segundo aspecto
de la crisis se hizo
todavía mayor, ya que durante los años treinta y cuarenta la estructura
del átomo se fue
complicando de año en año. La sencilla dualidad de núcleo positivo y
electrón(es) negativo(s) ya
no bastaba. Los átomos estaban habitados por una fauna y
flora crecientes de
partículas elementales, algunas de las cuales eran verdaderamente
extrañas. Chadwick, de
Cambridge, descubrió la primera de ellas en 1932, los neutrones,
partículas que tienen casi
la misma masa que un protón pero sin carga eléctrica. Sin
embargo, con anterioridad
ya se habían anticipado teóricamente otras partículas, como los
neutrinos, partículas sin
masa y eléctricamente neutrales.
Estas partículas
subatómicas, efímeras y fugaces, se multiplicaban sobre todo con los
aceleradores de alta
energía de la «gran ciencia», disponibles después de la segunda
guerra mundial. A finales
de los años cincuenta había más de un centenar de ellas y no se
divisaba su final. El
panorama se complicó además, desde comienzos de los treinta, con
el descubrimiento de dos
fuerzas oscuras y desconocidas que operaban dentro del átomo,
además de las fuerzas
eléctricas que mantenían unido al núcleo con los electrones. Eran las
llamadas fuerza de
«interacción fuerte», que ligaban el neutrón y el protón de carga
positiva con el núcleo
atómico, y de «interacción débil», responsable de ciertos tipos de
descomposición de las
partículas.
En el marasmo conceptual
sobre el que se edificaron las ciencias del siglo XX, había
sin embargo un presupuesto
básico y esencialmente estético que no se puso en duda. Y
que, a medida que la
incertidumbre iba cubriendo a los demás, se fue haciendo cada vez
más central para los científicos.
Éstos, al igual que Keats, creían que «la belleza es verdad,
y la verdad, belleza»,
aunque su criterio de belleza no coincidía con el del poeta. Una teoría
bella, lo que ya era en sí
mismo una presunción de verdad, debe ser elegante, económica y
general. Debe unificar y
simplificar, como lo habían hecho hasta entonces los grandes hitos
de la teoría científica.
La revolución científica de
la época de Galileo y de Newton demostró que las leyes
que gobernaban el cielo y
la tierra eran las mismas. La revolución química redujo la
infinita variedad de formas
en que aparecía la materia a noventa y dos elementos
sistemáticamente
conectados. El triunfo de la física del siglo XIX consistió en demostrar
que la electricidad, el
magnetismo y los fenómenos ópticos tenían las mismas raíces. Sin
embargo, la nueva
revolución científica no produjo una simplificación, sino una
complicación.
La maravillosa teoría de la
relatividad de Einstein, que describía la gravedad como una
manifestación de la
curvatura del espacio-tiempo, introdujo, de hecho, una dualidad
inquietante en la
naturaleza: «por un lado, estaba el escenario: es decir, el espacio-tiempo
curvo, la gravedad; y por
otro, los actores: los electrones, los protones, los campos
electromagnéticos... y no
había conexión entre ellos» (Weinberg, 1979, p. 43). En los
últimos cuarenta años de su
vida, Einstein, el Newton del siglo XX, trabajó para elaborar
una «teoría unificada» que
enlazaría el electromagnetismo con la gravedad, pero no lo
consiguió y ahora existían
otras dos clases, aparentemente no conectadas entre sí, de
fuerzas de la naturaleza,
sin relación aparente con la gravedad y el electromagnetismo.
La multiplicación de las
partículas subatómicas, por muy estimulante que fuese, sólo
podía ser una verdad
temporal y preliminar porque, por muy hermosa que fuera en el
detalle, no había belleza
en el nuevo átomo como la había habido en el viejo. Incluso los
pragmáticos puros de la
época, para quienes el único criterio sobre la validez de una
hipótesis era que ésta
funcionase, habían soñado alguna vez con una «teoría de todo» —
por emplear la expresión de
un físico de Cambridge, Stephen Hawking— que fuese
noble, bella y general.
Pero esta teoría parecía estar cada vez más lejana, pese a que
desde los años sesenta los
físicos comenzaron, una vez más, a percibir la posibilidad de tal
síntesis. De hecho, en los
años noventa volvió a extenderse entre los físicos la creencia
generalizada de que estaban
a punto de alcanzar un nivel verdaderamente básico y que la
multiplicidad de partículas
elementales podría reducirse a un grupo relativamente simple y
coherente.
Al mismo tiempo, y a
caballo entre los indefinidos límites de disciplinas tan dispares
como la meteorología, la
ecología, la física no nuclear, la astronomía, la dinámica de
fluidos y distintas ramas
de las matemáticas desarrolladas independientemente en la
Unión Soviética y (algo más
tarde) en Occidente, y con la ayuda del extraordinario
desarrollo de los
ordenadores como herramientas analíticas y de inspiración visual, se iba
abriendo paso, o iba
resurgiendo, un nuevo tipo de síntesis conocido con el nombre,
bastante engañoso, de
«teoría del caos». Y era engañoso porque lo que revelaba no era
tanto los impredecibles
resultados de procedimientos científicos perfectamente
deterministas, sino la
extraordinaria universalidad de formas y modelos de la
naturaleza en sus
manifestaciones más dispares y aparentemente inconexas. "
La teoría del caos ayudó a
dar otra vuelta de tuerca a la antigua causalidad.
Rompió los lazos entre ésta
y la posibilidad de predicción, puesto que no sostenía
que los hechos sucediesen
de manera fortuita, sino que los efectos que se seguían de
unas causas específicas no
se podían predecir. Ello reforzó, además, otra cuestión
avanzada por los
paleontólogos y de considerable interés para los historiadores: la
sugerencia de que las
cadenas de desarrollo histórico o evolutivo son perfectamente
coherentes y explicables después
del hecho, pero que los resultados finales no se
pueden predecir desde el
principio, porque, si se dan las mismas condiciones otra
vez, cualquier cambio, por
insignificante o poco importante que pueda parecer en ese
momento, «hará que la
evolución se desarrolle por una vía radicalmente distinta»
(Gould, 1989, p. 51). Las consecuencias
políticas, económicas y sociales de este
enfoque pueden ser de largo
alcance.
Por otra parte, estaba
también el absurdo total de gran parte del nuevo mundo de
los físicos. Mientras
estuviese confinado en el átomo, no afectaba directamente a la
vida cotidiana, en la que
incluso los científicos estaban inmersos, pero hubo al menos
un nuevo e inasimilable
descubrimiento que no se pudo poner también en cuarentena.
Este era el hecho
extraordinario, que algunos habían anticipado a partir de la teoría
de la relatividad, y que
había sido observado en 1929 por el astrónomo
estadounidense E. Hubble,
de que el universo entero parecía expandirse a una
velocidad de vértigo. Esta
expansión, que incluso muchos científicos encontraban
difícil de aceptar, por lo
que algunos llegaron a idear teorías alternativas sobre el
«estado estacionario» del
cosmos, fue verificada con la obtención de nuevos datos
astronómicos en los años
sesenta. Era imposible no hacerse preguntas acerca de hacia
dónde se (y nos) dirigía esta
expansión; acerca de cuándo y cómo comenzó y, por
consiguiente, especular
sobre la historia del universo, empezando por el big bang o
explosión inicial.
Este descubrimiento produjo
el floreciente campo de la cosmología, la parte de la
ciencia del siglo XX más
apta para inspirar bestsellers, y aumentó enormemente el
papel de la historia en las
ciencias naturales que, a excepción de la geología y sus
derivadas, habían
manifestado hasta entonces una desdeñosa falta de interés por ella.
Disminuyó, además, la
identificación de la ciencia «dura» con la experimentación,
es decir, con la
reproducción de los fenómenos naturales. Porque ¿cómo se iban a repetir
hechos que eran
irrepetibles por definición? Así, el universo en expansión se añadió a la
confusión en que estaban
sumidos tanto los científicos como los legos.
Esta confusión hizo que
quienes vivieron en la era de las catástrofes, y conocían o
reflexionaban sobre estas
cuestiones, se reafirmasen en su convicción de que el
mundo antiguo había muerto
o, como mínimo, estaba en una fase terminal, pero que
los contornos del nuevo no
estaban todavía claramente esbozados. El gran Max
Planck no tenía dudas sobre
la relación entre la crisis de la ciencia y de la vida
cotidiana:
Estamos viviendo un momento
muy singular de la historia. Es un momento de
crisis en el sentido
literal de la palabra. En cada rama de nuestra civilización espiritual
y material parecemos haber
llegado a un momento crítico. Este espíritu se manifiesta
no sólo en el estado real
de los asuntos públicos, sino también en la actitud general
hacia los valores
fundamentales de la vida social y personal... Ahora, el iconoclasta
ha invadido el templo de la
ciencia. Apenas hay un principio científico que no sea
negado por alguien. Y, al
propio tiempo, cualquier teoría, por absurda que parezca,
puede hallar prosélitos y
discípulos en un sitio u otro (Planck, 1933, p. 64).
Nada podía ser más natural
que el hecho de que un alemán de clase media, educado
en las certidumbres del
siglo XIX, expresase tales sentimientos en los días de
Depresión y de la ascensión
de Hitler al poder.
Sin embargo, no era
precisamente pesimismo lo que sentían la mayoría de los
científicos. Estaban de
acuerdo con Rutherford, que en 1923, ante
Association, afirmó:
«estamos viviendo en la era heroica de la física» (Howarth,
1978, p. 92). Cada nuevo
ejemplar de las revistas científicas, cada coloquio (puesto
que a la mayoría de los
científicos les encantaba, más que nunca, combinar
cooperación y competencia),
traía avances nuevos, profundos y estimulantes. La
comunidad científica era
todavía lo bastante reducida, al menos en disciplinas punta
como la física nuclear y la
cristalografía, como para ofrecer a todo joven investigador
la posibilidad de alcanzar
el estrellato. Ser un científico era ser alguien envidiado.
Quienes estudiábamos en
Cambridge, de donde surgieron la mayoría de los treinta
premios Nobel británicos de
la primera mitad del siglo —que, a efectos prácticos,
constituía la ciencia británica en ese tiempo—, sabíamos cuál era
la materia que nos
hubiera gustado estudiar,
si nuestras matemáticas hubieran sido lo suficientemente
buenas para ello.
En realidad, las ciencias
naturales no podían esperar más que mayores hitos y
avances intelectuales, que
hacían tolerables los parches, imperfecciones e
improvisaciones de las
teorías al uso, puesto que éstas estaban destinadas a ser sólo
temporales. ¿Cómo iban a
desconfiar del futuro personas que recibían premios Nobel
por trabajos realizados
cuando contaban poco más de veinte años?12 Y, sin embargo,
¿cómo iban a poder los
hombres (y las pocas mujeres) que seguían poniendo a prueba
la realidad de la vacilante
idea de «progreso» en su ámbito de actividad, permanecer
inmunes ante la época de
crisis y catástrofes en la que vivían?
No podían, y no lo
hicieron. La era de las catástrofes fue, por tanto, una de las
comparativamente raras
etapas en las que hubo científicos politizados, y no sólo porque se
demostró (cuando muchos de
ellos tuvieron que emigrar de grandes zonas de Europa
porque eran considerados
racial o ideológicamente inaceptables) que no podían dar por
supuesta su inmunidad
personal. En todo caso, el científico británico característico de los
años treinta era miembro
del «Grupo de científicos contra la guerra», organización
izquierdista radicada en
Cambridge, y profesaba un radicalismo acentuado por el talante
abiertamente radical de sus
mentores, cuyos méritos habían reconocido desde
Society hasta el premio
Nobel: Bernal (cristalografía), Haldane (genética), Needham
(embriología química), 13
Blackett (física), Dirac (física) y el matemático G. H. Hardy, para
quien sólo había dos
personajes en el siglo XX que pudieran compararse al jugador de
cricket australiano Don
Bradman, a quien admiraba: Lenin y Einstein.
El típico físico joven
estadounidense de los años treinta tendría probablemente
problemas políticos en la
época de la guerra fría que siguió a la contienda, a causa de las
inclinaciones radicales que
había manifestado antes de la guerra o que conservaba, como
les sucedió a Robert
Oppenheimer (1904-1967), el gran artífice de la bomba atómica, y a
Linus Pauling, el químico
(1901) que ganó dos premios Nobel, uno de ellos por su
contribución a la paz, y un
premio Lenin. El científico francés típico era simpatizante del
Frente Popular en los años
treinta y activista de
que no muchos franceses
podían enorgullecerse. Y el científico refugiado característica de
la vida pública. Los
científicos que siguieron en los países fascistas y en
—o que no pudieron
abandonarlos— no podían mantenerse al margen de la política de sus
gobiernos, tanto si
simpatizaban con ella como si no, aunque sólo fuera por los gestos
públicos que les imponían,
como el saludo nazi en
Max von Laue (1897-1960)
procuraba evitar llevando algo en las dos manos siempre
que salía de su casa.
A diferencia de lo que
ocurre con las ciencias sociales o humanas, esta politización era
excepcional en las ciencias
naturales, cuya materia no exige, ni siquiera sugiere —salvo en
ciertos ámbitos de las
ciencias de la vida— opiniones sobre los asuntos humanos, aunque
a menudo las sugiera sobre
Dios.
Sin embargo, los
científicos estaban más directamente politizados por sus bien
fundadas creencias de que
los legos, incluyendo a los políticos, no tenían ni idea del
extraordinario potencial
que la ciencia moderna, adecuadamente empleada, ponía en
manos de la sociedad
humana. Y tanto el colapso de la economía mundial como el
ascenso de Hitler
parecieron confirmarlo de modos distintos. Por el contrario, la
devoción marxista oficial
de
naturales engañó a muchos
científicos occidentales de la época, haciéndoles creer
que era un régimen adecuado
para realizar este potencial. La tecnocracia y el
radicalismo convergieron
porque en este punto era la izquierda política, con su compromiso
ideológico con la ciencia,
el racionalismo y el progreso (ridiculizado por los
conservadores mediante un
neologismo, el «cientifismo»), 14 la que representaba
naturalmente el
reconocimiento y el respaldo adecuados para «la función social de la
ciencia», por citar el
título de un libro-manifiesto de gran influencia en esa época
(Bernal. 1939), escrito,
como no podía ser menos, por un físico marxista brillante y
militante.
También es significativo
que el gobierno del Frente Popular francés de 1936-
1939 creara la primera
subsecretaría de investigación científica (dirigida por Irene
Joliot-Curie, galardonada
con el Nobel) y desarrollase lo que aún hoy es el principal
mecanismo de subvención de
la investigación francesa, el CNRS, Centre National de
menos para los científicos,
que la investigación no sólo necesitaba fondos públicos,
sino también una
organización pública. Los servicios científicos del gobierno
británico, que en 1930
empleaban en su conjunto a un total de 743 científicos, eran
insuficientes (treinta años
después daban empleo a más de 7. 000) (Bernal, 1967, p.
931).
La etapa de la ciencia
politizada alcanzó su punto álgido en la segunda guerra
mundial, el primer
conflicto (desde la era jacobina, durante la revolución francesa)
en que los científicos
fueron movilizados de forma sistemática y centralizada con
fines militares, con mayor
eficacia, probablemente, por parte de los aliados que por
parte de Alemania, Italia y
Japón, porque los aliados no pretendían ganar la guerra
rápidamente con los métodos
y los recursos de que disponían en aquel momento
(véase el capítulo I).
Trágicamente, la guerra
atómica resultó ser hija del antifascismo. Una simple
guerra entre estados-nación
no hubiera movido a la flor y nata de los físicos
nucleares, gran parte de
ellos refugiados o exiliados del fascismo, a incitar a los
gobiernos británico y
estadounidense a que construyeran la bomba atómica. Y el
mismo horror de estos científicos
cuando la lograron, sus esfuerzos de última hora
para evitar que los
políticos y militares la usasen, y su posterior resistencia a la
construcción de la bomba de
hidrógeno, muestran la fuerza de las pasiones políticas.
En realidad, el apoyo que las
campañas antinucleares impulsadas tras la segunda
guerra mundial encontraron
entre la comunidad científica lo recibieron de los miembros
de las politizadas
generaciones antifascistas.
Al mismo tiempo, la guerra
acabó de convencer a los gobiernos de que dedicar
recursos inimaginables
hasta entonces a la investigación científica era factible y esencial
para el futuro. Ninguna
economía, excepto la de los Estados Unidos, podía haber reunido
dos mil millones de dólares
(al valor de los tiempos de guerra) para construir la bomba
atómica en plena
conflagración. Pero también es verdad que ningún gobierno, antes de
1940, hubiera soñado en
gastar ni siquiera una pequeña fracción de todo ese dinero en un
proyecto hipotético, basado
en los cálculos incomprensibles de unos académicos
melenudos. Después de la
guerra sólo el cielo o, mejor dicho, la capacidad económica fue
el límite del gasto y de
los empleos científicos de los gobiernos. En los años setenta el
gobierno estadounidense
sufragaba los dos tercios de los costes de la investigación básica
que se desarrollaba en su
país, que en aquel tiempo sumaban casi cinco mil millones de
dólares anuales, y
daba trabajo a casi un millón de científicos e ingenieros (Holton,
1978, pp. 227-228).
III
La temperatura política de
la ciencia bajó después de la segunda guerra mundial. Entre
1947 y 1949 el radicalismo
experimentó un rápido descenso en los laboratorios, cuando
opiniones que en otros
lugares se consideraban extrañas e infundadas se convirtieron en
obligatorias para los
científicos de
encontraban imposible de
tragar el «lysenkoísmo» (véanse pp. 526-527). Además, cada vez
fue más evidente que los
regímenes que seguían el modelo soviético carecían de atractivo
material y moral, al menos
para la mayoría de los científicos.
Por otra parte, y pese a la
ingente propaganda realizada, la guerra fría entre Occidente
y el bloque soviético nunca
generó entre los científicos nada parecido a las pasiones
políticas desencadenadas por
el fascismo. Puede que ello se debiera a la tradicional
afinidad entre los
racionalismos liberal y marxista, o a que
de
se lo hubiese propuesto, lo
cual era muy dudoso. Para la mayor parte de los científicos
occidentales
cuyos científicos eran
dignos de compasión, más que imperios del mal contra los que
hubiera que hacer una
cruzada.
En el mundo occidental
desarrollado las ciencias naturales permanecieron política e
ideológicamente inactivas
durante una generación, disfrutando de sus logros intelectuales
y de los vastos recursos de
que ahora disponían para sus investigaciones. De hecho, el
magnánimo patrocinio de los
gobiernos y de ¡as grandes empresas alentó a un tipo de
investigadores que no
discutían la política de quienes les pagaban y preferían no pensar en
las posibles implicaciones
de sus trabajos, especialmente cuando pertenecían al ámbito militar.
A lo sumo, los científicos
de estos sectores protestaban por no poder publicar los resultados de
sus investigaciones.
De hecho, la mayoría de los
componentes de lo que en ese momento era el enorme
ejército de doctores en
física contratados por
Administration), fundada
como respuesta al reto soviético de 1958, no tenían mayor
interés en conocer las
razones que orientaban sus actividades que los miembros de
cualquier otro ejército. A
fines de los años cuarenta todavía había hombres y mujeres que
se torturaban con el dilema
de si entrar o no en los centros gubernamentales
especializados en
investigaciones de guerra química y biológica. 15 No parece que
posteriormente hubiera dificultades
para reclutar personal para estos puestos.
Un tanto inesperadamente,
fue en la zona de influencia soviética donde la ciencia se
politizó más a medida que
avanzaba la segunda mitad del siglo. No era una casualidad
que el portavoz nacional (e
internacional) de la disidencia soviética fuese un científico,
Andrei Sajarov (1921-1989),
el físico que había sido el principal responsable de la
construcción, a fines de
los años cuarenta, de la bomba de hidrógeno soviética. Los
científicos eran miembros
por excelencia de la amplia nueva clase media profesional,
instruida y técnicamente
preparada, que era el principal logro del sistema soviético, al
mismo tiempo que la clase
más consciente de sus debilidades y limitaciones. Eran mucho
más necesarios para el sistema
que sus colegas occidentales, ya que eran tan sólo ellos los
que hacían posible que una
economía atrasada en muchos aspectos pudiese enfrentarse a
los Estados Unidos como una
superpotencia. Y demostraron que eran indispensables al
permitir que
más avanzada: la espacial.
El primer satélite construido por el hombre (Sputnik, 1957), el
primer vuelo espacial
tripulado por hombres y mujeres (1961, 1963) y los primeros paseos
espaciales fueron rusos.
Concentrados en institutos de investigación o en «ciudades
científicas», unidos por su
trabajo, apaciguados y disfrutando de un cierto grado de libertad
concedido por el régimen
pos-estalinista, no es sorprendente que surgieran opiniones
críticas en ese ámbito
investigador, cuyo prestigio social era, en todo caso, mucho mayor
que el de cualquier otra
ocupación en la sociedad soviética.
IV
¿Puede decirse que estas
fluctuaciones en la temperatura política e ideológica
afectaron al progreso de
las ciencias naturales? Mucho menos de lo que afectaron a las
ciencias humanas y
sociales, por no hablar de las ideologías y filosofías. Las ciencias
naturales podían reflejar
el siglo en que vivían los científicos tan sólo dentro de los confines
de la metodología empírica
que, en una época de incertidumbre epistemológica, se generalizó
necesariamente: la de la hipótesis verificable —o, en términos de Karl Popper
(1902-1994),
falsable— mediante pruebas
prácticas. Esto imponía límites a su ideologización. La economía,
aunque sujeta a exigencias
de lógica y consistencia, ha florecido como una especie de teología
—probablemente como la rama
más influyente de la teología secular, en el mundo
occidental— porque
normalmente se puede formular, y se formula, en unos términos que
le permiten rehuir el
control de la verificación. La física no puede permitírselo. Así,
mientras que en el ámbito
de la economía se puede demostrar que las escuelas en
conflicto y el cambio de
las modas del pensamiento económico son fiel reflejo de las
experiencias y del debate
ideológico contemporáneos, esto no sucede en el ámbito de la
cosmología.
Pese a todo la ciencia se
hizo eco de su tiempo, aunque es innegable que algunos
movimientos científicos
importantes son endógenos. Así, era prácticamente inevitable que
la desordenada
proliferación de partículas subatómicas, especialmente tras la aceleración
experimentada en los años
cincuenta, condujese a los científicos a buscar simplificación.
La arbitraria naturaleza de
la nueva, e hipotéticamente «última», partícula de la que se
decía ahora que estaban
compuestos los protones, neutrones, electrones y demás, queda
reflejada en su mismo
nombre, quark, término tomado de Finnegan's Wake de James Joyce
(1963). Éste fue muy pronto
dividido en tres o cuatro subespecies (con sus «antiquarks»),
descritas como up, down,
sideways o strange, y quarks con charm, cada una de ellos
dotada
de una propiedad llamada
«color». Ninguna de estas palabras tenía nada que ver con sus
significados comunes. Como
de costumbre, a partir de esta teoría se hicieron
predicciones acertadas,
encubriendo así el hecho de que en los noventa no se ha
encontrado ningún tipo de
evidencia experimental que avale la existencia de quarks
de ningún tipo. 16
Si estos nuevos avances
constituían una simplificación del laberinto subatómico o,
por el contrario, un
aumento de su complejidad, es algo que debe dejarse al juicio de los
físicos capacitados para
ello. Sin embargo, el observador lego escéptico, aunque
admirado, puede recordar a
veces los titánicos esfuerzos intelectuales y las dosis de
ingenio empleadas a fines
del siglo XIX para mantener la creencia científica en el «éter»,
antes de que los trabajos
de Planck y Einstein lo relegaran al museo de las pseudoteorías
junto al «flogisto» (véase La
era del imperio, capítulo 10).
La misma falta de contacto
de estas construcciones teóricas con la realidad que
intentan explicar (excepto
en calidad de hipótesis falsables) las abrió a las influencias
del mundo exterior. ¿No era
lógico que, en un siglo tan dominado por la tecnología,
las analogías mecánicas
contribuyeran a conformarlas, aunque esta vez en la
forma de técnicas de
comunicación y control en los animales y las máquinas, que desde
1940 han generado un corpus
teórico conocido bajo varios nombres (cibernética, teoría
general de sistemas, teoría
de la información, etc.)?
Los ordenadores
electrónicos, que se desarrollaron a una velocidad de vértigo después
de la segunda guerra
mundial, especialmente tras la invención del transistor, tenían una
enorme capacidad para hacer
simulaciones, lo que hizo mucho más fácil que antes
desarrollar modelos
mecánicos de las que, hasta entonces, se consideraban las funciones
físicas y mentales básicas
de los organismos, incluyendo el humano. Los científicos de
fines del siglo XX hablaban
del cerebro si éste fuese esencialmente un elaborado sistema
de procesamiento de
información, y uno de los debates filosóficos habituales de la
segunda mitad del siglo era
si se podía, y en tal caso cómo, diferenciar la inteligencia
humana de la «inteligencia
artificial»; es decir, qué es lo que había —si lo había— en la
mente humana que no fuese
programable en teoría en un ordenador.
Es indudable que estos
modelos tecnológicos han hecho avanzar la investigación.
¿Dónde estaría el estudio
de la neurología —esto es, el estudio de los impulsos eléctricos
nerviosos— sin los de la
electrónica? No obstante, en el fondo estas resultan ser unas
analogías reduccionistas,
que un día probablemente parecerán tan desfasadas como nos lo
parece ahora la descripción
que se hacía en el siglo XVIII del movimiento humano en
términos de un sistema de
poleas.
Estas analogías fueron
útiles para la formulación de modelos concretos. Sin embargo,
más allá de éstos, la
experiencia vital de los científicos había de afectar a su forma de
mirar a la naturaleza. El
nuestro ha sido un siglo en el cual, por citar a un científico que
reseñaba la obra de otro,
«el conflicto entre gradualistas y catastrofistas impregna la
experiencia humana» (Jones,
1992, p. 12). Y, por ello, no es sorprendente que haya
impregnado también la
ciencia.
En un siglo XIX de mejoras
y progreso burgués, la continuidad y el gradualismo
dominaron los paradigmas de
la ciencia. Fuera cual fuese el sistema de locomoción de la
naturaleza, no le estaba
permitido avanzar a saltos. El cambio geológico y la evolución de
la vida en la tierra se
habían desarrollado sin catástrofes, poco a poco. Incluso el
previsible final del
universo, en algún futuro remoto, sería gradual, mediante la perceptible
pero inexorable
transformación de la energía en calor, de acuerdo con la segunda ley de la
termodinámica (la «muerte
térmica del universo»). La ciencia del siglo XX ha
desarrollado una imagen del
mundo muy distinta.
Nuestro universo nació, hace
quince millones de años, de una explosión primordial y,
según las especulaciones
cosmológicas que se barajan en el momento de escribir esto,
podría terminar de una
forma igualmente espectacular. Dentro de él la «biografía» de
las estrellas y, por tanto,
la de sus planetas está, como el universo, llena de cataclismos:
novas, supernovas,
estrellas gigantes rojas, estrellas enanas, agujeros negros y otros
fenómenos astronómicos que
antes de los años veinte eran desconocidos o considerados
como periféricos.
Durante mucho tiempo la
mayor parte de los geólogos se resistieron a la idea de
grandes desplazamientos
laterales, como los de la deriva de los continentes a través del
planeta en el transcurso de
la historia de la tierra, aunque la evidencia en su favor fuese
considerable. Su oposición
se fundamentaba en cuestiones básicamente ideológicas, a
juzgar por la acritud de la
polémica contra el principal defensor de la «deriva continental»,
Alfred Wegener. En todo
caso, el argumento de quienes consideraban que la «deriva
continental» no podía ser
cierta porque no había ningún mecanismo geofísico conocido
que pudiese llevar a cabo
tales movimientos no era, a priori, más convincente que el
razonamiento de lord
Kelvin, en el siglo XIX, según el cual la escala temporal postulada en
aquel tiempo por los
geólogos no podía ser verdadera porque la física, tal como se conocía
entonces, consideraba que
la tierra era mucho más joven de lo que decía la geología.
Sin embargo, en los años
sesenta lo que antes era impensable se convirtió en la
ortodoxia cotidiana de la
geología: un mundo compuesto por gigantescas placas
movedizas, a veces en
rápido movimiento («tectónica de placas»). 17
Quizá resulte aún más
ilustrativo el hecho de que desde los años sesenta la geología y
la teoría evolucionista
regresaran a un catastrofismo directo a través de la paleontología.
Una vez más, las evidencias
prima facie eran conocidas desde hacía mucho tiempo: todos
los niños saben que los
dinosaurios se extinguieron al final del período Cretácico. Pero era
tal la fuerza de la
creencia darwinista según la cual la evolución no era el resultado de
catástrofes (o de la
creación), sino de lentos y pequeños cambios que se produjeron en el
transcurso de la historia
geológica, que este aparente cataclismo biológico llamó poco la
atención.
Sencillamente, el tiempo
geológico se consideraba lo suficientemente prolongado
como para dar cuenta de
cualquier cambio evolutivo. ¿Debemos sorprendernos de que, en
una época en que la
historia humana estaba tan marcada por los cataclismos, las
discontinuidades evolutivas
llamaran de nuevo la atención? Todavía podríamos ir más
lejos: el mecanismo
predilecto de los geólogos y los paleontólogos catastrofistas en el
momento en que escribo esto
es el de un bombardeo del espacio exterior, es decir, la
colisión con uno o varios
grandes meteoritos. Según algunos cálculos, es probable que
cada trescientos mil años
llegue a
para destruir la
civilización, esto es, el equivalente a ocho millones de Hiroshimas.
Estas disquisiciones habían
sido siempre propias de una prehistoria marginal; pero,
antes de la era de la
guerra nuclear, ¿algún científico serio hubiese pensado en esos
términos? Estas teorías de
la evolución que la consideran como un proceso lento,
interrumpido de vez en
cuando por un cambio súbito («equilibrio puntuado»), siguen
siendo objeto de polémica
en los años noventa, pero son parte ahora del debate dentro
de la comunidad científica.
Al observador lego tampoco puede pasarle desapercibida la
aparición, dentro del campo
del pensamiento más alejado de la vida cotidiana, de dos
áreas de las matemáticas
conocidas, respectivamente, como «teoría de las catástrofes»,
iniciada en los sesenta, y
«teoría del caos», iniciada en los ochenta (véanse pp. 534 y ss.
). La primera de ellas se
desarrolló en Francia en los años sesenta a partir de la topología,
e investigaba las
situaciones en que un cambio gradual produce rupturas bruscas, es
decir, la interrelación
entre el cambio continuo y el discontinuo. La segunda, de origen
estadounidense, hizo
modelos de las situaciones de incertidumbre e impredictibilidad en
las que hechos
aparentemente nimios, como el batir de las alas de una mariposa, pueden
desencadenar grandes
resultados en otro lugar, como por ejemplo un huracán.
Para quienes han vivido las
últimas décadas del siglo no resulta difícil comprender por
qué tales imágenes de caos
y de catástrofe aparecían en las mentes de científicos y
matemáticos.
V
Sin embargo, a partir de
los años setenta el mundo exterior afectó a la actividad de
laboratorios y seminarios
de una manera más indirecta, pero también más intensa, con el
descubrimiento de que la
tecnología derivada de la ciencia, cuyo poder se multiplicó
gracias a la explosión
económica global, era capaz de producir cambios fundamentales y
tal vez irreversibles en el
planeta Tierra, o al menos, en
organismos vivos. Esto era
aún más inquietante que la perspectiva de una catástrofe causada
por el hombre, en forma de
guerra nuclear, que obsesionó la conciencia y la
imaginación de los hombres
durante la larga guerra fría, ya que una guerra nuclear
globalizada entre
efecto, se evitó. No era
tan fácil escapar de los subproductos del crecimiento científicoeconómico.
Así, en 1973, dos químicos,
Rowland y Molina, fueron los primeros en darse
cuenta de que los
clorofluorocarbonados, ampliamente empleados en la refrigeración y en
los nuevos y populares
aerosoles, destruían el ozono de la atmósfera terrestre. No es de
extrañar que este fenómeno
no se hubiese percibido antes, ya que a principios de los años
cincuenta la emisión de
estos elementos químicos (CFC 11 y CFC 12) no superaba las
cuarenta mil toneladas,
mientras que entre 1960 y 1972 se emitieron a la atmósfera más de
3, 6 millones de toneladas.
18 Así, a principios de los arios noventa, la existencia de grandes
«agujeros en la capa de
ozono» de la atmósfera era del dominio público, y la única pregunta
a hacerse era con qué
rapidez se agotaría la capa de ozono, y cuándo se rebasaría la capacidad de
recuperación natural. Estaba claro que si nos deshacíamos de los CFC la capa de
ozono se repondría. Desde los años setenta empezó a discutirse seriamente el
problema del «efecto invernadero», el calentamiento incontrolado de la
temperatura del planeta debido a la emisión de gases producidos
por el hombre, y en los
años ochenta se convirtió en una de las principales preocupaciones de especialistas
y políticos (Smil, 1990). El peligro era real, aunque en ocasiones se exageraba
mucho.
Casi al mismo tiempo el
término «ecología», acuñado en 1873 para describir la rama
de la biología que se
ocupaba de las interrelaciones entre los organismos y su entorno,
adquirió su connotación
familiar y casi política (Nicholson, 1970). 19 Estas eran las
consecuencias naturales del
gran boom económico del siglo (véase el capítulo IX).
Estos temores bastarían
para explicar por qué en los años setenta la política y las
ideologías volvieron a
interesarse por las ciencias naturales, hasta el punto de penetrar en
algunas partes de las
propias ciencias en forma de debates sobre la necesidad de límites
prácticos y morales en la
investigación científica.
Estas cuestiones no se
habían planteado seriamente desde el final de la hegemonía
teológica. Y no debe
sorprendernos que se planteasen precisamente desde aquellas ramas
de las ciencias naturales
que siempre habían tenido, o parecían tener, implicación directa
con las cuestiones humanas:
la genética y la biología evolutiva. Ello sucedió porque, diez
años después de la segunda
guerra mundial, las ciencias de la vida experimentaron una
revolución con los
asombrosos avances de la biología molecular, que desvelaron los
mecanismos universales de
la herencia, el «código genético».
La revolución de la
biología molecular no fue un suceso inesperado. Después de 1914
podía darse por hecho que
la vida podía y tenía que explicarse en términos físicos y
químicos, y no en términos de
alguna esencia inherente a los seres vivos. 20 De hecho, los
modelos bioquímicos sobre
el posible origen de la vida en
solar, el metano, el
amoníaco y el agua, fueron sugeridos por primera vez (en buena medida
con intenciones
antirreligiosas) en
veinte, y situaron el tema
en el terreno de la discusión científica seria. Dicho sea
de paso, la hostilidad
hacia la religión siguió siendo un elemento dinamizador de las
investigaciones en este
campo, y tanto Crick como Linus Pauling son ejemplos de
ello (Olby, 1970, p. 943).
Durante décadas la biología dedicó sus mayores esfuerzos
al estudio de la bioquímica
y de la física, desde que se supo que las moléculas de las
proteínas se podían
cristalizar y, por tanto, analizar cristalográficamente. Se sabía
que una sustancia, el ácido
desoxirribonucleico (ADN), desempeñaba un papel,
posiblemente el papel
central, en la herencia; parecía ser el componente básico del
gen, la unidad de la
herencia. A finales de los años treinta aún se intentaba
desentrañar el problema de
cómo el gen «causa[ba] la síntesis de otra estructura
idéntica a él mismo, en la
que incluso se copia[ba]n las mutaciones del gen original»
(Mullen 1951, p. 95). En
definitiva, se investigaba cómo actuaba la herencia.
Después de la guerra estaba
claro que, como dijo Crick, «grandes cosas aguardaban a
la vuelta de la esquina».
El brillo del descubrimiento hecho por Crick y Watson de la
estructura de doble hélice
del ADN y la forma en que explicaba la «copia de genes»
mediante un elegante modelo
mecánico-químico, no queda empañado por el hecho
de que otros investigadores
estuviesen acercándose a los mismos resultados a
principios de los años
cincuenta.
La revolución del ADN, «el
mayor descubrimiento de la biología» (J. D. Bernal),
que dominó las ciencias de
la vida durante la segunda mitad del siglo, se refería
esencialmente a la genética
y, en la medida en que el darwinismo del siglo XX es
exclusivamente genético, a
la evolución. 21 Tanto la genética como el darwinismo
son materias muy delicadas,
porque los modelos científicos de estos campos tienen
muchas veces una carga
ideológica —cabe recordar aquí la deuda de Darwin con
Malthus (véase Desmond y
Moore, capítulo 18) — y porque frecuentemente tienen
efectos políticos (como el
«darwinismo social»). El concepto de «raza» ilustra esta
interacción. El recuerdo de
la política racial del nazismo hizo que para los
intelectuales liberales,
entre los que se encontraban la mayoría de los científicos,
fuera prácticamente
impensable trabajar con este concepto. De hecho, muchos
dudaron incluso que fuese
legítimo investigar sistemáticamente las diferencias
genéticamente determinadas
entre los grupos humanos, por temor a que los resultados
sirviesen de apoyo a las
tesis racistas. De manera más general, en los países
occidentales la ideología
posfascista de democracia e igualdad resucitó los viejos
debates de «la naturaleza
contra la crianza» o de la herencia contra el entorno.
Evidentemente, el individuo
humano es configurado por la herencia y por el entorno;
por los genes y por la
cultura. Pero los conservadores se inclinaban con gusto a
aceptar una sociedad de
desigualdades inamovibles, esto es, genéticamente
determinadas, y la
izquierda, con su compromiso con la igualdad, sostenía que la
acción social podía superar
todas las desigualdades ya que, en el fondo, éstas estaban
determinadas por el
entorno. La controversia se enconó con la cuestión de la inteligencia
humana que, por sus
implicaciones en la escolarización universal o selectiva, era altamente
política, hasta el punto
que generó polémicas aún más encendidas que las suscitadas por la
raza, aunque ambas estaban
relacionadas. Cuan importantes eran estos debates se pudo ver
con el resurgimiento del
movimiento feminista (véase el capítulo X), algunos de
cuyos ideólogos llegaron
prácticamente a afirmar que todas las diferencias mentales
entre hombres y mujeres
estaban determinadas por la cultura, esto es, por el entorno.
De hecho, la adopción del
término «género» en sustitución de «sexo» implicaba la
creencia de que «mujer» no
era tanto una categoría biológica como un rol social. El
científico que intentase
investigar cuestiones tan delicadas sabía que se estaba aventurando
en un campo de minas
político. Incluso quienes se adentraban en él
deliberadamente, como E. O.
Wilson, de Harvard (1929), el paladín de la
«sociobiología», evitaban
hablar con claridad. 22
Lo que todavía enrareció
más el ambiente fue que los propios científicos,
especialmente los del
ámbito más claramente social de las ciencias de la vida (la
teoría evolutiva, la
ecología, la etología o estudio del comportamiento social de los
animales y similares)
abusaban del uso de metáforas antropomórficas o sacaban
conclusiones humanas. Los
sociobiólogos, o quienes popularizaban sus hallazgos,
sugirieron que en nuestra
existencia social todavía predominaban los caracteres
(masculinos) heredados de
los milenios durante los cuales el hombre primitivo
experimentó un proceso de
selección para adaptarse, como cazador, a una existencia
más predadora en hábitats
abiertos (Wilson, Ibíd...). Esto no sólo irritó a las mujeres,
sino también a los
historiadores. Los teóricos evolucionistas analizaron la selección
natural, a la luz de la
gran revolución biológica, como la lucha por la existencia de
«el gen egoísta» (Dawkins,
1976). Incluso los partidarios de la versión dura del
darwinismo se preguntaban
qué tenía que ver realmente la selección genética con los
debates sobre el egoísmo,
la competencia y la cooperación humana. Una vez más, la
ciencia se vio asediada por
los críticos, aunque, significativamente, no sufrió ya el
acoso de la religión
tradicional, exceptuando algunos grupos fundamentalistas
intelectualmente
insignificantes. El clero aceptaba ahora la hegemonía del
laboratorio, y procuraba
extraer todo el consuelo teológico posible de la cosmología
científica cuyas teorías
del big bang podían, a los ojos de la fe, presentarse como prueba
de que un Dios había creado
el mundo. Por otro lado, la revolución cultural occidental de
los años sesenta y setenta
produjo un fuerte ataque neorromántico e irracionalista contra la
visión científica del
mundo; un ataque cuyo tono podía pasar de radical a reaccionario con
facilidad.
A diferencia de lo que
ocurría en las trincheras exteriores de las ciencias naturales, el
bastión principal de la
investigación pura en las ciencias «duras» se vio poco afectado por
estos ataques, hasta que en
los años setenta se vio claro que la investigación no se podía
divorciar de las
consecuencias sociales de las tecnologías que ahora engendraba. Fueron las
perspectivas de la
«ingeniería genética» —en los seres humanos y en otras formas de
vida— las que llevaron a
plantearse la cuestión de si debían ponerse límites a la investigación
científica. Por vez primera
se oyeron opiniones de este tipo entre los propios
científicos, especialmente
en el campo de la biología, porque a partir de aquel momento
algunos de los elementos
esenciales de las tecnologías «frankensteinianas» ya no eran
separables de la
investigación pura o simples consecuencias de ella, sino que, como en el
caso del proyecto Genoma,
que pretende hacer el mapa de todos los genes humanos
hereditarios, eran la
investigación básica. Estas críticas minaron lo que todos los científicos
habían considerado hasta
entonces, y la mayoría siguió considerando, como el principio
básico de la ciencia, según
el cual, salvo concesiones marginales a las creencias morales de
la sociedad, 23 la ciencia
debe buscar la verdad dondequiera que esta búsqueda la lleve. Los
científicos no tenían
ninguna responsabilidad por lo que los no científicos hicieran con sus
hallazgos. Que, como
observó un científico estadounidense en 1992, «ningún biólogo
molecular importante que yo
conozca ha dejado de hacer alguna inversión financiera en el
negocio biotecnológico»
(Lewontin, 1992, p. 37; pp. 31-40), o que «la cuestión (de la
propiedad) está en el
centro de todo lo que hacemos» (Ibíd., p. 38), pone en entredicho
esta pretensión de pureza.
De lo que se trataba ahora
no era de la búsqueda de la verdad, sino de la imposibilidad
de separarla de sus
condiciones y consecuencias. Al mismo tiempo, el debate se dirimía
esencialmente entre los
optimistas y los pesimistas acerca de la raza humana, ya que el
presupuesto básico de
quienes contemplaban restricciones o autolimitaciones en la
investigación científica
era que la humanidad, tal como estaba organizada hasta el
momento, no era capaz de
manejar el potencial de transformación radical que poseía, ni
siquiera de reconocer los
riesgos que estaba corriendo. Porque incluso los brujos que no
aceptaban límites en sus
investigaciones desconfiaban de sus aprendices. Los argumentos
en favor de una
investigación ilimitada «atañen a la investigación científica básica, no a
las aplicaciones
tecnológicas de la ciencia, algunas de las cuales deben restringirse»
(Baltimore, 1978).
Pero incluso estos
argumentos se alejaban de lo esencial. Porque, como
todos los científicos
sabían, la investigación científica no era ilimitada y libre,
aunque sólo fuese porque
necesitaba unos recursos que estaban limitados. La
cuestión no estribaba en si
alguien debía decir a los investigadores qué podían hacer
o no, sino en quién imponía
tales límites y directrices, y con qué criterios. Para la
mayoría de los científicos,
cuyas instituciones estaban directa o indirectamente
financiadas con fondos
públicos, los controladores de la investigación eran los
gobiernos, cuyos criterios,
por muy sincera que fuese su devoción por los valores de
la libre investigación, no
eran los de un Planck, un Rutherford o un Einstein.
Sus prioridades no eran,
por definición, las de la investigación «pura»,
especialmente cuando esa
investigación era cara. Cuando el gran boom global llegó a
su fin, incluso los gobiernos
más ricos, cuyos ingresos no superaban ya a sus gastos,
tuvieron que hacer cuentas.
Tampoco eran, ni podían ser, las prioridades de la
investigación «aplicada»,
que daba empleo a la gran mayoría de los científicos,
porque éstas no se fijaban
en términos del «avance del conocimiento» en general
(aunque pudiera resultar de
ella), sino en función de la necesidad de lograr ciertos
resultados prácticos, como,
por ejemplo, una terapia efectiva para el cáncer o el
SIDA. Quienes investigaban
en estos campos no se dedicaban necesariamente a
aquello que verdaderamente
les interesaba, sino a lo que era socialmente útil o
económicamente rentable, o
por lo menos aquello para lo que se disponía de dinero,
aunque confiasen en que
volviera a llevarles alguna vez a la senda de la investigación
básica. En estas
circunstancias, resultaba retórico afirmar que poner límites a la
investigación era
intolerable porque el hombre, por naturaleza, pertenecía a una
especie que necesitaba
«satisfacer su curiosidad, explorar y experimentar» (Lewis
Thomas, en Baltimore, 1978,
p. 44), o que, siguiendo la consigna de los montañeros,
debemos escalar las cimas
del conocimiento «porque están ahí».
La verdad es que la
«ciencia» (un término por el que mucha gente entiende las
ciencias naturales «duras»)
era demasiado grande, demasiado poderosa, demasiado
indispensable para la
sociedad en general y para sus patrocinadores en particular
como para dejarla a merced
de sí misma. La paradoja de esta situación era que, en
último análisis, el poderoso
motor de la tecnología del siglo XX, y la economía que
ésta hizo posible,
dependían cada vez más de una comunidad relativamente
minúscula de personas para
quienes estas colosales consecuencias de sus actividades
resultaban secundarias o
triviales. Para ellos la capacidad humana de viajar a
o de transmitir vía
satélite las imágenes de un partido de fútbol disputado en Brasil
para que pudiera verse en
un televisor de Düsseldorf, era mucho menos interesante
que el descubrimiento de un
ruido de fondo cósmico que perturbaba las
comunicaciones, pero que
confirmaba una teoría sobre los orígenes del universo. No
obstante, al igual que el
antiguo matemático griego Arquímedes, sabían que
habitaban, y estaban
ayudando a configurar, un mundo que no podía comprender lo
que hacían, ni se
preocupaba por ello. Su llamamiento en favor de la libertad de
investigación era como el
grito de Arquímedes a los soldados invasores, contra quienes
había diseñado artefactos
militares para la defensa de su ciudad, Siracusa, en los que ni
se fijaron cuando le
mataban: «Por Dios, no destrocéis mis diagramas». Era comprensible,
pero poco realista.
Sólo los poderes
transformadores de los que tenían la llave les sirvieron de
protección, porque éstos
parecían depender de que se permitiera seguir a su aire a
una elite privilegiada e
incomprensible —hasta muy avanzado el siglo,
incomprensible incluso por
su relativa falta de interés en los signos externos de la
riqueza y el poder—. Todos
los estados del siglo XX que actuaron de otra manera
tuvieron ocasión de
lamentarlo. En consecuencia, todos los estados apoyaron la
ciencia, que, a diferencia
de las artes y de la mayor parte de las humanidades, no
podía funcionar de forma
eficaz sin tal apoyo, a la vez que evitaban interferir en ella
en la medida de lo posible.
Pero a los gobiernos no les interesan las verdades últimas
(salvo las ideológicas o
religiosas) sino la verdad instrumental. Pueden a lo sumo
fomentar la investigación
«pura» (es decir, la que resulta inútil de momento) porque
podría producir algún día
algo útil, o por razones de prestigio nacional, ya que en
este terreno la consecución
de premios Nobel se antepone a la de las medallas
olímpicas, y se valora
mucho más. Estos fueron los fundamentos sobre los que se
erigieron las estructuras
triunfantes de la investigación y la teoría científica, gracias a
las cuales el siglo XX será
recordado como una era de progreso y no únicamente de
tragedias humanas.
Notas:
1. El número incluso mayor
de científicos en la entonces Unión Soviética (cerca de 1, 5 millones) no era
probablemente del todo
comparable (UNESCO, 1991, cuadros 5. 2, 5. 4 y 5. 16).
2. Tres premios Nobel,
todos después de 1947.
3. También en los Estados
Unidos se produjo una pequeña huida temporal en los años del maccarthysmo, y
huidas políticas
ocasionales mayores de la zona soviética (Hungría en 1956; Polonia y
Checoslovaquia en 1968;
China y
Oriental a
4. Turing se suicidó en
1954, tras haber sido condenado por comportamiento homosexual, que por aquel
entonces se consideraba un
delito y también una patología que podía curarse mediante un tratamiento médico
o
psicológico. Turing no pudo
soportar la «cura» que le impusieron. No fue tanto una víctima de la
criminalización
de la homosexualidad
(masculina) en Gran Bretaña antes de los años sesenta, como de su propia
incapacidad para
asumirla. Sus inclinaciones
sexuales no provocaron ningún problema en el King's College de Cambridge, ni
entre el notable conjunto
de personas raras y excéntricas que durante la guerra se dedicaron a descifrar
códigos en
Bletchley, donde Turing
vivió antes de trasladarse a Manchester, una vez terminada la guerra. Sólo a un
hombre
que, como él, desconocía el
mundo en que vivían los demás podía ocurrírsele ir a denunciar el robo cometido
en su
casa por un amigo íntimo
(temporal), dando así a policía la oportunidad de detener a dos delincuentes a
la
vez.
alemanes no supieran cómo
hacerla, o porque no lo intentaran, con diferentes grados de mala conciencia,
sino
porque la maquinaria de
guerra alemana era incapaz de dedicar a ello los recursos necesarios.
Abandonaron por
ello el esfuerzo y se
concentraron en lo que les pareció más efectivo: los cohetes, que prometían
beneficios más
rápidos.
6. En este aspecto la
diferencia entre teoría y práctica es enorme, puesto que personas que están
dispuestas a
correr graves riesgos en la
práctica, por ejemplo viajando en coche por una autopista o desplazándose en
metro
por Nueva York, pueden
resistirse a tomar una aspirina porque saben que en algunos raros casos tiene
efectos
secundarios.
7. En este estudio de
Fischhof los participantes evaluaban los riesgos y los beneficios de
veinticinco
tecnologías: neveras,
fotocopiadoras, anticonceptivos, puentes colgantes, energía nuclear, juegos
electrónicos,
diagnóstico por rayos X,
armas nucleares, ordenadores, vacunas, fluorización del agua, placas de energía
solar,
láser, tranquilizantes,
cámaras Polaroid, energías fósiles, vehículos a motor, efectos especiales en
las películas,
pesticidas, opiáceos,
conservantes de alimentos, cirugía a corazón abierto, aviación comercial,
ingeniería
genética y molinos de
viento. (Véase también Wildavsky, 1990, pp. 41-60. )
8. Así,
condición de que no
mencionase a Einstein (Peierls, 1992, p. 44).
9. En 1930 Robert Millikan
(premio Nobel en 1923), del Caltech, escribió la siguiente frase: «uno puede
dormir en paz consciente de
que el Creador ha puesto en su obra algunos elementos a toda prueba, y que por
tanto el hombre no puede
infligirle ningún daño grave».
10 Desde la primera guerra
mundial más de veinte premios Nobel de física y química han sido otorgados,
total o parcialmente, a
nuevos métodos, instrumentos y técnicas de investigación.
11. El desarrollo de la
«teoría del caos» en los años setenta y ochenta tiene algo en común con el
surgimiento, a comienzos
del siglo XIX, de una escuela científica «romántica» centrada principalmente en
Alemania (
Bretaña. Es interesante
señalar que dos eminentes pioneros de la nueva escuela, Feigenbaum y Libchaber
(véase
Gleick, 1988, pp. 163 y
197), se inspiraron en la lectura de la apasionadamente antinewtoniana teoría
de los
colores de Goethe, y en su
tratado sobre la transformación de las plantas, que puede considerarse como una
teoría
evolucionista
antidarwinista anticipada. (Sobre
12. La revolución de la
física de 1924-1928 la llevaron a cabo personas como Heisenberg, Pauli, Dirac,
Fermi y Joliot, nacidas
entre 1900 y 1902. Schrödinger, De Broglie y Max Born estaban en la treintena.
13. Más adelante se
convirtió en un eminente historiador de la ciencia china.
14. El término apareció por
primera vez en 1936 en Francia (Guerlac. 1951. pp. 93-94).
15. Recuerdo de aquella
época la preocupación de un bioquímico amigo mío, antiguo pacifista y después
comunista, que había
aceptado un puesto de estas características en un centro británico.
16. John Maddox afirma que
esto depende de lo que cada uno entienda por «encontrar». Se identificaron
algunos efectos de los
quarks, pero, al parecer, éstos no se encuentran «solos», sino en pares o
tríos. Lo que
confunde a los científicos no
es si los quarks existen o no, sino el motivo por el cual nunca están solos.
17. Las evidencias prima
facie consistían en: a) el «ajuste» de las líneas costeras de
continentes separados,
especialmente el de las
costas occidentales de África y las orientales de América del Sur; b) la
similitud de los
estratos geológicos en
tales casos, y c) la distribución geográfica de ciertos tipos de
animales y plantas. Puedo
recordar mi sorpresa cuando
en los años cincuenta, poco antes del avance de la tectónica de placas, un
colega
geofísico se negaba ni
siquiera a considerar que esto necesitase explicación.
18. World Resources, 1986,
cuadro 11. 1. p. 319.
19. «La ecología... es
también la principal disciplina y herramienta intelectual que nos permite
esperar que
la evolución humana pueda
mutarse, pueda desviarse hacia un nuevo cauce de manera que el hombre deje de
ser
un peligro para el medio
ambiente del que depende su propio futuro. »
20. « ¿Cómo pueden explicar
la física y la química los acontecimientos espacio-temporales que se
producen dentro de los
límites espaciales de un organismo vivo?» (Schrödinger, 1944, p. 2).
21. También a la vanante
esencialmente matemático-mecánica de la ciencia experimental, a lo que
quizá se debe que no haya
encontrado un entusiasmo al cien por cien en otras ciencias de la vida menos
cuantificables o
experimentales, como la zoología y la paleontología (véase Lewontin, 1973).
22. «Mi impresión general
sobre la información disponible es que Homo sapiens es una especie
animal muy característica
en cuanto se refiere a la calidad y a la magnitud de la diversidad genética que
afecta a su conducta. Si se
me permite la comparación, la unidad psíquica de la especie humana ha
rebajado su estatus, y de
ser un dogma se ha convertido en una hipótesis verificable. Esto no es nada
fácil
de decir en el ambiente
político actual de los Estados Unidos, y algunos sectores de la comunidad
académica lo consideran una
herejía punible. Pero si las ciencias sociales quieren ser honestas no tienen
otra alternativa que
afrontar directamente la cuestión. Es preferible que los científicos estudien
la cuestión
de la diversidad conductual
genética que mantener una conspiración de silencio en nombre de las buenas
intenciones» (Wilson. 1977,
p. 133).
El significado real de este
retorcido párrafo es que las razas existen y que, por razones genéticas, en
algunos aspectos concretos
son permanentemente desiguales.
23. Como, en especial, la
restricción de no experimentar con seres humanos.
* Eric Hobsbawm, (1917), historiador marxista británico. Profesor de
-Tomado de su
libro: Historia del siglo XX, Capítulo XVIII BRUJOS Y APRENDICES: LAS CIENCIAS
NATURALES.
Obras: "La era de la
revolución, 1789 - 1848"; "La era del capital, 1848 - 1875";
"La era del imperio, 1875 - 1914"; "Las revoluciones
burguesas"; "En torno a los orígenes de la revolución
industrial".