Lysenko: La teoría materialista de la evolución en la URSS (V)
Lunes 22 de febrero de 2010 por CEPRID
Juan Manuel Olarieta Alberdi
NÓMADAS
La teoría sintética de Rockefeller
Desde mediados del siglo XIX el positivismo confió en la posibilidad de extraer la ideología (y la filosofía) de la ciencia, que podría seguir su marcha sin resultar alterada por adherencias extrañas. Influidas por él, algunas corrientes marxistas, como el estructuralismo de Althusser, han sostenido el mismo criterio. Incluso han llegado a convencerse de que eso se ha podido lograr con el propio desarrollo científico, de modo que les repugna que una ideología aparezca explícitamente “mezclada” en las investigaciones científicas. Pero lo novedoso no consiste en “introducir” la filosofía en la ciencia sino en el hecho de haberla sacado previamente de ahí. Por lo demás, la repugnancia por la mezcla sólo se experimenta cuando esa ideología no es la suya propia. En ocasiones algún científico manifiesta carecer de ideología alguna, o ser neutral ante todas ellas, o ser capaz de dejarlas al margen. Lo que sucede en esos casos es que se deja arrastrar por la ideología dominante, que queda como un sustrato sobreentendido de sus concepciones científicas y, en consecuencia, no se manifiesta conscientemente como tal ideología. Bernal lo expuso con relación a la influencia de Ernst Mach en la física: “Muchos físicos han absorbido tanto positivismo en su educación que lo consideran como un elemento intrínseco de la ciencia y no advierten que es simplemente una manera ingeniosa de explicar el universo objetivo en términos de ideas subjetivas” (210). En ocasiones eso se debe a la ignorancia de la filosofía, pero también a la pretensión de originalidad, de ausencia de precedentes; a veces porque parece poco científico mencionar, por ejemplo, las mónadas de Leibniz como un antecedente de las células de Virchow, de los factores de Mendel, de las bioforas o de los genes. Un concepto filosófico, por su propia naturaleza, siempre le parece especulativo al científico, nunca parece probado y siempre vulnerable a la crítica. Prefiere inventar un neologismo, aunque la noción sea exactamente la misma. Esa actitud positivista, que es ideológica en sí misma, es lo que hace que el linchamiento de Lysenko reincida en dos puntos que, al parecer, resultan impensables fuera de un país como la URSS. Uno de ellos es la injerencia coactiva y omnipresente del Estado en la investigación científica, y el otro, la no menos asfixiante injerencia de una ideología, la dialéctica materialista, en detrimento de otras ideologías y, por supuesto, de la ciencia, que debe permanecer tan pura como la misma raza.
Sin embargo, en los países capitalistas, que habían entrado ya en su fase imperialista, las ciencias padecían esas y otras influencias, de manera que los científicos estuvieron directa e inmediatamente involucrados en los peores desastres padecidos por millones de seres humanos en la primera mitad del siglo pasado (210b). Ahora bien, subjetivamente los científicos no perciben como influencia extraña aquella que se acopla a su manera previa de pensar, sobre todo si dicha influencia está generosamente recompensada con suculentas subvenciones. Entonces la influencia se convierte en ayuda, en fomento de la investigación. Por eso prefieren ponerse al servicio de las grandes multinaciones que al de un Estado socialista, que les resulta extraño. En particular, la genética fue seriamente sacudida por la crisis capitalista de 1929. A partir de aquel momento, la Fundación Rockefeller inicia un giro en su política de subvenciones favorable a la nueva ciencia y en detrimento de otras, como la matemática o la física. Entre 1932 y 1945 dicha Fundación contribuyó con aproximadamente 25 millones de dólares de la época para financiar la nueva genética sintética o “formalista”.
La dinastía comenzó con William Avery Rockefeller quien acumuló su fortuna engañando a los incautos con medicamentos fraudulentos embotellados como pócima milagrosa para cualquier clase imaginable de patología. A finales del siglo XIX, junto con otros conglomerados farmacéuticos, Rockefeller controlaba ya hospitales, universidades e instituciones sanitarias.
En la Fundación Rockefeller no había ningún interés de carácter estrictamente científico; se trataba de un proyecto hegemónico imperialista cuya clave está en la guerra bacteriológica, que inició su andadura con el lanzamiento masivo de gases letales durante la I Guerra Mundial. En 1931 Cornelius P. Rhoades, del Instituto Rockefeller de Investigaciones Médicas, infectó a seres humanos con células cancerígenas, falleciendo 13 personas. Rhoades dirigía los servicios de salud del Instituto de Medicina Tropical en San Juan de Puerto Rico. Desde allí escribió varias cartas a sus amigos en Estados Unidos en las que describía su odio hacia los puertorriqueños. Hablaba de ellos con desprecio: “Los puertorriqueños son sin duda la raza de hombres más sucia, haragana, degenerada y ladrona que haya habitado este planeta. Uno se enferma de tener que habitar la misma isla que ellos. Son peores que los italianos. Lo que la isla necesita no es trabajo de salud pública, sino una marejada o algo para exterminar totalmente a la población. Entonces pudiera ser habitable”. En una de aquellas cartas, fechada el 11 de noviembre de 1931, confesaba sus crímenes. Reconocía haber implantado células cancerígenas a pacientes puertorriqueños sin su consentimiento. Las cartas fueron interceptadas por los independentistas, quienes denunciaron el crimen. Pero las complicidades llegaban muy alto, de modo que el gobierno en lugar de encarcelar a Rhoades, le puso a cargo de los proyectos de guerra bacteriológica del ejército estadounidense en Maryland, Utah y en Panamá. Fue condecorado por el gobierno con la medalla meritoria de la Legión. Tras la II Guerra Mundial, le nombraron director de investigaciones del hospital Sloan Kettering Memorial de Nueva York, el centro oncológico más importante del mundo. En sus instalaciones Rhoades emprendió la investigación de 1.500 tipos de gas mostaza nitrogenado con la excusa de un supuesto tratamiento contra el cáncer. Utilizaron isótopos radiactivos con mujeres embarazadas y virus patógenos en otros pacientes. Luego Rhoades formó parte de la Comisión de Energía Atómica de Estados Unidos, donde siguió experimentando con radiaciones, tanto en soldados como en pacientes de hospitales civiles.
La referida Comisión de Energía Atómica desempeñó un papel fundamental en la imposición de la hegemonía científica de la teoría sintética. Al concluir la II Guerra Mundial, Estados Unidos no encomendó la producción de armas nucleares al Pentágono ni al Departamento de Defensa, sino a una agencia civil, la Comisión de Energía Atómica, responsable tanto del diseño de armas nucleares, como del desarrollo de la energía nuclear para usos civiles. En este último aspecto, debía ocuparse a la vez de la promoción de la energía atómica civil y de la regulación de la seguridad en las centrales nucleares. Las investigaciones genéticas formaban parte del capítulo de seguridad nuclear. Su objetivo era estudiar los efectos de las radiaciones sobre los cromosomas humanos, en busca de mutaciones y anormalidades inducidas por los programas nucleares, tanto militares como civiles (211). Se creó una Oficina de Investigación Sanitaria y Ambiental encargada de supervisar la seguridad en los trabajos con radiaciones. En los años ochenta esta Oficina disponía de presupuestos gigantescos (del orden de 2.000 millones de dólares) para el estudio de los efectos de la energía sobre el genoma humano. Su interés por los efectos genéticos de las radiaciones permitió que Dobzhansky, entre otros, tuvieran acceso a una fuente constante de financiación y colaboradores, mientras que otro tipo de proyectos de investigación quedaron relegados. El proyecto de secuenciación del genoma humano tuvo este origen (211b).
Rockefeller puso la ciencia al servicio de la eugenesia y a lo largo del siglo XX articuló su proyecto en cuatro fases sucesivas: la primera es el malthusianismo, control demográfico, restricciones a la inmigración y planes antinatalistas; el segundo es la eugenesia, la nueva genética, la esterilización y el apartheid; el tercero es la “revolución verde”, los fertilizantes, abonos y pesticidas usados masivamente en la agricultura a partir de 1945; el cuarto son los transgénicos, el control de las semillas y de la agricultura mundial. Al final de la II Guerra Mundial los laboratorios militares estadounidenses habían sintetizado muchos compuestos bacteriológicos nuevos destinados a transformarse en armas letales, tanto para los seres humanos como para las cosechas; con algunas variantes, muchos de ellos se podían utilizar como insecticidas o herbicidas. Por ejemplo, el DDT lo diseñó Monsanto en la década de los cuarenta como un arma de guerra química, reconvirtida luego en el agrotóxico estelar con el que envenenaron a los trabajadores, las tierras y las aguas de todo el planeta en la década siguiente (211c).
Para lograr la comercialización de las armas químicas era necesario crear un mercado civil capaz de consumir sus subproductos en gran escala. Habían invertido mucho capital como para abandonar las investigaciones, así que se montó un negocio para rentabilizarlas, sacando a un oscuro agrónomo de un laboratorio militar aún más oscuro, secreto: Norman E.Borlaug (1914-2009). La Fundación Rockefeller le propuso cambiar de trabajo y trasladarse a México para iniciar allá la “revolución verde” que -volveré sobre ello- es uno de los mayores desastres sociales y ambientales del siglo pasado. Se trataba de acabar con el autoconsumo y las prácticas agrícolas tradicionales, introduciendo el capitalismo salvaje en el campo: fertilizantes, pesticidas, maquinaria y, ante la imposibilidad de obtener nada de esto, introducción del crédito para endeudar al campesinado, arruinarle y hacerle perder la propiedad de sus tierras. Por su probado servilismo hacia las multinacionales, a Borlaug le recompensaron con el Premio Nóbel de la Paz en 1970. En México Borlaug pirateó una variedad híbrida de trigo capaz de soportar el uso masivo de agrotóxicos. Se trataba de una espiga de trigo con un tallo mucho más corto y grueso robada a los japoneses tras la guerra (211d).
La Fundación Rockefeller colaboró con el Instituto Kaiser Guillermo III y con Ernst Rüdin, el arquitecto de la política eugenista del III Reich. A pesar de los asesinatos de presos antifascistas en los internados y campos de concentración, continuó subvencionando en secreto las investigaciones nazis al menos hasta 1939, sólo unos meses antes de desatarse la II Guerra Mundial. El famoso gas Zyklon B, utilizado en los campos de concentración, fue fabricado por Bayer, una de las empresas integrantes del consorcio I.G.Farben que mantenía titularidades accionariales cruzadas con Rockefeller: la alemana era accionista de la Standard Oil y viceversa. En Nuremberg fueron condenados 24 directivos de I.G. Farben por cometer crímenes contra la humanidad y el tribunal ordenó desmantelar el consorcio, que se dividió en las multinacionales Hoechst, Bayer y BASF, un mero cambio de marca comercial (212).
El químico alemán Gerhard Schrader (1903–1990) trabajó de 1930 a 1937 para Bayer, sintetizando más de 2.000 nuevos compuestos químicos organofosforados, entre ellos algunos insecticidas que se podían utilizar también como armas neurotóxicas contra seres humanos, como el tabún. Tras la guerra, Schrader fue más hábil que sus jefes de I.G.Farben. Se refugió en Estados Unidos y, como tantos otros, encontró allí impunidad por sus crímenes, a cambio de poner sus conocimientos científicos al servicio de sus nuevos amos. Los pesticidas que se utilizaron en la “revolución verde” eran derivados químicos de las sustancias utilizadas como armamento en la I Guerra Mundial y producidas por los mismos laboratorios que fabricaron las bombas químicas arrojadas durante la guerra de Corea. Se trata de un proceso que no ha terminado. A través de la multinacional suiza Syngenta y del CGIAR (212b), hoy Rockefeller sigue manteniendo su red para el control de la población mundial y de sus fuentes de alimentación. En Puerto Rico los experimentos bioquímicos con la población han sido una constante. En los años sesenta utilizaron mujeres puertorriqueñas como conejillos de indias para probar anticonceptivos. Algunas murieron. La población de El Yunque fue irradiada para probar el agente naranja con el que se bombardeó Vietnam; hasta finales de los años noventa utilizaron cancerígenos sobre la población de Vieques; contaminaron con iodo radioactivo a pacientes en el antiguo hospital de veteranos; también profanaron cadáveres de la antigua Escuela de Medicina Tropical y los enviaron a Estados Unidos para analizarlos (212c).
La nueva política de subvenciones favorable a la genética fue impulsada por el matemático Warren Weaver, que en 1932 fue nombrado director de la División de Ciencias Naturales del Instituto Rockefeller, cargo que ejerció hasta 1959 y que era simultáneo a la dirección de un equipo de investigación militar. Una de las primeras ocurrencias de Weaver nada más tomar posesión de su puesto fue inventar el nombre de “biología molecular”, lo cual ya era una declaración de intenciones de su concepción micromerista. En la posguerra Weaver fue quien extrapoló la teoría de la información más allá del área en la que Claude Shannon la había concebido. Junto con la cibernética, la teoría de la información de Weaver, verdadero furor ideológico de la posguerra, asimilaba los seres vivos a las máquinas, los ordenadores a los “cerebros electrónicos”, el huevo (cigoto) a las antiguas cintas magnéticas de ordenador que archivaban la memoria, al tiempo que divagaba sobre “inteligencia” artificial y demás parafernalia adyacente. Si el hombre era una máquina, las máquinas también podían convertirse en seres humanos: “No hay una prueba concluyente de una diferencia esencial entre el hombre y una máquina. Para cada actividad humana podemos concebir una contrapartida mecánica” (213).
Rockefeller y Weaver no financiaron cualquier área de investigación en genética sino únicamente aquellas que aplicaban técnicas matemáticas y físicas a la biología. Otorgaron fondos a laboratorios y científicos que utilizaban métodos reduccionistas, cerrando las vías a cualquier otra línea de investigación diferente (213b). A partir de entonces muchos matemáticos y físicos se pasaron a la genética, entre ellos Erwin Schrödinger que escribió al respecto un libro que en algunas ediciones tradujo bien su titulo: “¿Qué es la vida? El aspecto físico de la célula viva”. La mayor parte eran físicos que habían trabajado en la mecánica cuántica y, por tanto, en la fabricación de la bomba atómica. Junto con la cibernética y la teoría de la información, la física de partículas fue el tercer eje sobre el que desarrolló la genética en la posguerra. La teoría sintética es, pues, el reverso de la bomba atómica de modo que los propios físicos que habían contribuido a fabricarla pasaron luego a analizar sus efectos en el hombre.
El destino favorito de las subvenciones de Rockefeller fue el laboratorio de Thomas H. Morgan en Pasadena (California), que se hizo famoso por sus moscas. El centro de gravedad de la nueva ciencia se trasladó hasta la orilla del Pacífico y la biología dejó de ser aquella vieja ciencia descriptiva, adquiriendo ya un tono claramente experimental. Generosamente becados por Rockefeller y Weaver, numerosos genetistas de todo el mundo pasaron por los laboratorios de Morgan en Pasadena para aprender las maravillas de la teoría mendelista. Entre los visitantes estaba uno de los introductores del mendelismo en España, Antonio de Zulueta, que tradujo al castellano algunas de las obras de Morgan. Los tentáculos de Rockefeller y Morgan alcanzaron a China: Tan Jiazhen, calificado como el “padre” de la genética de aquel país, también inició sus experimentos con moscas embotelladas en California.
Morgan respaldó la llamada teoría cromosómica que había sido propuesta en 1903 por Sutton y Boveri en Estados Unidos y Alemania respectivamente. Tuvo un éxito fulminante porque suponía un apoyo a la ley de la segregación de Mendel, una de sus primeras confirmaciones empíricas. Los cromosomas aparecen normalmente por parejas homólogas, unos procedentes del padre y otros de la madre. Se estableció un paralelismo entre cromosomas y factores génicos: el factor dominante se alojaba en uno de los cromosomas y el recesivo en el homólogo suyo. Como los cromosomas, los genes también aparecían por pares. Fue como una repentina visualización de lo que hasta entonces no había sido más que una hipótesis nebulosa.
Como suele ocurrir con algunos descubrimientos, la teoría cromosómica fue víctima de sí misma y condujo a sostener que los determinantes hereditarios se alojaban exclusivamente en aquellos filamentos del núcleo. Los cromosomas, sostiene Morgan, “son las últimas unidades alrededor de las cuales se concentra todo el proceso de la transmisión de los caracteres hereditarios” (214). En ellos se conserva el monopolio de la herencia; el citoplasma celular (el cuerpo) no desempeña ninguna función reproductiva. A partir de entonces los mendelistas dieron un sentido físico y espacial a los genes, presentados como los eslabones de las cadenas de cromosomas. Un gen es un “lugar” o una posición dentro de un cromosoma, empleando en ocasiones la expresión latina loci como sinónimo y llegando a elaborar “mapas” con su distribución. De esta manera concretaban en los cromosomas el plasma germinal de Weismann así como los enigmáticos factores de Mendel. Vistos al microscopio los cromosomas aparecían, además, segmentados en diferentes tonalidades de color, cada una de las cuales bien podía ser un gen; parecía como una especie de collar en el que las perlas (genes) se anudaban una detrás de la otra.
La teoría cromosómica de Sutton, Boveri y Morgan era errónea en su misma génesis porque ya se conocía con anterioridad la herencia citoplasmática, descubierta en la variegación vegetal por Correns en 1908. Es una teoría errónea en cuanto que, como la mayor parte de los postulados de la teoría sintética, es unilateral y otorga un valor absoluto a fenómenos biólogicos que sólo son parciales y limitados. A diferencia de la teoría cromosómica de Sutton, Boveri y Morgan, que concede la exclusiva de la dotación hereditaria al núcleo de la célula, la herencia citoplasmática no habló nunca de exclusividad, es decir, de que la herencia sólo se encuentre en el citoplasma, sino que ambos, núcleo y citoplasma, participan en la transmisión hereditaria. La herencia citoplasmática demuestra la falsedad de los siguientes postulados fundamentales de la teoría sintética:
a) el citoplasma forma parte del “cuerpo” de la célula, por lo que no existe esa separación estricta entre plasma y cuerpo de la que hablaba Weismann
b) no se rige por el código genético de los cromosomas nucleares
c) contradice las leyes de Mendel (215)
d) su origen no está en los progenitores sino en virus, es decir, en factores ambientales exógenos
La herencia citoplasmática presenta un carácter muy diferente del modo en que habitualmente argumenta la genética mendeliana. Demuestra que estamos conectados a ambos progenitores exclusivamente mediante los cromosomas, mientras que a nuestras madres a través de los cromosomas y el citoplasma. El ADN cromosómico es diferente entre padres e hijos, mientras que el citoplasmático es idéntico entre la madre y todos los hijos. Este último se agota en los hijos, que no lo transfieren a su descendencia, mientras que continúa en las hijas. Como consecuencia de ello, la herencia citoplasmática fue marginada en los medios académicos oficiales. Al principio ocupaba muy poco espacio en los libros de genética, unas pocas páginas en el último capítulo; se hablaba de ella casi de forma vergonzante, como si se tratara de un fenómeno residual. Aún en la actualidad la clonación se presenta como una duplicación exacta de un organismo, cuando se trata sólo del transplante del núcleo, es decir, que no se realiza sobre todo el genoma y, por lo tanto, nunca puede ser idéntica.
El error de la teoría cromosómica conduce a descubrir el error de los “mapas” génicos. El primer golpe a la cartografía génica llegó también pronto, en 1944, cuando el canadiense Oswald T. Avery (1877-1955) descubrió que el “lugar” de los genes no estaba exactamente en los cromosomas sino sólo en el ADN. Un descubrimiento tan importante nunca mereció la recompensa del Premio Nóbel. El segundo llegó casi al mismo tiempo con el descubrimiento de los “genes móviles” o transposones por Barbara McClintock (1902-1992): si se podían dibujar “mapas” de genes, en ellos también se debían modificar las fronteras continuamente. Aunque la transgénesis es hoy conocida por la desconfianza que suscita su manipulación artificial en animales y plantas, los seres vivos modifican su genoma continuamente y se intercambian entre sí secuencias de ADN. La transgénesis no sólo se produce dentro de los cromosomas de una misma célula sino de unos seres vivos a otros. Desde 1948 se sabe que existe ADN extracelular o circulante, segregado por las células y que circula fuera de ellas, por ejemplo en los fluidos corporales, la orina y el suero sanguíneo (215b), pudiéndose incorporar horizontalmente a cualquier organismo vivo. Pero los mendelistas prefirieron saltar por encima de McClintock, mantenerla en el ostracismo durante décadas y seguir defendiendo sus posiciones a capa y espada. Para no quedar en evidencia -como expondré luego- tuvieron que darle varios quiebros a la teoría cromosómica con su discreción característica.
No fueron las únicas censuras trabadas por los mendelistas sobre determinados fenómenos genómicos que afean sus dogmas. En 1906 Edmund B.Williamson descubrió los cromosomas B y en 1928 Randolph estableció sus diferencias con los cromosomas A u ordinarios. También denominados supernumerarios, son un supuesto de aneuploidía o cambio en el número de cromosomas, en este caso añadido al número habitual. En los seres humanos el supuesto más conocido es el que da lugar al síndrome de Dawn, cuya causa es la existencia de un tercer cromosoma (trisomía) en el par 21 de cromosomas ordinarios. Pues bien, los cromosomas B tampoco responden a las leyes de Mendel ya que no se segregan durante la división celular, por lo que tienden a acumularse en la descendencia, especialmente en las plantas. Estos fenómenos dan lugar a otros de tipo también singular que poco tienen que ver con los postulados de la teoría sintética, tales como:
— la formación de mosaicos especialmente en plantas, es decir, de células con distinto número de cromosomas dentro del mismo organismo vivo
— la fecundidad de los cruces entre personas con síndrome de Dawn, pese a disponer de un número diferente de cromosomas
La teoría cromosómica también es errónea porque, como afirmó Lysenko, conduce a excluir la posibilidad de cualquier clase de hibridación que no sea de origen sexual, algo que Darwin y Michurin ya habían demostrado que no era cierto con sus experimentos de hibridación vegetativa. Pero sobre este punto, uno de los más debatidos en 1948, también volveré más adelante.
Uno de los descubrimientos de Morgan fue consecuencia de su consideración del cromosoma como una unidad y con ello demostró uno de los principales errores derivados de las leyes de Mendel: que los genes no son independientes sino que aparecen asociados entre sí (linkage). Los genes interactúan, al menos consigo mismos. Un discípulo de Morgan, Alfred Sturtevant, también empezó a observar muy pronto el “efecto de posición” de las distintas secuencias cromosómicas, lo que refuerza la vinculación interna de todos ellos. Pero Morgan se cuida de no poner de manifiesto la contradicción de su descubrimiento y del efecto de posición con las leyes de Mendel, que “se aplica a todos los seres de los reinos animal y vegetal” (215c). Morgan tapaba un error colocando otro encima suyo. No había otro remedio porque desde un principio las grietas del mendelismo aparecieron al descubierto. De la teoría cromosómica se han retenido sus aspectos erróneos, descuidando lo que antes he reseñado, algo verdaderamente interesante y que es, además, lo más obvio: la noción de que, en definitiva, lo que se hereda no son los genes sino los cromosomas, y si en ellos -como hoy sabemos- hay tanto ADN como proteínas, esto quiere decir que no existe una separación absoluta entre el plasma germinal y el cuerpo; si las proteínas son el cuerpo hay que concluir que también heredamos el cuerpo. Esto resulta aún más contundente habida cuenta -repito- de que en la fecundación preexiste un óvulo completo, que no es más que una célula con su núcleo y su citoplasma, por lo que se obtiene la misma conclusión: si el citoplasma del óvulo forma parte del cuerpo, volvemos a comprobar por esta vía que también heredamos el cuerpo.
Las conclusiones que se pueden extraer de la teoría cromosómica no se agotan en este punto. Como observó el belga Frans Janssens en 1909 y el propio Morgan más tarde, en la división celular siempre se produce un entrecruzamiento (crossing over) de determinados fragmentos de los cromosomas homólogos. De modo que no solamente no es cierto que recibamos los genes de nuestros ancestros; ni siquiera recibimos sus cromosomas íntegros sino exactamente fragmentos entremezclados de ellos, es decir, que se produce una mezcla de los procedentes del padre con los de la madre. Por consiguiente, la ley de segregación de los factores establecida por Naudin y Mendel no es absoluta sino relativa: la segregación no es incompatible con la mezcla. La segunda de las leyes de Mendel tampoco se mantiene incólume, incluso en el punto fuerte al que el mendelismo se contrae: la reproducción sexual.
En la herencia coexisten tanto la continuidad como la discontinuidad, la pureza como la mezcla y, lo que es aún más importante, se crean nuevos cromosomas distintos de los antecedentes y, a la vez, similares a ellos. La herencia es, pues, simultáneamente una transmisión y una creación; los hijos se parecen a los padres, a ambos padres, al tiempo que son diferentes de ellos. Pero esto no es suficiente tenerlo en cuenta sólo desde el punto de vista generacional, es decir, de los descendientes respecto de los ascendientes. En realidad, cada célula hereda una información genética única y distinta de su precedente. Como en cada organismo vivo las células se están dividiendo, también se están renovando constantemente. El genoma de cada organismo cambia continuamente en cada división celular: se desarrolla con el cuerpo y no separado de él. Un niño no tiene el mismo genoma que sus progenitores y un adulto no tiene el mismo genoma que cuando era niño. No existen las copias perfectas.
Para acabar, el entrecruzamiento tampoco se produce al azar sino que obedece a múltiples influencias que tienen su origen en el medio interno y externo (sexo, edad, temperatura, etc.), que son modificables (216). Ese es el significado exacto de la herencia de los caracteres adquiridos: desde la primera división que experimenta el óvulo fecundado, el embrión adquiere nuevos contenidos génicos y, por lo tanto, nuevos caracteres que no estaban presentes en la célula originaria y que aparecen por causas internas y externas.
Pero no fueron esas las conclusiones que obtuvo Morgan de su descubrimiento, sino todo lo contrario: creó la teoría de la copia perfecta, que llega hasta nuestros días constituyendo la noción misma de gen como un componente bioquímico capaz de crear “copias perfectas de sí mismo” (217). Esta concepción está ligada a la teoría de la continuidad celular: las células se reproducen indefinidamente unas a otras y cada una de ellas es idéntica a sus precedentes. La evolución ha desaparecido completamente; el binomio generación y herencia se ha roto en dos pedazos incompatibles. La herencia es un “mecanismo” de transmisión, algo diferente de la generación; eso significa que sólo se transmite lo que ya existe previamente y exactamente en la misma forma en la que preexiste.
Esta concepción es rotundamente falsa. Está desmentida por el propio desarrollo celular a partir de unas células madre indiferenciadas, hasta acabar en la formación de células especializadas. Así, las células de la sangre tienen una vida muy corta. La de los glóbulos rojos es de unos 120 días. En los adultos los glóbulos rojos se forman a partir de células madre residentes en la médula ósea y a lo largo de su proliferación llegan a perder el núcleo, de modo que, al madurar, ni siquiera se puede hablar de ellas como tales células. Pero además de glóbulos rojos, en su proceso de maduración las células madre de la sangre también pueden elaborar otro tipo de células distintas, como los glóbulos blancos. Por tanto, a lo largo de sus divisiones un mismo tipo de células se transforma en células cualitativamente distintas. A su vez, esas células pueden seguir madurando en estirpes aún más diferenciadas. Es el caso de un tipo especial de glóbulos blancos, los linfocitos, que al madurar reestructuran su genoma para ser capaces de fabricar un número gigantesco de anticuerpos. Al mismo tiempo que se diferencian, hay células que persisten indiferenciadas en su condición de células madre para ser capaces de engendrar continuamente nuevas células. Por tanto, nada hay más lejos de la realidad que la teoría de la copia perfecta.
El artificio positivista de Morgan es el que impide plantear siquiera la heredabilidad de los caracteres adquiridos, lo que le condujo a considerar que sus descubrimientos habían acabado con el engorroso asunto del “mecanismo” de la herencia de manera definitiva, a costa de seguir arrojando lastre por la borda: “La explicación no pretende establecer cómo se originan los factores [genes] o cómo influyen en el desarrollo del embrión. Pero éstas no han sido nunca partes integrantes de la doctrina de la herencia” (218). De esta manera absurda es como Morgan encubría las paradojas de la genética: sacándolas de la genética, como cuestiones extrañas a ella. Si antes la sicología había desaparecido escindida de la biología, Morgan estableció otra separación ficticia entre genética (transmisión de los caracteres) y embriología (expresión de los caracteres) (219), en donde esta última no tiene ninguna relevancia para la biología evolutiva. Este tipo de concepciones erróneas tuvieron largo aliento en la biología moderna, de modo que sus estragos aún no han dejado de hacerse sentir. A su vez, son consecuencia de la ideología positivista, que se limita a exponer el fenómeno tal y como se desarrolla delante del observador, que se atiene a los rasgos más superficiales del experimento. No cabe preguntar de dónde surge y cómo evoluciona eso que observamos antes nuestros órganos de los sentidos (219b).
La teoría cromosómica es consecuencia del micromerismo, una de sus formas especiales, característica de finales del siglo XIX. En 1900 el micromerismo celular de Virchow pasaba a convertirse en el micromerismo molecular de Sutton, Boveri y Morgan. Este último defiende con claridad:
“El individuo no es en sí mismo la unidad en la herencia sino que en los gametos existen unidades menores encargadas de la transmisión de los caracteres.
La antigua afirmación rodeada de misterio, del individuo como unidad hereditaria ha perdido ya todo su interés” (220).
El micromerismo le sirve para alejar un misterio... a cambio de sustituirlo por otro: esas unidades menores de las que nada aclara, y cuando se dejan las nociones en el limbo es fácil confundir las unidades de la herencia con las unidades de la vida. Naturalmente que aquella “antigua afirmación rodeada de misterio” a la que se refería Morgan era la de Kant; por tanto, el misterio no estaba en Kant sino en Morgan. Con Morgan la genética perdió irremisiblemente la idea del “individuo como unidad” a favor de otras unidades más pequeñas. A este respecto Morgan no tiene reparos en identificarse como mecanicista: “Si los principios mecánicos se aplican también al desarrollo embrionario, el curso del desarrollo puede ser considerado como una serie de reacciones físico químicas, y el individuo es simplemente un término para expresar la suma total de estas reacciones, y no habría de ser interpretado como algo diferente de estas reacciones o como más de ellas” (221).
Morgan no era un naturalista. Su método era experimental; no salía de su laboratorio y sólo miraba a través de su microscopio. Un viaje en el Beagle le hubiera mareado. Ya no tenía sentido aludir al ambiente porque no había otro ambiente que una botella de cristal. Aquel ambiente creaba un mundo artificial. Morgan no cazaba moscas sino que las criaba en cautividad, sometiéndolas a condiciones muy distintas de las que encuentran en su habitat natural, por ejemplo, en la oscuridad o a bajas temperaturas. De esa manera lograba mutaciones que cambiaban el color de sus ojos. Pero esas mutaciones eran mórbidas, es decir, deformaciones del organismo. Sólo una de cada cinco mil o diez mil moscas mutantes con las que Morgan experimentaba era viable (222). Tenían los ojos rojos y él decía que las cruzaba con moscas de ojos blancos. Ahora bien, no existen moscas de ojos blancos en la naturaleza sino que las obtenía por medios artificiales. Por lo tanto, no se pueden fundamentar las leyes de la herencia sobre el cruce de un ejemplar sano con otro enfermo. Como bien decía Morgan con su teoría de los genes asociados, esas mutaciones no sólo cambian el color de los ojos a las moscas sino que provocan otra serie de patologías en el insecto. Una alteración mórbida es excepcional y no puede convertirse la excepción en norma, es decir, en un rasgo fenotípico de la misma naturaleza que los rasgos morfológicos habituales: color del pelo, estatura, etc.
Morgan era plenamente consciente de que las leyes que regulan la transmisión hereditaria de la salud no son las mismas que las de la enfermedad y la manera en que elude la crítica es destacable por la comparación que establece: también en física y astronomía hay experimentos antinaturales. De nuevo el reduccionismo y el mecanicismo juegan aquí su papel: las moscas son como los planetas y la materia viva es exactamente igual que la inerte. Las moscas obtenidas en el laboratorio (sin ojos, sin patas, sin alas) son de la misma especie que las silvestres y, en consecuencia, comparables (223). Morgan confundía una variedad de una especie con una especie enferma y no tuvo en cuenta aquello que dijo D’Alembert en el “Discurso Preliminar de la Enciclopedia”: que los monstruos en biología sirven “sobre todo para corregir la temeridad de las proposiciones generales” (224).
Por aquellas fechas, a comienzos del siglo XX, es cuando se establecen las primeras asociaciones entre algunas enfermedades y la constitución genética de los pacientes. La noción de patología hereditaria comienza a consolidarse. La primera alteración génica conocida capaz de producir una patología, la alcaptonuria, fue descrita por el médico británico Archibald E. Garrod (1857-1936). La alcaptonuria es un oscurecimiento de la orina después de ser excretada, a causa del contacto con el aire. En 1902 Garrod publicó The incidente of alkaptonuria: A study of chemical individuality, donde expone el origen genético de la alcaptonuria. Amigo de Garrod, Bateson se interesó especialmente por esta enfermedad, ya que se detectaba con mayor frecuencia en los hijos de padres emparentados consanguíneamente. Es más, fue Garrod quien relacionó por vez primera a los genes con las enzimas de una manera característica: una mutación génica provocaba que el organismo no fabricara en cantidad suficiente la enzima responsable de la conversión del ácido homogentísico en anhídrido carbónico y agua; aunque una parte de dicho ácido se elimina a través de la orina, el resto se acumula en determinadas partes, provocando una coloración negruzca (ocronosis). Se estableció entonces la primera versión del dogma “un gen, una enzima” que triunfaría medio siglo después. A mayor abundancia, no se puede descuidar la metodología micromerista de Garrod, presente en su noción de “individualidad química”, según la cual “hemos concebido la patología en términos de célula, pero ahora empezamos a pensar en términos de molécula”. Para acabar, parece preciso aludir al título de otra de las obras de Garrod, escrita en 1931: The inborn factors in disease, es decir, “Los factores innatos de la enfermedad”.
El error de cruzar ejemplares enfermos con sanos ya había sido comprobado experimentalmente en varias ocasiones. El biólogo francés Lucien Cuenot fue uno de los primeros que, tras el redescubrimiento, trató de comprobar la aplicación de las leyes de Mendel a los animales. Lo hizo con ratones albinos, pero tuvo el cuidado de advertir que el albinismo no es un carácter sino la ausencia de un carácter. En 1909 Ernest E.Tyzzer, patólogo de la Universidad de Harvard, realizó cruces entre ratones sanos con otros denominados “japoneses valsantes”, que deben su nombre al padecimiento de una mutación recesiva. Durante dos generaciones la descendencia fue inoculada con un tumor, observando que la patología se desarrollaba en la primera de ellas en todos los casos y en ninguno de la segunda, por lo que se pensó que el fenómeno no obedecía a las leyes de Mendel. Sin embargo, Little demostró que la no aparición de ningún supuesto tumoral en la segunda generación se debía al empleo de un número escaso de ejemplares, de manera que utilizando un volumen mayor descubrió que aparecía en un uno por ciento aproximadamente, porcentaje que posteriormente se afinó, obteniendo un 1’6 por ciento de tumores en la segunda generación, cifra que variaba en función del tipo de ratones utilizados y del tumor inoculado. El desarrollo posterior de los experimentos comprobó que ese porcentaje también era válido si en lugar de una enfermedad se transplantaban a los ratones tejidos sanos (224b) porque dependía del sistema inmune, que es diferente para cada especie y para cada tipo de enfermedad.
El antiguo método especulativo, decía Morgan, trataba la evolución como un fenómeno histórico; por el contrario, el método actual es experimental, lo cual significa que no se puede hablar científicamente de la evolución que hubo en el pasado. La evolución significa que los seres vivos que hoy existen descienden de los que hubo antes: “La evolución no es tanto un estudio de la historia del pasado como una investigación de lo que tiene lugar actualmente”. El reduccionismo positivista tiene ese otro componente: también acaba con el pasado y, por si no fuera suficiente, también con el futuro, es decir, con todas las concepciones finalistas herederas de Kant: la ciencia tiene que abandonar las discusiones teleológicas dejándolas en manos de los metafísicos y filósofos; el finalismo cae fuera de la experimentación porque depende exclusivamente del razonamiento y de la metafísica (225). Como no hay historia, no es necesario indagar por el principio ni tampoco por el final. Paradógicamente la evolución es un presente continuo, el día a día. Tampoco hay ya lucha por la existencia, dice Morgan: “La evolución toma un aspecto más pacífico. Los caracteres nuevos y ventajosos sobreviven incorporándose a la raza, mejorando ésta y abriendo el camino a nuevas oportunidades”. Hay que insistir menos en la competencia, continúa Morgan, “que en la aparición de nuevos caracteres y de modificaciones de caracteres antiguos que se incorporan a la especie, pues de éstas depende la evolución de la descendencia”. Pero no sólo habla Morgan de “nuevos caracteres” sino incluso de nuevos factores, es decir, de nuevos genes “que modifican caracteres”, añadiendo que “sólo los caracteres que se heredan pueden formar parte del proceso evolutivo” (226).
Sorprendentemente esto es un reconocimiento casi abierto de la tesis de la heredabilidad de los caracteres adquiridos. En realidad, las investigaciones de Morgan confirmaban la tesis lamarckista, es decir, que al cambiar las condiciones ambientales, las moscas mutaban el color de sus ojos y transmitían esos caracteres a su descendencia. No hay acción directa del ambiente sobre el organismo; la influencia es indirecta, es decir, el mismo tabú que antes había frenado a Weismann. No es la única ocasión en la que Morgan se deja caer en el lamarckismo, al que critica implacablemente. También al tratar de explicar la “paradoja del desarrollo” incurre en el mismo desliz. Morgan reconoce la existencia de la paradoja y esboza sucesivamente varias posibles explicaciones, que no son -todas ellas- más que otras tantas versiones de la heredabilidad de los caracteres adquiridos. Según Morgan quizá no todos los genes entren en acción al mismo tiempo; a medida que el embrión pasa por las sucesivas fases de desarrollo diferentes baterías de genes se activan una después de la otra: “En las diferentes regiones del huevo tienen lugar reacciones distintas que comprenden diferentes baterías de genes. A medida que las regiones se diferencian, otros genes entran en actividad y otro cambio tiene lugar en el protoplasma, el cual ahora reaciona nuevamente sobre el complejo de genes. Este punto de vista presenta una posibilidad que debemos tener en consideración”. Luego esboza otra posible explicación de la paradoja: en lugar de suponer que todos los genes actúan siempre de la misma manera y de suponer que los genes entran en acción de manera sucesiva, cabe imaginar también que el funcionamiento de los genes “sufre un cambio como reacción a la naturaleza del protoplasma donde se encuentran” (227). De ahí se desprende que los genes no regulan sino que son regulados, que es el citoplasma, el cuerpo de la célula, el que reacciona sobre los genes y los pone en funcionamiento en función del estadio de desarrollo alcanzado por la célula.
En otro apartado Morgan vuelve a reconocer la herencia de lo adquirido. Hay casos -dice- en los que “queda demostrado que el ambiente actúa directamente sobre las células germinales por intermedio de agentes que, al penetrar en el cuerpo, alcanzan dichas células”. Pone el ejemplo de las radiaciones. Las células germinales son especialmente sensibles a ellas; afectan más a los cromosomas que al citoplasma y causan esterilidad en los embriones. La debilidad y los defectos que provocan en los organismos pueden ser transmitidos a generaciones posteriores, aún por una progenie que aparentemente es casi o completamente normal. Pero este hecho evidente no se puede emplear como prueba de la herencia lamarckiana: “No cabe duda que esos efectos nada tienen que ver con el problema de la herencia de los caracteres adquiridos, en el sentido que se le ha atribuido siempre a este término”. ¿Por qué? Morgan no lo explica. Quizá la clave esté en ese enigmático “sentido” que “siempre” se le ha atribuido (¿quién?) a dicho término: bastaría, pues, atribuirle otro “sentido” distinto y ya estaría solucionada la cuestión. Pero Morgan ni siquiera se atreve a entrar en ese galimatías lingüístico. No obstante, se despacha a gusto con la herencia de los caracteres adquiridos: se trata de una superstición derivada de pueblos antiguos, teoría frágil y misteriosa, una pesadilla de lógica falsa sustentada en pruebas sin consistencia ninguna. Resulta desmoralizante -añade Morgan- perder tanto tiempo en refutar esta teoría que “goza del favor popular” y tiene un componente emotivo envuelto en un misterio. Precisamente el papel de la ciencia consiste en destruir las supersticiones perniciosas “sin tener en cuenta la atracción que puedan ejercer sobre los individuos no familiarizados con los métodos rigurosos exigidos por la ciencia” (228). Ningún científico apegado a los “métodos rigurosos de la ciencia” puede incurrir en tamaña superchería; eso sólo es propio de los advenedizos, aficionados y autodidactas, incapaces de comprender las maravillas de un método tan especial que está al alcance de muy pocos iluminados.
Es bien cierto que desde su mismo origen la noción de herencia de los caracteres adquiridos es extraordinariamente confusa y que una de las estrategias implementadas para desacreditarla ha sido crear una mayor confusión, retorcerla periódicamente para que no quepa reconocer nunca las influencias ambientales. Un biólogo marxista español, Faustino Cordón, defendía el neodarwinismo de la forma siguiente: “En el organismo, bien resguardadas de influencias externas, se encuentran las células germinales sobre las cuales no pueden influir ‘coherentemente’ las modificaciones que experimente durante su vida el cuerpo del animal (esto es, los caracteres adquiridos no se heredan). Pero si es inconcebible, como de hecho lo es, que el organismo adulto, al irse modificando por su peripecia, moldee de modo coherente con ésta sus células embrionarias, hay que deducir, como conclusión incontrovertible, que el medio de una especie no ha podido ajustarlas a él moldeando directamente los cuerpos de los individuos adultos” (229). Es lo mismo que defienden los Medawar cuando escriben: “No es pertinente que la mutación pueda inducirse por un agente externo, sobre todo radiaciones ionizantes, como rayos X; esto no es pertinente porque no existe relación funcional o adaptante entre el carácter del mutante y la naturaleza del mutágeno que lo causó: las mutaciones no se originan en respuesta a las necesidades del organismo y tampoco, excepto por accidente, las satisfacen” (230). Por lo tanto, en un caso, se exige a la herencia de los caracteres adquiridos que el medio ejerza una influencia “coherente” y, en el otro, que sea “adaptativa”, circunstancias ambas que nunca formaron parte de la teoría. Como proponía Morgan en este mismo asunto, siempre es posible definir los conceptos de manera tal que sea imposible reconocerlos bajo ninguna circunstancia, esto es, un juego con las cartas marcadas de antemano. Lo que la teoría siempre sostuvo es que el medio ejerce una influencia directa e indirecta sobre el cuerpo y, por tanto, sobre el genoma como parte integrante del cuerpo, así como que dicha influencia se transmite hereditariamente.
Este argumento de los mendelistas tiene varios aspectos subyacentes que conviene realzar explícitamente. Así, por ejemplo, no tiene un carácter general en cuanto que, a efectos inmunitarios, las influencias ambientales son adaptativas: cada patógeno induce la formación de un anticuerpo específico. Pero quizá lo más importante es que lo que la crítica pretende es separar artificialmente el lamarckismo del darwinismo de tal manera que al introducir los factores ambientales y la herencia de los caracteres adquiridos queda excluida la selección natural. No hay ningún argumento para pensar que eso pueda suceder de esa manera y, desde luego, Darwin se fundamentó en todo lo contrario al combinar ambos aspectos. Efectivamente es cierto que las influencias ambientales, como cualquier otra clase de mutaciones, no desarrollan adaptaciones perfectas de manera mecánica. Lo único que explican es la variabilidad; la adaptación o inadaptación es obra, según Darwin, del uso y desuso y de la selección natural. Para que haya selección antes tiene que haber una diversidad entre la cual poder elegir. Al negar la influencia de los factores ambientales la teoría sintética negaba la unidad del organismo con el medio y al exigir adaptación niega la contradicción entre ambos. Lo que la biología tiene demostrado es que cada ser vivo forma una unidad con su habitat, lo cual no excluye, al mismo tiempo, la contradicción entre ambos. Sólo en las teorías creacionistas la adaptación aparece instantáneamente como algo ya dado. En cualquier teoría de la evolución la adaptación es un proceso dilatado en el tiempo.
El francés Maurice Caullery es otro exponente del doble rasero con el que los mendelistas abordan la herencia de los caracteres adquiridos, tanto más significativa en cuanto que Caullery se inició en las filas del lamarckismo. El biólogo francés se enfrenta al problema de explicar las enfermedades hereditarias, un ejemplo de que se hereda tanto el plasma como el cuerpo, en este caso las patologías corporales. Sostiene lo siguiente: “Todo lo que pasa de una generación a la siguiente no dimana de la herencia propiamente dicha. Algunas enfermedades, que son seguramente transmisibles, son a menudo falsamente llamadas hereditarias, como la sífilis hereditaria. Se trata, en realidad, de una contaminación del germen por un agente infeccioso, independiente del organismo mismo. Todos los hechos de ese orden no entran en el cuadro de la herencia, incluso cuando se presentan con una generalidad y una constancia perfectas”. El argumento no puede ser más sorprendente: las enfermedades hereditarias no son hereditarias porque no se transmite un plasma auténtico sino un plasma contaminado. Pasemos por alto la validez de este argumento. Caullery lo lleva más allá e incluye dentro de ese plasma contaminado a toda la herencia citoplasmática, de la que llega incluso a poner en duda su existencia. También haremos la vista gorda ante esta segunda afirmación y, por tanto, supondremos que si las patologías no valen como ejemplo de herencia de los caracteres adquiridos tampoco valen como ejemplo de herencia mendeliana. Sería la única tesis coherente que podríamos esperar... Pero no es así porque Caullery acaba de la siguiente manera: “Los hechos que en el hombre revelan más claramente la herencia mendeliana son los de orden patológico, relativos a la transmisión de bastantes enfermedades constitucionales, o de malformaciones” (231). Las enfermedades valen para el mendelismo pero no valen para el lamarckismo. Con tales trucos parece natural que no haya ninguna forma de demostrar la herencia de los caracteres adquiridos.
La genética formalista siguió implacable a la caza de Lamarck y los restos que quedaban de las tesis ambientalistas. El 7 de agosto de 1926 Gladwyn K. Noble publicó en la revista Nature un informe denunciando que los experimentos realizados por el biólogo austriaco Paul Kammerer con sapos parteros criados en el agua para demostrar la influencia sobre ellos del cambio de medio, eran fraudulentos. El suicidio de Kammerer pocos días después ejemplificaba la suerte futura de este tipo de teorías. Kammerer fue arrojado al basurero de la historia. También Mendel había falsificado las suyas pero un fraude no se compensa con otro (al menos en la ciencia). Por lo demás, estaba claro que el mendelismo tenía bula pontificia y el supuesto fraude de Kammerer pareció cometido por el mismísimo Lamarck en persona. En los libros de texto las menciones a esos fraudes deberían ir acompañadas de unas buenas comillas tipográficas porque en 2009, volviendo a mostrar su más implacable rostro, la historia empezó a sacar a Kammerer del pozo negro en el que le habían introducido. La revista Journal of Experimental Zoology publicó un artículo del investigador chileno Alexander Vargas en el que afirmaba que los experimentos del austriaco no sólo no eran un fraude sino que tenemos que considerar a Kammerer como el fundador de la epigenética (232). Nada de esto es, en realidad, novedoso porque poco después del suicidio de Kammerer ya se descubrió un especimen silvestre de sapo partero con almohadillas nupciales, lo que demostraba que los sapos parteros tenían el potencial para desarrollarlas. Kammerer y los lamarckistas tenían razón, pero la razón tuvo que volver a esperar 80 años y nunca podrá recuperar al científico austriaco de su amargo final; deberá conformarse con reivindicar su memoria. Era un anticipo de lo que le esperaba a Lysenko. Al fin y al cabo Kammerer era socialista y se aprestaba a instalarse en la URSS cuando se pegó un tiro en la cabeza. Kammerer no era el único lamarckista; en aquella época, cuando Estados Unidos no había logrado aún la hegemonía ideológica que obtuvo en 1945, era bastante frecuente encontrar biólogos que realizaron ensayos parecidos. A partir de 1920 el británico MacDougall inició un concienzudo experimento que duró nada menos que 17 años con ratones albinos para demostrar la heredabilidad de una conducta aprendida. MacDougall adiestró 44 generaciones de ratones para que lograran salir de una fuente rectangular llena de agua con dos rampas laterales simétricas, una de las cuales estaba fuertemente iluminada y conectada a un circuito eléctrico que lanzaba una descarga al ratón que pretediera escapar por ella. Sometía a cada animal a seis inmersiones diarias a partir de su cuarta semana de vida, cesando la operación cuando el ratón demostraba haber averiguado la ruta de salida, diferenciando de entre las dos rampas, aquella que le permitía huir sin recibir una luz cegadora ni una fuerte descarga eléctrica. La prueba terminaba cuando salía 12 veces sin vacilar por la rampa inocua. El número de errores se tomaba como medida del grado de aprendizaje adquirido y a partir del recuento MacDougall obtenía un promedio generacional con las sucesivas estirpes. Para evitar los efectos de la selección natural tomó la precaución de utilizar en cada generación a la mitad que había demostrado mayor torpeza; también elegió otros ratones al azar para el mismo experimento y utilizó a algunos de ellos como “testigos neutrales” y cruzó ratones ya adiestrados con otros “testigos” para evitar cualquier posibilidad de intervención de factores ajenos al aprendizaje. Los resultados fueron bastante claros: el promedio de errores descendía (aunque no de manera uniforme), pasando de 144 en la primera generación a 9 en la última. La conclusión de MacDougall es que el aprendizaje se había convertido en hereditario (232b).
Morgan criticó los resultados de MacDougall, con los “argumentos” demagógicos que acostumbraba. Naturalmente este tipo de experimentos suscitan dudas; nunca son concluyentes no sólo porque cambian las condiciones del experimento, sino la estadística, la manera de deducir los resultados cuantitativos, se presta a la desconfianza. Existen demasiados “medios” interpuestos, demasiados factores que no siempre se tienen en cuenta, etc. Se han intentado repetir, aunque nunca de una manera tan exahustiva, y los resultados no son coincidentes.
Stockard fue otro de aquellos investigadores obsesionados por demostrar la tesis de la herencia de los caracteres adquiridos con experimentos de laboratorio. Hizo inhalar vapores etílicos a sus cobayas durante seis años, sucediéndose varias generaciones en las que observó taras hereditarias, especialmente en los ojos e incluso en los cromosomas (233).
El catedrático de zoología de la Sorbona, Frédéric Houssay, sometió a gallinas a una dieta de carne; en varias generaciones sucesivas observó que disminuía el tamaño del hígado y la molleja, pero a partir de la sexta generación las gallinas morían o quedaban estériles...
El azar considerado como una de las bellas artes
A causa del “redescubrimiento” de Mendel, en la época de Morgan el darwinismo había sido eliminado tanto como el lamarckismo. Con ellos había desaparecido la evolución misma. No obstante, las evidencias eran lo suficientemente fuertes como para forzar a los mendelistas a intentar una conciliación de sus leyes con la evolución. Ese es el significado de la teoría de las mutaciones que, habitualmente, se presenta con la muletilla de “mutaciones al azar”, la esencia misma de la teoría sintética y el denominado neodarwinismo. Las mutaciones que explican la evolución eran saltos cualitativos, discontinuos, que hacían aparecer nuevas especies diferentes de las anteriores. La argumentación es de tipo genético: lo que mutaban eran los genes y, a su vez, estas mutaciones engendraban especies diversas. No existían cambios graduales y, desde luego, ningún papel desempeñaba el entorno ni nada ajeno a los genes mismos. El azar es el dios creador de los mendelistas. Las mutaciones se conciben como automutaciones génicas y, por supuesto, no explican nada, como tampoco nada habían explicado los cataclismos de Cuvier cien años antes o el diluvio universal de la Biblia. La biodiversidad se explicaba por las mutaciones pero las mutaciones carecen de explicación porque en la teoría sintética hablar del azar es hablar de la nada (y de todo al mismo tiempo). En la literatura neodarwinista el azar desempeña el papel del nóumeno kantiano, lo incognoscible. No conozco ningún mendelista que, después de acudir al azar como pócima milagrosa para justificar toda clase de desaguisados, haya definido lo que entiende por tal (234). El azar es objeto de un debate secular a lo largo de la historia del pensamiento científico, pero el positivismo quiere -pero no puede- permanecer al margen de polémicas, por lo que recurre a una noción vulgar del azar como casualidad o accidente. Ese recurso sistemático a una noción vulgar del azar es una deserción de la ciencia, la negación misma de la posibilidad de la experimentación científica, de la capacidad para reproducir una y otra vez los mismos fenómenos, en la naturaleza y en el laboratorio. Como ha escrito Israel, “no existen fenómenos aleatorios por naturaleza porque los fenómenos físicos se rigen por el principio de razón suficiente” (235). Añado por mi parte que lo mismo sucede en los fenómenos biológicos.
El abuso del azar, contrapartida paradógica del determinismo “ciego”, ha reconfigurado la teoría de la evolución para acoger sus tabúes favoritos: el finalismo, el progreso, el perfeccionamiento o la existencia de unos seres más desarrollados que otros. Se presta al antilamarckismo fácil y, por tanto, al tópico: en la evolución no se observa una línea ascendente en dirección a ninguna parte, sino la adaptación de cada ser vivo a sus condiciones locales. Este es otro de esos aspectos en los que los neodarwinistas son antidarwinistas. De nuevo la reconstrucción del pensamiento de Darwin sobre su propio pedestal revela muchas sorpresas. En primer lugar, las mutaciones al azar y el azar mismo son absolutamente ajenas a Darwin, quien dejó bien claro su punto de vista precisamente en el momento mismo de iniciar el capítulo de “El origen de las especies” titulado “Leyes de la variación”:
Hasta aquí he hablado a veces como si las variaciones -tan comunes y multiformes en los seres orgánicos en domesticidad, y en menor grado en los que viven en estado de naturaleza- fuesen debidas a la casualidad. Esto, por supuesto, es una expresión completamente incorrecta, pero sirve para reconocer llanamente nuestra ignorancia de la causa de cada variación particular. Algunos autores creen que producir diferencias individuales o variaciones ligeras de estructura es tan función del aparato reproductor como hacer al hijo semejante a sus padres. Pero el hecho de que las variaciones y monstruosidades ocurran con mucha más frecuencia en domesticidad que en estado natural, y de que se de mayor variabilidad en las especies de áreas extensas que en las de áreas restringidas, llevan a la conclusión de que la variabilidad está generalmente relacionada con las condiciones de vida a que ha estado sometida cada especie durante varias generaciones sucesivas (236).
En segundo lugar, el determinismo “ciego” es una expresión ajena a Darwin pero no a Lamarck, quien considera que la naturaleza tiene un poder limitado y ciego que no tiene intención, ni voluntad ni objetivos (237). De nuevo la historia de la biología aparece completamente distorsionada en este punto, como en tantos otros, por lo que retornamos a la polémica finalista, cuyas raíces reaparecen en la biología por varias esquinas distintas. Darwin es tan finalista (o tan poco finalista) como Lamarck, por lo menos. El británico se apoya en Von Baer y la teoría de la recapitulación (habitualmente atribuida a Haeckel, a pesar de que también tiene su origen en Lamarck) porque es quien “ha dado la mejor definición que se conoce del adelanto o progreso en la escala orgánica, diciendo que descansa sobre la importancia de la diferenciación y la especialización de las distintas partes de un ser”. El naturalista británico sostuvo, pues, que existe progreso en la evolución, que se realiza mediante “pasos lentos e ininterrumpidos”, que el progreso consiste en la complejidad (diferenciación y especialización) y, por fin, que “el punto culminante lo tiene el reino vertebrado en el hombre”. Eso no significa -continúa Darwin- que los seres más evolucionados reemplacen a los predecesores o que estén en mejores condiciones que éstos para sobrevivir: “Debemos guardarnos mucho de considerar a los miembros ahora existentes de un grupo de organismos inferiores como si fueran los representantes perfectos de sus antiguos predecesores” (238). Es cierto que, por influencia de Aristóteles, la evolución se interpretó no sólo de una manera direccional sino, además, en una dirección lineal, continuamente ascendente. Se puede exponer con mayor o mejor fortuna pero la propia palabra “evolución” se compadece muy mal con el ciego determinismo, sea quien sea el que lo propugne. Por ejemplo, Piaget no quiere hablar de finalidad pero utiliza la palabra “vección” para transmitir la misma idea direccional (239). Los seres vivos más simples son los más antiguos y los más complejos son los más recientes, hasta llegar al hombre, que es donde acaban todas las clasificaciones biológicas que se han hecho. Es cierto que este hecho ha favorecido determinadas interpretaciones místicas o simplmente antropomórficas, que se han dedicado a extrapolarlo, pero la interpretación contraria que lo niega ha redoblado sus energías. Las bacterias son seres de una única célula; los mamíferos se componen de billones de ellas. Las células anucleadas son anteriores a las que disponen de núcleo. La reproducción sexual es posterior a la vegetativa en la evolución. La evolución experimenta retrocesos y no es unidireccional pero empezó por las bacterias y acaba por los mamíferos (de momento).
Las ciencias están trufadas de conceptos de origen oscuro, especialmente teológico. Muchos de ellos fueron abandonados y otros, como el de “impulso” en física o “afinidad” en química, han logrado sobrevivir porque responden a fenómenos empíricos contrastados y han sido definidos de manera crecientemente precisa. Así, la noción de afinidad química también fue discutida porque parecía introducir en la naturaleza un componente antropomórfico: los elementos se atraían o repudiaban lo mismo que las personas. Se observaba el fenómeno pero no existía una expresión lo suficientemente precisa para explicar cabalmente las razones de ello, así que también se plantearon numerosas discusiones al respecto. Del mismo modo, la teoría sintética rechaza hoy infundadamente la noción de progreso y ese rechazo se extiene a toda la teoría de la evolución, incluida la paleontología, empleando caricaturas grotescas, ridiculizando a Lamarck de manera grosera, como en el caso de “La especie elegida”, el reciente éxito editorial de ventas de Arsuaga y Martínez, dos de los investigadores de Atapuerca (240). Posiblemente sea aún más incorrecto que la inmunología utilice la expresión “memoria” o que Dawkins hable de genes egoistas y altruistas, pero su uso no levanta tantas ampollas.
El azar de los mutacionistas no sólo es ciego sino sordo: no se sabe por qué, cómo, dónde ni cuándo se producen. Además de no saber sus causas (si es que tiene causas) tampoco saben sus consecuencias (son imprevisibles). Lo único que pueden decir es que no tienen relación con el medio externo: son un “puro accidente químico” (240b). La evolución marcha sin rumbo: “La evolución tiene su origen en el error” (241). Las mutaciones son errores de duplicación. Si no hubiera errores tampoco habría evolución, que es como un error en cadena. Esta forma extrema de determinismo es otra extrapolación ideológica cuya pretensión es la negación del progreso y el avance en la sociedad. La traslación de los fenómenos biológicos a la historia del hombre jugó una mala pasada a sus propios autores. No sólo demostraba que era posible mejorar y perfeccionar las lacras económicas y sociales sino que era inevitable que eso sucediera. Para seguir sosteniendo una imagen biológica de las sociedades humanas había que erradicar la idea de progreso en la evolución de las especies. Pero el hombre como especie biológica también ha evolucionado y sigue evolucionando, de modo que a partir de cualquiera de sus precedentes históricos, la especie actual es un desarrollo gigantesco, un verdadero salto adelante respecto de cualquier otro homínido. Esa evolución no sólo se aprecia en un sentido físico sino desde cualquiera de los ángulos que se pretenda adoptar, como en el caso del propio conocimiento, cuyo avance progresivo es espectacular. Por el contrario, el recurso al azar y al error de los mendelistas es buena prueba de la inconsistencia interna con que apareció la teoría de las mutaciones, ya que contrastaba poderosamente con otros dos componentes de la teoría sintética:
a) el determinismo estricto que se otorgó al plasma germinal en la configuración del cuerpo
b) la teoría de la copia perfecta (error de copia o de transcripción del ADN)
¿Por qué el mendelismo es determinista a unos efectos y recurre al azar a otros? Como suele suceder, no obtenemos ninguna clase de explicaciones. Es un completo absurdo científico que conduce al túnel del tiempo, al pensamiento medieval. Este retroceso tiene su origen en un error: el de considerar que en la naturaleza el error es aquel fenómeno que aparece con una frecuencia baja mientras que lo “normal”, la “copia perfecta”, emerge habitualmente. Ahora bien, si la evolución tiene su origen en el error, lo “normal” es precisamente el error y lo extraordinario sería conocer un caso en el cual la reproducción lograra obtener una “copia perfecta” del original, una criatura idéntica a su progenitor. Cualquier manual de pasatiempos matemáticos está repleto de ese tipo de paradojas acerca de lo que concebimos como “normal” o “excepcional”, lo que podemos extender a todas aquellas expresiones ligadas a lo contingente: fortuito, afortunado (desafortunado), coincidencia, casualidad, accidente, suerte, etc. Todos los discursos en torno a estas cuestiones conducen, además, a una tautología: lo infrecuente es aleatorio y lo aleatorio es infrecuente. La versión extrema de ese tipo de planteamientos son los “casos únicos”, los realmente insólitos, aquellos que sólo han aparecido una vez. Es una concepción estética del azar que, por supuesto, nada tiene que ver con la ciencia. No hay nada más irrepetible que una obra de arte, el refugio de lo exclusivo y lo inimitable, por contraste con el repudio que provoca lo rutinario y lo monótono, aquello que se repite. La concepción absoluta del azar, como la que expone Monod, no es más que una concepción decorativa trasladada a la genética.
El imaginario mendelista está edificado sobre una noción fantástica de azar, en el que éste es consustancial a una no menos fantástica noción de la libertad humana, que contrasta con el marxismo, negador de esa misma libertad, como corresponde una ideología dogmática. Huxley sostuvo la tesis de que la genética soviética había repudiado el mendelismo porque el marxismo, a su vez, como doctrina dogmática, repudia el azar:
Es posible que detrás del pensamiento de los dirigentes políticos e ideológicos de la U.R.S.S. exista el sentimiento de que no hay lugar para el azar o para la indeterminación en la ideología marxista en general ni, en particular, en la ciencia, tal como la concibe el materialismo dialéctico, el sentimiento de que en un sistema que pretende la certeza no hay lugar para la probabilidad o el accidente.
No se si esa es o no la respuesta correcta. Para descubrir las razones fundamentales del ataque a la teoría de las probabilidades, sería necesario leer, digerir y analizar todo lo que ha sido publicado en Rusia sobre el tema, y aunque valdría la pena hacerlo, debo dejarlo para otros (242).
Efectivamente, el biólogo británico no tenía ni la más remota idea de lo que estaba hablando, pero no por eso guardó silencio, como corresponde a cualquier persona que es consciente de su falta de información, máxime si se trata de un científico. Pero cuando se alude a la URSS la ignorancia importa menos, de manera que la pretensión de Huxley de extender la crítica al mendelismo al cálculo de probabilidades, es una auténtica aberración que pone al desnudo su falta de honestidad intelectual. Entre otros datos, Huxley ignoraba que la primera obra de Marx en defensa de la teoría del “clinamen” de los átomos de Epicuro no es, en definitiva, más que una crítica del estricto determinismo de Demócrito y, por consiguiente, una defensa del papel del azar (243). Ignoraba también que el azar fue introducido en 1933 en la matemática moderna por el soviético Kolmogorov, junto con Jinchin autor de los manuales más importantes de esta disciplina en el siglo pasado (244). Sin desarrollar la estadística, la econometría y el cálculo de probabilidades, la planificación socialista no hubiera sido posible, ni tampoco fabricar cohetes balísticos intercontinentales o satélites espaciales.
Del azar cabe decir lo mismo que del alma y demás conceptos teológicos introducidos en la biología sin mayores explicaciones por la puerta trasera. En la antigüedad clásica su presencia se imputaba a la intervención en los fenómenos naturales de entes inmateriales o sobrenaturales que desviaban el curso esperado de los acontecimientos. Las situaciones indecisas se resolvían echándolo a suertes, es decir, por sorteo. Era una forma de que los dioses decidieran donde los humanos no eran capaces. Así eludimos nuestra propia responsabilidad por las decisiones erróneas que adoptamos: hemos tenido mala suerte. No hemos previsto todas las consecuencias posibles que se pueden derivar de nuestros actos y a ese resultado le llamamos azar. A causa de ello, en nuestra vida nos ayudamos de amuletos que nos traen buena suerte. Los espíritus deciden las situaciones inciertas haciendo que la suerte sonría a los más fieles, aquellos que rezan o pasean en romería imágenes sagradas para que llueva y las cosechas sean abundantes. Las causas inexplicables se atribuyeron primero a la fortuna, que era una diosa, y luego al azar, el reducto en el que la ciencia jamás podrá penetrar.
A partir del siglo XVII, como en tantos otros fenómenos, se demostró que no hay nada incognoscible y nació el cálculo de probabilidades, cuyo desarrollo constata que no existe una muralla infranqueable entre los fenómenos deterministas y los aleatorios, que no hay fenómenos absolutamente causales, por un lado, ni fenómenos absolutamente fortuitos, por el otro: “Un fenómeno absolutamente casual significaría algo no necesario, algo sin fundamento, en cualquier tipo de relación. Sin embargo, esto destruiría el determinismo, la unidad material del mundo. Reconocer la casualidad absoluta significa reconocer la existencia de milagros, por cuanto éstos, precisamente, son fenómenos que no obedecen a causas naturales” (245). El azar absoluto (esencial lo llama Monod) es idéntico al determinismo absoluto; el destino fatal. Más bien al contrario, el azar se manifiesta conforme a determinadas leyes que no son, en esencia, diferentes de las que rigen los fenómenos causales hasta el punto de que se puede calcular la probabilidad de que determinados acontecimientos casuales se produzcan.
Como cualquier otra disciplina científica, el cálculo de probabilidades nace de la práctica como una ciencia aplicada para resolver problemas muy concretos sobre contratos mercantiles de aseguramiento. Lo seguro nace de lo inseguro. En su origen fue una curiosidad que entraba en la matemática como una disciplina menor que tomó los juegos de azar como campo de pruebas. Para fijar las primas en los seguros de vida las empresas elaboraron complejas tablas de defunción cada vez más precisas y detalladas, es decir, que el cálculo se basaba en una previa experiencia práctica real. El azar no es, pues, un problema de información porque el volumen de ésta es relativa: tanto da hablar de información como de falta de información. No hay nada de lo que no sepamos nada; tampoco de lo que lo sepamos todo. Cuando se dice que el azar es una medida de nuestra ignorancia, también se podría expresar lo mismo diciendo que el azar es una medida de nuestro conocimiento. ¿Está la botella medio llena o medio vacía? Por otro lado, aunque conociéramos la mayor parte de los parámetros de la realidad, no podríamos operar con ellos, especialmente en biología porque la materia viva responde a leyes más complejas que la inerte; en cada fenómeno confluyen muchas causas, algunas de ellas de tipo subjetivo y totalmente impredecibles. Por eso cualquier modelo teórico constituye una simplificación deliberada de la realidad concreta que, o bien implica una pérdida de información, o bien introduce hipótesis irreales (el punto adimensional de masa finita sobre el que se apoya la mecánica clásica) o, en definitiva, la sustitución de unos supuestos de hecho por otros más sencillos o más manejables (246).
La información acerca de una determinada parcela de la realidad es siempre progresivamente creciente. De esta manera los fenómenos meteorológicos, antes imputados al azar, se conocen mejor porque los condicionantes que tienen relación con la presión atmosférica, la lluvia, la temperatura, los vientos, etc., están más definidos y porque hay más información acerca de su desenvolvimiento. Si el azar dependiera de nuestro conocimiento, la tendencia general sería a disminuir la aplicación del cálculo de probabilidades. A pesar de ello, los modelos probabilísticos se aplican cada vez con mayor frecuencia a fenómenos de lo más diverso, incluidos aquellos considerados generalmente como de tipo determinista. De este modo la estadística se ha convertido en una gran coartada ideológica, en panestadística, pasando algunos a sostener que todo en la naturaleza es estadístico, aleatorio. La generalización del cálculo de probabilidades demuestra, por un lado, el enorme grado de abstracción que ha alcanzado y, por el otro, que los denominados fenómenos aleatorios no son sustancialmente diferentes de los deterministas. Por consiguiente, si bien es cierto que todo en la naturaleza es estadístico, también es igualmente cierto que todo en la naturaleza es, al mismo tiempo, necesario.
La metafísica positivista introduce barreras dicotómicas donde no las hay. A pesar de tres siglos de evolución del cálculo de probabilidades y la estadística se sigue preguntando si el azar existe o si, por el contrario, dios no juega a los dados. Confrontadas a los mismos fenómenos aleatorios pero aisladas entre sí, las ciencias parecen esquizofrénicas. Las hay absolutamente deterministas, como la astrofísica (“mecánica celeste”), y las hay absolutamente estocásticas, como la mecánica cuántica. A partir de fenómenos singulares y teorías locales, extrapolan concepciones generales, imprecisas, a las que otorgan un carácter absoluto.
La imagen distorsionada del azar proviene de la ilusión de pretender alcanzar un conocimiento exhaustivo de los fenómenos, de todos los factores que conducen a la producción de un determinado evento, lo cual no es posible ni tampoco necesario. La ciencia no avanza por impulsos teóricos sino prácticos. Sus pretensiones tampoco son teóricas sino prácticas. Nace de la práctica y tiene la práctica como destino final. Sabemos aquello que necesitamos y en la medida en que lo necesitamos. En un muestreo electoral no importa a qué candidato vota cada cual, sino el voto del conjunto. El comportamiento de un componente aislado puede resultar aleatorio, pero el del conjunto no lo es. Tomados de uno en uno, los seres vivos individuales como el jugador de bacarrá, son imprevisibles. Sin embargo, considerados en su generalidad, como fenómenos masivos, sí son previsibles. La ciencia puede determinar un cierto número de condicionantes, los más importantes y los más directos, pero nunca la totalidad de ellos. Normalmente, cuando en ciertos fenómenos se descubre una ley determinista, tal como la ley de la gravedad o la de Boyle-Mariotte, se dice que una o un reducido número de causas producen siempre un cierto efecto de manera necesaria, quedando todo lo demás como fortuito o casual. La producción de resultados imprevistos pone de manifiesto la complejidad de un determinado fenómeno, la operatividad, junto a los condicionantes inmediatos, de otros más débiles o remotos. En ocasiones el cálculo de probabilidades sirve para poner de manifiesto la trascendencia de esos condicionantes remotos. Como decía Hegel, la tarea de la ciencia consiste precisamente en aprehender la necesidad oculta bajo la apariencia de la contingencia (246b). Para los positivistas, que no gustan de las formulaciones filosóficas, se puede recurrir a expresar la misma noción citando a un matemático contemporáneo de Hegel como Laplace quien, por otra de esas paradojas absurdas de los libros de bolsillo, aparece como el paladín de un cierto “determinismo”, cuando se trata, en realidad, del impulsor del cálculo de probabilidades. Laplace recuerda el principio de razón suficiente para defender que todo acontecimiento tiene una causa. Sin embargo, sostiene, existen acontecimientos “pequeños” que parecen no sujetarse a las leyes de la naturaleza y cuyos lazos con el resto del universo no conocemos exactamente. No habría incertidumbre si existiera una inteligencia capaz de realizar todos los cálculos relativos al cambio de cada estado en el universo, afirma Laplace en cita muy repetida. Pero el conocimiento humano es sólo un pálido reflejo de ese intelecto hipotético. No obstante, el incesante avance del conocimiento le acerca hacia él, si bien nunca llegará a tener su misma capacidad omnisciente. Ese intelecto hipotético de Laplace es, pues, dinámico, no queda restringido a un momento determinado del saber sino a su avance incesante a lo largo de la historia del conocimiento científico. Del mismo modo, para Laplace la probabilidad matemática es un concepto dinámico, una aproximación: “En medio de las causas variables y desconocidas que comprendemos bajo el nombre de azar y que convierten en incierta e irregular la marcha de los acontecimientos, se ve nacer a medida que se multiplican, una regularidad chocante [...] Esta regularidad no es más que el desarrollo de las posibilidades respectivas de los sucesos simples que deben presentarse más a menudo cuanto más probables sean [...] Las relaciones de los efectos de la naturaleza son mucho más constantes cuando esos efectos se consideran en gran número [...] La acción de causas regulares y constantes debe prevalecer a la larga sobre la de las causas irregulares” (246c).
La introducción del azar en biología corrió paralela a la mecánica cuántica, en donde se produjo un fenómeno parecido al que aquí examinamos: lo que se nos está transmitiendo y, por tanto, lo que identificamos como mecánica cuántica, es una interpretación singular de ella, a saber, la que llevó a cabo la Escuela de Copenhague. Si en genética no hay más que mendelismo y neodarwinismo, en física no hay más que Heisenberg, Born y Bohr. El resto son especímenes seudocientíficos, herejes equiparables a Lysenko. La mecánica cuántica ha vuelto a poner otra vez de moda el azar, como si hubiera planteado algo diferente, algo que no era conocido hasta entonces (247). A pesar de tratarse de una disciplina joven y aún no consolidada, se la ha tratado de convertir en el patrón de todas las demás ciencias, de extrapolar sus principios fuera del ámbito específico para el que han sido concebidos. Parece que todos los fenómenos del universo se rigen por la mecánica cuántica, lo cual es absurdo porque desde comienzos del siglo XX la física ha dejado de ser la ciencia unificada de antaño, es decir, que ni siquiera la mecánica cuántica es toda la física. A pesar de un siglo de esfuerzos, ésta carece de unidad interna, no existe como teoría unificada, cuyos conceptos y leyes eran de validez general. Si la mecánica cuántica no es extensible a todos los fenómenos físicos, con más razón tampoco será extensible a otro tipo de fenómenos diferentes, como los biológicos. Por lo demás, el concepto de azar, como cualquier otro, no se puede perfilar sólo en la mecánica cuántica, ni en la genética, ni en la economía política, ni en la termodinámica, ni en ninguna ciencia concreta de manera exclusiva. Habrá que tener en cuenta todas ellas simultáneamente y, en particular, el cálculo de probabilidades.
En la mecánica cuántica como en genética no hay efecto sin causa ni causa sin efecto que, por lo demás, no son únicos, es decir, un efecto tiene múltiples causas (y a la inversa) y las causas pueden producir efectos contrapuestos. El principio de causalidad dimana del principio de conservación de la materia y la energía: los fenómenos no surgen de la nada. Si, como también he sostenido, las causas se convierten en efectos y los efectos en causas, del mismo modo la necesidad se convierte en azar y el azar en necesidad. Lo que para el casino es una ley determinista que le reporta beneficios inexorablemente, para el jugador de bacarrá que se acomoda en una de sus mesas es puramente aleatorio. No cabe duda de que en los fenómenos materiales existen las probabilidades del mismo modo que a ellas les acompaña el cálculo de esas mismas probabilidades: “El azar es omnipresente, pero se suprime a sí mismo al adquirir la forma de leyes” (248). Muchos de los debates sobre el azar se podrían eliminar teniendo en cuenta que también los fenómenos aleatorios se rigen por leyes, como el teorema de Bayes, que permite calcular la probabilidad de las causas. A partir de ahí es posible comprender que el azar y la necesidad no están separados el uno del otro, que la intervención del azar no excluye la necesidad, y a la inversa. El azar, pues, es el modo en que se manifiesta la necesidad; ambos forman una unidad de contrarios.
La comprensión del azar también ha estado interferida por la eterna cuestión del libre albedrío, de la libertad humana. Se concebía que donde existía determinismo no había lugar para la libertad. Ésta es la libertad de elección, la capacidad de optar entre varias posibilidades diferentes, concebida de forma omnímoda. Pero como bien saben los que han tratado de realizar una tarea de manera aleatoria, libérrima, el azar “puro” es tan inimitable como la obra de arte (249). Cada vez que alguien intenta repetir un acontecimiento aleatorio, emerge la necesidad. Nadie es capaz de elegir números al azar, incluso entre un número finito de ellos. Alguien que anote los números aleatorios que se le vayan ocurriendo del 0 al 99 puede permanecer semanas enteras escribiendo cifras y habría números que nunca aparecerían. Por consiguiente, no todos los números tendrían la misma posibilidad de aparecer. Lo mismo sucede si pedimos a un colectivo de personas que elija números al azar: siempre habría unos que serán elegidos con mayor frecuencia que otros. Los números obtenidos por medios informáticos se denominan seudo-aleatorios porque no es posible asegurar que verdaderamente sean aleatorios. De ahí la dificultad de las simulaciones, e incluso de algunos sondeos y muestreos: para resultar representativos los datos se tienen que tomar al azar. Por eso nadie puede entrar en un casino con un ordenador o una calculadora, ni siquiera apuntar los resultados; por eso los componentes de una ruleta cambian continuamente, como los dados o los naipes: a largo plazo siempre surge la regularidad en medio de lo que parece caótico. Cualquier criptógrafo conoce los problemas de obtener números verdaderamente aleatorios, cuya secuencia no responda a una lógica interna entre ellos, a lo que Laplace llamaba “función generatriz” y que hoy llamaríamos algoritmo.
De lo que queda expuesto también se deduce otra consecuencia importante, que no siempre se tiene en cuenta: por sí mismo un número aleatorio no existe, solo existe dentro de un colectivo de otros números, de los cuales es independiente (o dependiente). Los juegos de azar tienen sus reglas de juego de tal manera que las partidas se pueden reproducir indefinidamente. Por su parte, uno de los principios esenciales del cálculo de probabilidades es que la suma de las probabibilidades de todos los resultados posibles tiene que ser igual a la unidad, por lo que retornamos a la unitas complex: la multiplicidad es tan necesaria como la unidad. A diferencia del arte, en la ciencia no existen “casos únicos”. Es otra de las consecuencias de la ley de los grandes números. Una de las diferencias entre la ciencia y la ufología o la parapsicología es que éstas versan sobre fenómenos extraños y raros, mientras que la ciencia es rutinaria: estudia fenómenos que se repiten. Que la teoría sintética haya convertido a las mutaciones génicas en un “error de copia”, en un fenómeno tan insólito como los platillos volantes o las psicofonías, es un reflejo de su falta de estatuto científico.
Hace tiempo que los errores forman parte integrante de la ciencia y han tenido, además, una relación directa con el surgimiento mismo de la teoría de probabilidades, a causa de las dificultades surgidas en la medición de distancias astronómicas. Además de su contribución al cálculo de probabilidades, Laplace fue uno de los más distinguidos impulsores del sistema métrico decimal. El azar es, pues, una problema de medida y, por lo tanto, de la transformación de los cambios cualitativos en cambios cuantitativos. Aunque ninguna de las mediciones sea coincidente, los valores obtenidos se aproximan a un cierto punto y esas aproximaciones son tanto mayores cuantas más mediciones se realizan. Los errores no son erráticos sino que siguen una ley de distribución normal o de Gauss.
Gauss mantenía correspondencia epistolar con Napp, el prior del convento en el que ingresó Mendel. Algunas de aquellas cartas versaban precisamente sobre estadística y teoría de los errores, lo cual explica el fraude de Mendel con los guisantes. Mendel expuso en forma de experimento singular lo que no era más que un promedio, un resumen general de la experiencia de muchos resultados distintos (pero aproximados); presentó como un método de investigación lo que no es más que un método de exposición. De ahí que sus resultados fueran tan exactos. Pero en un sentido nominalista estricto, los promedios no existen y, por consiguiente, la probabilidad nunca aparece en la realidad. Es más, a medida que los resultados se acumulan progresivamente, los resultados cada vez divergen más de su probabilidad en términos absolutos (cuantitativos). Por ejemplo, los decimales del número π aparecen aleatoriamente y se conocen ya 200.000 millones de ellos. Cabe esperar, pues, que cada dígito, que tiene una probabilidad de 1/10, aparecerá 20.000 millones de veces. No es así. El cero supera su expectativa en más de 30.000; con la cuarta parte de dígitos, el cero la supera en poco más de 12.000. El error, por lo tanto, se ha duplicado con creces, lo cual significa que al llevar a cabo un experimento real, lo más probable -casi con una seguridad absoluta- es que la probabilidad no aparezca nunca de manera exacta, por más que se repita el experimento. Todo lo contrario: cuanto más se experimenta, más errores aparecen en términos absolutos (cuantitativos). Pero el error, como la probabilidad, no es sólo un número; además de su componente cuantitativo el error y la probabilidad tienen un componente cualitativo. Al transformarse de nuevo en cualidad el error y la probabilidad ya no son un número sino una relación entre dos números, una proporción o, por decirlo de otra manera, una abstracción: lo abstracto y uniforme se pone en el lugar de lo concreto y diverso, lo exacto en lugar de lo inexacto. Esta manera de proceder la conocían muy bien los escolásticos medievales, lo mismo que Mendel. La llamaron suppositio. Transformaba lo probable en improbable. El azar se negaba a sí mismo y se convertía en necesidad. Precisamente un estadístico como Fisher fue quien no lo supo apreciar en Mendel: la suppositio le parecía una pura suplantación, es decir, poner una cosa en el lugar en el que debía estar otra (o mejor dicho, varias).
El índice anual de inflación puede servir como ejemplo. Es un instrumento de medida de las subidas de los precios que cambia de un país a otro, que difiere en la forma de expresar las oscilaciones cuantitativas. Al mismo tiempo, la inflación tiene un carácter general, e incluso oficial, sancionado administrativamente, que sustituye a las subidas de los precios concretos de cada una de las mercancías, como si todos ellos hubieran subido en la misma proporción. Es más: este método es tan poderoso que autoriza a decir que todos los precios han subido un 2’3 por ciento a pesar de que ninguno haya tenido esa subida exactamente, por lo que convierte en representativo de una generalidad a algo que no forma parte de la misma.
La suppositio medieval resume el modo de proceder de la ciencia, la síntesis inherente al método de abstracción, la verdadera médula del nominalismo de Occam, un avance magistral del concepto mismo de ciencia con respecto a Aristóteles: “La ciencia no versa sobre los singulares sino que está constituida por universales que están en lugar de los mismos singulares” (250). El cálculo de probabilidades proporciona las herramientas matemáticas que permiten la generalización científica, unificando dos orientaciones fundamentales en cualquier clase de investigación: “la que va de las propiedades del sistema en su conjunto a las de los elementos y la que pasa de las propiedades de los elementos a las propiedades generales del sistema” (251). Este método contribuye, por un lado, a poner de manifiesto las limitaciones del micromerismo y, por el otro, la falacia empirista según la cual los fenómenos de la realidad se presentan juntos, uno al lado del otro o uno después del otro pero sin vínculos internos entre ellos, conectados pero no conjuntados, que decía Hume (251b). La ciencia, según los empiristas, no infiere reglas de tipo causal sino puras correlaciones y coincidencias. Esto lo defienden como la esencia misma de la estadística. Sin embargo, la estadística pone de manifiesto tanto correlaciones como vínculos causales objetivos entre los fenómenos, por más que no se puedan confundir las unas con los otros. En definitiva, una función de distribución estadística expresa la existencia de un ordenamiento interno de los elementos del sistema. El cálculo de probabilidades, además de un método de cálculo es un método de conocimiento.
El cálculo de probabilidades permite el manejo de grandes cantidades de información que serían imposibles sin él. Por ejemplo, el muestreo facilita el estudio del todo en una de sus partes, realizar extrapolaciones sobre un número muy grande de datos, conociendo sólo una parte de ellos, empleando sólo su media y otros conceptos matemáticos derivados, como la varianza. Del mismo modo, el comportamiento de un juego de azar puede parecer errático cuando se llevan disputadas unas pocas partidas; no obstante, cuando el volumen de información aumenta con el número de partidas disputadas, deja de serlo y aparecen las leyes conforme a las cuales se desenvuelve. Por eso, decía Hegel, la necesidad se abre camino en forma de azar. Ese es el significado exacto de la ley de los grandes números. Más de la mitad de los fenómenos considerados aleatorios siguen una de las tres leyes de distribución, uniforme, normal y de Poisson, y otra tercera parte siguen a otras diez leyes de distribución. Por ejemplo, el número de mutaciones de una molécula de ADN después de cierta cantidad de radiación no se produce al azar sino que sigue una distribución de Poisson. Como concluye un matemático: “Uno de los fenómenos más sorprendentes de la teoría de las probabilidades es el pequeño número de leyes a las cuales se reduce la mayor parte de problemas que se les plantean a los probabilistas” (252).
El azar demuestra que la naturaleza está en un desarrollo permanente, cambia y engendra de manera incesante. En su evolución los acontecimientos crean posibilidades nuevas; el efecto siempre contiene algo nuevo en comparación con la causa: “Durante el desarrollo no sólo se realizan las posibilidades existentes en el pasado sino que se crean posibilidades nuevas por principio, no implícitas en los estados anteriores de la materia [...] Las nuevas posibilidades no se originan sin causa, sino como una tendencia de los nuevos estados de la materia, antes inexistentes” (253). El cálculo de probabilidades no es sólo un recurso matemático, cuantitativo sino cualitativo. Lo que determina es que:
a) de una misma acción se pueden derivar varios resultados posibles
b) es posible medir esas diferentes posibilidades
c) hay resultados cuya producción es imposible
El preformismo en biología, lo mismo que la predestinación luterana, son variantes del mecanicismo que desconocen la potencialidad del desarrollo, que en la evolución continuamente se estan creando nuevas posibilidades y nuevas potencialidades. A causa de ello, el futuro no está escrito en el pasado; por bien que conociéramos éste nunca podríamos vislumbrar aquel. Los positivistas, para quienes la realidad es un presente continuo, desconfían de las posibilidades y se atienen a lo realmente existente, a las posibilidades ya realizadas. Pero las posibilidades forman parte de la realidad, están en ella, no de una manera subjetiva sino objetiva. La contingencia, decía Hegel, es la posibilidad de otra existencia, no a título de simple posibilidad abstracta sino como posibilidad real, porque la posibilidad es un componente esencial de la realidad: “Esta contingencia hay que reconocerla y no pretender que tal cosa no puede ser sino así y no de otro modo” (254). La ciencia explica la transformación de la posibilidad en realidad. Su objeto no está tanto en relatar lo que ocurrió sino en las razones por las cuales ocurrió, aquellas que lo hicieron posible. Si, como vengo defendiendo, de una determinada causa pueden derivarse diferentes efectos posibles, la tarea de la ciencia consiste en precisar -con verdadera necesidad- el conjunto de posibilidades realmente factibles en cada caso, según determinadas circunstancias, frente a todo aquello que resulta imposible. Los acontecimientos reales tienen que ser posibles, pero un acontecimiento posible puede ocurrir o puede no ocurrir.
La diferenciación de las células embrionarias demuestra que el concepto de posibilidad no es exclusivamente filosófico sino que tiene importantes expresiones en la biología. Los organismos superiores tienen más posibilidades de desarrollo que los inferiores. Las posibilidades se realizarán siempre que se cumplan las leyes que rigen el fenómeno, siempre que se den las condiciones precisas para ello y, por el contrario, no se den las contratendencias que se le oponen. De ahí que la evolución se deba concebir con un sentido progresivo, hacia una mayor complejidad, hacia formas superiores de materia: de la materia inerte a la materia viva y de ésta hacia la sociedad, la cultura y los fenómenos singularmente humanos. De ahí que quepa concluir que quienes realmente han introducido el azar en la biología de una manera impecable han sido los mismos que han concebido la evolución como un desarrollo potencial, no lineal, entre ellos Lamarck y Lysenko. En efecto, el concepto de potencialidad que ambos utilizan acredita dos cosas al mismo tiempo: que su concepción de la biología no es ni finalista ni actualista (255). Lamarck entiende la naturaleza como “potencia” y habla del “poder de la vida” que, sin embargo, se ve contrarrestado por las “causas modificantes”, por lo cual la progresión de los seres vivos no puede ser ni sostenida ni regular (256). Esas “causas modificantes” a las que alude Lamarck son, pues, el fundamento de las regresiones en la evolución y, en última instancia, de las extinciones, otra prueba más de la ausencia de finalismo en la teoría lamarckista.
En su noción vulgar, positivista, el azar excluye la causalidad, no liga el pasado al presente, ni éste al futuro. Por consiguiente, si el azar fuera absoluto no habría evolución porque todo empieza de nuevo; otra vuelta de la ruleta. Su introducción en la genética proviene de la escisión entre la generación y la herencia; al poner todo el énfasis en ésta desaparece cualquier posibilidad de innovación. En este sentido el azar desempeña el papel creador de lo nuevo en la evolución biológica y ese es el verdadero significado de la mutación como salto cualitativo o, como dice René Thom, un auténtico acto de creación a partir de la nada: “En ciencia, lo aleatorio puro, es el proceso markoviano, donde todo vestigio del pasado se elimina en la génesis del nuevo golpe; en cada prueba se reitera el ‘big bang’ creador: lo aleatorio puro exige un hecho sin causa, es decir, un comienzo absoluto. Pero en la historia de nuestra representación de lo real, no hay otro ejemplo de comienzo absoluto que el de la Creación” (257). La teoría de las mutaciones es, pues, un forma de creacionismo laico, un retorno bíblico bajo nuevas apariencias. Las mutaciones se explican sin necesidad de previos cambios cuantitativos, graduales, evolutivos. En la herencia había continuidad sin cambio y en la mutación había cambio sin continuidad. Monod lo expresó de la manera extremadamente dogmática que acostumbran los mendelistas: “Por sí mismo el azar es la fuente de toda novedad, de toda creación en la biosfera. El azar puro, el azar exclusivamente, libertad absoluta pero ciega, es la raíz misma del prodigioso edificio de la evolución: esta noción central de la biología moderna ya no es hoy una hipótesis entre otras posibles o al menos concebibles. Es la única concebible, la única compatible con los hechos de observación y de experiencia. Y nada permite suponer (o esperar) que nuestras concepciones sobre este punto deban o incluso puedan ser revisadas” (258). Otro punto y final para la ciencia; también aquí no hay nada más que aportar al respecto. La ideología siempre intenta impedir el avance de la ciencia sustituyéndola, necesariamente travestida de dogmatismos de esa pretenciosidad.
Con la teoría de las mutaciones la genética adopta un ademán matemático abstracto o, como diría Lysenko, formal. Ya los trabajos de Mendel presentaban -como ha quedado expuesto- un sesgo estadístico pero fue la propia utilización de Mendel contra Darwin la que impulsó el tratamiento abstracto de la genética. Frente a los mendelistas como Bateson, los biometristas siguieron defendiendo a Darwin. Los primeros empezaron a ganar la partida, pero hacia los años veinte los biometristas lograron imponer su concepción estadística y se produjo la primera síntesis: ambas concepciones no eran incompatibles; Darwin y Mendel podían convivir. Los modelos estadísticos elaborados por los genetistas soviéticos, dados a conocer en los países capitalistas por Fisher, Haldane y Wright como si fueran previos, abrieron la vía a la “genética de poblaciones” y al tratamiento estadístico de la herencia que facilitó la amalgama entre Mendel y Darwin. Engels ya había puesto de manifiesto que “también los organismos de la naturaleza tienen sus leyes de población prácticamente sin estudiar en absoluto, pero cuyo descubrimiento será de importancia decisiva para la teoría de la evolución de las especies”. Ahora bien, los modelos estadísticos poblacionales se fundamentaban en dos de las claves de la ideología burguesa en materia biológica: micromerismo y malthusianismo, la “lucha por la existencia” y la competencia entre los seres vivos (259), llegando algunos a aplicar la teoría matemática de juegos a la evolución (260). Del mismo modo que la aplicación de la teoría de probabilidades a la física estadística estuvo en relación con la introducción del atomismo y, como consecuencia de ello, la noción de “independencia”, es decir, a la ausencia de vínculos directos entre las partículas, para introducir sus modelos estadísticos en biología los mendelistas parten de una muestra de sucesos independientes entre sí. El protipo burgués es Robin Crusoe. Los animales silvestres son como los hombres en la sociedad: están atomizados, enfrentados unos con otros, sin vínculos mutuos de sociabilidad, como las moléculas de gas en un recipiente cerrado, rebotando unas contra otras. Volterra quería elaborar la “teoría matemática de la lucha por la existencia” (260b). No existen familias, ni rebaños, ni enjambres, ni manadas. Aquí como en física estadística se produce una paradoja metodológica: mientras, por un lado, se reconoce la existencia de interacciones entre los elementos de los sistemas estudiados, al mismo tiempo, la matemática no admite tal interacción (260c). En biología las relaciones sociales no son independientes, bilaterales e iguales. Así, la abeja doméstica (Apis mellifera) es un insecto social que vive en colmenas. Aislada, una abeja muere al cabo de pocos días. Las sociedades apícolas se componen de tres tipos de individuos (reina, obreras y zánganos) que mantienen entre sí una división de tareas y, por consiguiente, una especialización funcional sin ninguna clase de competencia o lucha interna entre ellas ni entre otros animales sociales o, por lo menos, no es ése el comportamiento predominante. Más bien al contrario, la subsistencia de la abeja doméstica se fundamenta en la colaboración y coordinación sinérgica de actividades dentro y fuera de la colmena, hasta el punto de que no se las pueden considerar como seres independientes. El intercambio de alimento es una conducta innata en muchas especies animales. Por ejemplo, los insectos sociales practican la trofalaxis, es decir, la mutua entrega y recepción de nutrientes. Si la colonia pasa hambre, pasan hambre todos sus integrantes por igual. La abeja recolectora ofrece parte del botín a otra obrera que lo demanda sacando su lengua hasta recibir una porción que rezuma de la boca de la primera. Además, mediante la trofalaxis las abejas se traspasan feromonas, que es una forma de comunicación y reparto social de las tareas.
Entre las abejas domésticas el reparto de funciones alcanza también a los dos aspectos vitales de la alimentación y la reproducción. Las obreras se encargan de la parte vegetativa y la reina y los zánganos de la reproductiva. Por lo tanto, la reproducción no se verifica al azar sino conforme a reglas bien establecidas con un fuerte carácter endogámico. Sólo la reina es fecundada y, por lo tanto, es la madre de toda la colonia. Su función es poner huevos toda su vida y sólo sale de la colmena para fecundarse. Los zánganos son los machos y proceden de huevos sin fecundar, es decir, son clones de la reina, a la vez que hijos, medio hermanos también de ella. Por su parte, las obreras no son estériles, como se afirma en ocasiones, sino que la presencia de la reina les impide desarrollar sus órganos genitales. Mientras en la colmena hay una reina activa, las obreras no desarrollan otras que puedan competir con ella. Pero en cuanto empieza a envejecer o muere, las obreras inician la construcción de celdas reales. En la colmena la función de la reina depende de la jalea real; mientras circula por la colmena, las obreras no buscan sucesoras. Dicha sustancia se produce en las glándulas cefálicas de la reina, que al lamerse el cuerpo se empapa con ella, la cual a su vez la lamen las obreras que se encargan de su aseo y éstas, a su vez, la transmiten a otras.
Los modelos matemáticos elaborados por la teoría sintética no tienen en cuenta este tipo de fenómenos sociales. Se fundamentan en el individualismo y el malthusianismo, y su concepción puramente cuantitativa se expresa en la noción de que la evolución no es más que un “éxito reproductivo”, que consiste en multiplicarse en mayor número o en más cantidad de individuos. Si eso fuera cierto, la biosfera resultaría una proeza de los virus y bacterias, e incluso de los insectos que, con más de un millón de especies conocidas, suponen cerca del 75 por ciento de todos los seres vivos pluricelulares. Los malthusianos escinden al individuo del medio, afirmando que el primero podría multiplicarse indefinidamente, pero que el medio le pone limitaciones. Es como decir que las gallinas podrían vivir sumergidas en el océano, pero que el agua no se lo permite. Un ser vivo y su medio forman una unidad inseparable y, por consiguiente, es absurdo sostener que los individuos crecen más que los recursos que el medio les puede proporcionar porque el alimento de algunos individuos son individuos de otras especies que, por consiguiente, por la misma “ley” de Malthus, también deberían crecer en la misma proporción. Un ave acuática como el somormujo, por ejemplo, es alimento de las truchas y, a su vez, se alimentan de renacuajos. El mismo animal a unos efectos es depredador y a otros es presa. Por lo tanto, los cálculos malthusianos son incoherentes, ya que no existe ningún motivo para pensar que a unos efectos el número de somormujos deba crecer en mayor medida que a otros. Como es previsible las absurdas teorías malthusianas conducen a las no menos absurdas teorías apocalípticas, que convierten en un “fracaso” ecológico lo que para los genetistas es un “éxito” reproductivo:
Los científicos que estudian la población humana han llegado a la conclusión de que el mundo ha alcanzado su capacidad de sustento, que es la capacidad de abastecer las necesidades de la gente. Así que en el futuro será difícil alimentar, vestir, dar vivienda y trabajo a un número adicional de personas a un nivel superior al de subsistencia vital. El rápido crecimiento de la población ha dilatado ya los recursos del planeta; las estimaciones sobre el crecimiento en el futuro platean serias dudas sobre si el planeta podrá seguir abasteciendo las necesidades crecientes de la gente. En los próximos 50 años se necesitará un aumento de la actividad económica diez veces superior al actual para dar salida a las necesidades humanas básicas -una situación que posioblemente la biosfera no pueda tolerar sin un deterioro irreversible.
En los países en vías de desarrollo, con las tasas más elevadas de nacimientos, las ganancias económicas se acaban rápidamente -simplemente por tener demasiadas bocas para alimentar. Los países en vías de desarrollo de Asia, África y América del Sur se encuentran en la desesperada carrera de mantener el abastecimiento de alimentos al nivel del crecimiento de la población. Cuando se produce una sequía y se extiende el hambre, sus gentes se encuentran en grave peligro, especialmente si por razones políticas o de otro tipo, la importación de alimentos no puede abastecer a la demanda [...]
Cuando la agricultura no pueda proporcionar los alimentos necesarios, la gente se encontrará en grave peligro de morir de hambre. En climas favorables las poblaciones crecen más allá de los límites que imponen los climas desfavorables -que es cuando las cosechas son pobres. La raza humana podría encontrarse más cerca del abismo cuando el hambre en masa surja como consecuencia de una reduccion de la producción de los cultivos provocada por la sequía, las infecciones o la enfermedad de éstos” (261).
Este tipo de soflamas constituye uno de los mayores fraudes seudocientíficos contemporáneos, cuyo objeto es el de maquillar el hambre y las calamidades sanitarias que padece la población mundial. Normalmente, el volumen de cualquier población de seres vivos es una función inversa de su densidad, nivelando su número antes del punto de saturación. En ocasiones, pueden darse casos de crecimiento incontrolado de determinadas poblaciones, como en el caso de las plagas. También hay irrupciones periódicas de poblaciones de determinadas especies que ocasionan grandes oscilaciones en la densidad poblacional. Se trata de fenómenos temporales o cíclicos que también acaban autorregulándose (261b).
El movimiento cuantitativo de una población no es un fenómeno genético sino ecológico. En cuanto a la demografía humana, se trata de un fenómeno social, no solamente biológico. No obstante, Malthus parte de la primacía de lo biológico sobre lo social en el crecimiento poblacional y considera su hipótesis demográfica como una “ley de nuestra naturaleza”. A partir de su ensayo los demógrafos malthusianos forjaron el concepto de movimiento “natural” de la población, deducido como la diferencia entre la natalidad y la mortalidad. Como fenómeno biológico, la población se rige por una “ley” invariable que se originó hace 3.500 millones de años, con la aparición de la vida sobre el planeta, y sigue operando inexorablemente, tanto en las sociedades humanas como en las poblaciones animales, algo realmente insólito que carece de precedentes científicos de ninguna clase. Lo mismo que los genes, para el malthusianismo la población humana es otra de esas abstracciones ahistóricas, capaz, no obstante, de desempeñar el papel de variable independiente: lo condiciona todo y no es condicionada por nada.
La otra parte del mismo problema, los recursos, se consideran en su cuantía absoluta y no en la forma de su distribución, en el reparto de los mismos. Así, en opinión de Malthus el salario (y por tanto la pobreza y la miseria de la mayoría de la población) es efecto y no causa del exceso de población (261c). Esta teoría es rotundamente falsa. La población humana es una abstracción vacía si no se tienen en cuenta otros condicionamientos sociales, como la estratificación social, las clases sociales o la distribución de los ingresos. Los cambios poblacionales están influenciados por numerosos factores de muy diverso orden: movilidad social, flujos migratorios, urbanización, servicios de salud, convicciones religiosas, etc. Cada modo histórico de producción (y, por lo tanto, cada modo de distribución que de él deriva) tiene sus propias leyes de población, que son, pues, necesariamente variables.
El malthusianismo no es menos erróneo en lo que las poblaciones animales concierne. Así, como el propio Darwin observó, en cautividad la reproducción de algunos animales se paraliza completamente y los individuos se tornan estériles. Según todos los experimentos que desde 1931 se han llevado a cabo con diferentes especies, de manera unánime, tanto en los laboratorios como en estudios de campo, las poblaciones animales autorregulan su número. El crecimiento del volumen de una población animal ni es ilimitado ni depende tampoco de los recursos alimenticios disponibles. Cuando en un terrario con suficiente alimentación y bebida el número de ratones crece hasta una cierta densidad, su fisiología se modifica, las glándulas suprarrenales crecen, entrando en un fenómeno de intensa actividad y la mortalidad de los ejemplares jóvenes aumenta hasta que la reproducción se detiene completamente. Si se extrae de la jaula a una parte de los ratones, el fenómeno se detiene: las glándulas suprarrenales dejan de crecer y se reanuda la reproducción.
El excedente de población es relativo, tanto en el hombre como en los animales. Lo que los experimentos llevados a cabo demuestran es que la reproducción se ralentiza antes de que se pueda hablar de un excedente, es decir, antes de poder afirmar que se ha reducido significativamente el espacio disponible. El fenómeno no depende de la densidad de población, no existe ninguna forma de espacio vital porque si se traslada a la población de ratas a un terrario más amplio, la reproducción sigue descendiendo de la misma forma. Es más, se observa que los roedores que disponen de más espacio tienden a juntarse en sólo una parte del terrario (262).
Los seres humanos también son animales sociales que se rigen por criterios colectivos. Las leyes de la reproducción humana no son sólo biológicas ni individuales sino sociales y económicas. Así, hay una norma general en el terreno reproductivo que prohibe el incesto, hay impúberes que dependen de sus padres, en la India las castas no se mezclan entre sí, etc. Los movimientos de población dependen de varios condicionantes, los más importantes de los cuales son de tipo económico. La lucha por la existencia, pues, es otra de esas expresiones que, según Engels, puede abandonarse. Según Engels la lucha por la existencia no tiene el carácter de mecanismo único de la evolución: “puede tener lugar” en la naturaleza pero “sin necesidad de interpretación malthusiana”. La sociedad capitalista se basa en la sobreproducción y el exceso; crea mucho más de lo que puede consumir por lo que se ve obligada a destruir en masa lo producido: “¿Qué sentido puede tener seguir hablando de la ‘lucha por la vida’?”, concluye Engels (263).
A partir de la teoría de las mutaciones, se impone abiertamente la idea de “código” genético donde todo está ya escrito desde tiempo inmemorial: “No hay nada en el hijo que no exista ya en los padres”, reza el dogma mendelista, lo que Carrel expresa de una forma parecida: “Nuestra individualidad nace cuando el espermetazoide penetra en el huevo” (264). Pero incluso el individuo como tal desaparece en la genética de poblaciones, cuyo objeto son los genes. El gen aparece entonces como una abstracción matemática o, mejor dicho, se encubre bajo ella, deja de ser una partícula material. Como escribió Fisher, uno de los defensores de esta concepción, las poblaciones estudiadas son abstracciones, agregados de individuos pero no los individuos mismos y, en cuanto a los resultados, tampoco son individuales sino “un conjunto de posibilidades” (265). Por supuesto, las abstracciones matemáticas resultan inalcanzables por cualquier fenómeno físico exterior. Pero el gen ya no es algo encerrado dentro de una caja fuerte sino como la combinación de esa caja fuerte, su secreto. Los mendelistas han hablado del “desciframiento” del genoma humano como si su tarea fuese de tipo criptográfico. La matemática se había desarrollado a lomos de la mecánica y no faltan intentos de suplantar a la biología con la mecánica a través de la matemática (y de la estadística). Fisher explicaba la selección natural como si se tratara de un caso de teoría cinética de los gases, lo que da lugar a un tipo de argumentaciones como la siguiente: “Las moscas del vinagre podían ser consideradas como partículas sujetas a las mismas leyes de difusión que afectan a los átomos de un gas. Al mezclar dos cepas distintas de ‘Drosophila’, la competencia entre sus individuos podía ser asimilada a una reacción química. Aplicando modelos físicos de difusión de partículas gaseosas, así como otros tipos de modelos estadísticos, Fisher, Haldane y Wright establecieron las bases de una nueva disciplina, la genética de poblaciones, que estudiaba a los individuos en función de una unidad superior, la población. De este modo la genética se reencontraba con el darwinismo allí donde Francis Galton y otros biómetras se habían estancado: en el análisis de poblaciones y la influencia de la selección natural sobre ellas, no sólo sobre los individuos, sino también sobre los factores subyacentes, los genes, que eran los que se transmitían de generación en generación. Bajo el nivel más aparente del fenotipo, causa de la selección natural, había aparecido un nivel infrayacente, el genotipo, resultante de la selección natural” (266). A través de la modelización matemática, la biología se asimila a la mecánica. Lo que se acaba sosteniendo no es que dos fenómenos (distintos) funcionen de la misma manera (matemática) sino que son iguales. No hay analogía entre los modelos mecánicos y biológicos sino identidad.
La modelización estadística crea un espejismo: pretende hacer pasar las hipótesis como tesis. Sin embargo, la validez de un modelo no está determinada por su forma matemática de exposición sino por su comprobación empírica. Así, se habla en genética de poblaciones de la “ley” de Hardy-Weinberg cuando se debería decir el modelo de Hardy-Weinberg, es decir, una hipótesis sobre el funcionamiento de un fenómeno que debe ser corroborada con los datos empíricos correspondientes, lo cual es imposible porque los postulados sobre los que se construye dicho modelo no existen en la realidad, ni siquiera como aproximación. De la misma manera, según Huxley, Fisher había demostrado “matemáticamente” que la herencia de los caracteres adquiridos, aunque ocurriera en la naturaleza, era incapaz de explicar la evolución (267). Matemáticamente se utiliza aquí, una vez más, en su sentido vulgar, como sinónimo de “indudablemente”, de manera definitiva y concluyente. Es un exceso de demostración: cualquiera se hubiera conformado con una explicación debidamente argumentada y fundamentada en hechos. Algunos científicos tienen un complejo de inferioridad respecto a la física por no haber sido capaces de exponer sus resultados en la misma forma matemática en que lo logró la mecánica desde el siglo XVII, como si la determinación cuantitativa fuera la única posible, sinónimo de una exactitud que no existe en ciencia alguna.
Por lo demás, la modelización matemática opera como un sustituto de la argumentación teórica, de modo que, en lugar de contribuir al desarrollo conceptual -cualitativo- de la ciencia, en ocasiones lo empobrece. Al elaborar una “teoría matemática de la lucha por la existencia” sería necesario precisar también qué es la lucha por la existencia, qué tipo de fenómenos explica (o encubre), qué leyes rigen el crecimiento de las diferentes poblaciones, si son las mismas en las poblaciones humanas y de otros seres vivos, etc. Responder a estos interrogantes no requiere solamente de una aproximación de la biología a la matemática, sino también a otras disciplinas científicas, como por ejemplo, la economía política porque el crecimiento demográfico no es un fenómeno exclusivamente biológico o reproductivo, sino también económico; tampoco es un fenómeno exclusivamente cuantitativo sino cualitativo: las poblaciones no permanecen estáticas sobre el mismo territorio sino que migran y, en consecuencia, interactúan unas con otras. La equiparación de los animales (y los hombres) con las “máquinas bioquímicas”, es otra de esas extrapolaciones mecanicistas sobre las que está construida esta teoría: el micromerismo. La genética se rige por las leyes de la termodinámica, por lo que cada gen, como cada molécula, debe tener una incidencia insignificante sobre el carácter, es decir, se pierde la individualización causal entre el gen y el carácter que determina. Entonces los mendelistas comienzan a hablar de caracteres cuantitativos, es decir, de caracteres que ya no son contrastables, como los de Mendel, sino graduales. La genética de poblaciones no solamente no tiene fundamento alguno en Darwin sino que tampoco lo tiene en Mendel. Los mendelistas han pasado de la concepción discreta de Mendel a otra de carácter continuo, y ambas son igualmente metafísicas. Si a Mendel y De Vries hay que recordarles que los caracteres no siempre son totalmente contrastables, a los biometristas hay que recordarles que entre un grupo sanguíneo y otro no hay término medio. Este el punto en el que los nuevos mendelistas dejan de serlo y empiezan a balbucear incoherencias: por un lado hablan de caracteres continuos y, por el otro, de mutaciones discontinuas. El recurso a la continuidad o a la discontinuidad es oportunista; depende de las necesidades de la argumentación. Como veremos, para encubrir sus contradicciones los manuales de los mendelistas tienen que introducir nuevos conceptos sobre la marcha:
a) poligenes: varios genes que actúan -pero muy poco- sobre el mismo carácter
b) pleiotropía: un mismo gen que actúa sobre varios caracteres Los métodos mendelianos son difíciles de aplicar a estos casos de variación continua, reconocen Sinnott, Dunn y Dobzhansky: parecen mezclarse en vez de segregar. Según ellos se debe a la “acción conjunta de varios o de muchos genes, cada uno de los cuales tiene un efecto individual pequeño sobre el carácter en cuestión”. Ahora bien, no existe una divisoria clara entre caracteres cualitativos y cuantitativos. Además los caracteres cuantitativos tienen tendencia a resultar influidos por el ambiente. Los poligenes no son genes diferentes a los demás y su acción es estadística (268). Todas esas cábalas se lanzan al aire sin ningún tipo de argumentación ni de prueba. Hay poligenes que son genes pero cuyos efectos no son los de los genes. Su efecto es “estadístico” pero no explican qué clase de efectos son esos.
Otros autores, como Falconer, empiezan destacando que la genética cuantitativa está en contradicción con el mendelismo: “Los métodos de análisis mendeliano no resultan apropiados en estos casos”, dice inicialmente para acabar luego afirmando que, sin embargo, los principios y las leyes son los mismos y que la genética cuantitativa es una “extensión” de la mendeliana. Sin embargo, los genes ya no determinan caracteres, como en el mendelismo, y mucho menos se puede decir que un gen determina un carácter. Por lo tanto, en contra de lo que sostenía Weismann, para Falconer el objeto de estudio de tal genética cuantitativa no son las progenies aisladas sino las poblaciones; no se trata de clasificar sino de medir. Pero, como sutilmente reconoce el autor, nada de esto tiene ningún fundamento empírico: “El aspecto experimental de la Genética Cuantitativa, sin embargo, ha quedado muy por atrás de su desarrollo teórico, y existe todavía mucho camino por avanzar para lograr su función complementaria. La razón de esto es la dificultad de diseñar experimentos de diagnóstico que discriminen, sin dejar lugar a dudas, entre las muchas situaciones posibles visualizadas por la teoría” (269). Por consiguiente, se trata de un puro artificio matemático. La teoría de las mutaciones se inventó para cohonestar el mendelismo con la evolución, impidiendo a toda costa la mención del ambiente exterior. De ahí que las mutaciones resultaran automutaciones. Los genes estaban fuera de la evolución, no variaban. La existencia de genes dominantes y recesivos eran una especie de reserva genética, de genes redundantes o sobrantes que no servían para nada, algo que era contrario a la idea de selección natural. Propició la idea de “recombinación” como si los genes preexistieran desde siempre, siendo la evolución una distinta combinación de los mismos genes, la misma baraja con un reparto diferente de cartas. En 1925 el descubrimiento de los efectos genéticos de las radiaciones cambió la situación por completo... o al menos hubiera debido hacerlo porque demostraba la incidencia de los factores externos sobre el genoma. No fue así porque se olvidó ese aspecto y se interpretó como la segunda confirmación de la hipótesis del gen, después de la teoría cromosómica. La hipótesis del gen se transformó en la teoría del gen: existían los genes porque se podían modificar por medios físicos. La parte ambiental no fue tomada en consideración porque estimaron que, en realidad, no había mutaciones inducidas exteriormente sino que los agentes ambientales aumentaban la frecuencia de las mutaciones naturales, entendidas éstas como “espontáneas”, es decir, aleatorias.
Un ejemplo puede ilustrar el papel del azar y de los factores ambientales en genética, además de corroborar la vaciedad de la teoría sintética: un carácter tan importante como el sexo no depende de ningún gen ni de ninguna secuencia de ADN. En el gusano Bonellia viridis el sexo depende del sitio en el que se depositen las larvas (270); en las tortugas de la temperatura de incubación (271); y en los seres humanos de una determinada combinación de los cromosomas. Uno de los pares de los cromosomas homólogos, el que determina el sexo del individuo, es distinto al resto. Las hembras sólo producen gametos (óvulos) portadores de cromosomas del tipo X, mientras que los varones producen la mitad de gametos (espermatozoides) X y la otra mitad de gametos Y. La probabilidad de que al unirse los gametos resulte una combinación XX (hembra) o XY (varón) es la misma que la de lanzar una moneda al aire: el 50 por ciento. Ésa es la teoría. Sin embargo, si al lanzar una moneda al aire no encontráramos aproximadamente el mismo número de caras que de cruces, sospecharíamos que la moneda no es simétrica. Pues bien, desde hace siglos se sabe que nacen más niños que niñas, por lo que concurren factores exteriores que modifican esa expectativa. Además, según un estudio que publicó la revista Biology Letters en abril de 2009, cuanto más cerca del Ecuador viven las poblaciones, más se reducen las diferencias entre nacimientos masculinos y femeninos. La investigación fue dirigida por Kristen Navara, de la Universidad de Georgia, quien analizó los datos oficiales desde 1997 hasta 2006 procedentes de 202 países y publicados en el World Factbook de la CIA. La conclusión es que la población que vive en los trópicos tiene más niñas en comparación con la que vive en otras partes del mundo. La media de hembras nacidas en el mundo es de 487 por cada mil nacimientos. Sin embargo, en las latitudes tropicales, por ejemplo en el África subsahariana, se eleva hasta 492 niñas por cada mil nacimientos. Navara considera que podría deberse al tiempo más cálido o a los días más largos. Es posible que los gametos humanos se vean afectados por la luz ambiental y la temperatura, y que estas variables favorezcan a uno u otro género en función de la latitud. De hecho, estudios previos en mamíferos pequeños como hámsteres siberianos revelan que estos animales tienen más hijos varones durante los meses de invierno (272). Esas consideraciones se pueden extender a las mutaciones, que se han vuelto contra los mendelistas al convertirse en lo contrario de lo que fueron en su origen, en una teoría de la contaminación ambiental. A fin de cuentas lo que Mendel denominó “factores” son secuencias de ADN, una molécula de ácido nucleico que puede ser sintetizada y alterada por numerosos fenómenos químicos, físicos y biológicos de tipos muy diversos. No hay automutaciones; las mutaciones tienen un origen externo al ácido nucleico. Desde 1925 las experiencias al respecto se han ido acumulando con el paso del tiempo. Dos años después Muller lo confirmaba en Estados Unidos y doce años después, Teissier y L’Heritier repitieron la experiencia en Francia con el gas carbónico. La interacción ambiental se ha demostrado no sólo con las radiaciones (naturales y artificiales) sino con las sustancias químicas ingeridas en los alimentos o en el aire que respiramos y con los virus o bacterias con los que el organismo entra en contacto. La nómina agentes mutágenos es considerable: de 10.000 sustancias químicas que se han estudiado, cerca de 1.000 son mutágenas. Las bases nitrogenadas del ADN absorben luz a una longitud de onda máxima de 260 nanometros, que es la propia de los rayos ultravioleta, de modo que este tipo de radiaciones son mutagénicas. Como muchos compuestos químicos, las bases tienden a oxidarse, produciendo un compuesto molecular distinto. Por ejemplo, la guanina se transforma en 8-oxoG de modo que en lugar de unirse a la citosina de la otra hebra que la complementa en la misma molécula de ADN, se une a la timina, transmitiéndose a la siguiente generación celular. La oxidación de la guanina no se produce al azar a lo largo de cualquier punto de la molécula de ADN sino concentrada en ciertas secuencias específicas.
La acción de los agentes mutágenos se manifiesta por dos vías diferentes: directamente sobre el ácido nucleico e indirectamente a través de la metabolización del propio organismo (promutágeno). Las mutaciones no son, en realidad, más que una parte de los cambios que puede experimentar un genoma por efecto de las circunstancias ambientales. En ocasiones no es necesario siquiera que la composición del ADN o de sus bases se modifique sino que basta con que se modifiquen las proteínas que los envuelven. Así, además de oxidarse, las bases también se metilan y las proteínas que las rodean en el núcleo celular se acetilan, modificando su funcionamiento. Según Dubinin, “el surgimiento de las mutaciones está determinado por las variaciones de las moléculas de DNA, las cuales surgen sobre la base de las alteraciones en el metabolismo del organismo y bajo la influencia directa de los factores del medio ambiente” (273). Lo interesante es destacar lo que hoy es obvio, a saber:
— las mutaciones génicas tienen una causa o varias, bien conocidas o que pueden llegarse a conocer
— son disfuncionales, es decir, provocan enfermedades, malformaciones, abortos e incluso la muerte
— los mutantes tienen una capacidad reproductora muy débil.
En una mutación pueden concurrir varias causas difíciles de individualizar, pero no se puede decir que ocurra al azar. Cuando la teoría sintética invoca el azar lo que quieren decir es que no conocen las causas de la mutación, es decir, expresan lo que a su ciencia le queda aún por recorrer. Que una causa no se conozca no significa que no se pueda llegar a conocer. Sin embargo, basta rastrear la evolución del concepto de mutación para comprobar que las observaciones al respecto se han multiplicado progresivamente: cada vez se conocen más, se conocen mejor y sus causas están más determinadas, hasta el punto de que la radiobiología y la toxicogenética se han convertido en disciplinas con sustantividad propia, que no se han desarrollado para hablar del azar precisamente. Desde hace un siglo (274) es sabido que se pueden utilizar radiaciones ionizantes como esterilizante o desinfectante, una práctica cuya aplicación a los alimentos se ha regulado recientemente por normas jurídicas de la Unión Europea. Los legisladores, pues, no deben confiar en el carácter aleatorio de unas radiaciones capaces de acabar con las bacterias de los alimentos pero no con los alimentos mismos.
Otro ejemplo puede contribuir a ilustrar lo que vengo defendiendo: si correlacionamos la edad de la madre con la probabilidad de que alumbre un neonato con síndrome de Dawn, es más que evidente el vínculo entre ambas circunstancias:
edad materna 25 a 29 años 30 a 34 años 35 a 39 años 40 a 44 años
riesgo al nacer 1 ⁄ 1.250 1 ⁄ 378 1 ⁄ 100 1 ⁄ 30
Ahora bien, la edad de la madre no puede ser la causa sino algún factor derivado del desarrollo materno que, naturalmente, no aparece en el padre. Una de las explicaciones más verosímiles reside en un fenómeno que ya he comentado anteriormente: en el hombre los espermatozoides tardan en formarse entre 65 y 75 días, por lo que se trata de una célula que no tiene la misma antigüedad que el organismo completo. Por el contrario, en cada ovario de la mujer hay unos 400.000 óvulos desde el mismo momento del nacimiento, desprendiendo uno de ellos en cada ciclo menstrual a partir de la pubertad y conservando (dictiotena) el resto expuestos a todo tipo de circunstancias ambientales: radiaciones, estrés oxidativo y otras circunstancias que provocan en ellos alteraciones cromosómicas. La permanencia de los cromosomas del ovocito puede ocasionar una división incorrecta dando lugar a un ovocito con cromosomas excedentes.
Debido al efecto mórbido de las mutaciones, los dispositivos génicos tienen su propia capacidad de autoprotección, que se refuerza a medida que se asciende en la escala de las especies. En el hombre no se conocen mutaciones viables y su número no alcanza la tasa del dos por ciento de mutaciones naturales de la mosca. No hay humanos mutantes porque los que tienen un ADN diferente no se desarrollan o no se reproducen. Paradójicamente puede decirse que es en las mutaciones donde no aparece la herencia de los caracteres adquiridos. Ahora bien, cuando los seres vivos mutantes son viables, sus alteraciones génicas se transmiten hereditariamente, es decir, son un caso de herencia de los caracteres adquiridos.
Las radiaciones son un ejemplo tan claro de esa influencia que ha aparecido una disciplina, que se dedica a estudiarla, bien a fin de determinar sus efectos patológicos, bien como terapia para destruir células tumorales. Son agentes mutágenos que inciden tanto sobre los elementos vitales de la célula como sobre alguno de sus componentes, como el agua. En este último caso, la radiación ioniza el átomo de agua, expulsa radicales libres H y OH que a su vez forman agua oxigenada (peróxido de hidrógeno), que es un oxidante. En el interior de las células tanto los radicales libres como los oxidantes rompen los enlaces de las moléculas, alterando su naturaleza química. Las consecuencias varían en función del tipo de moléculas afectadas. Desde 1906 la ley Bergonié-Tribondeau expone que las radiaciones afectan a los mecanismos reproductores más que a cualesquiera otros. El plasma germinal, por consiguiente, no sólo no es resistente sino que es menos resistente que el cuerpo a ciertas acciones ambientales. Existen radiaciones que no afectan a las células hasta que éstas se dividen, y entonces sucede que:
— muere al dividirse (muerte mitótica)
— se divide de manera incontrolada
— impide la división y crea esterilidad
— no afecta a la célula directamente sino únicamente a su descendencia
Buena prueba de que las radiaciones no provocan mutaciones al azar es que, hasta cierto punto, se pueden controlar. Así, está comprobado que la irradiación de los tejidos impide su regeneración, de manera que si se irradia un animal con capacidad de regeneración, como una lombriz por ejemplo, y luego se trocea, no se regenera. Pero si se cubre una parte de ella, sí se puede regenerar el animal completo a partir de ahí, incluso aunque la amputación tenga lugar en una parte alejada de la zona irradiada, lo cual indica que las células no irradiadas se desplazan para regenerar el resto del cuerpo. También se puede concluir sosteniendo que la irradiación sólo impide la regeneración de aquellas células a las que afecta (275).
La ley Bergonié-Tribondeau se puede expresar mediante una escala de sensibilidad que clasificaría a las moléculas celulares de la forma siguiente: ADN > ARN > proteínas. La sensibilidad genómica a las radiaciones es mil veces superior que la del citoplasma. Por más que sea una convicción muy extendida, es falso que las bajas dosis de radiactividad no sean peligrosas para la salud, es falso que haya “dosis admisibles” de radiactividad. Lo que Muller demostró en 1927 es que no existía umbral mínimo para las mutaciones genéticas inducidas por rayos X. Prácticamente cualquier dosis es lesiva, influye sobre el genoma. A pesar de ello los manuales de genética afirman precisamente todo lo contrario, una supuesta capacidad de resistencia del genoma ante las modificaciones ambientales: “El genotipo es una característica de un organismo individual esencialmente fija; permanece constante a lo largo de la vida y es prácticamente inmodificable por efectos ambientales” (276).
La contaminación radiactiva no sólo mata o enferma a la generación actual, sino que seguirá matando y enfermando a las generaciones futuras para siempre. En 1945 lo más grave no fueron las explosiones atómicas en Hiroshima y Nagasaki sino las partículas radiactivas que se liberaron. Las explosiones asesinaron a 300.000 japoneses directamente, pero las partículas radiactivas lanzadas a la estratosfera dieron la vuelta al mundo; siguen y seguirán entre nosotros afectando a toda la humanidad. Además, los efectos de las radiaciones se transmiten a las generaciones sucesivas de quien las padece; son ellas las que experimentan sus consecuencias. En abril de 2009 un grupo de investigadores suecos utilizaron la incidencia de la contaminación atómica ambiental sobre el ADN para fechar la regeneración de las células cardiacas. Las pruebas con bombas nucleares realizadas en la posguerra tuvieron como resultado la producción masiva de isótopos radiactivos de carbono-14 que se trasladaron desde la atmósfera a las células de todos los seres vivos, alcanzando también al ADN. Éste integra el carbono-14 en una concentración que se corresponde exactamente con el nivel atmosférico del momento en el que aparece la célula de la que forma parte. Midiendo la presencia de carbono-14 en el ADN de las células es posible saber la fecha en la que se generaron y, de este modo, inferir retrospectivamente la antigüedad de las mismas así como la renovación que se debe haber producido. Naturalmente el ADN de cada célula tiene unos niveles diferentes de carbono-14 que dependen de los niveles de contaminación radiactiva ambiental. Es difícil poner un ejemplo más claro de herencia de los caracteres adquiridos. No hay demostración más dramática que las secuelas de los bombardeos atómicos de Hiroshima y Nagasaki sobre los supervivientes y su descendencia. En la guerra de Vietnam, los estadounidenses bombardearon a la población con el “agente naranja” que contenía dioxinas, una sustancia tóxica que ha pasado de generación en generación provocando la aparición de tumores, leucemias linfáticas, anormalidades fetales y alteraciones del sistema nervioso en tres millones de vietnamitas. Con el tiempo los bombardeos atómicos han aumentado en agresividad. El número de átomos radiactivos lanzados en las guerras de Irak y Afganistán es cientos de miles de veces mayor que los liberados por las bombas de Hiroshima y Nagasaki. Desde la primera guerra del Golfo en 1991 en Irak han aumentado las malformaciones monstruosas, los cánceres y otras enfermedades. En Faluya el 75 por ciento nacen deformes y el 24 por ciento mueren en su primera semana de vida (277). La causa principal de las malformaciones neonatales es la contaminación radiactiva por el empleo de las armas mal llamadas de “uranio empobrecido”, que contienen elementos radiactivos, como el uranio-236, que no existen en la naturaleza, y que se han encontrado en la orina y autopsias de veteranos de guerra, de la población afgana e irakí. También se han encontrado restos de plutonio, como se comprobó tras el bombardeo de Yugoslavia, y contiene uranio enriquecido, como se comprobó tras la guerra del Líbano. Según confesión propia a la ONU, en diciembre de 2008 Israel bombardeó Gaza con fósforo blanco cuyos efectos no tardarán en hacerse notar.
Todo eso a pesar de que la herencia de los caracteres adquiridos no está demostrada. ¿Qué hará falta para demostrarlo?
NÖMADAS. REVISTA CRÍTICA DE CIENCIAS SOCIALES Y JURÍDICAS
CEPRID
Artículos de esta autora o autor
- Cumbre de los BRICS: un paso crucial hacia el multilateralismo
- La plataforma de intermediación comercial de China y la desdolarización
- Un mensaje de los BRICS reunidos en Rusia: "adiós Bretton Woods, nosotros gestionamos nuestro dinero"
- Los BRICS en Kazán 2024: ¿Una semilla hacia un mundo nuevo?
- La cumbre de los BRICS debería marcar el fin de los delirios neoconservadores
- [...]
es Territorios Internacional ?