Mentes Maravillosas que cambiaron la humanidad
Carlos Blanco
Introducción
¿Cambian la historia las mentes maravillosas?
El progreso en todos los campos del conocimiento y de la vida es el resultado del trabajo conjunto de innumerables hombres y mujeres a lo largo de los años y en una determinada sociedad, que ha sido capaz de coordinar sus esfuerzos para que redunden en el bien de todos. Pero en ocasiones han surgido mentes verdaderamente maravillosas, intelectos y personalidades privilegiadas que han impulsado ellos solos y de manera definitiva una teoría científica, un invento o una gran idea filosófica.
Se establece, por tanto, un binomio inevitable entre la acción de individualidades dotadas de un talento excepcional y la existencia de unas condiciones sociales y culturales sin las que, casi con toda seguridad, esas singularidades nunca habrían podido aportar lo que realmente hicieron. ¿El genio o su entorno? ¿La persona individual y singular o el contexto económico, político, cultural e incluso religioso en que nace y desarrolla su labor? Se trata de la famosa polémica entre lo que lo ingleses llaman nature (la naturaleza, la carga genética, el individuo considerado aisladamente) y nurture (la educación, el entorno, el ambiente familiar y social), entre la genialidad vista como “ensimismamiento” y pura excepcionalidad o el genio contemplado como el fruto perfectamente esperable y racionalmente comprensible en una época histórica y en una atmósfera intelectual, social y económica concreta. Nos enfrentamos a una dialéctica o contradicción en la que se presentan dos términos opuestos. Por un lado, una tesis: las mentes maravillosas son genios en sentido estricto, prácticamente independientes del espacio (el lugar en el que nacen, la educación, la familia...) y del tiempo (el momento histórico que les toca vivir), al estilo del protagonista de la película El indomable Will Hunting. Hace más de cien años nació en la India un milagro. Se llamaba Srinivasa Ramanujan, y procedía de una pequeña aldea del estado de Tamil Nadu, al sur de ese gigantesco país. Pasó por colegios primarios y secundarios de la región, pero nunca obtuvo un título universitario. Se enseñó a sí mismo matemáticas, aprovechando todos los libros de trigonometría y de análisis que caían en sus manos. Pronto los superó y descubrió él solo teoremas de un nivel avanzadísimo. Tanto es así, que cuando el profesor Godfrey H. Hardy, de Cambridge, tuvo noticia de los trabajos de Ramanujan (otros matemáticos ni siquiera se habían dignado a leerlos seriamente), no podía creer muchas de sus proposiciones por lo novedosas y llamativas que eran. Hardy invitó a Ramanujan a viajar a Inglaterra para investigar junto a él. Pasaron unos años fabulosos en los que afloraron un sinfín de ideas y de teoremas, probablemente sin comparación posible en la historia reciente de las matemáticas. Todo científico o pensador habría soñado con profundizar en un campo del conocimiento con un genio de la categoría de Ramanujan. Pero Ramanujan enfermó en Cambridge. Su salud era muy frágil, y vivía obsesionado por las matemáticas. Se vio obligado a regresar a su India natal, y falleció en 1920, con sólo 32 años. Ramanujan poseía una capacidad insólita para concebir fórmulas y conjeturas matemáticas que luego han tardado en probarse por su indudable complejidad. Un genio, un intelecto prodigioso y prometeico que había surgido repentinamente en una oscura aldea de la India y que embrujaba con su talento a los mejores matemáticos de la época.
Pero también hay una antítesis: el genio nunca habría sido genio y las mentes maravillosas nunca habrían logrado cambiar la historia sin haber recibido los influjos sociales y culturales que marcaron sus biografías, de modo que las estructuras e instituciones (económicas, políticas, científicas) son clave a la hora de analizar el alumbramiento de una gran personalidad. Y si se quiere encontrar una síntesis es necesario intentar mantener ambos términos (la tesis y la antítesis) simultáneamente, renunciando en lo mínimo a las exigencias que cada uno plantea. ¿Cambian la historia las mentes maravillosas? Por un lado sí, porque ha habido genios sin parangón que por sí solos han abierto nuevos horizontes en la ciencia, el arte o el pensamiento. Pero por otro lado no, porque esos genios responden a una época y a una sociedad o a una tradición en la que unos u otros habrían acabado efectuando las mismas o similares contribuciones al progreso intelectual y ético. Conclusión: las mentes maravillosas cambian, sí, la historia, pero la historia también cambia a las mentes maravillosas porque esas mentes no habrían sido maravillosas si no hubiesen dado con una coyuntura histórica, política y social como la que vivieron. Sin la crisis que atravesaba la física clásica a finales del siglo XIX no habría surgido ningún Einstein, pero probablemente sin el Einstein de carne y hueso (y no cualquier otro físico en la misma tradición y en la misma situación) la historia de la física no habría tomado el rumbo tan precipitado y revolucionario que a la larga cogió.
Ni el individuo se explica sin la historia, ni la historia se explica sin los individuos que la protagonizaron. Estamos “condenados” a prestar igual atención a ambos términos del binomio genio/sociedad, como en tantos otros aspectos de nuestra existencia, y lo importante es que en cada caso concreto sepamos identificar con precisión cómo se relacionaron ambos polos que configuraron una común realidad. Esa tensión entre los dos polos es enormemente fecunda y productiva, es un motor que invita a pensar y a superar la parcialidad en la que siempre podemos caer si nos centramos unilateralmente en uno de los miembros de la ecuación y no nos fijamos en el otro como lo merece. Y esa tensión inspira a mirar continuamente más allá, a proponerse superar toda limitación y a situarse constantemente en una perspectiva más amplia que relativice esos términos aparentemente irreconciliables y descubra un horizonte, un espacio de reflexión mayor donde quepan cada vez más opciones y donde cada vez se disponga de un acercamiento más riguroso y certero a la historia intelectual de la humanidad.
Por poner un ejemplo, tenemos el caso del Renacimiento. El Renacimiento supuso una innegable novedad con respecto a la cultura medieval, pero cuando se estudia y analiza más a fondo, uno se da cuenta de que sin esa cultura medieval es inexplicable el Renacimiento. El Renacimiento significó así una discontinuidad o ruptura con lo anterior, pero también se desenvolvió en continuidad con la Edad Media, de manera que en la Edad Media estaba ya el “embrión” o el germen del futuro Renacimiento. Lógicamente, al decir que existe una gran continuidad entre la Edad Media y el Renacimiento de manera que no se pueden entender el uno sin la otra, no se quiere negar la originalidad que supuso la cultura renacentista primero en Italia y después en toda Europa. Si no hubiese existido una cierta “discontinuidad”, nunca se habrían dado los cambios que luego se produjeron y en realidad llegaríamos a afirmar que no hay tanta diferencia entre la Edad Media y el tiempo actual, lo que no parece muy sensato. La humanidad no habría progresado. Sencillamente, lo que damos a entender es que es imposible aislar arbitrariamente a personas y momentos obviando su posición en la historia, su lugar en esa cadena de acciones y de influencias. Claro que han existido y seguirán existiendo mentes maravillosas que verdaderamente cambian la historia, y que esos hombres y mujeres son irrepetibles, singulares y únicos, con una forma de afrontar los problemas y de mirar a la realidad propia, aunque en muchos puntos coincidan con otros autores. Pero nunca habrían sido auténticos revolucionarios si no hubiesen vivido en un tiempo y en un espacio, educados en una tradición y sometidos a una serie de influjos que los marcaron y definieron. Sólo desde ahí es posible comprender su genialidad y su originalidad. Además, desde un punto de vista histórico es muy fácil apreciar la continuidad que existe entre unas épocas y otras. La historia se muestra como una línea recta, más o menos compleja, porque el historiador que escribe en el siglo XXI ya tiene una perspectiva más global, ya sabe lo que ha ocurrido y puede mirar desde arriba, a “estilo piloto”, a las diferentes épocas. Pero cuando se está en una época, las cosas cambian. Ya no es tan sencillo descubrir ese sentido (si es que existe), esa perspectiva general, y a veces es mejor conformarse con aproximaciones a los hechos menos pretenciosas, como han puesto de relieve los filósofos de la post-modernidad. Personas o acontecimientos que hoy nos resultan asombrosos y absolutamente innovadores quizás, a la larga, nos impresionen menos. Que en una encuesta reciente para el Discovery Channel los estadounidenses votasen al difunto ex presidente Ronald Reagan como el americano más grande de todos los tiempos, por delante de Abraham Lincoln o de Benjamin Franklin, sólo demuestra el riesgo y el peligro que corremos si juzgamos la historia desde la inmediatez. Lo que para nosotros es popular, relevante o incluso trascendental puede resultar mucho menos importante si se ve desde una óptica histórica más amplia y menos cercana a los hechos. Pero en el aquí y en el ahora, ciertas personalidades, hechos y descubrimientos presentan una originalidad innegable. No tenemos más remedio que convivir con esa ambivalencia, sumamente enriquecedora y plural, de admitir la continuidad y la ruptura que conviven en la historia, aunque en ocasiones pueda ser más interesante privilegiar uno u otro aspecto. Y lo que queda por encima y por debajo de esa ambivalencia entre el genio y la sociedad es que el ser humano es capaz de superarse constantemente a sí mismo y de descubrir nuevos mundos en todos los campos del conocimiento y de la acción.
Porque además, ¿existe el progreso auténtico en el conocimiento? El progreso; pocos conceptos ejercen, a la vez, tanta fascinación y tanto rechazo, tanta admiración y tanta suspicacia, tantas ilusiones y tantas frustraciones. ¿Es todavía posible creer en el progreso? Creer en el progreso es, en efecto, un acto de fe. Por extraño que parezca, no hay ninguna evidencia de que el mundo físico o la humanidad como tales se superen de forma continua e incesante. Exige tener fe, creer en que es posible progresar, también hoy. Por otra parte, y aunque no nos demos cuenta, la sociedad actual nos exige creer en muchas cosas que no están demostradas. Creemos en la capacidad racional humana para desentrañar los misterios del universo y para ofrecer una explicación lógica del cosmos y de la psicología humana. Creemos que realmente comprendemos cómo funciona el universo físico empleando herramientas matemáticas. Creemos que el ser humano puede controlar la naturaleza (también la suya propia) con el poder de su inteligencia. Esto es un acto de fe. Podríamos estar soñando, pensando que realmente comprendemos algo cuando en realidad no comprendemos nada. Podrían ser la mera casualidad, el puro azar, lo que hubiese propiciado la síntesis de matemáticas y de observación experimental para construir ese ampuloso y problemático edificio llamado ciencia. Al igual que hay gente que dice que el universo ha surgido por azar, ¿por qué no hay tanta gente que diga que la matematización de la ciencia puede haber sido una simple casualidad, pero que no podemos estar seguros de que vayamos a seguir utilizando este sutil formalismo para describir la naturaleza? De hecho, parte de la filosofía contemporánea de la ciencia ha abandonado los rígidos esquemas del positivismo y del cientificismo para recaer en un “anarquismo epistemológico” (en expresión de Paul Feyerabend) que renuncia a conceder a las ciencias experimentales el beneficio de la certeza.
En la vida humana, aun sin darnos cuenta, tenemos que hacer muchos actos de fe, incluso sobre cosas que creíamos objeto de certeza racional y no de fe. Por tanto, la pregunta no es ya si existe el progreso de hecho, de facto (muchos lo niegan, otros muchos dicen que la humanidad ha ido a peor in crescendo, y los herederos de Rousseau piensan que éramos mejores cuando vivíamos en la inocencia pre- civilizatoria, lejos de la corrupción y de la soberbia que las ciencias, las artes y la técnica nos inoculan), sino si puede existir de derecho, de iure: ¿es posible el progreso? Como en toda cuestión de fe, lo que la inteligencia humana puede hacer es, como mucho, mostrar que una determinada creencia no es absurda o negativa para el bienestar humano, pero en ningún momento podrá demostrarla, ofrecer razones apodícticas sobre su veracidad y por tanto sobre el imperativo de creer en ella si realmente queremos ser coherentes con los instrumentos intelectuales de que disponemos, que son (y esto es, al fin y al cabo, una vuelta al punto de partida de Descartes y su pienso, luego existo) una de las pocas cosas de las que podemos estar seguros: de que hemos pensado, pensamos y podemos continuar pensando en un futuro.
El “progreso” da a entender que cada etapa histórica es capaz de superar, objetivamente, a las anteriores. Somos mejores que antes; conocemos más que antes; podemos hacer más cosas que antes. El progreso es el “cambio del cambio” dentro de la historia, como la aceleración es el “cambio del cambio” en el movimiento físico. Sin embargo, las frustraciones históricas han desacreditado la visión del progreso propia de la Ilustración. Tras la Primera Guerra Mundial, autores como Oswald Spengler (a su obra dedicó en gran medida la tesis que presentó en Harvard el controvertido Henry Kissinger) han hablado de la “decadencia de occidente”, frente al sueño iluminista de la superación incesante. Y la teoría del eterno retorno (der ewige Wiederkehr) de Friedrich Nietzsche se postula como una consecuencia del nihilismo (no hay nada con sentido en la vida o en la historia) y de la inmanencia de la historia, que vuelve continuamente sobre sí misma.
La tónica general, en línea con la filosofía postmoderna y con el relativismo cultural, ha llevado a rechazar la idea de progreso por considerarla un producto occidental con pretensiones de exclusividad que cercenan el pluralismo. Porque en efecto, la pregunta no es sólo si es posible el progreso, sino de qué tipo de progreso estamos hablando. ¿Nos referimos a la idea ilustrada de progreso, que se resume a grandes rasgos en el progreso científico y tecnológico? ¿Nos referimos a la idea de progreso histórico presente en muchas religiones? ¿Nos referimos al progreso ético, a la mejora moral de la humanidad, que parte ya del a priori de que existe una ética más perfecta hacia la que deben orientarse todas las culturas? El progreso científico es un hecho... o no. ¿Hemos progresado, realmente, de modo que a día de hoy podamos responder a las grandes preguntas -sobre el origen del universo, de la conciencia, de lo complejo, con plena certeza, o estamos inmersos aún en más dudas precisamente porque cuanto más conocemos y avanzamos más interrogantes surgen? En este sentido, no se puede hablar a secas de progreso, porque el progreso científico implica un aumento cada vez mayor de los enigmas e interrogantes sin respuesta, por lo que al mismo tiempo que “sabemos más” también sabemos que “ignoramos más”.
Pero quizás entendamos por progreso la convicción de que toda barrera histórica, cultural, científica o social puede ser superada. No cabe oponer, por tanto, el pluralismo cultural al progreso, porque lo que “progreso” significa es que cualquier cultura puede ser renovada, ampliada, mejorada, también la cultura que promueva una cierta visión del progreso y, concretamente, la occidental. Es la convicción de que cualquier determinación puede romperse, de que cualquier filosofía, cultura o religión puede “abrirse”, puede ir más allá de su horizonte actual y entrar en un horizonte más amplio, más integrador. Es una afirmación de la libertad humana por encima de toda frontera, sea del tipo que sea. Es creer que siempre puedo “abrirme más”, ir más allá de la situación actual o de la contingencia presente, para entrar en un espacio más universal, o al menos renovado. Es, en conclusión, una forma “a-temática”, sin “tema”: el progreso no impone unos contenidos, unos objetivos concretos, unos logros, sino que consiste en afirmar que toda determinación podría eventualmente romperse, que todo contexto podría ampliarse, que toda cultura o religión podría renovarse, purificarse y mejorarse. Se trata de un progreso formal, de la afirmación de una posibilidad (la de apertura, renovación, mejora y humanización) más que de la defensa de unos contenidos concretos (que es lo que normalmente se entiende por progreso) y que representa, a mi juicio, un postulado ético necesario en nuestro tiempo.
sólo si aprendemos a ver las culturas, las religiones y las sociedades no como entidades cerradas sobre sí mismas, sino como siempre susceptibles de apertura, mejora y renovación, superaremos la incomunicación que todavía existe entre tantos hombres y mujeres de la Tierra, que bajo la excusa de pertenecer a otras tradiciones, sociedades o culturas totalmente distintas, creen imposible el diálogo. Y el diálogo es posible precisamente porque esas culturas o tradiciones nunca pueden tomarse como absolutas, como clausuradas sobre su propia historia y sus propios principios, sino que siempre podremos abrirlas más y llevarlas a horizontes nuevos y más integradores. El pensamiento cambia de una persona a otra y de una cultura a otra, pero lo que nos une es la capacidad de relacionarnos intelectualmente, de intercambiar ideas y opiniones, de apreciar las creaciones artísticas de cada civilización: la posibilidad de comunicarnos y de ser partícipes de la interioridad de los otros a la vez que revelamos la nuestra propia es, creo yo, lo más definitorio del ser humano. Todo lo que potencie esa capacidad de comunicación, de intercambio y de apertura más allá de nuestro yo pero respetando la autonomía de ese yo será un ejemplo de progreso.
También tenemos que aprender a superar las ataduras que impone una cultura tecnocrática, gobernada exclusivamente por la técnica y por el predominio de lo “útil” a simple vista. El predominio de la técnica en nuestra cultura es incuestionable. Desde hace décadas, su fuerza se aprecia en todos los niveles, y muy especialmente en el de la educación. Imbuidos por sus logros, hemos adquirido una mentalidad “tecnocrática”, donde lo que parece importar es, fundamentalmente, la pericia técnica, la capacidad de “hacer algo” más que de “pensar” o “reflexionar” sobre algo.
El saber y las disciplinas académicas se juzgan, con frecuencia, en base a sus aplicaciones prácticas. Si una ciencia contribuye a mejorar la vida de las personas, goza de gran aceptación social. En cambio, si una ciencia o una rama del conocimiento no presenta aplicaciones concretas, su valor es puesto en tela de juicio. La teoría se mide en función de la práctica, y si la teoría no conduce a un resultado práctico evidente, tendemos a pensar que su importancia es escasa. La pregunta posee, por tanto, una enorme trascendencia: ¿Qué cultura queremos forjar? ¿Qué sociedad del conocimiento queremos construir? ¿Hacia qué metas queremos encaminar la educación y el progreso técnico, científico y social?
La sociedad no la configuran únicamente los técnicos. La técnica, el “saber hacer”, es vital para el desarrollo de un país. Sin técnicos que gestionen las administraciones o las empresas es imposible que una comunidad funcione. Todos estamos obligados, en este sentido, a ser “técnicos”, a saber hacer, porque la vida se realiza en un aquí y en un ahora que requiere de unas acciones concretas.
Pero hay algo previo a la técnica. Las ciencias no avanzan sólo en el plano experimental. En ocasiones, la teoría ha tenido que anteceder a la práctica, aunque haya sido la práctica la responsable de validar o refutar una teoría. Y del mismo modo, la sociedad no progresa sólo gracias a las ejecuciones técnicas, a los proyectos de ingenieros, economistas, informáticos y juristas que dominen su campo, sino que en los pilares de esa tecno-estructura se encuentra la esfera de las ideas y del pensamiento, que más que cualquier otra cosa, han definido las grandes líneas en torno a las que gravita nuestra cultura. No han sido sólo los técnicos quienes han inspirado una visión de la sociedad fundada en unos valores que hoy compartimos, sino que existe una larga tradición de pensamiento y de reflexión de intelectuales y filósofos que ha influido significativamente en la sociedad actual. El progreso social, cultural y científico no se debe en lo esencial a la “tecnocracia”, al predominio de la mentalidad técnica, sino a la ideocracia, al predominio de las ideas, de la reflexión y de los planteamientos teóricos que han intentado ir más allá de la coyuntura concreta y de las circunstancias específicas, para abrirse a un plano más amplio donde se pudiesen concebir órdenes sociales y científicos nuevos.
No hay, a mi juicio, distinción legítima y excluyente entre “estudios útiles” y “estudios inútiles”. Muchas veces caemos en la tentación de pensar que sólo estudiando o cultivando materias “productivas” a corto plazo se hace algo realmente beneficioso para la sociedad. En el fondo, bastaría con la economía, la informática, el derecho, los idiomas o las ingenierías para ayudar a la sociedad o, al menos, para abrirse paso en el arduo campo de la competitividad profesional. Quienes así opinan olvidan, probablemente sin quererlo, que si sólo estudiamos “cosas útiles” no somos auténticamente libres, y quedamos determinados por la coyuntura del momento, coyuntura que por otra parte puede cambiar. ¿Quién no nos dice que el día de mañana muchas de las materias que hoy consideramos importantes dejarán de serlo, aunque hoy nos resulte casi impensable? Una cultura que no supiese sobreponerse al momento, a lo concreto, carecería de amplitud de miras y nos uniformizaría, creando “seres prototípicos” o clónicos, casi de diseño, programados para dar respuestas a ciertas necesidades. Serían meros técnicos, pura sintáctica sin semántica, destreza sin ciencia. Si queremos huir de lo uniforme, de la “producción en masa” alienante en el ámbito intelectual y humano en general, debemos abrirnos al mundo del conocimiento en toda su amplitud, porque de todo podemos aprender y en todo podemos descubrir nuevos horizontes que fomenten el diálogo, la integración y el progreso. El mundo actual no se ha construido sólo gracias a los técnicos, sino también con grandes ideas de filósofos y de humanistas que supieron ver más allá de lo que la sociedad del momento quería mostrarles. La Ilustración, por poner un ejemplo, es el fruto de de la reflexión de filósofos y científicos que como Voltaire, Montesquieu, Rousseau, D’Alembert o Kant concibieron un orden social nuevo en gran medida impulsados por un legado filosófico e ideológico previo, y no sólo por las revoluciones en el ámbito de la técnica que por entonces se estaban experimentando en Europa.
Una de las expresiones más bellas de la libertad y de la indeterminación que caracterizan al ser humano es precisamente contemplar universidades en todo el planeta en las que se cultivan disciplinas tan dispares como la historia antigua, la física cuántica, la teoría política, las lenguas orientales o la filosofía de la religión. Porque conocer es humanizar, y todo lo que conocemos, por “inútil” que parezca, es un logro de la humanidad.
Capítulo 1
La escritura: ¿existe una invención más genial?
Si preguntásemos a muchos de nuestros contemporáneos por el que ha sido el mayor descubrimiento de la historia de la humanidad, muchos mencionarían el ordenador, la imprenta o la máquina de vapor. Y no les faltaría razón: todos estos inventos, ya sean pura tecnología o teorías científicas y filosóficas, han contribuido de manera admirable a la mejora de la vida humana y nos han introducido en nuevos mundos. Pero hay algo previo a todos estos descubrimientos, algo sin lo que probablemente no se habría conseguido nada más en los siglos sucesivos; algo que, por su importancia, inaugura la historia: la escritura.
Es imposible, al menos si nos atenemos a las evidencias arqueológicas, determinar con exactitud cuándo y dónde comenzó la escritura, y menos aún quién (o quiénes) fue el responsable de una genialidad tan asombrosa. La escritura está en el origen de la civilización, y dio pie a una revolución aún más decisiva que la que supuso la aparición de la agricultura y de la ganadería. Así, en las cuatro primeras grandes civilizaciones tenemos ya testimonios del surgimiento de una nueva y trascendental herramienta.
Se suele considerar que es Sumeria, y no Egipto, la patria de la escritura. Pero el debate no está cerrado, porque, ante todo, es necesario clarificar qué se entiende por escritura y si meros pictogramas en un sistema mínimamente desarrollado son ya merecedores de esta denominación. En 1998, expertos del Instituto arqueológico alemán con sede en El Cairo y dirigidos por Günther Dreyer, anunciaron haber descubierto las primeras muestras de inscripciones jeroglíficas en el país del Nilo. En palabras del propio Dreyer, sus hallazgos no significaban situar a los egipcios por delante de los sumerios en una supuesta carrera por el “record Guinness” de la invención de la escritura, sino que más bien obligaban a replantearse la pregunta más allá de lo tradicionalmente afirmado, ya que sus descubrimientos los colocarían, por lo menos, en la misma época, hacia el 3400-3200 antes de Cristo. Sus excavaciones en las inmediaciones de Abydos, en el Alto Egipto, habrían sacado a la luz tarros y etiquetas con inscripciones más legibles que los encontrados en Mesopotamia, al representar figuras de animales, plantas y montañas de las que se podrían haber derivado nombres de futuros monarcas (como es el caso del rey Escorpión).
Ignace Gelb, de la Universidad de Chicago, en un ensayo ya clásico (A Study of Writing, publicado en 1952), hablaba de “precedentes de la escritura” para referirse a aquellas representaciones pictóricas que, sin llegar a constituir formalmente un sistema de signos con capacidad de expresar sonidos e ideas (es decir, la expresión de lo lingüístico), sí dio lugar a los elementos fundamentales con los que iba a contar cualquier escritura futura propiamente dicha. Entre estos “precedentes” incluyó pinturas rupestres y petroglifos, deudores de una sistemática descriptiva-representativa que se inspiraba, como más tarde las escrituras logográficas (que combinan signos puramente fonéticos con signos ideográficos, que en lugar de sonidos expresan ideas), en las formas naturales. No debemos olvidar que la independencia que en las actuales escrituras alfabéticas se ha logrado con respecto a las formas naturales es sólo fruto de un dilatado proceso que no se inició hasta, aproximadamente, el año 1900 antes de Cristo. Según una noticia aparecida en prensa, los primeros ejemplos de escritura alfabética podrían haberse producido, como otros muchos adelantos a la larga decisivos para el desarrollo de la civilización, en Egipto. Se trata de textos del 1900 antes de nuestra era, más tempranos que las muestras proto-cananeas hasta entonces tenidas como las más antiguas, hallados por John Coleman de Yale y por su esposa en Wadi el Hol, entre Tebas y Abydos. Los autores habrían sido gentes de lengua semita que vivían en Egipto, por lo que continuaría siendo cierta la afirmación de que fueron los fenicios (pueblo semita) quienes inventaron el alfabeto, pero estas muestras serían anteriores a las fechas que se suelen ofrecer como iniciales en el surgimiento de las escrituras alfabéticas. Sin duda, la simplicidad del alfabeto frente a la extrema complejidad que se alcanza en sistemas logográficos como el egipcio o el chino fue, a la larga, una razón fundamental para el triunfo casi definitivo de este modelo de escritura.
Gelb, y en esto coincidirían muchos autores, cometió errores en su búsqueda de las formas primarias de escritura. Negó a los jeroglíficos mayas el estatuto de escritura, ciertamente influenciado por el gran estudioso de las culturas mesoamericanas Sir John Eric Thompson, pero que hoy en día, tras las exhaustivas investigaciones del ruso Yuri Knorosov y de otros eruditos como Tatiana Proskouriakoff y sus avances decisivos en el desciframiento, son casi unánimemente tenidos como escrituras verdaderas. Y eso por no entrar en la polémica, todavía vigente, sobre las inscripciones de la isla de Pascua, que para Gelb habrían sido meros trazos con finalidades mágicas sin un contenido logográfico.
El mismo Gelb situó representaciones pictóricas como los “cantos de Ojibwa” u otras creaciones de nativos americanos bajo la denominación de “sistemas de identificación mnemónica”. Así, pictogramas de carácter heráldico habrían estado entre las formas primitivas que habrían evolucionado a la escritura en sentido estricto. Gelb pone el ejemplo de la pantera: si un hombre primitivo dibujaba en su escudo una pantera, al principio podría evocar la fuerza que la pantera transmitía al dueño del escudo, pero progresivamente la referencia se habría ido desplazando desde el signo en sí (la pantera) al propietario del escudo, llegando a denotar posesión, propiedad. Aunque no sea una pieza de escritura en sentido estricto, está ya en el camino que irá permitiendo una sistemática independencia del significado del signo con respecto a la forma gráfica del signo, clave en cualquier tipo de escritura.
Vemos de esta manera que la escritura representa una de las creaciones más poderosas de la inteligencia humana. Supuso un paso definitivo en la senda de racionalización y de humanización del cosmos, al representar ya una emancipación de lo mágico y de lo religioso, si bien en sus comienzos y también en su desarrollo la escritura no estuviese exenta de intencionalidades mágico-religiosas. Pero lo que está claro es que en los sistemas de escritura, también en los más rudimentarios, se consigue una relación dual entre el signo escrito y el significado de ese signo. Un ejemplo nítido es el de la escritura jeroglífica egipcia: el águila se emplea para expresar el sonido consonántico equivalente al alef semítico (del árabe y del hebreo), aunque gráficamente sea un águila. Sin embargo, la coexistencia en sistemas como el egipcio de signos fonéticos y signos ideográficos demuestra que sólo con el transcurso del tiempo se llegará a una escritura mucho más económica, donde la independencia entre el signo y el significado sea ya completa, y la casi totalidad de los signos aludan exclusivamente a un valor fonético y las ideas sólo se transmitan fonéticamente. En escrituras como la egipcia los signos determinativos (referentes a ideas y no a sonidos) desempeñaban un papel muy importante, como el dibujo de un hombre para indicar que la palabra escrita fonéticamente alude a “hombre”, o un gato para señalar que la expresión fonética miw representa un felino. Estos signos, también presentes en el hitita o en las escrituras mesopotámicas, ayudan bastante a separar una palabra de la otra, y se podrían asemejar al “espacio” en blanco que nosotros dejamos entre una palabra y la siguiente para distinguirlas fácilmente (algo que, por cierto, no solían hacer los clásicos griegos y latinos). Además, todavía en nuestra escritura sigue habiendo excepciones, porque el signo de interrogación no contiene ningún elemento fonético, y es significativo. Pero la tendencia en la evolución de la escritura ha sido que todo acabe expresándose fonéticamente, con letras que representan sonidos y no ideas.
Entre lo que Gelb llamó sistemas logo-silábicos por combinar elementos silábico-fonéticos y elementos ideográficos figuran la escritura sumeria, el proto-elamita, el proto-índico (en el valle del Indo, en el actual Pakistán), el chino (que comenzó a desarrollarse hacia el 1300 a.C. y que se utiliza en la actualidad, lo que supone, y nadie lo niega, un enorme quebradero de cabeza para los chinos, al haber un número ingente de signos), el egipcio, el cretense (que comprende a su vez varias formas de escritura, como el Lineal A o el Lineal B, descifrado gracias a los trabajos del arquitecto inglés M. Ventris, que empleó una novedosa técnica matemática) y el hitita.
El nacimiento de la escritura estuvo relacionado con el proceso de sedentarización y, más aún, con el proceso de civilización. Tanto Sumeria como Egipto conocieron una floreciente cultura que, asentada en torno a un importante cauce fluvial (el Nilo y los ríos Tigris y Eúfrates; en el caso de Harappa, el río Indo, y el Yang-Tse en China; hay excepciones, sin embargo, a esta asociación entre civilización y río: la cultura maya no se asentó junto a ningún cauce fluvial, y sin embargo, se trata de una de las primeras grandes civilizaciones americanas, aunque sea bastante posterior a las primeras grandes civilizaciones del Oriente Medio), alcanzó unas cotas de desarrollo hasta entonces desconocidas. En el caso de Egipto, un líder sureño llamado “Narmer” venció al caudillo del norte a finales del cuarto milenio antes de Cristo, “unificando” los dos reinos bajo su mandato y dando lugar, por tanto, a lo que se conoce como el Egipto dinástico. Si analizamos la paleta de Narmer, una de las muestras más tempranas de arte al servicio de la exaltación del poder del rey, percibimos un asombroso simbolismo que, sorprendentemente, se conjuga con una sobria pero acaso más significativa representación fonográfica: se expresan más ideas que sonidos. En efecto, en el anverso de la paleta aparecen, en su parte superior, dos signos que han sido generalmente identificados con los bilíteros (signos de dos consonantes) para Nr (pez) y mr (cincel) dentro de un serej (el rectángulo con los jeroglíficos del nombre del monarca; es por ello que el líder representado en la paleta es conocido como “Narmer”, rey de Hierakómpolis, y asociado al “Menes” de que habla el historiador Manetón). Ambos constituirían uno de los primeros ejemplos de escritura propiamente dicha. Seguidamente podemos ver a un dirigente (y detrás de él a su porta-sandalias, la persona encargada de llevar el calzado del monarca) con una corona blanca alta (la corona del Alto Egipto), haciendo ademán de castigar severa o incluso mortalmente a un líder postrado y vencido que por los jeroglíficos que lo acompañan podría haberse llamado “Washi”. El mismo Narmer aplasta a dos individuos (gentes del Delta del Nilo, del norte, físicamente semejantes al caudillo humillado por Narmer), y Horus, el dios- halcón encarnado en la persona del rey, domina al caudillo del Delta (la cabeza del hipotético Washi con seis flores de papiro, típicas de la región del Delta del Nilo).
Anverso y reverso de la Paleta de Narmer (de www.egiptologia.net)
En el reverso de la paleta, observamos al “monarca” con la corona del Bajo Egipto (que hace de él neb tawy, Señor de las Dos Tierras) seguido de su porta- sandalias y precedido por una especie de parada militar en la que se muestran diferentes estandartes. Habría también un gran número de cautivos, resultado de su victoria sobre el líder septentrional. En la parte inferior vemos dos fieras cuyos cuellos se enroscan, en una más que probable referencia al proceso de unificación de los dos reinos, el del Alto Egipto gobernado por Narmer y el recientemente conquistado Bajo Egipto. Y, en la base de la paleta, un toro (el que en los textos egipcios clásicos será llamado ka nehet, toro poderoso) simbolizando al monarca, ataca una ciudad y pisotea a su gobernador.
Haya sido o no Egipto la primera civilización en usar la escritura, le debemos a esta fascinante cultura no sólo aportaciones de orden científico y tecnológico, gracias a las cuales erigieron monumentos del tamaño y de la perfección que poseen muchos de los que todavía hoy se conservan, sino un riquísimo legado de ideas, conceptos y sendas de progreso que están en el origen de aspectos fundamentales de la historia de la humanidad. Los griegos se enorgullecían de haber aprendido mucho de los egipcios, y Egipto siempre fue un ejemplo de sabiduría en la antigüedad. No sólo la escritura, sino otras contribuciones de índole filosófica nacieron a orillas del Nilo. Entre ellas, la dimensión interior de la persona. La interioridad humana, que alcanzaría entre los griegos su máxima expresión con Sócrates y con los filósofos posteriores, estaba ya expresada, mutatis mutandis, en nociones genuinamente egipcias como ba y ka, que hacían referencia a un mundo interior, a una fuerza vital, a una esfera no visible pero perteneciente a lo más íntimo de la persona, que era a la vez lo que más le unía a lo divino y ultra-terreno. Por otra parte, muchas de estas ideas provienen, a su vez, de antiguos pueblos de África, lo que nos obliga a los occidentales a replantearnos el papel que han tenido otros continentes y otros pueblos en la gestación de nuestra cultura. Sólo así reconoceremos que el progreso ha sido una maravillosa confluencia de gentes, pueblos y culturas, que tantas veces han puesto los cimientos para que las generaciones venideras construyesen los edificios del conocimiento y de la ciencia. Parafraseando a Isaac Newton, estas culturas han sido los “hombros de gigantes” sobre los que Grecia y occidente se han podido apoyar.
La escritura supuso un firme paso hacia delante en el proceso, ya irreversible, de humanización del cosmos. El ser humano fue capaz de usar los elementos que le ofrecía la naturaleza para expresar algo que excedía dicha naturaleza: las ideas, los conceptos, los números... Sin duda, el proceso fue largo y estuvo motivado por un contexto socioeconómico: la progresiva sedentarización que obligó a organizar la comunidad, de modo que las tareas asignadas a cada uno formasen parte de un todo mayor (el social) que requería de herramientas propias para gestionar esa variedad de ocupaciones en el contexto de una misma comunidad. Sin los precedentes de ciudades como Jericó en Palestina, Katal-Huyuk en Turquía o Monhejo-Daro en Pakistán, no habría sido posible que surgieran civilizaciones más amplias que en realidad agrupan a diversas ciudades bajo un gobierno común.
La necesidad de llevar un registro perdurable de las cabezas de ganado, de la producción agrícola, de los intercambios comerciales o de los eventos militares, fue decisiva en el nacimiento de la escritura. El ser humano dejaba de estar a merced del paso del tiempo para imponerse al tiempo mismo, para permanecer, mediante la plasmación objetiva de sus pensamientos, en la memoria de sus contemporáneos y de sus sucesores. El mundo de la mente, hasta entonces sólo expresable mediante la comunicación oral, pasaba a formar parte de la realidad física, espacio-temporal, del hic et nunc (el “aquí y ahora”), del presente y del futuro. La escritura está en la base de todos los grandes descubrimientos posteriores, y es una de las cimas de la civilización y de la humanización del cosmos. El ser humano conseguía materializar la comunicación haciendo uso de los elementos que la naturaleza le ofrecía, fijándose en las formas de las aves, de los mamíferos o de las montañas. Eso sí, con una salvedad. En la escritura hay un signo gráfico que posee un significado, pero para relacionar signo y significado se necesita un intérprete: la sintáctica (manejo de los signos), sin semántica (interpretar el significado de esos signos), no sirve de nada. Hasta el momento, dicho intérprete ha tenido que pertenecer a la especie humana para ser capaz de “descifrar” el significado de esos símbolos, las ideas que representan, al poseer un intelecto, una mente que le capacita para abstraer y conceptualizar, si bien las investigaciones en el campo de la inteligencia artificial parecen sugerir que en algún momento, quizás no muy lejano, estaremos en condiciones de crear sistemas no-humanos con posibilidades de “interpretar” no de modo mecánico, sino de ser ellos agentes activos en el proceso creativo y comunicativo. Dicha revolución (la de la inteligencia artificial) sería de consecuencias impredecibles y se situaría a la altura de la que en su momento supuso la propia escritura.
El progreso humano ha consistido, ya desde sus más tempranas etapas, en una creciente humanización y universalización: los seres humanos, además de desarrollar instrumentos que les ayudasen a resolver sus necesidades objetivas y concretas (como pudieran ser el recuento de ganado, la conservación de la memoria, la creación de métodos efectivos de comunicación que no se circunscribiesen a unas circunstancias variables...), han sabido sobreponerse a la mera necesidad del momento para crear algo que le permitiese dominar la naturaleza y el tiempo, a la par que le abrían nuevos horizontes y espacios que les situaban a las puertas de más avances. La humanidad se ha hecho así progresiva, por cuanto cada descubrimiento, cada paso en esta trayectoria de universalizar y de ampliar, le permitía llegar a nuevos hallazgos y abrirse a nuevas realidades. La escritura integraba dos mundos: la naturaleza y la mente, el mundo exterior al ser humano y el universo interior en el que tenían cabida las ideas y los pensamientos. Gran parte del progreso de la humanidad habría sido imposible, de hecho, sin esta continua “relativización” o cuestionamiento de los opuestos, de elementos que podrían parecer, a simple vista irreconciliables e imposibles de integrar; sin esta unión progresiva que ha ido generando espacios cada vez más amplios donde la creatividad, la indeterminación y la desmesura que conviven en todo ser humano (y, en realidad, en toda la evolución, aunque alcancen un estadio elevadísimo con la aparición de la especie humana) han encontrado cauces para expresarse.
Capítulo 2
Averiguar en qué día vivimos no fue tarea sencilla...
Las primeras civilizaciones observaron un mundo en el que muchos fenómenos variaban de manera cíclica. El Sol salía y se ponía todos los días, el río Nilo crecía anualmente y se desbordaba formando un auténtico vergel a sus orillas, las posiciones de los astros también podían seguirse periódicamente... El ser humano no se limitaba a mirar pasivamente lo que ocurría a su alrededor, como un mero receptor de sucesos naturales que quizás al principio le sorprendieran pero que luego terminasen convirtiéndose en rutina. Ya desde los albores de la historia, el ser humano quiso controlar y entender esos acontecimientos de forma que le sirviesen para mejorar su vida y para satisfacer sus necesidades y deseos. Así, nuestros antepasados hicieron de esos eventos cíclicos medidas del tiempo. Esas variaciones naturales quedaban desde entonces referidas al ser humano, a su modo subjetivo de concebir el universo físico, y lo que era simple repetición empezó a ser temporalidad, un “apropiarse” de los fenómenos reiterativos que tienen lugar en la naturaleza para transformarlos en algo (el paso del tiempo, el transcurso de la existencia) de lo que el ser humano tenía conciencia. Contemplaban esos cambios en ellos mismos, porque todos pasaban por distintas etapas sin dejar de ser lo que habían sido antes. Nacían, crecían, envejecían... y morían. Querían comprender: ¿por qué ocurre esto? ¿Por qué se cambia sin dejar de ser el mismo que era antes? Y todo lo remitieron a ese parámetro tan fascinante que ha intrigado a científicos, filósofos, historiadores y teólogos durante siglos: el tiempo. Todos hemos acabado siendo esclavos de nuestra percepción del tiempo, porque vemos que cada cosa tiene su momento y nos hacemos presos de la fatalidad y del destino. Lo recoge en la Biblia el libro del Eclesiastés con gran belleza literaria y profundo lirismo: “Todo tiene su momento, y cada cosa su tiempo bajo el cielo: su tiempo de nacer y su tiempo de morir; su tiempo el plantar y su tiempo el arrancar lo plantado. Su tiempo el matar y su tiempo el sanar; su tiempo el destruir y su tiempo el edificar. Su tiempo el llorar y su tiempo el reír [...] Su tiempo el amar y su tiempo el odiar; su tiempo la guerra y su tiempo la paz”.
¿Cómo definir el tiempo? Hay realidades que nos resultan tan básicas, evidentes e inmediatas que precisamente por eso son casi imposibles de definir, que no es otra cosa que acotar, que encontrar un límite en el que introducir un concepto. Pero hay cosas que parecen escapar a todo límite y huir de toda categoría. Aristóteles definió el tiempo como la medida del movimiento, del cambio mediante el cual algo pasa de ser de una manera pero pudiendo ser de otra a esa otra forma en la que todavía no estaba pero que podía alcanzar. Aristóteles lo llamó “paso de la potencia al acto”. Con el tiempo medimos ese tránsito de un estado potencial a uno actual o real al que se estaba en disposición de llegar. Con esta distinción Aristóteles fue capaz, entre otras cosas, de dar respuesta a una serie de paradojas que había propuesto el filósofo Zenón de Elea.
Zenón, que vivió en el siglo V antes de Cristo, sostenía que el movimiento era una pura ilusión irracional porque no era lógicamente posible que una cosa se moviese desde un punto A a un punto B. Antes de llegar a B, el objeto en cuestión debería haber alcanzado la mitad del trayecto. Para recorrer todo el camino primero debería recorrer medio camino, y para recorrer medio camino primero deberá recorrer medio camino de ese medio camino, y así sucesivamente. ¿Conclusión? ¡El objeto nunca llegará a la meta! Deberá atravesar infinitos puntos y nunca podrá recorrer un determinado trayecto, porque ese trayecto será infinitamente divisible. En una segunda paradoja, Zenón argumenta que si Aquiles (legendario héroe de Troya famoso por su portentosa fuerza) quisiese competir en una carrera contra una tortuga, dejando a la tortuga salir desde una posición más avanzada, Aquiles nunca ganaría a la tortuga, porque para alcanzar el punto desde el que partió la tortuga debería antes recorrer infinitos puntos intermedios. Por muy rápido que fuese Aquiles persiguiendo a una criatura tan lenta, no lograría superarla. Otra paradoja de Zenón es la de la flecha: si un arquero lanza una flecha hacia una diana, en realidad la flecha no se estará moviendo, porque en cada instante tendrá una posición fija, y como hay infinitos instantes, habrá infinitas posiciones fijas. La flecha estará en reposo todo el trayecto.
Claro que Zenón sabía que observamos cosas en movimiento que llegan de un punto a otro. Pero la inteligencia no puede conformarse sin más con observar fenómenos, sino que busca en todo momento una justificación racional de esos fenómenos, una “asimilación” a su modo de entender la realidad. Por tanto, Zenón se vale de sus paradojas para decir que percibimos el movimiento pero no somos capaces de explicarlo. Para Aristóteles, la falacia de Zenón está en que confunde el infinito actual con el infinito potencial. El espacio y el tiempo son potencialmente divisibles en infinitas partes, porque siempre se puede descomponer un número en una suma de números menores sin que éstos sean cero. Pero eso no significa que el espacio y el tiempo sean realmente, “actualmente” divisibles en infinitas partes: no se trata de un infinito actual y efectivo, sino de un infinito potencial.
Pero seguimos sin saber qué es el tiempo. Sin incorporar a su armazón teórico nociones como la de infinito o infinitésimo (infinitamente pequeño), las matemáticas y en consecuencia las ciencias no habrían progresado como lo han hecho hasta ahora, como tampoco lo hubieran hecho de no haber integrado en su discurso los números irracionales, los números negativos o el cero. El cálculo infinitesimal (derivadas e integrales), una de las ideas más poderosas y geniales que ha tenido la mente humana, asume lo infinito y lo infinitésimo y opera con lo infinito y con lo infinitésimo, y sólo así es capaz de analizar las variaciones y la física el movimiento. Lo que nos puede resultar irracional o incomprensible demuestra tener una inmensa fuerza conceptual. Y el tiempo, en el fondo, es un parámetro necesario para describir y entender la naturaleza y la historia, a pesar de que comprender su esencia y su fundamento último nos sobrepase. Como escribe San Agustín en sus Confesiones: “¿Qué es, pues, el tiempo? Si nadie me lo pregunta, lo sé; pero si quiero explicárselo al que me lo pregunta, no lo sé. Lo que sí digo sin vacilación es que sé que si nada pasase no habría tiempo pasado, y si nada sucediese no habría tiempo futuro, y si nada existiese no habría tiempo presente. Pero aquellos dos tiempos, pretérito y futuro, ¿cómo pueden ser, si el pretérito ya no es él y el futuro todavía no es? Y en cuanto al presente, si fuese siempre presente y no pasase a ser pretérito, ya no sería tiempo, sino eternidad. Si pues, el presente, para ser tiempo es necesario que pase a ser pretérito, ¿cómo decimos que existe éste, cuya causa o razón de ser está en dejar de ser, de tal modo que no podemos decir con verdad que existe el tiempo en cuanto tiende a no ser?” Queda ahí el interrogante de San Agustín. Sea el tiempo algo real o algo imaginario y dependiente de nuestra mente, lo cierto es que a lo largo de los siglos la humanidad ha sentido la necesidad de medir el tiempo. Porque podemos preguntarnos qué es el tiempo, y para responderlo tendríamos que utilizar otros conceptos aún más elementales. Y a su vez, también tendríamos derecho a preguntar qué son y en qué consisten esos conceptos más elementales que el tiempo, y sería legítimo seguir preguntando indefinidamente. Así que parece que con conceptos tan fundamentales como espacio o tiempo hemos tocado fondo, como si hubiésemos llegado a unos “mínimos” intelectuales que nos hacen falta para entender el mundo que nos rodea aunque seamos conscientes de las limitaciones que conllevan. Porque siempre que pretendemos fijar unos “átomos” o puntos de partida absolutos, nos damos cuenta de que en realidad podríamos dividir esos “átomos” teóricamente indivisibles. Y lo que siempre permanece, lo más universal en todo este proceso de comprensión y delimitación, es justamente esa constante posibilidad de preguntar por el fundamento: siempre podemos retrotraernos a una realidad más básica, a un principio previo y a un concepto anterior. Quizás sea esto la única certeza que poseemos. La historia es la narración de la pregunta por lo que somos y por lo que no somos. Preguntamos qué es el tiempo, qué es el espacio o qué es la vida; qué podemos saber, qué podemos hacer o qué podemos esperar. Pero no siempre advertimos que el auténtico misterio es esa infinita capacidad de preguntar, y que la pregunta que engloba todas las preguntas es ¿por qué el preguntar?, o ¿por qué el querer saber? o, más aún, ¿por qué el porqué? Lo más intrigante ya no es la naturaleza del tiempo y del espacio, sino que el ser humano no deje de formular preguntas.
Los calendarios representan un intento de medición del tiempo. Pero para medir el tiempo antes hay que escoger una referencia concreta en base a la cual se puedan contar períodos iguales. Y la mayoría de las culturas antiguas encontró ese marco de referencia mirando a lo alto, a las estrellas. Resulta formidable pensar que civilizaciones muy antiguas, con unos conocimientos científicos y matemáticos enormemente limitados y con una tecnología aún rudimentaria, fuesen capaces de observar el cielo con una precisión excepcional. Cuando se estudia la historia de los sistemas de medición del tiempo y la historia de la astronomía, uno no puede más que asombrarse ante la prolijidad y la complejidad de muchos de los cálculos que tenían que realizarse para, por ejemplo, saber la posición de una estrella o predecir un eclipse. Pero los antiguos lo hacían. A pesar de no tener ni calculadoras ni ordenadores ni telescopios, los antiguos legaron calendarios de un rigor en ocasiones inquietante. Y sin irnos tan lejos, la exactitud del calendario gregoriano concebido por los astrónomos del siglo XVI y que requería de difíciles y laboriosos cálculos en una época en la que todavía no se había consolidado la física matemática y Newton no había nacido aún, también es digna de nuestra mayor admiración. Pocos problemas, por inabarcables que parezcan, se han resistido al genio humano y al poder de su inteligencia, siempre dispuesta a esforzarse para encontrar la solución.
Uno de los calendarios más antiguos de la historia es el calendario egipcio. Hay constancia documental de que este calendario se empezó a utilizar en la primera dinastía (es decir, al poco de la unificación del Alto y Bajo Egipto), en torno al 2800 antes de Cristo, aunque las cronologías de las dinastías egipcias y especialmente en los períodos más tempranos son discutidas. Tenía como eje principal el ascenso heliacal de la estrella Sirio (Sopdet en egipcio clásico, que en realidad no es una única estrella, sino un sistema binario compuesto por Sirio A y Sirio B), algo perfectamente lógico si tenemos en cuenta que este astro de la constelación del Canis maior es uno de los más brillantes del firmamento. Su ascenso heliacal no era ni más ni menos que el momento en que se hacía visible por primera vez después de haber permanecido oculta debajo de la línea del horizonte o deslumbrada por la luz solar. El año comenzaba con el ascenso heliacal de Sirio, que coincidía con un acontecimiento natural que marcaba como probablemente ningún otro las vidas de los egipcios: la inundación del río Nilo. El griego Heródoto, el padre de la ciencia histórica, había definido a Egipto como “un don del Nilo”, y pocas afirmaciones han descrito con tanto acierto el núcleo mismo de la civilización egipcia: el río Nilo. Sin el Nilo, Egipto sería un desierto; con el Nilo, Egipto es uno de los vergeles más extraordinarios del planeta. A sus orillas creció una cultura que preservó una identidad propia durante más de tres milenios, y que nunca dejará de fascinarnos por la grandiosidad, la monumentalidad y a la vez la cercanía y humanidad de sus creaciones. Y el calendario egipcio reflejaba la esencia misma de su cultura: la relación con los astros y con el Nilo. En el Sol y en el Nilo encontraba Egipto su fuente de vida.
Los antiguos egipcios diseñaron un calendario civil con un año de 365 días divido en 12 meses de 30 días cada mes. Los cinco días restantes hasta 365 fueron llamados “epagómenos” por los griegos, y se situaban al final de cada año. Había tres estaciones: la inundación (ajet), el invierno o época de siembra (peret) y el verano o época de recogida (shemu). El año egipcio tenía como epicentro el Nilo y su crecida, porque del río dependía la subsistencia y el desarrollo de esta cultura. Un calendario muy posterior al egipcio pero que resulta enormemente interesante por su altísima precisión matemática y astronómica es el calendario maya, que debió de surgir hacia el siglo VI antes de Cristo y que en realidad agrupaba a varios calendarios distintos. El calendario de 260 días, el tzolkin, todavía en uso en regiones de Guatemala y México, servía para fines religiosos y festivos. Esos 260 días se dividían en lo que se denominan 20 “trecenas” de 13 días cada una. Por su parte, el calendario haab se aproximaba bastante al calendario egipcio de 365 días, con 18 meses de 20 días y cinco días finales (los wayeb). Ambos, el tzolkin y el haab formaban un ciclo de 52 haabs, unos 52 años, teniendo en cuenta que el año solar no es de exactamente 365 días, sino de 365 días y casi un cuarto de día si tomamos como referencia el año tropical (el tiempo que tarda el Sol en volver a la misma posición en su trayectoria elíptica según se ve desde la Tierra). Para calcular períodos superiores a esos 52 haabs los mayas concibieron lo que se conoce como la Cuenta larga.
El calendario más difundido en la actualidad se remonta, a medio plazo, al calendario juliano, y a corto plazo a la reforma gregoriana del calendario juliano emprendida en el siglo XVI. El calendario juliano debe su nombre a Julio César, que lo instituyó cuando el célebre conquistador era dictador vitalicio de Roma el año 46 antes de Cristo. Y si su campaña en las Galias se resumía en el célebre veni, vidi, vici, “llegué, vi, vencí”, en el caso del calendario César llegó al poder, vio un desfase sin precedentes que acumulaba errores garrafales y de bulto en la medición del tiempo, e impuso un nuevo calendario que más tarde adoptaría el futuro imperio romano y que resultaría victorioso durante varios siglos. César consultó a los mejores astrónomos de la época y la mayoría coincidió en que el calendario tenía que tomar como referencia el año tropical, con 365 días y 12 meses. Como el año tropical no es de exactamente de 365 días, sino de 365 días y casi un cuarto de día, los astrónomos determinaron que había que añadir un día extra al mes de febrero cada cuatro años.
Pero, ¿por qué el calendario anterior al juliano necesitaba una corrección tan exhaustiva? El calendario pre-juliano que estaba en vigor en Roma consistía en un año de 355 días y 12 meses. Lógicamente, para adecuar ese año al año tropical de 365 días había que intercalar una serie de días formando lo que se llamó el mensis intercalaris, un mes que constaba de 22 días que se situaban inmediatamente después del 23 o del 24 de febrero, cuya duración quedaba así recortada para añadir sus últimos cinco o cuatro días al nuevo mes y que éste tuviese 27 días. Obviamente, los años en los que se insertaba ese mes extra se prolongaban más de lo habitual hasta los 377 o los 378 días, pero alternándolo con años normales de 355 días los astrónomos de la antigua Roma creían poder adaptar su calendario al año tropical.
Basta con describir en términos generales el funcionamiento del calendario prejuliano para caer enseguida en la cuenta de que el sistema era muy poco práctico. Además, ¿quién controlaba que se intercalasen oportuna y sistemáticamente esos años con días extra? Era tarea de los pontífices (“constructores de puentes”) romanos, procedentes de las familias patricias y que juntos configuraban el “colegio de pontífices” presidido por el pontifex maximus, la máxima autoridad religiosa de la antigua Roma (título que siglos más tarde pasaría al obispo de Roma, el papa). Pero los hechos demuestran que los pontífices no siempre siguieron los intervalos recomendados para intercalar el mes extra. Fue especialmente en períodos de guerra o de convulsión social cuando se produjeron retrasos en la intercalación del mes extra según los períodos teóricos prescritos, que aunque luego se intentasen corregir, terminaron acumulando una serie de errores que causaban una tremenda confusión. Tal era el caos en el calendario en tiempos de Julio César que el general decidió hacer una drástica “limpieza” de todas las incongruencias que se habían ido heredando como pesadas losas. Y para atajar el problema no valía aplicar una solución similar a la de los meses intercalados, sino que había que proponer una metodología más exacta, porque si no, los fallos se volverían a repetir tarde o temprano.
Los astrónomos decidieron que para corregir los desfases anteriores, hacer tabla rasa y empezar de cero el año previo a la implantación del nuevo calendario juliano tenía que tener 445 días. ¡Un año de 445 días! Sí, un año demasiado largo, pero un solución de urgencia para dar respuesta a la crisis generada por las irregularidades del anterior calendario hasta que se lograse normalizar la situación. Así que el año 45 antes de Cristo (año 709 ab urbe condita., de la fundación de Roma) hacía su aparición el nuevo calendario. El calendario decretado por Julio César, a la sazón el pontífice máximo de Roma, tenía años de 365 días divididos en 12 meses, cada uno de los meses con una distribución irregular de días (pues no hay modo de dividir 365 entre 12 de manera que dé múltiplos enteros), como en la actualidad: julio y agosto 31, septiembre o noviembre 30, etc. Ya no era necesario intercalar un mes extra que había sido causante de tantos quebraderos de cabeza para los romanos. Pero había detalle nada trivial: el año tropical no dura 365 días, sino casi un cuarto de día más. Para solventarlo, se tenía que añadir un día bisiesto cada cuatro años. Los pontífices volvieron a equivocarse en la aplicación del calendario (esto suele ocurrir cuando labores de tanta responsabilidad como la regulación del calendario no se confían a gente con la suficiente preparación), y en vez de añadir ese día extra cada cuatro años lo hicieron cada tres seguramente por considerar que en esos cuatro años tenía que incluirse el primero. En los relatos históricos, y en especial si se trata de períodos cortos, muchas veces es aconsejable contar los años con los dedos en lugar de hacer operaciones mentales. Si se dice que un monarca reinó entre 1721 y 1722 y se pregunta cuánto duró su gobierno, la respuesta matemática inmediata será: -“un año”, 1722-1721 = 1. Pero esta resta tan elemental puede llevar a equívoco: si el rey en cuestión empezó a gobernar en enero de 1721 y su mandato cesó en diciembre de 1722, es más riguroso decir que reinó dos años, porque así nos aproximamos al número entero de años más cercano. El problema está en cómo contamos los intervalos, si incluimos o no los años inicial y final. Los pontífices romanos quizás entendieron que intercalar un día extra cada cuatro años para corregir el desfase con el año tropical significaba contar cuatro años incluyendo el año en que estuviesen en ese momento, y en el cuarto año situar el día extra. Pero en realidad lo que hacían era intercalar el día extra después de un intervalo de tres años, porque estaban contando en el mismo ciclo de cuatro años el primero y el cuarto año. Los pontífices eran, retomando el símil del reinado de un monarca, más “históricos” que “matemáticos”: contaban incluyendo el año en que ya estaban. Si esos pontífices hubiesen vivido el año 2000 de nuestra era, que fue bisiesto, habrían introducido el siguiente bisiesto en 2003: 2000,2001,2002,2003, cuatro años, en lugar de hacerlo en 2004 que es lo correcto. El emperador Augusto corrigió este “desliz” que podría haber provocado nuevas catástrofes en el ya de por sí frágil calendario romano.
Pero el auténtico problema del calendario juliano era de naturaleza más sutil. Hemos dicho en todo momento que el año tropical no era de 365 días, sino de 365 días y casi un cuarto. Ese “casi un cuarto” implica que la adición de años bisiestos cada cuatro años va a ser inexacta, porque el año tropical real no es de 365’25 días, sino de 365’24219 días. Parecerá una diferencia insignificante y mínima, de 0’00781 días, pero si se acumula durante siglos puede traer graves consecuencias: 0’00781 días de desajuste por año a lo largo de, pongamos, 1500 años, da un total de 11’715 días de exceso respecto del año tropical medio. La cantidad ya no resulta tan irrisoria: es más de una semana y media de desfase. Y esto es precisamente lo que ocurrió: los años julianos duraban más de lo que debían si se toma como referencia el año solar. Las repercusiones de este desfase no eran sólo de tipo civil, sino que afectaban también a las fechas de celebración de importantes festividades religiosas como la Pascua cristiana, cuya fijación había supuesto un sinfín de discusiones entre las distintas iglesias orientales y occidentales.
En el siglo XVI se llegó a la conclusión de que era necesario acometer una reforma que, relevando a la de Julio César, implantase un nuevo calendario donde se corrigiese ese ligero exceso de duración de los años y sirviese también para calcular bien la fecha de la Pascua. El proyecto era todo menos sencillo. Trento (1547-1563), que comenzó después de que el emperador Carlos V convenciese al papa Pablo III de la necesidad de convocar un concilio ecuménico para hacer frente a la escisión protestante que había costado ya casi media Europa y que representaba un gigantesco desafío para el futuro del catolicismo, decidió en uno de sus cánones que había que nombrar una comisión de especialistas dedicada a la reforma en profundidad del calendario juliano para acabar finalmente con los errores acumulados a través de casi dieciséis siglos.
Dos de los mejores astrónomos de la época se dedicaron en cuerpo y alma a la reforma del calendario auspiciada por el sínodo tridentino: el italiano Aloysus Lilius (1510-1576) y el matemático y jesuita alemán por entonces profesor en Roma Christopher Clavius (1538-1612). Lilius escribió un plan de reforma del calendario, pero su temprana muerte impidió que pudiese presentárselo él mismo a la comisión designada a tales efectos, así que fue su hermano quien mostró el estudio de Lilius al papa Gregorio XIII (el boloñés Ugo Buoncompagni, papa entre 1572 y 1585), que se había propuesto llevar a buen término la implantación del nuevo calendario durante su pontificado. Y cosas de la vida, si el calendario juliano había sido promulgado por el “pontífice máximo” de Roma (Julio César), el calendario gregoriano también iba a ser instituido por un papa, y los papas habían adoptado ese título de pontífice máximo de manera continua al menos desde San Gregorio Magno (590-604). Si los papas medievales habían promovido la fundación de universidades en Europa o los papas del Renacimiento habían sido mecenas de los grandes artistas de su tiempo, el empeño de un papa de la contrarreforma como Gregorio XIII iba a legar a la posteridad algo no menos valioso: un nuevo calendario.
Lilius y Clavius aproximaron el valor medio del año tropical a 365’2425 días, menor de los 365’25 días del año juliano pero todavía ligeramente más largo que el año tropical real de 365’24219: la diferencia entre el nuevo valor del año y el año tropical es de 0’000314 días, sin duda menos relevante que los 0’00781 días que había con el año juliano. En 1500 años produciría un desajuste de 0’471 días, y si llevamos con el calendario gregoriano desde 1582, es decir, 425 años en 2007, el desfase acumulado rondará sólo los 0’133 días, por lo que de momento podemos respirar tranquilos sin preocuparnos por la medida del tiempo.
Pero una vez elegido el valor medio del año tropical había que diseñar un método apropiado que permitiese “repartir” esos 0’2425 días que cada año debía tener si quería adecuarse al año tropical medio. Hacer los cálculos con decimales y sobre el papel es relativamente fácil, pero ¿cómo distribuir esos 0’2425 días manteniendo años de un número entero de días? Es absurdo tener años de 365’2425 días: un día es un día, y tomar una fracción de día es matemáticamente admisible, pero no tiene mucho sentido real. Lilius ideó una estrategia bastante inteligente: se añadiría un día extra a 97 años cada 400 años, en lugar de un día extra cada cuatro años. ¿Por qué esta cifra tan aparentemente rara? En el calendario juliano se introducía un día extra cada cuatro años para que cada año tuviese de media 365’25 días: (365×4 + 1)/4 = 365'25. Como aquí había que conseguir años que tuviesen de media 365’2425 días, para obtener este valor hay que disponer de 303 años de 365 días y de 97 años de 366 días (los bisiestos), de modo que cada 400 años se logre un año medio de 365’2425 días: (97×365 + 303×366)/400 = 365’2425. 97 años bisiestos cada 400 años es la mejor combinación matemática posible para que los años tengan de media 365’2425 días. El problema podría enunciarse del siguiente modo: ¿qué combinación de años de 365 días y años de 366 días hace que en el menor intervalo de años posibles se consiga un año medio de 365’2425 días, si el número de años de 365 días y de 366 días tiene que ser entero? No vale, lógicamente, 0’97 años de 366 días y 3’03 de 365 días o cantidades inferiores, porque 0’97 y 3’03 o valores menores no son números enteros. Así que la solución propuesta por Lilius y justificada con el máximo rigor por el jesuita Clavius fue a todas luces correcta, y se resume en la famosa fórmula: “los años divisibles por 100 serán años bisiestos -de 366 días- sólo si también son divisibles entre 400”, como por ejemplo el 2000 o el 2400.
Gregorio XIII firmó el decreto Inter gravissimas el 24 de febrero de 1582, y se fijó como fecha de adopción del nuevo calendario el 15 de octubre de 1582, el “día” siguiente al 4 de octubre en el calendario juliano. Así se corregían los aproximadamente once días de desfase que acumulaba el calendario de Julio César. Como cada día (también en el siglo XVI) fallecen muchas personas en todo el mundo, a alguien le tenía que tocar vivir once días de más a pesar de estar muerto, y la “afortunada” fue Santa Teresa de Jesús. La mística más universal de las letras españolas había pasado a mejor vida la noche del martes 4 de octubre de 1582 en el calendario juliano, pero el día siguiente no fue 5 de octubre (¡los días del 5 al 14 de octubre se habían suprimido!), sino viernes 15 de octubre.
No todos los países aceptaron el calendario gregoriano. La política era la política en una Europa en guerra y las naciones protestantes o enemistadas con los estados católicos se negaron a adoptar una reforma por considerar que eso era someterse a la soberanía papal, a pesar de que era una reforma objetivamente necesaria. La política puede conducir a la cerrazón mental incluso ante las evidencias sólidas de carácter científico. Con tal de no reconocerle al otro un mérito si con ese otro media un abismo en lo religioso, ideológico o personal, muchas veces nos negamos incluso a lo positivo que ese otro haya podido crear.
La reforma fue de implantación inmediata en las naciones católicas de España, Portugal, Italia y Polonia y sus respectivos imperios. Francia la adoptó al cabo de dos meses escasos, pero países como Gran Bretaña y sus colonias de ultramar no se sumaron al calendario gregoriano hasta bien entrado el siglo XVIII y no sin oposición, y Rusia no lo hizo hasta 1918, cuando la ortodoxia (que había rechazado el calendario gregoriano) había dejado de ser la religión oficial a raíz de la revolución de 1917. En Grecia, país de mayoría ortodoxa, hubo que esperar a 1923, aunque las iglesias ortodoxas han seguido usando una versión corregida del calendario juliano (de ahí que las fechas de celebración de determinadas festividades religiosas comunes a todas las iglesias cristianas difieran). China adoptó el calendario gregoriano ya en 1912, cuando se expulsó del poder al último emperador de la dinastía Qing, reemplazando a calendarios tradicionales vigentes durante milenios.
Aunque el calendario gregoriano es el más extendido y goza de una gran implantación en amplias regiones del globo, no podemos olvidar que existen otros calendarios distintos también muy difundidos. El calendario gregoriano, que surgió en el seno de la Europa católica del siglo XVI, tiene como eje cronológico el nacimiento de Cristo. Las fechas anteriores al nacimiento de Cristo son años “antes de Cristo” y las posteriores “después de Cristo”, “de la era cristiana”, “de nuestra era”, “anno domini” (“en el año del Señor”) o simplemente el año sin calificativos. Sin embargo, en el calendario islámico la referencia no es el nacimiento de Jesús de Nazaret (por otra parte un profeta admirado por el Islam), sino la Hégira o huida de Mahoma y sus seguidores de la Meca a la ciudad de Medina, en el centro de la península arábiga, motivada por las persecuciones religiosas. En el calendario gregoriano la fecha sería el 16 de julio del 622 después de Cristo; en el calendario islámico es el año primero después de la Hégira (en latín, anno Hegirae: “en el año de la Hégira”). Las festividades islámicas se determinan mediante este calendario, que consta de 12 meses lunares y 354 días por año (el calendario lunar tiene un año más corto que el solar).
Averiguar en qué día vivimos no ha sido, ciertamente, tarea fácil. Pero repasando la historia de los grandes calendarios se puede apreciar ese enorme esfuerzo intelectual que la humanidad ha hecho para medir una de sus más geniales y enigmáticas ideas: el concepto de tiempo. En los calendarios se da una confluencia verdaderamente fascinante de matemáticas, astronomía, religiones y culturas como en pocas otras creaciones, y al estudiarlos se presencia el espectáculo del saber en su estado más puro, un saber que va más allá de las distinciones entre lo científico y lo humanístico, un saber que integra y no separa a la vez que reconoce el lugar propio de cada disciplina.
Capítulo 3
¿Cuánto es diez entre cero?
Hablemos de... ¡las matemáticas! En no pocas veces caemos en la tentación de desligar dos mundos, el de las humanidades y el de las ciencias, en lo que el escritor y físico británico Charles Percy Snow llamó “las dos culturas”. El instrumento por antonomasia de las humanidades sería la palabra, mientras que el de las ciencias sería el lenguaje de las matemáticas, porque, en feliz frase de Galileo, el libro de la naturaleza está escrito en caracteres matemáticos.
Pero si lo pensamos mejor, podemos darnos cuenta de que dicha división es bastante ficticia, y en absoluto responde a la historia intelectual de la humanidad. La división del saber nos ha permitido investigar regiones remotas del conocimiento, y la especialización nos ha proporcionado una pericia técnica y una profundidad verdaderamente sorprendentes. Pero la mente humana no es sólo analítica. También es sintética. La mente humana no sólo descompone, divide, “excava” en un océano sin fondo (el estudio de la realidad) para llegar a los cimientos: también construye, edifica, se comporta al modo de un arquitecto o de un estadista que quiere organizar los conocimientos parciales en una visión más amplia del mundo y de la historia. No habría existido el progreso sin las minuciosas investigaciones de físicos, biólogos, matemáticos, historiadores o juristas; pero tampoco sin la amplitud de miras de filósofos como Montesquieu o Rousseau, padres de la sociedad contemporánea, o de Einstein, quien supo ver más allá de los detalles, o de las cimas de la literatura universal, de quienes hemos heredado los grandes cánones artísticos... Toda dialéctica u oposición puede ser productiva, pero siempre y cuando se respete la autonomía y el lugar propio de cada una de las partes. Más que de antítesis o de contraposición entre humanidades y ciencias, hay que abordar su relación desde la óptica de la complementariedad, de cómo ambos campos pueden contribuir a que sepamos mirar siempre más allá del hoy y del ahora.
Por otra parte, llama poderosamente la atención observar cómo los grandes avances en el campo de las matemáticas y de la ciencia han supuesto, de hecho, un asombroso cambio de mentalidad, y que más allá de su significado científico concreto, han conducido a revoluciones filosóficas de las que seguimos siendo deudores en la actualidad, por lo que no sería exagerado calificarlos también de “avances filosóficos” o de progresos en el área de las humanidades.
Las matemáticas no habrían podido progresar como lo han hecho sin un sistema de notación tan excelente. Se cuenta que el gran genio alemán Gottfried Wilhelm Leibniz, a mi juicio uno de los intelectos más brillantes que ha tenido la humanidad, dedicaba horas, e incluso días, a probar y ocasionalmente desechar símbolos en sus trabajos en matemáticas, lógica y física. Al descubrir (independientemente de Newton, aunque algo más tarde que el inglés) el cálculo infinitesimal, Leibniz a mi juicio uno de los intelectos más brillantes que ha tenido la humanidad, dedicaba horas, e incluso días, a probar y ocasionalmente desechar símbolos en sus trabajos en matemáticas, lógica y física. Al descubrir (independientemente de Newton, aunque algo más tarde que el inglés) el cálculo infinitesimal, Leibniz no sólo desarrolló un potente instrumento para el cálculo de variaciones y la medición de áreas que está en las bases de la ciencia moderna, sino que inventó un sistema de notación que aún hoy nos asombra. A él debemos signos como dx para denotar los diferenciales, el símbolo del operador “integral”, y un sinfín de aportaciones que casi parecían “fluir” de su cerebro con una facilidad increíble, sólo comparable a la que tuvieron otros genios como el propio Newton o Einstein a la hora de ocurrírseles ideas, métodos, experimentos, teorías... Parece, a la postre, que ciertas mentes han dispuesto de una “ventana” al saber y al futuro que les permitía ver cosas que el resto de los mortales sólo habrían podido percibir con la ayuda del más efectivo de los telescopios: el del paso del tiempo.
Pero nada de lo que hicieron Leibniz, Newton o Gauss, por sólo citar a algunos de los gigantes de ese fascinante edificio que es la ciencia, podrían haberlo logrado sin una herramienta que es mucho más de lo que aparenta ser: el cero. Y es que, en realidad, el cero aparenta ser eso: cero, nada, nulidad, ausencia. Pero, si lo analizamos bien, el cero es probablemente la cifra más presente en el universo, en nuestras vidas, en la ciencia. Se estima que nuestro cosmos tiene unos quince mil millones de años, que no es otra cosa que un 15 seguido de nueve ceros. ¡Ceros por todas partes! Muchas veces (y desgraciadamente), el valor de una persona en la sociedad actual se mide por el número de ceros que hay en su cuenta bancaria (eso sí: ceros a la derecha). Nadie se imagina hoy utilizar otro sistema de numeración que no sea el decimal, porque de otra manera las operaciones serían terriblemente complicadas, y sólo con el tiempo que perderíamos en resolver dichos cálculos se estaría creando un lastre para el progreso científico efectivo. Pero no todas las culturas han conocido el cero: los romanos no tenían esta cifra. Los griegos sólo a partir del llamado “período alejandrino” (por ejemplo, el astrónomo Claudio Tolomeo en el siglo II después de Cristo), durante los tres primeros siglos antes de Cristo, pero únicamente para indicar la ausencia de un número, y no como un número a todos los efectos. Y es que con algo que teóricamente hace referencia a la ausencia hemos denotado la presencia, la posición, el orden.
Fueron los matemáticos de la India los auténticos artífices de la revolución del cero, que luego se extendería a occidente a través de los árabes (la palabra “cero” deriva del árabe sifr, que a su vez viene de la raíz safira, “estar vacío”, término con el que los árabes traducían el sunya -vacío- sánscrito), en una magnífica muestra de simbiosis cultural y de cómo todos los pueblos y civilizaciones son capaces de contribuir al progreso de la humanidad, ya sea creando, asimilando o difundiendo. Sin el redescubrimiento de las grandes obras del pensamiento filosófico y científico de Grecia a través de los árabes, que hicieron de puente entre mundos tan dispares como Europa, la India y la cultura helénica, y sin olvidar las aportaciones decisivas de eruditos medievales como Nicolás de Oresme o Guillermo de Ockham (“abuelo”, si se me permite la expresión, de la metodología científica moderna, al ser un ilustre precedente del racionalismo científico), no se habría alumbrado el Renacimiento, que situó a la cultura occidental en la estela definitiva de la modernidad. Europa ostenta el mérito de haber dado a luz la ciencia moderna y gran parte de los logros más notables de la humanidad, pero no tiene razones para ensoberbecerse, y menos aún para esconder las contribuciones también decisivas de otros pueblos y de otras culturas en una empresa que es y ha sido, ante todo, humana. Además, no viene mal recordar que en muchos avances se nos adelantaron otras regiones del planeta. El número cero ya era conocido por los mayas al menos desde el siglo I antes de Cristo (en una estela de Chiapas que data del 36 antes de Cristo), y probablemente culturas anteriores como la olmeca ya disponían de una cifra decimal en su sistema numérico. Los mayas fueron unos matemáticos verdaderamente formidables, y realizaron progresos en la astronomía y la medición del tiempo de tal calibre que aún hoy asombran a los especialistas por la extrema precisión de sus cálculos. Los mayas representaban el cero mediante una especie de concha. Su sistema era vigesimal, en base veinte (el de los babilonios sexagesimal, de sesenta en sesenta, y hay sistemas duodecimales -en base doce-, duotrigesimales -en base treinta y dos...que cada uno escoja) y, además del cero, tenían signos para las unidades (un punto) y para el cinco (una barra horizontal gruesa). Así, para escribir el 17, los mayas empleaban tres barras horizontales gruesas (3x5 = 15) y dos puntos (15 + 2 = 17). Si querían contar por encima de veinte, utilizaban potencias de veinte (al igual que nosotros tenemos potencias de diez y en nuestras notaciones científicas siempre intentamos expresarlo todo como potencia de diez): para representar el número 27, dibujarían las cifras correspondientes al siete y encima un punto que simbolizaría el veinte: 1×20 + 7 = 27. Puede parecer complicado, pero en realidad se asemeja bastante al sistema decimal que nos legaron hindúes y árabes. Es cuestión de acostumbrarse. Nosotros, habituados al alfabeto, sin duda una de las mejores invenciones de todos los tiempos, nos quedamos atónitos ante la complejidad de otros sistemas de escritura como el egipcio antiguo o el chino. Pero esas culturas estuvieron e incluso están funcionando con esos sistemas de escritura. Los niños aprenden la escritura china en la escuela como los niños egipcios que tenían la suerte de ir al “colegio” (que por lo general se situaba en los templos) aprendían a usar el sistema jeroglífico o el hierático (versión simplificada). Si una persona de la antigüedad viniese a nuestro mundo seguramente le resultaría imposible comprender cómo puede haber gente que sepa construir un ordenador. Pues sí: hay mucha gente capaz de construir un ordenador, proeza quizás mayor que aprender desde muy joven el chino o el egipcio.
La India ha conocido etapas de gran florecimiento en la actividad matemática y científica. Actualmente sigue siendo una de las principales potencias matemáticas y científicas del globo. Como escribe el historiador del pensamiento matemático Morris Kline, “los sucesores de los griegos en la historia de la matemática fueron los hindúes de la India”, y alcanzaron su edad de oro entre los años 200 y 1200 después de Cristo. Nombres de la talla de Brahmagupta y Mahavira, motivados por sus intereses en los campos de la astronomía y la astrología, además de aportaciones más avanzadas en la resolución de ecuaciones y en la geometría, dieron un impulso fundamental al desarrollo de las matemáticas al emplear la notación posicional y al uso del cero. Bhaskara llegó a darse cuenta de que un número dividido por cero da infinito (hoy hablaríamos más bien de indeterminación: diez entre cero da, por tanto, una indeterminación: 10/0 = ∞, y de que un número multiplicado por cero (esto es, sumado cero veces) da cero. Además, utilizaron, aunque de manera limitada, los números negativos (ausentes en la matemática griega) y se atrevieron con los números irracionales, que habían planteado muy serios problemas a las estilistas y perfeccionistas mentes helenas, acostumbradas a las maravillas de la proporción en todas las esferas de la civilización. Por su parte, Brahmagupta escribió en torno al año 628 un tratado titulado Brahmasputha Siddhanta, que en sánscrito quiere decir “la apertura del universo” (y no le faltaba razón a Brahmagupta: ¿qué, si no las matemáticas, nos abre la puerta al conocimiento del universo material?). El libro estaba escrito ni más ni menos que en verso, como un poema, pero un poema con más contenido del habitual. También los Vedas son una colección de versos y prosa para la recitación de una riqueza filosófica y de una densidad humana extraordinaria. Entre otros resultados matemáticos relevantes, Brahmagupta ofrecía una serie de reglas sobre el uso del cero, si bien el problema del manejo del cero le hace decir a Brahmagupta que un número positivo o uno negativo dividido por cero da cero o una fracción con cero como numerador y esa cantidad finita como denominador. Hoy diríamos, sin embargo, que el resultado de dividir algo por cero no tiene un valor asignable: es una indeterminación, o un valor infinito positivo o negativo (± ∞), pero en realidad una indeterminación. En cualquier caso, el mérito de Brahmagupta es innegable, y de hecho influiría en la matemática posterior.
Los matemáticos árabes, que estaban al corriente de los avances producidos en la India y que habían traducido también a los grandes matemáticos griegos y alejandrinos, trajeron a Europa un tesoro más preciado que el oro o la plata: el conocimiento. Bien es cierto que los árabes no fueron meros transmisores. Muhammad Al-Jawarazmi, que vivió aproximadamente entre el 780 y el 850 de nuestra era y trabajó en Baghdad, está considerado el padre del álgebra , al escribir un tratado con ese nombre (en árabe, al- jabr wa’l-muqabala , que podría traducirse como “la restauración y la simplificación”, es decir, cómo se deben pasar los términos de un miembro a otro de una ecuación, cómo deben simplificarse esos mismos términos... en definitiva, cómo operar algebraicamente) en el que daba una exposición sistemática de las ecuaciones lineales y cuadráticas, e introducía el sistema de notación posicional que luego se adoptaría en el occidente cristiano. Aquí jugó un papel importantísimo la Escuela de traductores de Toledo y, más aún, ese fascinante crisol de tres culturas (judía, cristiana y musulmana) que fue la España medieval. Al-Jawarazmi conocía la obra del alejandrino Diofanto y el indio Brahmagupta, a quienes debe mucho, pero también hizo aportaciones originales.
Un personaje clave en la introducción del sistema decimal y de la genial idea del cero en Europa fue Fibonacci (1170-1250), también conocido como “Leonardo de Pisa”, probablemente el mejor matemático de la Edad Media. Fibonacci había acompañado a su padre, que era comerciante, al norte de África, y seguramente fue allí donde supo de viva voz de las ventajas del uso del cero. Como escribió en su influyente Liber abaci, “los nueve caracteres indios son: 9, 8, 7, 6, 5, 4, 3, 2, 1. Con estos nueve caracteres y con el signo 0 se puede escribir cualquier número”. También se le debe a Fibonacci el estudio de unas famosas series, las series de Fibonacci (que ya habían descubierto los matemáticos de la India) en las que, empezando con dos números iniciales, el resto de los componentes de la serie se calcula sumando los dos términos inmediatamente anteriores. Estas series tienen unas implicaciones aritméticas que han cautivado a matemáticos, numerólogos y herederos intelectuales de Pitágoras durante siglos.
Sin haber asimilado la nada a nuestra vida y a nuestro conocimiento, no habríamos progresado tanto. Sin haber puesto la “nada” a la altura del todo, no habríamos sido capaces de ponernos en disposición de abrirnos a todo, a todos los aspectos de la naturaleza y de la cultura.
Porque sin el cero no habría sido posible, al menos tal y como se ha hecho en occidente, la matematización de la ciencia. El proceso de matematización de la ciencia se debe, principalmente, al genio de Galileo Galilei, quien, al contrario de Aristóteles, apostó decididamente por las posibilidades del lenguaje de los números. Sólo la matemática permitía relacionar la singularidad de la experiencia con la universalidad a que aspira toda ciencia que sea digna de merecer dicho nombre. Nuevamente, el progreso se manifiesta como integración, como unión de mundos aparentemente contrapuestos pero que, conjuntamente, hacen avanzar a nuestras mentes. En frase del monje medieval Roger Bacon, un pionero del pensamiento científico, “la matemática es la puerta y la llave de las ciencias”.
De la alianza entre matemática y experiencia física surgió uno de los conceptos más bellos y fructíferos de la historia del pensamiento humano: el de función. Fue estudiando el movimiento cómo los científicos y matemáticos del siglo XVII advirtieron la necesidad de plasmar matemáticamente la relación entre variables, entre cantidades que podían tomar “valores” o determinaciones distintas (como Leibniz afirmará ya a comienzos del siglo XVIII, la función simboliza cantidades que dependen de una variable). La geometría analítica, que a su vez integra geometría y álgebra (dos mundos que en siglos anteriores se habían visto como dos ciencias distintas, como dos ramas de las matemáticas hasta cierto punto inconexas), y cuya creación debe mucho a René Descartes, es otro ejemplo de la fecundidad de esa simbiosis entre disciplinas para proporcionar una visión más certera y profunda del universo.
Al matematizar la actividad científica, la humanidad ha logrado multiplicar exponencialmente sus descubrimientos y avances. Ha abierto una especie de “caja de Pandora” que le ha permitido desentrañar la estructura de la materia o idear teorías sobre el origen del universo. Y todo gracias al genio de quienes supieron pensar en los fundamentos y no se perdieron en los detalles. Genios que no se acobardaron ante la prolijidad y complejidad de la superficie, previendo quizás proféticamente que el fondo era más simple, más sencillo y más bello. Y el fondo de la realidad y de la ciencia es matemático, porque la matemática nos da la oportunidad de expresar relaciones, proporciones...: ¡funciones!
Capítulo 4
¿Es mejor cometer la injusticia o padecerla? La respuesta de Sócrates.
El hombre más sabio de la Grecia antigua no era un gobernante como Pericles, ni un matemático como Pitágoras, ni un científico como Aristóteles. El hombre más sabio de la Grecia antigua no era hijo de un rey, ni había viajado a lo largo y ancho del mundo conocido enriqueciendo su espíritu con las más exóticas experiencias, como Ulises. Tampoco dejó a la posteridad una Ilíada o una Odisea, en el culmen de la literatura universal. Es más: no consta que escribiese nada. Fueron sus discípulos quienes nos hablaron de él. Y, aunque ni escribió, ni casi viajó, ni hizo descubrimientos importantes en las ciencias y en las matemáticas, sus contemporáneos y las generaciones venideras lo consideraron la cima de la sabiduría clásica. Su nombre era Sócrates.
Prácticamente todas las fuentes que tenemos sobre Sócrates nos vienen a través de su no menos genial alumno Platón, en quien dejó una huella tan honda que difícilmente habrá existido en la historia otro maestro que influyese tanto sobre su discípulo. Quizás sí los grandes líderes religiosos de oriente y occidente, a los que, curiosamente, Sócrates se asemeja bastante. Sócrates no quiso fundar ninguna religión, pero como padre de la filosofía y de la ética occidentales en cierto sentido sí fundó un movimiento cultural que iba a resultar a la larga más importante que muchas religiones. Además, como de tantos otros maestros espirituales, no se ha conservado ningún escrito suyo. Le bastaba con hablar y fascinar a su audiencia para extender sus ideas y transmitir su sabiduría. Hoy nos parece que sin palabra escrita y permanente nada se puede hacer, la sociedad no funciona, las ideas se convierten en fugaces y transitorias... Pero cuando recordamos a figuras como Sócrates, Jesús de Nazaret o Buda, que si nos atenemos a la evidencia histórica no escribieron nada, nos daremos cuenta de que, a pesar de esto, han definido el curso de la historia occidental y oriental de manera más significativa que la mayoría de los escritores y políticos. Sócrates no necesitaba escribir. Su vida era su palabra más valiosa. Lo que pensaba lo puso en práctica, y acabó conduciéndole hasta la muerte.
Los filósofos anteriores a Sócrates, los pre-socráticos, habían reflexionado sobre la naturaleza del cosmos. Tales de Mileto sostenía que el agua era el principio (arjé en griego) de todas las cosas, de modo que la multiplicidad de seres que existen en la realidad se deriva en el fondo de un único fundamento. Anaxímenes creía que ese principio era el aire. Así, los sabios presocráticos no se habían limitado, sin más, a contemplar el mundo que les rodeaba: se maravillaban de su orden pero también querían cuestionarlo, criticarlo y entenderlo para conocer su auténtica esencia. No se quedaban en lo aparente e inmediato, sino que querían ir más allá, buscar un principio básico que lo explicase todo. Anaxágoras de Clazómenes había dicho que el núcleo de la realidad no residía en los fenómenos que vemos o experimentamos, sino en un nous (nouς en griego) o mente que todo lo rige y gobierna, en un orden más allá de la fragmentación que podamos a veces percibir.
Sócrates tenía noticia de lo que habían dicho y escrito los grandes filósofos que le precedieron, y seguramente fue el alumno más brillante de la escuela de Anaxágoras. Pero a Sócrates no le interesaba saber cómo era el mundo sino, parafraseando a Karl Marx, cambiarlo. No le interesaba cuál era el principio unificador e integrador que daba razón de la variedad de formas y de fenómenos del mundo real, sino el ser humano. Del famoso binomio de Kant, “el cielo estrellado sobre mí, la ley moral en mí”, Sócrates prefirió quedarse con la ley moral. Sócrates era antropocéntrico porque sentía que sin centrar toda reflexión en el ser humano, en sus posibilidades y en sus limitaciones, toda filosofía era vana. “¿Qué significa esto o qué es esto?” no era para Sócrates la pregunta oportuna. Lo que había que preguntarse es qué significa o qué es esto para mí, cuál es su sentido vital, cómo puedo mejorar la persona que soy para acercarla al ideal ético. También Lutero dirá, en el siglo XVI, que lo importante no es quién es Cristo en sí, cuál es su naturaleza, sino quién es Cristo para mí, qué me dice, qué me sugiere, qué me obliga a hacer. El giro hacia el para mí no es una simple cadencia o desliz subjetivista. El ser humano siempre ha tenido necesidad, desde sus orígenes más remotos, de entender, de conocer, de asimilar. Y asimilar es “hacer pasar” lo que es distinto de mí a través de mí, a través de mi mente y de mi capacidad de comprensión. Conocer es humanizar, abrir nuevos cauces y nuevos espacios donde cada vez quepan más posturas y más situaciones. Conocer es relacionar, buscar lo común en lo diverso. O, en palabras de Friedrich Nietzsche en Así habló Zaratustra, “¡que todo lo profundo deba ascender hasta mi altura!”, porque, como escribe el mismo Nietzsche: “yo estoy hastiado de mi sabiduría, como lo están las abejas que han acumulado exceso de miel. Yo necesito manos que se tiendan hacia mí”. Tengo que traducir el conocimiento a mi propio lenguaje, que es ante todo un lenguaje vital y ético.
La historia de la humanidad nos muestra que, más que cualquier otra cosa, hemos sido capaces de conocer y aprender. Y es que lo que hace poco era impensable es hoy pensable, y lo que hoy es impensable será mañana pensable. Es la grandeza y la pequeñez de lo humano: el poder siempre excederse, trascenderse, “des-mesurarse”, pero al mismo tiempo estar de alguna forma condenado a vagar sin un rumbo aparente, a caminar sin un destino firme, a buscar sin conocer siquiera si existe una respuesta a sus preguntas. Y casi al unísono, nos damos cuenta de que el conocimiento no nos sacia por completo, de que sólo conociendo no alcanzamos la felicidad.
Sócrates era un hombre pobre que caminaba descalzo por las calles. No le importaba relacionarse con la gente corriente o con los altos dignatarios, porque era consciente de que su verdadera riqueza la llevaba dentro. Su madre era una humilde partera, una mujer que asistía en los partos. Sócrates estaba tan orgulloso de su madre y de su oficio que decía que su labor como filósofo era ayudar a dar a luz, a sacar lo mejor de cada uno. Pensaba hablando, conversando, dialogando. Hoy hemos perdido la cultura del diálogo. Cada uno tiene ya sus posiciones tomadas de antemano y el foro público se ha convertido en un campo de batalla donde vence el que más grite pero no el que mejor convenza. Ya no confiamos en el poder de la razón, del logos de Sócrates, pero en ocasiones notamos que sin racionalidad es complicado, por no decir imposible, que progrese la sociedad.
¿Qué es lo justo y lo verdadero? y ¿qué es lo común a todos y no lo propio de uno solo?, serán algunas de las grandes preguntas que se formule Sócrates y que plantee a quienes les rodean para tatar de responderlas juntos. Sócrates va de por libre. No está vendido a ninguna clase de poder, ya sea económico o político, porque no le hace falta. Confía en su poder más preciado, que es la palabra que expresa el logos, la razón, lo común: la palabra que une.
Sócrates fue implacable con los sofistas que, como Hipias o Gorgias, creían saberlo todo y aturdían a sus oyentes con interminables discursos para producir la ilusión de que conocían, cuando en realidad lo ignoraban casi todo. Pretendían situarse en la vanguardia de todo, pero en realidad no sabían nada ni dominaban nada. Su diletantismo exasperaba a Sócrates, su hablar por hablar sin decir nada en claro, sin apuntar a nada. Por eso, para Sócrates era esencial reconocer que sólo sé que no sé nada, porque sólo desde esa “limpieza de espíritu”, desde esa humildad inicial, será posible avanzar. Quien cree que ya lo sabe todo, no necesita buscar, esforzarse por conocer, aprender o estudiar. Todo está ya hecho, y la vida adopta la monotonía que tendría de no ser por nuestra inteligencia y nuestra insaciable curiosidad. Sin admitir que hay cosas que no se saben, las ciencias no avanzan. La conciencia de la falta de respuestas y de lo imprescindible de plantearse las preguntas oportunas está en la base del progreso en el conocimiento. Uno puede saber mucha física, mucha biología o mucha historia, pero si verdaderamente sabe mucho de esos campos también sabrá que hay muchísimas más cosas que ignora, y que cada nuevo descubrimiento lleva a una nueva incógnita, y que su saber también es, hasta cierto punto, provisional.
Pero Sócrates no puede aprender por los demás. El desarrollo intelectual, el atreverse a recorrer la senda del conocimiento, es una tarea eminentemente individual y personal. De nada me sirve decir que tengo un amigo que sabe muchísimas matemáticas o que domina idiomas. A mí no me afecta, porque no me puede “inyectar” sus conocimientos como si se tratase de una transfusión de sangre. Le podré pedir consejo o ayuda, pero al final, el que tiene que aprender es uno mismo, y por mucho que dilate ese desafío, en algún momento tendré que afrontarlo si quiero ser libre, autónomo y con criterio propio, si no quiero ser un simple espectador que se sorprende ante infinidad de cosas (físicas, sociales...) que ocurren a su alrededor pero que no se preocupa por entender la causa que las provoca. Lo que sé me llena, me define, es parte de mi personalidad. No se puede desligar el conocimiento de lo que uno es, porque el auténtico conocimiento ha sido asimilado, y como tal, es ya ganancia y propiedad de uno mismo. De poco sirve haber estudiado las disciplinas o las lenguas más complicadas si eso luego no me ayuda a conformarme una visión del mundo y de la sociedad, a interesarme por otras cosas, a abrirme...
Por tanto, lo primero que tengo que hacer si quiero empezar a aprender es admitir mi limitación: puedo estar equivocado, hay cosas que no sé. No es un acto de auto-flagelación intelectual, de degradarme por degradarme. Tengo que saber reírme de mí mismo, poner entre paréntesis lo que creía que sabía, tener conciencia de mi ignorancia. Así comienza el célebre método socrático, que está en las raíces de la filosofía occidental. Es un método que consiste en formular preguntas para que me pueda dar cuenta de ciertas cosas, para poder ir avanzando en el saber. Tampoco las ciencias empíricas miran pasivamente a la naturaleza en espera de alguna feliz idea, sino que le preguntan a la naturaleza realizando experimentos. Y la ironía socrática, ese saber reírse de uno mismo, es muy importante, porque sin un cierto sentido del humor, el horizonte de todo lo que ignoramos nos puede producir una sensación de angustia, de agobio y de desesperación. Sin ironía no hay aprendizaje, porque la ironía es una piedra que hace tropezar, y al levantarse, uno se da cuenta de algo, y ese algo le lleva a conocer. Soren Kierkegaard (1813-1855), filósofo y teólogo danés que en su tesis doctoral analizó detalladamente el concepto de ironía en Sócrates, tenía una clara predilección por el uso de la paradoja en sus escritos, porque sabía que sin una cierta opacidad, sin contraponer lo oscuro a lo nítido, era imposible conocer. Y la ironía es una cierta paradoja. Describió la fe cristiana como contradicción, seguramente rememorando esa frase de San Pablo a los corintios: “mientras los judíos piden signos y los griegos buscan sabiduría, nosotros predicamos a un Cristo crucificado: escándalo para los judíos, locura para los gentiles”. Y para Kierkegaard, la paradoja de la fe exigía dar un salto, atreverse a creer, “reírse” irónicamente de las seguridades humanas.
Así que nos reímos de nosotros mismos, reconocemos nuestra ignorancia y, ¿ya está? ¿No hay nada más? ¿Nos quedamos sólo en esta parte semi-cómica? ¿Nos reímos un poco todos juntos y ya hemos alcanzado la sabiduría? ¡En absoluto! Si hay algo que Sócrates no está haciendo es tomarnos el pelo. Ahora tenemos que imitar a la madre de Sócrates, que era una sencilla mayeuta, es decir, partera. La partera asiste a la mujer que va a dar a luz, como el maestro asiste a quien va a dar a luz sus ideas propias. El método socrático pasa así de la ironía a la mayéutica, el arte de “gestar” las ideas desde uno mismo. Es como si Sócrates nos dijera: ¡Despierta! ¡Sé tú mismo!, o, como estaba escrito en el frontispicio del templo de Apolo en Delfos, ¡conócete a ti mismo! (γνῶθι σεαυτόν en griego), sal de tu sueño de verano que te hace creer que tienes poco que conocer o que conocer es una empresa imposible para “atreverte a saber”, que dirán siglos más tarde los ilustrados.
Sólo así, siguiendo un método suficiente y riguroso, puedo aprender a distinguir, dirá Sócrates, lo verdadero de lo falso, la realidad de la apariencia, lo justo de lo injusto. Porque sin ello no podemos llegar a ser lo que somos. ¿Y qué somos o, más bien, qué debemos ser? Sócrates dirá que seres guiados por la razón, seres capaces de conocer lo justo y lo bueno. Para ser felices, para lograr una cierta plenitud, es necesaria la ética, la reflexión que nos muestra qué nos falta y qué nos sobra. Porque para los griegos era tan necesario reflexionar como no excederse: en el mismo templo de Apolo en Delfos también estaba escrito “nada en exceso” (μηδὲν ἄγαν). Reflexión y mesura, dos de los grandes ideales de la cultura griega. Poner cada cosa en su justo límite, porque la perfección no reside en lo infinito, en lo que desborda o rebasa toda frontera, sino en la adecuación al límite, a la frontera que impone el orden real y lógico y que precede a toda veleidad humana. La civilización moderna, sin embargo, ha preferido asumir ese infinito: lo perfecto no está en lo limitado, sino en lo ilimitado; lo pleno no es la esfera, armónica y proporcionada, sino lo infinito que no se sujete a ningún límite. Nada es imposible porque nada está sujeto a ese límite lógico y racional, como creían los griegos. La sociedad no consiste primordialmente, como para Sócrates o Platón, en poner a cada uno en su sitio, en buscar el lugar que le corresponde a cada uno, como si ese lugar se adecuase a la verdadera esencia de las cosas y de las personas. La sociedad no es tópica (“topos” en griego significa lugar), sino utópica, sin lugar fijo, sin posición determinada, y lo que hoy parece imposible mañana es posible, lo que hoy vemos claro mañana se nos antojará oscuro. La perfección está más en el movimiento y en el cambio, que en la constancia y permanencia del límite griego.
Sócrates pensaba que para orientar rectamente la vida había que conocer antes al ser humano, quién es y qué debe hacer. ¿Qué nos une y qué nos separa? ¿Qué es lo común a todos, lo que todos, como personas humanas, compartimos y por tanto lo que debe estar siempre presente si queremos ser auténticos hombres y mujeres? No es algo externo, porque lo externo es variable, difiere de una persona a otra, de una cultura a otra. Es algo interno, algo que no se percibimos materialmente como en el cosmos que nos rodea. Es lo más cercano pero a la vez lo que requiere de un mayor esfuerzo de reflexión e introspección. La importancia de la interioridad humana no es, desde luego, una aportación original de la cultura griega. La civilización egipcia tenía un concepto elevadísimo del ser humano, y en otras regiones del mundo, como oriente, el legado sapiencial de Buda o de Confucio tiene sobre todo una clave ética, refiriéndose a la interioridad de la persona. Pero lo cierto es que en la filosofía occidental Sócrates ha sido un auténtico pionero o impulsor de esta idea.
Y de ese fondo interior de la persona sobresale por encima de todo su razón. Quien no use su razón, quien no logre actuar según su razón, jamás podrá ser feliz, dice Sócrates, porque la felicidad no puede conseguirse a través de fines parciales o de placeres pasionales que vienen y van. La ética que propone Sócrates no pretende en ningún momento anular la pasión, el pathos que en gran medida guía nuestras conductas, sino orientarla rectamente, subordinarla a un principio superior que para el ateniense es la razón. Hoy en día, después de Freud y de tantos otros autores, somos conscientes de que orientar las pasiones según la razón es una tarea mucho más complicada de lo había creído Sócrates. El alcance de la razón práctica, el que nuestra inteligencia sea capaz de conducir las acciones al igual que descubre e investiga en el plano puramente teórico, ha sido muy cuestionado en los últimos siglos. En cualquier caso, el ideal de Sócrates queda ahí: mejorar nuestra existencia y humanizarla, teniendo como luz la razón.
La razón nos muestra el verdadero bien, porque es capaz de elevarse por encima de lo singular, concreto y contingente para llegar a lo absoluto y permanente. El mal es justamente lo antitético a la razón. Para Sócrates, el mal pervive sobre todo en la ignorancia, en la falta de conocimiento. El malo es ignorante y, como escribirá Hanna Arendt en el siglo XX, banal. Claro está que Sócrates no se refiere al bien como un concepto teórico. Alguien puede comprender perfectamente que es bueno respetar a los demás y no hacerlo. Es un bien práctico, un bien de la acción. Y el mal daña a quien lo comete: sufre más quien realiza la injusticia que quien la padece, dirá Sócrates, al igual que en el Evangelio Jesús enseña que no es lo que entra o sale de la boca lo que corrompe al ser humano, sino lo que sale de su corazón y de su palabra: “no es lo que entra en la boca lo que contamina al hombre, sino lo que sale de la boca” (Mateo 15,11). Son nuestras propias acciones las que nos dignifican o degradan. ¿Por qué? No es fácil de justificar, pero sin embargo parece que hay un sentido moral en el ser humano que le lleva a indignarse ante lo injusto, y más aún ante quienes parecen triunfar y llevar una vida exitosa pese a sus crímenes y delitos. Algo similar debió de pensar Job. Cada uno tiene que buscar la respuesta. Sócrates nos dice que es peor cometer la injusticia que padecerla, y Kant sugerirá, siglos más tarde, que quien obra injustamente es incapaz de proponer una conducta universal que pueda guiar a toda persona (el imperativo categórico: “actúa sólo de tal forma que tu máxima pueda convertirse en ley universal”). Porque en el fondo, la injusticia y el mal nos llevan a la parcialidad, al ensimismamiento y al egoísmo. Nos cierran a los demás. El mal reduce, limita y aísla. Y parece que el bien y la justicia discurren por la senda opuesta: nos abren, nos permiten comunicarnos, nos dan la posibilidad de salir de nosotros mismos. El bien amplía, el mal reduce. Pero la respuesta no es sencilla. Habrá quien piense que en la vida nunca se da la justicia, y que lo único que puede primar ante una existencia tan breve y a veces tan repleta de adversidades es perseguir el propio interés y, si acaso, limitarse a cumplir lo que estipulen las leyes, sin proponerse metas u horizontes éticos más ambiciosos. Desde esta óptica, sufre más quien padece la injusticia que quien la comete. Sin embargo, en cuanto formulamos esta visión del mundo surge una especie de reserva o de rechazo instantáneo. No nos gusta, en el fondo, que la vida se guíe por objetivos tan pobres, y de hecho muchas filosofías y religiones han querido ofrecer un sentido más universal y menos pragmático.
Sócrates piensa que quien actúa mal y practica la injusticia se rebaja en su condición humana, incapaz de usar su razón para buscar el verdadero bien, para humanizarse. Renuncia a ser persona. Por ello, sufre más quien es injusto que quien padece acciones injustas, porque no hay mayor daño que el que uno puede infringirse a sí mismo. Nadie tiene mayor poder sobre nosotros que nosotros mismos, y actuar injustamente es caer esclavos de la sinrazón.
Insiste Sócrates en la importancia de seguir la razón para cumplir el deber que esa razón, capaz de conocer lo verdadero, bueno y justo, impone. Pero, ¿cuál es ese deber? ¿Cómo puedo aprender a cumplirlo? Podemos llegar a entender que respetar a los demás y tratarles como a nosotros nos gustaría que nos tratasen (la regla de oro de tantas filosofías y religiones) es un principio fundamental y plenamente racional. No hay mayor racionalidad que el equilibrio y la justicia que emanan de ese principio. ¿En base a qué puedo yo exigir a los demás que actúen sobre mí de una manera si yo no lo hago? Negarlo nos haría caer en la arbitrariedad. Pero cuando quiero concretar mi acción en el aquí y ahora, cuando necesito una orientación más específica, ¿de qué instrumentos dispongo, por así decirlo, para guiar mi conducta? Sócrates dirá que ese instrumento es la virtud, la areté griega.
La virtud es quizás la noción central de la ética clásica, y ha influido mucho en la teología cristiana. Para Sócrates y para la filosofía griega en general, la virtud es un hábito que nos inclina a actuar constantemente conforme al bien. El virtuoso se ha “connaturalizado” con el bien, porque a fuerza de practicarlo ha adquirido una cierta tendencia al bien. Cómo debo actuar aquí y ahora no me lo puede enseñar nadie. Tengo que verlo yo mismo, juzgarlo racionalmente, y si soy virtuoso, si tengo unos hábitos y me he esforzado durante tiempo por practicar el bien, me será mucho más fácil lograr unos ideales éticos elevados.
Los griegos reconocían cuatro virtudes cardinales que debían gobernar la acción humana: prudencia, justicia, fortaleza y templanza. La prudencia o frónesis nos ayudaría a juzgar sobre una determinada acción, la justicia o dikaiosine nos mostraría lo recto, la fortaleza o andreia nos permitiría no desfallecer en la búsqueda del bien arduo y la templanza, sofrosine o dominio de sí moderaría nuestra natural inclinación hacia el bien placentero. La ética de la virtud definió el ideal moral griego. Del mismo modo que adquirimos conocimientos teóricos podemos adquirir hábitos virtuosos. Para los griegos, y en especial para Sócrates, existía o al menos debía existir una perfecta armonía entre el saber teórico y el saber práctico manifestado en la virtud. La voluntad es así guiada por la inteligencia. Siglos más tarde Nietzsche dirá que es la inteligencia la que debe someterse a la voluntad.
Sócrates conmovió a Atenas y a su tiempo hasta tal punto que a algunos no les quedó más remedio que terminar con su vida. ¿Acaso se le podía acusar de algo a Sócrates? ¿Acaso había hecho algo mal el hombre más sabio de Atenas, cuya vida no tenía más fin que el de educar, el de ayudar a sus contemporáneos a buscar ellos mismos la verdad? Pero a ojos de sus enemigos, Sócrates corrompía a la juventud y era un impío.
Y fue condenado. La muerte de Sócrates es uno de los episodios más fascinantes y a la vez trágicos de la historia occidental. Quien había proclamado con mayor fuerza que nadie el imperativo ético de obrar la justicia para perfeccionarnos como seres humanos, muere presa de la injusticia y de la sinrazón. Pero, en el fondo, en el escenario de la historia conviven la razón y la sinrazón, el triunfo y la tragedia. Pocos lo han ejemplificado como Sócrates.
Una filosofía como la de Sócrates que sostenía la existencia de una verdad y una justicia incondicionadas y permanentes tenía que creer, por fuerza, en el más allá. La vida, para Sócrates y Platón, no se agota en la existencia terrena, porque en el alma humana hay una “chispa” de inmortalidad de la que participa su mente, capaz de elevarse por encima de lo material y de llegar a lo universal. Sólo los dioses y su mundo eterno garantizan la justicia perfecta que nunca se alcanza en la Tierra. Y ese mundo trasciende toda limitación, supera toda contingencia, anula toda barrera, dando sentido a la vida. Es el reino de lo incondicionado. No es de extrañar que Platón, el discípulo por excelencia de Sócrates, concibiese un mundo donde ideas como la justicia o la verdad se realizasen plenamente. Su maestro había creído firmemente en él y no se había acobardado ante la muerte.
Sócrates no reconoce culpa alguna ante el tribunal. No era impío, porque creía en los dioses, en el daemon o ser divino, y en su mundo ponía el sentido de la vida. Acepta una condena injusta por respeto a la dignidad de toda ley, y rehúsa escaparse de la celda en la que había sido encerrado. No huye: afronta su destino porque se sabe dueño del mismo. Seguramente, pocas experiencias en la historia han tenido tanta intensidad y tanta hondura como compartir con Sócrates sus últimos momentos. Debió de ser verdaderamente prometeico y majestuoso contemplar esa ebullición de fortaleza y grandeza humana en instantes tan terribles. El veneno inoculado en la sangre de Sócrates no era una simple sustancia letal: era la misma anti-filosofía, la parálisis del pensamiento y de la libertad creativa, la esclerosis de lo más propio del ser humano. Ese veneno pudo con la vida de Sócrates, pero no con su legado ni con la voluntad de tantos grandes hombres y mujeres que continuaron después de él imaginando, concibiendo y descubriendo.
La entereza de Sócrates se la daba su sabiduría, su convicción profunda de que la inteligencia podía mostrar esa chispa de inmortalidad que llevamos en el alma, y nada podía inmutarle. Si Epicuro desafiará a la muerte diciendo que no nos concierne porque cuando llega ya no estamos, Sócrates le planta cara haciendo lo que mejor había hecho a lo largo de su vida: razonar. Como no podía de ser de otra forma, Platón nos legó un relato insuperable de las horas finales del hombre más sabio de Atenas en su diálogo Fedón, al que pocas palabras se pueden añadir:
“El alma es, pues, un ser invisible que se dirige a un lugar noble, puro, llamado Hades, junto a un dios bueno y sabio, al que muy pronto me dirigiré yo. [...] Si el alma, pues, se mantiene de este modo, se dirige hacia un lugar semejante a ella, un lugar divino, inmortal y lleno de sabiduría, donde vive feliz y libre de todo error, lejos de ignorancias y temores, de amores tiránicos y otros males comunes a la humanidad. Allí pasa con los dioses el resto de su existencia”.
Capítulo 5
Euclides y la axiomática
Una de las obras más influyentes en la historia de las matemáticas ha sido los Elementos de Euclides, a cuyo compás se han educado generaciones de estudiantes durante siglos. Los grandes matemáticos del siglo XVII, como Newton y Leibniz, que hicieron aportaciones no menos significativas que las de Euclides, habían aprendido geometría con los Elementos, libro de texto en escuelas y universidades. Todavía hoy en los colegios se enseña la geometría de Euclides. Se cuenta que Blaise Pascal (1623-1662) había sido capaz, con tan sólo once años, de demostrar por sí mismo que la suma de los ángulos de un triángulo es igual a dos ángulos rectos (180 grados), y que maravillado por el talento de su hijo, su padre Étienne le permitió estudiar el libro de Euclides, cosa que antes le había prohibido hacer para que no se despistase en el aprendizaje del latín y del griego. Y, en pocos meses, Pascal llegó a dominar toda la geometría euclídea. ¿Cómo era posible? Pascal poseía una inteligencia extraordinaria, ciertamente, pero el libro de Euclides mostraba tal rigor lógico y tal armonía entre sus afirmaciones, perfectamente ligadas, que unas proposiciones llevaban a otras, unos teoremas a otros, unas demostraciones a otras. Todo estaba conectado, todo aparecía como una especie de senda levantada por Euclides para facilitar a la mente humana adentrarse en el fascinante mundo de las formas geométricas.
El rigor de sus demostraciones ha inspirado a los mejores matemáticos, a los que no ha quedado más remedio que intentar imitar y emular al genio alejandrino del siglo III antes de Cristo. Euclides sistematizó la geometría. Muchos de los teoremas que expone en su libro se conocían ya y habían sido probados por otros antes que él, pero nadie hasta Euclides había sido capaz de organizar todo el conocimiento de geometría y matemáticas alcanzado por la cultura griega con la misma coherencia y elegancia. Y es que la obra de Euclides tiene como principio unificador, como “núcleo”, el poder del razonamiento lógico, la fuerza de la evidencia. Si se aceptan los axiomas de Euclides, hay que seguirle en todo lo demás, o si no se correrá el peligro de desafiar a las leyes lógicas y de conculcar el principio de no-contradicción, igual que si se aceptan los axiomas del filósofo Spinoza en su Ethica more geométrico demonstrata (¡Spinoza quiso convertirse en el Euclides de la filosofía!) no cabe otra opción que estar de acuerdo con sus conclusiones, porque se establece una relación, una consecuencia lógica que vincula necesariamente las premisas con la conclusión. Y Kant, en su Crítica de la razón pura, estaba tan asombrado ante la perfección lógica de la geometría de Euclides (a la que admiraba casi tanto como a la física de Newton) que incluyó el espacio euclidiano entre las formas a priori de nuestra sensibilidad, es decir, como nociones “preconcebidas” que nos vienen dadas en nuestro entendimiento, sin que las tomemos de ninguna experiencia externa: “el espacio no es un concepto empírico extraído de experiencias externas [...]. El espacio es una necesaria representación a priori que sirve de base a todas las intuiciones externas”, escribe. En otras palabras: sin espacio, no podríamos representarnos los fenómenos que ocurren a nuestro alrededor. El espacio es así una condición de posibilidad de nuestra experiencia de la realidad externa a nosotros. Y, por supuesto, la idea de espacio que tiene Kant es la del espacio tridimensional regido por los axiomas de Euclides. Hasta la teoría de la relatividad general de Albert Einstein, a comienzos del siglo XX, prácticamente nadie se había planteado una descripción del universo que no se basase en la geometría de Euclides. La física de Newton, uno de los mayores esfuerzos que jamás se han hecho para entender la naturaleza, usa la geometría de Euclides. Porque en efecto, cuando se analizan sus axiomas y sus conclusiones, parecen tan lógicas, tan claras, tan nítidas, que nadie consideraría sensato imaginarse el universo de otra manera.
No es exagerado sostener que la idea de axioma (“proposición tan clara y evidente que se admite sin necesidad de demostración”, como la define la Real Academia) está entre las más geniales y profundas que ha producido el genio humano. La búsqueda del conocimiento es inseparable, de uno u otro modo, de la búsqueda del orden, de la racionalidad, porque sólo así es posible comprender. Y los axiomas responden a esa convicción de que es posible encontrar unas verdades “mínimas” que están en el origen de todo lo demás. Buscar axiomas es buscar un fundamento que, regido por la lógica, permite relacionarlo todo con todo, como si existiese un fondo permanente sobre el que se eleva todo el edificio del conocimiento y de la racionalidad. El concepto en cuestión es tan tentador que no sólo Spinoza, sino la mayoría de los grandes filósofos y lógicos se han preguntando también por cuáles serían esas ideas matrices, esos fundamentos por debajo de los cuales no hay nada más, ese mínimo de los mínimos para entender la realidad y el pensamiento. Casi todas las disciplinas, ya sean de ciencias o de letras, se enseñan partiendo de unos principios y llegando a unos resultados que se pueden explicar desde esos principios. Aunque se incorporen datos experimentales, esos datos se integran en un cuerpo más amplio y se enmarcan en el cuadro descrito por esos principios. El ideal de exposición ordenada, coherente y didáctica es justamente el de formular unos principios fuertes que guíen el resto del discurso.
Pero la historia de las matemáticas ha demostrado que Euclides había encontrado sólo una de las geometrías posibles. Partiendo de sus axiomas, es verdad que la fuerza de la lógica lleva a aceptar los teoremas de Euclides como proposiciones verdaderas. Sin embargo, ¿quién dice que hay que partir de los mismos axiomas que Euclides? Esto empezaron a preguntárselo los matemáticos en el siglo XVIII.
¿Cuáles son los axiomas de Euclides? Fue Proclo, un filósofo neoplatónico del siglo V que decía que donde hay un número hay belleza, quien llamó “axiomas” a lo que en los Elementos de Euclides eran cinco postulados. A juicio de Aristóteles (que había vivido en el siglo IV antes de Cristo), la veracidad de los postulados no había que probarla porque se contrastaría al examinar los resultados que se derivaban de ellos. Esto debió de pensar Euclides. En el libro I de los Elementos ofrece las nociones preliminares de la geometría, definiendo, por ejemplo, un punto como “lo que no tiene partes” o una línea como “una longitud sin anchura”. Y a continuación introduce los axiomas propiamente dichos. Son los siguientes:
- Se puede trazar una línea recta desde cualquier punto a cualquier otro.
- Se puede prolongar continuamente en línea recta una recta dada.
- Se puede trazar un círculo con cualquier centro y distancia
- Todos los ángulos rectos son iguales entre sí.
- Si tenemos una recta y un punto que no está en la recta, sólo se puede trazar una recta que pase por el punto y nunca interceda con la recta dada.
¿Nada más? ¡En efecto! No hace falta ningún otro axioma. Desde estos cinco,
Euclides construye toda su geometría. Con ellos se puede demostrar que la suma de los ángulos de un triángulo es igual a dos ángulos rectos, que los ángulos de la base de un triángulo isósceles son iguales, o un sinfín de teoremas geométricos que millones de escolares han estado estudiando durante siglos en los colegios. No hace falta nada más, sólo ingenio y destreza matemática para sacar las conclusiones oportunas desde esos axiomas. Es la genialidad de Euclides, es la genialidad del rigor lógico, es la maravilla de las formas geométricas y matemáticas.
Y son axiomas en sentido estricto, porque ¿hay algo más evidente a simple vista que sostener que se puede prolongar continuamente en línea recta una recta dada? Es casi el “colmo” de la lógica y de la sensatez. Es tan obvio que justamente por eso Euclides lo toma como un axioma. No se puede demostrar, porque demostrar implica llegar a una conclusión partiendo de una premisa anterior, pero ¿qué premisa más básica puede haber que afirmar que se una recta siempre puede prolongarse? Además, no se puede confundir axioma con definición: en un axioma se afirma o se niega algo, pero se emite un juicio; una definición simplemente describe un concepto, pero no nos dice cómo se tiene que trabajar con ese concepto o qué consecuencias se van a extraer de ese concepto.
Sin embargo, si analizamos más despacio los cinco axiomas, nos damos cuenta de que los cuatro primeros son bastante evidentes y no parecen presentar ningún problema en especial, pero al llegar al quinto (conocido como el axioma de las paralelas) las cosas cambian. Resulta algo más farragoso, complicado, difícil de expresar y de entender. Es más complejo que los anteriores, como si estuviese más rebuscado. ¿No se podría, de hecho, deducir de los anteriores cuatro axiomas, de manera que no fuese un axioma auténtico sino una proposición derivada?
Eso es lo que debió pensar un jesuita del siglo XVIII, Girolamo Saccheri (1667-1733). Saccheri quería demostrar que era posible deducir el quinto postulado de los cuatro anteriores, y en su libro Euclides ab omni naevo vindicatus (un curioso título que podría traducirse “Euclides, libre de toda mancha”), admitió por un momento que el axioma no fuese cierto y que se tuviese que elaborar toda la geometría desde los cuatro primeros axiomas. ¿Qué pasaría? ¡Qué surgiría una geometría distinta a la de Euclides, y por tanto distinta de la que nuestros sentidos parecen sugerir! Pero Saccheri no podía aceptarlo. Contravenía tanto la experiencia que lo rechazó. Saccheri, en realidad, había mostrado que Euclides estaba “libre de toda mancha”, porque Euclides no se había equivocado: el quinto postulado es un axioma con pleno derecho, ya que o se supone como verdadero, o salen otras geometrías que desafían al sentido común. No era una proposición que se podía deducir sin más de los otros cuatro axiomas, sino un axioma con categoría propia. Se había abierto una caja de Pandora cargada de diferentes geometrías posibles. Desde el momento en que se rechazase el axioma de las paralelas o al menos se ponga en tela de juicio, prácticamente todo era posible. Así, a comienzos del siglo XIX el ruso Nikolai Lobachevski (1792-1856) y el húngaro János Bolyai (1802-1860) desarrollaron la geometría hiperbólica. Bolyai, cuyo trabajo no se difundió hasta décadas después del de Lobachevski, llegó a obsesionarse tanto por el quinto postulado de Euclides que su padre le pidió que dejase el tema en aras de su salud y felicidad. Hoy, los historiadores reconocen el mérito de Bolyai como uno de los creadores de las geometrías no- euclídeas. Por si fuera poco, la mayor mente matemática de aquel tiempo, el alemán Cari Friedrich Gauss (1777-1855), cuyas contribuciones a la matemática y a la física son tantas que difícilmente podríamos resumirlas en unas breves líneas, había llegado a conclusiones similares a las de Bolyai y Lobachevski de manera independiente, aunque no las había publicado. Con el trabajo de un discípulo de Gauss, Bernhard Riemann (1826-1866), otro de los grandes genios de la matemática del XIX, se realizaron algunas aportaciones definitivas al estudio de las geometrías no-euclídeas, sin las cuales Einstein no habría podido formular su teoría de la relatividad general.
El axioma de Euclides resulta evidente en un espacio plano: por mucho que prolonguemos las dos líneas rectas, si son paralelas nunca se tocarán. El plano se puede extender al infinito y por tanto, en una geometría de espacios planos como es la de Euclides las paralelas nunca se cortarán. Pero, ¿ocurriría lo mismo en un espacio curvo? En absoluto. En un espacio curvo las paralelas sí se llegan a cortar, por ejemplo en la superficie de una esfera. La geometría de Euclides es sólo un caso límite para un espacio con curvatura cero, que es justamente un plano, al igual que la física de Newton es un caso particular (aunque válido para la escala en la que solemos movernos) de teorías más generales (la relatividad de Einstein o la mecánica cuántica). El genio humano no se rinde ante las evidencias. Va siempre más allá, englobando, ampliando y profundizando.
Y si no se cumple el quinto postulado de Euclides en un espacio curvo, tampoco se cumplirán muchas de las conclusiones que había deducido el alejandrino, como que la suma de los ángulos de cualquier triángulo siempre sea igual a dos ángulos rectos (180 grados).
Simplificando mucho, hay dos grandes geometrías no-euclídeas. La geometría hiperbólica niega, por supuesto, el axioma de las paralelas, y a diferencia de la geometría de Euclides, aquí no hay una única línea que pase por un punto y que nunca se corte con otra línea dada. Hay al menos dos líneas que podrán pasar por encima de ese punto sin llegar nunca a cortarse con la línea recta inicial externa al punto. En la geometría elíptica (a la que Riemann hizo enormes aportaciones) pasa lo contrario. No existe ninguna línea que, pasando por ese punto, pueda prolongarse indefinidamente sin nunca tocar a la recta inicial, por lo que, en sentido estricto, no existen las líneas paralelas: siempre acabarán convergiendo, como en la superficie de una esfera (y la Tierra es, al fin y al cabo, una esfera achatada por los polos). La suma de los ángulos de un triángulo es, en la geometría elíptica, siempre mayor que 180 grados.
Euclides había creado una construcción admirable por su rigor lógico capaz de formular toda la geometría, aunque siglos más tarde los matemáticos descubrieran que la de Euclides no era, ni de lejos, la única geometría posible. En cualquier caso, hay una pregunta que seguía sin respuesta: ¿es posible reducir la matemática a lógica? ¿Es la matemática, en el fondo, una mera derivación de la lógica? Los axiomas de Euclides parecían ir en esa línea: la matemática no sería más que la correcta deducción de proposiciones y teoremas a partir de un conjunto mínimo de postulados iniciales.
A comienzos del siglo XX, un matemático alemán, David Hilbert (célebre, entre otras cosas, por haber retado en 1900 a los matemáticos de la época con una lista de problemas no resueltos, los “problemas del milenio”), abanderó la teoría luego conocida como formalismo y que sostenía que la matemática podía reducirse a un conjunto finito de axiomas. Para ello hizo uso de la teoría de conjuntos, una poderosa herramienta lógico-matemático que trata con agrupaciones de objetos. Claro que se trataba de una teoría de conjuntos bastante desarrollada: la teoría axiomática de conjuntos, que contaba con una serie de axiomas que especificaban determinadas propiedades de los conjuntos. Las versiones más rudimentarias de la teoría de conjuntos habían llevado a contradicciones insolubles como la famosa paradoja del barbero, propuesta por uno de los grandes lógicos del siglo XX y premio Nobel de literatura, el británico Bertrand Russell (1872-1970). La paradoja dice así: en una ciudad sólo hay un barbero, y todo hombre en la ciudad tiene la costumbre de afeitarse. Unos se afeitan ellos mismos, mientras que otros acuden al barbero. El barbero sólo afeitará a todos aquellos hombres que no se afeiten a sí mismos. Pero si el barbero tiene el coraje de preguntarse si debe afeitarse a sí mismo o no, se encontrará en un callejón sin salida. Porque si el barbero no se afeita a sí mismo, como el barbero afeita a todo el que no se afeita a sí mismo, debería ir al barbero y por tanto afeitarse a sí mismo. Y por otra parte, si se afeita a sí mismo, entonces no tiene por qué ir al barbero, porque el barbero sólo afeita a los que no se afeitan a sí mismos. ¡Oh dilema! ¿Qué hará el pobre barbero? Algún crítico sutil ha sugerido que el barbero sea una mujer, pero claro está que si decimos que el barbero sólo puede ser un varón el problema lógico persiste.
Una vez reformulada la teoría de conjuntos para eludir esa y otras muchas paradojas, muchos pensaron, como Hilbert, que podían encontrarse unos axiomas que contuvieran la “semilla” de toda la matemática y así fundamentar esta disciplina en la lógica. Hasta que apareció en la escena de la lógica y de la matemática del siglo XX un hombre llamado Kurt Gödel.
Gödel nació el 28 de abril de 1906 en la ciudad de Brno, en Moravia (actual República Checa), la misma donde el monje Gregor Mendel había llevado a cabo sus famosos experimentos con guisantes a mediados del siglo XIX. De pequeño se le conocía como Herr Warum, “señor por qué”, al estar constantemente preguntando el porqué de todas las cosas. Gödel fue siempre un estudiante brillantísimo, y a los 18 años fue a estudiar física y matemáticas en la Universidad de Viena, donde trabó amistad con algunos de los representantes principales del Círculo de Viena, participando en muchas de sus reuniones. Se doctoró en 1929 con una tesis sobre lógica matemática.
Hilbert y su escuela creían que, dado un conjunto de axiomas en un determinado sistema formal, era posible derivar, partiendo de esos axiomas, todas las proposiciones verdaderas que se podían encontrar en ese sistema. ¿Era posible identificar ese conjunto mínimo de axiomas? Un jovencísimo Gödel demostró que no era posible al publicar, en 1931, uno de los resultados más importantes de la historia de la lógica: el teorema de incompletitud de Gödel.
Gödel se imaginó una proposición según la cual ella (la proposición) no pudiese probarse en ningún sistema formal. Aparentemente sencillo: una proposición que en su contenido afirmase que no podía ser demostrada. Si se pudiera probar, sería falsa, porque la proposición sostenía que no podía ser probada de ninguna manera. Pero una proposición demostrable es siempre verdadera: si es verdadera, siempre habrá un modo, da igual lo complicado que sea, de probarla. Pero en este caso ocurre lo contrario: tenemos una proposición verdadera que establece que no se puede demostrar. Y esa proposición es perfectamente legítima dentro del sistema formal, y dice que es verdadero que ella no se puede probar dentro de un sistema formal. Luego siempre va a ser posible dar con al menos una proposición verdadera pero no demostrable (ni refutable). Como sucede con tantas grandes ideas y descubrimientos, el núcleo es más sencillo de lo que podría parecer (sobre todo cuando entran en juego nociones lógicas como las de “incompletitud” o “sistema formal” que, de primeras, es comprensible que “asusten” al no iniciado), aunque para llegar a semejante sencillez el genio (en este caso Gödel) haya tenido que sortear muchísimos obstáculos y barreras. Pero al final del túnel encontró una luz, y esa luz ha cambiado nuestra visión de la lógica y de la matemática.
Así, el teorema de incompletitud de Gödel nos dice que si un sistema es consistente (es decir, no incluye contradicciones), no puede ser completo (al menos habrá una proposición dentro del sistema verdadera pero indemostrable), y que la consistencia de los axiomas no puede demostrarse dentro del propio sistema. No existe, en consecuencia, un conjunto de axiomas válido para formalizar toda la matemática. El teorema de Gödel acabó, por así decirlo, con el sueño, albergado de una u otra manera desde Euclides, de reducir la matemática a lógica. Pero más aún, el teorema de Gödel pone serias limitaciones a los intentos de buscar teorías del todo y modelos omnicomprensivos de la realidad. En su conferencia “Gödel and the End of Physics”, el famoso físico británico Stephen Hawking (1942-...) sostiene: “algunas personas se mostrarán decepcionadas si no existe una teoría última que pueda formularse como un conjunto finito de principios. Yo pertenecía a ese grupo, pero he cambiado de opinión. Ahora me alegro de que nuestra búsqueda de entendimiento nunca llegue a un término, y de que siempre tengamos el desafío de un nuevo descubrimiento. Sin ello, nos paralizaríamos”.
En definitiva, más humano que el responder es el preguntar, porque toda respuesta abre a una nueva pregunta. Y si hay algo que se acerque al infinito en el universo o en la historia, es la capacidad humana de preguntar.
Capítulo 6
Arquímedes: “no molestes a mis círculos”
Con razón escribe Morris Kline en su Historia del pensamiento matemático que “no hay ninguna persona cuyos trabajos sinteticen el carácter de la edad alejandrina tan bien como Arquímedes (287-212 antes de Cristo), el mayor matemático de la antigüedad”. Y no es para menos: puede decirse que, junto con Newton y Gauss, Arquímedes es el matemático más genial de la historia. Sus aportaciones incluyeron hitos tan importantes para el desarrollo de las ciencias matemáticas y naturales como el cálculo del número n, la primera suma de una serie infinita, el descubrimiento del principio que lleva su nombre en la hidrostática, la medición del centro de gravedad de distintas figuras, el teorema de la palanca, el método de las aproximaciones sucesivas para la medición de las áreas y volúmenes de figuras curvas complejas, etc. Si la matemática griega no fue superada, prácticamente, hasta la invención del cálculo infinitesimal (diferencial e integral) en la segunda mitad del siglo XVII, se debe en gran medida a Arquímedes.
Arquímedes culmina uno de los ideales que habían definido la cultura griega: la búsqueda del elemento racional en el cosmos. Los griegos encontraron en el lenguaje matemático una especie de proyección o prolongación del mundo de lo eterno, infinito e inmutable de las formas, tan alejado de la fugacidad y del cambio. La esfera, imagen de lo completo, acabado y cerrado, que no puede mejorarse, era para el griego antiguo el símbolo de la perfección, que no se encontraba en lo infinito (como más tarde asociará la cultura moderna: lo perfecto es lo infinito e ilimitado), sino precisamente en lo que poseía mayor proporción, regularidad y “conexión” entre sus partes y dimensiones. Los griegos dejaron unos ideales de racionalidad y de espíritu de búsqueda intelectual tan elevados que hasta bien entrado el Renacimiento, con el nacimiento de la Europa moderna y del método científico, siempre se tuvo un cierto “complejo de inferioridad” con respecto a Grecia. Si en la Baja Edad Media Aristóteles era venerado casi como un semi-dios, idolatrado como las deidades paganas por su legendaria sabiduría y gozaba en muchas ocasiones de mayor prestigio que los Padres de la Iglesia (se le reservaba el título de “Filósofo”: Philosophes dixit, “el Filósofo dijo”, era poco menos que palabra de Dios), era porque la mente europea no se sentía capaz de ir más allá de lo que habían conseguido los griegos. Todavía en el siglo XVII, Gottfried W. Leibniz, creador con Newton del cálculo infinitesimal (logro que por sus repercusiones hizo definitivamente a la ciencia y a la matemática occidental “mirar” más allá de los griegos), reconoce que “quien comprenda a Arquímedes y Apolonio admirará menos los logros de los hombres más ilustres de tiempos posteriores”.
Nuestro tiempo, post-ilustrado y post-moderno, siente poca veneración y respeto por el pasado y por la tradición. La historia, que muchas veces parece seguir la “ley del péndulo”, pasando de un extremo a otro en un breve intervalo y moviéndose según el principio de acción y reacción, ya no goza, desde luego, del prestigio que sí tenía para los hombres y mujeres de épocas pasadas. Ahora miramos siempre hacia delante. No nos vemos “cohibidos” o determinados por lo que haya ocurrido antes que nosotros o por lo que se haya pensado o ideado antes que nosotros, sino que nos sentimos plenamente protagonistas del curso de los tiempos. Pero no siempre fue así. En las culturas antiguas y en el mundo occidental hasta el nacimiento de la modernidad, el ideal de plenitud estaba en el pasado. La historia mostraba una especie de “decadencia” continua: desde el esplendor de Grecia y Roma, el mundo occidental vagó durante siglos acosado por las invasiones de los pueblos germánicos, las penurias medievales... En las civilizaciones antiguas ocurría algo similar: el tiempo había venido “a menos” desde las glorias de antaño. Manetón, el gran historiador egipcio del siglo III antes de Cristo, en su Aegyptiaca, cuenta como al principio el mundo estaba gobernado por semi-dioses. Y en la Biblia, la historia sagrada se concibe como un empeoramiento de la vida humana después del pecado de Adán, expulsado de un idílico jardín del Edén en la noche de los tiempos.
Sin embargo, cuando nace la modernidad, en el siglo XVI, y sobre todo con la Ilustración en el siglo XVIII, el mundo occidental toma conciencia de su posición en la historia y de que no tiene por qué mirar con nostalgia al pasado como si todo tiempo anterior al suyo hubiese sido mejor. No había por qué sentirse inferiores a los griegos, pues ahora hombres como Galileo o Newton habían llevado el conocimiento a fronteras mucho más lejanas que las que habían abierto los clásicos. Surge así una de las ideas más brillantes, a mi juicio, de la cultura moderna: la de progreso.
En cualquier caso, ser conscientes de que hemos llevado la ciencia y el conocimiento a niveles más altos que en épocas pasadas no significa que no debamos admirar a quienes han permitido que alcanzásemos esa altura científica, tecnológica y cultural. Y Arquímedes merece la mayor admiración.
Poco se sabe de la vida de Arquímedes. Sí nos consta que nació en Siracusa, una ciudad portuaria de la actual Sicilia. Por tanto, Arquímedes no era “griego” en el sentido de proceder geográficamente de Grecia, sino que pertenecía a la cultura griega y había nacido en uno de sus centros de expansión, en la colonia de la Magna Graecia en la que aún hoy se puede contemplar restos (casi mejor conservados que los de la propia Grecia) del influjo griego que existió durante tantos años en esta isla mediterránea. Las fuentes biográficas de que disponemos proceden, en su mayoría, de historiadores clásicos como Polibio, Plutarco y Tito Livio, y de autores medievales como Juan Tzetzes, poeta y gramático de origen georgiano que vivió en Bizancio en el siglo XII y que nos dejó algunos escritos sobre la vida de Arquímedes.
Por obras del propio Arquímedes sabemos que su padre se llamaba Fidias, como el famoso escultor, pero nos faltan otros datos fundamentales de la vida de este matemático, por ejemplo si llegó a casarse y tuvo hijos.
¿Dónde se educó? La tradición dice que Arquímedes viajó a Alejandría, meca del saber en la antigüedad, confluencia de la sabiduría de oriente, occidente y del legado de la civilización egipcia, que congregaba en torno a su grandiosa biblioteca levantada por la dinastía de los reyes ptolomeos (descendientes de uno de los generales de Alejandro Magno y a la que perteneció Cleopatra) a los mayores astrónomos, matemáticos y geógrafos del momento. Allí podría haber conocido al genial Eratóstenes, el primero que dio una medición aproximada de la circunferencia de la Tierra y que era autor de un mapa del mundo.
También sabemos que Arquímedes murió en torno al año 212 antes de Cristo durante la Segunda Guerra Púnica, conflicto que enfrentaba a la potencia emergente de Roma, el futuro gran imperio del Mediterráneo, con la ciudad norteafricana de Cartago (fundada por emigrantes de origen chipriota y fenicio). Esa guerra se haría muy famosa en la historia antigua por la participación del general cartaginés Aníbal, el mismo que cruzó los Pirineos y los Alpes con un ejército de elefantes y aterrorizó a los romanos al invadir la península itálica. Asistimos, por tanto, a un contexto de decadencia para la cultura griega, que en pocos años acabaría siendo absorbida por Roma. Los romanos siempre tuvieron en gran estima a los griegos y en éstos encontraron su mayor inspiración artística, pero desgraciadamente no fueron capaces de asumir su legado científico y matemático e hicieron escasas aportaciones en estos campos, aunque destacasen en otros como el de la ingeniería civil o el derecho.
Plutarco, en su libro Vidas paralelas, cuenta que el general romano Marco Claudio Marcelo, que había sitiado la ciudad de Siracusa a lo largo de dos años y se había enfrentado con la resistencia de los locales (cuyo “capitán” científico habría sido el propio Arquímedes, al diseñar espejos reflectantes de la luz solar que quemaron las velas de las naves romanas), cuando finalmente logró tomarla, dio orden a sus soldados de que bajo ningún concepto hiciesen daño al gran matemático Arquímedes. Pero un soldado que deambulaba por las calles de Siracusa se encontró con Arquímedes y lo vio dibujando unos extraños diagramas en el suelo. Le pidió a Arquímedes que fuese con él a visitar al general Marcelo, pero Arquímedes rechazó la “invitación”, diciéndole al soldado que “no molestase a sus círculos” (noli turbare círculos meos, en latín, μου τούς κύκλους τάραττε, en griego), aunque no hay evidencia sólida de que Arquímedes hablase así (como tampoco la hay de que Galileo, en el juicio ante la Inquisición, pronunciase el Eppur si muove, “y sin embargo, se mueve”, o de que Newton llegase a la ley de la gravitación universal al observar una manzana que caía de un árbol -historia que, al parecer, se inventó Voltaire). ¿Qué escribía Arquímedes en la arena? Es tan difícil de contestar como si se preguntase qué escribía Jesús de Nazaret en el suelo en la escena de la mujer adúltera a la que querían lapidar. Probablemente estuviera absorto intentando resolver un problema geométrico. En cualquier caso, el oficial, irritado, clavó a Arquímedes su espada y lo mató, quizás porque pensaba que Arquímedes podía atacarlo con los instrumentos matemáticos (compases y demás) que tenía a su lado.
La historia, como es de suponer, ha sido idealizada hasta la extenuación. Arquímedes habría dado su vida por la ciencia como Sócrates lo hizo por la filosofía, máxime cuando nuestro matemático, por esta y por otras “leyendas”, ha sido convertido en icono del genio científico y en mito del intelecto inquieto, innovador y descubridor.
El ser humano siempre ha necesitado iconos, mitos, leyendas y figuras que expresen algunos de sus valores e ideales, aunque luego, cuando investiga con rigor científico y se acerca a esos personajes (sobre todo si se trata de iconos políticos, mediáticos o musicales) con espíritu crítico se lleve con frecuencia sonoros desencantos.
En la tumba de Arquímedes, supuestamente, se puso una inscripción con el diagrama de una esfera circunscrita en un cilindro de la misma altura y del mismo diámetro, pues Arquímedes se sentía especialmente orgulloso de haber demostrado que el volumen y el área superficial de la esfera eran un tercio menores que los del cilindro (volumen de la esfera = 2/3.volumen del cilindro). Esta conclusión es sólo una prueba del genio matemático de Arquímedes, porque sus descubrimientos e inventos fueron muchísimos. Comencemos por sus aportaciones a la mecánica y a la hidrostática.
Casi todo el mundo ha escuchado alguna vez el relato de cómo Arquímedes llegó al principio de la hidrostática que lleva su nombre. Vitruvio, historiador romano del siglo I antes de Cristo, explica que el rey Hierón II de Siracusa había mandado fabricar una corona de oro con forma de laurel a sus orfebres. Pero como parecía no haber otra manera de comprobar que la corona fuese de oro más que fundiéndola y midiendo la densidad del líquido resultante, pidió a Arquímedes que diseñase un procedimiento para que, sin destruir la corona, fuese capaz de determinar que la sustancia que la componía era oro puro sin adiciones de plata. El problema no era, en absoluto, fácil. ¿Cómo se puede concluir que algo es de oro si no se funde el oro sólido y se toman las medidas oportunas con el oro disuelto y líquido?
La solución vino, continúa Vitruvio en lo que seguramente sea uno de los episodios más famosos de la historia de la ciencia (y, sin duda, uno de los momentos estelares de la ciencia, como se titula el libro homónimo de Isaac Asimov, y más aún, un momento estelar de la humanidad, como el del austríaco Stefan Zweig), que ha ido pasando de generación en generación como ejemplo del triunfo del genio sobre todos los corsés: normas, convencionalismos... El genio viene y va, y está por encima de las conductas y de los tiempos, nos sugiere el relato. Arquímedes, dándose un baño, se habría dado cuenta de que el nivel del agua subía conforme él se iba sumergiendo en el agua. Enseguida, la musa del genio científico, como si se tratase de una bombilla de Edison, se le encendió a Arquímedes y pensó que podía usar ese mismo efecto físico para saber si la corona estaba hecha de oro puro o un orfebre poco honesto la había mezclado con un metal menos valioso como la plata. Mediante ese efecto podía calcular el volumen de la corona, y a partir de volumen, pesándola, su densidad, ya que la densidad resulta de dividir la masa por el volumen (densidad = masa/volumen). Si el orfebre hubiese añadido metales más baratos y menos densos que el oro, la densidad sería menor que la correspondiente a una corona del mismo peso y volumen de oro puro. Arquímedes no pudo contenerse: estaba totalmente fuera de sí, exaltado, excitado, en éxtasis, únicamente comprensible para los pocos privilegiados que han podido experimentar la alegría infinita de descubrir algo significativo para el conocimiento, y salió desnudo por las calles de Siracusa gritando “¡Eureka!” ("¡έυρηκα!" en griego), “lo he encontrado”. J.F. Champollion (1790-1832), cuando supo que había sido capaz de leer por primera vez en siglos la escritura jeroglífica de los antiguos egipcios, se presentó en el despachó de su hermano mayor y cayó desmayado ante un gozo que le sobrepasaba. Todos son herederos de Arquímedes. La historia de la ciencia nos ha deparado otros momentos de gran intensidad emocional, personal e intelectual, momentos que parecen recoger una “chispa” de eternidad, de perpetuidad, de algo inagotable e irrepetible, y que hacen a los seres humanos situarse por encima del espacio y del tiempo, del lugar y del instante. ¿Qué se debe sentir al descubrir un nuevo elemento químico, o un nuevo medicamento, o el papel de un gen importante hasta entonces desconocido, o un nuevo sistema de galaxias, o un nuevo principio físico, o descifrar una escritura antigua? No lo sé, pero supongo que es algo excepcional y, a la postre, indescriptible.
Arquímedes había descubierto un principio fundamental de la hidrostática que hoy estudian todos los estudiantes de física en el colegio, seguramente acostumbrados a resolver problemas que lo tienen como base. Arquímedes lo expuso detenidamente en una de sus numerosas obras, Sobre los cuerpos flotantes: “un cuerpo sumergido en un fluido experimenta un empuje hacia arriba equivalente al peso del fluido desalojado”, a causa de la diferencia de presión del fluido que se produce entre la parte superior y la inferior del objeto en cuestión. Esta fuerza de empuje se opone a la fuerza de la gravedad, pues actúa en el sentido contrario, y se puede expresar matemáticamente mediante la siguiente fórmula: Empuje = E = -ρgV, siendo ρ la densidad del cuerpo sumergido (que, en el sistema internacional, lleva unidades de kilogramo por metro cúbico), g la aceleración debida a la fuerza de la gravedad, que en la Tierra es de 9’81 newtons (unidad de fuerza en el sistema internacional) por kilogramo (ya que la aceleración es igual a la fuerza entre la masa, de acuerdo con la segunda ley de Newton), y V el volumen del cuerpo sumergido (para ser coherentes con las unidades empleadas, debería ir en metros cúbicos). El signo negativo es necesario porque, como se ha dicho, la fuerza de empuje se opone a la de gravedad, actuando en sentido contrario. Este empuje hidrostático es el responsable de que los cuerpos puedan flotar en el agua.
Otra de las contribuciones más destacadas de Arquímedes a la física y a la mecánica es su invención del llamado tornillo de Arquímedes, que se giraba manualmente y que resultaba especialmente útil para llevar agua de un lugar a otro y para el drenaje de los barcos, todavía empleado en algunos países. Parece, sin embargo, que dispositivos similares se usaban ya en Asiria en tiempos del rey Senaquerib (hacia el siglo VII antes de Cristo).
Arquímedes alcanzó gran notoriedad en la antigüedad por descubrir la ley de la palanca, el principio físico que rige su funcionamiento. Esta ley afirma que “las magnitudes se encuentran en equilibrio a distancias inversamente proporcionales a sus pesos”, algo que se puede derivar de las leyes de Newton y que matemáticamente puede expresarse diciendo que el producto de multiplicar la fuerza que ejerce un objeto por la distancia a la que se encuentra ese objeto del fulcro o pivote de la palanca, es igual a la fuerza que ejerce el otro objeto por la distancia al fulcro a que se sitúa el otro objeto. Se da, por tanto, un balance de fuerzas y, como consecuencia, un equilibrio estático. Lógicamente, la distancia de ese objeto al fulcro es inversamente proporcional a su peso (la fuerza que ese objeto ejerce sobre la palanca, directamente proporcional a su masa), de modo que a mayor peso del objeto, éste se situará a menor distancia para mantener el equilibrio estático, y si queremos que el cuerpo se sitúe a mayor distancia, necesariamente deberá tener un peso menor (o de lo contrario se romperá la palanca).
Según relata Papías de Alejandría, un matemático alejandrino del siglo IV de nuestra era, Arquímedes habría dicho: “Dadme un punto de apoyo y levantaré la Tierra” (en griego, “δος μοι που στω και κινω την γην”) Y es que cuando la ciencia llega a un principio, si este principio es verdaderamente universal, tiene que poder aplicarse a cualquier objeto, sea del tamaño que sea, porque también se regirá por las mismas leyes físicas. Aunque hasta Galileo y Newton (con sus Principia Mathematica de 1687) no se dispuso de un modelo físico y matemático que valiese igual para los objetos terrestres y los astros del espacio sideral (que, en la mentalidad griega, funcionaba con leyes distintas de las de la Tierra, constituyendo un verdadero “mundo aparte”), la frase de Arquímedes, sea o no legendaria, representa un precedente interesante de esa convicción que guía la labor científica: deben existir principios universales que expliquen la estructura y el movimiento de la materia por encima de tal o cual situación concreta. Sin esa pretensión de universalidad, que ha inspirado a tantos grandes hombres y mujeres a lo largo de los siglos, la labor científica carecería de sentido.
Arquímedes, además de físico e inventor, fue un gran ingeniero, según lo demuestran gestas suyas tan relevantes como el diseño de un sistema basado en el principio de la palanca que permitía mover objetos muy pesados casi sin esfuerzo, o la construcción de un gigantesco barco, el Syracusia, para el rey Hierón II y capaz de albergar a 600 personas.
Pero una de sus proezas más famosas, casi legendaria (de hecho, René Descartes, en el siglo XVII, la consideraba falsa), sería la de haber diseñado un sistema de espejos que, reflejando la luz solar que les llegaba, habrían quemado los barcos romanos que sitiaban la ciudad de Siracusa. Hace poco, en 2005, unos estudiantes del prestigioso MIT (Massachusetts Institute of Technology) intentaron reproducir lo que supuestamente habría hecho Arquímedes más de dos mil años antes. Para ello, utilizaron 127 espejos de unos 30 centímetros que apuntaban a un barco de madera situado a unos 30 metros. Tal y como cabía prever, el barco se quemó, pero sólo cuando hubo cielo despejado y el barco se quedó quieto en una determinada posición. En cualquier caso, el experimento es enormemente complicado, por las estrictas condiciones en que debe desarrollarse y porque no es fácil saber exactamente si los espejos de Arquímedes tenían algún otro dispositivo particular que los hiciese letales, así como el tipo de madera con que estaban construidos los barcos romanos, por lo que, fuese o no verdad, habría sido en todo caso muy complejo y excepcional.
Pero donde Arquímedes descolló es en el campo de las matemáticas, y es por ello, más que por sus pericias en ingeniería y mecánica, que su nombre se ha escrito con letras de oro en los libros de historia. Los griegos, a diferencia de los romanos, valoraban más el pensamiento especulativo y abstracto que las aplicaciones prácticas. Nuestra cultura, más cercana a Roma que a Grecia en mentalidad, tiende a juzgarlo todo en base a su utilidad práctica, olvidando que lo que nos hace específicamente humanos no es sólo encontrar soluciones técnicas a los problemas materiales que se nos presentan, sino, más aún, ser capaces de sobreponernos a las necesidades del momento y pensar con amplitud de miras, lo que se manifiesta en el cultivo de las disciplinas humanísticas, las artes y la teoría científica, aunque no tengan repercusiones prácticas inmediatas.
Algo en lo que Arquímedes hizo descubrimientos verdaderamente importantes es en el cálculo de áreas y de volúmenes. Hoy, sabiendo integrar y derivar, resulta más o menos complicado pero en cualquier caso posible medir el volumen o el área de una figura curva. Pero en la época de Arquímedes no se había desarrollado el cálculo infinitesimal, entre otras razones porque la noción matemática de límite, que está en la base del cálculo (descubierto por Newton, Leibniz y, parece ser, el matemático japonés Seki Kowa -afortunadamente, la historia de las ideas científicas mira cada vez más a regiones no-occidentales- en el siglo XVII), aún tardaría en llegar. Pero sin saber formalmente derivar o integrar, Arquímedes dio las fórmulas de áreas y volúmenes de figuras como la circunferencia o la esfera. ¿Cómo lo consiguió? Empleando el denominado método de las exhauciones, que consiste en inscribir la figura curva en una serie de polígonos más grandes, dibujando también un polígono más pequeño dentro de la figura curva. Cuantos más lados tenga el polígono, más se aproximará a la curva. Teóricamente, un polígono con un número infinito de lados se “acoplaría” perfectamente a la curva. Mediante esta técnica, Arquímedes pudo calcular un valor bastante aproximado del número n. “Aproximado” es ya un gran logro, entre otras cosas porque el número pi, por ser un número trascendental (y, por tanto, nunca podrá expresarse como el cociente entre dos números enteros) tiene infinitos decimales, aunque generalmente se exprese como 3,14159. El número en cuestión representa la relación entre la circunferencia del círculo y su diámetro. Los ordenadores más potentes han permitido calcular miles de millones de decimales, pero nunca se conocerá toda la secuencia porque es infinita.
Arquímedes concluyó que el valor de pi tenía que estar comprendido entre 3 + 1/7 y 3 + 10/71, algo asombroso para su tiempo y para una cultura, como la griega, que no conocía la notación posicional actual y que usaba las letras del alfabeto como números (algo que también ocurre en la cultura judía: las letras hebreas pueden tomar un valor numérico). Y como colofón de su estudio pionero sobre pi propuso la fórmula del área de la circunferencia: pi por el radio al cuadrado (A = πr2) y del volumen de la esfera V = 4/3 πr. Con el cálculo infinitesimal se puede demostrar que derivando la función que expresa el volumen de la esfera, obtenemos la fórmula para el área de la superficie de la esfera, que es, justamente, A = 4πr2. Esta fórmula también la descubrió por su cuenta Arquímedes. Con sus métodos a base de aproximaciones ofreció también un valor bastante aceptable de otro número irracional: la raíz cuadrada de 3 (√3).
Arquímedes se hizo también famoso por pretender calcular el número de granos de arena que podía contener el universo. No podía ser infinito (¡el cosmos griego era limitado y finito!), sino que tenía que estar hecho a base de miríadas de granos de arena. El problema guarda una cierta semejanza con un relato, bastante difundido, que dice que un rey muy importante le había ofrecido a un anciano sabio todo lo que quisiese. Pero, como le pasó a Herodes con Salomé, hay promesas y ofrecimientos que pueden salir muy caros, incluso inasumibles para un monarca poderoso. El anciano le pidió al rey que en un tablero de ajedrez de 8×8 casillas fuese poniendo en cada casilla el doble de granos de trigo que en la casilla anterior. Lógicamente ningún rey, por repletos que estuviesen sus graneros, podría cumplir el pedido del anciano, porque si en la primera casilla ponemos un grano de trigo y en la segunda dos, y en la tercera cuatro, y en la quinta ocho (el doble), tendremos que poner, finalmente ¡263 granos de trigo!
Arquímedes fue también capaz de calcular el resultado de una progresión geométrica. Una progresión geométrica consiste en una secuencia de números en la que cada término después del primero se obtiene multiplicando el anterior por una cantidad constante distinta de cero. El término se ha hecho célebre fuera de las matemáticas gracias al demógrafo, teólogo y economista inglés Thomas Malthus. Malthus, en An Essay on the Principies of Populations de 1798, defendía que la población aumentaba siguiendo una progresión geométrica, mientras que los alimentos lo hacían siguiendo una progresión aritmética (de la forma 1, 2, 3, 4...). Como la población crecería a un ritmo más rápido que los alimentos, la situación resultaría a la larga insostenible, desembocando en una catástrofe que para Malthus tendría lugar a mediados del siglo XIX. Esta crisis no ocurrió, al menos tal y como proponían las predicciones de Malthus, entre otras cosas porque el inglés olvidó que la mente humana es suficientemente creativa como para descubrir nuevos modos de suministrar alimentos. La progresión geométrica que resolvió Arquímedes empezaba con la unidad, y a partir de ella cada número se iba multiplicando por un cuarto (1/4), con infinitos términos en la secuencia: 1 + 1 × 1/4 + 1/4 × 1/4... El resultado no es infinito, como cabría pensar al sumarse infinitos términos, sino 4/3. La prueba era de carácter geométrico, basándose en áreas de triángulos. Siglos más tarde, otro de los grandes matemáticos de la historia, el suizo Leonard Euler (1707-1783) destacó, entre otras muchas cosas, por sus aportaciones a la suma de series infinitas, al igual que el genio indio Ramanujan (1887-1920).
Arquímedes hizo también aportaciones relevantes al estudio sobre las figuras cónicas (campo en el que también destacó el alejandrino, contemporáneo de Arquímedes, Apolonio de Perga), pero sobre todo llevó la matemática griega a su máxima expresión, fijando un listón tan alto en el rigor y en la elegancia exigibles a una demostración matemática que tardó siglos en ser superado. La medalla Fields, el “Nobel de las matemáticas” que concede en la actualidad la Unión matemática internacional a investigadores relevantes de menos de 40 años de edad, lleva grabada una efigie de Arquímedes, símbolo del poder casi infinito que tiene la inteligencia humana para descubrir, inventar y concebir.
Capítulo 7
Ver las cosas con perspectiva: el renacimiento
Pocas etapas de la historia de Europa han conocido un esplendor cultural y artístico como el que tuvo lugar durante el Renacimiento. Un mundo nuevo comenzaba para Occidente, que a la larga conllevaría cambios destacados en la sociedad y en la visión del ser humano y de la historia, dando inicio a la edad moderna. El Renacimiento es el triunfo de la creatividad, el florecimiento de una búsqueda incesante de belleza que llevó a sus protagonistas a mirar a Grecia y a Roma como fuentes de inspiración, a los clásicos, para imitar una perfección que consideraban insuperable. La grandiosidad de las principales obras de los artistas renacentistas es sólo la cara externa de una transformación mucho más profunda en la comprensión de la naturaleza y de la vida: la belleza se buscaba en el ser humano, centro de todo cuanto existe.
Los historiadores del siglo XIX habían acentuado la ruptura radical que representaba el Renacimiento con respecto a la Edad Media. Una obra paradigmática fue La cultura del Renacimiento en Italia, del suizo Jacob Burkhardt, publicada en 1860. La crítica actual, sin embargo, prefiere evitar esos excesos porque es consciente de que hay más continuidad de lo que se creía entre la Edad Media y el Renacimiento. No se puede entender a los grandes precursores del espíritu renacentista, como Petrarca y Boccaccio, sin el contexto histórico y cultural de la Europa del siglo XIV, en la Baja Edad Media. Es cierto que los genios del Renacimiento tenían como modelos a Grecia y a Roma, pero también lo es que a lo largo de toda la Edad Media los filósofos y teólogos siempre basaron, de una u otra forma, sus reflexiones en las obras de Platón y de Aristóteles. El mayor teólogo de la escolástica medieval, Santo Tomás de Aquino (1225-1274), intentó asimilar el pensamiento de Aristóteles a la teología cristiana, al igual que otros antes que él habían querido conciliar la filosofía de Platón con el cristianismo. El cultivo de las artes no fue, en absoluto, mediocre en la Edad Media (sólo hace falta contemplar las catedrales góticas de Francia, Inglaterra o España), y la investigación más rigurosa (que impulsó el físico e historiador francés Pierre Duhem a finales del XIX con su monumental Le systéme du monde: histoire des doctrines cosmologiques de Platon á Copernic en 10 volúmenes) de los escritos legados por los medievales ha demostrado que hubo auténticos pioneros, por ejemplo en las disciplinas científicas (Nicolás de Oresme, Roger Bacon, Jean Buridan...), que se adelantaron en muchos aspectos a físicos posteriores como Galileo, y cuyos trabajos podrían haber influido enormemente en los artífices de la revolución científica de finales del siglo XVI y principios del XVII. Por no hablar del extraordinario desarrollo de las matemáticas y de las ciencias experimentales con los árabes en la Edad Media durante su edad de oro (entre los siglos VIII y XV, aproximadamente), precursores en campos tan dispares como las matemáticas, la física, la química, la biología o las ciencias sociales con nombres tan relevantes como Alhazen, Jabir ibn Hayyam, Avicena o Al-Razi. Y eso sin contar a los intelectuales judíos medievales como Maimónides, sin los que no se puede entender la evolución del pensamiento y la transmisión de la cultura que está en la base misma del nacimiento de la edad moderna.
Contra los prejuicios y las frases hechas, no hay nada mejor que la información y el conocimiento riguroso. Precisamente, una de las grandes ventajas del espíritu crítico es que los historiadores han aprendido a apreciar cada etapa histórica en cuanto tal, eludiendo en lo posible comparaciones anacrónicas, extemporáneas y fuera de lugar; visiones ya formadas y, más aún, deficiencias metodológicas (que, en realidad, respondían a una falta de datos) que llevaban a clasificar unos períodos como “buenos” y otros como “malos”. Semejantes simplismos contrastan con el “redescubrimiento” actual de épocas que se antes habían sido ignoradas o a las que no se les había prestado suficiente atención.
El Renacimiento es demasiado complejo y variado como para analizar todos los elementos (sociales, políticos, intelectuales...) que estuvieron en juego. Vamos a centrarnos únicamente en lo que supuso para el mundo del arte y de la arquitectura, si bien hay que tener en cuenta que sin analizar adecuadamente ciertos factores es imposible comprender por qué surgieron determinadas formas artísticas. La ciencia, las artes y muchas otras expresiones culturales son parte de la originalidad humana y de su capacidad creativa, pero no se pueden desligar del contexto histórico, social y económico en que surgieron, de su tejido de relaciones. Sin medios técnicos, no hay ni arte ni ciencia. Sin desarrollo económico, ¿quién financia el arte, que tantas veces ha servido como exaltación -o crítica- del poder? El fin del feudalismo, predominante en la Edad Media, con el ascenso paulatino de la burguesía y de las nuevas clases dedicadas al comercio, fue clave a la hora de propiciar ese auge de las artes en el Renacimiento. Nuevamente, no se trata de restar originalidad a los creadores, sino de situarlos en su contexto real y humano para evitar la tentación de “sacralizarlos” o construir mitos en torno a ellos que luego demuestran ser exageraciones.
Italia fue el centro de esa efervescencia creativa del Renacimiento. El arte estaba en plena ebullición en Florencia, Roma, Venecia, Pisa... Italia era el arte, y el arte acudía a Italia. Ya desde la poesía de Dante Alighieri (1265-1321) inmortalizada en la Divina Comedia de este “sommo poeta”, se percibía una nueva sensibilidad en la cultura. Precisamente en esa obra, culmen de la literatura italiana, Dante sintetiza la visión medieval del universo, en la que convergían lo científico-cosmológico y lo teológico: el cielo arriba y el infierno abajo con la Tierra en el centro, descritos en forma de epiciclos y circunferencias al modo de Aristóteles y de Claudio Tolomeo; la vida humana, un peregrinaje que tiene como meta el encuentro cara a cara con Dios en la visión beatífica de que gozarían los justos. Gracias a los trabajos del arabista, académico y sacerdote español Miguel Asín Palacios (1871-1944), plasmados en La escatología musulmana en la Divina Comedia (1919), la crítica ha relativizado en cierta medida el sustrato cristiano y la originalidad del libro de Dante, al ser consciente de que éste no se puede comprender sin el influjo de movimientos que surgieron dentro del Islam y que gozaron de un grado de espiritualidad y de misticismo elevadísimo, cuya escatología (es decir, su idea del más allá) quedó reflejada en el patrón lírico que siguió Dante. Pero en cualquier caso, toda una época (la Edad Media) fluye por los versos de Dante, que pregonan ya su fin y el inicio de una nueva era. El sutil Dante, en uno de los ejercicios más tempranos de sátira social, coloca a profetas y papas en el infierno, al pagano Virgilio le obliga a permanecer en el purgatorio y en el cielo sitúa a San Bernardo de Claraval, al franciscano San Buenaventura de Bagnoregio y a su musa Beatriz, que le acompaña por las esferas celestes. Y finalmente, Dante mira a Dios como Moisés fijó los ojos en su rostro en el episodio de la zarza ardiente. En ese momento, toda la búsqueda intelectual y vital de Dante alcanza su meta más ansiada: el entendimiento pleno, la comprensión del misterio de los misterios que es lo divino y su relación con lo humano. Todo se integra en todo, todo se reconcilia con todo, todo se hace uno con todo para que, como dice San Pablo en su primera carta a los Corintios, “Dios sea todo en todos” (panta en pasin, afirma el original griego): es la aspiración máxima de todo ser que recogen las grandes tradiciones religiosas y filosóficas de la humanidad. También en el hinduismo se quiere la armonía y la unidad perfectas entre el atman de cada individuo y el brahman o totalidad universal infinita e inmutable, que es al mismo tiempo inmanente y trascendente; también la revolución francesa deseaba que más allá de la libertad y de la igualdad triunfase la fraternidad -o sororidad- entre todos los hombres y mujeres; también en Hegel la idea que está en sí, sale de sí y vuelve a sí para integrarlo todo en su tránsito por ese gigantesco proceso que experimenta el absoluto para construirse a sí mismo como totalidad; también Teilhard de Chardin concibió la evolución como una progresiva convergencia de materia y de conciencia hacia un Punto Omega...
Con Francesco Petrarca (1304-1374) y su Canzoniere, otra de las cimas de las letras italianas, o las obras de Giovanni Boccaccio (1313-1375), el humanismo irrumpía como una corriente de aire fresco en Europa. Los humanistas enfatizaban el aprendizaje de los clásicos, de la retórica y de la moral como una afirmación de la grandeza de la mente humana y de sus posibilidades casi infinitas. Se veían reflejados en los genios de Grecia y Roma porque consideraban que en la edad clásica, la humanidad había logrado una altura cultural sin parangón. Los humanistas confiaban en el ser humano, con un optimismo que en retrospectiva es casi tan ingenuo como el de los ilustrados del siglo XVIII. Quizás pensaran, y con razón, que era mejor ser optimista que no serlo, y lo cierto es que al menos ese optimismo se tradujo en cuadros, esculturas y edificios que no dejan de maravillarnos. La máxima expresión de ese optimismo humanista que compartían los grandes creadores del Renacimiento está en la Oración sobre la dignidad humana, de Giovanni Pico della Mirandola (1463-1494), una especie de manifiesto o de declaración de principios para que a nadie le quepa ninguna duda sobre las convicciones de la época. En ella, Pico della Mirandola proclama:
“A la postre me parece haber entendido por qué el hombre es el ser vivo más dichoso, el más digno, por ello, de admiración, y cuál es aquella condición suya que le ha caído en suerte en el conjunto del universo, capaz de despertar la envidia, no sólo de los brutos, sino de los astros, de las mismas inteligencias supra mundanas. Increíble y admirable. Y ¿cómo no, si por esa condición, con todo derecho, es apellidado y reconocido el hombre como el gran milagro y animal admirable?”
Y es que, de haber vivido más años, quién sabe si Pico della Mirándola no habría formulado la Declaración sobre los derechos del hombre y del ciudadano de 1789...
Un auténtico pionero del Renacimiento en las artes es el florentino Giotto di Bondone (1267-1337), llamado simplemente Giotto, porque a los genios en Italia se les conoce por su nombre de pila (Dante, Galileo, Rafael...). Giotto trabajó en Roma y quizás también en Asís con su maestro Cimabue, aunque no está claro si los famosos frescos de la basílica de San Francisco en Asís, verdaderamente excepcionales, son obra de Cimabue o del propio Giotto.
La pintura de Giotto exhibe un realismo desgarrador para la época, como el que se puede contemplar en la Crucifixión de Rimini. Pero en ninguna obra destacó tanto su talento como en los frescos de la capilla Scrovegni de Padua (también conocida como la “capilla de la arena”), con un fantástico ciclo de 37 escenas con motivos bíblicos. Las pinturas rebosan de humanidad, de realismo, de naturaleza... ¿Cómo lo consiguió Giotto? ¿Qué técnica o concepción artística incorporó, con respecto a la pintura medieval, para producir esa sensación de cercanía con las formas, los gestos y las actitudes propiamente humanas? Se trata de la perspectiva, uno de los mayores avances del momento, y que supuso un cambio fundamental en el modo de transmitir emociones, vivencias y actitudes. Con la perspectiva, el artista era capaz de reflejar al ser humano de carne y hueso no de manera prototípica o prefigurada. El rostro hablaba por sí solo. El volumen de los personajes, cómo ocupaban el espacio en altura, anchura y profundidad, iba a definir una nueva etapa en el arte, una bocanada de aire fresco en la historia de la pintura.
El término “perspectiva” deriva del latín perspicere, que significa “ver con claridad”. Con la perspectiva, es posible apreciar mejor las distancias y las proporciones. El conjunto adquiere “más vida”, porque aparenta desenvolverse en una tercera dimensión. Porque si no existiera la perspectiva, ¿qué alternativa tendríamos para representar las distancias? Habría que superponer unas figuras sobre otras, pero como la escena sólo se desarrollaría en el plano, sería enormemente difícil obtener un buen resultado. La perspectiva implica “engañar” al espectador de manera que crea que lo que ve está ocurriendo en tres dimensiones cuando, lógicamente, en un cuadro sólo se puede pintar en dos dimensiones. La representación en tres dimensiones, que parecía patrimonio exclusivo de la escultura o de otras artes, se convierte en pilar de la pintura, y la técnica de la perspectiva en uno de sus más preciados tesoros.
Si la “explosión” de la perspectiva se dio en el Renacimiento, sus orígenes se remontan ya a la Grecia clásica. El genial matemático alejandrino Euclides escribió en su Óptica uno de los primeros estudios sobre la perspectiva de los que tenemos constancia. Pero fue otro matemático no menos notable, el persa y natural del actual Irak Alhazen (935-1039), quien en plena Edad Media analizó detenidamente la perspectiva y propuso leyes geométricas, aunque como su interés era exclusivamente científico (la óptica) no aplicó sus teorías a la pintura. Alhazen poseía un intelecto extraordinario, haciendo aportaciones relevantes en prácticamente todos los campos del conocimiento, desde la matemática hasta la psicología, pasando por la física o la oftalmología. Se adelantó a Fermat en el principio de mínima acción y a Newton y Leibniz en los fundamentos del cálculo infinitesimal, además de proponer un método científico que no tiene nada que envidiar al que luego extendería Galileo en el siglo XVII. Aunque tendamos a mirar sólo a occidente cuando buscamos mentes maravillosas que hayan realizado contribuciones esenciales al conocimiento, conforme sabemos más sobre otras civilizaciones nos damos cuenta de lo limitado y reductivo de esa aproximación.
Giotto no era matemático, pero seguramente dedujo algunas reglas útiles que le permitieran pintar con perspectiva, encontrando la proporción adecuada entre la altura, la anchura y la profundidad de lo que dibujaba. Fue Filippo Brunelleschi (1377-1446) quien realizó en el siglo XV un estudio sistemático sobre la perspectiva que sirvió a los grandes pintores del Renacimiento, que como Donatello lo adoptaron rápidamente. Brunelleschi es famoso por haber diseño la cúpula de 42 metros de la catedral de Santa Maria dei Fiore en Florencia, una de las joyas de la arquitectura del Quattrocento. Dese la antigua Roma, nadie había sido capaz de construir cúpulas tan grandes que abarcasen tanto espacio sin estar sustentadas por columnas intermedias. Nadie había podido emular al Panteón de Roma, ese templo dedicado a todas las divinidades de la Roma imperial que asombra al visitante por su carácter descomunal, que culminaba la pericia técnica de los romanos. Brunelleschi sí. Construyó una cúpula que rivalizaba en grandiosidad y belleza con la del Panteón. El Renacimiento miraba con admiración a Grecia y a Roma, pero en breve los europeos empezarían a ser conscientes de que no tenían por qué sentirse inferiores a los clásicos, porque ellos mismos habían sido capaces de llevar el arte y la tecnología a cotas iguales e incluso superiores. Pero además de legarnos una cúpula como la del duomo florentino, Brunelleschi fue un verdadero innovador en el uso de la perspectiva lineal en la pintura. Con el libro Della pittura, de Leon Battista Alberti, las ideas de Brunelleschi fueron ampliamente difundidas y enseñando cómo podían calcularse las distancias aparentes de los objetos.
Una idea tan relativamente simple y que no requería de un nivel demasiado elevado de geometría, iba a revolucionar la pintura. Y si la perspectiva acabó triunfando es también porque los mayores genios de las artes del momento supieron ponerla en práctica.
Y si hay alguien que deslumbró al mundo con su dominio de la perspectiva es Leonardo da Vinci (1452-1519). Como él mismo escribió, “sin la perspectiva no se puede hacer nada bien en la pintura”. Poco se puede decir sobre Leonardo que no se conozca ya o que no haya sido objeto de multitud de libros, artículos y estudios. Leonardo, el ideal de hombre renacentista y una de las mentes más privilegiadas que han existido, poseía una curiosidad desbordante e infinita, que sólo la observación atenta de la naturaleza parecía saciar. La belleza de sus obras es en realidad la misma belleza de la naturaleza, que él quiso imitar en sus formas, en sus colores y en su inagotable variedad. Leonardo era, ante todo, un artista, un artista que encontraba en la naturaleza su fuente de inspiración más sublime. Ingeniero, físico, anatomista, inventor que se adelantó siglos al concebir artilugios como el helicóptero o el tanque..., pero ante todo artista, que en sus cuadros recogía la poesía que brota de la vivacidad del reino natural. Leonardo representa, quizás mejor que nadie antes y después de él, las verdaderas posibilidades que tiene la mente humana de superarse a sí misma y de ansiar la perfección. Leonardo no fue a la universidad, ni recibió una educación esmerada. Como hijo bastardo de un notario, su vida no fue en absoluto fácil. Aprendió lo que pudo de Verrochio, pero enseguida había superado con creces a su maestro y tuvo que buscar él solo el conocimiento. Vivió por delante de su siglo, y no fue comprendido. Trató de encontrar consuelo ante la imposibilidad de hallar respuestas para todas las preguntas que surgían de su inquieta mente en la contemplación de la naturaleza. En sus obras plasmó su fascinación por la belleza pero a la vez su desencanto ante la fragilidad de nuestra mente, incapaz de descubrir tantas cosas como habría querido Leonardo. No nos engañemos: Leonardo se adelantó a su tiempo en el siglo XV como también lo habría hecho en el siglo XXI, porque intelectos tan poderosos con un afán infinito de preguntar y de conocer nunca llegarían a encontrar la serenidad. Lo suyo habría sido siempre un continuo desasosiego, pero un desasosiego que trasluce una de las aspiraciones humanas más nobles: el ansia infinita de saber. Sus diarios dan fe de ese interés universal que fue su triunfo y su tragedia.
Leonardo, el genio universal, el milagro de la naturaleza, dejó a la posteridad obras inmortales como La adoración de los magos, La última Cena (en el convento de Santa Maria delle Grazie, en Milán) La Virgen de las rocas o San Juan Bautista, peor en ninguna ha cobrado tanta fuerza su magistral uso de la perspectiva como en la enigmática sonrisa (cuestionada por algunos críticos de arte que sostienen que el sutil empleo del sfumato por parte de Leonardo impide afirmar que la Mona Lisa esté sonriendo) de la Gioconda, que Leonardo habría legado como permanente encarnación del misterio, como queriendo que los tiempos futuros compartiesen esa angustia y esa desesperación ante lo desconocido y ante la falta de respuestas que le habían asolado a él toda la vida. La Gioconda es, desde luego, la personificación del enigma por excelencia, y seguramente el cuadro más célebre del mundo. Pero no es ni más ni menos misterioso que el talento sobrehumano que poseyó Leonardo. En palabras del historiador estadounidense Will Durant en su libro The Renaissance (1953): “¿Cómo lo catalogaremos, pues quién de nosotros posee la variedad de conocimientos y de habilidades necesarias para juzgar a un hombre tan polifacético? La fascinación por su mente polimórfica nos inclina a exagerar sus logros reales, pues fue más fértil en concebir que en producir. No fue el mayor científico, o ingeniero, o pintor, o escultor o pensador de su tiempo; se trataba sencillamente del hombre que era todo eso junto y que en cada campo rivalizaba con los mejores [...] Con todas sus limitaciones y carencias, fue el hombre más completo del Renacimiento y quizás de todos los tiempos. Al contemplar su éxito nos maravillamos ante la distancia que el ser humano ha recorrido desde sus orígenes, y renovamos nuestra fe en las posibilidades de la humanidad”.
No menos genial que Leonardo fue Michelangelo Buonarroti, Miguel Ángel (1475-1564), porque la Italia de los Médici si algo dio en abundancia es mentes extraordinarias. Florencia, la ciudad renacentista por antonomasia, había cogido el testigo de urbes como Bizancio en la Edad Media o Alejandría en la antigüedad clásica que en su tiempo habían reunido a los más ilustres cultivadores de las ciencias y de las artes. Si el talento llama al talento, y el conocimiento llama al conocimiento, en ciudades como Alejandría, Bizancio o Florencia hubo tal concentración de sabiduría y genialidad que es inevitable que soñemos con utópicos mundos donde sólo imperara el deseo de entender y de crear.
Miguel Ángel ha sido uno de los mejores escultores de la historia. Su David, que se conserva en Florencia, esculpido en mármol de carrara y terminado en 1504, es difícilmente superable. Aunque nunca se pueda decir “basta”, hay creaciones humanas de semejante plenitud y perfección que parece imposible realizar algo mejor. ¿Habremos acaso tocado el límite, la cima de la belleza? Y si la leyenda es cierta, cuando Miguel Ángel terminó su Moisés en Roma, lo miró fijamente y le ordenó: - “¡Habla!”
La gran idea de mentes maravillosas como Miguel Ángel o Leonardo es, más que una innovación científica o tecnológica, la convicción de que el ser humano podía competir con la naturaleza en encontrar la belleza y el deleite. Si la naturaleza nos desafía a encontrar las leyes que rigen su funcionamiento y que los científicos han buscado afanosamente durante siglos, también nos reta a construir algo más hermoso, vivo y creativo. Eso es lo que debieron de pensar los genios del Renacimiento, y en particular Miguel Ángel cuando pintó los frescos de la Capilla Sixtina que se pueden contemplar en el Vaticano. Si Dios ha acercado tanto su dedo omnipotente al ser humano como pintó Miguel Ángel, es porque ha querido comunicarle un poder casi divino, y no hay nada más divino que la oportunidad de crear, de hacer surgir, de dar vida. Pero el Dios de Miguel Ángel no llega a tocar al hombre, porque el hombre sigue siendo humano, que aspira a lo divino sin jamás alcanzarlo.
La grandeza de las pinturas de Leonardo o Miguel Ángel sólo es comparable a la de los cuadros de Raffaello Sanzio, Rafael (1483-1520). Natural de Urbino, Rafael conoció a Leonardo y Miguel en Florencia. La influencia de Leonardo se nota especialmente en el uso que hace Rafael de la técnica del chiaroscuro (alternancia de luces y sombras) y del sfumato.
Pero fue en Roma y bajo el patrocinio de los papas renacentistas donde Miguel Ángel alcanzó su fama. Julio II, perteneciente a la distinguida familia de los Rovere (que junto a otros linajes como los Colonna, Farnese, Borghese o Medici se disputaban el papado, institución que casi consideraban como una posesión propia, al igual que podían tener tal o cual palazzo en Roma o Florencia) y admirador del genio de Rafael, le encargó multitud de trabajos, como por ejemplo decorar sus habitaciones privadas en el Vaticano. Las cuatro Stanze di Raffaello en los palacios vaticanos ocultan entre sus tesoros un cuadro tan formidable como La Escuela de Atenas, que en sus 5 por 7’7 metros presenta a los grandes sabios de la Grecia clásica. Platón está paseando junto a su discípulo y crítico Aristóteles, Platón apunta al cielo, al mundo de las ideas, mientras que Aristóteles dirige su dedo al suelo, a la naturaleza física que también había querido estudiar como científico. Claudio Tolomeo y Eratóstenes hacen sus cálculos astronómicos mientras el filósofo Diógenes, el mismo que osó decirle a Alejandro Magno que se apartase porque le quitaba sombra, muestra una actitud de desprecio hacia todo lo material. La Escuela de Atenas sintetiza mejor que ninguna otra obra del Renacimiento la admiración que esa época sentía por la cultura clásica, por la Grecia que había dejado un legado tan sublime de ideas y descubrimientos.
Rafael sustituyó al fallecido Bramante como arquitecto principal de la nueva basílica de San Pedro, pero murió muy temprano, en 1520. Si creemos al historiador Giorgio Vasari, su muerte el día de Viernes Santo de 1520 se debió a una noche de demasiada “actividad” con una mujer conocida como La fornarina (“la panadera”), cuyo verdadero nombre habría sido Margarita Luti, que le habría provocado unas extrañas fiebres que acabarían llevándoselo a la tumba. Hay amores que matan, también para un genio como Rafael.
La muerte de Rafael señala el fin de una época. 1527, con la invasión de Roma por parte de las tropas imperiales (compuestas en su mayoría por soldados protestantes) del católico emperador Carlos V para enfrentarse a la coalición formada por el papado (ocupado por el Medici Clemente VII), la república de Venecia, el ducado de Milán, Florencia, Francia e Inglaterra (la “liga de Cognac”, es decir, todos contra los Habsburgo) y el estrepitoso saqueo de la Ciudad Eterna a que dio pie, suele tomarse como una fecha de referencia a la hora de marcar el fin del Renacimiento. Roma, meca de las artes, destruida por un ejército que estaba al mando de un monarca católico como Carlos V. Además, la derrota de la liga de Cognac hizo que los Medici, los grandes mecenas de las artes durante el Renacimiento, fuesen expulsados de Florencia (aunque su exilio no duró mucho, porque a los dos años estaban de vuelta en la capital toscana). Era el ocaso de una de las épocas más fecundas que ha vivido el arte.
Capítulo 8
Un pionero de la globalización: Gutenberg
Uno de los rasgos más interesantes del mundo contemporáneo es que se ha convertido en una sociedad de la información. Cada vez, y sobre todo gracias a Internet, más personas tienen más y mejor acceso a las fuentes de la información. Antaño, los poderes políticos y económicos monopolizaban la producción de información y de conocimiento. La gente oía lo que ciertas instancias querían que oyese. Aunque todavía hay mucho por hacer en esa tarea tan importante de democratización de la información y del acceso al conocimiento (a recibirlo y a producirlo), no podemos negar que se han dado pasos fundamentales a la hora de difundir la cultura, la educación y la información, de modo que es cada vez más difícil que alguien, por poderoso (por ejemplo, en el plano económico) que sea, consiga resultar inmune a la crítica o logre ocultar sus hipotéticos errores.
Son muchas las ocasiones en las que la tecnología se ha puesto al servicio del conocimiento y de su extensión. Pensemos, por ejemplo, en la fabricación de papiros en el antiguo Egipto o en el uso del papel y de la tinta por parte de los chinos. Durante la Edad Media, las grandes obras de la antigüedad clásica y del primer milenio de la era cristiana (libros de científicos, matemáticos, geógrafos, literatos, teólogos...) tenían que copiarse a mano, aunque ello supusiese que en muchas ocasiones, por la inercia o incluso la malicia del copista, esas obras llegasen deformadas o mutiladas. De hecho, suele decirse que el mejor copista era precisamente el que no sabía leer, porque así se limitaba a reproducir gráficamente lo que encontraba en el manuscrito, y se corría un menor riesgo de que al que copista le fallase la intuición y confundiese palabras y se las inventase. Contradicciones de la vida, se prefería la ignorancia a la formación.
Se tardaba bastante tiempo en copiar una gran obra, siempre en función de su longitud, y la producción científica y humanística se veía sumamente limitada y constreñida. Además de que eran pocos los privilegiados que podían dedicarse al saber, y de que no existía la libertad de investigación en el sentido moderno, los libros que ya se conocían y los que se escribían tardaban muchísimo en llegar a los centros de conocimiento e intelectualidad, y más aún al resto de las personas, a las que prácticamente estaba vedado, por razones ideológicas y técnicas, el acceso a esa educación.
Pero ocurrió algo formidable y maravilloso, algo que cambió para siempre la historia universal y que permitió que la investigación, la difusión del saber y la creatividad intelectual humana creciesen de manera asombrosa, casi exponencial: la invención de la imprenta. No sólo se consiguió con este genial invento difundir antes, más y mejor las obras de la antigüedad y del presente, sino que se pusieron las bases de un nuevo modelo de sociedad. Si hoy nos hemos acostumbrado a interpretarlo todo a la luz del fenómeno innegable de la globalización, y nos damos cuenta de que vivimos en una aldea global regida por el intercambio (científico, tecnológico, económico, cultural, artístico, religioso...) donde todo pasa a ser cercano, y donde cada vez menos cosas son capaces de sorprendernos, conviene recordar que uno de los pioneros de este proceso fue precisamente Johannes Gutenberg, el inventor de la imprenta.
Gutenberg nació en la ciudad alemana de Maguncia (Mainz), se cree que el año 1400, en un tiempo marcado por la transición de la Edad Media al mundo renacentista, humanista y después moderno. Para ser justos con el mundo medieval, tenemos que reconocer que si por algo se caracterizaba esa época era por la movilidad. Un estudiante nacido en España no tenía ningún problema en desplazarse, si podía permitírselo, a las grandes universidades europeas (París, Oxford, Bolonia...). En los círculos académicos, la lengua oficial era el latín (como hoy, en los círculos científicos, económicos y de muchos otros campos lo es el inglés, o en la diplomacia lo fue, hasta no hace mucho, el francés). Aunque en Europa no existiese una unificación política propiamente dicha, sí la había, en cierta manera, en el plano religioso y cultural. Existía, por así decirlo, un “espacio cultural” europeo. La Reforma protestante, en el siglo XVI, vino a sellar un proceso de ruptura en el seno de la sociedad europea que se remontaba a antes, pero que cristalizó en la división de Europa en dos a causa de las diferencias religiosas, convertidas también en diferencias políticas. La cultura de los distintos países se iría haciendo cada vez más distante, aunque fuese precisamente la imprenta y los cambios tecnológicos y sociales que propició quienes acabasen, finalmente, construyendo nuevos espacios de encuentro entre pensadores y científicos que fueron neutralizando, lentamente, el aislamiento por razones políticas o religiosas. La imprenta contribuyó, es cierto, a la consolidación de la Reforma protestante al difundir ampliamente los escritos de autores como Lutero o Calvino, y, por tanto, a la escisión cultural del mundo occidental. Pero también ha sido clave históricamente al tejer nuevas redes de relación y de intercambio a lo largo del globo.
Johannes Gutenberg procedía de una distinguida familia. Su padre era un rico comerciante, casado desde 1386 con Elsa Wyrich, de ascendencia burguesa. Tuvieron tres hijos: Friele, Else y Johann. Las revueltas sociales del año 1411 contra las clases acomodadas podrían haber provocado la salida de la familia Gutenberg de Maguncia, y seguramente se habrían trasladado a unas posesiones que la madre de Johannes tenía en Eltville am Rhein. No disponemos de muchos datos biográficos de Gutenberg, al menos en sus primeros años, pero parece que estudió en la Universidad de Erfurt (la misma por cuyas aulas pasaría, casi un siglo más tarde, Martín Lutero), en el centro de Alemania.
Nuevamente, las lagunas documentales abren un paréntesis de varios años de la vida de Gutenberg sobre los que no sabemos nada seguro. Sí consta que en 1434 vivía en Estrasburgo (actual Francia), donde podría haber trabajado como orfebre.
¿Cuándo inventó Gutenberg la imprenta? Como suele ocurrir, al hablar de “invento” no queremos decir que, de repente, como por arte de magia, Gutenberg ya tuviera en mente el diseño final. Hay un proceso por el que a partir de artilugios más sencillos, el inventor va concibiendo modos más eficientes de mejorarlo. El genio no consiste sólo en tener ideas grandiosas y repentinas (aunque tampoco podemos negar que la intuición juega un gran papel en los grandes creadores, pensadores y científicos), sino en tener amplitud de miras y hacer que esas ideas “sueltas” acaben sirviendo a un proyecto de mayor calado. De poco sirve que a alguien llegue a la conclusión de que la velocidad de la luz debe ser independiente del movimiento del observador si no es capaz de construir una teoría que unifique ésas y otras ideas u observaciones en un todo más amplio y sistemático. Descubrir lo primero supone, claro está, ser un buen científico; llegar a la teoría de la relatividad significa ser un genio.
Por tanto, y aunque las leyendas y cuasi-mitologías que se escriben de los personajes célebres a veces quieran presentarnos sus descubrimientos o inventos como “rayos de luz” caídos del cielo (pensemos en la manzana de Newton), la historiografía acaba encontrando no pocos pasos intermedios, y lo que al principio era una única chispa, al final resulta ser una “exposición prolongada” a los destellos lumínicos.
En 1448, Gutenberg regresa a su ciudad natal de Maguncia, y gracias a un préstamo de su cuñado Arnold Gelthus habría levantado un negocio que al cabo del tiempo se transformaría en su célebre imprenta.
¿Qué aportó, específicamente, Gutenberg con respecto a los prototipos de imprentas que habían aparecido antes que él? Las placas metálicas (Gutenberg era, ante todo, un orfebre, un especialista en el trabajo y manejo del metal) con la forma de las diferentes letras del alfabeto y que, con tinta, conseguían “imprimir” su figura en el papel. Un “tipo” metálico independiente para cada placa, que podía usarse en más de una página, y que además aseguraba que las letras fuesen de la misma forma. Aunque ya en la China del siglo XI y en la Corea del siglo XIII se habían producido modelos similares, el mérito de Gutenberg es indiscutible, por ser el primero en el mundo occidental en fabricarlas y, más aún, por haber contribuido decisivamente a su extensión, sustituyendo las más rudimentarias tallas de madera por placas metálicas móviles, mucho más prácticas.
Como con el huevo de Colón, las cosas parecen fáciles a simple vista, pero la destreza técnica que se requería para reproducir, letra por letra y mediante un dispositivo mecánico todo un manuscrito, era enorme. No se trataba, desde luego, de una tarea sencilla. Los patrones para las letras del alfabeto se cortaban en pequeñas barras de acero (las patrices), formando una serie de troqueles que, impresos sobre cobre, generaban matrices o moldes con las formas de las letras, y que a su vez podían responder a diferentes modelos (como las fuentes -times new roman, arial...- que hay en los procesadores de texto de los ordenadores). Así era capaz de reproducir caligrafías sumamente estilizadas o complejas, difíciles de por sí para copiarlas a mano: es la base de la tipografía, de la combinación de esos “tipo móviles” para reproducir textos. Gutenberg fue no sólo un técnico, sino un artista de la impresión, llegando incluso a preparar dos modelos de cada letra: la letra separada y aislada, y la letra unida a otra letra. Así, colocando correctamente las distintas placas móviles de modo que reprodujesen una página de un manuscrito, se podían sacar tantas copias como se quisiesen: bastaba con volver a poner esas mismas placas, con tinta, sobre otra hoja de papel, y se copiaba el mismo texto. Luego, cambiando el orden de las letras para adaptarlo al de otro manuscrito o al de otra página del manuscrito, se podía copiar otro texto. La industria de la impresión no había hecho más que nacer.
El éxito del invento de Gutenberg fue tal que rápidamente surgieron talleres de impresión por toda Europa: Mentel en Estrasburgo, Pfister en Bamberg, Sweynheim en Subiaco y Roma ya en 1464, Johann von Speyer en Venecia en 1469...
Gracias a la financiación de Johann Fust, en 1452 Gutenberg estaba preparado para comenzar la impresión de la Biblia de Gutenberg, que finalmente vio la luz en 1455, escrita en latín a doble columna y con 42 líneas por columna. Una auténtica joya. Sin embargo, el fallo a favor de Fust, que le había reclamado a Gutenberg la devolución del dinero prestado, hizo que el control de la edición impresa de la Biblia pasase al financiero y no a Gutenberg, que estaba ahora arruinado. Triste destino para quien merecería haber sido el hombre más rico de su tiempo sólo por el valor y la influencia de su invento. Al parecer se recuperó y volvió a establecer algún que otro negoció de impresión, y en enero de 1465 fue nombrado miembro de la corte del arzobispo Adolfo de Nassau, recibiendo el título de Hofmann (cortesano) y el estipendio asociado al cargo. Debió de morir a finales de 1467 o principios de 1468, siendo enterrado en la iglesia de los franciscanos de Maguncia, destruida más tarde, por lo que su tumba no ha sido encontrada.
¿Qué decir de la influencia de Gutenberg? Poco podemos añadir a lo que se ha escrito al respecto. Es difícil minimizar el impacto del invento de Gutenberg en la gestación del mundo moderno. Lutero escribió, sí, sus 95 tesis y las colgó en la puerta de la iglesia de Wittenberg el 31 de octubre de 1517, pero sin una imprenta que las hubiese reproducido y difundido fácilmente, es probable que no hubieran dejado de ser una mera disputa escolástica sobre las indulgencias sin repercusiones públicas. El rápido acceso que se tuvo a los escritos de Lutero y de los demás reformadores, también por parte de la gente sencilla, hizo posible que la “batalla de las ideas” entre católicos y protestantes, lejos de ser sólo un conflicto militar, adoptase una proyección mucho mayor: por primera vez, grandes capas de población eran capaces de leer directamente y sin intermediarios sus escritos. En otras palabras: quien supiese leer, podía saber qué decía Lutero exactamente. Antes, los “filtros” impuestos por los sucesivos copistas, muchos de ellos interesados en que sólo saliesen a la luz ciertos fragmentos de un texto y no otros, impedían conocer los escritos de un autor de manera directa. De las controversias de los primeros siglos de la era cristiana con gnósticos o filósofos paganos sólo nos han llegado, por lo general, los escritos de sus oponentes ideológicos (teólogos, Padres de la Iglesia...), y lo poco que hemos logrado conocer sobre el pensamientos de esos otros autores iba “impregnado” del filtro de sus adversarios. Por poner un ejemplo, Orígenes, uno de los grandes teólogos de la Escuela de Alejandría en el siglo III de nuestra era, escribió una famosa obra apologética defendiendo la religión cristiana de los ataques del filósofo Celso: el Contra Celso, redactado hacia el año 248. Como los escritos de Celso no se conservaron o fueron destruidos, las únicas referencias al pensamiento de Celso nos vienen de Orígenes, que, desde luego, no podía ser parcial y desapasionado a la hora de exponer las ideas de su contrincante. Lo mismo ha sucedido con muchos autores que, considerados en su momento, como heréticos o subversivos, vieron cómo sus escritos eran eliminados del mapa. La moderna crítica literaria trata de reconstruirlos fielmente, pero es una empresa muy complicada.
Con la imprenta, el “filtro” del copista y del comentador se fue superando poco a poco. Lutero, un escritor muy prolífico que produjo un sinfín de obras, se cuidó mucho de que éstas se difundieran en forma de folletos impresos que llegaban rápidamente a príncipes, teólogos, intelectuales, cortesanos y gentes del pueblo que pudiesen leerlos. Así, las dimensiones de su enfrentamiento con el papa de Roma alcanzaron niveles hasta entonces desconocidos e imprevistos, lo que favoreció los intereses del hasta entonces monje agustino. Las noticias se difundían tan deprisa que la expansión de las ideas de Lutero resultaba irreversible e imparable.
La imprenta ponía de esta manera al lector directamente frente al texto, difundiendo copias del mismo con suma rapidez. Esa inmediatez, que prescinde de intermediarios, es una de las características que han configurado el mundo moderno. El pensamiento moderno ha querido deshacerse de mediaciones (ya fuesen históricas o religiosas) para ponerse “solo ante el peligro”, solo ante la verdad. René Descartes (1596-1650) quizás, junto con Lutero y Galileo, el hombre que ha participado de manera más significativa en el nacimiento de la cultura moderna, no se fía de las tradiciones filosóficas que le habían enseñado en la escuela. Decide repensarlo todo él solo. Duda de todo, porque no quiere aceptar nada de lo que no esté totalmente convencido. De nada le sirven las mediaciones y los mediadores: la verdad está ahí, y el ser humano, con su inteligencia y su razón, debe ser capaz de descubrirla. Aunque la experiencia demuestre que no siempre podemos prescindir de toda mediación y que nunca logramos ser completamente inmunes al contexto en que vivimos, siempre es un reto para cada persona intentar adquirir una cierta independencia y espíritu crítico en su trayectoria intelectual y social. Y para ello, es fundamental acudir a las fuentes (el lema de los humanistas del siglo XVI: ir ad fontes) directamente, leer a los autores y formarse un juicio maduro, profundo y coherente. Sin Gutenberg y su imprenta, este deseo habría sido mucho más complicado, por no decir imposible.
Capítulo 9
Copérnico y el heliocentrismo
Una de las expresiones más acabadas de la ciencia griega era la obra del astrónomo Claudio Tolomeo (90-168 d.C.): un universo con la Tierra en el centro y todos los astros describiendo circunferencias (símbolo, para la mentalidad helénica, de perfección y realización) en torno a ella. En total, Tolomeo necesitó 39 epiciclos o pequeños círculos para describir con precisión las órbitas de los astros alrededor de la Tierra. Su teoría, conocida más tarde como geocentrismo por el papel que ocupaba la Tierra como centro del cosmos, se había transmitido con gran veneración a lo largo de los siglos. Los astrónomos árabes estudiaron cuidadosamente el Almagesto, el principal escrito de Tolomeo, pero como mucho añadieron algún que otro súper-epiciclo a los que ya había determinado Tolomeo.
Puede decirse, por tanto, que desde la edad de oro de la astronomía griega al término de la Edad Media, existía en occidente un modelo cosmológico claro y definido: el geocentrismo tolemaico. Entre medias, se habían realizado algunas correcciones según los datos que se conseguían observando directamente los astros (no olvidemos que el telescopio no surgirá hasta el siglo XVII), medidas que todavía hoy nos sorprenden por su exactitud. Las culturas antiguas, ya antes de los griegos, habían logrado un desarrollo en las técnicas de medición de las órbitas de los astros verdaderamente asombroso. Egipto, las culturas de Mesopotamia o los mayas en América Central habían producido calendarios enormemente elaborados, con un rigor a todas luces encomiable, dado los medios de que disponían (por ejemplo, una cultura como la maya que desconocía, al menos según nos consta, la rueda y el uso del metal). El interés que la humanidad ha demostrado a lo largo de los siglos por el firmamento, por lo que más lejano le resultaba pero a la vez más misterioso, fascinante y divino, es una metáfora, pero bastante certera, de esa contradicción que siempre se da entre lo que somos y lo que aspiramos a ser. El ser humano pertenece a la Tierra, su mundo es sumamente limitado, por gigantesco que a simple vista nos parezca el planeta. Pero no hay nada tan específico y propio de nosotros como el inconformismo y la insatisfacción: nunca hemos querido resignarnos a ser sólo seres que habitan la Tierra, sino que hemos mirado a lo alto, a lo que nos sobrecogía, en busca de preguntas y de respuestas, en busca de conocimiento y de inspiración. Siempre hemos querido superarnos a nosotros mismos. Y la ciencia es, quizás, una de las empresas que hemos acometido que mejor reflejan este deseo.
Y vino Copérnico. Si el poeta inglés Alexander Pope, en el siglo XVIII, escribía, en referencia a Newton: “La naturaleza y sus leyes yacían ocultas en la noche. Dios dijo: -¡Sea Newton!, y todo se hizo luz” (“Nature and its laws lay hid in night. God said: -Let Newton be, and all was light”), algo similar podríamos decir de Copérnico. Antes de Copérnico, la mentalidad común estaba como hechizada por el modelo tolemaico. Y no era para menos. Tolomeo había conseguido dar forma a lo que para muchos eran meras evidencias. La Tierra no se mueve: nos parece que se mantiene inmóvil, y al igual que la Luna gira alrededor de la Tierra, hecho comprobado, ¿por qué no iban a hacerlo también los demás planetas y astros, incluyendo el Sol? Por otra parte, ¿por qué no iba a ser la Tierra el centro de la Creación? Dios había hecho del ser humano, del varón y de la mujer, el culmen de su obra, y era lógico suponer que el lugar que les había dado para que lo cultivasen y trabajasen fuese también el culmen de esa obra, su mismísimo centro.
Es fácil, pasado tanto tiempo y con la avanzada tecnología que tenemos hoy en día, darse cuenta de cosas que para nosotros son ya obvias. Pero lo increíble en el ocaso del mundo medieval es que surgiese alguien capaz de contradecir lo que parecía tan evidente y en consonancia con el sentido común (facultad ésta que, desgraciadamente, muchas veces tiende a defraudarnos).
Los historiadores de la ciencia nos tienen acostumbrados a probar que, en realidad, nadie inventó nada ni fue el primero en proponer nada. Siempre se encuentran precedentes, por remotos que sean, a los grandes genios y a las grandes teorías: precedentes de Darwin, de Einstein, de Kant... Hay precursores de Copérnico: pensemos en Heráclides Póntico, en el siglo III antes de Cristo, o en el comentario en sánscrito a los Vedas escrito en el siglo I llamado Vishnu Purana, o en el astrónomo indio Aryabhata, que anticipó conceptos copernicanos casi mil años antes del genio polaco... Pero, por relevantes que fuesen esos precedentes, sin ciertas figuras esos cambios en la mentalidad de una época y en el desarrollo de las ciencias y del conocimiento en general no hubieran sido posibles, igual que, por muchos precedentes que se quieran buscar a Lutero (ya sea en el teólogo de Oxford del siglo XIV Juan Wycleff, o en el reformador checo Juan Hus), sin Lutero no habría existido la reforma protestante, o al menos no habría tomado la dirección que a la larga mostró. Las cosas no surgen de la nada, y uno de los grandes logros de las ciencias sociales es precisamente desentrañar las estructuras y los contextos que permiten que una idea, un descubrimiento o una propuesta política triunfen. Pero el riesgo que podemos cometer al centrarnos excesivamente en los elementos “externos”, objetivos e impersonales de los grandes acontecimientos es el de olvidar la singularidad de sus protagonistas. De hecho, un historiador y filósofo de la ciencia del siglo XX de la altura del norteamericano Thomas Kuhn (1922-1996), en su libro La estructura de las revoluciones científicas (publicado en 1962), que presenta un enfoque sociológico de la historia de la ciencia (en contraposición a la aproximación más racionalista del pensador austríaco afincado en Londres Karl Popper), pone a Copérnico y su contribución al progreso de la astronomía como ejemplo prototípico de lo que es una revolución científica. Frente al período de ciencia normal que había seguido a la obra de Tolomeo, en mayor o menor medida aceptada por todos, Copérnico supuso una verdadera ruptura con la tradición científica que le precedía, una ruptura que llevó a otro tipo de ciencia y que, en este sentido, sí puede considerarse una revolución. Y un filósofo de la talla de Immanuel Kant (1724-1804) compara, al comienzo de su Crítica de la Razón Pura, su nuevo paradigma de pensamiento con la revolución copernicana. Copérnico, en definitiva, es sinónimo de cambio.
Pero, ¿quién fue este hombre, Copérnico, que revolucionó la visión clásica y medieval del universo y que siempre es recordado como ejemplo máximo del visionario y del innovador en el campo del conocimiento?
Se han escrito muchas biografías de un personaje tan influyente en la historia intelectual y social como Copérnico, pero siempre que se vuelve a repasar su vida es interesante detenerse en la formación humanística, universal y verdaderamente renacentista que recibió.
Nicolás Copérnico había nacido en la ciudad polaca de Torún en 1473, en un momento fascinante en la historia de Europa. Italia, cuna y meca del Renacimiento, con ciudades como Roma, Florencia o Bolonia, constituía uno de los núcleos intelectuales más relevantes del continente. Tras la caída de Constantinopla (la segunda Roma que Constantino en el siglo IV había convertido en capital de su imperio) a manos de los turcos otomanos en 1453, muchos grandes eruditos del antiguo imperio bizantino habían emigrado a las ciudades europeas, especialmente a las italianas, que por tanto vivían una ebullición de ideas y de intercambio de conocimientos. Y, si tenemos en cuenta que no mucho después de nacer Copérnico, en 1492, se descubrió lo que a la postre resultó un nuevo mundo, podemos situarnos en el contexto de innovación, hallazgo y efervescencia intelectual que experimentaba Europa por aquel entonces.
Su padre era un negociante acomodado, pero falleció cuando Copérnico sólo tenía 10 años. Su madre se apellidaba Watzenrode, y el hermano de ésta, Lucas Watzenrode, se encargaría de la educación de Copérnico. Su tío llegaría a ser obispo de Warmia (una diócesis polaca cuyos orígenes se remontaban a tiempos de la Orden Teutónica y que actualmente es sede arzobispal), y la posición eclesiástica de su tío ayudó a Copérnico en sus estudios y en su carrera.
En 1491, Copérnico comenzó a estudiar en la prestigiosa Universidad Jagelloniana de Cracovia, todavía hoy una de las de mayor renombre de Polonia, y fue probablemente allí donde un profesor, Albert Brudzewski, avivó en él la pasión por la astronomía. Cuatro años pasaría en Polonia hasta que viajó a Italia, por entonces meca del peregrinaje de quienes buscaban conocimiento y formación, casi como hoy la gloria de poder participar en el avance de la ciencia se persigue en América. Copérnico estudió leyes y medicina en las universidades de Bolonia (que había sido uno de los principales centros de estudio de las disciplinas jurídicas en la Edad Media) y Padua. Su tío, el obispo de Warmia, habría querido que su sobrino alcanzase también la dignidad episcopal, y para ello estuvo dispuesto a financiarle la mejor educación y, cómo no, el estudio del derecho canónico (las leyes de la Iglesia, sistematizadas durante la Edad Media por autores como Graciano o Raimundo de Peñafort) en la universidad de Ferrara. Pero como tantas veces, los planes se truncaron. Las vocaciones “forzadas” raramente triunfan, y en el caso de Copérnico, fue el encuentro con el astrónomo Domenico María Novara da Ferrara lo que influyó decisivamente en su posterior decantación por las ciencias, quizás tanto como el matemático y profesor de Cambridge Isaac Barrow lo haría en su discípulo Isaac Newton.
Cuando en 1497 su tío fue nombrado obispo de Warmia, Nicolás recibió una canonjía en Frauenburg (Frombork), una preciosa ciudad cercana al Vístula en la que viviría muchos años y en la que escribiría su principal obra. Este cargo suponía una valiosa retribución económica. El hecho es que Copérnico nunca fue ordenado sacerdote, y tanto es así que cuando en 1531 su obispo amenazó con retirarle el beneficio que le correspondía por su condición de canónigo si no aceptaba hacerse sacerdote, Copérnico siguió rechazando la ordenación. Ha habido, indudablemente, grandes astrónomos que sí fueron sacerdotes (por ejemplo, en el siglo XX, uno de los precursores de la teoría del Big Bang, el belga Georges Lemaître), si bien Copérnico no pertenece a esa lista.
Aunque había recibido el nombramiento de canónigo, Copérnico rehusó volver a Polonia hasta que pasase el gran jubileo de 1500, y aprovechó su estancia en Roma para impartir clases de astronomía y realizar observaciones astronómicas, como la de un eclipse lunar del 6 de noviembre de 1500 que se vio desde la Ciudad Eterna. En conjunto, Copérnico se llevaba de su estancia italiana una formación pluridisciplinar, una cultura enciclopédica que incluía astronomía, matemáticas, medicina, griego y derecho y que indudablemente contrasta con la férrea especialización actual (si bien ésta, a la larga, se ha demostrado más fructífera para el progreso científico y tecnológico).
En 1501 Copérnico viajó a Frauenburg, pero enseguida volvió a Italia para completar su doctorado en derecho canónico en la universidad de Ferrara, título que obtuvo en 1503. Además, la lectura de autores clásicos como Cicerón y Platón, que recogían opiniones de autores antiguos discrepantes en cierto modo con una visión geocéntrica del universo, pudo haber resultado determinante en su obra. En cualquier caso, Copérnico regresó a Polonia tras haber terminado sus estudios académicos en Italia. Copérnico nunca se dedicó profesionalmente a la astronomía. La figura del científico-profesor que vive de sus investigaciones y de sus clases (como en el caso de Newton en su cátedra lucasiana de Cambridge) aún no existía. La mayoría de los eruditos estaban relacionados con oficios eclesiásticos, y sus observaciones científicas ocupaban, en todo caso, parte de su tiempo libre. Aún en el siglo XVII, el gran científico y matemático alemán Leibniz vivía de su labor como diplomático e historiador de la aristocrática casa de los Brunswick, sin ocupar puesto académico alguno. Y más cercano a nuestro tiempo, ni Darwin ni Freud ocupaban cátedras universitarias cuando elaboraron sus teorías. De hecho Copérnico, profesionalmente, se dedicó al cobro de impuestos e incluso escribió sobre el valor del dinero (tema típico de la posterior teoría económica), además de tener una posición en la iglesia-colegiata de la Santa Cruz de Breslau, en Silesia. Para muchos autores fue precursor del economista inglés Thomas Gresham en su distinción entre el dinero “malo” y el “bueno”. También Copérnico, al que desde luego no le sobran ni le sobrarán competidores en el jugoso pastel de ser el iniciador del modelo heliocéntrico, tenía derecho a adelantarse a alguien en su campo respectivo.
Y llegamos a la obra más famosa de Copérnico. Si hubiese que redactar una lista con los títulos que más impacto han ejercido en el desarrollo de las ciencias naturales, junto a libros como los Diálogos de Galileo, los Principia Mathematica de Newton o El Origen de las especies de Darwin habría que incluir el De Revolutionibus Orbium Coelestium de Copérnico, que le llevaría décadas hasta verla publicada.
En 1514, Copérnico distribuye entre sus amigos lo que acabaría siendo el germen del De Revolutionibus: el Commentariolus (algo así como “Pequeño comentario”), que prefirió no firmar, y que ya contenía los fundamentos del nuevo modelo heliocéntrico. En esta pequeña obra, que no se llegó a editar hasta 1878, Copérnico daba siete axiomas que han despertado la curiosidad de los estudiosos por su originalidad. Son los siguientes:
- No hay un único centro en el universo (una especie de afirmación programática que se anticipa, aunque con matices, al principio de relatividad en física).
- El centro de la Tierra no es el centro del universo.
- El centro del universo está cerca del centro del Sol (por supuesto, el minúsculo universo conocido en tiempos de Copérnico).
- La distancia de la Tierra al Sol es mínima comparada con la distancia a las estrellas (una cantidad tan baja en proporción que hoy denominaríamos, según la jerga científica, “despreciable”)
- La rotación de la Tierra da cuenta de la rotación diaria aparente de las estrellas.
- l ciclo anual aparente de los movimientos del Sol está causado por el giro de la Tierra en torno a él.
- El movimiento de retrogradación aparente de los planetas lo causa el movimiento de la Tierra, desde la que se sitúa el observador.
Puede demostrarse, como han notado distintos historiadores, que los axiomas 2, 4, 5 y 7 en realidad se pueden deducir de los axiomas 3 y 6. Entonces, ¿son o no axiomas? La Real Academia entiende por axioma “proposición tan clara y evidente que se admite sin necesidad de demostración”. Lógicamente, si un axioma se puede deducir de otro, entonces no estamos ante un axioma, porque bastaría con formular el primero y luego, por deducción, llegaríamos al segundo. La cuestión es que Copérnico no pretendía ofrecer unos “axiomas astronómicos” o principios básicos de la física de los cuerpos celestes que se tuviesen que aceptar como evidentes y necesarios para explicar los fenómenos observados experimentalmente. Más bien quiso dar una serie de “postulados”, a modo de tesis que él propone al lector para que luego las compruebe, que resumen su estudio teórico y empírico. La idea de axioma que nos ha legado Euclides y que le sirvió para sistematizar de forma magistral y elegante la geometría clásica, es claramente distinta.
Copérnico, quizás sin percatarse de ello, estaba sentando las bases de lo que llegará a ser el método científico: el científico, para tratar de explicar los fenómenos físicos, parte de datos experimentales y desde ellos elabora hipótesis plausibles y razonables que luego pueden ser comprobadas o refutadas. Pero también puede trabajar con hipótesis previas, a modo de intuiciones que él tiene y que luego aplica a los datos experimentales y a las observaciones de que disponga. El científico puede inducir o deducir, sacar conclusiones o proponer conclusiones que más tarde se verifiquen. Lo importante es que esas hipótesis correspondan a los datos que realmente se han observado.
El axioma séptimo, por su parte, es una aportación -por lo que sabemos hasta ahora- original de Copérnico. Como hemos dicho antes, el modelo heliocéntrico, al menos en sus rudimentos, había sido ya anticipado por astrónomos de la antigüedad, tanto en ambiente cultural griego como en otros contextos geográficos (por ejemplo, en la India), aunque esto no resta mérito a la labor de Copérnico. Pero ningún astrónomo hasta nuestro genio polaco había sido capaz de explicar ese movimiento de retrogradación aparente de los planetas, que consiste en que los planetas cambiasen ocasionalmente el sentido de su desplazamiento. Tanto es así que el término “planeta” en griego significa “errante, vagabundo”, justamente porque su movimiento les resultaba a los astrónomos de la antigüedad enormemente irregular.
El Commentariolus fue escrito, con toda probabilidad, en 1514, pero no dejaba de ser una mera introducción, porque dejaba las demostraciones matemáticas para una obra posterior más extensa. Y el desafío al que se enfrentaba Copérnico para proponer un modelo alternativo al sistema geocéntrico de Tolomeo era, primordialmente, un reto de carácter matemático. Gracias a Dios, esa obra acabó apareciendo, porque no faltan casos en que autores célebres han “dejado caer” afirmaciones que luego no han probado, aunque a la larga se hayan demostrado correctas. Un ejemplo famoso es el teorema de Fermat, que este ilustre matemático francés del siglo XVII escribió en los márgenes de la Arithmetica de Diofanto. Simplificando mucho, podría decirse que la proposición de Fermat sostiene que el teorema de Pitágoras no puede generalizarse a una potencia superior a 2: no es posible encontrar soluciones distintas de cero para la ecuación ', si n es mayor de 2. Fermat anotó que tenía una prueba maravillosa, pero que, lamentablemente, no tenía espacio para escribirla (“cuius rei demonstrationem mirabilem sane detexi. Hanc marginis exiguitas non caperet”, escribió en latín). Hemos tenido que esperar más de trescientos años hasta que el matemático inglés Andrew Wiles, en 1994, publicara una extensísima y complejísima prueba para comprobar que Fermat tenía razón. Afortunadamente, Copérnico no fue tan “cruel” con los investigadores y ofreció (aunque con retraso, pues su libro se publicó el mismo año de su muerte) una demostración matemática de su hipótesis heliocéntrica.
La fama de Copérnico, ya antes de publicar el De Revolutionibus Orbium Coelestium, era notable. El V Concilio de Letrán le consultó sobre la reforma del calendario, aunque Copérnico se limitó a responder por carta y eludió viajar a Roma. En cualquier caso, la reforma del calendario juliano, que como hemos visto había suscitado innumerables quebraderos de cabeza a los astrónomos por sus errores e imprecisiones, se acometió unas décadas más tarde, en tiempos del papa Gregorio XIII.
Copérnico no era un canónigo ocioso como los muchos que había en su época, que únicamente cobraban los beneficios que les reportaba el cargo. Todo su tiempo libre lo dedicaba a la investigación astronómica, tarea que fue capaz de compatibilizar con una faceta diplomática, participando en conversaciones de paz en Braunsberg al estallar la guerra entre Polonia y la Orden Teutónica en 1519. No tuvo éxito, pero no importa: otro genio de la ciencia y del pensamiento como Leibniz tampoco. El alemán había viajado a París para intentar conseguir de Luis XIV una moratoria del edicto de Nantes de Enrique IV (que el rey sol había revocado, privando de derechos y libertades a los calvinistas -hugonotes- franceses) pero fracasó completamente en su empresa. Quizás gracias a ello pudo centrarse en la investigación, pues conoció a algunas de las cabezas más brillantes que había en París, como el holandés Huygens, y luego puso los cimientos del cálculo infinitesimal, una de las creaciones más geniales de la historia de las matemáticas. No hay mal que por bien no venga.
Lo cierto es que Copérnico, astrónomo, diplomático, canónigo... era un verdadero hombre del Renacimiento. Pero su trabajo científico lo realizó aislado, sin tener contactos fluidos con sus colegas. Copérnico no vivía en Italia, centro cultural de Europa, y no existían academias como en la actualidad (que en su mayoría se remontan al siglo XVIII y son propias de la Ilustración).
Finalmente, su gran libro, el De Revolutionibus, se publicó poco antes de su muerte, en 1543, como una especie de Requiem mozartiano en memoria del gran sabio polaco. La persona clave aquí fue un joven profesor de matemáticas y astronomía en Wittenberg (la ciudad en que Lutero había proclamado sus 95 tesis años antes, y por tanto, la cuna de la reforma protestante) llamado Georg Joachim Rheticus. Al igual que sin el empeño puesto por Edmund Halley, astrónomo real de Inglaterra, Isaac Newton no se hubiera atrevido a publicar los Principia., sin Rheticus, el libro de Copérnico no habría salido a la luz.
Rheticus había visitado a Copérnico en Frauenburg en 1539. Era de confesión protestante, y por entonces, en una Europa dividida por guerras de religión que se prolongarían hasta bien entrado el siglo XVII, era muy peligroso para un protestante viajar a territorio católico y para un católico hacerlo a territorio protestante. Afortunadamente, el progreso de la ciencia no ha dependido, por lo general, de las vicisitudes religiosas y políticas, si bien en ocasiones estas últimas hayan dificultado su desarrollo, y los miembros más destacados de la comunidad científica han sabido muchas veces situarse al margen o por encima de ese tipo de conflictos. Aunque tampoco debemos olvidar que los “nacionalismos científicos” han sido negativos muchas veces para el avance del conocimiento: en Inglaterra, como no se quería reconocer ningún mérito a Leibniz en el descubrimiento del cálculo infinitesimal, los matemáticos británicos optaron por seguir en todo a Newton, privilegiando los métodos geométricos de Newton sobre los analíticos de Leibniz. Resultado: mientras las matemáticas en el continente avanzaron con una rapidez asombrosa, con autores de la talla de los Bernoulli o Euler que fueron tras la estela de Leibniz, Inglaterra permaneció casi aislada hasta el siglo XIX, cuando volvió a recuperar la iniciativa en este campo. Los grandes genios del pensamiento científico y humanístico están más allá de los chauvinismos de cada país, aunque, nadie lo niega, las naciones tienen derecho a mostrarse orgullosas por sus vástagos más ilustres.
Rheticus consiguió financiación del alcalde de Danzig para publicar una Narratio Prima, dedicada a Johann Schoner, en la que exponía las conclusiones de la obra del “ilustre caballero y matemático, el Reverendo Doctor Nicolás Copérnico de Torún”. Para el 29 de agosto el De Revolutionibus estaba listo para la imprenta de Johann Petreius, en Nürenberg. Petreius, que se había ausentado de su imprenta, le encargó al teólogo luterano Andreas Osiander que revisase él mismo las tareas de publicación. Osiander escribió una carta al lector a modo de prefacio en la que decía que los resultados presentados por Copérnico, más que la verdad, sólo proporcionaban un camino más sencillo y práctico para calcular las posiciones de los cuerpos celestes. Fue el gran astrónomo Johannes Kepler quien reveló, casi 50 años después, la identidad de Osiander como autor de ese prólogo.
El prólogo en cuestión tiene una gran importancia. Osiander estaba recogiendo algo que, por entonces, emergía en Europa y que acabaría consolidándose en el siglo XVII: el espíritu científico. La ciencia no pretende, como habían querido Aristóteles y los escolásticos, llegar a la verdadera esencia de las cosas, a lo que Kant llamará el noúmeno. Sus intenciones son mucho más reducidas y limitadas: lo único que hace es proponer hipótesis o caminos plausibles y razonables que den cuenta de los fenómenos físicos. Y es que nos encontramos ante un principio que ya había formulado el monje franciscano inglés Guillermo de Ockham en el siglo XIV: “no hay que multiplicar los entes más allá de lo necesario” (entia non sunt multiplicanda praeter necessitatem, dice la proclama en latín), principio éste que se encuadra en los cimientos de la ciencia moderna. En resumidas cuentas: siempre hay que buscar la explicación más sencilla, suficiente y razonable que responda a los hechos observados. La hipótesis heliocéntrica de Copérnico que situaba el Sol, inmóvil, cerca del centro del universo, era mucho más sencilla y elegante que la de Tolomeo, requería de un menor número de epiciclos, y explicaba mejor los fenómenos astronómicos. El prólogo de Osiander le evitó a Copérnico bastantes problemas, al menos si pensamos en lo que más tarde le ocurriría a Galileo, porque al sostener que lo afirmado por Copérnico no dejaba de ser una hipótesis no entraba en colisión directa con el modelo que entonces predominaba, el geocéntrico.
La obra de Copérnico es una curiosa mezcla de innovación y conservadurismo. Innovación, porque sitúa el Sol cerca del centro del universo, frente a Claudio Tolomeo.
Conservadurismo, porque al igual que el genial astrónomo alejandrino, Copérnico seguía manteniendo la necesidad de que las órbitas fuesen circunferencias perfectas. El prejuicio de raigambre platónica de que el científico tenía que “salvar los fenómenos” (sozein ta fainomena, en la expresión griega) para adecuarlos a la perfección ideal y geométrica, todavía era demasiado fuerte. Habría que esperar algunas décadas, hasta Kepler y sus tres leyes, para que se aceptasen las órbitas elípticas.
La obra de Copérnico, inspiración directa del trabajo científico de Kepler y Galileo, “gigantes” en cuyos hombros se apoyó Newton para ver más allá de sus contemporáneos, es de las que más influjo han tenido en el pensamiento moderno. Incluso un astrónomo como Tycho Brahe que, en la segunda mitad del siglo XVI, rechazaba el modelo heliocéntrico, la admiraba. Hasta que Newton formuló la teoría de la gravitación universal, bien entrado el siglo XVII, no hubo evidencias sólidas que avalasen la hipótesis copernicana. Es muy fácil, a posteriori, juzgar una determinada época con lo que ya sabemos hoy, tras siglos de investigaciones, observaciones e incluso viajes al espacio. Lo que es fascinante es que cuando algo no era evidente y no saltaba a la vista, hubiese personas que, como Copérnico, supiesen ir más allá de lo inmediato, máxime cuando la libertad de expresión no era aún una conquista generalizada. Sobreponerse a lo inmediato es quizás lo más valioso que posee el ser humano.
Copérnico murió de una hemorragia cerebral al poco de recibir un ejemplar de su De Revolutionibus Orbium Coelestium. Vio más allá: fue, realmente, una mente maravillosa.
Capítulo 10
Galileo y el telescopio.
Si hay un nombre en la Europa moderna que sea sinónimo de espíritu científico y de búsqueda por encima de toda adversidad, ése es el de Galileo Galilei. Galileo es a la ciencia moderna lo que Heródoto a la historia: el padre, el auténtico creador, el que le dio un método y unos ideales tan exigentes como productivos. Él mismo supo ver todas las implicaciones de su novedosa forma de afrontar el conocimiento de la naturaleza, que consumaba una ruptura iniciada ya por autores medievales y acentuada con la obra de astrónomos como Copérnico o Kepler, cuando escribía: “de manera que podemos decir que la puerta está ahora abierta, por primera vez, a un método nuevo, acompañado por numerosos y maravillosos resultados que, en años venideros, atraerá la atención de otras mentes”.
Es difícil apreciar hoy con suficiente justicia el mérito y los logros de Galileo. Nosotros, gente del siglo XXI, hemos nacido con la revolución científica y hemos visto cómo la tecnología y la investigación del mundo físico alcanzaban unas cotas de desarrollo absolutamente formidables. Galileo nos parece más que un científico un precursor, un soñador, que puso unos cimientos por entonces bastante rudimentarios. Cualquier estudiante de secundaria tiene que estudiar las ecuaciones del movimiento (rectilíneo uniforme, rectilíneo uniformemente acelerado...), base de la “cinemática” y que encontró el propio Galileo, pero enseguida estudiará las tres leyes de Newton y su ley de la gravitación universal y ya habrá superado con creces los conocimientos científicos del italiano. Que la Tierra gira alrededor del Sol es tan evidente para nosotros que casi nos extraña que se tardase tanto en aceptar. Que la teoría (que usa como lenguaje las matemáticas) debe estar en función de los experimentos, que siempre tienen la última palabra, es también algo que nos resulta casi obvio. Sin embargo, antes de Galileo las cosas no estaban tan claras. La experiencia dependía más bien de la teoría: las órbitas de los planetas tenían que ser circulares porque la circunferencia era símbolo de la perfección, y los herederos intelectuales de Platón no podían concebir una figura imperfecta para describir los movimientos de los cuerpos astrales, que eran cuasi- divinos. Tampoco existía un conjunto de conceptos, como los que se utilizaron después (aceleración, tiempo, velocidad...), adecuado para describir la realidad física. La visión del mundo era más filosófica y especulativa que científica. Por ello, la figura de Galileo, inventor, teorizador, descubridor, genial científico experimental, luchador infatigable, filósofo y hasta teólogo, ha sido de un valor incalculable para el progreso de la cultura occidental. Hay lagunas, no podemos negarlo. Por ejemplo, la visión mecanicista de la naturaleza, que se manifestaba como algo inerte, inanimado y muerto, motivando que el ser humano se creyese dueño y señor del mundo y conduciendo a la postre al problema ecológico que ha socavado buena parte de los cimientos ideológicos sobre los que se asentaba la civilización moderna. Pese a ello, sus aportaciones fueron de tal trascendencia que no sería exagerado llamar a Galileo el Cristóbal Colón del conocimiento. Suele decirse que después de Kant (1724-1804), en filosofía resulta imposible volver atrás o al menos no tener en cuenta muchas de sus conclusiones. Lo que admite menos discrepancias es que después de Galileo, como confirma la experiencia histórica, todos los grandes científicos han seguido de una u otra manera su estela. Repasar su vida es disfrutar del espectáculo de la ciencia en estado puro.
Galileo Galilei había nacido el 15 de febrero de 1564 en la ciudad de Pisa, que por entonces pertenecía al gran ducado de Toscana (cuya capital era la sempiterna y hermosísima Florencia), en ese complejo panorama de reinos y repúblicas que era la península de Italia antes de la unificación en el siglo XIX. Galileo era el mayor de los seis hijos que había tenido el músico Vincenzo Galileo, un verdadero revolucionario en su campo que había contribuido de modo decisivo a la transición de la música renacentista a la barroca, que más tarde dominaría la escena artística europea. Vemos cómo esa faceta innovadora que luego mostraría y con creces Galileo se encontraba ya implícita en los genes.
Como muchos jóvenes de su tiempo inclinados hacia el mundo del conocimiento y del estudio, Galileo había pensado en hacerse sacerdote, teniendo en cuenta, además, que la Iglesia era la gran “potencia” intelectual del momento. La mayoría de los matemáticos, astrónomos e historiadores, al menos en Italia, estaban relacionados de una forma u otra con la Iglesia, y muchos de ellos eran clérigos. La orden de los jesuitas, que fundada por San Ignacio de Loyola en 1534 y que jugó un papel clave en la contrarreforma (la reacción del catolicismo frente a la Reforma protestante emprendida por Lutero, Calvino, Zuinglio y Enrique VIII de Inglaterra), había conseguido un prestigio inmenso en muy poco tiempo. Poseía los mejores colegios: Descartes, otro personaje fundamental en la revolución científica y filosófica del siglo XVII, se había educado en el colegio de los jesuitas de La Fléche, en Anjou; hasta el más acérrimo crítico de los hijos de San Ignacio, Voltaire en el siglo XVIII, también pasó por su colegio Louis le Grand de París. Controlaba importantes instituciones académicas como el Collegium Romanum en la Ciudad Eterna.. Aunque no había (ni por el momento ha existido) un papa jesuita, esta orden gozaba del favor pontificio, y además se había extendido a las regiones más lejanas del globo siguiendo la senda de misioneros tan importantes como el navarro San Francisco Javier (1506-1552). También habían sido capaces de “contener” el avance del protestantismo en Alemania, principalmente gracias a la labor del holandés San Pedro Canisio. Galileo tendría que sufrir agrios enfrentamientos con los astrónomos jesuitas por su defensa del heliocentrismo de Copérnico.
Pero Galileo no entró en el seminario. Siempre se consideró católico, aunque, como todo el mundo sabe, sus relaciones con la Iglesia no fueran lo que se dice fáciles. Decidió estudiar medicina en la Universidad de Pisa, carrera que no acabó. Galileo Luego estudió matemáticas, y finalmente obtuvo una cátedra de esta disciplina en su ciudad natal. Sus relaciones con los demás profesores de la universidad fueron siempre tirantes. La envidia y las innovadoras ideas de Galileo no le granjearon buenas amistades entre el gremio docente de Pisa.
Galileo era un científico nato, “de raza”. Se cuenta que estando en misa en el duomo (“catedral”) de Pisa (un edifico impresionante situado junto a la famosa torre inclinada), y sin duda algo aburrido por la ceremonia, fijó su atención en el movimiento que describían las gigantescas lámparas del templo impulsadas por el aire. Se trataba de una especie de “vaivén”: de un extremo a otro, pero siguiendo siempre una trayectoria constante. A veces completaban arcos más anchos, otras, arcos más pequeños, pero daba igual, porque el número de pulsaciones en un caso u otro era el mismo. ¿Cómo había medido Galileo el número de pulsos de las lámparas? Cronometrando mentalmente su propio pulso. ¿Y por qué no hacerlo a la inversa, es decir, usando las pulsaciones del péndulo para medir el tiempo, ya que el péndulo describía un movimiento constante? Una genial idea de Galileo.
¿Qué es un péndulo? Sencillamente, un objeto unido a un soporte de manera que pueda oscilar libremente alrededor de un punto fijo. Si el péndulo se aleja de su punto de equilibrio, una fuerza recuperadora lo hará volver al equilibrio, oscilando hasta que regrese a su posición inicial. Es necesario percatarse de que equilibrio no es sinónimo de “reposo”. Que un cuerpo esté en equilibrio significa que su movimiento no varía, y que por tanto no acelera. Ésta es una de las grandes diferencias teóricas entre la física que descubrió Galileo y la de Aristóteles, quien creía que los cuerpos tendían, naturalmente, a detenerse a no ser que una fuerza los pusiese en movimiento, cuando lo que ocurre es que los objetos naturalmente (por inercia) mantienen su velocidad o su estado de reposo hasta que una fuerza actúa sobre ellos. La intuición, por la que se había guiado Aristóteles, nos dice que un cuerpo no sometido a ninguna fuerza se queda quieto, en reposo. Esto no es exacto, y mirando en retrospectiva nos damos cuenta del enorme esfuerzo que han tenido que realizar los grandes científicos para vencer la intuición: un cuerpo no sometido a fuerzas, como demostraría Galileo, permanece en reposo o en movimiento rectilíneo uniforme a velocidad constante, es decir, moviéndose en línea recta con una velocidad fija que no cambia (porque si cambiase, estaría acelerando -la aceleración es lo que cambia la velocidad en el tiempo- y estaríamos en una situación no inercial). Es lo que se conoce como primera ley de Newton o ley de la inercia (la inercia no es una fuerza en sentido técnico: es la tendencia de un cuerpo a preservar el movimiento que lleva). No existe una velocidad absoluta, porque como Galileo advirtió, no hay diferencias entre dos sistemas inerciales: las leyes físicas son las mismas en ellos. Es lo que se conoce como el principio de relatividad de Galileo (que no se debe confundir con la relatividad de Einstein, aunque guarden mucha relación). En un sistema sometido a aceleración (es decir, bajo el influjo de fuerzas) sí se pueden establecer diferencias con respecto a otro sistema. Pero de un ascensor que descienda a velocidad constante no puedo saber a qué velocidad está bajando si no lo miro desde fuera, desde otro sistema, porque un ascensor bajando a velocidad constante es un sistema inercial que resulta indistinguible de otro sistema inercial cualquiera.
Volviendo al péndulo, y simplificando el tratamiento físico y matemático a ángulos pequeños, el movimiento que describe es un movimiento armónico simple, repitiéndose en intervalos fijos de tiempo, y en este caso el período (que es el tiempo que se tarda en completar un ciclo o vuelta) sólo dependerá de la longitud del péndulo y de la aceleración causada por la fuerza de la gravedad. El período no dependerá de la masa del péndulo. Pongamos uno pesado u otro más ligero, si la longitud es la misma, el período (los segundos que tarda en completar una oscilación) va a ser igual. Se establecerá un equilibrio entre el movimiento causado por la fuerza de gravedad (que es igual al producto de la masa por la aceleración que causa la gravedad, constante en la superficie terrestre) y el movimiento de rotación del péndulo (que es proporcional al cuadrado de su velocidad), de modo que: mg = m×v2/l, siendo l la longitud del péndulo medida desde el soporte o pivote hasta el centro de gravedad de la “bola” del péndulo. Como el término para la masa, m, aparece a ambos lados de la ecuación, puede eliminarse y se seguirá manteniendo la igualdad. Y además, como existe una fórmula que relaciona el período, que se suele simbolizar como T, con la velocidad v y la longitud del péndulo (T = 2πl/v) podemos re-escribir la ecuación anterior para que todo salga en función del período y así saber cómo varía esta cantidad: T = 2π√(l/g). Como hemos dicho, este resultado sólo vale para ángulos pequeños y contiene varias simplificaciones, pero al menos permite hacerse una idea de la física implicada en el movimiento del péndulo. Galileo, con una genial combinación de observación e intuición científica, había “visto” este resultado aun sin ponerse a hacer cálculos sobre el papel. Los grandes genios “ven” enseguida la forma que tiene que adoptar la solución, porque son capaces de fijarse en lo esencial y prescindir de detalles superfluos. Galileo podría haberse pasado horas intentado analizar si el material o la forma con que estaba hecho el péndulo influía en su movimiento, pero en lugar de eso decidió fijarse sólo en ciertos aspectos o parámetros como el período, intuyendo que éstos eran los verdaderamente significativos.
Aquí radica una diferencia esencial con otra mente maravillosa como Leonardo da Vinci, pintor, escultor, ingeniero, precursor de infinidad de inventos, matemático, óptico, físico, anatomista... El ideal de uomo universale del Renacimiento se condensa de manera insuperable en él. Pero fue demasiado ambicioso. Quiso comprenderlo todo: el movimiento de las aves, las formas que existen en la naturaleza... Su “método” ha sido llamado holístico (del griego ὅλος, holos, “todo”) justamente porque pretendía estudiar cómo influye todo en todo. Y ahí encontró su “perdición”, lo que le impidió hacer tantas aportaciones a la ciencia moderna como Galileo: no fue capaz de reducir o limitar su interés a aspectos concretos que, ellos solos, podían dar tanta o más información que si se pretendía observar la naturaleza como un todo, con una mirada omni-abarcante. Galileo centró su observación en elementos concretos de búsqueda. Al igual que hoy, cuando tecleamos una palabra en un buscador de Internet, podemos “limitar” la búsqueda para que nos dé sólo los resultados que verdaderamente nos interesan, Galileo, casi cuatro siglos antes que nosotros, tuvo la valentía de “limitar” su búsqueda, presintiendo que sólo así podría avanzar el conocimiento del mundo físico. La ciencia, aunque no lo parezca, también se ha hecho a base de grandes dosis de humildad.
Y esos “parámetros” o conceptos esenciales que había que buscar tenían que expresarse con el lenguaje de las matemáticas. La ciencia moderna representa el éxito de la aplicación de las matemáticas a la descripción de mundo físico. Un lenguaje abstracto y universal describe la experiencia real y concreta. En esta paradoja, que tanto habría gustado a Pitágoras y a Platón, reside la riqueza, casi infinita, de esa curiosa simbiosis entre ideas y hechos. Galileo escribió: “El libro [de la naturaleza] está escrito en lenguaje matemático, y los símbolos son triángulos, circunferencias y otras figuras geométricas, sin cuya ayuda es imposible comprender ninguna una palabra de él, sin lo cual se deambula en vano a través de un oscuro laberinto”. Esos triángulos son, diríamos hoy, las funciones matemáticas. Galileo sabía que las observaciones siempre llevarían asociada una imprecisión, y que por tanto nunca coincidirían plenamente con las conclusiones que se obtuviesen por puro análisis matemático, pero intuyó que las matemáticas eran una especie de asíntota (esa recta a la que determinadas curvas se acercan cada vez más pero sin llegar nunca a tocarla) o límite al que se aproximaba la experiencia. En palabras de John H. Randall, “la ciencia nació de la fe en la interpretación matemática de la naturaleza”.
Pero a Galileo todavía le quedaba mucha vida y mucho por investigar. Descubrió también que Aristóteles se había equivocado en algo que resulta obvio en primera instancia: que un cuerpo, cuanto más pesado es, más rápido cae. Parece evidente que si ponemos una bola de plomo y una de papel y las dejamos caer desde la misma altura, la primera en llegar al suelo será la bola de plomo, por ser más pesada. ¿O no está tan claro? Pues no, no lo está. Lo estuvo hasta que a Galileo (sospechando que esa afirmación era falsa: el buen investigador no debe tener miedo a cuestionar lo que se tiene por comúnmente aceptado, siempre y cuando tenga motivos suficientes para ello) se le ocurrió comprobarlo, diseñando para ello un experimento. Una comprobación tosca y que llevaría al engaño habría consistido en limitarse a soltar dos objetos de distinto peso y de materiales tan divergentes como el metal y el papel desde una determinada altura, sin tener en cuenta la resistencia del aire, que afecta más a la bola de papel que a la de plomo. Eso sería un mal experimento, y la ciencia moderna se ha construido a base de buenos experimentos, de experimentos en los que se han podido controlar y cambiar las condiciones de trabajo para ver cómo influyen unos parámetros en otros. Experimentar no es sólo mirar, ver qué pasa. El científico, al experimentar, actúa sobre la realidad, imponiendo una serie de condiciones. No se limita a ver sin más, sino que prepara el escenario para ver lo que a él le interesa. Experimentar significa, en cierto sentido, dominar de forma inteligente la realidad para que nos responda a las preguntas que queremos conocer.
La leyenda, no tan difícil de verificar como la de la manzana de Newton, dice que Galileo se subió a la torre de Pisa y que desde allí dejó caer (dejó caer, es decir, no empujó, porque si le hubiera comunicado a cada objeto una velocidad inicial distinta el resultado habría cambiado) bolas de diferente peso pero de composición similar, para así neutralizar el efecto de la resistencia del aire. Galileo habría cronometrado con sumo cuidado los tiempos de caída, concluyendo que eran los mismos. Daba igual la masa de la bola, y si los objetos más ligeros parecían tardar más en caer era por la resistencia del aire o por otras fuerzas y no porque el tiempo de caída dependiese directamente de la masa del objeto. Ya antes que Galileo, estudiosos como el alejandrino Juan Filoponus en el siglo VI o Giambattista Benedetti en el siglo XVI habían llegado a resultados parecidos. Pero lo que distingue a Galileo no es que se subiese a la torre de Pisa e hiciese algo tan elemental como dejar caer dos bolas de distinto peso, cosa que cualquiera con un mínimo de iniciativa podría haber hecho. El mérito de Galileo es que realizó experimentos con planos inclinados que le hicieron descubrir los principios del movimiento de los cuerpos.
En ellos, Galileo ponía bolas que rodaban por la superficie del plano. Puede parecer que entre dejar caer una bola por un plano inclinado y hacerlo desde una altura en vertical hay mucha diferencia. Galileo, como gran científico experimental, se dio cuenta de que esa diferencia no era significativa: lo único que cambiaba era el ángulo de inclinación, pero el contexto físico era el mismo. Al fin y al cabo, se trataba de un objeto sometido a la fuerza de la gravedad. Todas las bolas adquirían la misma aceleración, sin importar su masa. Su velocidad cambiaba al mismo ritmo. El tiempo que tardan los cuerpos en caer no depende, por tanto, de su masa, porque la aceleración que produce la gravedad (y que hoy simbolizamos con la letra g) es la misma para todos y, como propondrá Newton, sólo depende la masa de la Tierra y del cuadrado de la distancia a que nos encontremos de su superficie (existe una ligera variación con la latitud debido a la rotación de la Tierra y a que nuestro planeta no es una esfera perfecta, pero la diferencia es mínima).
Y generalizando sus resultados, Galileo descubrió las leyes de la cinemática, que hoy se estudian en los colegios de secundaria y en los institutos. Para ello había tenido que escoger las variables adecuadas que le permitieran hacer un tratamiento riguroso, que admitiesen mediciones. Galileo se percató de que podía estudiar el movimiento de los cuerpos fijándose, fundamentalmente, en dos parámetros: la posición de ese cuerpo (x) y el tiempo (t). Lo que interesaba era conocer la posición de ese cuerpo en cada tiempo, que hoy representaríamos mediante una función x(t) que recoge cómo varía la posición con el tiempo. Nuevamente, todo esto se nos puede antojar trivial y elemental, pero en la época de Galileo no lo era. El “triunfo” y la “tragedia” de los grandes genios es que descubren cosas que luego entran a formar parte del conocimiento común de todos, y enseguida olvidamos lo que les costó realizar semejantes hallazgos. Si sus resultados hubiesen sido oscuros, abstractos o sin tanta importancia, seguramente habrían permanecido accesibles sólo para unos pocos y cuando el no-iniciado los escuchase, se sorprendería por su originalidad. Pero lo que realmente supone un avance trascendental en cualquier campo del conocimiento, acaba extendiéndose y siendo compartido por muchos, y “pierde” lo que de enigmático pudiese tener en un principio, a pesar de que si se estudia en profundidad es fácil advertir que lo que nos parece tan elemental presenta más lecturas e interrogantes de lo que pensamos. Sucede lo mismo con la división de poderes en los sistemas democráticos. ¡Clarísimo! ¿Cómo no iban a separarse el que dicta una ley del que la aplica y del que juzga en base a ella? Pero hasta el siglo XVIII no se vio con tanta nitidez.
Hoy diríamos que para un cuerpo en movimiento rectilíneo uniforme con una velocidad v, y considerando que parte de la posición cero y del tiempo cero, la ecuación que describe cómo varía la posición x con el tiempo t es x = v.t. En cambio, si el cuerpo no se mueve a velocidad constante, sino que ésta cambia, habrá una aceleración a. Si esa aceleración es uniforme (el cuerpo cambia su velocidad de manera constante), como en el caso de los cuerpos en caída libre (para los que la aceleración es la misma: g, producida por la fuerza de la gravedad), la ecuación adoptará la forma: x = v0×t + at2/2, también si consideramos que la posición inicial es cero y el tiempo inicial es cero ¡La distancia total recorrida depende del tiempo al cuadrado! Galileo lo expresaba en términos geométricos, aunque luego hayamos adoptado el tratamiento analítico, sustituyendo los esquemas geométricos por funciones, que es mucho más sencillo. Hay que notar que lo anterior lo hemos expresado sólo en función de x, en una dimensión, pero que el tratamiento más riguroso implicaría estudiar ese movimiento en x, y y z. ¿Alguna complicación? En absoluto, porque el propio Galileo se dio cuenta de que el movimiento podía descomponerse en tantos movimientos individuales como dimensiones, y éstos podían tratarse independientemente. Así que los principios eran los mismos, no importando a qué dimensiones nos ciñésemos. Si lanzamos un proyectil desde un cañón que apunta en horizontal, el movimiento global puede descomponerse en dos movimientos independientes: uno para x (movimiento rectilíneo uniforme con una velocidad inicial concreta, la velocidad de lanzamiento) y otro para y (movimiento rectilíneo uniformemente acelerado por efecto de la gravedad). El proyectil avanzará en movimiento horizontal (la dimensión x) con una velocidad inicial, e irá cayendo verticalmente por efecto de la gravedad en la dimensión y. Ambos movimientos pueden estudiarse separadamente, porque no se “afectan”: da igual con qué velocidad horizontal inicial haya salido disparado el proyectil, porque en cuanto se suspenda en el aire caerá con una aceleración constante g. El tiempo que tardará en caer verticalmente será el mismo que si la velocidad horizontal inicial hubiese sido menor, porque dicha velocidad sólo se referirá a x. Un cuerpo en caída libre y otro lanzado desde la misma altura en horizontal con una velocidad inicial tardan lo mismo en caer al suelo, porque en la dimensión y están sometidos a las mismas condiciones (otra cosa sería que a uno de ambos se le “empujase” hacia abajo, con una velocidad inicial vertical). Lo único es que según la velocidad horizontal de partida avanzará más o menos en la dirección horizontal: podrá recorrer más espacio en la dirección x antes de tocar el suelo conforme mayor sea su velocidad horizontal de partida, pero acabará cayendo, y el tiempo de caída será el mismo, sin importar la velocidad inicial en x. El movimiento global describirá una parábola, pero no hay ningún inconveniente en analizar cada dirección (en x o en y) por sí sola.
Tras residir en Pisa, Galileo se trasladó a Padua, en el Véneto (a unos 40 kilómetros de Venecia), y allí impartió clases de astronomía y geometría, interesándose también, como tantos otros grandes científicos de la época (por ejemplo, Johannes Kepler) por la astrología. La astrología, que hoy nos parece algo acientífico e irracional, potenció, por extraño que parezca, el desarrollo de la astronomía. Tengamos en cuenta que gran parte de las observaciones astronómicas, al menos en un principio, se efectuaban por motivos religiosos o esotéricos, y para medir bien el tiempo y crear calendarios rigurosos había que observar cuidadosamente el movimiento de los astros. Por eso, no es en absoluto estrambótico que grandes mentes de la época e incluso de siglos posteriores dedicasen enormes esfuerzos a familiarizarse con lo que se sabía de astrología en ese momento. Esto no supone ningún inconveniente o “mancha negra” para la historia de la astronomía, como tampoco lo es para la de la química el que muchos de sus primeros cultivadores hubiesen leído el trabajo de los alquimistas medievales.
Si bien hay acuerdo casi unánime en que Galileo no inventó el primer telescopio (se le habían adelantado los holandeses), lo cierto es que hizo mejoras sustanciales en este artilugio y que, desde luego, fue quien le dio el mejor uso posible, convirtiéndolo en una herramienta astronómica que le permitió ver lo que seguramente nadie había logrado observar hasta entonces.
Y es que Galileo, además de un genial científico, fue también un notable inventor, especialmente en el campo de la ingeniería militar. Para el desarrollo de sus investigaciones en física construyó en 1593 un termómetro bastante novedoso (para el de mercurio habrá que esperar a 1714, con Daniel Fahrenheit, y para el termómetro clínico a Thomas Allbutt en 1866) que funcionaba con una válvula de aire que, contrayéndose y expandiéndose, empujaba el agua por un tubo. Los líquidos de menor densidad que el agua flotaban a distintas alturas según la temperatura, por lo que utilizando alcohol flotando en una columna de agua, Galileo podía medir sus diferencias de temperatura. Además, Galileo mostró gran destreza en el uso de los microscopios ya antes que Anton van Leeuwenhoek.
Pero si destacó por algo es por construir el telescopio refractor. Se ha discutido mucho sobre la prioridad del invento, y parece que, como en el caso del microscopio, el mérito corresponde a fabricantes de lentes de Holanda (como Hans Lippershey, Zacharias Janssens y Jacob Metius) que en 1608 produjeron el primer modelo. Lo cierto es que Galileo, que en 1609 se encontraba en Venecia, había oído del invento del holandés y enseguida se puso manos a la obra para construir su propio telescopio refractor en 1609. Pensemos que prácticamente no hay científico de la época que se precie que no fabrique su propio artilugio para la observación astronómica. Johannes Kepler e Isaac Newton hicieron lo propio. Así que Galileo creó su propio telescopio refractor independientemente de los holandeses (eso sí, después de haber oído que el instrumento que habían diseñado sus competidores empleaba el fenómeno óptico de la refracción) y se lo enseñó al dogo de la ciudad, que era el magistrado jefe elegido por la aristocracia de la República Serenissima de Venecia, cuya sede de gobierno se situaba en el espectacular Palazzo Ducale que se emplaza junto a la catedral de San Marcos, al final del Gran Canal que surca esta majestuosa ciudad del mar Adriático.
¿Cómo funcionaba el telescopio refractor de Galileo, que le acabaría mostrando un mundo completamente nuevo y fascinante? El diseño en cuestión consistía en la combinación de dos lentes, una cóncava y otra convexa, capaces de concentrar más luz que un ojo (un ojo es en realidad una lente de extraordinaria complejidad) y que por refracción de la luz generaban una imagen hasta 30 veces más grande que la obtenida a simple vista. El fenómeno de la refracción había sido estudiado ya por Claudio Tolomeo (el mismo que sistematizó el modelo geocéntrico en el siglo II de nuestra era), aunque no fue hasta el siglo XVII cuando se propuso un tratamiento matemático riguroso que condujese a la ley física que regía este proceso. La refracción supone el cambio en la dirección de una onda (y la luz es una onda, aunque también pueda exhibir según qué situaciones un comportamiento corpuscular o de partícula; también el sonido es una onda) causado por un cambio en su velocidad, como al pasar un rayo de luz de un medio (el aire) a otro (el agua). Si ponemos una cuchara en un vaso de agua, notaremos que la parte sumergida de la cuchara produce la ilusión de estar torcida. En realidad, lo que se ha generado es un fenómeno de refracción: la luz ha pasado del aire al agua, cambiando su velocidad y su dirección, lo que provoca este efecto óptico, pero la cuchara no se ha doblado.
En 1621 el matemático holandés Willefrod Snell descubrió, con anterioridad e independencia a Descartes (que expuso una demostración similar en su famoso Discurso del Método de 1637), una ley matemática para la refracción, que afirma que el cociente entre los senos de los ángulos con que la onda incide en el medio y se refracta es igual al cociente entre las velocidades de ambos medios (la velocidad del medio inicial y la velocidad del medio al que pasa la onda), o lo que es lo mismo, igual al cociente entre el índice de refracción del medio en el que se incide y el índice de refracción del medio en el que inicialmente se encontraba la onda. La ecuación es:
que ajustando los términos puede escribirse
La ley en cuestión se basa en el principio de mínimo tiempo de Fermat, que afirma que el camino entre dos puntos recorrido por un rayo de luz es el que requiere de menor tiempo. La moderna electrodinámica cuántica (una de las grandes aplicaciones de la mecánica cuántica) ha sido capaz de deducir esa ley a partir de principios más fundamentales de la naturaleza, porque el progreso científico si por algo se caracteriza, es por la posibilidad de integrar los resultados válidos en modelos teóricos más amplios y así comprender mejor la relación entre los distintos fenómenos físicos.
Galileo tenía ya su telescopio. Sólo faltaba poner el ojo en él y ver qué sucedía. Era la noche del 7 de enero de 1610, y lo que ocurría era algo increíble. Si el arqueólogo Howard Carter, cuando miró por primera vez a través de la un agujero que se había abierto en la puerta sellada de la tumba del faraón egipcio Tutankamón un día de noviembre de 1922, respondió a la pregunta de su mecenas Lord Carnavon diciendo que veía “cosas maravillosas” (wonderful things), también Galileo había contemplado cosas maravillosas al abrir la puerta del firmamento. Enfocando a Júpiter, Galileo observó tres objetos que giraban en torno a este planeta. Días más tarde identificó un cuarto objeto. Hoy se llaman Io, Europa, Calisto y Ganímedes. Giraban porque aparecían y desaparecían alternadamente, lo que sólo podía explicarse si orbitaban alrededor de Júpiter. Pero, ¿acaso había algo extraño en que las lunas de Júpiter girasen alrededor de Júpiter? ¡Sí! Y es que en el modelo geocéntrico de Aristóteles y de Claudio Tolomeo, todo tenía que girar alrededor de la Tierra. Pero Galileo había visto objetos celestes que no daban vueltas en torno a la Tierra. Galileo no hizo como Arquímedes: no salió desnudo por las calles gritando Eureka, aunque si Arquímedes había tenido motivos para hacerlo, desde luego no le faltaban a Galileo. Pacientemente, y noche tras noche, volvió a enfocar su telescopio a Júpiter para comprobar que lo que había visto aquel 7 de enero no era una ilusión o, parafraseando a Kant, “los sueños de un visionario”. Y no sólo eso. Ya antes de descubrir las lunas de Júpiter había observado las manchas del Sol (que desde antiguo y por observaciones muy deficientes en comparación con las del telescopio de Galileo, se habían interpretado como efecto del tránsito de Mercurio), los cráteres de la Luna, los anillos de Saturno (que en un principio confundió con planetas autónomos), las fases de Venus (Copérnico había predicho que todas las fases de Venus podían verse a causa de la órbita de este planeta alrededor del Sol, por lo que la gesta de Galileo reforzaba el modelo heliocéntrico), había puesto las bases de un método para calcular los períodos orbitales de los satélites de Júpiter que décadas más tarde perfeccionaría Cassini (que da nombre, junto con Huygens, a una famosa misión de la NASA a Saturno)... Prodigioso. Galileo publicó un tratado, el Sidereus Nuntius, con sus descubrimientos. El título podría traducirse como “mensajero sideral”: Galileo fue un gran hombre de letras, prolífico y exquisito escritor, y los encabezamientos de sus obras llevan esa carga de arte, impacto y fascinación que ha faltado a muchas de los grandes trabajos científicos posteriores, más sobrios, fríos y asépticos.
Una serie de proezas astronómicas que trastocaban los fundamentos de la cosmología antigua. ¿Por qué? Porque en la mentalidad clásica el espacio sideral, el cielo, era perfecto, y si Galileo había encontrado cráteres en la Luna (basándose en los patrones de luces y sombras en la superficie lunar) es que el cielo no era perfecto, como sostuvo Aristóteles. Galileo, por sí solo, había asestado varios golpes mortales a la concepción del universo físico que imperaba por entonces, y que se debía principalmente a Aristóteles: su teoría del movimiento de los cuerpos era errónea, su modelo geocéntrico también, su idea de la perfección de los cielos como espacios separados de la Tierra que se regían por leyes distintas también se tambaleaba... Demasiadas refutaciones para un solo hombre que, como cabría esperar, levantaron el recelo de buena parte del establishment (que siempre ha existido, existe y existirá) científico e intelectual de su tiempo. Por no hablar de la envidia que Galileo despertaba entre los astrónomos oficiales, por ejemplo el jesuita Christoph Scheiner, que decía haber descubierto las manchas solares antes que el pisano (cuando lo cierto es que ninguno de los dos fue el primero, y además: ¿habría tenido Scheiner la valentía de sacar las conclusiones pertinentes sobre las teorías de Aristóteles como sí hizo Galileo?).
Galileo viajó a Roma para exponer sus sorprendentes resultados a los jesuitas del Collegium Romanum, la flor y nata del mundo académico europeo. Quien no le creyera podía mirar por sí solo al telescopio. Fue elegido miembro de la Accademia dei Lincei, la “academia de los linces”, fundada en 1603 por Francesco Cesi y cuyo nombre ya nos da la idea de que lo más granado de la ciencia italiana pertenecía a ella. La actual Academia pontificia de las ciencias (en la que están, entre otros, el físico británico Stephen Hawking y varios premios Nobel de las distintas especialidades científicas) es heredera, aunque por vía indirecta, de la academia de los linces.
Y tras ese viaje a Roma, los problemas no hicieron más que comenzar para Galileo. Llegamos así a uno de los episodios más populares y controvertidos de la vida de Galileo Galilei: el caso Galileo. El caso Galileo no hay que abordarlo porque sí, como si fuese una especie de paréntesis curioso y relajante entre tanta ley física y experimento científico, como un apéndice en la vida del sabio italiano para así hacerla más amena y divertida. No. El caso Galileo está en las raíces mismas del nacimiento de la ciencia moderna, que no se puede comprender sin los conflictos con otros órdenes de conocimiento (filosófico, teológico...) que durante siglos habían ocupado en gran parte el espacio en el que acabaría enmarcándose la ciencia. Hoy hemos sido capaces de entender que hay que distinguir, precisamente, esos órdenes de conocimiento y “poner cada cosa en su sitio”: ni la ciencia ofrece respuestas para lo que vaya más allá de su método, ni las religiones o las teorías filosóficas pueden invadir legítimamente el terreno propio de la investigación científica. Lo importante es aprender a tender puentes que permitan a quienes cultivan estas disciplinas dialogar e intercambiar sus resultados, conclusiones y reflexiones para elaborar juntos una visión más amplia del mundo, la historia y el ser humano. Pero en tiempos de Galileo no todos estaban de acuerdo en este punto. Galileo era un revolucionario y es lógico que despertase sospecha, escepticismo y miedo entre sus adversarios.
A la hora de estudiar el caso Galileo hay que evitar, por tanto, dos extremos igualmente radicales: ni idolatrar e idealizar la figura de Galileo frente al oscurantismo de sus censores (como hace la célebre obra teatral de Bertolt Brecht Galileo), porque supondría, lisa y llanamente, una simplificación de algo de por sí complejo, olvidando matices importantes; ni pretender justificar al modo de los apologetas la actitud de la Inquisición como algo esperable en el contexto de la contrarreforma y ante la falta de pruebas concluyentes por parte de Galileo para defender el heliocentrismo. Se necesita un análisis un poco más ponderado.
Los hechos, y resumiendo mucho, son los siguientes. Poco después de hacer públicos los resultados de sus observaciones astronómicas, y habiéndose inclinado claramente por el sistema heliocéntrico de Copérnico, Galileo despertó las suspicacias en Florencia, porque en una carta a su gran amiga la duquesa de Toscana había arremetido contra quienes “publican muchos escritos con vanos argumentos... y cometen el grave error de adornarlos con pasajes de la Biblia que no saben entender... Antes de decir que una proposición bíblica está condenada (por la Escritura) debe probarse rigurosamente”. ¡Alguien que no era teólogo se atrevía a dar lecciones de teología y de exégesis bíblica! Demasiado. ¿No estaba escrito en la Biblia que Josué había mandado al Sol detenerse? Si el Sol se detenía es porque era él, y no la Tierra, quien giraba. Como hemos repetido en tantas ocasiones, es muy fácil, a posteriori, acusar de ignorantes a los enemigos de Galileo, pero hay que entender que Galileo fue un revolucionario también en el modo de leer la Biblia no de manera literal, como si se tratase de un libro de historia y de ciencias naturales, sino interpretando el sentido de las palabras del texto. Estamos muy lejos de aquel arzobispo anglicano de Armagh y primado de Irlanda, James Ussher, que en el siglo XVII concluyó tras concienzudas investigaciones y sofisticados cálculos sobre las edades de los patriarcas bíblicos que la Tierra había sido creada en la noche previa al 23 de octubre del 4004 antes de Cristo. Muchos antes que Ussher habían intentado proponer una fecha tan precisa sin éxito, pero ninguno había sido tan “riguroso” como Ussher. Al fin y al cabo, el dato de Ussher al menos acierta en las unidades de millar (el 4); eso sí, hay que multiplicarlo por más de un millón (aproximadamente 1’148 millones), porque la edad que la geología suele atribuir al planeta Tierra es de unos 4.600 millones de años.
La Biblia, dirá Galileo, enseña cómo ir al cielo, pero no cómo es el cielo. El enfoque histórico-crítico en la interpretación de la Biblia no llegó a consolidarse hasta bien entrada la Ilustración, en el siglo XVIII (con un curioso precedente en la figura del obispo Teodoro de Mopsuestia, de los siglos IV y V). Todavía hoy existen grupos religiosos fundamentalistas (por ejemplo en el llamado “cinturón bíblico” de Estados Unidos) que mantienen una lectura literal de la Biblia y en base al libro del Génesis rechazan la teoría de la evolución de las especies, cuya enseñanza han llegado a prohibir en ciertas escuelas, ya que cuentan con el beneplácito de numerosos seguidores. Y si esto ocurre en el siglo XXI, qué no ocurriría en el XVII.
Por si cabía echar más leña al fuego, en 1614, Galileo fue denunciado como cercano a la herejía por el padre dominico Tommaso Caccini al defender que la Tierra no permanecía inmóvil. Semejantes acusaciones y desde un púlpito romano no podían pasar desapercibidas para Galileo, que era todo menos una persona que se dejase acobardar fácilmente y renunciase a sus opiniones para congraciarse con sus adversarios, por lo que volvió a Roma y expuso sus alegaciones. No le sirvió de mucho, porque en 1616 el cardenal Roberto Bellarmino (1542-1621), un jesuita (hoy santo y uno de los treinta y tres doctores de la Iglesia) al que se le suele considerar uno de los máximos representantes de la teología contrarreformista y que por entonces era uno de los hombres más influyentes de Roma, ordenó a Galileo, urgido por el papa Pablo V (Camillo Borghese, el que terminó de construir la Basílica de San Pedro), que se abstuviera de apoyar o enseñar el modelo de Copérnico si no era como una simple hipótesis. A Galileo se le pedían pruebas de esa teoría, y las que él daba no convencían a la comunidad científica. Además, se prohibía el De Revolutionibus Orbium Coelestium del ya fallecido Nicolás Copérnico. Roma no quería dar signos de división o de fractura ideológica interna para hacer frente común contra el protestantismo. Galileo optó por acatar lo mandado y guardar silencio. No tenía más remedio.
Pero nuevamente, su inquieta mente y sus convicciones científicas resultaron una perdición (a corto plazo) para Galileo. Había prometido al mismísimo Bellarmino no defender la teoría de Copérnico, pero con la elección en 1623 de un nuevo papa (Urbano VIII, el cardenal Barberini) que había sido amigo de Galileo, el pisano se creyó con fuerza para retomar sus posiciones astronómicas. Y como era de esperar, su antiguo amigo lo recibe en Roma con toda clase de honores. Galileo era enormemente famoso como matemático y como físico, pese a las polémicas que le rodeaban. Eso sí, el papa le reiteró a Galileo lo que le había comunicado Bellarmino años antes: que no prestase apoyo públicamente al heliocentrismo.
Si en 1622 había conseguido sacar a la luz su libro II Saggiatore, ¿por qué iba a tener algún problema ahora con su nueva obra, Diálogos sobre los dos sistemas máximos del mundo? Galileo, confiado, pidió el imprimatur, la licencia que los censores eclesiásticos tenían que dar a todo libro, y de hecho se lo concedieron. ¡Excelente!, podríamos pensar. Pero nada más lejos de la realidad.
Galileo se las había ingeniado para incluir en su libro las teorías heliocéntricas de Copérnico. Y lo había hecho de una manera aparentemente sutil y subrepticia, pero que no pasó oculta a los jueces de la Inquisición. El libro consistía en una serie de diálogos (al estilo platónico) entre tres personajes: Salviati, un sabio que encarnaba al mismo Galileo; Sagredo, un personaje sin formación pero con mucho sentido común; y Simplicio, un mero repetidor de las ideas de Aristóteles pero incapaz de hacerse un juicio propio. Y claro está, Galileo puso por boca de Salviati argumentos muy pulidos a favor del heliocentrismo, mientras que a Simplicio siempre le hacía quedar mal. Hasta lo que el iletrado Sagredo veía con claridad, a Simplicio le costaba verdaderos suplicios entenderlo. Finalmente, Simplicio acepta el modelo de Copérnico, pero con la condición de que se mantenga como una simple hipótesis. Es lo mismo que el papa Urbano VIII le había pedido a Galileo: que no defendiera el heliocentrismo como una teoría verdadera, sino como una mera hipótesis más cercana a la falsedad que a la verdad. Para colmo, el papa había solicitado a Galileo que incluyese su propia visión del asunto (la del pontífice) en la obra. Y por si fuera poco, Galileo presentaba como prueba definitiva del heliocentrismo el fenómeno de las mareas, que atribuía a causas que después se han demostrado erróneas (las mareas, como propuso Kepler y demostró definitivamente Newton, se deben a la atracción gravitatoria ejercida por la Luna y no al movimiento de rotación terrestre, como pensaba Galileo).
El libro apareció en 1632 porque, para alegría de Galileo, el censor, el padre Riccardi, no se lo había leído entero. Los filtros de la censura siempre tienen un fallo: el censor. Si el censor es perezoso y no lee, sale cualquier cosa. Si el censor se toma en serio y diligentemente su trabajo, la cosa es más difícil. Seguramente, en el caso del censor se da una de las escasas situaciones en las que es preferible alguien poco responsable y al que le guste poco su oficio. Cuánto favor acaba haciendo al mundo.
Pero ni el papa ni la curia romana eran tan poco perspicaces como Galileo había imaginado. Se dieron cuenta enseguida de que Galileo los había retratado en el personaje de Simplicio, ridiculizando al máximo sus posturas, lo que resultaba intolerable, sobre todo cuando ya en 1616 se le había prohibido a Galileo hacer de abogado de Copérnico. Se sentían insultados e injuriados por Galileo. La edición de la obra de Galileo fue secuestrada, y al científico se le llamó a Roma para someterse a un proceso, que se inició el 12 de abril de 1633.
Contra muchos tópicos que se han difundido en la conciencia popular sobre este proceso (oscuras y húmedas celdas de aislamiento en un calabozo para el anciano físico, trato vejatorio o muerte en la hoguera), consta por el estudio de los documentos del proceso (sus actas) que Galileo se hospedó en una casa y que tuvo a su servicio al mayordomo del embajador de Toscana. El proceso transcurrió relativamente rápido. A Galileo se le acusaba de haber desobedecido la orden que se le había dado en 1616, y en junio de 1633 ya estaba listo para sentencia (se trataba de un juicio muy peculiar, donde el fiscal y el juez eran en realidad la misma instancia, y donde Galileo no tuvo las garantías de defensa que existen en los juicios modernos) . Se le declaraba culpable de un delito de desobediencia y se le ordenaba abjurar de sus posiciones científicas. La proposición de que el Sol permanecía inmóvil se condenó como “absurda, filosóficamente falsa y formalmente herética por ser contraria a la Sagrada Escritura”. El papa no hablaba ex cathedra y por ello no se puede considerar que la posición de los inquisidores fuese aceptada oficialmente por la Iglesia católica. Una cosa es la jurisprudencia de los tribunales inquisitoriales y otra la doctrina de la Iglesia. La leyenda (probablemente falsa) dice que por lo bajo Galileo pronunció el célebre Eppur si muove, “y sin embargo se mueve”, como haciéndoles ver a sus jueces que ellos podrían tener el poder, pero no la razón.
¿Y después? La condena a prisión fue conmutada por un arresto domiciliario en la villa del Gioeiello, en Arcetri, cerca de Florencia, y allí viviría hasta su fallecimiento el 8 de enero de 1642, a los 78 años. En esa villa tendría aún fuerzas para escribir otra de sus grandes obras, Discursos y demostraciones matemáticas en torno a dos nuevas ciencias, donde ponía en orden los resultados en el campo de la mecánica y de la cinemática que ya había obtenido años atrás, y que es probablemente la de mayor valor científico de Galileo.
Como hereje condenado, Galileo no fue enterrado en lugar sagrado hasta 1737, año en que su cuerpo se trasladó a la iglesia de la Santa Croce de Florencia (donde todavía se encuentra). Hubo que esperar hasta 1758 para que la prohibición de leer libros que defendiesen la teoría heliocéntrica se suspendiese, y en 1992, así como en sucesivos actos y discursos, el papa Juan Pablo II pidió perdón por el trato que se le había dado a Galileo; un ejemplo, proseguía, de armonía entre fe y ciencia.
El caso Galileo ha hecho derramar auténticos ríos de tinta. Creo que se puede añadir poco, sobre todo cuando existen posiciones tomadas de antemano. Pero es interesante darse cuenta de que el verdadero conflicto se producía, por encima de todos los factores históricos, intelectuales y políticos que se quieran identificar, más que entre la ciencia y la religión (como si se tratase de dos cosas totalmente incompatibles), entre la libertad de pensamiento y el fanatismo, fanatismo que puede adoptar diversas formas (religiosas, ideológicas...). No tiene por qué haber conflicto entre la fe y la ciencia, que son, en frase afortunada del biólogo evolucionista Stephen Jay Gould, “dos magisterios que no se superponen” (non overlapping magisteria). El conflicto surge cuando ni la teología ni la ciencia saben ser lo suficientemente realistas como para reconocer los límites de sus conclusiones. Y aquí vale lo que proclamó con tanto vigor el teólogo Karl Barth: “Dios es Dios y el mundo es el mundo”. Los buenos científicos, como Galileo, saben poner cada cosa a su nivel, y los buenos teólogos reconocen (como lo hace, por ejemplo, la constitución Gaudium et Spes del concilio Vaticano II, de 1965) la autonomía de las ciencias experimentales para ofrecer una visión del mundo material.
Capítulo 11
Lo pequeño no es necesariamente hermoso pero es importante: el microscopio.
Admiramos lo grandioso, lo que nos desborda y sobrepasa. Cuando contemplamos el legado de las grandes civilizaciones antiguas, por ejemplo de la egipcia, enseguida quedamos fascinados por el tamaño y la monumentalidad de sus construcciones. ¿Quién no se sorprende ante la proeza insuperable que representan las pirámides, y no sólo las de Giza? ¿Quién no se siente como un auténtico “enano” - ¡palabra empleada por el mismísimo Champollion!- al pasear por el patio de columnas del templo de Karnak en Tebas? Admiramos esas proporciones absolutamente majestuosas y, más aún, que personas de carne y hueso como nosotros las levantasen hace milenios.
Pero el conocimiento de las civilizaciones antiguas probablemente no habría pasado de lo meramente superficial si legiones de arqueólogos, filólogos, historiadores y científicos no se hubieran fijado en “detalles” aparentemente insignificantes pero a la larga, más importantes. Las pirámides o el templo de Karnak nos dan una idea, claro está, del grado de desarrollo que alcanzó una civilización. Pero si queremos saber cómo era esa civilización, cómo vivía, cómo concebía el tiempo y la muerte, cuáles eran sus principales preocupaciones, cómo transcurrió su historia política y social, en qué creía exactamente y un sinfín de preguntas más que es inevitable plantearse, tenemos que mirar a las cosas pequeñas. Cosas pequeñas como los ajuares funerarios de reyes, nobles y campesinos; cosas pequeñas como registros agrícolas y ganaderos; cosas pequeñas como las cartas que se mandaban desde Tell el Amarna, la capital con Akenatón, a las grandes ciudades de Oriente Próximo en aquella época y que nos informa sobre la situación política internacional del momento; cosas pequeñas como leer el Diálogo de un hombre con su ba y sacar conclusiones sobre la visión egipcia de la vida humana e innumerables “minucias” (en comparación con los grandes monumentos) que, sin embargo, nos informan más y mejor sobre la verdadera “alma” de toda una cultura.
Lo anterior se puede extrapolar al mundo de las ciencias naturales. Podemos mirar al firmamento con admiración y con cierto sobrecogimiento ante su inmensidad y su lejanía. Podemos preguntarnos por qué brillan las estrellas, pero por mucho que miremos al firmamento no lograremos encontrar una respuesta, porque para descubrir cómo brillan las estrellas (una cuestión que seguramente había inquietado a muchos desde que el ser humano tuvo suficiente madurez racional para formularla) hay que descubrir primero cómo funciona lo muy pequeño: de qué está compuesta la materia y cómo interacciones las partículas elementales entre sí.
Nos fascinan las teorías que tratan de explicar el origen del universo, como el Big Bang, y que nos hablan de miles de millones de años-luz. Pero esas teorías no servirían de nada si no se basasen en un conocimiento sólido (que da la mecánica cuántica) del mundo atómico, indicando así cómo fueron surgiendo las distintas partículas y los diferentes elementos, siguiendo la evolución del cosmos. Uno de los grandes retos de la física actual es, justamente, integrar dos teorías aparentemente contrapuestas y que operan en dos ámbitos muy delimitados: la mecánica cuántica (que describe el mundo a escala atómica y subatómica) y la relatividad general, que trata sobre el macrocosmos. Pero uno de los grandes aciertos de la ciencia es haberse dado cuenta de que muchas no siempre era posible responder a las grandes preguntas que se refieren a cosas que nos superan en tamaño si antes no conocíamos lo que estaba ocurriendo en el microcosmos, en el reino de lo muy pequeño. Pensemos que el tamaño de un núcleo atómico es de unos 10-15 metros (es decir, un femto-metro, o una coma seguida de catorce ceros y un uno), y la distancia entre el núcleo y la corteza atómico es de cinco órdenes de magnitud (el átomo tendría un tamaño aproximado de 10-10, cantidad que se conoce como un Armstrong), que es tanto como decir que si una persona que viviese en Londres representase el núcleo atómico, la corteza se situaría a cien kilómetros de distancia, en Oxford. ¿No es llamativo? Las proporciones son siempre relativas, y la idea que nos forjamos de lo grande, de lo pequeño, de lo lejano y de lo cercano es enormemente limitada. Si nos parece grande la Tierra, ¿qué le pareceríamos nosotros a un microorganismo? ¿Y no se sentiría sobrecogida nuestra galaxia al saber que es una más entre miles de millones de galaxias que, se estiman, existen en el universo? ¿Y no se sentiría sobrecogida una neurona al comprobar que hay millones como ella en el sistema nervioso? La admiración y la sorpresa siempre tienen que ir de la mano de su reverso (la crítica y el cuestionamiento), y lo ideal es que ambas sepan convivir en paz, sin traumas, porque descubrir que somos una minúscula porción del cosmos no significa que no podamos asombrarnos de lo que hemos hecho y de lo que podemos hacer.
Y un avance fundamental en la observación del mundo de lo muy pequeño, aunque inicialmente sólo fuese de utilidad para las ciencias biológicas, fue la invención del microscopio.
¿Cuándo se inventó lo que hoy conocemos como microscopio? Tenemos que remontarnos al siglo XVII y a los Países Bajos, por entonces uno de los “epicentros” de la fabricación de lentes en Europa. Un filósofo tan extraordinario como Baruch de Spinoza (1632-1677), expulsado y excomulgado de joven de la sinagoga de Amsterdam por sus ideas y uno de los grandes del pensamiento moderno, pasó su vida retirado en una casita de campo de Holanda haciendo lentes, a la vez que escribía su célebre Ethica more geométrico demonstrata. Sin duda la paz de esas latitudes debió de inspirarle algunas de sus tesis más importantes.
El mismo año que nacía Spinoza veía la luz en la ciudad holandesa de Delft uno de los grandes inventores de la Edad Moderna: Thonius Philips van Leeuwenhoek, padre de la microbiología y cuyas mejoras a los modelos ya existentes de microscopios fueron tan importantes que casi podría concedérsele el mérito de haber desarrollado el microscopio óptico moderno.
El siglo XVII es el siglo de la Europa del Barroco, que vivía una ebullición de propuestas científicas y una efervescencia intelectual mayor aún si cabe que la Europa renacentista. Fue un tiempo prolijo en ideas científicas y en invenciones técnicas (hasta tal punto que puede decirse que en él surgió la ciencia moderna, y no es exagerado llamarlo el “siglo de los genios”), destacando, entre ellas, la creación del primer microscopio en sentido estricto (el microscopio óptico, a base de unir distintas lentes que aumentan el tamaño de la imagen). La prioridad en esta invención es un hecho aún controvertido y oscuro, pero sí podemos afirmar que hay al menos tres nombres que jugaron un papel importante en este hito de la tecnología: Hans Lippershey, Hans Janssen y su hijo Zacharias Janssen, todos ellos de los Países Bajos. El primero, Lippershey (1570-1619), que se dedicaba a la producción de lentes, había nacido en Wesel (Alemania), pero se había establecido en la ciudad holandesa de Middelburg. Muchos historiadores hablan de él como el verdadero inventor del telescopio, ya que se habría adelantado al mismísimo Galileo Galilei, patentando su artilugio en 1608. Su destreza con el manejo de las lentes la habría aplicado también al diseño del microscopio óptico aunque, nuevamente, todavía hay muchas lagunas historiográficas que resolver.
Pero quien supo reconocer las inmensas posibilidades científicas que ofrecía el microscopio fue Anton van Leeuwenhoek. Como escribe el popular divulgador de ciencia Isaac Asimov, “Anton van Leeuwenhoek fue un pañero que con sólo algunos años de escuela descubrió un nuevo mundo más asombroso que el de Colón”. Y es que, en efecto, Leeuwenhoek no era un fabricante profesional de lentes: se trataba sólo de un hobby, pero de una afición que le haría famoso en todo el mundo.
Nuestro hombre nació el 24 de octubre de 1632 en Delft, a medio camino entre Rotterdam y La Haya. Su padre era cestero, pero Anton entró como aprendiz de un fabricante de paños de origen escocés en Amsterdam. Su formación académica, como podemos suponer, fue más bien escasa (como también lo fue en el caso de grandes científicos como Michael Faraday y Thomas Edison) y, desde luego, no pasó por la universidad. Quizás no le hubiera servido de mucho (Leibniz, también de la misma época, las llamaba “instituciones monacales” sumidas en el más absoluto ostracismo y alejadas de la innovación en ciencias y filosofía). Lo cierto es que como pañero encontró el tiempo libre necesario para cultivar su gran pasión: el pulido de las lentes.
En 1648 Leeuwenhoek estaba instalado en Amsterdam, y allí tuvo acceso a los prototipos de microscopio que habían construido los mejores fabricantes de lentes de la ciudad. Esos aparatos eran capaces de aumentar hasta tres veces el tamaño de los objetos. Leeuwenhoek, ni corto ni perezoso, compró uno y se puso a experimentar con él. ¿Cómo se podía conseguir que ese mismo artilugio multiplicase no por tres, sino por mucho más, el tamaño de los objetos? Y de vuelta a su Delft natal, habiendo ganado suficiente dinero con su negocio de producción de paños como para dedicarse más a fondo a lo que realmente le gustaba, mejoró el sistema.
Para ello colocó el centro de una barra de cristal limado en una llama, logrando así obtener dos “tiras” largas de cristal al ser capaz de retirar la parte más caliente del vidrio en cuestión, que resultaba más fácil de manipular. Ahora, si se calentaba el extremo de una de esas tiras, la punta de esa tira se convertía en una esfera de cristal diminuta y muy pulida, ideal para funcionar como lente en un microscopio. La técnica requiere de una precisión extrema, porque es muy difícil obtener puntas redondeadas aptas para servir como lentes, y el proceso de calentar el vidrio no es sencillo y ha de hacerse con sumo cuidado (máxime en aquellos tiempos, sin mecheros Bunsen, hoy de uso habitual en los laboratorios). La pericia de Leeuwenhoek es, por tanto, excepcional. Además, cuanto más pequeña era la esfera más aumentaba el tamaño de los objetos que se observaban con ella, al proyectar mejor la imagen. Sólo los buenos fabricantes de lentes que pudieran hacer esferas de cristal muy pequeñas iban a ser capaces de construir microscopios ópticos.
¿Eso era todo? ¿No se necesitaba nada más para fabricar un microscopio? No hacía falta mucho más, y el propio Leeuwenhoek se sintió algo “avergonzado” o al menos abrumado por la simplicidad de la técnica (simplicidad para los demás productores de lentes que había en Holanda) y, temiendo que esto motivase que la comunidad científica no reconociese suficientemente su trabajo, prefirió fingir y hacer creer que sus lentes eran fruto de una laboriosa y minuciosa tarea de pulido de lentes. En ocasiones, si los grandes inventores quieren triunfar, tienen que buscarse ellos mismos sutiles estrategias o artimañas para que los demás lleguen a apreciar el valor de sus creaciones.
Pero lo cierto es que pocos se creían lo que Leeuwenhoek simulaba, entre otras cosas porque no era lógico que si tenía que emplear tanto tiempo en pulir lentes construyese tantos microscopios como salían de su taller. Las cifras hablan de unas 500 lentes y aproximadamente 400 microscopios (la mayoría con soportes metálicos de plata o cobre) que aumentaban la imagen no 3, sino hasta 275 veces, muchos de ellos construidos para observar una única especie biológica en exclusiva. No había que estar muy despierto para caer en lo inverosímil de sus pretensiones.
Si Leeuwenhoek ha entrado por la puerta grande en la historia de la ciencia y, como dice Asimov, ha abierto un mundo más fascinante que el de los grandes exploradores, no es tanto por su indudable destreza en la fabricación de microscopios como por las aplicaciones que dio a estos instrumentos.
Por primera vez, el ser humano tenía ante sus ojos un universo repleto de nuevas criaturas y de seres inertes hasta entonces desconocidas: microorganismos (que Leeuwenhoek denominó animálculos) tales como bacterias y espermatozoides, fibras musculares, el paso de la sangre por los capilares que conectan las arterias con las venas... Leeuwenhoek fue, casi con toda seguridad, la primera persona que observó ese flujo de sangre a través de los capilares. Descubrió en 1674 la infusoria, grupo al que pertenecen, entre otros, los ciliados, los protozoos y las algas unicelulares, que en las actuales clasificaciones taxonómicas se engloban en el reino protista (término que propuso en 1866 el gran biólogo alemán Ernst Haeckel), siendo todos sus miembros organismos eucarióticos, es decir, cuyas células tienen un núcleo en el que reside la mayor parte de su material genético. Uno de sus hallazgos más relevantes fue el de las bacterias, organismos de una célula, que provocaría no poca controversia científica, como veremos a continuación.
Sus descubrimientos tuvieron pronta resonancia en el panorama científico europeo. La Royal Society de Londres, que había fundado no hacía mucho el rey Carlos II de Inglaterra y que hoy en día actúa a modo de academia de las ciencias del Reino Unido, había recibido ya cartas del propio Leeuwenhoek en las que éste explicaba cómo había construido sus microscopios y qué había observado exactamente con su sistema de lentes. El médico holandés Regnier de Graaf (que da nombre al folículo de Graaf en los ovarios) le había puesto en contacto con esta sociedad científica, a la que él pertenecía. La publicación de esta academia, las célebres Philosophical Transactions, acogieron varios artículos de Leeuwenhoek que sorprendieron a los científicos de la época por su originalidad.
La aceptación de Leeuwenhoek por parte de la Royal Society no estuvo, sin embargo, exenta de complicaciones, esperables si tenemos en cuenta que Leeuwenhoek se limitaba en un principio a enviar dibujos de lo que él decía haber visto y, por ello, aun contando con el aval de un científico de la altura de Graaf, era inevitable que levantase un cierto escepticismo o suspicacia entre los demás investigadores.
Además, Leeuwenhoek no era el único que había investigado formas vivas con el microscopio. Otros habían hecho ya observaciones muy importantes, especialmente Robert Hooke. Hooke (1635-1703) es un hombre en quien vale la pena detenerse. Cualquier estudiante de secundaria habrá oído hablar de la “ley de Hooke” para la elasticidad. Hooke fue un gran científico, pero tuvo la mala suerte de vivir en un momento y en un país (Inglaterra) que si algo tenía era precisamente titanes de la ciencia. Su agrio enfrentamiento con Isaac Newton, al que acusaba de haberle robado la idea de que la fuerza de atracción gravitatoria entre dos cuerpos disminuía con el cuadrado de la distancia (la famosa ley de la gravedad de Newton: la fuerza de atracción entre dos cuerpos es directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia entre ellos), hizo que este último, que si por algo se caracterizaba era por una capacidad de enfado e irascibilidad ante las críticas casi sobrehumana, desplegase todo su rencor contra él. Hooke tenía un intelecto inusualmente versátil: era arquitecto, físico, biólogo... Lo que los ingleses llaman un polymath, aunque también aquí pudo estar la causa de que no triunfase tanto como Newton. Había recibido una esmerada educación primero en Westminster School, uno de los colegios con más solera de Inglaterra, situado junto a la Abadía de Westminster en Londres (en el que han estudiado, entre otros, el filósofo John Locke, el Nobel Edgar Adrian o los actores Sir John Gielgud y Sir Peter Ustinov), y luego en Christ’s Church, en Oxford (el mismo lugar en el que después viviría Lewis Carroll, el autor de Alicia en el país de las maravillas). Parece ser que colaboró con el químico Robert Boyle en la formulación de su ley sobre los gases (que relaciona la presión y el volumen a temperatura constante).
Pero si hay algo por lo que merece una alta consideración en la historia de la ciencia es por su libro Micrographia que, aparecido en 1665, contenía la primera descripción de lo que hoy conocemos como una célula. De hecho, el término “célula” es suyo, inspirándose para ello en las células en que residían los monjes en los monasterios. Sus conclusiones las había extraído de observaciones con microscopios bastante elementales, sin duda peores técnicamente que los de Leeuwenhoek.
¿Conocía Leeuwenhoek la obra de Hooke? Muchos historiadores se inclinarían a decir que Leeuwenhoek había leído la Micrographia de Hooke. Pero en cualquier caso, sus problemas con la Royal Society no se limitaron a una disputa con algún que otro científico sobre la prioridad de sus hallazgos. Cuando Leeuwenhoek escribió a la Sociedad dando pautas sobre cómo reproducir los experimentos que él había realizado en Holanda y científicos como Hooke construyeron sistemas de lentes como los de Leeuwenhoek, se disiparon bastantes dudas sobre las habilidades del holandés.
El problema era de mayor calado científico. Leeuwenhoek sostenía haber observados seres de una sola célula (las bacterias), algo que se era imposible para la comunidad científica. Tanto es así que la Royal Society designó a un equipo de juristas y doctores para viajar a los Países Bajos y conocer de primera mano la veracidad de las informaciones que Leeuwenhoek mandaba por carta, a modo de notarios, y así saber si el engaño recaía en el propio Leeuwenhoek o más bien en las teorías científicas aceptadas que excluían la existencia de organismos unicelulares. Hubo que esperar hasta 1680 para que la Sociedad no tuviese dudas de la corrección de las observaciones de Leeuwenhoek. La elección de Leeuwenhoek como fellow (miembro) de la Royal Society ese año vino a consagrar el nacimiento de una nueva disciplina científica: la microbiología.
Leeuwenhoek se hizo muy famoso. Las personalidades que visitaban Holanda querían conocer al descubridor de ese mundo minúsculo y extraño que sin embargo maravillaba a los científicos. Desde el zar Pedro I de Rusia hasta la reina de Inglaterra, todo el mundo quería verlo. A Leeuwenhoek le llegaban muestras de los lugares más recónditos (a los que había llevado el ardor comercial de los holandeses, fundando la Compañía Holandesa de las Indias Orientales) para que las analizase con su microscopio. Murió en su ciudad natal de Delft el 30 de agosto de 1723, tras una fecunda y dilatada vida.
Las contribuciones de Anton van Leeuwenhoek van mucho más allá de crear la ciencia de la microbiología. Gracias a sus descubrimientos, teorías que hasta entonces se tenían como verdaderas empezaron a ser cuestionadas. Ya desde los griegos se creía que de la mera materia orgánica podía surgir vida. Es lo que se conoce como generación espontánea. Hoy nos puede resultar absurdo, pero la cosa tenía su sentido. Alguien deja la basura en la calle y al poco aparecen insectos. ¿Cómo han llegado hasta allí? Por generación espontánea de la propia materia orgánica de la basura que, descomponiéndose, ha dado lugar a la aparición de seres vivos como toda clase de insectos (moscas, cucarachas, escarabajos...). Repito que hoy nos parecerá absurdo porque pertenecemos a una época en la que el microscopio, la microbiología y la ciencia en general han entrado a formar parte de nuestro día a día. Sabemos que es imposible que de un montón de materia orgánica surja, como de la nada, vida. O al menos creemos saberlo, porque cuando nos preguntamos por el origen de la vida, el tema no está tan claro. Pero vayamos un poco más despacio.
La abiogénesis o generación espontánea (es decir, que la vida puede surgir de la no-vida -a-biós en griego) había sido defendida por biólogos de gran altura como Aristóteles (384-322 antes de Cristo), y por su prestigio (como ocurrió en otros muchos campos: física, filosofía...) nadie se atrevió a cuestionarla hasta el siglo XVII. Thomas Browne, que se guiaba por los ideales de ciencia dados por su compatriota Francis Bacon (observar y experimentar y no conducirse sólo por la intuición y la tradición), dudaba de la tesis aristotélica. En 1668, el italiano Francesco Redi demostró que si se lograba impedir que las moscas pusiesen sus huevos en la carne, no salían gusanos. La aparición de los gusanos podía deberse, en consecuencia, no a la descomposición de la carne sino a los huevos que dejaban las moscas.
Pero fue la exploración del mundo microbiológico propiciada por el trabajo de Anton van Leeuwenhoek lo que acabó asestando un golpe mortal a la teoría de la generación espontánea. En 1768 el italiano Lazzaro Spallanzani sentó las bases de la refutación definitiva de esta teoría al comprobar que los microbios surgen del aire, y que calentando intensamente el receptáculo era posible eliminarlos, impidiendo así que apareciesen formas de vida. Pero los defensores de la generación espontánea aún podían argumentar que al aplicar un calentamiento intenso los alimentos quedaban sin aire y no podían “producir” vida. Se necesitaba algo más riguroso y convincente.
Y llegamos así a uno de los grandes de la ciencia: el francés Louis Pasteur (1822-1895). Pasteur es recordado por muchas aportaciones al desarrollo de la biología, la química y la medicina: la teoría de los gérmenes, el proceso de pasteurización, la primera vacuna contra la rabia, el estudio de los cristales con luz polarizada... Pero en su tiempo tuvo gran repercusión en toda la comunidad científica un experimento que efectuó en 1862. En él, Pasteur preparó un matraz (recipiente de cristal que se usa en los laboratorios para mezclar disoluciones) que contenía un caldo de alimento en el interior. Aplicando calor, curvó el cuello del matraz. Cuando, hirviéndolo, había conseguido expulsar todo el aire que podía tener el matraz, lo dejó en reposo varios días para observar qué pasaba en su interior. Al haber curvado el cuello del matraz, Pasteur se había asegurado de que podía entrar aire, pero atrapando los posibles microorganismos y partículas de polvo que transportase. La diferencia con el experimento de Spallanzani radicaba en que Pasteur había aplicado una etapa de ebullición o calentamiento para esterilizar el alimento. De esta manera, el alimento permanecía sin descomponerse. Pero si se inclinaba el matraz, dejando así pasar a los microorganismos del aire (Pasteur se había cuidado de probar que los microorganismos transportados por el aire eran similares a los de los alimentos) que habían quedado retenidos en el cuello del recipiente, el alimento se pudría, a pesar de que Pasteur lo había esterilizado con calor y había comprobado antes cómo no se descomponía. Los responsables de la descomposición del alimento no podían ser otros que los microorganismos que llevaba el aire, y no había ninguna generación espontánea, sino que era el propio aire el responsable de trasladar esos microorganismos al alimento.
Así, Pasteur logró convencer a la comunidad científica de que eran los gérmenes de ciertos organismos y no la descomposición de la materia inerte lo que generaba nuevas formas de vida.
Pero el problema no quedaba zanjado ahí. El experimento de Pasteur parecía apoyar la idea de que la vida sólo surge a partir de la vida (principio que suele sintetizarse en la frase latina omne vivum ex vivo) pero, ¿cómo extrapolar estas consideraciones al inicio de la vida? ¿De dónde podían haber surgido las primeras formas de vida si no era de la materia inerte? Llegamos a uno de los grandes interrogantes de la ciencia. Si el paleontólogo y teólogo jesuita francés Pierre Teilhard de Chardin (1881-1955), famoso por su hipótesis del Punto Omega o unidad final hacia el que evolucionarían la materia y la conciencia, había descrito la historia del universo como un proceso en el que sucesivamente habían ido surgiendo la hilosfera (o espacio de la materia, hilé en griego), la biosfera (espacio de la vida, biós en griego) y la noosfera (espacio de la mente, en griego noús), no es difícil advertir que el tránsito de cada uno de esos “espacios” al otro es un enigma para la ciencia. ¿Cómo surgió la vida? ¿Cómo surgió la conciencia? Y, más aún, ¿llegaremos algún día a tener una respuesta para estas preguntas o estamos condenados a ignorarlo?
No han faltado hipótesis que traten de explicar el origen de la vida. Una de ellas la propuso el bioquímico soviético Alexander Oparin en 1936 y es conocida como la hipótesis de la sopa primitiva. Oparin postuló que la atmósfera primordial, carente de oxígeno, habría podido generar moléculas orgánicas por acción de la luz solar, y la combinación de estas moléculas en coacervados (del latín coacervare, que significa “ensamblar”) más complejos que se habrían ido fusionando entre sí y luego dividiéndose podría concebirse como una versión inicial de la reproducción biológica. Para Oparin, en definitiva, la vida podía reducirse a la mera combinación de elementos orgánicos más simples que al unirse generarían formas más complejas.
Si el experimento de Pasteur de 1862 había servido para aclarar bastantes dudas sobre la teoría de la generación espontánea, el experimento de Stanley Miller en 1953 sobre la “sopa primitiva” continúa siendo hasta hoy de referencia obligada para la cuestión sobre el origen de la vida. Miller, un joven estudiante americano bajo la dirección del también estadounidense y premio Nobel de química Harold Urey, preparó en un matraz una atmósfera a base de metano, amoníaco, vapor de agua e hidrógeno, y al cabo de dos semanas comprobó, para su sorpresa, que habían aparecido aminoácidos (moléculas que constituyen las proteínas), “ladrillos” de la vida. Claro está que Miller no había producido formas vivas, pero sí había sido capaz de crear estructuras complejas a partir de compuestos relativamente simples como el metano o el amoníaco que habrían existido en la atmósfera de la Tierra primitiva, hace miles de millones de años. Experimentos posteriores como los del químico catalán Joan Oró (1923-2004), que consiguió generar adenina (una de las bases que componen los ácidos nucleicos como el ADN y el ARN) a partir de cianuro de hidrógeno (H-CN), han venido a confirmar que, efectivamente, es posible generar moléculas complejas a partir de compuestos más simples en las condiciones adecuadas. Pero todavía no disponemos de una teoría que goce de la suficiente aceptación sobre el origen de la vida y sobre el mecanismo exacto que ha seguido esa transformación progresiva de las estructuras simples en estructuras más complejas. La ciencia se nutre de interrogantes, que siempre han existido, existen y existirán. Lo importante es que pongamos los medios para irlos respondiendo.
Capítulo 12
Watt y la máquina de vapor.
Solemos prestar gran atención a las revoluciones políticas (por ejemplo, la americana en 1776 o la francesa de 1789) a la hora de explicar el nacimiento del mundo contemporáneo, pero a menudo olvidamos que éstos y otros acontecimientos no habrían sido posibles sin la revolución industrial y sin una serie de cambios técnicos, científicos y sociales que están en la base de las principal transformaciones políticas que han tenido lugar en la historia reciente.
La pregunta es la siguiente: ¿qué viene antes, la revolución técnica o la política? Cronológicamente puede demostrarse que la revolución industrial ocurrió antes que la revolución francesa, que supuso una modificación decisiva en el orden política y social del mundo occidental. En este sentido, cabe pensar que para que una revolución o un cambio político triunfe y prospere, es necesario que exista una infraestructura técnica y sobre todo económica que lo permita. O en otras palabras, sin desarrollo económico previo no cabe progreso político. Los filósofos de tendencia marxista, muy influyentes en el pasado siglo, han tendido a concebir el cambio social de esta manera: el nivel económico -el status y la clase social, por ejemplo- resultan determinantes en la creación de ciertas estructuras o modelos de organización en el campo político, cultural y religioso. Uno piensa de una forma u otra según su procedencia social y económica. Quienes pertenezcan a una clase alta preferirán votar a partidos políticos que bajen los impuestos, fomenten la subsidiariedad y primen un mercado más libre que genere desarrollo empresarial, y quienes vengan de un nivel económico inferior seguramente votarán a quienes propugnen un mayor reparto de la riqueza, una mayor protección del trabajador y un mayor progreso social donde prime la solidaridad sobre la subsidiariedad. Es algo lógico que se remonta a tiempos inmemoriales: la defensa de los propios intereses, aunque la paz social muchas veces exija saber mirar más allá del propio interés.
Otra tendencia del pensamiento filosófico y sociológico contemporáneo ve la realidad a la inversa: antes que el desarrollo económico y tecnológico está el progreso político. Sin un adecuado modelo de sociedad, con instituciones políticas suficientemente capaces para fomentar el desarrollo, no es posible el progreso económico. En una obra que se hizo muy famosa, La ética protestante y el espíritu del capitalismo (1904), el alemán Max Weber (1864-1920) sostenía que las culturas y las religiones habían sido esenciales en el surgimiento del capitalismo moderno. El afán de lucro, de acumular por acumular que está en las raíces del sistema capitalista, procedía, en sus fundamentos, de la ética del protestantismo calvinista, que había encontrado suelo fértil en Holanda y en general en el mundo anglosajón. Las riquezas, consideradas como un signo de bendición divina y de predestinación a la salvación para los calvinistas, eran ahora valoradas por encima de otros muchos aspectos que antaño habían disfrutado de mayor consideración. Aunque Weber ha sido criticado por muchos autores posteriores, ningún sociólogo e historiador de las ideas puede ignorar su obra y la minuciosidad con que expuso argumentos a favor de su tesis, a saber, que el capitalismo moderno echaba sus raíces en el calvinismo del siglo XVI. Más recientemente, el filósofo y premio Nobel de economía indio Amartya Sen (1933-...) ha declarado reiteradamente que para erradicar la pobreza primero hay que promover el desarrollo democrático de un país y no al revés.
¿Quién tiene razón? Es una pregunta enormemente compleja como para que se pueda responder a la ligera. Y como sugería Heidegger (para muchos, junto con Wittgenstein, el mayor filósofo del siglo XX), la pregunta puede llegar a tener más poder y más fuerza que la repuesta. Preguntarse “¿por qué el ser y no la nada?” es más importante, creo yo, que encontrar una respuesta, porque seguramente no existe y, aunque existiera, de encontrarse seguramente cerraría otras posibles alternativas. La pregunta, sin embargo, deja abiertas opciones y posibilidades.
Por tanto, habrá que analizar cada caso en concreto antes de “dictar” normas de carácter universal, pero no podemos negar que ambos factores (la organización económica -el mundo material- y las ideas -políticas, religiosas, culturales-) se han influido mutuamente. Un desarrollo económico y tecnológico tan espectacular como el que se dio durante la revolución industrial no habría servido de nada sin un cambio radical en el orden político (que se produjo con la revolución francesa) capaz de proporcionar un marco social y organizativo adecuado para los nuevos tiempos y las necesidades impuestas por ese crecimiento material. Pero a la inversa, sin ese cambio político seguramente el desarrollo material propiciado por la revolución industrial se habría visto frustrado, al “ahogarse” en modelos organizativos y políticos ya agotados y obsoletos.
¿Qué fue la revolución industrial? Una de las transformaciones más notables que ha vivido el mundo occidental en los últimos siglos. Se pueden distinguir dos revoluciones industriales (al igual que, para muchos autores, se pueden identificar dos ilustraciones con casi un siglo entre medias: la de Montesquieu, Voltaire y Rousseau, y la de Marx, Nietzsche y Freud): la primera revolución industrial tuvo lugar en la segunda mitad del siglo XVIII, principalmente en Inglaterra (un país que, en la historia moderna, ha estado siempre a la cabeza del progreso científico, tecnológico y económico), y tuvo entre sus ejes fundamentales la invención de la máquina de vapor. La segunda revolución industrial se produjo algo más tarde, a mediados del siglo XIX, y se caracteriza por la extensión de tecnologías tan importantes como el ferrocarril, la máquina de combustión interna o sobre todo la energía eléctrica, que iba a regir las décadas venideras.
Queremos referirnos a una figura clave en la primera revolución industrial: se trata del inventor escocés James Watt (1736-1819), un hombre que vivió justamente la transición del siglo XVIII al siglo XIX y, grosso modo, de una era (la era pre-industrial y pre-revolucionaria) a otra (la edad contemporánea). Desde Watt y la revolución industrial, la fe en el poder de la técnica y de la máquina como fuentes de progreso ilimitado y de bienestar sólo ha empezado a ser cuestionada en el siglo XX. La Europa de Watt estaba conmocionada por sucesos como el fatídico terremoto de Lisboa del 1 de noviembre de 1755, y ni Dios ni la naturaleza iban a gozar ya de la confianza que habían recibido en épocas anteriores. Ese seísmo inspirará a Voltaire a escribir su Cándido, ironizando sobre la tesis de Leibniz de que nuestro mundo es el mejor de los mundos posibles porque Dios sólo podía crear el universo más perfecto. ¿Cómo confiar en un Dios providente que todo lo había dispuesto para el bien de la humanidad si la antes gloriosa ciudad de Lisboa yacía en ruinas? ¿No era la naturaleza algo salvaje y peligroso que el ser humano debía aprender a controlar si no quería caer él preso de su dominio? ¿Y quiénes sino la ciencia y la tecnología podían ocupar el vacío de optimismo y de mirada hacia el futuro que habían dejado las religiones? ¿Qué sino los horizontes que abrían podían llenar de consuelo y de esperanza al ser humano? La visión ilustrada de la historia ha definido el mundo contemporáneo.
James Watt nació el 19 de enero de 1736 en la localidad escocesa de Greenock. Escocia es una tierra prolija en inventores, pensadores y científicos: Adam Smith, David Hume (padres de la llamada “ilustración escocesa”) o más recientemente Alexander Fleming, eran todos de esta región británica.
Procedía de una familia acomodada de confesión presbiteriana (una forma del calvinismo que alcanzó gran protagonismo en Escocia): su padre era propietario de barcos y su madre, Agnus Muirhead, descendía de una ilustre estirpe escocesa.
Watt no recibió una educación académica “oficial”, sino que la mayor parte de su formación corrió a cargo de su propia madre (el fenómeno del home-school, que ahora parece volver a extenderse en algunos países). Parece que se le daban especialmente bien las matemáticas, pero se le resistían el latín y el griego, aunque esto no debe dar pie a oponer por completo los estudios científicos a los humanísticos: Carl Friedrich Gauss (1777-1855), llamado el “príncipe de los matemáticos” (princeps mathematicorum) y uno de los más geniales matemáticos de la historia, destacó por sus conocimientos de lenguas clásicas, hasta el punto de que Gauss siempre prefirió escribir sus libros y artículos en latín y, en un principio, estuvo tentado de dedicarse a la filología antigua en vez de a las matemáticas.
Watt estaba muy dotado para las actividades manuales, y cuando su madre falleció, teniendo él 17 años, y la salud de su padre empezó a resentirse, decidió trasladarse a Londres para dedicarse al estudio de la manufactura de instrumentos y artilugios. Al año siguiente regresó a Glasgow, en su Escocia natal, donde se topó con la rígida oposición del gremio de artesanos de la ciudad (el Guild of Hammermen) por no haber servido como aprendiz antes de intentar montar su propio negocio de diseño de instrumentos técnicos. Los gremios, que habían jugado un papel muy relevante en la sociedad medieval, a la larga se convirtieron en un serio lastre para el desarrollo industrial y económico, al hacerse entidades cuasi-herméticas, sumamente “bunkerizadas”, blindadas de cara al exterior y recelosas de las innovaciones, por lo que los cambios sociales exigieron la aparición de nuevas corporaciones mejor adaptadas a los nuevos tiempos.
Afortunadamente, su choque con ese gremio de Glasgow no significó el fin de una prometedora carrera para Watt. Tres profesores de la Universidad de Glasgow le ofrecieron instalar un taller en el interior de la misma universidad, especialmente gracias al apoyo y aliento del químico Joseph Black (1728-1799), quien hizo contribuciones tan importantes a la ciencia como el descubrimiento del dióxido de carbono o el desarrollo teórico de conceptos esenciales de la termoquímica, incluyendo el de calor latente o calor específico, después de uso común en la física y en la química. Black llegaría a ser el principal mentor de Watt.
Y llegamos al invento de la máquina de vapor, una de las creaciones más geniales de la técnica occidental. Watt, en su pequeño taller de la universidad de Edimburgo, se había dedicado a investigar las propiedades del vapor, probablemente aconsejado por uno de sus profesores: John Robinson. Robinson era oficialmente “profesor de filosofía”, porque hasta el siglo XIX disciplinas científicas tan diversas como la física o la química se englobaban en lo que entonces se conocía como “filosofía”. Cuando Newton pone como título a su gran obra Principios matemáticos de la filosofía natural, por “filosofía natural” no se está refiriendo a lo que la filosofía posterior (especialmente los idealistas alemanes como Schelling) llamaría “filosofía de la naturaleza”, sino a las ciencias naturales.
Antes que Watt, el inventor Thomas Newcomen había construido en 1712 una “máquina atmosférica” (conocida después como la máquina de Newcomen) que utilizaba, si bien de manera rudimentaria, la potencia del vapor para generar movimiento. Ya Herón de Alejandría, en el siglo I después de Cristo, había descrito en su obra Spiritualia seu Pneumatica lo que denominó aeolípila, un claro precedente de los dispositivos movidos por vapor. Las máquinas de Newcomen resultaron particularmente productivas a la hora de extraer agua de las minas (una especie de shaduf, dispositivo mecánico muy difundido entre los campesinos egipcios a orillas del río Nilo para retirar agua sin excesivo esfuerzo, pero el de Newcomen estaba accionado por la fuerza del vapor). Los historiadores reconocen el mérito de Newcomen como el primer inventor que supo aprovechar la capacidad del vapor para efectuar trabajos mecánicos, si bien su extensión no se lograse propiamente hasta James Watt.
Watt buscó una máquina de Newcomen y pidió a la universidad de Glasgow que le trajese el modelo que tenía pero que había sido llevado a Londres para arreglos. En 1763 Watt disponía ya de una máquina de Newcomen y, tras los oportunos ajustes, comenzó a experimentar con ella. Puntualicemos que Watt no era un simple técnico: era, ante todo, un científico, y antes de proponerse mejorar la máquina de Newcomen para construir lo que sería la máquina de vapor estudió cuidadosamente la naturaleza del vapor y llegó, por su cuenta, a conclusiones muy similares sobre el calor latente a las que había propuesto su mentor Joseph Black años antes. Rara vez triunfa un inventor que carezca de pericia o talento teórico. La teoría y la práctica se deben tanto la una a la otra y se necesitan tanto que es muy difícil aportar algo en la práctica si no se conocen los fundamentos de un determinado proceso físico, y realizar un desarrollo significativo en el campo teórico si no se está al tanto de los descubrimientos experimentales.
Einstein, sin conocer el experimento de Michelson-Morley sobre la independencia de la velocidad de la luz respecto al movimiento del observador, probablemente no habría pensado en la teoría especial de la relatividad. Y en el campo de las ciencias humanas, un filósofo o un sociólogo que no conozca a fondo la situación cultural de su tiempo podrá teorizar mucho, pero en el vacío. Y al revés: alguien que sólo se dedique a hacer estadísticas sobre lo que se piensa en su época y en su país y no se proponga sacar alguna conclusión o alguna propuesta teórica no hará avanzar el conocimiento, porque recoge datos, pero no es capaz de sistematizarlos y unificarlos.
Watt, imbuido en sus experimentos con el prototipo de máquina de vapor que había construido Newcomen, demostró que aproximadamente un 80% del calor del vapor se empleaba en el calentamiento del cilindro (el espacio en que opera el pistón de la máquina). El consumo de este calor estaba relacionado con la corriente de de agua fría que se inyectaba en la máquina y que condensaba el vapor. Y aquí viene el “genio” de Watt, el “punto de inflexión” en su trabajo con la máquina de vapor que le ha valido un lugar tan relevante en la historia de la ciencia y de la tecnología. Watt se dio cuenta de que era mejor hacer que el vapor se condensase en una cámara separada del pistón, manteniendo la misma temperatura en el cilindro en el que se encontraba el pistón y en el vapor inyectado al sistema. Este descubrimiento, fundamental en la posterior producción en masa de máquinas de vapor, lo hizo en 1765.
¿Cómo funciona una máquina de vapor? En resumen, puede decirse que lo que hace una máquina de vapor como las que inventó Watt (de combustión externa, luego sustituidas por las máquinas de combustión interna y por los motores eléctricos) es aprovechar la energía en forma de calor que tiene el vapor para transformarla en energía mecánica, es decir, en movimiento (la energía mecánica es la suma de la energía potencial y de la energía cinética que un cuerpo tiene en virtud de su velocidad).
El dispositivo consta de una especie de caldera encargada de calentar el agua (fase líquida) para que se transforme en vapor (fase gaseosa). El vapor, que tiende a expandirse o contraerse según la presión a que se vea sometido en el interior de la máquina, ejerce una fuerza sobre el pistón. El pistón se mueve a causa de la fuerza y ese movimiento puede utilizarse en la ejecución de trabajos mecánicos, como por ejemplo girar las ruedas de un vehículo. Por tanto, lo único que se necesita para construir una máquina de vapor elemental es un calentador capaz de generar un vapor. Los dispositivos que siguieron a la máquina de Watt emplearon madera, carbón o aceite para generar ese vapor (sin ir más lejos, los ferrocarriles, surgidos también en Gran Bretaña a principios del siglo XIX).
Watt tenía ya una máquina de vapor, pero la importancia de su invento no habría sido tan notoria si él mismo no hubiese conseguido producirla a gran escala. “Gran escala” es un concepto propio de la revolución industrial, algo que está en su esencia más profunda, porque la clave de esta nueva forma de producir es que, a diferencia del artesano, en la industria la colaboración entre el trabajo humano y el trabajo mecánico de las máquinas es capaz de aumentar enormemente el número de unidades de un determinado bien. Pero, para ello, se requiere de un gran capital, no basta sólo con disponer de materias primas (factor tierra) y de trabajo humano (factor trabajo) que ponga en funcionamiento las máquinas, sobre las que recaerá gran parte del peso de la producción en masa. Es necesario que particulares o instituciones públicas pongan sus bienes (dinero, medios técnicos) acumulados con anterioridad para adquirir más máquinas, más materias primas y contratar a más trabajadores. La industria moderna ha sido clave a la hora de apuntalar el capitalismo como sistema económico predominante en el mundo contemporáneo, no basta con materiales y trabajo para crear un producto, sino que es necesario disponer de capital suficiente para “poner en marcha” ese proceso de producción. El capital llegaría a ser el factor económico dominante, poniéndose muchas veces por encima del trabajo y suscitando en el siglo XIX la llamada cuestión social, la del estado de muchos trabajadores de la industria que vivían en condiciones infra-humanas porque sólo se les consideraba útiles en cuanto capaces de producir bienes que le reportasen beneficios económicos al dueño de la fábrica. Justamente, el progreso social ha consistido en hacer prevalecer el trabajo sobre el capital, la dignidad de la persona que trabaja sobre el posible beneficio económico que pueda generar o, en palabras de Juan Pablo II en su encíclica Laborem Exercens (1981), “este principio [el de la primacía del trabajo sobre el capital] se refiere directamente al proceso mismo de producción respecto al cual el trabajo es siempre una causa eficiente primaria, mientras que el capital, siendo el conjunto de medios de producción, es sólo un instrumento”. Antes que los medios técnicos y económicos disponibles para acometer una determinada empresa está la persona, capaz de crearlos y de manejarlos. La persona se sitúa siempre en un orden ético y moral superior al de las actividades y bienes que pueda producir, al poseer una dignidad fundamental inalienable, que no se puede reducir o sustraer, porque antes que productores somos seres personales.
Joseph Black, su mentor, y el industrial John Roebuck (que había fundado la empresa Carron Iron Works, muy influyente en el desarrollo de la revolución industrial en Gran Bretaña), pusieron el capital necesario para iniciar la producción en masa de la máquina de vapor de Watt. La tarea no fue fácil. El hecho mismo de conseguir una patente de su invento le costó a Watt tanto tiempo, dinero y esfuerzo que tuvo que buscar trabajo como topógrafo y agrimensor, invirtiendo también la mayor parte de su patrimonio personal en perfeccionar y difundir su invento. Y el propio Roebuck cayó en bancarrota, permitiendo a Matthew Boulton adquirir los derechos de patente que había conseguido Roebuck y formar un consorcio con Watt (que llegaría a conocerse como Boulton & Watt) que supuso un gran alivio económico para las maltrechas finanzas de Watt.
La colaboración con Boulton le dio a Watt nuevos recursos financieros que le permitieron contratar a algunos de los mejores expertos en el manejo del hierro del país, construyendo sólidos cilindros metálicos de gran tamaño que respondiesen mejor al mecanismo de funcionamiento de la máquina de vapor. John Wilkinson sobre todo, diseñó cilindros de esas características y para 1776 (el año de la Declaración de Independencia de los Estados Unidos de América) las primera máquinas de vapor a escala industrial estaban ya operativas. Su principal uso era, como en el caso de la máquina de Newcomen, el de sacar agua de las minas. Mejoras posteriores en el diseño permitieron emplear la máquina de vapor de Watt en tareas de tracción mecánica para el movimiento de las ruedas de vehículos y otros dispositivos. En diseños más avanzados se introdujo un indicador de vapor que daba cuenta de la presión (generalmente baja, por el peligro de explosión) a la que se veía sometido el vapor en el interior del cilindro en función de su volumen. Al final de su carrera como inventor y científico, James Watt había creado una máquina que era cinco veces más eficiente que el prototipo diseñado por Newcomen décadas antes.
La empresa formada conjuntamente por Boulton y Watt tenía, en la práctica, el monopolio de la manufactura de máquinas de vapor. La combinación del talento técnico de Watt y de lo bien que se le daban a Boulton los negocios hizo a ambos hombres inmensamente ricos. Los hijos de Boulton y Watt (Matthew y James respectivamente) heredaron la sociedad establecida por ellos en 1800, asociándose posteriormente con William Murdoch.
La carrera de inventor de Watt no concluyó, ni de lejos, al “jubilarse” de la máquina de vapor. Era demasiado inquieto como para dejar algún invento o dispositivo técnico sin mejoras sustanciales, y logró crear un dispositivo para copiar cargas o mejorar el funcionamiento de las lámparas de aceite.
James Watt murió en su casa de Handsworth, en Staffordshire, el 19 de agosto de 1819. La unidad en que se expresa la potencia (que es la cantidad de energía por unidad de tiempo) en el sistema internacional es el wattio, nombrado así en honor de este gran inventor escocés, y en vida fue nombrado miembro de algunas de las instituciones científicas más prestigiosas del mundo: la Royal Society de Londres, la Royal Society de Edimburgo y la Academia francesa de las ciencias de París. Una gran estatua en su honor se levantó en la Abadía de Westminster de Londres (la misma en la que están enterrados grandes genios de la ciencia como Newton o Darwin). Aunque ha habido controversias sobre su papel en la invención de la máquina de vapor, casi nadie duda que él fue el artífice del condensador separado (condensándose el vapor en una cámara separada del pistón), pero se le ha criticado por su oposición a emplear altas presiones (comprensible en parte por el peligro real de explosión), rechazo que habría retrasado ulteriores aplicaciones.
James Watt se sitúa en la génesis, en el origen mismo de la revolución industrial, y ha sido una figura clave en la transición al mundo moderno, en el que han primado sobre todo la técnica y la ciencia como motores de desarrollo. Más tarde, la humanidad acabaría dándose cuenta de que la técnica y el conocimiento científico por sí solos, sin un progreso ético que se manifestase en un mayor respeto a la dignidad humana y a la integridad del mundo natural (con la emergencia de la conciencia ecológica en la segunda mitad del siglo XX) podría llevar, a la larga, al sub-desarrollo y a la involución. De hecho, uno de los conceptos más interesantes y a la vez bellos, a mi juicio, acuñados en los últimos años, es precisamente el de desarrollo sostenible, propuesto en 1983 por la Comisión Brundtland sobre medio ambiente y desarrollo en el seno de las Naciones Unidas, que estuvo presidida por una mujer, la noruega Gro Harlem Brundtland (prueba de que, superado el patriarcalismo de siglos anteriores, las mujeres están llamadas desempeñar un rol de liderazgo en la gestación de ideas y de descubrimientos en nuestra era): progresar de tal modo que nuestro desarrollo tecnológico, económico y social no comprometa las necesidades de las generaciones futuras y del propio medio ambiente que, como se ha demostrado, lejos de ser una fuente ilimitada de recursos es una esfera de vida y de diversidad que reclama una protección adecuada que la técnica, por sí sola y sin el concurso de la capacidad racional y ética del ser humano, no puede ofrecer.
Capítulo 13
Adam Smith: el aduanero que defendía el libre mercado
Cuando se habla de la Ilustración como uno de los movimientos culturales que más han influido en el mundo contemporáneo, solemos pensar sólo en la ilustración francesa, asociada a nombres como Montesquieu (autor de El espíritu de las leyes, que defendía la separación de poderes frente a la concentración absolutista del Antiguo Régimen), Voltaire (enormemente prolífico, que escribió obras inmortales como Tratado sobre la tolerancia cuyos contenidos bien valdría repasar a día de hoy) o Rousseau (uno de los padres de la pedagogía moderna). Si acaso, también se recordará que personajes como Benjamin Franklin (uno de los fundadores de los Estados Unidos de América y el inventor del pararrayos) o en el terreno de la filosofía y de la ética, Immanuel Kant, tuvieron una relevancia no menor que la de los grandes ilustrados franceses.
Pero además de la L’Illustration francesa y de la Aufklarung alemana, el siglo XVIII conoció también el surgimiento de una ilustración escocesa que resulta igualmente esencial para comprender la historia reciente. Nombres tan célebres como los de David Hume (profundo admirador de los grandes científicos, que aspiraba a convertirse en el “Newton” de la moral), Thomas Reid (el fundador de la “escuela escocesa del sentido común”) o Adam Smith pertenecen a ella, junto a figuras literarias de primera magnitud como James Boswell, cuya Vida de Johnson (el doctor Samuel Johnson, lexicógrafo y uno de los mayores eruditos de la lengua inglesa) publicada en 1791 está considerada una de las cimas del género biográfico. No es posible entender el nacimiento de la economía política y de la ideología del libre mercado sin conocer la vida de Adam Smith, un escocés tan importante en las ciencias sociales como su compatriota James Watt lo fue en la tecnología. Con frecuencia, para comprender el pensamiento de un autor concreto es necesario estudiar antes cuál era la teoría o la visión en un determinado campo que predominaba en su época. No basta con explicar sólo lo que él afirmó, en positivo, sino que también hay que analizar su obra “en negativo”, viendo a qué se opuso. Y en la época de Adam Smith la teoría predominante en el campo de la economía era el mercantilismo, que sostenía que el estado o la instancia encargada del gobierno debía intervenir de manera proteccionista en la economía fomentando las exportaciones (las mercancías que se venden de un país a otro) y evitando en la medida de lo posible las importaciones (lo que se compra desde un país a otro), controlando las tarifas y por tanto rechazando el sistema de libertad de precios. Smith atacaría duramente esta tendencia económica, que había alcanzado gran auge durante los siglos XVI y XVII con las expansiones coloniales de los principales imperios europeos, y que a su juicio ralentizaba el progreso industrial. Resumiendo mucho, podría decirse que Adam Smith elaboró un modelo económico que satisfacía los requisitos de una revolución industrial en boga, y que exigía cambios profundos en los conceptos económicos y sociales que habían estado vigentes hasta el momento. No es posible, en consecuencia, hacerse cargo de la obra de Adam Smith sin tener en cuenta el fenómeno de la revolución industrial. Si en el método científico, por lo general, los hechos hacen que se busquen teorías para explicarlos, en este caso el hecho social era la revolución industrial y Smith propuso una teoría socio-económica adecuada para justificarla y potenciarla. Y para ello, Smith creía necesaria una mayor “flexibilización” de la economía que subrayase más la iniciativa individual (el “espíritu emprendedor”) que la intervención de los estados, los gremios u otras instituciones. La explosión tecnológica y económica que representaba la revolución industrial demandaba a su juicio una ruptura de las ataduras que tradicionalmente se habían impuesto, desde diversos lugares, a las actividades de intercambio entre naciones y personas.
Adam Smith nació en 1723 en Kirkcaldy, Escocia. Su padre, que también se llamaba Adam Smith, había muerto antes de que naciera él (era hijo póstumo), por lo que su educación más temprana se la dio su madre, Margaret Douglas. A los 15 años logró ingresar en la Universidad de Glasgow, donde tuvo oportunidad de conocer de primera mano las tendencias ilustradas que por entonces florecían en el mundo académico escocés, principalmente de la mano de Francis Hutcheson, su profesor de filosofía moral. Desde 1677, el prestigioso Balliol College de Oxford concedía una beca anual para graduados brillantes, la Snell Exhibition, en honor del mecenas Sir John Snell. Smith, que había destacado como estudiante en Glasgow, la ganó y en 1740 pudo viajar a Oxford.
Balliol College, emplazado en la Broad Street del hermosísimo campus oxoniense, era y sigue siendo uno de los colleges más prestigiosos de Oxford, cuyos edificios poseen una exquisita y cuidada arquitectura perfectamente enmarcada en esa curiosa mezcla de clasicismo y modernidad que pervive en esta ciudad inglesa. Por él han pasado varios primeros ministros del Reino Unido, arzobispos de Canterbury y premios Nobel de prácticamente todas las especialidades, incluyendo al político y economista sueco Gunnar Myrdal (Nobel en 1974), uno de los teóricos más destacados de la socialdemocracia y del estado de bienestar escandinavo y oponente ideológico de otros importantes economistas del siglo XX como Friedrich von Hayek (con quien, cosas de la vida, compartió el premio Nobel) y Milton Friedmann; no sin olvidar al doblemente premio Nobel Linus Pauling (que ganó el Nobel de química en 1954 y el de la paz en 1962). Todos los años por el mes de marzo se celebraba en Balliol una distinguida cena, la Snell Dinner, en honor de quienes como Adam Smith habían obtenido una de las famosas becas de Snell (una costumbre también muy típica de las universidades americanas). Podemos imaginarnos al escocés Smith, que no venía de familia noble ni particularmente adinerada, disfrutando de todo el esplendor que Oxford desplegaba para sus alumnos más prometedores.
Lo cierto, sin embargo, es que Smith no aprendió mucho en Oxford. Tampoco es que el mundo académico de Oxford o Cambridge en el siglo XVIII destacase especialmente. La enseñanza de la época dejaba mucho que desear. Era pobre, anticuada y poco tolerante, caracterizándose por un cierto elitismo y entre sus alumnos predominaban futuros clérigos de la Iglesia de Inglaterra (a los cuáqueros y a los católicos les estuvo prohibido estudiar en Oxford y en Cambridge hasta bien entrado el siglo XIX). Toda “factoría” de funcionarios tiende a anquilosarse en el plano intelectual. Había figuras de mayor relieve intelectual en Escocia, París o Alemania, e Inglaterra hasta el siglo XIX no recuperará, por ejemplo, la iniciativa en el campo de las matemáticas y de las ciencias experimentales (aunque siempre existieran honrosas excepciones). Si Smith quería estar en el auténtico “epicentro” de la creatividad intelectual del momento en Gran Bretaña hacía mejor regresando a Escocia que quedándose en Oxford. La Ilustración, más que en las aulas de Oxford o Cambridge, se estaba gestando en clubs de Edimburgo y Glasgow como el Póker, al que habitualmente acudían los librepensadores de aquel tiempo.
Y eso es justamente lo que hizo: dejar Oxford en 1746. De vuelta a su Escocia natal, no transcurrió mucho tiempo hasta que Smith encontró trabajo dando clases magistrales abiertas para el público en Edimburgo, que patrocinaba uno de los líderes de la ilustración escocesa, Lord Henry Kames. En estas conferencias, Smith comenzó a desarrollar un tema que acabaría siendo esencial en su obra: el progreso de la riqueza, es decir, un estudio filosófico sobre cómo los seres humanos pueden llegar a ser capaces de aumentar incesantemente la riqueza y la prosperidad; estudio que, sistematizado después, ha hecho a Adam Smith tan significativo en la historia moderna.
Un momento muy importante en su biografía es el encuentro que mantuvo con el filósofo David Hume en 1750 y que fraguaría en una intensa amistad hasta la muerte de Hume en 1776 (se cuenta que David Hume tuvo aún fuerzas para leer, en su lecho de muerte, el libro fundamental de Smith sobre la riqueza de las naciones). Hume era un filósofo empirista, que privilegiaba los razonamientos basados en la experiencia sobre los puramente abstractos. Enemigo del racionalismo, criticaba muchas de las teorías de los grandes filósofos del continente europeo como puras construcciones mentales sin base en la experiencia física. Para el escéptico Hume no era posible demostrar racionalmente la existencia de Dios, porque una prueba semejante rebasaría la experiencia y al pretender ir más allá de la experiencia guiándose por la sola razón se corre el riesgo de penetrar en terreno pedregoso y oscuro, donde no hay certezas firmes. Y lo mismo en la moral. Sólo una moral “empírica”, basada en hechos y percepciones y no en razonamientos especulativos, podía ser válida y universalmente aceptada. La influencia de Hume en su época fue extraordinaria. Immanuel Kant dirá que es él quien le despertó de su “sueño dogmático” (al que le habían llevado los filósofos racionalistas como Gottfried W. Leibniz o Christian Wolff), y su empeño filosófico fundamental fue integrar el racionalismo (que prevalecía en la Europa continental) y el empirismo genuinamente anglosajón. Jeremy Bentham, el padre junto con John Stuart Mill del utilitarismo (doctrina ética que, simplificando mucho, mide el valor moral de una acción en función de su utilidad), reconoce que fue la lectura de la obra de Hume la que le hizo “sentir la fuerza” del pensamiento utilitarista, aunque ya antes el profesor de Adam Smith en Glasgow, Francis Hutcheson, había proclamado el lema utilitarista por antonomasia: “la mayor felicidad para el mayor número”, casi tan expresivo como el “todo por el pueblo pero sin el pueblo” de los monarcas déspotas ilustrados del siglo XVIII. No es difícil advertir que el enfoque que Hume daba a las cuestiones de ética y de moral también ejercería un gran impacto en Adam Smith.
En 1752 Smith sustituyó a su maestro Hutcheson en la cátedra de filosofía moral de Glasgow, donde impartía clases de ética, derecho y economía política, lecciones que luego formarían parte de su The theory of moral sentiments, publicado en 1759. Si para David Hume y para los utilitaristas el concepto básico de la filosofía moral era el de utilidad, para Smith la clave residía en la simpatía entre el agente y el espectador. El análisis de la relación entre agente y espectador y de cómo uno empatiza con el otro, reconociendo el estado emocional de su interlocutor, es clave en la economía. Quien produce algo debe saber “percibir” las necesidades, aficiones o gustos del consumidor. Tiene que aprender a “ganarse” al potencial comprador. Qué imagen dé uno de sí mismo puede ser determinante en su éxito o en su fracaso. El futuro gran economista Smith diseccionó minuciosamente esa “simpatía moral”.
En 1763 el político Charles Townshend, hijo del vizconde de Townshend y poseedor de una fortuna considerable, le pidió a Adam Smith (con una suculenta oferta, claro está) que hiciese de preceptor de su hijastro, el duque de Buccleuch. Muchos grandes pensadores no han tenido más remedio (generalmente por razones económicas) que emular a Aristóteles y convertirse en tutores de sus particulares “Alejandros”. Sin ir más lejos, René Descartes dio clases de metafísica y moral a la reina Cristina de Suecia, lo que acabaría costándole la vida por el gélido clima de Estocolmo, excesivo para su delicada salud. En el caso de Smith, el joven en cuestión era el tercer duque de Buccleuch y quinto duque de Queensberry, y había sido educado en Eton, el más célebre de los internados británicos. Como era práctica habitual entre los vástagos de la aristocracia, emprendió un viaje por el continente Europeo acompañado, cómo no, por su profesor. Para ello, Smith se vio obligado a renunciar a su cátedra en Glasgow (que seguramente no le reportaba tantos beneficios como enseñar materias elementales y un poco de urbanidad al duque) y así dedicarse a recorrer Europa. Francia, que siempre ha sido objeto de un particular idilio de amor-odio para los ingleses y sobre todo para los aristócratas del otro lado del Canal de la Mancha, era el destino principal del tour. Pero a la vez que su pupilo perfeccionaba su francés (pues no había inglés culto que se preciase que no dominase la elegante lengua de Moliére y no incluyese algún galicismo en su discurso), Smith aprovechaba el tiempo en cosas más útiles que darle clases al duque, y trababa amistad con los líderes de la ilustración francesa: el estadista Turgot, el matemático D’Alembert (editor, junto con Diderot, de la Enciclopedia, la “Biblia” de los ilustrados) y, más trascendental que los anteriores para los intereses científicos de Smith, François Quesnay. Quesnay (1694-1774) era uno de los economistas más importantes del momento y máximo exponente de la escuela fisiocrática, que afirmaba que la riqueza de un país procedía de su producción agrícola y no tanto, como había postulado el modelo mercantilista, de la riqueza del gobernante o la cantidad de oro acumulada por esa nación. El énfasis en la producción como motor principal de la riqueza sería una de las ideas inspiradoras de las teorías económicas de Adam Smith.
Lógicamente, las ideas de los fisiócratas eran excesivamente reducidas, al limitar la fuente de la riqueza nacional a la producción agrícola (“fisiócrata” significa, de hecho, “gobierno de la naturaleza” en griego, en alusión a que para esta escuela la riqueza la gobernaba la producción de bienes de origen natural como los agrícolas) y su modelo resultaba bastante anacrónico en el contexto de la revolución industrial.
Tras su fecunda tournée por Europa (probablemente más ventajosa para él que para su pupilo el doble duque), Smith regresó a Escocia por la puerta grande, ya que fue elegido miembro de la Royal Society de Londres (la misma que había presidido Isaac Newton desde 1703 hasta su muerte en 1727), la sociedad científica más prestigiosa del Reino Unido. Sólo le quedaba publicar una gran obra que le inmortalizase. La obra se titularía An Inquiry into the nature and causes of the wealth of nations, que se suele citar simplemente como The wealth of nations. De manera casi profética, el libro veía la luz en 1776, el año en que los padres fundadores declaraban la independencia de los Estados Unidos de América y en el que (hecho no menos determinante que el anterior) James Watt tenía plenamente operativas sus primeras máquinas de vapor. Y paradojas de la vida, no mucho después de publicar el libro, Smith fue nombrado comisario de aduanas de Escocia, precisamente él, cuyo pensamiento económico, si por algo se había definido, era por apoyar la eliminación de las barreras comerciales. El libro tuvo una repercusión verdaderamente excepcional en los círculos académicos y políticos del momento. Smith llegaría a ser rector de la Universidad de Glasgow y moriría, tenido en la más alta estima por sus contemporáneos, el 17 de julio de 1790 en Edimburgo.
¿Por qué era tan novedoso y a la postre decisivo el contenido de The wealth of nations? Sencillamente porque, como hemos dicho, se trataba del primer gran estudio teórico de la economía que tenía en cuenta una realidad social marcada por la emergencia de la industria.
Uno de los conceptos fundamentales de la obra de Adam Smith era el de división del trabajo. ¿Por qué la industria mejora tanto la producción de bienes? Justamente porque en la industria se divide el trabajo. Mientras que el artesano iniciaba, desarrollaba y completaba su obra él solo, en la industria cada una de las etapas del proceso productivo la realizan personas distintas, que poco a poco se van especializando en una parcela o sector y logran adquirir una gran destreza. La colaboración de muchos “especialistas” mejora el producto final en calidad y en tiempo. Se tarda menos y se consigue un resultado más adecuado para las exigencias del mercado. El “divide y vencerás” ha sido enormemente fructífero en la ciencia, la tecnología y la economía. Como dijimos al hablar de Galileo, su gran mérito y su principal diferencia con otros grandes genios como Leonardo da Vinci residía precisamente en que fue capaz de “seleccionar” lo que era realmente importante en la descripción del funcionamiento del mundo físico y distinguirlo de lo que era accesorio, en lugar de intentar comprenderlo todo (incluyendo los detalles más nimios). Tuvo que prescindir de ciertas cosas, atreverse a renunciar a estudiar algunos aspectos para centrarse en los verdaderamente relevantes. La labor del científico no iba a ser ya, como había creído Aristóteles, la de ofrecer una explicación omnicomprensiva y total de la naturaleza, desde principios filosóficos universales. El científico renunciaba a entender la esencia, el auténtico significado de la naturaleza. Su interés se limitaba a lo que podía medir, a lo cuantitativo, y en establecer relaciones matemáticas entre esas magnitudes que podía conocer empíricamente. Esa concentración de energías intelectuales ha sido muy eficaz para el progreso científico y tecnológico, y conforme hemos sido más y más personas han tenido acceso a estudios superiores y por tanto han surgido más hombres y mujeres de ciencia, ese gigantesco esfuerzo que es la investigación ha ido recayendo sobre cada vez más hombros. Sin la división del trabajo en la búsqueda de una visión científica del mundo, poco habría avanzado la ciencia.
Lo mismo ocurre en la industria y en la economía. Si uno se especializa en producir o comercializar un objeto y lo hace con tanta destreza que nadie le supera, dominará el mercado. Si en una industria de alfileres se forma a los trabajadores de manera que se especialicen en una u otra etapa de la producción, aumentarán la cantidad y la calidad de los alfileres que salgan de la fábrica. Y además, esta cadena de especializaciones acabará repercutiendo positivamente en la economía de un país, porque irán surgiendo más y más industrias, cada una dedicada a un sector en el que intentará sobresalir por encima de sus competidoras. Así, de la división del trabajo se derivan tres ventajas: el trabajador adquiere mayor destreza en su campo, se pierde menos tiempo al no tener que ir pasando de una tarea a otra y, finalmente, se fomenta un mayor desarrollo tecnológico, ya que se tienen que crear más y mejores máquinas para cada etapa del proceso productivo.
En The wealth of nations, Smith articuló la teoría de la división del trabajo con un alegato apasionado a favor del libre comercio. Frente al mercantilismo, la bête noire de Smith, el escocés sostiene que la fijación de tarifas proteccionistas, en lugar de defender los intereses de una nación, representan una pesada losa para su desarrollo económico. Pero Smith también se muestra disconforme con otro de los presupuestos del mercantilismo: la suposición de que poseer grandes reservas de lingotes de oro o de otros metales preciosos es imprescindible para el buen funcionamiento de la economía de un país. En este punto, Smith influiría en otro de los clásicos de la economía, el inglés de origen judío sefardita David Ricardo (1772-1823).
Pero si hay una idea que ha hecho a Adam Smith inmensamente popular entre los técnicos y los no expertos en economía es, sin duda, la de la mano invisible. En este caso, la historia se repite. Y esa historia cuenta que muchos conceptos y nombres que luego se han vinculado estrechamente a un autor no siempre recibieron una atención pormenorizada por parte de ese mismo autor, que probablemente nunca habría sospechado que esos detalles calarían más en la opinión pública que otros a los que quizás sí concedió mayor importancia. En el libro de Smith, el término “mano invisible” sólo aparece en una ocasión aunque, evidentemente, la idea subyazca en toda la obra.
¿Cómo define Smith la acción de esa “mano invisible” de la economía? Hay un texto suficientemente elocuente al respecto: “Todo individuo trabaja necesariamente para producir la máxima renta anual a la sociedad que pueda. Es cierto que normalmente ni pretende fomentar el interés público ni sabe en qué medida lo está promoviendo [...]. Sólo se propone su propia ganancia, y en esto, como en muchas otras situaciones, le guía una mano invisible [invisible hand] para promover un fin que no formaba parte de sus intenciones [...]. Buscando su propio interés, con frecuencia promueve el de la sociedad de modo más efectivo que cuando de veras se propone promoverlo”.
¡Una fe ciega en esa mano invisible! Smith, el padre de la economía científica, estaba basando su análisis en un acto de fe en algo que no podía ver. Si Galileo había tenido que hacer un acto de fe similar en el poder de las matemáticas (cuya eficacia sería luego demostrada por el espectacular avance de las ciencias) para describir la realidad física, Adam Smith tenía que dejarse llevar por la confianza en que los diferentes agentes (productores, consumidores...) del mercado sabrían, por sí solos y de manera casi automática, ponerse de acuerdo para que, a pesar de perseguir sus propios fines y de buscar su interés individual, esa suma de intereses individuales fuese globalmente positiva para la sociedad. No es de extrañar que esta declaración de principios, que implicaba aceptar la existencia de una especie de fuerza mágica en el mercado, levantase a la larga ciertas suspicacias sobre si el mercado era tan apto como había creído Adam Smith para servir al bien de la sociedad y no sólo a los intereses de cada particular. Si el aduanero Smith defendía el libre mercado (primera paradoja), el ilustrado y científico Smith tenía que postular ahora la existencia de un poder invisible e incontrolable (segunda paradoja). En definitiva: que cada uno se esfuerce por ganar lo máximo y por conseguir el mayor beneficio, porque sólo buscando sus propios fines (que no es algo egoísta, sino una acción típicamente humana) mejorará la sociedad y aumentará la prosperidad de todos.
La teoría de Smith, llevada al extremo, serviría para justificar la no intervención del estado en cuestiones tan vitales como el salario mínimo, con la excusa de que se estaría “cercenando” la libertad de los agentes económicos al imponer una serie de condiciones que afectarían a la economía de las empresas y de los particulares. Pero sacralizar el mercado como una especie de reducto mágico que se guía por sus leyes propias y en las que los poderes públicos (que expresan la soberanía popular) deben limitar su intervención no parece la opción más sensata. Si hay algo que nos define como seres humanes más que cualquier otra cosa es la razón, y justamente porque somos racionales y tenemos una inteligencia teórica y práctica (que nos ayuda a orientar nuestras acciones de la mejor forma) podemos intervenir en el mercado, porque el mercado es obra de personas. Refugiarse en la “libertad” como salvoconducto o cheque en blanco para acometer cualquier acción en el campo económico es olvidar que la libertad, sin la responsabilidad social que lleva pareja por ser una libertad vivida en sociedad, puede convertirse en un arma de doble filo que reporta beneficios a unos mientras encadena a otros. La defensa tan acérrima que a veces se hace de la libertad individual en el campo económico puede resultar una táctica, una sutil maniobra para sostener una defensa encubierta de los propios intereses sin tener en cuenta los del resto. Confiar sin más en la libre iniciativa como motor único y exclusivo del progreso de las sociedades, sin los ajustes que la razón y los acuerdos democráticos pueden introducir para hacer que los elementos positivos de esa iniciativa económica lleguen a todos, conduce al conformismo, a creer que las cosas, como están, están bien y no necesitan mejora. Semejante resignación no es compatible con el esfuerzo por superar barreras y romper tabúes que ha caracterizado la historia de las sociedades. Con el conformismo no hay progreso. Libertad de iniciativa, sí, pero guiada por la razón común y no por una mano invisible semi-divina.
Es cierto que Adam Smith, más que proponer una política social concreta (a saber, la no intervención de los estados en la libre iniciativa de los individuos), simplemente constataba una realidad: que los individuos actúan persiguiendo su propio interés y, sin embargo, las cosas funcionan. Pero funcionan o no funcionan, porque a veces no han funcionado y han supuesto graves trabas para el progreso de las sociedades. Por esa regla de tres, no habría estado de bienestar ni derechos laborales tan desarrollados como actualmente existen en muchos países. Dejar libertad absoluta, por ejemplo, en la contratación, daría a algunos “manga ancha” para pagar salarios bajísimos o eludir la contribución a la seguridad social. También es verdad que para Adam Smith no todo interés individual era bueno. Lo único que decía es que el interés personal no tenía por qué identificarse con el egoísmo, como si fuese algo automáticamente malo. Y aquí no le faltaba razón: perseguir un interés legítimo puede ser positivo para todos y no sólo para el que lo ansía. Y por último, no podemos negar que el mercado (el espacio de encuentro entre los productores y los consumidores) ha demostrado en no pocas situaciones una capacidad asombrosa de corregir las irregularidades y los desperfectos. Pero a veces no, y de hecho cuando hay casos de monopolio por parte de una empresa se le suele exigir al estado que intervenga o al menos que apruebe una legislación estricta en este asunto. Nadie niega que, por ejemplo, la competencia entre productores de un determinado objeto (el aumento de la oferta) se traduce en una bajada de los precios y que en este sentido el mercado se va auto-regulando por sí solo. Pero tampoco debe olvidarse que una política que optase unilateralmente por el laissez-faire (“dejar hacer”) sin intervención de la sociedad, podría generar desigualdades y fricciones. El progreso de un país residirá justamente en cómo sepa conjugar el respeto a la iniciativa de los individuos con el compromiso por el bienestar de todos, que se manifiesta en terrenos como la sanidad, la educación u otros servicios sociales.
Sin la figura de Adam Smith es imposible entender el desarrollo de la economía moderna, y su influjo fue determinante en la obra de los grandes economistas del siglo XIX (David Ricardo, Robert Malthus, Karl Marx), estuviesen o no de acuerdo con sus principales postulados. Por el impacto de su pensamiento en el desarrollo del mundo contemporáneo, por su amplitud de miras y por su capacidad para reflexionar sobre la realidad social superando las fronteras conceptuales e ideológicas que existían en su tiempo, Adam Smith ha sido una auténtica mente maravillosa que ha cambiado la historia.
Capítulo 14
Mendel (1822-1884) y la genética.
La genética, esa parte de la biología que nos resulta tan fascinante pero al mismo tiempo tan compleja para los no iniciados, está en la base de grandes adelantos médicos y representa una de las ramas más dinámicas y prometedoras de las ciencias de la vida. Y a diferencia de otros campos, donde buscar un artífice o creador es una tarea bastante difícil por tener un origen a menudo difuso, en el caso de la genética el padre tiene nombre y apellido bien conocidos: Gregor Mendel.
¿Quién no ha oído hablar del monje Mendel y de sus experimentos con guisantes? Ese humilde monje del antiguo imperio austro-húngaro hizo contribuciones fundamentales al progreso de la ciencia, gracias a una inusual mezcla de intuición y de trabajo sobre el terreno que le llevaron a formular sus famosas leyes y a sentar las bases de una revolución que todavía hoy sigue dominando buena parte del panorama científico. La mayoría de las revistas científicas de alto índice de impacto, como la británica Nature, tiene una publicación dedicada específicamente a cuestiones genéticas (en este caso, Nature Genetics), lo que da sólo una idea de la importancia de esta área. Si estamos orgullosos por haber sido capaces de conocer la estructura de la materia y del átomo, las leyes que gobiernan el movimiento de los cuerpos o la evolución del universo y de las especies, no menos debemos estarlo por haber conseguido profundizar, cada vez con mayor hondura, en lo que antes era un auténtico misterio: el mecanismo que rige la herencia y la variabilidad en los organismos vivos.
Antes de Mendel, poco se sabía al respecto. Darwin, el gran genio de la biología del siglo XIX, no conocía las leyes de la genética. En su obra The Variation of Animals and Plants under Domestication, de 1868, propuso una teoría que a la larga se ha venido llamando “teoría pangenética”. Darwin sostenía que los cuerpos celulares derramaban una serie de “gémulos” (gemmules en inglés) que iban a parar a los órganos reproductivos antes de la fertilización. De esta forma, cada célula del cuerpo participaba, a su manera, en la generación de la descendencia. La integración de los nuevos descubrimientos genéticos de Mendel con la biología evolutiva de Darwin y los métodos estadísticos desarrollados por Francis Galton (nieto, como Darwin, del filósofo y científico Erasmus Darwin) no llegó hasta bien entrado el siglo XX, con la llamada “síntesis neo-darwiniana” (debida a autores como Morgan, Dobzhansky o Mayr) que redefinió las claves de la evolución natural al conectar dos conceptos claves de las ciencias de la vida: las unidades de la evolución (los genes) y el mecanismo de la evolución (la selección natural).
Mendel fue un genio ignorado en vida que triunfó ya muerto. Vivió prácticamente aislado de la comunidad científica y efectuó su trabajo solo, publicando en revistas poco influyentes. Y sin embargo, es el padre de la genética y los historiadores han reconocido con justicia el valor de sus aportaciones.
Quien iba a nuevo horizonte a las ciencias naturales nació el 20 de julio de 1822 en Heinzendorf (ahora Hyncice), actual República Checa y entonces parte del imperio austro-húngaro, en el seno de una familia de lengua alemana. Su nombre de pila era Johann Mendel. Su familia era humilde. De niño, Mendel tuvo que trabajar como jardinero (claro preludio de lo que más tarde tendría que hacer para descubrir las leyes de la herencia), y más tarde estudió en el Instituto filosófico de Olmütz. En 1843, con veintiún años de edad, decidió ingresar en abadía de Santo Tomás de Brno (Brünn), perteneciente a la orden de los agustinos, monjes y monjas que siguen la regla de San Agustín de Hipona. La lista de agustinos famosos incluye al papa Adriano IV (1100-1159, Nicholas Breakspear, el único papa inglés hasta la fecha), al papa Eugenio IV(1383-1447), al célebre humanista, teólogo y estudiosos del Nuevo Testamento, el holandés Erasmo de Rotterdam, y a su contemporáneo Martín Lutero (1483-1546). Como consecuencia de su vocación monástica, Mendel adoptó el nombre de “Gregor”.
En 1851 sus superiores lo enviaron a estudiar a la Universidad de Viena. Este hecho era y sigue siendo una práctica relativamente común entre las órdenes religiosas dedicadas a la enseñanza como los agustinos, que mandan a algunos de sus miembros más capaces a formarse en las universidades para luego poder dar clases en sus colegios e institutos. No consta que fuese un estudiante particularmente brillante: su genio estaba reservado para más adelante. Tampoco Einstein destacó como alumno. La vida intelectual es suficientemente rica como para huir de los estereotipos que marcan que un buen estudiante necesariamente va a triunfar en el campo del conocimiento. Hay de todo.
Lo cierto es que Mendel recibió el estímulo tanto de sus profesores universitarios como de sus compañeros en el monasterio de Brünn para investigar el mecanismo de la herencia biológica. Disponía de dos cosas nada desdeñables: tiempo y espacio. Tiempo, porque los monjes, según la consigna de San Benito de Nursia (ya en el siglo VI), deben orar y trabajar (el famoso lema del ora et labora) y huir de la ociosidad. Espacio, porque los jardines de un monasterio del tamaño y del prestigio de Brünn le permitían tener simultáneamente distintos cultivos de especies de guisantes en los que basar sus conclusiones.
Entre 1856 y 1863, Mendel llegó a cultivar hasta 29.000 plantas de guisante de la especie Pisum Sativum, lo que da idea de su rigor y tenacidad, totalmente asombrosos. Cuando hoy en día los medios de comunicación nos tienen acostumbrados a miles de estudios estadísticos y sociológicos que con frecuencia se presentan como la última palabra en torno a una determinada cuestión, tenemos que pensar que la mayoría de esas encuestas no alcanzan ni de lejos el número de muestras empleadas por Mendel, a pesar de que los medios técnicos actuales facilitan mucho el trabajo.
Tan ardua investigación quedó reflejada en un artículo, “Experimentos sobre la hibridación de las plantas”, que leyó en dos encuentros que tuvieron lugar en la Sociedad de historia natural de Brünn, en Moravia, en 1865, publicados en los Verhandlungen des naturforschenden Vereins Brünn, que era la revista periódica de esa academia científica.
El artículo pasó totalmente desapercibido. Sólo fue citado tres veces en los siguientes treinta y cinco años (es decir, entre 1865 y 1900), y las pocas referencias que se hicieron de él fueron sumamente críticas. En cualquier caso, la moderna historiografía considera que en ese artículo se encuentra la base de los hallazgos de Mendel y el “embrión” de la genética moderna.
El nombramiento como prior del monasterio en 1868 supuso que Mendel abandonase gran parte de su carrera científica, obligado a preocuparse más del monasterio y de sus miembros que de los guisantes, en un momento, además, en que tenía que discutir con el gobierno civil, que pretendía fijar impuestos especiales a las instituciones religiosas. La creatividad científica de Mendel se vio absorbida por sus responsabilidades administrativas, burocráticas y espirituales. Murió el 6 de enero de 1884 en el mismo monasterio en el que había descubierto las leyes de la herencia a causa de una nefritis crónica.
Si los trabajos de Mendel habían pasado desapercibidos para la comunidad científica, ¿cómo es que hoy se reconoce su papel en el nacimiento de la genética y hay una serie de leyes biológicas que llevan su nombre? En uno de los actos de mayor honestidad intelectual que se han dado en la historia de la ciencia, el holandés Hugo de Vries (1848-1935) y el botánico alemán Carl Correns (1864-1933), que estaban realizando investigaciones similares a las de Mendel, buceando en la bibliografía disponible de los artículos publicados que tratasen sobre la transmisión de los caracteres hereditarios, “redescubrieron” el que Mendel había presentado en 1865, y no tuvieron ningún problema en aceptar la prioridad del monje agustino. Enseguida se dieron cuenta de que Mendel había identificado, treinta y cinco años antes, lo que ellos buscaban: las leyes de la herencia. Podrían no haberlo hecho, aunque seguramente los historiadores habrían acabado sabiendo la verdad, pero lo innegable es que desde el primer momento admitieron el mérito de Mendel. Después de una agria polémica entre los defensores de las teorías de Mendel y los que preferían una aproximación más “estadística” al fenómeno de la herencia biológica (principalmente autores ingleses como William Bateson, que acuñó el término “genética” para la nueva disciplina en ciernes), ambos enfoques fueron unidos por R.A. Fisher en 1918.
¿Qué descubrió exactamente nuestro monje moravo? Lo que se conoce como las leyes de Mendel. Estas leyes se pueden exponer del siguiente modo:
La ley de la segregación o primera ley de Mendel afirma que las variaciones que se producen en las características heredadas (el que los ojos sean de tal o cual color, por ejemplo) están causadas por la existencia de versiones alternativas de los genes. Esas versiones se llaman alelos, que representan las diferentes versiones posibles de los genes que pueden definir una misma característica. Existe un gen específico para el color de los ojos en cada persona, pero hay distintos alelos según las posibilidades que finalmente pueda adoptar el color de los ojos.
Todo organismo hereda dos alelos para cada característica biológica concreta (como pueda ser el color de los ojos): un alelo procederá de la madre y otro del padre. Los alelos, lógicamente, pueden ser idénticos (producirían el mismo efecto a nivel de características biológicas manifiestas) o distintos. Si ambos alelos son diferentes (por ejemplo, un alelo implicaría tener ojos azules y el otro tenerlos oscuros), sólo uno de los dos alelos acabará expresándose en el organismo que resulte de la fecundación de los dos progenitores. ¿Cuál de ellos? El rasgo dominante (producto del gen codificado por un alelo en particular) será el finalmente transmitido. Por su parte, el alelo que codifique la transmisión del rasgo recesivo no influirá sensiblemente en la apariencia física (o fenotípica) del nuevo organismo. Uno de los principales méritos científicos de Mendel consiste en haber entendido adecuadamente la distinción entre rasgos dominantes y recesivos y el modo en que acaban transmitiéndose las características biológicas, no por “mezcla” entre rasgos sino por preponderancia de uno sobre otro. Los dos rasgos, el dominante y el recesivo, están presentes en la esfera del genotipo, pero sólo uno de ellos acaba expresándose fenotípicamente (es decir, manifestándose visiblemente: en griego feno significa apariencia). Pero los rasgos recesivos se siguen transmitiendo a nivel del genotipo, aunque por el momento no logren expresarse en las características “físicas” del nuevo organismo por tener que competir con un rasgo predominante. Si bien se han descubierto especies biológicas con rasgos “intermedios” que no responden a una relación estricta de dominio y recesión (la denominada “dominancia incompleta”) o que incluso se explican en términos de “codominancia”, las conclusiones de Mendel tienen un amplio rango de aplicación y, con matices, se siguen manteniendo como sustancialmente válidas.
El hecho de que cada gameto (el de la madre por un lado y el del padre por otro) contenga sólo un alelo para cada gen permite que ambos alelos (el del padre y el de la madre) acaben combinándose en el “hijo” y así se asegura la variabilidad genética de las especies, clave en su supervivencia y en su desarrollo evolutivo.
La segunda ley de Mendel, propiamente la ley de la herencia, afirma que el surgimiento de un determinado rasgo se hace con independencia de los demás rasgos, no viéndose mutuamente afectados. La herencia es “genética” en sentido estricto, ya que cada rasgo se transmite por un mecanismo autónomo, por unidades, no influyendo un rasgo sobre el otro. El color del ojo no repercute sobre el del pelo, porque están codificados por genes distintos que se transmiten independientemente. La biología moderna ha demostrado, sin embargo, que esto sólo es verdadero para aquellos genes que no estén ligados. En sus numerosos experimentos con guisantes, Mendel vio que al mezclar un rasgo siempre se obtenía una relación de 3 a 1 entre el fenotipo dominante y el recesivo, pero al mezclar dos rasgos (el llamado “cruce dihíbrido”) la relación se elevaba a 9:3:3:1.
Supongamos que la piel de un animal puede adoptar dos colores: marrón (el dominante) o blanco (el recesivo). Y por otra parte, la longitud de su cola puede ser corta (dominante) o larga (recesivo). ¿En qué proporciones se obtendrán animales de esta especie que, respectivamente, muestren piel marrón y cola corta, piel blanca y cola corta, piel marrón y cola larga y piel blanca y cola larga, que son las cuatro combinaciones posibles entre las dos características? Si los padres son homocigóticos para cada rasgo (es decir, uno de los progenitores tiene, para el color de la piel, ambos alelos dominantes -piel marrón- y para la longitud de la cola, ambos alelos recesivos - cola larga-; y el otro a la inversa: para el color de la piel tiene ambos alelos recesivos - piel blanca- y para el tamaño de la cola ambos alelos son dominantes -cola corta), en la primera generación, los hijos serán heterocigóticos y sólo mostrarán los rasgos dominantes (los rasgos recesivos se habrán transmitido también, pero sólo en el genotipo, no en el fenotipo, por lo que no serán visibles). Es decir, podremos tener hijos con una combinación de todos los alelos (aunque ellos, físicamente, sólo manifiesten los rasgos dominantes): piel marrón, piel blanca, cola corta, cola larga. Los padres eran homocigóticos, con los dos alelos iguales para una misma característica; los hijos no: pueden transmitir ambos alelos para cada característica.
¿Y qué ocurrirá en la segunda generación, esto es, en los “nietos”, si los hijos se unen entre ellos? Los guisantes de Mendel nos dan la respuesta: la relación será de 9:3:3:1, teniendo lugar todas las combinaciones del color de la piel y de la longitud de la cola. Nueve de ellos manifestarán (¡fenotípicamente!) los rasgos dominantes (piel marrón y cola corta), tres tendrán piel blanca y cola corta, tres piel marrón y cola larga (alternancia del rasgo recesivo en uno de los genes y del dominante en el otro, respectivamente) y uno, en su aspecto físico, sólo mostrará rasgos recesivos: piel blanca y cola larga.
¿Y por qué estas proporciones en concreto? Son las que Mendel encontró combinando cientos de guisantes con características distintas. Algunos autores han acusado a Mendel de falsificar sus datos y de caer en mala práctica científica. Fisher consideró bastante poco plausible la relación 3:1 obtenida por Mendel en la mezcla de un mismo rasgo entre los individuos con fenotipo dominante y recesivo. Sin embargo, modernamente se han reproducido muchos de los experimentos que efectuó Mendel y se ha concluido que sus resultados eran, en lo fundamental, correctos, por lo que sería injusto llamarle fraudulento. Probablemente, Mendel “intuyó” (recordemos que su trabajo supuso una interesante unión de previsión teórica y habilidad experimental) que la relación final se aproximaba a 3:1, y aunque no tuviese una certeza total de que ésa era la proporción, decidió “arriesgarse” y proponerla como resultado definitivo.
En cualquier caso, Mendel descubrió, nadie lo duda, las leyes de la herencia, pero no fue hasta décadas más tarde que los científicos han podido revelar los mecanismos biológicos que están en la base de esas leyes de la herencia. Hoy sabemos que el núcleo de una célula (unidad funcional y estructural en los seres vivos) está hecho de diversos cromosomas, que son los auténticos responsables de “transportar” los rasgos genéticos. Cada cromosoma tiene dos cromátidas. Las células reproductivas suelen tener sólo una de esas dos cromátidas, y al fusionarse dos de estas células reproductivas, el nuevo organismo tiene la mitad de los genes de la madre y la mitad del padre. Este intercambio genético que se produce en muchas especies durante la reproducción ha demostrado ser una excelente estrategia evolutiva, al permitir la variabilidad dentro de la especie.
El monje moravo Gregor Mendel sentó así las bases de la genética, ciencia que a la larga se convertiría en una de las hazañas más notables de la insaciable inteligencia humana.
Capítulo 15
Thomas Edison enciende una nueva luz en el Mundo…
Que alguien carente de una formación científica y académica sólida lograse todo eso es una prueba más que suficiente de los innumerables recursos de que dispone el genio humano para avanzar y progresar. De nada valen los prototipos, los clichés, los itinerarios rectos y horizontales para alcanzar una meta partiendo desde una salida. Siempre hay gente que se los salta y que se mueve “en vertical”. La vida y las personas se resisten a clasificaciones de catálogo: para ser inventor hay que hacer primero tal o cual cosa, para triunfar en los negocios hay que estudiar tal o cual máster... La experiencia parece resistirse a satisfacer esa necesidad tan humana de buscarle, a todo, reglas y métodos. Por eso, para disfrutar con la ciencia y con la historia del conocimiento no hay nada mejor que leer historia de la ciencia y biografías de los descubridores e inventores. Así podemos admirar la riqueza y la fecundidad de cada científico y de cada pensador, su singularidad y su carácter único e irrepetible.
Thomas Alva Edison nació el 11 de febrero de 1847 en Milan, un pequeño pueblecito de Ohio, al nordeste de los Estados Unidos, que como es de esperar está tan orgulloso de su hijo más ilustre que le ha dedicado una casa-museo en la que muestra algunos de sus primeros inventos. Era el pequeño de siete hermanos. Pero Edison no se crió en Ohio, sino en Port Huron, en el estado fronterizo de Michigan. Prácticamente todo el mundo ha oído hablar del fracaso de Edison en la escuela. Siempre que se quiere proponer un ejemplo de futuro triunfador dotado de una inteligencia excepcional que falló estrepitosamente en la escuela (o, a la inversa, que la escuela falló estrepitosamente con su educación) se acude a Thomas Edison. Y no es para menos. Oficialmente, Edison sólo estuvo matriculado tres meses en el colegio. Ésa fue su formación “curricular”, porque Edison recibió otro tipo de educación. Si un profesor de griego ha pasado a los anales de la futurología por decirle a Einstein que nunca llegaría a nada, uno de los maestros de Edison podría entrar en las crónicas de la psicología y de la historia de los recursos humanos por llamarle atontado. No hay que ser injustos, en cualquier caso, con ambos tutores, porque ni Einstein ni Edison mostraron una especial predisposición para el aprendizaje “oficial” en la escuela, por lo que hasta cierto punto es comprensible que algunos sospechase de sus capacidades intelectuales. En todo caso, la historia posterior acabaría disipando toda duda.
Como se veía que la escuela no era lo suyo, su madre (Nancy Matthews Edison) se encargó de enseñarle en casa. Las vidas de muchos grandes genios no se entienden sin el papel que desempeñaron sus padres y madres en ellos. Si Mozart no habría sido Mozart sin la figura de su padre y también músico Leopold, probablemente Edison (emprendedor, autónomo, dotado de una gran iniciativa) tampoco habría sido Edison sin su madre Nancy. Esto no ha ocurrido en otros casos, al menos que se sepa, porque no en todas las biografías de personajes relevantes se percibe una influencia tan destacada de sus progenitores. Edison, más que “un hombre hecho a sí mismo”, es un “hombre hecho por su madre”, y no es un juego de palabras ni una afirmación obvia. El propio Edison nunca tuvo inconveniente en reconocer que su madre había sido la causa de su éxito, y siempre sintió que ella confiaba tanto en sus posibilidades que nunca quiso decepcionarla, y esto le ayudó a perseverar en sus objetivos.
Edison no fue a la universidad. Por inquietud y por economía familiar estaba claro que no era el lugar más apropiado para una persona como él. Se puso enseguida a trabajar, y tuvo tantas ocupaciones que también sería difícil dar en la historia de los inventores y científicos con una experiencia laboral tan dilatada como la suya. Fue vendedor de periódicos en los trenes que iban de Port Huron a Detroit. Cuando vemos una típica película estadounidense ambientada a finales del XIX o a principios del siglo XX en la que sale un simpático chico joven con una gorra y una bufanda que se mueve por los andenes de la estación anunciando los titulares del periódico que ofrece, no estaría de más pensar que el genial Thomas Edison tuvo ese oficio antes de inventar el fonógrafo o la bombilla, porque nunca se sabe a lo que cada uno puede llegar. Con ése y con otros muchos trabajos a tiempo parcial Edison fue ahorrando y con eso pudo poner en práctica sus propuestas de inventos. Pero uno de los puestos más interesantes al que accedió Edison fue el de telegrafista. Aunque el telégrafo eléctrico tiene una historia larga y compleja (en la que participó un científico español de finales del siglo XVIII, Francisco de Salva), el célebre Samuel Morse patentó un dispositivo en 1837 en los Estados Unidos. Morse (17911872) fue un pintor y polémico inventor de Massachusetts al que se le ha acusado reiteradamente de robar ideas a otros y de atribuirse méritos inexistentes, pero lo cierto es que participó activamente en el desarrollo de la telegrafía por cable y en la creación (junto con su colaborador Alfred Vail) del famoso código morse, en el que se alternaban puntos y rayas (secuencias cortas y largas) para representar letras y números y así, usando este lenguaje, mandar misivas rápidamente a lugares lejanos. Edison se mostró entusiasmado con la idea de ser telegrafista, y al poco se había convertido en uno de los telegrafistas más rápidos de América. La anécdota cuenta que la velocidad con que transcribía mensajes al código morse era tan alta que cuando recibió la noticia del trágico asesinato en Washington del presidente Abraham Lincoln en abril de 1865, Edison, que por entonces tenía dieciocho años, pasó el mensaje tan rápido al morse que no se dio cuenta de la importancia de la noticia. Ni siquiera algo así le distraía. Pero su éxito como telegrafista tropezó con su pasión por la ciencia, tanto que fue despedido de la Western Union porque mientras manipulaba ácido sulfúrico una noche en su oficina lo derramó y acabó llegando al despacho del jefe.
Para un joven de tan sólo veinte años y con toda una vida por delante ese despido no podía convertirse en trauma. Todo menos frustrarse, podría ser el lema de Edison. No importaba que estuviese en la miseria y casi sin empleo. Siempre encontraba el modo de salir adelante y de dedicar todo el tiempo que tenía a inventar. Y al poco su fábrica de ideas comenzó a dar resultados: en 1869 patentó un sistema de recuento eléctrico de votos, creyendo que a sus señorías les sería de utilidad. Se equivocaba. Un diputado le confesó que el invento no hacía ninguna falta y que acelerar las votaciones no serviría de nada. ¿Otro varapalo a la carrera de Edison? ¡En absoluto! El mundo parecía encaminarse a una nueva era, a una nueva revolución industrial, y esta efervescencia tecnológica pedía a gritos una gran figura a modo de líder. Edison estaba preparado para asumir esa función. Así que debió de pensar, como más tarde Elvis Presley, “it’s now or never”, ahora o nunca, y se puso manos a la obra.
Y llegamos al primer gran invento de Edison: el fonógrafo. Algo que hoy nos resulta tan común y cotidiano (un aparato que permita reproducir sonidos y canciones) no existía en tiempos de Edison, y no porque a nadie se le hubiese ocurrido que un dispositivo así sería enormemente útil. En 1857, el francés Édouard-Léon Scott de Martinville había patentado lo que llamó phonautograph, capaz de registrar el sonido pero no de volver a reproducirlo. Y entró en escena Edison. El esquema era relativamente sencillo: había que construir algo capaz de trasladar el sonido (ondas acústicas) a un medio que no fuese el aire. Si las ondas acústicas se empleasen para producir vibraciones mecánicas, el sonido quedaría “grabado” como una vibración mecánica, y el fenómeno podría utilizarse a la inversa para reproducir el sonido: las vibraciones mecánicas registradas podrían usarse para emitir ondas acústicas y así escuchar esos mismos sonidos. El fonógrafo (foné-grafé: “escritor de voz” en griego, porque, efectivamente, la voz -onda sonora- se transcribía a un medio distinto del aire) de Edison grababa y reproducía.
Edison consiguió llevar ese esquema a la práctica en 1877. El artilugio consistía en un estilete que, gracias al sonido, adquiría la energía mecánica necesaria para registrar las vibraciones acústicas en un cilindro de cartón recubierto con estaño (que luego sería sometido a sucesivas mejoras, como usar cera sólida). El invento de Edison maravilló a sus contemporáneos. Nadie antes que él había hecho “hablar” así a una máquina tan aparentemente elemental. Una de las aspiraciones milenarias de la humanidad (que las palabras no se las llevase el viento) se veía ahora cumplida. Si con la escritura se había logrado preservar todo un universo (el de la mente) en un medio objetivo y de acceso para todos, con el fonógrafo era posible “revivir” el momento mismo en que esos pensamientos, ideas o emociones fueron expresados, revelando su auténtico significado. El viejo sueño de viajar al pasado empezaba a hacerse realidad. Al leer un texto de una civilización antigua volvemos a dar “vida” a esa cultura y a esa gente que nos precedió en el tiempo. Pocas cosas hay que sean tan hermosas como esta capacidad cuasi-divina de “recrear”, de infundir “aliento” a lo que parece estar muerto, de hacer presente el pasado. ¿A quién no le habría gustado escuchar la voz del mismísimo Cicerón o escuchar en directo a Farinelli? Si en su época y en muchas otras hubiese existido el fonógrafo, tantos enigmas de la historia o tantos acontecimientos y personalidades que siempre nos han fascinado quizás hubiesen dejado de serlo. Y aquí reside la grandeza y la pequeñez de ideas e inventos tan geniales como el fonógrafo, porque al acercarnos el pasado también hacen que el pasado pierda misterio. No nos impresiona oír las voces de personajes famosos del siglo XX porque hemos tenido oportunidad de escucharlas en innumerables ocasiones en los medios de comunicación. Pero como ese dilema existe, en realidad, con toda nueva invención o con todo cambio de relevancia, lo importante es que sepamos utilizar lo que ha costado tantos siglos y tanto esfuerzo crear para conocer y progresar.
Edison era toda una celebridad. Se le apodó el “mago de Menlo Park” por su asombrosa proeza, hasta entonces nunca vista. Pero Edison tenía poco de mago: “el genio es un uno por cierto inspiración y un noventa y nueve por ciento sudor” (en inglés suena mejor porque la frase de Edison juega con los términos inspiration y perspiration). Los suyo era trabajar y trabajar, eso sí, con una mente formidable. Justamente es en Menlo Park donde Edison instaló su “cuartel general”, su “fortín” para fabricar ideas magníficas y maravillar a América y a Europa, el laboratorio de donde saldrían algunos de sus inventos más aclamados. Menlo Park estaba situado en Raritan Township, que en 1954 tomó el nombre de “Edison” en honor a nuestro inventor. De hecho, en esta ciudad del estado de Nueva Jersey se levanta la Edison memorial tower para demostrar que la posteridad ha reconocido los méritos de Edison. Los monumentos que hemos erigido a lo largo de la historia como tributo a quienes más admiramos nos abren a uno de los sentimientos más elevados que tenemos los seres humanos: el de agradecimiento. De pocas cosas podemos estar tan orgullosos como de esa posibilidad de agradecer a quien ha hecho algo bueno por nosotros. Con ello demostramos que nuestras acciones no miran sólo hacia delante, hacia el futuro, hacia los distintos fines que nos vamos proponiendo, sino que saben buscar las raíces y los orígenes de mucho de lo que tenemos hoy. Vivimos también en el pasado, y el olvido es siempre una de las mayores tragedias que pueden afligirnos. Y recordar a los genios de la ciencia y a los maestros del pensamiento mostrando nuestra sincera gratitud y, más aún, enmendar esos olvidos en los que hemos caído no pocas veces, haciendo justicia a los grandes hombres y mujeres que llevaron el conocimiento a horizontes nuevos y mejoraron nuestras vidas con sus inventos, es una acción verdaderamente noble.
Menlo Park no era un simple laboratorio para Edison: era una auténtica industria dedicada a la producción de inventos en la que Edison se había rodeado de ingenieros y científicos de un altísimo nivel profesional que le asistieron en muchas de sus aportaciones. Emulaba, en su campo, a la cadena de montaje de Henry Ford que revolucionó la industria del automóvil, aunque aquí lo que se producía en masa no eran coches sino inventos de muy diversa índole. Hoy en día nos hemos acostumbrado demasiado a pronunciar (en ocasiones a la ligera) palabras como “investigación”, “desarrollo”, “innovación”. El I + D + i se ha convertido en un tópico que hay que lanzar obligatoriamente en todo discurso que pretenda ser moderno y quiera dar la impresión (o la ilusión) de espíritu emprendedor. El I + D + i ha acabado hechizándonos, de manera que prácticamente no existe negocio o institución que no tenga entre sus objetivos esas siglas. Y es que el embrujo que pueden llegar a ejercer sobre nosotros ciertos términos a base de repetirlos es increíble. Si hay tantas empresas que se vanaglorian de priorizar el I + D + i entre sus objetivos por más que no esté tan claro que hayan aportado algo realmente novedoso e innovador a la sociedad que otros no hubiesen obtenido antes, seguramente es porque hemos usado excesivamente esos conceptos, y al final los hemos malgastado. En Menlo Park sí que se privilegiaba la investigación, el desarrollo y la innovación. Toda la compañía se centraba exclusivamente en eso: en estar constantemente innovando. Y los frutos de semejante ideario hablan por sí solos.
Y si hay un artilugio duradero, influyente y exitoso que saliera de Menlo Park, ése es la bombilla. La historia se repite por enésima vez. Edison no fue el primero en inventar la bombilla eléctrica que reemplazaría a las lámparas de gas en el alumbrado de las casas y de las ciudades. Tampoco Galileo inventó el primer telescopio ni James Watt la primera máquina de vapor. Pero si Galileo fue el primero que supo utilizar adecuadamente el telescopio con fines científicos y James Watt en construir una máquina de vapor con un rendimiento eficaz, Edison fue la primera persona en producir una bombilla eléctrica comercializable. Los prototipos previos, diseñados con anterioridad a Edison, no eran tan seguros. Muchas de esas bombillas nunca habrían alcanzado la misma difusión que las de Edison (en realidad no la alcanzaron, y los hechos son los hechos) porque eran caras y tenían un tiempo de vida muy corto. El consumidor habría tenido que estar cambiando de bombilla cada dos por tres. Precisamente la genialidad de Edison fue perfeccionar las bombillas más rudimentarias incorporando un filamento incandescente, es decir, un alambre que no se fundiese al pasar la corriente eléctrica. El químico inglés Sir Humphry Davy había empleado, a principios del siglo XIX, un filamento de platino. Y en 1854 el alemán Heinrich Göbel utilizó un filamento de bambú carbonizado, fabricando una bombilla operativa durante 400 horas. Aunque Göbel no solicitó una patente (cosa que Edison hacía enseguida: era especialista en inventar y en patentar), los historiadores suelen estar de acuerdo en que la primera bombilla en sentido estricto se le debe a Göbel, si bien el diseño que triunfó es el de Edison.
¿Cómo era la bombilla de Edison? En el fondo, una bombilla no es ni más ni menos que un dispositivo por el que pasa una corriente eléctrica que calienta el filamento y produce luz. Es lo que se llama efecto Joule, en honor del físico británico James Prescott Joule (1818-1889), que hizo contribuciones fundamentales al estudio de la relación entre calor, trabajo mecánico (el conocido como “equivalente mecánico del calor”, descubierto por Joule) y energía (la unidad de energía en el sistema internacional es el julio, en honor de este científico inglés). ¿Cuál es el calor generado por el paso de una corriente eléctrica a través de un material conductor? Si llamamos Q al calor producido (que es una forma de energía), i a la intensidad de corriente, R a la resistencia eléctrica del conductor y t al tiempo que dura el paso de esa corriente, la ley de Joule afirma que: Q = i2Rt. La ley en cuestión es paralela a la ley de Ohm, propuesta en 1827 por el físico alemán Georg Ohm y que sostiene que en los circuitos eléctricos, la intensidad de la corriente que pasa entre dos puntos cualesquiera es proporcional a la diferencia de potencial que se establece entre esos dos puntos e inversamente proporcional a la resistencia del conductor entre esos dos puntos: i = V/R. En realidad, la ley de Joule se puede deducir de la Ohm considerando que la diferencia de potencial (o voltaje) es igual a la energía dividida por la carga eléctrica, y como la carga eléctrica es el producto de la intensidad de corriente por el tiempo (ya que la corriente es el flujo de carga eléctrica o, matemáticamente, la derivada de la carga con respecto al tiempo), los términos de la ecuación de Ohm se pueden reorganizar para dar la expresión de Joule.
La ley de Joule se puede interpretar diciendo que todo conductor por el que pase una corriente eléctrica se calentará, que es lo que ocurre en el filamento de la bombilla. Lo que hizo Edison es encerrar el filamento incandescente en una especie de cápsula de cristal para que el oxígeno del aire no destruyese el filamento calentado por el paso de la corriente eléctrica. En un filamento incandescente como el de Edison, el propio filamento “resiste” el flujo de electrones (la corriente eléctrica), y como consecuencia de esa resistencia, los electrones se excitan a un orbital atómico de energía superior. Esto es pura mecánica cuántica. Lógicamente, Edison no sabía mecánica cuántica cuando inventó la bombilla, pero los desarrollos teórico y tecnológico no siempre han ido a la par, como tampoco se comprendió el binomio calor-energía mecánica hasta bien entrado el siglo XIX a pesar de que la máquina de vapor había nacido en el XVIII. Según la mecánica cuántica, cuando se le comunica energía a un electrón, éste será promovido a un nivel energético superior. El electrón estará excitado, es decir, elevado a un nivel de mayor energía. Como la situación más estable es siempre la de mínima energía y la naturaleza tiende a la mínima energía, en cuanto el electrón regrese a su estado energético inicial emitirá el exceso de energía que tenía en forma de fotón (un cuanto de luz, de radiación electromagnética), con una frecuencia proporcional a la diferencia de energía entre los dos estados: el excitado y el inicial (la fórmula de Planck que relaciona -mediante la constante de Planck- la energía y la frecuencia de un cuanto). En el filamento incandescente, la frecuencia a la que se emite ese fotón pertenece al rango del visible o del infrarrojo en el espectro electromagnético, excelente para producir luz artificial.
¡Edison había encendido una nueva luz en el mundo! Era el 31 de diciembre de 1879, y nuestro hombre tenía treinta y dos años. Una fecha memorable para la historia. Las penurias que tantos habían tenido que sufrir durante siglos para alumbrarse llegaban afortunadamente a su fin, porque Edison había inventado una manera sencilla, eficaz y económica de producir luz artificial. Ya no hacían falta lámparas de gas, velas o candelabros, porque la bombilla era muy barata, tal y como el propio Edison había prometido: “haremos electricidad tan barata que sólo los ricos quemarán velas”. Si James Watt había descubierto el poder del calor para producir energía mecánica (movimiento), Edison había sido capaz de aprovechar el poder de la electricidad. Así como Watt y su invento (la máquina de vapor) se sitúan en la base misma de la primera revolución industrial, Edison y su creación lo están en la de la segunda revolución industrial, donde la electricidad ocuparía un lugar central en la innovación tecnológica. Pocos artilugios han influido tanto en la vida cotidiana de millones de personas como la bombilla de Edison. Mirando hacia atrás, nuestros antepasados nos parecen auténticos héroes por el escaso bienestar de que disfrutaron, al menos en comparación con el nuestro. Pero lo cierto es que hoy consideramos indispensable la luz eléctrica, y conforme progresamos cada vez consideramos indispensables más y más cosas. ¿Quién podría vivir hoy sin ordenador, televisión, radio o coche? Pero la humanidad ha estado siglos sin ordenador, televisión, radio o coche. Y previamente estuvo siglos sin rueda, escritura o vestimenta. Y así hasta la noche de los tiempos del género humano sobre la Tierra. Aquí sí se cumple sin fisuras que la medida del tiempo es relativa. Para un antiguo, su vida era la que era, con sus comodidades y con sus inconvenientes. Para nosotros, nuestra vida es la que es, y seguramente cuando los hombres y mujeres del futuro lean sobre cómo vivíamos a principios del siglo XXI se quedarán asombrados y quizás exclamen: “¡cómo podían ignorar tal o cual cosa o sobrevivir sin tal o cual artilugio!” Por eso, más que el invento en sí, por relevante y trascendental que haya resultado a la larga, me parece más importante reflexionar sobre la capacidad que el ser humano tiene de innovar y de progresar, de superar situaciones anteriores y de configurar un nuevo “escenario” que tiempo atrás habría parecido imposible. Hacer lo imposible posible es una de las habilidades más extraordinarias del genio humano.
El éxito de Edison no se reduce, desde luego, al fonógrafo y a la lámpara de luz de filamento incandescente o bombilla. Inventó también el telégrafo cuádruple (que le reportó ingentes beneficios) o el micrófono de carbón para aplicarlo al teléfono que el escocés residente en Estados Unidos Alexander Graham Bell acababa de patentar en 1876, y su laboratorio de Menlo Park no hacía más que crecer y abrir nuevas áreas de investigación.
Edison era un gran inventor y un agudo hombre de negocios. Supo combinar su inteligencia creativa con su talento empresarial, una especie de Bill Gates de la época. En 1878 fundó la Edison electric light company, con el apoyo de financieros como John Pierpont Morgan (junto con Rockefeller, uno de los hombres más ricos de Estados
Unidos en aquella época), quien apreció el inmenso filón que representaba la compañía de Edison. Además, Edison fue lo suficientemente astuto como para aliarse con sus posibles rivales (por ejemplo, Joseph Swann en Inglaterra) y así evitar competencia en el extranjero, donde su patente podía no ser ni la única ni la primera.
Pero si Edison había inventado la bombilla, todavía faltaba un sistema de distribución de la electricidad a gran escala que permitiese sacarle verdadero partido a su artilugio. Cuesta entender por qué hombres tan brillantes e inteligentes como Edison a veces se han negado cerrilmente a ciertas innovaciones, precisamente ellos que habían revolucionado el estado de la tecnología. También Einstein se resistía a aceptar la interpretación de la mecánica cuántica de la escuela de Copenhague (Bohr, Heisenberg, Born), que luego se ha generalizado, pero en su caso había razones profundas de orden científico y filosófico que podrían justificarlo. Sin embargo, Edison prefirió el uso de corriente continua en lugar de corriente alterna (cuya dirección va cambiando cíclicamente) en los sistemas de distribución de electricidad sin ningún motivo de peso. Era mucho más eficiente y práctico emplear corriente alterna. El problema estaba en que quien había inventado la corriente alterna era persona non grata a los ojos de Edison: Nikola Tesla (1856-1943). Tesla, de origen serbio pero que vivió la mayor parte de su vida en Estados Unidos, es uno de los intelectos más prolíficos, polifacéticos y curiosos de la historia de la ciencia y, sin duda, otra mente tan maravillosa como la de Edison. Desgraciadamente, su excéntrica personalidad y las no pocas controversias en que se vio envuelto desacreditaron en parte su condición de científica, aunque la historia posterior haya reconocido con creces sus indudables méritos (de hecho, la unidad en el sistema internacional para la inducción magnética es el tesla). La enemistad entre Tesla y Edison es proverbial. Tesla había trabajado en la compañía de Edison, pero se marchó por desavenencias económicas y personales. Para deslegitimar a Tesla, Edison llegó a diseñar un modelo de silla eléctrica que funcionaba con corriente alterna. Se había declarado la “guerra de las corrientes” entre los defensores de la corriente continua y los promotores de la corriente alterna. Pero los hechos son tozudos y por mal que le pesase a Edison, la corriente alterna de Tesla se demostró más útil en los sistemas de distribución eléctrica. Así que la combinación ideal para alumbrar el mundo acabó siendo producto de dos mentes geniales pero enfrentadas: la bombilla de Edison con la corriente alterna de Tesla. Era inevitable que dos personalidades de la talla intelectual y científica de Edison y Tesla colisionasen. Es casi ley de vida: entre personas igualmente brillantes suele surgir, al unísono, una enemistad de no menor grado que su talento. Es como si una de las dos percibiese que la otra le va a hacer sombra sin solución de continuidad. O la una o la otra, pero las dos al mismo tiempo y en el mismo lugar no pueden sobrevivir. El genio necesita destacar y relucir por encima de lo que le rodea, y si lo que le rodea es otro genio ya no es posible marcar la diferencia. Y por encima de todo, Edison, como todas las grandes mentes, era humano. Y tan humano es querer crear, descubrir y amar como en ocasiones sentir envidia o rechazo hacia alguien. Todos podemos caer en ello. En cualquier caso, se cuenta que en sus últimos días Edison admitió que uno de los mayores errores que había cometido fue el de subestimar a Tesla. Tesla, por su parte, se mostró muy crítico con Edison, haciendo comentarios bastante negativos (y cuestionando sus métodos y su rigor científico) al poco de fallecer el inventor americano. Olvidaba Tesla que de mortuis, nisi bonum, “de los muertos, sólo lo bueno”, máxime en un obituario.
La inagotable creatividad de Edison le llevó a realizar, sólo en Estados Unidos, 1093 patentes. Los beneficios que obtenía con sus patentes los reinvertía en investigación de nuevos artilugios. Lo suyo, más que afán de lucro, era afán de innovación, que en algunas personas ha sido casi tan poderoso como el primero. Su prestigio no se limitaba al continente americano, sino que Edison alcanzó igual fama en Europa. Todo el que suba al tercer piso de la Torre Eiffel podrá contemplar algo no menos singular que la vista de París desde casi 300 metros de altura: una reproducción a tamaño natural con las figuras de Edison, Gustave Eiffel y la hija de Eiffel durante la cálida acogida que el francés dispensó a nuestro inventor en un edificio que era el orgullo y la cima de la ingeniería de la época. Las compañías de Edison se instalaron también en Europa. Resulta inexplicable que Edison no recibiese el premio Nobel de física. Parece ser que el comité sueco había decidido otorgárselo en 1915 junto con su enemigo mortal Nikola Tesla, pero finalmente optó por concedérselo a los Bragg, padre e hijo (el hijo, William Lawrence, continúa siendo la persona más joven en ganar un Nobel, pues sólo tenía veinticinco años). En cualquier caso, es una tremenda injusticia que ni Edison ni Tesla ganasen el premio Nobel, como también lo es que ni Tolstoi, ni Gandhi ni Mendeleyev lo recibiesen en campos como literatura, la paz o química.
Thomas Alva Edison murió el 18 de octubre de 1931, a los 84 años. Edison, prolífico inventor y sagaz hombre de negocios, cambió la historia contemporánea al impulsar de manera definitiva el uso de la electricidad en la vida cotidiana de millones de personas. Aunque ni todos los inventos que patentó eran exclusivamente suyos ni había sido el primero en diseñar la mayoría de ellos, no se puede minimizar la influencia real del Edison inventor y empresario en la revolución tecnológica de finales del siglo XIX.
Capítulo 16
Cajal y la “doctrina de la neurona”.
En el siglo XIX surgió lo que se conocería posteriormente como el “debate sobre la ciencia española”. Destacados intelectuales de nuestro país discutían acaloradamente en las tribunas y en las academias sobre la existencia -o inexistencia- de ciencia auténtica en la historia de España. Frente al apologetismo ciego y bastante rancio de un Menéndez Pelayo, que pretendía sacar científicos de debajo de las piedras, lo cierto es que la postura más matizada de otros autores dejó claro que en España, por desgracia, no se habían cultivado propiamente las disciplinas científicas. Descontando el paréntesis de la España medieval (donde la confluencia de las culturas cristiana, musulmana y judía produjo una notable ebullición de ideas científicas y humanísticas), la España moderna y pre-moderna prácticamente no aportó nada significativo a la ciencia. Y como la ciencia en sentido estricto nace el siglo XVII, fundamentalmente a raíz del trabajo de Galileo Galilei, se puede afirmar categóricamente que España se desvinculó, por razones de diversa índole, del desarrollo de la ciencia moderna hasta bien entrada la Ilustración. De nada sirvió el descubrimiento de América (que debería llamarse en realidad “el descubrimiento para los europeos de América”, pues ese continente ya llevaba milenios descubierto para el ser humano), que motivó importantes adelantos en las técnicas de navegación y de medición y que, lógicamente, representaba una ocasión excelente para promocionar eventuales investigaciones científicas. Fue desaprovechado.
Hacer auto-crítica es algo, a mi juicio, muy positivo. De nada sirve vanagloriarse de supuestos éxitos que no han existido, si no se quiere caer en el triunfalismo tantas veces ridículo de exaltar logros que en realidad no fueron tales, o que al menos no fueron tan relevantes como se piensa en las transformaciones sociales, culturales y científicas. Las modernas sociedades plurales y democráticas tienden, y con razón, a ser bastante escépticas con respecto a los triunfalismos pseudo-patrióticos. ¿Acaso debe ser un tema tabú denunciar el escaso o papel que ha desempeñado España en el desarrollo de la ciencia? Nadie niega que España haya aportado otras cosas a la historia, pero entre esas cosas difícilmente se encontrará ciencia. Y por otra parte, refugiarse en ensoñaciones y magnificaciones de acontecimientos como el descubrimiento de América como si compensase, por sí solo y por lo que supuso en la génesis del mundo moderno, la poca relevancia de España en el surgimiento de la ciencia moderna, es olvidar el trágico rastro de destrucción y aniquilamiento de pueblos y culturas indígenas que ocasionó. Y no parece muy acertada la típica reacción del “¿y ellos qué?”, refiriéndose a que otros países colonizadores también cometieron horribles tropelías en el Nuevo Mundo. Hacer auto-crítica es sumamente sano, y pretender inmunizarse de la crítica constructiva que identifique los aspectos negativos y manifiestamente mejorables es una empresa a todas luces inútil. Además, es absurdo crear “tabúes” aparentemente inexpugnables para la labor crítica propia de toda persona, sea o no intelectual o académica. España tiene otros factores sumamente positivos y destacables, pero ello no debe convertirse en un subterfugio para eludir la crítica legítima.
Y una vez denunciado el problema, ¿cuáles son sus causas? Se han propuesto muchas, con frecuencia convergentes, que explicarían la falta de ciencia en la historia de España. No debemos olvidar que el desarrollo científico es inseparable del desarrollo social y económico. De vez en cuando surgen genios que en muchos casos han sabido superar enormes adversidades que, desde luego, no hacían presagiar que fuesen capaces de hacer avanzar el pensamiento científico. Pero por lo general la ciencia, al ser la labor conjunta de muchas personas en muchos lugares y tiempos, requiere de una serie de instituciones, infraestructuras y condiciones políticas y culturales que la hagan posible. En España, estas condiciones no se dieron. El potencial político y económico que parecía haberse alcanzado con la conquista de América fue desperdiciado en infinidad de guerras por media Europa que acabaron sumiendo al país en la bancarrota. Por otra parte, la expulsión de los judíos en 1492, que escribió una de las páginas más tristes de la historia de nuestro país, podría haber hipotecado por siglos el futuro tecnológico, científico e intelectual de España, ya que el pueblo judío siempre ha mostrado una particular inclinación hacia el cultivo de las ciencias y del conocimiento, contribuyendo eficazmente al desarrollo, en todos los sentidos, de los países en que se ha instalado. Un ejemplo: cuando Hitler, con su política criminal y suicida, forzó a los judíos a exiliarse de Alemania y de otras naciones que cayeron bajo su dominio, Europa perdió el liderazgo científico e intelectual, que se desplazó a Estados Unidos (en un fenómeno análogo al que se dio a mediados del siglo XV, cuando la conquista otomana de Bizancio obligó a muchos eruditos a emigrar a Italia y el resto de Europa). Este éxodo de científicos y humanistas estuvo protagonizado sobre todo por judíos, muchos de los cuales acabarían ganando el premio Nobel en sus especialidades.
Algo similar ocurrió en España. Al expulsar a los judíos, España se quedó sin gran parte del estamento científico e intelectual. Y no menos relevante, la existencia de un órgano como la Inquisición, en funcionamiento desde 1478, que gozó de tanto prestigio y de tanto poder y que fue utilizado por los sucesivos monarcas como herramienta de dominio, supuso un órdago difícilmente subsanable para el desarrollo del conocimiento y de la ciencia. La Inquisición anuló la creatividad de muchos científicos y escritores, al someterlos a férreos controles y al extender un miedo generalizado hacia su dictadura ideológica. Esa censura ideológica pasaría una onerosa factura a España: subdesarrollo, retraso, cultura de gueto con respecto a Europa, insignificancia científica..., y un país replegado sobre sí mismo a raíz de la contrarreforma (se llegó a prohibir a los estudiantes españoles acudir a universidades fuera del imperio). Sólo con la irrupción, lenta pero a la postre firme, del movimiento ilustrado y con el declive de la España inquisitorial, se irían curando, aunque muy poco a poco, esas costosas heridas. Por desgracia, los problemas internos y las cruentas guerras civiles que asolaron el país en el siglo XIX postergaron, nuevamente, la creación de un auténtico “sustrato” científico, técnico e intelectual en España. Lo que Unamuno llamó “guerra incivil” y los largos años de dictadura, con algunos de los exponentes más granados de la intelectualidad española en el exilio, volvieron a suponer una pesada carga, un nuevo muro en la construcción de una sociedad moderna que pudiese cultivar propiamente la actividad científica. Los sucesivos gobiernos democráticos de nuestro país no han prestado la suficiente atención a la ciencia y a la educación en general, pues al parecer tenían otras prioridades, y España corre el peligro de quedarse muy atrasada en una carrera enormemente competitiva (como es la producción científica e intelectual) y de no basar su desarrollo socio-económico en el conocimiento, lo que a la larga puede conllevar, de nuevo, una gravísima hipoteca.
Y tampoco debemos olvidar que un rasgo muy típico de la sociedad española es un cierto elitismo endogámico, que tiende a juzgar a las personas más por los títulos y por los honores que poseen que por sus aportaciones efectivas al conocimiento o a la reflexión. Solemos admirar más a alguien por ser de tal o cual real academia, por poseer determinados másters conseguidos en prestigiosas universidades o por haber ganado ciertos premios que por lo que realmente ha pensado, escrito y, en definitiva, contribuido (de su propia cosecha) a la labor científica y humanística. Antes que el currículum, siempre me ha parecido más interesante oír a esa persona hablar, expresarse, escribir, transmitir ideas o, en caso de ser un científico, exponer qué ha descubierto exactamente. Lo demás me parece secundario. El Nobel no se gana por una exitosa carrera académica, sino por aportar algo concreto que haga progresar el conocimiento científico. Y tampoco conviene olvidar que muchos grandes genios del arte, las ciencias y el pensamiento no fueron reconocidos en vida (por ejemplo Van Gogh, Mendel, Galois o Nietzsche) y a muchos otros todavía no se les ha hecho justicia.
Si hay alguien de España que merece el mayor respeto y consideración por su esfuerzo, inteligencia, tenacidad y contribuciones reales al progreso de las ciencias naturales es, sin duda alguna, Santiago Ramón y Cajal, a ojos de muchos el científico más importante que ha tenido nuestro país. Rastreando en la historia de España se pueden encontrar, obviamente, figuras señeras que fueron grandes investigadores, pero suelen ser casos aislados, excepciones que confirman la regla. Entre ellos figurarían algunos representantes de la Escuela de Salamanca, que en el siglo XVI no sólo puso las bases del derecho internacional, sino que también dejó un nada desdeñable legado científico en las postrimerías del Renacimiento. Miguel Servet fue el primer europeo en describir la circulación pulmonar, aunque la intolerancia de su tiempo, el siglo XVI, hiciera que fuese perseguido simultáneamente (a causa de su negación teológica de la Trinidad) por católicos y protestantes y que acabase quemado en la hoguera de Ginebra por Calvino en 1553. Juan de Caramuel y Lobkowitz, en el siglo XVII, fue un gran matemático, teólogo y eclesiástico de la Orden del Císter que viajó por media Europa y que escribió trabajos interesantes sobre la teoría de probabilidades. Pero se trata de singularidades, y hasta el siglo XVIII y sobre todo bien entrado el XIX, no se gestaría
Santiago Ramón y Cajal, el padre de las modernas neurociencias, nació en Petilla de Aragón el 1 de mayo de 1852. Es sorprendente acercarse a un pueblo tan diminuto como Petilla y pensar que de él surgió alguien que iba a revolucionar el conocimiento sobre el sistema nervioso y el cerebro. El genio “sopla” por donde quiere y como quiere, sin estar (¡por fortuna!) necesariamente constreñidos a los condicionamientos culturales, económicos e históricos. Es una muestra de la creatividad que siempre ha existido en la especie humana, y nos permite imaginar que en los lugares más recónditos o que la sociedad considera más insignificantes y aislados puede nacer una mente maravillosa en cualquier campo que acabe deslumbrando al mundo. La vida es sumamente rica y libre, y cada trayectoria, única.
Sus padres se llamaban Antonia Cajal y Justo Ramón. Su padre era profesor de anatomía aplicada en Zaragoza y siempre quiso que su hijo fuera, como él, médico. Santiago no fue un alumno particularmente aplicado: tuvo que trasladarse de un colegio a otro porque era bastante rebelde y tenía serios problemas con la autoridad de sus maestros. De hecho, a los once años tuvo que ir a la cárcel por destruir la puerta de entrada al pueblo en que entonces vivía con un “cañón” de fabricación casera.
¿Cómo era de joven? Inquieto, amante del arte, de la pintura y de la gimnasia, al igual que tantos otros grandes pensadores y científicos; muy emprendedor y tenaz. Trabajó como zapatero, barbero... Desde luego, su carrera científica sería todo menos un camino de rosas, especialmente en la España de mediados del siglo XIX.
Cajal estudió medicina en la Universidad de Zaragoza, y se graduó en 1873, a la edad de veintiún años. Mostró una preferencia clara por las clases prácticas y por el trabajo de laboratorio. Se cuenta, de hecho, que un profesor, el Dr. Ferrer, que impartía la asignatura de obstetricia, le llamó la atención por faltar a menudo a sus clases, y aunque Cajal justificaba sus ausencias argumentando que empleaba ese tiempo en acudir a clases prácticas o en leer libros de medicina avanzada por su cuenta, el profesor no le creyó. Tanto es así que le obligó a salir a la pizarra para hablar sobre las membranas embrionarias. Cajal, ni corto ni perezoso, disertó durante media hora larga sobre las membranas embrionarias, acompañadas de exquisitos dibujos en la pizarra que dejaron a toda la clase, incluyendo al profesor, atónita.
Cajal ya era médico, pero todavía le quedaba lo más difícil: ejercer su profesión. Tras pasar un durísimo examen, Cajal logró una plaza de oficial médico en el ejército español, pero fue destinado al que por entonces era el punto más conflictivo de lo que quedaba del antiguo imperio colonial español: Cuba. En el hospital de Vista Hermosa de la perla del Caribe, Cajal atendió a enfermos de paludismo y disentería entre 1874 y 1875, pero acabó cayendo enfermo y contrajo enfermedades como la tuberculosis y la malaria que afectaron gravemente a su salud. Finalmente, regresó a España y en 1879 se casó con Silveria Fañanás, con quien tendría cuatro hijas y tres hijos.
En 1877 obtuvo el grado de doctor en Medicina, que se concedía en Madrid, y fue nombrado profesor de anatomía general y descriptiva en la Universidad de Valencia. Le costó conseguir una cátedra; como en tantos otros casos, no porque le faltasen capacidades para ello, sino por las trabas con que se encontró en algunas de las instituciones académicas por las que pasó. Finalmente, ganó la cátedra de histología y anatomía patológica en la Universidad de Barcelona en 1887 y en 1892 asumió la misma cátedra en Madrid. Entre 1900 y 1901 dirigió el Instituto Nacional de Higiene y en 1922 fundó el “Instituto de Investigaciones Biológicas”, germen de lo que más tarde sería el Instituto Cajal. Falleció en Madrid en 1934.
Sus investigaciones sobre la estructura del sistema nervioso se remontan a 1880, año en que empezó a publicar una serie de trabajos que desembocarían más tarde en una de sus obras más célebres, Textura del sistema nervioso del hombre y de los vertebrados (1897-1899), libro de texto en muchas universidades europeas, así como en numerosos manuales, artículos en revistas científicas y libros sobre técnica de micrografía, escritos en español, francés y alemán. Cajal fue siempre un extraordinario dibujante, ya desde su temprana vocación artística, y algunos de sus dibujos del cerebro o el tejido nervioso sorprenden aún hoy por su precisión y belleza.
En 1889, siendo catedrático en Barcelona, Cajal se presentó, por su cuenta, en el congreso de la Sociedad anatómica de Berlín. La hazaña tiene pocos precedentes: un desconocido investigador español se desplaza a lo que por entonces era una de las mecas de la ciencia médica, Alemania, y maravilla a los científicos allí reunidos por lo que había descubierto. ¿Y en qué consistían estos hallazgos? Básicamente en haber sido capaz de mostrar, haciendo uso de nuevas técnicas de tinción mejoraban la visibilidad en el microscopio, la auténtica naturaleza del sistema nervioso.
El italiano Camilo Golgi (1843-1926) había probado que utilizando una solución de cromato (derivado oxigenado del elemento cromo) de plata, era posible “manchar” y así identificar ciertas neuronas cerebrales, ya que los tintes orgánicos inventados por médicos como Koch o Ehrlich no permitían observar neuronas individuales. Pero Golgi había llegado a la conclusión de que esas neuronas no constituían verdaderas “unidades”, sino que formaban un tejido continuo, una especie de “telaraña” o retículo.
Cajal, que conocía muy bien el trabajo de Golgi, no estaba de acuerdo con la tesis del italiano. Empleó el método de tinción que había desarrollado Golgi, pero demostró que el sistema nervioso está formado por millones de células separadas (o neuronas) y que éstas se encuentran polarizadas (es decir, con un polo positivo y otro negativo). No se trata, por tanto, de una maraña de células continuas, sino de neuronas individuales y contiguas. La teoría de Cajal acabó llamándose “teoría de la contigüidad”, precisamente por subrayar el carácter de “átomos” situados los unos junto a los otros, en vez de concebir el tejido nervioso como una red continua. Las neuronas están separadas; son entidades independientes. Pero entonces, ¿cómo se comunican las neuronas entre sí? ¿Serán acaso “mónadas” aisladas, sin ventanas, como en la famosa teoría filosófica de Leibniz? En absoluto: Cajal sugirió que las neuronas disponían de un tipo particular de uniones, que posteriormente recibirían el nombre de sinapsis por el neurólogo y premio Nobel británico Charles Sherrington en 1897, las cuales permitían el contacto y la comunicación electroquímica entre ellas. El modo en que se transmite el impulso nervioso es por contacto entre neuronas, generando potenciales químicos y no por transmisión continua a lo largo del citoplasma (el fluido gelatinoso y semitransparente que “rellena” la mayoría de las células). De esta manera, el sistema nervioso está compuesto por unidades individuales llamadas neuronas que, a su vez, se comunican entre sí a través de sinapsis.
Las teorías de Cajal acabaron imponiéndose en el seno de la comunidad científica a la teoría reticular de Camillo Golgi, especialmente al publicarse los facsímiles, entre 1899 y 1904, en los que Cajal recogía sus espléndidos dibujos y reproducciones de sus observaciones al microscopio. Su prestigio fue en aumento y en 1906 compartió con su opositor científico pero que, por encima de todo, había sido una pieza clave en las investigaciones de Cajal por su técnica de tinción, Camillo Golgi, el premio Nobel de Fisiología o Medicina, convirtiéndose en el primer español en ganarlo (hazaña sólo repetida por el bioquímico Severo Ochoa en 1959), y el segundo en obtener un premio Nobel (después del cuestionado ingeniero y dramaturgo madrileño José Echegaray, que recibió el Nobel de Literatura en 1904 junto con el poeta francés Frédéric Mistral).
Las teorías de Cajal se aceptaron, y la doctrina de la neurona se ha convertido ya en pilar de las neurociencias. El uso del microscopio electrónico (inventado en los años ’30 del siglo pasado) ha permitido comprobar que cada neurona está rodeada por una membrana de plasma, que la separa de las demás y hace de ella una unidad independiente, en la línea de lo sostenido por Cajal. Además de sentar las bases de la doctrina de la neurona, Cajal propuso que los axones (es decir, las prolongaciones que, partiendo del cuerpo o soma de las células nerviosas conducen el impulso nervioso) crecían formando “conos” en sus terminaciones, y que el crecimiento de las células neuronales estaba mediatizado por una serie de señales químicas responsables de fijar la dirección del proceso en cuestión (lo que hoy conoce como quimiotaxis).
Pero el problema persistía: si lo que hace el sistema nervioso es transmitir impulsos eléctricos, pero las neuronas no forman un continuo sino que son unidades separadas, ¿cómo se transmite, entonces, dicho impulso? Habría una serie de saltos o rupturas discontinuas que impedirían el paso del impulso nervioso. La solución al problema la dio el propio Cajal: la energía eléctrica del impulso se transforma en energía química en cada punto de contacto, provocando la salida de iones potasio y la entrada de iones sodio. Los iones potasio, que se representan como K + , son cationes, esto es, especies químicas cargadas positivamente, consistentes en un átomo de potasio que ha perdido un electrón para alcanzar la configuración electrónica o disposición de electrones del gas noble inmediatamente anterior a él en la tabla periódica, que es el argón, ya que la configuración electrónica de gas noble es la de mínima energía y la más estable. Por eso los gases nobles son tan poco reactivos y forman tan pocos compuestos: su estabilidad energética es muy elevada y no necesitan reaccionar con otras especies químicas para alcanzar una mayor estabilidad. Se les llama “nobles” por esa inercia química que les lleva a participar tan poco en las reacciones, a “mezclarse” raramente con otros elementos. Los iones sodio (Na + ) son, como en el caso anterior, un átomo de sodio que ha perdido un electrón y que por tanto tiene la misma configuración electrónica que el neón, otro gas noble. La salida y entrada de iones potasio y sodio respectivamente genera un cambio en la polaridad de la neurona (dijimos que las neuronas estaban polarizadas por tener un polo positivo y otro negativo). Aunque la transmisión no discurre, lógicamente, a la misma velocidad que en el caso de la corriente eléctrica, siempre supera los 50 centímetros por segundo.
Cajal, además de una vastísima producción científica, escribió libros de ensayo como Reglas y consejos sobre la investigación científica o Los tónicos de la voluntad, y puso los cimientos de una importante escuela neurológica en la que han trabajado grandes científicos españoles del siglo XX. Siempre ha sido un ejemplo insuperable de tenacidad y afán descubridor para jóvenes investigadores de dentro y fuera de nuestro país, que han encontrado en Cajal una inspiración para sobreponerse a las adversidades de todo tipo que puedan interponerse entre el científico y la ciencia. Sirva sólo como ejemplo, pero recuerdo cómo un profesor que tuve de lenguas clásicas, Jonathan Katz, me contaba que su padre, Sir Bernard Katz, neurocientífico y ganador del premio Nobel de Medicina en 1970 (junto con U. Von Euler y J. Axelrod) por sus investigaciones sobre el papel de la acetilcolina en la transmisión del impulso nervioso, entre los pocos retratos que conservaba en su despacho sentía especial veneración por el de Santiago Ramón y Cajal.
Cajal perteneció a numerosas academias y sociedades, destacando la Royal Society de Londres (que ha tenido miembros -fellows- tan ilustres como Isaac Newton, Charles Darwin o Albert Einstein), y recibió el doctorado honoris causa de la Universidad de Cambridge en 1894.
Santiago Ramón y Cajal había abierto las puertas de un nuevo mundo al descubrir la estructura del sistema nervioso. No sería exagerado afirmar que uno de los grandes retos de la ciencia y que pone a prueba, quizás más que cualquier otro, la capacidad humana de conocer y responder a las preguntas que nunca deja de formular, es el de comprender adecuadamente el funcionamiento del cerebro. Estudiar lo más distintivo del ser humano, la conciencia, cómo ha surgido, evolucionado y, sobre todo, cuáles son sus verdaderas posibilidades, representa uno de los horizontes más prometedores y fascinantes de nuestro tiempo. El futuro del conocimiento se construye ya hoy. La pregunta “¿quiénes somos y qué podemos hacer?” es inseparable de la pregunta por la naturaleza de la mente humana y de sus capacidades, muchas de ellas inexploradas.
Capítulo 17
Planck y los quanta.
Pero con anterioridad a la mecánica cuántica (que surgió en los años ’20, gracias a científicos de una talla verdaderamente excepcional como Louis de Broglie, Erwin Schrödinger o Werner Heisenberg) nació la teoría cuántica, una de las grandes revoluciones en el pensamiento que tuvieron lugar a principios del siglo XX. Su artífice era un distinguido profesor alemán, lo suficientemente clásico y conservador en su terreno como para desconfiar de sus propios resultados, hasta que no tuvo más remedio que aceptar que había descubierto algo que trastocaba lo que hasta entonces se conocía de la naturaleza de la energía: la existencia de los cuantos.
A finales del siglo XIX nada hacía presagiar que la física clásica fuese a entrar en crisis. La física clásica era un edificio verdaderamente imponente, una construcción intelectual formidable que se remontaba a Galileo pero que Isaac Newton había llevado a su máxima expresión en el siglo XVII. Las teorías de Newton habían sido aplicadas con un éxito extraordinario a la descripción de multitud de fenómenos de la naturaleza, principalmente en astronomía. Para hacernos una idea de su poder de predicción, cuando un joven matemático francés, Urbain Le Verrier, observó que había discrepancias entre los datos de la órbita de Urano obtenidos con el telescopio y los que cabría deducir de las leyes de Newton, se dio cuenta de que esas diferencias no eran triviales, sino que sólo podían ser explicadas si se postulaba la existencia de un nuevo planeta. Pues bien, ese planeta se descubrió en 1846: Neptuno. ¡Con el solo razonamiento matemático impuesto por las leyes de la mecánica de Newton, Le Verrier había encontrado un nuevo planeta en el sistema solar! Quien quisiera contradecir a Newton tenía que tener motivos de peso para hacerlo.
No es de extrañar, con estos antecedentes, que en una conferencia que reunió a importantes físicos en Londres en 1890, Lord Kelvin (el que da nombre a una escala de temperaturas), presidente de la Royal Society, declarase que la ciencia física constituía, en lo esencial, un conjunto perfectamente armonioso y acabado. Y es que tras el trabajo del físico escocés James Clerk Maxwell (1831-1879) sobre la relación entre la electricidad y el magnetismo resumida en unas elegantes ecuaciones, y las investigaciones del mismo Kelvin sobre el cero absoluto, parecía que todos los problemas estaban resueltos y que lo único que les quedaba a los investigadores del futuro era añadir decimales a las mediciones disponibles. La teoría estaba prácticamente concluida. Ser físico prometía ser bastante aburrido.
Quedaban, sin embargo, unos “detalles” que, claro está, a Kelvin no le parecían de la suficiente envergadura teórica. Entre esos detalles estaba la radiación del cuerpo negro. Un cuerpo negro es una situación ideal en la que se absorben todas las radiaciones que se reciben, sin reflejar nada. Lo que los físicos querían saber es si era posible encontrar un modelo matemático para este fenómeno. El alemán Wilhelm Wien había propuesto una ecuación que daba las intensidades de las distintas longitudes de onda (la longitud de onda, simbolizada como X, es la distancia entre dos puntos que se repiten en la propagación de una onda a una determinada frecuencia. Para entendernos, indica el “tamaño” de esa onda) en función de la temperatura. Sin embargo, el inglés Lord Rayleigh había encontrado que la ecuación de Wien sólo era válida para frecuencias altas y, por tanto, para longitudes de onda bajas, porque frecuencia y longitud de onda son magnitudes que varían inversamente, ya que en una onda electromagnética, c/f = l, siendo f la frecuencia de la onda (el número de oscilaciones que da la onda por segundo) y c la velocidad de propagación de esa onda. Rayleigh y su compatriota James Jeans habían propuesto otra ecuación, conocida como la ley de Rayleigh-Jeans, que funcionaba de manera aceptable para las frecuencias bajas (es decir, a longitudes de onda altas), pero que producía un resultado absurdo para longitudes de onda bajas: conforme disminuyera la longitud de onda, el modelo de Rayleigh-Jeans predecía que la energía emitida por el cuerpo negro ¡se haría infinita! Es lo que se llamó la catástrofe del ultravioleta, porque aparecía a longitudes de onda cortas en el espectro electromagnético (el que informa sobre el rango -en frecuencias o en longitudes de onda- al que aparecen los distintos tipos de radiación electromagnética: rayos gamma, rayos X, visible, infrarrojo...).
Lógicamente, ningún experimento recogía un resultado tan aparentemente estrambótico. Los físicos más destacados de la época habían sido incapaces de encontrar una ley que se ajustase a las curvas de emisión de luz (radiación electromagnética) de un cuerpo negro. Y es que para hallar esa ecuación había que hacer una serie de suposiciones que contradecían los principios de la física clásica y que sólo Max Planck se atrevería a realizar. En recompensa no sólo obtendría el premio Nobel, sino que abriría un horizonte inmenso para el pensamiento humano. Max Planck pertenecía a una distinguida estirpe académica germana. Alemania, que en el siglo XIX se había convertido en una especie de “nueva Atenas”, había alcanzado un prestigio enorme como nación en casi todas las áreas del conocimiento. Los alemanes descollaban por igual en las ciencias naturales (los matemáticos de la escuela de Gottingen, físicos como Clausius o Helmholtz, biólogos como Haeckel...) y en las Geisterwissenschaften (“ciencias del espíritu”), que en la filosofía habían recibido una enorme influencia de los pensadores idealistas de principios del siglo (Fichte, Schelling, Hegel...). En la teología, los alemanes habían despuntado a lo largo de todo el XIX, creando una poderosa tendencia, el protestantismo liberal, que habían cultivado autores tan importantes como Friedrich Schleiermacher y Adolf von Harnack. Y en la música, la estela de Beethoven, Wagner y Brahms era verdaderamente majestuosa. Hablar de cultura y de afamados profesores era hablar de Alemania.
El abuelo de Planck había sido catedrático de teología en Gottingen, y su padre enseñaba derecho en Kiel, al norte de Alemania, donde nacería Max Planck el 23 de abril de 1858. Es interesante notar que muchos de los principales científicos de Alemania no venían necesariamente de familias dedicadas a las ciencias naturales. Lo cierto es que el ambiente familiar debió de transcurrir en una atmósfera de cultura y de erudición que sin duda contribuyó a despertar la inquietud intelectual del joven Planck. Heisenberg, otro de los grandes de la ciencia del siglo XX y premio Nobel de física en 1932, era hijo de un profesor de filología griega bizantina, y quizás por eso siempre apreció la filosofía clásica y supo reflexionar sobre las proyecciones humanísticas que abrían sus hallazgos científicos.
La cultura, sea de ciencias o de letras, es igualmente cultura, y en ambos casos puede ayudar a fascinarse por lo que nos rodea y a fomentar un espíritu crítico en cualquier campo. Escuchar los conciertos para violín de Johann Sebastian Bach nos sumerge en la belleza del universo tanto como conocer las ecuaciones que gobiernan el movimiento de los cuerpos, y hacen posible que el rigor impuesto por la metodología de las distintas áreas del saber no nos impida sorprendernos y elevarnos ante la capacidad de nuestra mente, que igual descubre que crea. Y ojalá en los colegios nunca se dejase de escuchar a Bach, Mozart o Beethoven, ni de leer a los clásicos. Las fragmentaciones arbitrarias que enclaustran a un individuo en una determinada disciplina científica como si sólo tuviese que centrar sus intereses en ese ámbito, incomunican y cierran puentes, cuando lo más propio del ser humano es la comunicación. Puede que naciendo en una familia como la de los Curie, con un padre (Pierre) y una madre (Marie) que eran científicos de renombre y que entre los dos habían obtenido tres premios Nobel, sea de esperar que surja una química de altura como Irène Joliot-Curie, que compartió con su marido el premio Nobel de química en 1935. Pero no es necesario. Influyen más el talento personal, el entorno cultural en que uno se mueve y la educación que recibe que la profesión de los padres. Los casos de familias en las que padres e hijos han ganado premios Nobel (como los Curie, los Bragg, los Bohr, los von Euler o más recientemente los Kornberg) son excepcionales y minoritarios.
La familia de Planck se trasladó en 1867 a Munich, donde su el padre, Johann Julius, asumió una cátedra de derecho. Allí, Planck acudió al exquisito Maximilians gymnasium, donde disfrutó del alto nivel intelectual de la educación secundaria alemana, cuya fama ha sido proverbial en toda Europa. Junto al estudio de los clásicos de Grecia y Roma, que se consideraban esenciales para la buena formación de los alumnos, Planck se introdujo en el mundo de las matemáticas, la astronomía y la física de la mano de Hermann Müller, que se convirtió en su tutor. Con 16 años, Planck había terminado el exigente bachillerato alemán y estaba en disposición de entrar en la universidad.
Se enfrentaba a un dilema: ¿qué estudiar, música o física? La sensibilidad artística de Planck era notoria, pero finalmente se decidió por la física, que a partir de ahora iba a contar con un poderoso intelecto entre sus filas, y eso a pesar de que alguno de sus maestros le había desanimado, diciéndole (como Lord Kelvin en su conferencia) que prácticamente todo estaba ya hecho. Así que ingresó en la Ludwig-Maximilians- Universitat de Munich, mostrando una clara predilección por la física teórica sobre la experimental. Como en el caso de Einstein, Planck bien podría haber afirmado que su “laboratorio” eran el papel y el lápiz: cálculos y más cálculos, razonamientos y más razonamientos. Otros se encargarían de comprobar si respondían a los hechos.
En 1877 Planck se trasladó a Berlín, la capital del Reich que había surgido con la victoria de Prusia sobre Napoleón III de Francia en 1871. La Universidad de Berlín, fundada por el lingüista Wilhelm von Humboldt en 1810, y que llegaría a ser con el tiempo el modelo para la mayoría de las universidades europeas, contaba entre los miembros de su claustro docente con profesores tan eminentes como el matemático Karl Weierstrass (cuyo teorema sobre límites y continuidad en las funciones se estudia, junto con el del sacerdote checo Bernard Bolzano, en los colegios y en los primeros cursos universitarios), el físico Gustav Kirchhoff, artífice de un trabajo fundamental sobre los circuitos eléctricos, y el gran titán de la ciencia alemán del siglo XIX: Hermann von Helmholtz (1821-1894). Helmholtz, que poseía una cultura enciclopédica, realizó contribuciones importantes en prácticamente todos los sectores de las ciencias naturales: física, química, medicina... Investigó sobre temas tan diversos pero a la vez tan convergentes como la matemática presente en el funcionamiento del ojo humano y la oftalmología; descubrió el principio de conservación de la energía; desarrolló la termodinámica al proponer lo que luego se ha conocido como “energía libre de Helmholtz” (simbolizada por la letra A) y que mide el trabajo útil que se puede obtener en un sistema termodinámico cerrado a temperatura y volumen constantes (aunque en termodinámica es más usual emplear la “energía libre de Gibbs”, G, porque opera a temperatura y presión constantes, condiciones más habituales que las de la energía libre de Helmholtz); elaboró su propia filosofía de la ciencia... En resumen: un auténtico gigante de las ciencias.
La física del siglo XIX había producido dos grandes resultados. Maxwell había sido capaz de unificar con un brillante modelo teórico la electricidad y el electromagnetismo. Y por otra parte, los avances en la termodinámica (que es la ciencia que, en definitiva, estudia la conversión de una forma de energía a otra) habían llevado a formular el principio de conservación de la energía (que Helmholtz denominó “conservación de la fuerza”, Erhaltung der Kraft), a saber, que en un sistema aislado, la cantidad total de energía permanece constante. Esta energía puede transformarse en alguno de los distintos tipos de energía que existen en la naturaleza (cinética, térmica...), pero se trata sólo de manifestaciones de un fundamento más básico que es la energía en cuanto tal. Este principio constituye también el primer principio de la termodinámica y, simplificando mucho, puede expresarse mediante el famoso aforismo: “la energía ni se crea ni se destruye: sólo se transforma”. La matemática y física alemana Amalie Noether (1882-1935), que recibió los más altos elogios del mismísimo Einstein, demostró en 1918 que el principio de conservación de la energía se deriva en realidad de que las leyes de la física no varían con el tiempo.
Ahora bien, esa energía aparecía siempre como una magnitud continua. Era lo más sensato: a nadie se le ocurre, de primeras, pensar que por ejemplo la energía en forma de calor que se transmite de un cuerpo a otro pase discretamente, “a partes”. Lo más intuitivo es suponer que ese calor se transmite como un todo continuo. Esto era algo generalmente aceptado por los físicos de finales del siglo XIX, aunque ya Ludwig Boltzmann había sugerido que los estados de energía de un sistema físico podían ser discretos en lugar de continuos.
En cualquier caso, el campo de la termodinámica llamaba poderosamente la atención de Planck, y en 1878 defendió una tesis “sobre el segundo teorema fundamental de la teoría mecánica del calor”. En Alemania, a quienes quieren optar a un puesto como profesores en la universidad no les basta con una tesis doctoral, sino que tienen que presentar una segunda tesis, la tesis de habilitación. La de Planck estudiaba los estados de equilibrio de los cuerpos isotrópicos (cuyas propiedades no dependen de la dirección) a diferentes temperaturas, y la presentó en junio de 1880.
En 1885 obtuvo una plaza como profesor asociado en la Universidad de Kiel, su ciudad natal, y sus intereses se centraron primordialmente en la química física, disciplina a la que hizo aportaciones relevantes. En 1889 sustituía a su antiguo maestro Kirchhoff en la cátedra de física de la Universidad de Berlín, de la que sería profesor ordinario (máximo grado en el escalafón docente) en 1892 y de la que no se retiraría hasta 1926. Alumnos suyos como la física Lise Meitner (descubridora, junto con Otto Hahn, de la fisión nuclear pero que injustamente y quizás por ser mujer, no ganó el Nobel de química de 1944 que sí obtuvo Hahn) recuerdan que sus clases eran extraordinarias, caracterizadas por un rigor y una precisión formidables.
El antiguo profesor de Planck, Kirchhoff, era precisamente quien en 1859 había lanzado, a modo de desafío, el problema de la radiación del cuerpo negro para que lo resolvieran los físicos más distinguidos del momento; problema cuya solución encontraría su antiguo alumno. Planck lo abordó en 1894. Un cuerpo negro, que absorbiera toda la energía, ¿de qué modo emitiría la radiación? ¿Qué distribución adoptaría en función de la temperatura? Como hemos dicho ya, Rayleigh y Jeans habían propuesto una ley válida para las longitudes de onda altas, pero que a valores bajos divergía hacia el infinito.
Planck era un hombre de espíritu más conservador que Einstein. Era un físico de la época, educado en la gran tradición del siglo XIX, y no estaba dispuesto a admitir cambios sustanciales en los grandes conceptos de la física a la ligera. Tuvo que “luchar” contra sí mismo, contra el Planck, físico del siglo XIX, que no podía aceptar que la energía no se emitiese de manera continua.
Ensayó modos distintos de explicar la curva de la radiación del cuerpo negro, pero no tuvo más remedio, en ultimísimo término, que convencerse de que la energía no se emitía de forma continua, sino discreta: había nacido la cuantización de la energía. Era 1900, en las postrimerías del siglo XIX. ¿Qué es un cuanto? Un “cuanto” (en latín, quantum en singular y quanta en plural) es una cantidad de energía, un “paquete” energético que es múltiplo de la frecuencia. Un cuanto es, por así decirlo, un “átomo” de energía. Un fotón, por ejemplo, es un cuanto de energía luminosa cuya energía se puede escribir matemáticamente con la siguiente ecuación (la ley de Planck): E = hv, donde v es la frecuencia de esa radiación y h es la constante de Planck, una de las constantes universales de la naturaleza y que da una idea del “tamaño” de los cuantos. Su valor es de 6'626×10-34J.s en el sistema internacional (unidades de acción: energía multiplicada por tiempo). ¡Un valor minúsculo, casi ínfimo! No es de extrañar que a escala macroscópica como a la que nos movemos ordinariamente nos parezca que la energía es un continuo, porque los “cuantos” de energía son tan pequeños que sumados prácticamente se aproximan a una magnitud continua. Años más tarde, en 1923, el físico danés Niels Bohr formulará el principio de correspondencia, que sostiene que el comportamiento de un sistema cuántico se reduce en realidad al de un sistema clásico (el que está regido por la física de Galileo y de Newton) cuando los números cuánticos se hacen muy grandes. En resumen: a nuestra escala (meso o macroscópica) siguen siendo válidas las leyes de la física clásica, que representan un caso límite de los principios de la física cuántica. Y es que una buena teoría científica no destruye lo anterior, sino que lo engloba en un marco que abarca más aspectos. Va, por así decirlo, al fundamento, y desde ese fundamento es capaz de justificar los resultados válidos que se habían obtenido tiempo atrás. El conocimiento científico es progresivo no porque las teorías se mantengan inmutables y simplemente se sucedan unas a otras, pues es un hecho que ha habido teorías que han sustituido y no sólo ampliado a otras, sino porque los resultados que se han ido logrando y que no cabe cuestionar son integrados en un edificio cada vez mayor. Las revoluciones científicas existen, pero afectan al modo de entender los resultados científicos. La teoría cuántica de Planck fue una revolución, porque proponía una nueva noción de cómo se emite la energía (de modo discreto y no continuo), pero no una revolución en el sentido de borrarlo todo y volver a empezar, como si fuera una “refundación” de la ciencia que nació en el siglo XVII. Era una revolución conceptual que profundizaba más en lo que ya se sabía y que abría las puertas a nuevos descubrimientos.
Planck, que como hemos mencionado era una persona científicamente conservadora, sólo quería conceder a su propuesta de los cuantos de energía el estatus de mera “asunción formal”, una especie de herramienta matemática útil que le servía muy bien para explicar el problema de la radiación emitida por un cuerpo negro. Pero nada más. Sin embargo, los hechos terminaron siendo contumaces, y lo que el profesor Planck veía como una hipótesis matemática acabaría aceptándose como un hecho físico.
Con la suposición de Planck todo cuadraba, y era posible obtener una distribución matemática que se ajustaba perfectamente a todo el rango de la curva de emisión de radiación del cuerpo negro y no sólo a las frecuencias altas o bajas. La era de los cuantos había llegado.
Como quiera que Planck no estaba muy conforme con su idea de los cuantos de energía, que rompían con la tradición física previa, hubo que esperar a que Albert Einstein propusiese en un célebre artículo de 1905 una explicación para el efecto fotoeléctrico que empleaba la teoría de Planck, para que la comunidad científica se terminase convenciendo de la existencia de los quanta. Este efecto consiste en que al irradiar energía electromagnética a una superficie metálica, ésta emite electrones siempre y cuando la frecuencia de esa radiación sea igual o superior a un valor de frecuencia umbral, y a mayor frecuencia de la radiación incidente, los electrones emitidos presentan mayor energía.
Einstein asumió la teoría de Planck de que la energía se emite en cuantos discretos y no como un continuo. La radiación electromagnética que incide sobre el metal estará entonces compuesta por “paquetes” de energía o fotones (palabra que acuñó el químico estadounidense G.N. Lewis en 1926, y que Einstein llamaba Lichtquant, cuanto de luz, en su artículo en la revista Annalen der Physik de 1905), y si esta energía es suficiente, comunicará al electrón en cuestión de la superficie metálica una energía cinética (esto es, una velocidad) tal que le permitirá escaparse. El fenómeno en sí no tiene explicación dentro de los márgenes de la física clásica, porque el trabajo de Einstein implica que cada fotón es capaz de excitar o potenciar energéticamente a un único electrón: se establece una correspondencia de a pares entre cada fotón y cada electrón, y cada electrón absorbe sólo un fotón. Si la energía fuese continua, como se creía antes que Planck y como postulaban las ecuaciones de Maxwell sobre el electromagnetismo, esa relación de a pares habría sido imposible. Sólo admitiendo que la luz (que es la radiación electromagnética del rango del visible, con una frecuencia comprendida entre unos valores determinados, pero radiación electromagnética al fin y al cabo) estuviese hecha de “cuantos” o “paquetes” de energía electromagnética, se podía justificar físicamente el efecto fotoeléctrico. Si la explicación de Einstein imagina la luz como una especie de “corpúsculo” o “paquete” de energía que colisiona con los electrones, ¿es la luz una onda o una partícula? La luz manifiesta comportamientos como la refracción, típicos de una onda, pero en ciertas situaciones como en el efecto fotoeléctrico hay que verla como un corpúsculo. ¿Qué es? Las limitaciones de nuestros conceptos físicos, que tratan de representar una realidad a la que sólo se aproxima, obligan a que por ahora la mecánica cuántica tenga que convivir con esa dualidad onda- partícula, que se extiende no sólo a la luz sino, por extraño que resulte, a todos los objetos del universo, que exhiben propiedades de onda y de partícula.
La hipótesis de Einstein fue cuidadosamente corroborada por el físico americano Robert Millikan. Einstein recibiría el premio Nobel de física en 1921 y Millikan en 1923. El trabajo de Einstein venía a consagrar a Planck en el Olimpo de la física de la época, obteniendo el premio Nobel en 1918 “en reconocimiento a los servicios dados a la ciencia por su descubrimiento de los cuantos de energía”. El efecto fotoeléctrico primero y el modelo atómico de Niels Bohr después, constituían dos ejemplos excepcionales de los resultados teóricos y experimentales que ofrecía la aplicación de la teoría cuántica de Planck.
Los últimos años de Planck no fueron fáciles. Además de su hijo Karl, que había fallecido en el campo de batalla de Verdún durante la primera guerra mundial, en 1945 moría ejecutado su hijo Erwin por haber participado en el intento de asesinar a Adolf Hitler en 1944. Max Planck falleció el 4 de octubre de 1947 en la ciudad alemana de Göttingen.
Planck es una de las glorias científicas de Alemania, país que nunca ha ocultado su orgullo por haber sido la patria del iniciador de la física cuántica. La Kaiser-Wilhelm- Gesellschaft zur Forderund der Wissenschaft (“Fundación káiser Guillermo para el avance de la ciencia”) que había sido establecida en 1911 bajo los auspicios del káiser Guillermo II (quien le daba nombre) pasó a llamarse, después de la segunda guerra mundial, la Max Planck Gesellschaft, que en la actualidad agrupa a numerosos centros de investigación a lo largo y ancho de Alemania. La Sociedad física alemana concede, desde 1929, la “medalla Planck” a destacados físicos teóricos, y entre sus poseedores se encuentran científicos de la altura de Einstein, Bohr o Heisenberg.
Max Planck ha pasado a formar parte de la historia de la ciencia porque tuvo la valentía de poner en tela de juicio sus convicciones más sólidas sobre la naturaleza de la energía. Al postular la existencia de los cuantos de energía en 1900, Planck inauguraba una nueva era en la física teórica que iba a producir resultados asombrosos durante todo el siglo XX: la física cuántica
Capítulo 18
Marie Curie y la radioactividad
Aristóteles, uno de los hombres más sabios e influyentes de la antigüedad clásica, afirmaba que el rol de la mujer en la procreación era meramente pasivo. El varón era el elemento activo: tenía la virtus activa y la mujer la virtus pasiva. En realidad, el único que generaba a la nueva criatura era el varón, porque la mujer se limitaba a ser un simple receptáculo del “principio activo” que salía del varón. Semejantes teorías, seguidas acríticamente por un sinfín de personalidades a lo largo de siglos y por supuesto sin la más mínima base empírica (de hecho ya Galeno, junto con Hipócrates el mayor médico de la cultura clásica, reconocía un determinado papel activo a la mujer en la procreación, por lo que la misoginia en ciertos ámbitos intelectuales no estaba, en absoluto, justificada), llevaron a otros a formular frases tan demoledoras y deprimentes (máxime si se tiene en cuenta la sabiduría y el talento de estos mismos hombres en otros ámbitos) como que el varón era el principio y el fin de la mujer, un ser aliquid deficiens et occasionatum, “algo deficiente y malogrado”. Además, el mismo Aristóteles defendía que la animación de la mujer (es decir, el momento en que recibía el alma, su forma sustancial en la metafísica de este filósofo) se producía con posterioridad a la del varón. La vida de la mujer debía gravitar en torno a la del varón y someterse a sus exigencias, porque él era el ser humano en sentido pleno. Hubo que esperar hasta 1827 para que se demostrase la existencia del óvulo femenino y quedase plenamente confirmado el papel activo de la mujer en la procreación.
Por si fuera poco, una mente extraordinaria como la matemática, inventora y filósofa neoplatónica Hipatia de Alejandría fue asesinada por una turba de exaltados (después de ser demonizada como bruja sediciosa) el año 415 después de Cristo con la complicidad silenciosa de Cirilo, patriarca de esa ciudad egipcia y enemigo acérrimo del prefecto Orestes (quien era alumno de Hipatia). Juan de Nikio, siglos más tarde, escribió un relato verdaderamente desgarrador de la crueldad con que se produjo la muerte de Hipatia. La marabunta fue en su busca, la apresó, la desnudó y la arrastró por toda la ciudad. Luego cortaron su piel y su cuerpo, y cuando estaba ya muerta, la descuartizaron para luego quemarla. ¿Acusación formal? Idolatría, herejía, brujería, hechicería... De todo un poco. Un anticipo de lo que vendría siglos más tarde con la satanización de muchas mujeres como brujas y adoradoras del diablo (las famosas cazas de brujas) que difundió tamaña superstición por amplias regiones de Europa y que constituye sin duda uno de los episodios más denigrantes que se han dado para la dignidad de la mujer.
Los hechos prueban que conforme la mujer ha ido adquiriendo una mayor autonomía y responsabilidad en la sociedad y en la educación, el número de ilustres científicas y pensadoras ha aumentado. Las mujeres ya habían contribuido al progreso del conocimiento, aunque sus méritos se atribuyesen con frecuencia a sus maridos. La memoria de otras como Rosalind Franklin, clave en el descubrimiento de la estructura de doble hélice del ADN, fue olvidada y la relevancia de su labor científica minusvalorada, y no pocos críticos han señalado que James D. Watson, en su libro La doble hélice, es sumamente injusto con las aportaciones reales de Franklin. Lo cierto es que en cuanto la mujer ha estado en igualdad de condiciones con el varón para acceder a la formación superior, ocupar cátedras y tomar posiciones de liderazgos (en la economía, la empresa, la ciencia, la sociedad...), las aportaciones se han multiplicado. Poco de lo que sabemos sobre un concepto tan importante y cada vez más popularizado para la cosmología actual como es el de materia oscura habría llegado sin el trabajo de la astrofísica norteamericana Vera Rubin. Rubin tuvo que sufrir en sus propias carnes la discriminación hacia la mujer en países supuestamente modernos cuando quiso ingresar en la Universidad de Princeton para cursar astronomía y le fue vetada la entrada. La física y matemática alemana de origen judío nacida en Erlangen Ammalie Emmy Noether (1882-1935) poseía una capacidad de abstracción y de teorización extraordinaria, que le permitió formular uno de los teoremas más relevantes de las ciencias físicas que relaciona las leyes de conservación con la simetría de un sistema.
En cuanto las sociedades avanzadas han conseguido que la mujer se incorpore con plenos derechos al liderazgo social, científico e intelectual, todo el mundo se muestra contentísimo y orgullosísimo por esta gesta. Todos se apuntan al mérito de una batalla ya ganada, olvidando la sangre, el sudor y las lágrimas que costó a muchísimas mujeres durante siglos obtener esos derechos, pero seguramente sin proponer medidas concretas para suplir deficiencias que persisten todavía hoy como la participación de la mujer en la dirección de las grandes empresas.
Y si hay una mujer que encarna, como pocas, ese ideal de esfuerzo, sacrificio e inteligencia es Marie Curie. La vida de Marie Curie es la apasionante historia de la superación constante de las adversidades y del triunfo del genio y del talento sobre todos los obstáculos. Con ella y con el reconocimiento del que pudo gozar, parece que la historia de la ciencia sanaba al fin una deuda milenaria con la mujer.
Quien iba a abrir un nuevo mundo para la ciencia (emulando a su compatriota Nicolás Copérnico) con sus trabajos sobre la radioactividad nació el 7 de noviembre de 1867 en Varsovia, cuando Polonia estaba sometido al dominio del imperio ruso. Su nombre de pila era Maria Sklodowska, y fue bautizada como católica, aunque luego optase por el agnosticismo. Marie, polaca y mujer, sufrió las contrariedades que parecían desafiar a su infinita curiosidad y a su ansia insaciable de aprender desde muy joven. No tenía ningún reparo en quedarse sin dormir o sin comer con tal de lograr la mejor nota de su clase. De hecho, años más tarde y viviendo ya en París, llegará a pasarse noches enteras estudiando y repasando para al final conseguir terminar la número uno de su promoción, aun a costa de la malnutrición y el agotamiento llevado hasta la extenuación que le hacía desmayarse en no pocas ocasiones en la universidad.
Marie no pudo entrar en la universidad en Polonia. Mujer y polaca resultaba una mezcla imposible en aquella época en su país, que estaba bajo el poder del zar Alejandro II, “zar de todas las Rusias por la gracia de Dios” y que entre sus innumerables títulos incluía el de “zar de Polonia”, abuelo del desdichado Nicolás II Romanov. El zar había puesto serias limitaciones a la educación de los polacos, y Marie tuvo que arreglárselas para asistir clandestinamente a clases universitarias en Varsovia, a la vez que trabajaba como maestra en diversas escuelas y como institutriz. Con el dinero que ganaba financió el viaje de su hermana mayor Bronislawa a París para estudiar medicina, algo de una generosidad excepcional si pensamos que Marie era más brillante que su hermana y que habría merecido más irse a París. Pero el bien acaba siendo recompensado, y Marie dispuso del dinero suficiente para marcharse ella misma a París en 1891.
París, centro cultural de Europa junto con Londres y Viena, era por entonces un vivero de ideas científicas, filosóficas, literarias... que afloraban por doquier. A Marie le fascinó. La Torre Eiffel, erigida para cantar “la gloria de la ciencia francesa” (y que lleva grabados en la fachada de la primera planta, a unos 60 metros de altura, los nombres de 72 científicos, matemáticos e ingenieros franceses de renombre, como Laplace o Cauchy) durante la exposición universal de 1889, simbolizaba esa era de optimismo racionalista de finales del XIX, donde se creía que la ciencia daría repuesta y solución a todos los interrogantes y problemas que se presentasen.
Así que Marie se instaló en París y decidió buscar lo que más amaba: el conocimiento. ¿Y en qué lugar de París se llevaba cultivando el conocimiento desde hacía siglos? ¡En La Sorbona! En pleno barrio latino, la centenaria universidad atraía a intelectuales, bohemios y soñadores. Marie se matriculó en matemáticas, física y química. Había pocas mujeres en las aulas, y menos aún que llevasen una carga de materias tan abrumadora como Marie. Pero nada se le resistía. No había fronteras u obstáculos que no pudiese resolver con su tesón y su inteligencia. En dos años, en 1893, Marie obtuvo la graduación con la máxima nota de su promoción, algo indudablemente portentoso. Y al año siguiente recibía también el título de matemáticas. Marie había tenido que trabajar muy duro para triunfar en la Sorbona. Dormía en áticos sin calefacción, permaneciendo noches entera despierta para estudiar. Su situación económica era enormemente precaria: una emigrante polaca en París con escasos recursos, matriculada en carreras exigentes y en una universidad del prestigio de La Sorbona.
Pero lo logró. Y no sólo eso, sino que en 1903 alcanzaría el título de doctora (con una tesis sobre radioactividad que le valdría dos premios Nobel, por lo que puede considerarse como una de las tesis más fecundas, productivas y galardonadas de la historia de la ciencia) y en 1909 sustituiría a su marido Pierre en su cátedra de física en La Sorbona, convirtiéndose en la primera mujer que accedía a un escalafón tan alto en esta universidad. Marie batía todos los récords y hacía entrar a la mujer por la puerta grande en la ciencia, puerta que otras ya habían atravesado antes que ella, pero que probablemente no había disfrutado nunca de un reconocimiento tan generalizado como el que tuvo Marie. Sólo una cosa se le resistiría en vida: por un voto no fue admitida en la Academia francesa de las ciencias, a pesar de contar con méritos más que suficientes (más que la mayoría de los miembros de esta institución).
Marie estaba interesada en el fenómeno del magnetismo, y la suerte hizo que conociese a su futuro marido (se casaron en 1895) Pierre Curie (1859-1906), que era una de las mayores autoridades en el campo. La ley de Curie, que se enseña en los cursos de física fundamental, afirma que en los materiales paramagnéticos (aquéllos que se magnetizan en presencia de un campo magnético externo), la magnetización producida es directamente proporcional a la densidad de flujo magnético e inversamente proporcional a la temperatura. El punto de Curie es la temperatura a la que un material cambia sus propiedades magnéticas (por ejemplo, un material ferromagnético -como el hierro o el cobalto- deja de serlo por encima de esa temperatura). Además, Pierre y su hermano Jacques habían conseguido demostrar que si ciertos materiales (como el cuarzo) eran sometidos a una determinada presión, esos materiales eran capaces de desarrollar una serie de cargas eléctricas. La tensión mecánica generaba una polarización eléctrica en el seno de la estructura cristalina del material en cuestión. Un hallazgo excepcional (por relacionar fenómenos mecánicos y eléctricos) que se llamó piezoelectricidad, ampliamente utilizado hoy en dispositivos tan populares como los micrófonos. Si Marie quería saber de magnetismo, estaba claro que Pierre era la persona ideal.
En pocos matrimonios se ha dado una unión tan profunda e intensa de amor y de pasión por la investigación científica. Si los Bach son la familia musical por excelencia o los Bernouilli la familia de matemáticos por antonomasia, los Curie no lo son menos en el campo de las ciencias físicas y químicas. La familia Curie ha sumado un total de cinco premios Nobel: dos de Marie, uno de Pierre, uno de su hija Irene Joliot-Curie y otro de Frédéric Joliot-Curie (marido de Irène). Algo único en la historia de los galardones más famosos del mundo, por lo que bien merecen el apodo de “la familia Nobel”.
A finales del siglo XIX, el físico francés Henri Becquerel (1852-1908) había dado con algo sorprendente. Y como en tantos otros hallazgos científicos (la síntesis química de la urea de Friedrich Wohler, la penicilina de Alexander Fleming...), se produjo por casualidad, algo que en el ámbito anglosajón se denomina serendipity. Porque, como dijo Louis Pasteur, “en el campo de la observación, el azar sólo favorece a las mentes preparadas”. Alguien que no tuviese los conocimientos de Fleming seguramente no habría reparado en la importancia de que su cultivo bacteriano de estafilococos no podía crecer en una zona en la que había un tipo de hongo muy especial perteneciente a la familia Penicillium, dando así con uno de los antibióticos que más vidas han salvado en el siglo XX. Para descubrir algo por casualidad hay que estar allí. Es muy fácil volver luego la vista atrás y decir: “¡qué suerte!”, “¡qué casualidad!”, “¡qué fácil!”, pero desde luego el que no entre en un laboratorio o no se ponga a investigar difícilmente descubrirá algo por casualidad, porque si algo no existe en la ciencia, es la ciencia infusa. El rol de la casualidad en el progreso de la ciencia no quita importancia y necesidad al método. Sin método, lo casual se convierte en inútil. Si Fleming, Florey y Chain no hubiesen investigado después del fortuito hallazgo del primero las propiedades de ese hongo y no lo hubiesen sometido a rigurosos análisis (todo ello guiado, lógicamente, por los principios del método científico), de poco habría servido lo que Fleming identificó aquel día de 1928 en el hospital de Santa María de Londres.
Algo parecido le ocurrió a Becquerel. Colocó unas placas fotográficas de una sal de uranio previamente envueltas en un cajón de la mesa de su despacho, porque el mal tiempo le impedía realizar unos experimentos de fluorescencia que estaba llevando a cabo. Pero cuál sería su sorpresa al comprobar que las películas fotográficas se habían velado. ¿Cómo podían velarse si no habían estado expuestas a la luz solar, ya que las había tenido guardadas en un cajón? Era marzo de 1896, y Becquerel había descubierto la radioactividad, es decir, el fenómeno que consiste en la emisión natural de radiación por parte de ciertos materiales. ¡El uranio emitía radiación espontáneamente! Becquerel había abierto un nuevo horizonte a la física nuclear. El átomo ya no era un punto indivisible, sino que tenía “partes”, porque sin esas partes era imposible explicar la radiación emitida por átomos como el de uranio, radiación que consistía en rayos gamma (mucho más energéticos que los rayos X que había descubierto el alemán Wilhelm Roentgen años antes), radiación beta (electrones o positrones que se emiten a muy alta energía) y radiación alfa (núcleos de helio, es decir, dos protones y dos neutrones, que se suele simbolizar como un átomo de helio que ha perdido los dos electrones que tenía en su corteza: He2 + ). Conocer éstos y otros tipos de radiación y aprender a dominarlos ha sido uno de los mayores hitos de la física del siglo XX, una de cuyas principales líneas de trabajo ha estado orientada justamente al estudio del núcleo atómico.
Los Curie tenían noticia de los descubrimientos de Becquerel y los tres (Henri, Pierre y Marie) vivían en la misma ciudad. Empezaron a estudiar los materiales radioactivos y en particular la pechblenda o uraninita (dióxido de uranio: UO2), mineral que en esa época era la principal fuente de uranio. La pechblenda, cristalina o amorfa, es un material relativamente opaco, de color negro o grisáceo
Ellos mismos costearon la compra de grandes cantidades de pechblenda, que tenían que importar desde Jáchymov, en la actual República Checa, y montaron su propio laboratorio en unas condiciones cuanto menos heroicas. A Marie no le importaba tener que llevar los tubos con sustancias radioactivas en sus bolsillos, y las medidas de seguridad de su lugar de trabajo eran prácticamente nulas. Lo único que parecía preocuparle era profundizar en el conocimiento del fenómeno que había descubierto Becquerel. A día de hoy, cuando la ciencia se ha profesionalizado mucho y los medios técnicos disponibles son tantos y de tanta calidad, uno no puede sino admirar la entereza y la constancia del matrimonio Curie. Lo que ellos hacían era ciencia con mayúsculas, en la mejor tradición de espíritu de búsqueda y entrega a la causa del saber al que han servido algunos de los nombres más ilustres de la historia. Y los Curie embellecieron con su apellido esa genuina tradición.
Los Curie llegaron a la conclusión de que el mineral que estaban estudiando, la pechblenda, tenía que contener aun a nivel de trazas (es decir, en concentraciones extremadamente bajas) una sustancia de mayor poder radioactivo que el uranio. Lo difícil era aislar un elemento que se encontraba en proporciones tan minúsculas, pues había que separarlo del uranio. Era una tarea sumamente complicada, pero no para los Curie, que ni se desanimaron ni cesaron en su empeño de identificar esa misteriosa sustancia que emitía más radiación que el uranio de Becquerel, a pesar de que su salud corría peligro por el tipo de materiales a los que se estaban exponiendo. Finalmente, en diciembre de 1898, los Curie descubrieron un nuevo elemento para añadir a la tabla periódica de Mendeleyev: el radio (radium en francés, de símbolo Ra y cuyo número atómico -es decir, el número de protones- es 88) y lo llamaron así por su intensa radioactividad. Pero aquí no acaba su hazaña, porque al poco dieron con otro elemento completamente desconocido hasta entonces: el polonio (Po, de número atómico 84). Marie le puso este nombre en honor de su amada tierra natal, Polonia. Si tenemos en cuenta que el elemento de número atómico 96, un metal transuránico radioactivo obtenido por primera vez en 1944 en Berkeley (California), se denominó curio en honor de los Curie, hay al menos tres elementos de los (por ahora) 118 que componen la tabla periódica que llevan la impronta de este genial matrimonio.
La comunidad científica no tardó en reconocer el valor de las investigaciones de los Curie para el progreso de las ciencias. En 1903, Pierre y Marie compartían con Henri Becquerel el premio Nobel de física por sus trabajos sobre la radioactividad. María era así la primera mujer que ganaba este premio. El trágico fallecimiento de Pierre atropellado por un carruaje en 1906 impidió que compartiera con su esposa el premio Nobel de química de 1911, que Marie obtuvo sola “por el descubrimiento del radio y del polonio”. María se convertía así también en la primera mujer que conseguía el Nobel de química y en la primera persona en acumular dos premios Nobel. Hasta el momento, nadie más ha logrado ganar dos Nobel en dos ciencias distintas (Bardeen y Sanger ganaron dos en física y dos en química respectivamente, y Pauling ganó uno en química y otro en la paz).
Pero Marie no fue sólo una científica extraordinaria poseedora de un tesón sin igual y de una maravillosa mente, sino también una persona comprometida con el bien de la sociedad. No quiso patentar el proceso de aislamiento del radio (quizás su mayor contribución a la química), de manera que todo investigador que necesitase emplear la técnica que había descubierto pudiera hacerlo libremente.
Marie dedicó sus últimos años a promocionar con fines médicos las investigaciones sobre radioactividad, y con sus viajes a lo largo del globo recaudó fondos para establecer el Instituto del Radio de Varsovia, y fue nombrada directora del Instituto Pasteur de París. De hecho, no sería exagerado especular con la posibilidad de que Curie hubiese obtuviese un tercer premio Nobel, esta vez en Medicina, por su trabajo sobre el valor de la radioactividad en la medicina. También Linus Pauling, uno de los grandes químicos teóricos del siglo XX, estuvo a punto de ganar un tercer premio Nobel (que podría haber sido en química o en medicina) por sus descubrimientos sobre la estructura del ADN, pero Watson y Crick se le adelantaron.
Su dedicación incondicional a la ciencia también se cobró un alto coste humano, ya que una anemia aplásica (consistente en el mal desarrollo de las células de la médula ósea y contraída como consecuencia del prolongado contacto de Marie con elementos radioactivos) acabó quitándole la vida el 4 de julio de 1934. Su cuerpo está enterrado bajo la cúpula del célebre Panteón de París, junto al del hombre a quien tanto amó y en cuya compañía realizó sus mayores aportaciones al progreso de las ciencias. Marie Curie es un símbolo de la posibilidad casi infinita de superación y de sacrificio que posee el ser humano. La suya es una de las biografías más heroicas que conoce la historia de la ciencia. Su mente maravillosa no sólo descubrió dos nuevos elementos, permitió avanzar en el estudio de la radioactividad y ganó dos premios Nobel, sino que hizo algo si cabe más importante: a partir de Marie Curie, el papel y la imagen de la mujer en la ciencia cambiarían para siempre.
Capítulo 19
Einstein. Todo es relativo... ¿o no?
Y hablar de genio en nuestro tiempo es, para muchos, lo mismo que hablar de Albert Einstein. Einstein no fue a los mejores colegios, ni a las mejores universidades, ni tuvo los mejores profesores. Cierto es que, pese a todo, su educación fue buena, pero también lo es que no destacó especialmente en los estudios. Y sin embargo, la revista Time lo nombró, hace unos años, el mayor genio del siglo XX. ¿Cómo lo hizo? Sus principales ideas le vinieron estando casi asilado de la comunidad científica, en una oscura oficina de patentes de Berna, en Suiza. De joven tenía la costumbre de leer a Goethe y a Kant, y seguramente en éstos y en otros pensadores encontró mayor inspiración que buceando únicamente en las publicaciones científicas. Poseía una imaginación extraordinaria, desorbitada, que le permitía reproducir experimentos mentalmente (su laboratorio, solía decir, consistía en una hoja de papel y en un lápiz). Si, como se cuenta, a Descartes se le ocurrió la geometría analítica y la representación mediante abscisas y ordenadas contemplando la trayectoria de una mosca que pululaba por el techo de su habitación mientras él dormía, Einstein soñaba que cabalgaba sobre un rayo de luz y se preguntaba qué le ocurriría. La respuesta vino en forma de su teoría más famosa: la relatividad.
Es muy difícil resumir en unas pocas páginas todas las aportaciones científicas de Einstein, como también lo es describir la influencia de su obra en el pensamiento del siglo XX. En cualquier caso, y como ocurre con la vida y obras de los genios, leer su biografía nos permite “sentir” la ciencia y el conocimiento, ver cómo se gestaban, cómo lo que a otros quizás les hubiera costado esfuerzo, tiempo y la ayuda de los demás, a personas como Einstein les venía de manera casi súbita (y aquí no estamos exagerando). Mozart componía música con una velocidad asombrosa: tenía las partituras en su cabeza, mentalmente, y lo único que le quedaba era ponerlas por escrito. Si no, habría sido materialmente imposible que en sólo treinta y cinco años produjese tanto y de tanta calidad. Algo similar puede decirse de Einstein: él “veía” la forma de la naturaleza física de manera nítida y límpida. Si en capítulos anteriores hemos podido dar una idea “negativa” de intuición como dejarse llevar por las primeras apariencias sin profundizar, en el caso de Einstein la intuición recobra toda su grandeza y todo su poder. Intuición, en científicos como Einstein, es visión inmediata de lo oculto, de lo escondido, de lo que requeriría de un enorme trabajo para dilucidarse. El antiguo filósofo indio Sankara creía que la realidad estaba cubierta por un velo, el velo de Maya. Todo es pura ilusión, fruto de la ignorancia. Einstein, como otras mentes maravillosas a lo largo de la historia, han sido capaces de levantar ese velo de maya y descubrir todo un universo de sentido.
Sentido que, indudablemente, no es sinónimo de “finalización”, como si los descubrimientos de Einstein disipasen directamente todos los interrogantes que podamos plantearnos sobre el espacio y el tiempo. Es más: avivan nuevas preguntas, como hacen en realidad todos los grandes avances en el conocimiento.
Y Einstein, cuando había logrado ver la solución, tenía que escribirla en el lenguaje de la física, que es el lenguaje matemático. Einstein llegó a pronunciar una frase poco antes de morir que puede desconcertarnos: “¡si yo hubiera sabido más matemáticas...!” ¿Einstein quejándose de no saber suficientes matemáticas? ¿Uno de los mayores intelectos científicos de la historia se lamenta por sus lagunas matemáticas? ¡Sí! Han existido físicos mucho mejor preparados técnicamente que Einstein que, sin embargo, no tenían su talento para “ver” más allá de los detalles, los formalismos y los tecnicismos. Pero todo verdadero genio es consciente de sus limitaciones, porque quien ha podido explorar más e introducirse más en el mundo el saber acaba haciéndose discípulo del Sócrates de “sólo sé que no sé nada”. Descubren, sí, nuevos mundos; pero conforme descubren esos nuevos mundos descubren también lo mucho que les queda por saber y que sus hallazgos conducen a nuevas incógnitas.
Las innumerables aportaciones de Einstein a la física teórica comprenden la teoría especial de la relatividad, la teoría general de la relatividad, la equivalencia entre la masa y la energía, la cosmología relativista, el efecto fotoeléctrico, la acción capilar, la opalescencia crítica, la estadística de Bose-Einstein en mecánica cuántica, la explicación del movimiento browniano, las probabilidades de transición atómica, la aplicación de la teoría cuántica a un gas monoatómico, la teoría de la emisión estimulada de la luz (que está en la base de los láseres), un trabajo pionero sobre el campo unificado (que integraría las cuatro fuerzas fundamentales de la naturaleza - gravitatoria, electromagnética, nuclear débil y nuclear fuerte- en un único marco teórico), etc. Aunque su fama le venga principalmente por la teoría de la relatividad (especial y general), es fácil darse cuenta de que su creatividad científica fue excepcional, casi sin comparación en la historia.
Albert Einstein nació el 14 de marzo de 1879 en la ciudad alemana de Ulm, en Baden-Württemberg, al sur de Alemania. Procedía de una familia judía poco practicante en la que el padre, Hermann Einstein, se dedicaba al comercio. Su madre se llamaba Pauline Koch.
En 1880, al poco de nacer Einstein, la familia se trasladó a Munich, la capital de Baviera y situada al este de Ulm, donde su padre había formado un consorcio con su tío para establecer una fábrica de electrotecnia. En Münich, Einstein acudió a una escuela elemental católica si bien, tal y como él mismo llegó a contar, pronto “desconectó” de toda religión al considerar absurdos muchos relatos bíblicos. Es cierto que en su madurez llegó a afirmar: “Dios no juega a los dados con el universo” (en contraposición a la interpretación de la mecánica cuántica en términos de probabilidades y no de valores determinados que había dado la escuela de Copenhague, con Bohr, Heisenberg y Born a la cabeza), pero la divinidad a la que se refería Einstein era más bien el dios de otro ilustre judío, el filósofo del siglo XVII Baruch Spinoza; el dios que representa la inteligencia y el orden que subsisten en la naturaleza. Un dios que se identifica con la naturaleza y no el “dios de Abraham, el dios de Isaac, el dios de Jacob”, que diría Pascal. En su infancia, Einstein desarrolló pasión por la música clásica y en especial por Mozart, aprendiendo a tocar con destreza las obras para violín del genial compositor de Salzburgo. Einstein veía en la belleza de la música de Mozart una expresión de la armonía del mundo físico que el ser humano descubre a través de leyes matemáticas. Esa gran “sinfonía” que constantemente pone en escena el universo se asemejaba a las notas y a los compases de Mozart. Ya anciano, escribirá a la reina de Bélgica: “existe después de todo algo eterno, que está más allá del mañana, del destino y de las decepciones humanas”.
Como otro genio de la física, Isaac Newton, Einstein estaba fascinado por el diseño de aparatos mecánicos. Seguramente la agilidad mental que le proporcionaba el estudio del funcionamiento de estos artilugios, de cómo se disponen unas partes de manera que su movimiento repercute en el de otras, le sería de ayuda inestimable en su futuro como físico teórico, llegando a desarrollar una capacidad formidable para realizar “experimentos mentales” y percibir el comportamiento de un sistema sin necesidad de presenciarlo.
Si hay algo que haya definido a las familias judías a lo largo de la historia es el aprecio por todo lo que signifique conocimiento y la ayuda mutua que se dan unos a otros para progresar intelectual y personalmente. Al parecer Max Talmud, un joven que estudiaba medicina y que era amigo de los padres de Einstein, propuso al niño Albert leer con tan sólo diez años obras como la Crítica de la razón pura de Kant y los Elementos de Euclides, y se suele decir que con doce años Einstein dominaba ya la geometría euclídea y estaba preparado para iniciarse en el cálculo infinitesimal (derivadas e integrales); por supuesto, con varios años de adelanto respecto de los planes de estudio de la época. Esta independencia siempre definió a Einstein. Hoy en día, en una sociedad tan interconectada, donde todo está programado y hecho, donde todo el mundo se dedica a todo y prácticamente no existe ningún área del conocimiento abandonada o sin “domesticar”, no deja de sorprender la capacidad de iniciativa de Einstein. Vivió en otro tiempo, es verdad, y quizás hoy sería imposible emularle porque la ciencia y cualquier disciplina del saber está sumamente desarrollada y requiere de la colaboración de muchas personas para hacerlas avanzar. Pero en cualquier caso, también es comprensible que nos maravillemos ante ese “ardor” de genios como Einstein, ante esa necesidad que sentían de proseguir por sí solos, de franquear las barreras artificiales de la edad o de los medios disponibles para adentrarse en lo que les llamaba la atención: el afán de entender.
Posteriormente, Einstein ingresó en el Luitpold Gymnasium de Münich, fundado por el príncipe Luitpold de Baviera en 1891. Einstein, como Descartes, no aprendió mucho en la escuela. Era rebelde por naturaleza, prefería la soledad y, como dicen los ingleses, “marcarse su propia agenda” en lugar de seguir los rígidos planes de estudio del por otra parte exigente bachillerato alemán. No se sentía motivado, y como les ha ocurrido a tantos niños y niñas aventajados y jóvenes con talento y gran capacidad intelectual, no pudo aprovechar la enseñanza oficial porque no se encontraba cómodo en ella.
Además, los problemas en la educación de Einstein no eran los únicos que preocupaban a su familia. El negocio que su padre había montado con su tío en 1880 en Münich iba mal, las pérdidas se acumulaban y los Einstein no veían más solución que emigrar a Italia, primero a Milán y luego a Pavía. Era 1894. Einstein permaneció en Münich para no interrumpir el curso académico y poder examinarse como los demás colegiales, pero en 1895, con dieciséis años, se unió al resto de la familia en Pavía.
Y Einstein nos vuelve a asombrar con otra prueba nuevamente con su deseo de definir él mismo su curriculum académico al presentarse al examen de ingreso en Instituto de Tecnología de Zurich (Eidgenossische Technische Hochschule Zürich, una especie de escuela politécnica con rango universitario), en Suiza, sin haber terminado el colegio y dos años antes de la edad prevista. Podemos suponer que el examen en cuestión sería complicado, y que Einstein se lo habría preparado por su cuenta consultando libros y haciendo ejercicios de física y matemáticas. No lo aprobó. Los genios también fallan y a veces pueden caer en un exceso de confianza en sí mismos. Pero lo importante no es que suspendiese el examen de ingreso, sino que no se dejó vencer por las contrariedades y las acabó superando.
Así que sus padres decidieron que Einstein tenía que terminar el bachillerato antes de entrar en la universidad y lo enviaron a estudiar a la ciudad suiza de Aarau, graduándose en 1896 con diecisiete años. Einstein, que había nacido en Alemania, pidió la nacionalidad suiza tras renunciar a la germana para librarse del servicio militar (de hecho, cuando ganó el premio Nobel de física en 1921 oficialmente figuró como “ciudadano suizo”, aunque todo el mundo supiera que por origen y cultura era alemán). Einstein fue toda su vida un pacifista, que se opuso a la primera guerra mundial cuando la clase científica alemana la apoyaba y que luchó contra la proliferación nuclear, aunque una mancha negra en su expediente fuese aconsejar al presidente Roosevelt construir la bomba atómica.
Einstein pudo matricularse en la Escuela Politécnica de Zurich sin ningún otro contratiempo. Ese mismo año entró una mujer, Mileva Maric, que años más tarde se convertiría en su esposa. No consta que Einstein fuese un estudiante brillante en el sentido de sacar muy buenas notas. Su amigo Marcel Grossmann, también de origen judío, le tenía que pasar los apuntes de matemáticas porque Einstein no prestaba mucha atención en clase, y probablemente sin los favores de Grossmann, Einstein no habría obtenido el título universitario.
Tras licenciarse en Zurich, Einstein no encontraba trabajo. Ninguna universidad le ofrecía un puesto docente y no sabía qué hacer. Gracias a la ayuda de un amigo y tras dos años deambulando en busca de un empleo acorde con su formación científica y técnica, Einstein fue contratado como asistente en la oficina de patentes de Berna, una especie de “registro de la propiedad intelectual” en el que Einstein tendría que examinar los inventos que le llegaban. En Berna, Einstein tenía la sana costumbre de reunirse semanalmente con su amigo y compañero en la oficina de patentes Michel Besso, con quien discutía sobre temas de ciencia y de filosofía y leían a autores tan significativos como Ernst Mach (1838-1916), un físico austríaco que sería precursor, por sus estudios sobre la masa y la inercia de los cuerpos, de la teoría de la relatividad general de Einstein, y cuyas ideas filosóficas influirán notablemente en el positivismo lógico del Círculo de Viena en los años ’20.
Así que tenemos al futuro gran genio trabajando como un humilde asistente en una oficina de patentes. A simple vista, podría parecer una pérdida de tiempo, un “insulto” para los talentos de Einstein que tuviese que dedicar sus horas a analizar supuestos inventos en lugar de reflexionar sobre la luz y el espacio. Pero a los genios no hay nada que se les ponga por delante cuando se trata de descubrir e innovar, y menos aún si se trata de hacer de la necesidad virtud. Y lo cierto es que su empleo en la oficina de patentes de Berna le dejaba a Einstein mucho tiempo libre entre invento e invento para dedicarse a sus pensamientos, incluso más que si hubiese empezado a dar clases en una universidad de prestigio, ocupándose (al menos durante los primeros años) de demasiadas tareas administrativas que seguramente le habrían distraído de sus auténticos intereses intelectuales. Einstein tenía acceso a las principales publicaciones científicas de la época, que se recibían en la oficina, por lo que estaba muy “puesto al día” sobre los experimentos que se estaban realizando y el estado de la física teórica. En el terreno familiar, Einstein se casó con Mileva en 1903 y ambos tuvieron un hijo en 1904, al que llamaron Hans Albert, y que llegaría a ser profesor de ingeniería hidráulica en Berkeley (California).
Y por fin, nos situamos en 1905, cuando un joven Einstein de 26 años iba a revolucionar el mundo de la física. Es el annus mirabilis, el “año maravilloso” de Einstein, porque en pocos meses verían a la luz una serie de artículos científicos que cambiarían nuestra comprensión del universo.
El de Einstein no era el único año maravilloso protagonizado por una mente maravillosa. Isaac Newton, para muchos el mayor científico de todos los tiempos, había vivido una experiencia similar en 1666, doscientos treinta y nueve años antes. Una epidemia de peste asolaba la Universidad de Cambridge y Newton se vio obligado a regresar a su casa familiar de Woolsthorpe, en Lincoshire, en plena campiña inglesa. En el particular enclaustramiento en la “celda monástica” que era su casa natal, aislada del resto de la civilización y en pocos meses, Newton hizo algunos de los descubrimientos más importantes de la historia de la física y de las matemáticas: fundó el cálculo infinitesimal (diferencial e integral), formuló la teoría de la gravitación universal, encontró que un rayo de luz se dividía en distintos colores si se le hacía pasar por un prisma, descubrió el teorema del binomio que lleva su nombre... Asombroso. Sobrehumano. Sencillamente genial. Newton mismo escribiría que “en aquellos días yo estaba en el apogeo de mi edad para la invención, y pensé en matemáticas y filosofía [léase física] más que en cualquier otro momento desde entonces”.
Si 1666 había sido una de las cimas intelectuales de Newton, 1905 lo fue para Einstein. Ese año publicó cuatro artículos en la revista Annalen der Physik, donde remitían sus trabajos los mejores físicos de Alemania, que había elaborado estando en la oficina de patentes de Berna y que impulsaban como pocos antes el avance de la ciencia. Eran los siguientes:
- Un artículo titulado “Sobre el movimiento de partículas pequeñas suspendidas en líquidos en reposo exigido por la teoría cinético-molecular del calor”, donde explicaba el movimiento browniano, esto es, el movimiento aleatorio que manifiestan partículas muy pequeñas y que había sido descubierto por el botánico inglés Robert Brown en 1827, y que venía a confirmar la teoría atómica. Muchos científicos de prestigio de la época, como el químico Wilhelm Ostwald (premio Nobel en 1909), rechazaban la teoría de los átomos por considerar que no había pruebas empíricas suficientes (nadie había “visto” los átomos). El trabajo de Einstein significaba que para explicar el fenómeno del movimiento browniano había que postular la existencia de átomos como constituyentes de la materia, tal y como luego confirmarían los experimentos.
- Un artículo “sobre la electrodinámica de los cuerpos en movimiento”, y que bajo ese aparentemente inofensivo título escondía el germen de la teoría de la relatividad especial.
- Un artículo, “¿Depende la inercia de un cuerpo de su contenido de energía?”, que contenía la que quizás sea la ecuación más famosa de la física, E = mc2.
- Finalmente, un artículo, “sobre un punto de vista heurístico concerniente a la producción y transformación de la luz”, en el que aplicaba la teoría de los cuantos de Max Planck a la explicación del efecto fotoeléctrico.
Einstein recibiría el premio Nobel de física de 1921 “por sus servicios a la física teórica, y en especial por su descubrimiento de la ley del efecto fotoeléctrico”; básicamente por uno de sus cuatro artículos. Pocos negarán, sin embargo, que cada uno de los artículos de Einstein habría merecido, por sí solo, un premio Nobel, y eso sin contar contribuciones suyas posteriores como la relatividad general o la estadística de Bose-Einstein. Además, no han faltado casos en la historia de los Nobel en que una misma persona o institución haya recibido dos o más premios. Marie Curie obtuvo el Nobel de física en 1903 y el de química en 1911; Linus Pauling ganó el de química de 1954 y el de la paz de 1962; John Bardeen recibió dos premios Nobel de física (1956 y 1972), por su trabajo sobre el transistor y por sus estudios sobre la superconductividad) y el inglés Frederick Sanger ganó dos de química (1958 y 1980), por la estructura de la insulina y por su método de secuenciación del ADN). Por su parte, la Cruz Roja ha obtenido tres premios Nobel de la paz: en 1917, 1944 y 1963 (además, su fundador Henri Dunant, ganó el primer premio Nobel de la paz, el de 1901). Así que precedentes no habrían faltado.
Pero más allá del esplendor de los premios Nobel, ¿qué gran innovación teórica se escondía bajo ese sutil título de “la electrodinámica de los cuerpos en movimiento”? Ni más ni menos que un intento de integrar el electromagnetismo de Maxwell con la mecánica.
Einstein estaba al corriente de que dos científicos, Albert Michelson y Edward Morley, habían realizado un experimento para comprobar la existencia del éter. Los físicos, hasta el siglo XX, creían que la luz, por ser una onda, tenía que viajar en el éter, un fluido invisible y capaz de vibrar que “transportaba”, por así decirlo, la luz. No era una hipótesis descabellada, porque si la luz es una onda, debería viajar en algún medio, como hacen las demás ondas (por ejemplo, el sonido se mueve a través del aire). ¿O acaso se iba a desplazar por el vacío? La luz, análogamente, se movía a través del éter. Pocos cuestionaban ese razonamiento, que extrapolaba las evidencias sobre la naturaleza de las ondas a la luz. Pero Michelson y Morley pensaron, con mucha lógica, que si el éter existía y a través de él se movía la luz, tenía que detectarse una ligerísima variación en la velocidad de la luz. La luz se estaría moviendo a través del éter a una velocidad enorme, pero la Tierra también estaría dando vueltas alrededor del Sol a una velocidad mucho menor, pero a una velocidad finita al fin y al cabo. Se estaría dando la misma situación que si alguien lanzase un grito (una onda) desde un vagón en movimiento: el grito iría a más velocidad, porque se sumarían la velocidad propia del aire que “transporta” el grito y la velocidad a la que viaje el tren. Y al “rebotar” (el eco) ocurriría lo contrario: el grito iría más despacio porque a su velocidad natural habría que restarle la velocidad del vagón de tren. Por tanto, tenía que poder medirse una pequeña variación en la velocidad de la luz al llegar a la Tierra, ya que habría que tener en cuenta la velocidad de la luz por el hecho de viajar en el éter (su medio, como la velocidad del aire en el grito del vagón) y la velocidad de la Tierra.
Michelson y Morley habían diseñado un aparato llamado interferómetro que teóricamente tenía que ser capaz de medir esa pequeñísima variación en la velocidad de la luz. Pero no encontraron nada. No se detectaba ninguna interferencia. ¿Qué estaba pasando? ¿Sería que la Tierra y los objetos físicos que se encontraban en ella se “contraían” por efecto de la presión del éter? Demasiado inverosímil. ¿Permanecía la Tierra inmóvil respecto al éter? Más raro aún. ¿Y por qué no decir que el éter no existía y que la velocidad de la luz era constante, la misma siempre, se moviese o no el objeto luminoso?
Paradójicamente, esta tercera opción era la que resultaba más absurda. ¿Por qué iba a ser la velocidad de la luz invariable con respecto al estado de movimiento del observador, al revés de lo que ocurría con los demás cuerpos físicos?
Pero Einstein lo aceptó como un postulado, como una afirmación que se tiene que admitir aun sin pruebas suficientes porque va a conducir todo el razonamiento posterior. Ya se encargarían los experimentos de juzgar si es verdadera o no, pero por el momento tiene que sostenerse para entender las conclusiones del autor. Según Einstein, la velocidad de la luz en el vacío (c, de aproximadamente 300.000 km/s) es una constante universal, independiente del movimiento de la fuente emisora de luz.
Y, el otro postulado era, propiamente, el principio de relatividad: las leyes de la física son las mismas en todos los marcos de referencia inerciales (recordemos que “inercial” significa que, en ausencia de fuerzas -y por tanto, sin aceleración-, un cuerpo que esté en reposo continuará en reposo y si se estaba ya moviendo definirá una línea recta con una velocidad constante -movimiento rectilíneo uniforme). No hay un marco de referencia privilegiado, como el éter, que permanezca en reposo absoluto.
Y, con esos dos postulados Einstein construye la teoría de la relatividad especial. Esta teoría se puede aplicar a marcos de referencia inerciales (para ampliarla a todos los marcos de referencia hubo que esperar a la relatividad general) y combina un principio de la física clásica (el principio de relatividad de Galileo, que había propuesto el genial físico italiano en sus Diálogos sobre los dos sistemas máximos del mundo en 1632) con otro totalmente innovador, el de la invariabilidad de la velocidad de la luz en el vacío. Lo que Einstein proponía era una teoría de la “relatividad”, porque al no existir el éter (un medio que llenase todo el espacio), no hay nada que esté en reposo absoluto: todo está moviéndose con respecto a todo, y en este sentido, todo movimiento es relativo al marco de referencia que queramos fijar. Sólo podemos conocer el movimiento de un objeto en relación a otro objeto. Pero al mismo tiempo, la relatividad de Einstein fija un absoluto: la velocidad de la luz en el vacío, que es la velocidad a la que se transmite la información en el cosmos. Por tanto, cuando alguien invoca la teoría de la relatividad de Einstein para decir que todo es relativo, olvida que no todo en esta teoría es relativo. Intentar sacar conclusiones desde las teorías científicas a otros campos como puedan ser la ética, la sociología o la política es una exageración, al menos si esas conclusiones no se sustentan en razones sólidas y no sólo en argumentos científicos que, por definición, sólo serán válidos dentro de los márgenes en los que opere el método científico.
No hay que negar, sin embargo, que la teoría de Einstein ha conllevado una profunda revolución no sólo en la física, sino en nuestra visión del mundo. Si la teoría de Einstein nos ofrece una nueva noción de espacio y de tiempo, es de esperar que los filósofos que reflexionen sobre el espacio y el tiempo la tengan en cuenta y la acepten como un resultado científico comprobado. Lo demás sería especular en el vacío. Pero también es cierto que la reflexión y el pensamiento no tienen por qué limitarse a “interpretar” o explicar los resultados científicos, como si fuesen meros “portavoces” de los científicos, a los que tendrían que estar llamando a la puerta constantemente para pedirles afirmaciones que ellos no pueden efectuar. El filósofo o el sociólogo no es un “heraldo” del científico. Hay una legítima autonomía de las disciplinas humanísticas que tampoco debe suponer una excusa para obviar los resultados de la ciencia.
Las implicaciones que se podían deducir de la teoría de la relatividad especial de Einstein saltaban a la vista. Ya no había, como pensó Newton, un espacio y un tiempo absolutos: la distancia y el tiempo dependen del observador, que los percibirá de manera distinta según el estado de movimiento en que se encuentre. Como existe una velocidad límite en el universo, la velocidad de la luz en el vacío, y ningún objeto puede desplazarse a una velocidad mayor, para los objetos que se muevan a velocidades cercanas a las de la luz será como si el tiempo hubiese pasado de manera más lenta. Es la famosa paradoja de los dos gemelos: si de dos gemelos uno viaja al espacio en una nave espacial que se mueve a gran velocidad, el tiempo transcurre más despacio que sobre la superficie terrestre y al regresar a la Tierra el gemelo astronauta será “más joven” que el otro gemelo. Entonces, cuando alguien se pone a correr, ¿el tiempo está transcurriendo de manera más lenta que para una persona que se encuentra quieta? Sí, para él sí (no es que se altere el tiempo en sí, sino la medida del tiempo, que es relativa al observador); lo que ocurre es que por mucho que corra, su velocidad será tan pequeña en comparación con la de la luz que el efecto no se podrá apreciar. A nivel ordinario, la física de Newton sigue siendo válida porque representa un caso límite de la relatividad de Einstein: el caso de objetos que se muevan a velocidades muy bajas en comparación con la de la luz. Al igual que ocurre con la mecánica cuántica, que converge o se aproxima a la mecánica clásica de Newton cuando nos encontramos a una escala mayor que la atómica, la teoría de la relatividad se acerca y en la práctica conduce a los mismos resultados que la teoría newtoniana para velocidades ordinarias.
Si el tiempo no es absoluto, tampoco lo es el espacio, por lo que la medición de una longitud dependerá del estado de movimiento del observador que quiera medir esa longitud. No es que se altere la longitud, sino la medida de la longitud, que va a depender del observador porque ya no existe un “espacio absoluto” o una “longitud absoluta” que sirva de referencia fija para todas las demás. En la mecánica de Newton había tres dimensiones espaciales (x, y, z) absolutas y un tiempo absoluto respecto a las cuales se daban todas las mediciones espaciales y temporales. Decir “me muevo a diez kilómetros por hora” era lo mismo que decir “me muevo a diez kilómetros por hora respecto de un marco fijo e invariable para el espacio y el tiempo”. Y parece lo más sensato: suponer que existe un espacio y un tiempo “externos”, por así decirlo, a los observadores y comunes para todos. El universo se asemejaría a un escenario situado dentro de un gigantesco cubo, el del espacio absoluto, en el que transcurre un tiempo único y absoluto. Aunque ya en el siglo XVIII se alzaron algunas voces que ponían en tela de juicio esta afirmación de Newton (por ejemplo, el gran matemático y filósofo alemán Leibniz en unas cartas que intercambió con el discípulo de Newton, Samuel Clarke), nadie ofreció una teoría consistente alternativa a la de Newton hasta Einstein. Si en los inicios de la revolución científica (con Galileo y Newton) hubo que separar y delimitar bien los distintos campos del conocimiento (el de las ciencias experimentales del metafísico y del teológico), la ciencia contemporánea, con teorías como la relatividad o la mecánica cuántica, ha incorporado a su arsenal conceptual nociones como la de relatividad en la percepción del espacio y del tiempo o la de indeterminación que se creían exclusivas de la psicología o de la filosofía, tendiendo cada vez más puentes entre las distintas disciplinas y abriendo nuevos espacios de encuentro y de reflexión. Si en una etapa hubo que dividir, es como si de ahora en adelante hubiese que integrar.
Pocos años antes que Einstein un físico holandés, Hendrik Lorentz, había intentado explicar el experimento de Michelson-Morley diciendo que el espacio y el tiempo se contrarían por la presión del éter. Propuso una serie de ecuaciones conocidas como las transformaciones de Lorentz para ilustrar matemáticamente su hipótesis. La teoría de la relatividad especial de Einstein corrige a Lorentz al sostener que no existe el éter y que no son la longitud real o el tiempo real los que se contraen o dilatan, sino las medidas de la longitud y del tiempo. Pero las ecuaciones de Lorentz continúan siendo válidas, y analizándolas se puede entender bastante bien (quizás mejor que con las palabras) el significado de la relatividad especial.
Otra conclusión verdaderamente fundamental de la relatividad especial o restringida de Einstein es la equivalencia entre la masa y la energía: la energía y la masa son dos caras de una misma realidad, pudiéndose convertir la una en la otra según la ecuación E = mc2 (siendo E la energía, m la masa y c la velocidad de la luz en el vacío, que es constante). El mecanismo de las reacciones nucleares implicadas en la bomba atómica es prueba más que suficiente de lo acertado que estaba Einstein al pensar que la masa puede transformarse en energía.
Como existe una velocidad límite que no se puede superar (la velocidad de la luz), por mucha energía que se le dé a un objeto, éste nunca va a poder viajar más rápido que la luz. Si la física clásica nos decía que todo cuerpo, en virtud de su velocidad, tiene una energía cinética asociada igual al producto de su masa por la velocidad al cuadrado divido todo ello entre dos (mv2/2), la física relativista sostiene que esa velocidad no va a poder aumentar indefinidamente. Así, conforme aumente la velocidad de un objeto aumentará también su energía y como la energía es masa, la energía que adquiera el cuerpo se irá sumando a su masa. Se produce así un aumento en la masa al aumentar la velocidad, justamente por la equivalencia entre la masa y la energía. Matemáticamente, ¿cómo varía la masa de un cuerpo en función de su velocidad? Einstein nos da la respuesta:
la masa relativista m aumentará, por tanto, con respecto a la masa en reposo m0, porque el cociente v2/c2 (es decir, el cociente entre la velocidad relativa de ese cuerpo y la velocidad de la luz en el vacío, que es invariable y limitante) se irá acercando a la unidad conforme se incremente la velocidad v. Si v se acerca a 300,000 kilómetros por segundo (la velocidad aproximada de la luz en el vacío), el cociente será de casi uno, y al restárselo al uno que hay en la raíz cuadrada, el denominador tenderá a cero. Y, claro está, al dividir el numerador (m0) entre cero, el resultado se hace infinito. ¡Si fuésemos a la velocidad de la luz, nuestra masa sería infinita! Es la consecuencia de poner como nuevo absoluto en el universo la velocidad de la luz en el vacío. Sobra decir que todas las predicciones de la relatividad especial de Einstein han sido comprobadas una por una, y eso que, como podemos imaginar, no han faltado físicos que han querido buscar los puntos débiles de Einstein. Pero, por el momento, ninguno lo ha logrado.
Después de un año tan extraordinario y de trastocar los fundamentos de la física, ¿aún le quedaba algo por hacer a Einstein? ¡Por supuesto que sí! Sólo con lo que publicó en 1905 Einstein merecería un lugar destacadísimo en la historia de la ciencia, aunque grandes matemáticos de la época como el francés Henri Poincaré (1854-1912) hubiesen estado a punto de adelantársele. Pero lo que hizo a continuación era si cabe más importante, más trascendental y más sorprendente.
Einstein había propuesto una teoría de la relatividad válida para los marcos de referencia inerciales. ¿Y para los sistemas no inerciales, como por ejemplo un cuerpo sometido a la fuerza de la gravedad? Era de esperar que una teoría tan innovadora como la relatividad especial que redefinía nuestro modo de entender el espacio, el tiempo, la masa y la energía tuviese que ampliarse también a los sistemas de referencia no inerciales, que también se situaban en el espacio y el tiempo y están compuestos por cuerpos con una masa.
La solución no era trivial. Requería de una capacidad de abstracción y de una destreza matemática inmensas, y el reto le llevaría casi diez años. En 1911 Einstein fue nombrado profesor asociado de la Universidad de Zurich, pero al poco recibió un puesto de profesor ordinario en la Universidad Carlos de Praga, la más antigua de la República Checa, fundada en el siglo XIV por el rey Carlos I de Bohemia. Así que Einstein se fue a vivir a Praga, y residiendo en una de las ciudades más bellas de Europa comenzó a investigar sobre la posibilidad de aplicar su teoría de la relatividad a cuerpos sometidos a un campo gravitatorio.
Su estancia en Praga fue muy corta, porque en 1912 regresó a Suiza para ocupar una cátedra en la Escuela Politécnica de Zurich, la misma que no le admitió a los dieciséis años pero en la que finalmente cursó la carrera. En esa misma universidad daba clases de matemáticas su antiguo compañero de estudios Marcel Grossmann. Einstein, consciente de que para generalizar su teoría de la relatividad necesitaba unos conocimientos de matemáticas que no tenía, le pidió ayuda a Grossmann, quien le explicó los fundamentos de la geometría de Riemann. Bernhard Riemann (1826-1866) fue un genial matemático alemán que a pesar de vivir sólo cuarenta años hizo contribuciones esenciales a la geometría diferencial y a las geometrías no-euclídeas (las que no siguen el postulado de las paralelas de Euclides). Einstein se dio cuenta de que con el análisis de Riemann y el cálculo tensorial (un tensor es una función multilineal que se emplea en muchos campos de las matemáticas) que había desarrollado (entre otros) el italiano Tullio Levi-Civitá, contemporáneo de Einstein, tenía las herramientas numéricas adecuadas para abordar el problema de la relatividad y la fuerza de la gravedad.
En 1915 Einstein había dado ya con la teoría de la relatividad general, que expuso en el artículo “Die Feldgleichungen der Gravitation” (“Las ecuaciones de campo de la gravitación”), publicado por la Academia prusiana de las ciencias. La gravedad, esa fuerza que había permitido a Newton explicar la órbitas de los planetas y resolver infinidad de problemas de mecánica, era en realidad el efecto de la distorsión del espacio-tiempo (que ya en la relatividad especial el espacio y el tiempo habían dejado de considerarse entidades separadas para verse como un conjunto de cuatro dimensiones, tres espaciales más una temporal) producida por los cuerpos materiales que están en ese espacio-tiempo. Si era ya difícil de entender la relatividad especial y de aceptar sus conclusiones, con la relatividad general Einstein nos sumió en la más absoluta orfandad intelectual: el universo material se mostraba como algo sumamente complejo (y no es para menos) cuya comprensión sólo estaba al alcance de especialistas. Con razón escribía el poeta inglés John C. Squire, parafraseando a Alexander Pope: “la naturaleza y sus leyes yacían ocultas en la noche. Dios dijo: -¡Que sea Newton!, y todo fue luz. Pero no duró mucho; el diablo rugió: -¡Oh, que sea Einstein!, y todo volvió de nuevo a la oscuridad”.
Pero por abstrusa y complicada que sea la relatividad general, sobre todo porque requiere de un instrumental matemático bastante elevado, sus fundamentos nos dan una luz sobre la naturaleza del espacio-tiempo y de la gravedad. Podrá ser dificultosa y ardua, pero describe la realidad, porque así lo han confirmado los experimentos, y por tanto no estamos tan solos y tan intelectualmente huérfanos como podríamos pensar en primera instancia. Si no conociéramos la relatividad general sí que estaríamos en una auténtica situación de oscuridad, pero contando con ella gracias a mentes maravillosas como la de Einstein no hay nada que temer. El aude sapere (“atrévete a saber”) de los ilustrados se muestra aquí muy oportuno. No hay que tener miedo al conocimiento. Hay cosas más o menos difíciles, cosas que nos resultan más fáciles o gratas que otras, pero siempre es posible exponer al menos los fundamentos o los aspectos generales de una teoría en el campo de la ciencia o del pensamiento de manera que sea comprensible para el no especialista. Lo importante es estar dispuesto a aprender y tener espíritu de búsqueda.
La relatividad general de Einstein parte de un principio que había sido formulado, aunque vagamente, por Ernst Mach: “la inercia de un cuerpo es el resultado de la acción mutua de todas las masas del universo”. Esto significa que la inercia (la tendencia que tiene un cuerpo a preservar su estado de movimiento -reposo, trayectoria rectilínea uniforme- cuando no se ve sometido a fuerzas o la fuerza neta resultante es nula) es el producto de la interacción de todos los cuerpos que constituyen el universo. Todo en el universo influye sobre todo: la partícula más pequeña afecta a la inercia de un planeta.
Una visión más profunda del principio de Mach le permitió a Einstein darse cuenta de que, matemáticamente, no se podía distinguir un cuerpo acelerado de uno que estuviese sometido al efecto de la fuerza de la gravedad. Los experimentos certificaban que había una equivalencia estricta entre la masa inercial de un cuerpo (que mide la resistencia de ese cuerpo a un cambio en su velocidad con respecto a un marco inercial) y su masa gravitatoria. Porque, ¿qué es la gravedad? En la física de Newton era una fuerza de atracción universal que se establecía entre dos cuerpos y que sólo dependía de sus masas y de la distancia a la que se encontrasen el uno del otro. Es como si esa fuerza actuase en la distancia, y este problema de la actio in distans (“acción a distancia”) había traído no pocos quebraderos de cabeza a físicos y filósofos. Además, la acción a distancia era incompatible con la relatividad especial, porque la atracción no podía “transmitirse” instantáneamente de un cuerpo a otro, dado que ningún tipo de información viaja más rápido que la luz. Hay un límite en la transmisión de la información en el universo.
Einstein no se imaginó la gravedad de esa manera. Como explica Stephen Hawking en su Historia del tiempo, “Einstein hizo la sugerencia revolucionaria de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo no sea plano como previamente se había supuesto: el espacio-tiempo está curvado, o deformado, por la distribución de masa y energía en él presente. Los cuerpos como la Tierra no están forzados a moverse en órbitas curvas por una fuerza llamada gravedad; en vez de esto, ellos siguen la trayectoria más parecida a una línea recta en un espacio curvo, es decir, lo que se conoce como una geodésica”. Los cuerpos deforman el espacio-tiempo, como haría una pelota que cayese en una malla elástica.
¡La gravedad es el resultado de la curvatura del espacio-tiempo que producen todos los cuerpos que hay en el universo! Si otras ideas geniales nos habían parecido tan sencillas que lo incomprensible es que a nadie se le hubiesen ocurrido antes, no sucede lo mismo con la relatividad general de Einstein. Todo menos elemental, pero lo cierto es que la relatividad general es la teoría más satisfactoria y que mejor explica la fuerza de la gravedad y el funcionamiento del universo a gran escala. De hecho, las grandes teorías cosmológicas que intentan explicar el origen y la evolución del universo, como el Big Bang, se basan fundamentalmente en la relatividad general de Einstein.
Pero una teoría tan aparentemente extravagante e incomprensible como la de Einstein no podía aceptarse sin más, sin pruebas. Si el rigor del método científico era implacable con teorías mucho más lógicas a simple vista, no iba a serlo en menor medida con la de Einstein.
Y las pruebas son muchas, y todas ellas demuestran determinadas consecuencias de la relatividad general. Nadie “ve” la curvatura del espacio-tiempo, pero sí podemos deducir su existencia analizando, por ejemplo, el efecto que produciría esa hipotética curvatura sobre un rayo de luz.
La primera prueba la relatividad general de Einstein vino en 1919. Los astrónomos habían notado que el valor que la mecánica de Newton ofrecía para el desplazamiento del perihelio de Mercurio (el punto de la órbita en que este planeta se hallaba más cercano al Sol) difería ligeramente de los resultados experimentales. Ese “ligeramente” significa una diferencia de tan sólo 42 segundos por siglo con respecto a lo que predecía la ley de Newton. ¡42 segundos por siglo! Una cantidad minúscula, pero que en el ansia de exactitud que siempre ha caracterizado a los grandes científicos había llevado al francés Leverrier a proponer la existencia de otro planeta entre el Sol y Mercurio (que llamó “Vulcano”) para justificar esa mínima irregularidad con respecto a la teoría de Newton. Leverrier, crecido por deducir matemáticamente la existencia de Neptuno a partir de las leyes de Newton y haberse comprobado luego esa predicción, se dejó llevar por ese “optimismo planetario” que pretendía solucionar todas las discrepancias entre teoría y datos postulando la presencia de nuevos astros hasta entonces invisibles. Pero no hacía falta suponer planetas que nadie encontraba. Esa variación en el perihelio de Mercurio podía explicarse con la relatividad general, y el efecto era únicamente perceptible en Mercurio porque en éste es más fuerte la atracción gravitatoria del Sol al ser el planeta más cercano al astro rey. Si para Newton el perihelio de Mercurio debía desplazar 532 segundos por siglo, para Einstein eran 574 segundos por siglo, exactamente 42 segundos más a causa de la curvatura del espacio- tiempo, que se hace más pronunciada cuanto más cerca se sitúa el planeta del Sol, lo que cambia la orientación de la órbita.
Pero la demostración que tuvo más repercusión pública y que convirtió a Einstein en lo que es hoy (un icono, un símbolo, una verdadera estrella de la ciencia) y le dio quizás más fama que a ningún físico antes, es la observación de la desviación de la luz por la gravedad durante un eclipse solar en 1919. La luz no es otra cosa que radiación electromagnética, por lo que un rayo de luz lleva energía. Einstein había establecido una equivalencia entre la masa y la energía, de manera que un rayo de luz, como cualquier otra masa, debería sentir el influjo del campo gravitatorio ejercido por objetos pesados, tal y como la Tierra es afectada por el campo gravitatorio del Sol. Claro está que la atracción gravitatoria que vaya a sufrir un rayo de luz es tan pequeña que resulta imposible de medir en condiciones normales. Además, nunca podríamos medir la desviación causada por el Sol en un rayo de luz procedente de una estrella no muy lejana, porque la propia luz que emite el Sol la taparía. Nunca, excepto en un eclipse solar total, que es cuando la Luna se interpone entre la Tierra y el Sol. Entonces sí será posible detectar la luz que venga de otra estrella y que pase junto al Sol y que por efecto de su campo gravitatorio se desvíe levemente. Eso es lo que hizo el astrónomo de la Universidad de Cambridge Sir Arthur Eddington. Se decía que Eddington era, junto con Einstein, la única persona que entendía la relatividad general (“¿quién es el tercero?”, se preguntaba el mismo Eddington cuando alguien le decía que sólo tres personas eran capaces de comprender la teoría de Einstein), lo que habla muy a su favor, porque la rivalidad entre Inglaterra y Alemania que cristalizó en la primera guerra mundial había tenido no pocas repercusiones científicas, entre ellas que los ingleses no quisiesen leer los trabajos de los alemanes y viceversa. Parte de su equipo viajó hasta Sobral, al norte de Brasil, mientras otros expedicionarios se trasladaban a la isla del Príncipe, en la costa occidental del golfo de Guinea. ¡Einstein tenía razón! Aunque análisis más detallados de las fotografías que tomaron Eddington y su equipo han señalado que las mediciones eran demasiado imprecisas como para anunciar a bombo y platillo que se había confirmado la relatividad general (algo que sí se llegaría a hacer con muchos otros experimentos), lo cierto es que la prensa de la época no albergó ninguna duda: “Revolution in Science -New Theory of the Universe -Newtonian Ideas Overthrown” (“Revolución en la Ciencia. Nueva teoría del Universo. Caen por tierra las ideas de Newton”), titulaba el prestigioso diario británico The Times el 7 de noviembre de 1919. Einstein se había convertido en una celebridad mundial, en la más viva encarnación del poder que tiene la inteligencia para adelantarse a los acontecimientos y formular teorías que, por extrañas y complejas que parezcan, acaban corroborándose. Aunque considero que toda teoría tiene un valor intrínseco con independencia de sus aplicaciones, porque responde al muy humano afán de hacer avanzar el conocimiento, debemos pensar que a día de hoy, tecnologías tan populares como el GPS (Global Position System) se basan en la relatividad general de Einstein, que en absoluto es una mera disquisición matemática alejada de la realidad.
Einstein había ganado la simpatía del mundo entero, pero no de los físicos alemanes. Los celos y la envidia pudieron aquí con la sensatez científica. El clima antijudío que se creó con el ascenso de Adolf Hitler al poder en 1933 tuvo su traducción “científica” en la creación de un movimiento llamado la Deutsche Physik (“física alemana”) o “física aria”. Sus líderes no eran unos analfabetos: Philipp Lenard y Johannes Stark habían ganado el premio Nobel de física (en 1905 y 1919, respectivamente), y ambos sentían fascinación por la ideología nazi, hasta el punto de que despreciaban las teorías de Einstein por ser “física judía” (jüdische physik). Pocos (como Heisenberg) se atrevían a enseñar las teorías de Einstein en las universidades alemanas, y se llegó a decir que la equivalencia entre masa y energía era el descubrimiento de un ario, Friedrich Hasenohrl. En realidad, la “física alemana” era una tendencia sumamente reaccionaria de científicos a la antigua usanza que, además de participar de una ideología como la nazi, se sentían desbordados por los nuevos avances teóricos en la física. Eran, por así decirlo, físicos del siglo XIX más que del XX.
Einstein, viendo el complejo panorama político alemán, decidió quedarse en Estados Unidos (donde había viajado en diciembre de 1932) en lugar de regresar a Europa, y finalmente aceptó un puesto en el Instituto de estudios avanzados de Princeton y acabó obteniendo la nacionalidad americana. Un inmigrante de lujo para el país del tío Sam.
Su implicación en asuntos políticos fue in crescendo. En 1939 firmó, junto a Leo Szilard, una famosa carta dirigida al presidente de los Estados Unidos Franklin Delano Roosevelt, donde se le urgía a que pusiese en marcha un programa de investigación para desarrollar la bomba atómica ante el peligro de que los nazis la inventasen antes. Como es bien sabido, el proyecto Manhattan condujo a la fabricación de armas nucleares que luego se lanzaron sobre las ciudades japonesas de Hiroshima y Nagasaki causando miles de muertos. Al parecer Einstein, que siempre fue un pacifista convencido, se arrepintió de haber firmado esa carta. Su enorme talla internacional hizo que le llegasen ofrecimientos tan peculiares como el de asumir en 1952 la presidencia del Estado de Israel, sustituyendo al fallecido Chaim Weizmann. Einstein se negó. En alguna ocasión dijo: “la política es para el momento; una ecuación es para la eternidad”. Sus posiciones ideológicas se mostraban cercanas a la izquierda (publicó un famoso artículo en la Monthly Review, “¿Por qué el socialismo?”), temeroso de los estragos sociales que podía provocar el capitalismo. Einstein falleció el 18 de abril de 1955 en su casa de Princeton, en Nueva Jersey, tras haber dejado a la humanidad uno de los legados científicos más extraordinarios de todos los tiempos.
Capítulo 20
Internet y la world wide web.
Internet representa, en mi opinión, uno de los momentos culminantes de la historia intelectual humana. Es el fruto más sobresaliente de una época que se remonta, a corto plazo, a los sueños de los matemáticos y filósofos del siglo XVII, quienes, como Leibniz (1646-1716) o ya antes el jesuita, lingüista, inventor, criptógrafo y estudioso de la lengua copta Athanasius Kircher (1602-1680), habían ideado un sistema lógico universalmente válido capaz de sintetizar todos los conocimientos adquiridos por el género humano. Contemporáneo de Leibniz fue Pierre Bayle, uno de los primeros librepensadores de occidente y una figura a todas luces fascinante, que escribió su célebre Diccionario histórico-crítico a principios del siglo XVIII, convirtiéndose en un destacado precursor de la Ilustración. Sólo nos separan tres siglos de estos grandes pensadores, y por eso hablo de “a corto plazo” (a largo plazo nos obligaría a buscar cuándo nació el deseo tan típicamente humano de conocerlo todo). Poco representan tres siglos dentro del dilatado recorrido humano por la Tierra, aunque el ritmo acelerado de la historia que vivimos nos lo impida ver y nos cambie nuestra percepción del tiempo.
La Ilustración constituye una de las cimas intelectuales de la modernidad, y posibilitó, en palabras de Kant, “la salida del hombre de su minoría de edad”. Se fijaron unos ideales, tan utópicos como admirables, de difusión global de la cultura a todos los rincones del orbe. Sin querer ignorar las sombras de las Luces, que otros muchos ya se han encargado de poner de relieve (¿no es acaso la postmodernidad una reacción contra la Ilustración y sus ideales universales?), no dejaré a un lado sus logros. La Encyclopédie de Diderot (consejero, entre otros, de Catalina la Grande de Rusia) y D'Alembert (matemático y físico), la “Biblia” del movimiento ilustrado europeo durante décadas, fue concebida como una puesta en común de los avances en la investigación científica y humanista desde los ideales que guiaban a los espíritus ilustrados.
¿Qué habrían pensado Kircher, Leibniz, Bayle, Diderot y D'Alembert al conocer la gran creación humana que es Internet? ¿Qué habrían pensado al comprobar que todo cuanto la humanidad había llegado a conocer, que tantos pensamientos que habían habitado en nuestras mentes, estaban ahora al alcance de todos, sin importar la distancia y cada vez menos la situación social? ¿Y qué habrían pensado si hubiesen comprobado que, además de reunir una cantidad ingente de conocimientos que probablemente ningún hombre, por prodigiosa que fuese su cabeza, hubiera podido acumular, también incluía una cantidad igualmente ingente de perspectivas de pensamiento y de sistemas filosóficos? En Internet expresa sus ideas la práctica totalidad de movimientos culturales, intelectuales y religiosos del mundo. Es el espacio de lo universal, el espacio de lo humano, donde convergen todas las posiciones, todas las creencias, todos los descubrimientos. Realiza, de esta forma, el ideal más genuinamente ilustrado: el afán de que todos se puedan expresarse libremente (con el límite, que más que un límite es una prueba de responsabilidad, del respeto a la dignidad de toda persona).
La posibilidad de disponer de otro mundo, el virtual., nos abre a esa doble presencia: la real y la telemática. Internet permite, de esta forma, la simultaneidad, la universalidad, nos ofrece innumerables alternativas y, aunque muchos usen estas ventajas para evadirse de la realidad presente (pensemos en programas tan en alza como Second Life, donde el participante puede llevar una segunda vida virtual en la que realizar y conseguir cosas que no ha logrado en su vida real, extra-informática), lo cierto es que Internet abre horizontes nuevos y potencialmente infinitos en los que cada persona pueda desarrollar sus facultades y colmar muchos de sus deseos.
Pero, ¿quién es aquí la mente maravillosa? Quizás, el recorrido que hemos hecho por algunas de las grandes figuras de las ciencias y del pensamiento nos haya acostumbrado a identificar un descubrimiento concreto o una gran idea con una persona en particular, algo que no es siempre posible si se quiere hacer justicia a todos los que realmente participaron en la realización de un gran avance. ¿Se puede decir que el modelo de la doble hélice del ADN, quizás la principal aportación a las ciencias de la vida en el siglo XX, sea obra de James Watson y de Francis Crick? En absoluto. Nadie niega que ellos desempeñaron un papel clave en este hito científico, pero no podemos olvidar las investigaciones de una mujer, Rosalind Franklin, o el trabajo que ya existía previamente de Linus Pauling.
Algo parecido ocurre con Internet. Conforme la ciencia y el conocimiento se han ido haciendo más complejos y más difíciles de dominar, siquiera en un campo concreto, para una única persona, los descubrimientos más importantes han exigido la colaboración de muchos equipos. Han surgido, indudablemente, individualidades geniales, dando ellas solas pasos significativos en un campo de las ciencias naturales o humanas; pero suele ser raro. Lo normal es que los premios Nobel se otorguen a científicos que han dirigido grandes equipos de investigación y laboratorios, ofreciendo directrices sobre cómo debían desarrollarse los experimentos y ensayos pero colaborando, lógicamente, con muchas otras personas a las que resulta muy difícil conceder el mismo reconocimiento (por ejemplo, un galardón como el Nobel).
Para conocer la historia de Internet es necesario remontarse varias décadas atrás, y ante todo tener claro que Internet es distinto de la World Wide Web (las famosas tres uves dobles que tecleamos en los buscadores cuando queremos acceder a una determinada página web). Internet se refiere, primordialmente, al conjunto de redes de ordenados conectados entre sí, mientras que la “World Wide Web” (“Web” significa telaraña; no basta con crear un gran invento: hay que darle un buen nombre para que triunfe) consiste en documentos interconectados mediante hipervínculos (hyperlinks) y URLs (Uniform Resource Locator). Las dos se rigen por protocolos informáticos distintos: el IP, o Internet Protocol, y el HTTP, Hypertext Transfer Protocol. O en otras palabras, puede decirse que Internet es una estructura a modo de soporte capaz de ofrecer distintos servicios, entre los cuales se encuentran la World Wide Web, el correo electrónico... y otras muchas aplicaciones. Las historias de Internet y de la World Wide Web están estrechamente relacionadas, porque si Internet ha gozado de tanta aceptación popular y hoy en día es uno de los pilares fundamentales de nuestro mundo globalizado es, en gran medida, gracias a las facilidades que ofrece esta última.
Los orígenes de Internet nos llevan a la carrera espacial emprendida por las dos grandes superpotencias del momento: los Estados Unidos de América y la Unión Soviética. Enfrentadas en una guerra fría sin cuartel, se disputaban no sólo el control político del mundo, sino el liderazgo científico y tecnológico para mostrar la supremacía de sus ideologías respectivas (el capitalismo liberal y el comunismo leninista). Los soviéticos habían tomado la delantera en esa carrera espacial al lanzar el primer satélite artificial en órbita, el Sputnik (Спутник, que en ruso significa algo así como “compañero de viaje”) en 1957, y al llevar el primer hombre al espacio (Yuri Gagarin, el 12 de abril de 1961) y la primera mujer (Valentina Tereshkova, el 16 de junio de 1963) e incluso al primer ser vivo (la perrita Laika, el 3 de noviembre de 1957).
Los Estados Unidos no podían consentir que su principal enemigo les superase de manera tan evidente en semejante competición. Por ello, el gobierno (entonces presidido por el general Dwight Eisenhower) creó la Advanced Research Projects Agency (conocida por sus siglas como ARPA) en febrero de 1958, para retomar la iniciativa en la batalla tecnológica con la Unión Soviética.
Entre los proyectos que surgieron de la ARPA destacó el establecimiento de una oficina, la Information Processing Technology Office (IPTO), entre cuyos objetivos principales estaba el de desarrollar un sistema de control automatizado llamado Semi Automatic Ground Environment (SAGE). Este sistema permitía conectar sistemas de radar a lo largo y ancho del país, lo que para aquella época era un verdadero hito. Entre los participantes en el proyecto destaca la figura de J.C.R. Licklider (1915-1990), uno de los informáticos más importantes del siglo pasado, que escribió importantes estudios sobre la “simbiosis” que podía darse entre el ser humano y el ordenador. Un auténtico visionario de las posibilidades que ofrecía la informática para los nuevos tiempos.
Licklider, allá por los años ’50, estaba trabajando en el prestigioso MIT y había empezado a investigar sobre un campo que hoy resulta de primorosa actualidad: la tecnología de la información, ocupación que simultaneaba desempeñando puestos de alta responsabilidad en una de las empresas punteras del sector, BBN Technologies. Licklider, junto con otro informático llamado Lawrence Roberts (considerado uno de los “padres” de Internet), desarrolló un sistema que operaba mediante el denominado packet switching (estudiado antes por Paul Baran, un ingeniero famoso también por haber inventado lo detectores de metal que se usan en los aeropuertos) en lugar del circuit switching. ¿En qué se diferenciaban ambos mecanismos? En que el primero, que se suele traducir al castellano como “conmutación de paquetes”, implica conducir unidades de transporte de información entre nodos o puntos específicos dentro de la red de comunicaciones pero que, a diferencia del “circuit switching” como por ejemplo los antiguos circuitos telefónicos, no establece una tasa constante de bits (los dígitos binarios, compuestos de ceros o unos, que están en la base del almacenamiento y el transporte de la información en los sistemas computacionales) entre dos nodos. Con los circuitos la comunicación se restringía a dos partes, mientras que los paquetes permitían la comunicación simultánea entre más terminales y no sólo entre quien enviaba datos y quien estuviera al otro lado del circuito. Ahora, con los paquetes, era posible usar un mismo vínculo de comunicación para entrar en contacto con más de una máquina. Puede decirse que el desarrollo de la comunicación por “paquetes” en lugar de circuitos está en la base de Internet.
En 1969, en la UCLA (la Universidad de California en Los Ángeles) se creó el ARPANET (Advanced Research Projects Agency Network), la primera gran red de comunicaciones que operaba con el sistema de paquetes en vez de con los clásicos circuitos. En 1978 se estableció el International Packet Switched Service (IPSS), un consorcio entre la oficina de correos británica, la compañía financiera Western Union y una red de comunicaciones, la Tymnet, formando la primera red internacional mediante la tecnología del intercambio de paquetes, que a principios de los ’80 ya se había extendido a lugares como Hong Kong y Australia.
En 1983 estaba operativo en Estados Unidos el primer protocolo de Internet, que dio lugar rápidamente al surgimiento de distintas redes educativas y comerciales. Gobiernos y empresas vieron en la nueva herramienta informática, Internet, un mecanismo excepcional para la comunicación y el intercambio. Internet pasaba a ser la “nueva imprenta” de la civilización tecnológica.
A principios de los años ’90, Internet dejó de ser una tecnología desconocida y misteriosa para el común de los mortales y entró de lleno en el espacio público. Un evento sumamente importante en estos años fue la invención de la World Wide Web por otra de las mentes maravillosas de la informática, Tim Berners-Lee. Detengámonos un poco en alguien que todavía vive y que ocupa ya un lugar destacado en la historia del progreso humano.
Timothy Berners-Lee nació en Londres el 8 de junio de 1955, hijo de un matrimonio de matemáticos que se dedicaban al diseño de ordenadores. Nuestro hombre creció en una atmósfera muy intelectual, donde las matemáticas eran uno más de la familia. En ese contexto de gran estímulo intelectual, Berners-Lee realizó estudios en una escuela primera, Sheen Mount Primary School, aunque los “A-Levels” (unos exámenes que los alumnos tienen que hacer para acceder a la universidad, con unos cursos previos parecidos al bachillerato español en el sistema educativo británico) los cursase en “Emmanuel School”, en Wandsworth (suroeste de Londres).
Tim Berners-Lee estudió en el afamado Queen’s College de la Universidad de Oxford, fundado en 1341 y situado en plena High Street de esta ciudad británica, y en el que han vivido, entre otros famosos ex alumnos, el filósofo utilitarista Jeremy Bentham. Oxford era y sigue siendo una de las mejores instituciones de educación superior del mundo. Su idílico paisaje (verdes campiñas inglesas con edificios medievales que, sin embargo, dan cobijo entre sus muros a la vanguardia en muchos campos de investigación) y su tradición la convierten en un escenario magnífico para la labor intelectual y científica. Parece que “invita” a pensar y a producir ideas e inventos. Tim Berners-Lee estudió allí la carrera de ciencias físicas, graduándose en 1976. Poco después de finalizar sus estudios de física, Berners-Lee comenzó a trabajar como programador. Su mujer, Jane, también se dedicaba a la informática (una especie de matrimonio “Curie” de los ordenadores).
Una fecha muy importante en la vida de Tim Berners-Lee es 1980. Ese año estaba trabajando en el CERN (Conseil Européen pour la Recherche Nucléaire) de Ginebra, en Suiza, un centro puntero en la física de altas energías y en el estudio de las partículas elementales. Fue allí donde Berners-Lee desarrolló la idea del hipertexto, destinado a permitir el intercambio de información entre los investigadores que se encontraban en el CERN. Se trataba de una especie de “intranet” que operaba sólo en el CERN, pero que incluía una sofisticada tecnología para el traspaso de datos y archivos.
Berners-Lee siguió trabajando como programador, pero en 1989 decidió regresar al CERN, que había instalado un potente nodo de Internet que le permitiría desarrollar lo que había concebido años antes (el hipervínculo). El mérito de Berners-Lee consiste, ante todo, en haberse dado cuenta de que integrando dos tecnologías que habían surgido hasta cierto punto de manera independiente (Internet y el hipertexto), podía dar al mundo una herramienta de información y de intercambio que superaba con creces a las disponibles en esa época: la World Wide Web. Podía servirse de Internet para generar un instrumento valiosísimo de intercambio de información. Nuevamente, esto puede parecer sencillo, pero en realidad se trataba de un reto de altísimo nivel. Era marzo de 1989, un año que debe recordarse no sólo por la caída del Muro de Berlín, sino también por algo no menos trascendental como es la invención de la World Wide Web.
Con la ayuda del belga Robert Cailliau, Berners-Lee lanzó la World Wide Web, desarrollando el primer servidor, el conocido como httpd (Hypertext Transfer Protocol Daemon). Era el comienzo de las páginas web (la primera, realizada en el propio CERN, apareció en agosto de 1991), hoy tan presentes en nuestras vidas cotidianas.
La historia que viene a continuación es sobradamente conocida: es la historia del éxito de la idea de Berners-Lee, la del éxito de la World Wide Web y la del éxito de Internet. Ambos han pasado a formar parte de nuestra existencia cotidiana, de tal modo que parecería imposible subsistir sin ellas.
Pero también es la historia de la grandeza humana: la que mostró Berners-Lee al no patentar su invento. En 1994 creó el World Wide Web Consortium, que preside en la actualidad, pero en ningún momento pidió “royalties” por su idea, probablemente una de las que más han influido en el mundo contemporáneo. Podría ser uno de los hombres más ricos del mundo, pero prefirió no serlo. Es perfectamente legítimo que alguien gane dinero, fama y prestigio por sus inventos o creaciones, porque al fin y al cabo representan una forma de reconocer su labor y su esfuerzo. Pero es innegable que resultará más fácil admirar a quien renuncia a ello y lo pone a disposición de la humanidad sin pedir nada a cambio. Ambas opciones son legítimas, pero también es legítimo admirar más una que a otra. Berners-Lee ha demostrado, con ello, ser no sólo una mente maravillosa, sino un gran ejemplo para una sociedad necesitada de referentes éticos y de figuras con las que sentirse identificada.
Berners-Lee se dedica ahora al desarrollo de la denominada web semántica, un proyecto fascinante que permitiría a los ordenadores “entender” ellos mismos la información que poseen, en lugar de limitarse a procesar las órdenes que nosotros, los humanos, les damos. Por ejemplo, estamos habituados a entrar en Google o Yahoo y decirle al buscador que encuentre cuál es la montaña más alta de África. El buscador no entiende la pregunta: simplemente se limita a buscar páginas donde aparezcan los términos “montaña/ más/ alta/ de/ África”, dando como resultado de la búsqueda un gran número de páginas, y dejando al usuario que sea él mismo quien dé con la respuesta mirando esas páginas. El ordenador no interpreta el contenido de esas páginas. Con la web semántica, el ordenador nos daría directamente la respuesta: el Kilimanjaro, sin necesidad de remitirnos a otras páginas en las que conseguir la información. El ordenador dejaría de ser una mera herramienta de procesamiento de órdenes para llevar a cabo una tarea más “activa”. En otras palabras: sería el propio ordenador quien leyera las páginas web.
Miles de millones de personas se conectan, diariamente, a la Red. Si nunca como ahora habíamos sido tantos, tampoco nunca como ahora hemos tenido tantas posibilidades para encontrarnos, conocernos y ayudarnos. Nunca habíamos tenido una herramienta tan poderosa para el intercambio de información y la configuración de una auténtica sociedad del conocimiento. Hoy, progreso es sinónimo de Internet. De nosotros depende que esto no sea un simple sueño utópico, y que el uso que demos a una de las creaciones más importantes de los últimos siglos responda al bien de todos.
Capítulo 21
Todas las mentes pueden ser maravillosas.
Primero, me veo en la obligación de explicar qué entiendo por una mente maravillosa. Por supuesto, Sócrates, Arquímedes, Galileo, Einstein y muchos otros nombres que han ido apareciendo por el libro han sido mentes absolutamente extraordinarias, dotadas de una inteligencia y de un tesón excepcionales que no todo el mundo posee. Pero una mente maravillosa no es sólo una cuestión de ser un prodigio desde muy joven. Han existido casos de personas que aparentemente no prometían nada en el campo de la ciencia o de las humanidades (no fueron niños prodigio ni estudiantes brillantísimos) y que sin embargo acabaron realizando contribuciones fundamentales al progreso del conocimiento. Por ejemplo, el inventor de la batería eléctrica, Alessandro Volta, el genial físico Michael Faraday (un hombre casi sin formación científica) o sin ir tan lejos, el del premio Nobel de química de 2003 y descubridor de las acuaporinas (las proteínas clave en el transporte de agua en la célula), Peter Agre, que obtuvo un grado “D”, una nota bajísima, en su primera clase de química, a pesar de que su padre era profesor universitario de química. Ni la precocidad ni el entorno familiar garantizan nada, aunque puedan facilitar las cosas. Además, no olvidemos que de algunos de los mayores genios de la historia, como Isaac Newton, Immanuel Kant o Charles Darwin, no nos consta que fuesen particularmente prodigiosos en su infancia.
Y a la inversa, se han dado situaciones en las que figuras prodigiosas desde temprana edad o que consiguieron un currículum formidable “fracasaron”, en el sentido de que no dejaron ninguna aportación relevante en la ciencia o en el pensamiento. Un ejemplo muy célebre es el de William James Sidis (1898-1944), probablemente una de las personas más inteligentes de todos los tiempos. Sidis fue un niño muy especial. Sus padres eran emigrantes rusos de origen judío, y el pequeño William nació el 1 de abril de 1898 en Nueva York. Boris Sidis, su padre, era un renombrado psicólogo y políglota profesor en Harvard, y su madre estudió la carrera de medicina en la Universidad de Boston. Ambos progenitores poseían, por tanto, una educación y una inteligencia muy superiores a la media del momento. Con un padre psicólogo que además investigaba sobre cómo potenciar las habilidades intelectuales de las personas, era de esperar que William recibiese una formación completamente atípica. ¿Qué método de enseñanza podía emplear quien pensaba, como Boris Sidis, que el genio podía “avivarse” e incluso “fabricarse” con una correcta pedagogía? Al igual que el padre de John Stuart Mill (1806-1873), James Mill, se propuso hacer de su hijo un gran sabio que pudiese enarbolar en un futuro la bandera de la filosofía utilitarista, y para ello le privó de relaciones con los demás niños de su edad y le sometió a una férrea disciplina que incluía la lectura en griego de las Fábulas de Esopo y de la Anábasis de Jenofonte a los ocho años (lo que acabó pasándole una costosa factura, ya que a los 21 años sufrió un colapso nervioso del que afortunadamente, sobre todo para la historia del pensamiento, se recuperó), Boris Sidis también diseñó un cuidadoso programa de instrucción para su joven criatura. Si el escultor modela su obra, Boris Sidis quería modelar a su propio genio. Y si sumamos a esta inquebrantable voluntad paterna la excepcional precocidad que de por sí tenía William, el resultado es asombroso, casi increíble: Sidis era capaz de leer el New York Times a los 18 meses, a los ocho años había aprendido los rudimentos de lenguas como el latín, el griego, el francés, el ruso, el alemán, el hebreo, el turco y el armenio, y no contento con eso había inventado un nuevo idioma, el vendergood. En los Sidis archives, disponibles en Internet, se pueden leer las crónicas que salían en los periódicos de la época y que daban cuenta de los progresos de semejante maravilla.
Sidis quiso entrar en la universidad a los 9 años, pero como les ha ocurrido a tantos otros niños prodigio, se topó con numerosas trabas a causa de su edad. A los 11 logró ser admitido en la Universidad de Harvard dentro de un programa especial en el que también participaba el futuro matemático, padre de la cibernética, Norbert Wiener. Tal era el nivel de matemáticas exhibido por el joven Sidis que con sólo 11 años pronunció una conferencia sobre los cuerpos tetra-dimensionales en el club matemático de Harvard, con la asistencia de las mayores eminencias matemáticas del momento, que se quedaron atónitas ante su genio. El profesor Daniel Comstock, del Instituto tecnológico de Massachusetts (el MIT), llegó a predecir que Sidis lideraría la ciencia en breve.
Sidis se licenció en matemáticas a los 16 años, en 1914, obteniendo la calificación de cum laude (a su madre no le pareció suficiente porque no era summa cum laude). “Quiero vivir la vida perfecta”, declaró Sidis a los medios de comunicación que le entrevistaron con motivo de su graduación en Harvard. Sidis despreciaba el dinero y había decidido permanecer célibe, seguramente porque creía que pensar en mujeres le distraería de sus intereses intelectuales y académicos. Tras terminar sus estudios tan pronto, ¿qué podía hacer ahora? Empezó a dar clases de matemáticas en la Universidad Rice, en Houston (Texas), con tan sólo 17 años, pero Sidis no conseguía encontrar la felicidad. Se sentía frustrado y aburrido, y como el clásico, debió de decirse para sus adentros: taedet animam meam vitae meae, “mi alma está hastiada de la vida”. Las matemáticas ya no le llenaban, y nunca volvería a ser el mismo y exitoso prodigio que había puesto a Harvard bajo sus pies. Sidis se matriculó en derecho, pero terminó abandonando la vida académica. Fue arrestado por participar en una manifestación socialista (Sidis era ateo y de izquierdas) en Boston y condenado a 18 meses de prisión, en teoría por su comportamiento violento durante la protesta. Tenía 21 años. El prodigio Sidis, célebre en Estados Unidos desde tempranísima edad, se convirtió ahora en el objeto de las burlas y los escarnios de la prensa neoyorkina que antes lo había exaltado como la mayor promesa de América. Los periódicos nunca dejarían de ridiculizarlo: “prodigioso fracaso”, lo llamó uno de ellos. Gracias a la intervención de su padre, Sidis se libró de la prisión, pero a cambio tuvo que ser internado en un sanatorio psiquiátrico dirigido por sus propios padres, quienes le amenazaron con llevarlo a un manicomio si no cambiaba de comportamiento.
Me parecería sumamente injusto decir que Sidis fracasó. Fracasó, ciertamente, en la esfera pública, o al menos fracasó para las expectativas que muchos habían alumbrado. Esos muchos casi nunca pensaron en el Sidis de carne y hueso, y sostener que alguien fracasa sólo porque no pasa a la historia efectuando descubrimientos o escribiendo libros inmortales es olvidar que el auténtico triunfo se da en el interior de cada persona, en su propia auto-realización. Los títulos académicos, la fama, el prestigio, el dinero o la inteligencia, en el fondo, son totalmente secundarios con respecto a las cualidades morales de una persona. Gente con un gran currículum hay mucha; famosos y con prestigio, también; dinero en el mundo, en cantidades asombrosas; personas inteligentes, muchísimas... Pero no siempre encontramos a gente verdaderamente buena y dada a los demás. Y Sidis lo fue. Su vida transcurrió en el anonimato, sólo interrumpido por los litigios judiciales que le enfrentaron a distinguidos periódicos que seguían empeñados en criticarle y humillarle por no haber hecho nada importante desde que fue un niño prodigio. Trabajó en oscuras oficinas al tiempo que viajaba a lo largo y ancho de Estados Unidos para escribir una historia de América donde los nativos ocupaban un papel que les había sido vetado en los relatos oficiales. A Sidis le encantaba conversar con sus amigos, darles su visión del mundo y de la sociedad, leer y escribir... Vivió solo, y murió de una hemorragia cerebral en Boston en 1944, con 46 años. Según Abraham Sperling, el cociente de Sidis pudo oscilar entre 250 y 300. Gracias a la publicación de los manuscritos de Sidis en Internet, se ha podido saber que llevó a cabo reflexiones innovadoras sobre campos tan diversos como la astrofísica, la termodinámica o la historia de América, además de patentar un sistema de calendario perpetuo.
Pero no todos los niño prodigio han corrido la misma suerte que Sidis. El holandés Hugo Grocio (1583-1645) entró en la Universidad de Leiden a los 11 años y a los 15 cautivó con su talento al rey Enrique IV de Francia en una audiencia, que lo describió como el “milagro de Holanda”. Ha pasado a la historia como uno de los padres del derecho internacional y como una figura determinante en la modernidad europea. Blaise Pascal (1623-1662) también fue un niño prodigio que a los 16 años publicó lo que hoy se conoce como el “teorema de Pascal” sobre las cónicas, y siguió haciendo contribuciones notorias al conocimiento en campos tan variados como la física, las matemáticas, la filosofía, la teología y la prosa francesa. El alemán Carl Friedrich Gauss (1777-1855), seguramente el mayor de los matemáticos junto con Arquímedes y Newton, era el hijo de un humilde albañil cuando llamó la atención de un profesor de la escuela elemental al calcular al instante el valor de la suma de todos los números desde 1 hasta 100: 1 + 2 + 3... + 100: -“¡5050!”, dijo enseguida. El maestro Büttner había puesto a sus alumnos como tarea hacer esa suma para entretenerlos mientras atendía otros asuntos, pero debió de quedarse extasiado y fuera de sí al comprobar que un niño de corta edad había tardado tan poco en resolver el problema. Y es que Gauss se había dado cuenta de que tanto si la suma comienza desde 1 como si empieza desde 100, al adicionar los términos opuestos (1 + 100, 2 + 99, 3 + 98, 4 + 97...) el resultado siempre es de 101. Como hay 100 términos, pero sumamos de dos en dos, habrá que multiplicar 101 por 50, lo que da 5050. Fascinante el poder de la inteligencia humana ya desde edades tan tempranas. Y recientemente, el que fuera niño prodigio de las matemáticas, el australiano de origen chino Terence Tao, ha ganado una de las medallas Fields, el “Nobel” de las matemáticas, que se entregaron en el congreso internacional de matemáticas de Madrid en 2006 (galardón que rechazó el polémico y genial matemático ruso Grigori Perelmann, autor de la demostración de la conjetura de Poincaré, uno de los interrogantes matemáticos más complicados de las últimas décadas).
Y siempre tenemos el ejemplo de Wolfgang Amadeus Mozart (1756-1791), el niño prodigio por excelencia que sorprendió a media Europa y que como adulto legó algunas de las creaciones más bellas del genio humano, que nos han extasiado durante siglos. Como dijo un director de orquesta, en la música de Mozart hay tres etapas: una en la que Mozart pertenece a su tiempo; otra en la que Mozart supera con creces a su tiempo; y una final en la que Mozart se sale del tiempo. ¿Qué habría sido de la historia de la música si Mozart no hubiese muerto a los 35 años? Afortunadamente y por haber sido un prodigio tan extraordinario, Mozart empezó a componer muy joven y por eso nos han llegado tantas sinfonías, conciertos, misas y óperas suyas.
Nos seguimos preguntando, ¿qué es una mente maravillosa? Hemos visto que no necesariamente un ser prodigioso desde la infancia se transforma en una mente maravillosa. ¿Y qué decir de esos cerebros asombrosos que aprenden decenas de lenguas o que hacen cálculos mentales con suma facilidad? ¿Son mentes maravillosas? Hay gente que, por ejemplo, es capaz de calcular la raíz trece de un número de cien dígitos en menos de un minuto. ¡La raíz trece! No sólo la cuadrada o la cúbica, sino la raíz trece. El colombiano Jaime García Serrano, “la computadora humana”, posee cinco récords mundiales de cálculo. Puede el calcular el día de la semana de cualquier fecha en un rango de un millón de años (¿qué día será el 20 de septiembre del año 200.000? “Miércoles”, nos diría Jaime sin rechistar); saca la raíz trece de un número de cien cifras en 15 centésimas de segundo, ha memorizado 37.000 decimales del número pi... Y sólo tiene estudios de formación profesional. Formidable. No menos que la gesta de Bhandanta Vicitsara, un hombre que en 1974 recitó de memoria 16.000 páginas de un texto budista. Y tampoco se queda atrás el italiano Giuseppe Caspar Mezzofanti (1774-1849), un cardenal políglota apodado en vida la Pentecote vivante, “el Pentecostés viviente”, por su legendaria facilidad para aprender idiomas. Mezzofanti, que era de Bolonia (hay una placa en su casa natal donde se le llama massimo dei poliglotti), pudo llegar a dominar, según la biografía del reverendo Charles W. Russell y otras fuentes, 38 lenguas a la perfección y 50 dialectos (el lingüista Richard Hudson acuñó en 2003 un término para las personas que hablan con fluidez seis o más idiomas: hiperpolíglota, que sin duda Mezzofanti cumplía de sobra), incluyendo el húngaro, el chino, el turco, el árabe (Mezzofanti fue catedrático de árabe), el indostano, el valaco, el ilírico, el persa o lenguas nativas de América. Muchos viajeros se desplazaban a Bolonia o después a Roma simplemente para conocerlo y para poner a prueba sus habilidades. Aunque Mezzofanti aparece habitualmente en las ediciones del libro Guinness de los récords, no faltan pretendientes al disputado título de mayor políglota de la historia. Se dice que el filósofo y teólogo estonio fallecido en 1985 Uku Masing hablaba 65 idiomas y traducía 20, o que en la actualidad Ziad Fazah, nacido en Monrovia (Liberia) pero residente en Brasil, conoce 58 lenguas, y se ha sometido a numerosos “exámenes” en distintos programas de televisión de todo el mundo. Sin embargo, también se han dado exageraciones y fraudes como las de Sir John Bowring (1792-1872), cuarto gobernador británico de Hong Kong, diplomático y viajero, que presumía de poder hablar 200 idiomas, cuando en realidad dominaba poco más de diez y los dialectos.
Ya sean calculadoras humanas, seres dotados de una “mega-memoria” o hiper políglotas, lo que entiendo por mente maravillosa es muy distinto. Esas personas han estado dotadas de unas facultades únicas que desbordan todo límite que a priori se pueda imponer a las capacidades intelectuales del ser humano. Pero no han hecho progresar el conocimiento, ni han dejado a la posteridad una gran idea o una escuela de pensamiento, ni han inventado nada. Una mente maravillosa tiene que ser alguien más creativo, alguien que verdaderamente abra un nuevo horizonte a la humanidad, aun sin disponer de esas habilidades tan extraordinarias y sorprendentes que nos invitan a reflexionar sobre el alcance de la inteligencia humana. Una mente maravillosa es más compleja: quizás no tenga el mayor cociente intelectual, ni la mayor memoria, ni la mayor capacidad de cálculo, ni sea el mejor escritor, pero es todo a la vez, suma y no resta, sabe también situarse en el contexto histórico en que vive y ver qué puede aportar él en ese lugar y en ese momento. No desiste, no ceja nunca en su empeño por aprender, nunca cree que ya tiene la respuesta plena o que ya lo ha aprendido todo. ¿Qué es, entonces, una mente maravillosa? Una mente maravillosa es lo opuesto a la autosatisfacción intelectual y personal. Es alguien perpetuamente “abierto” a nuevos desafíos y a nuevos horizontes que sabe ver más allá de lo evidente, inmediato o comúnmente aceptado. Es alguien que trabaja y que quiere trabajar para conocer, descubrir o crear.
Porque si ni un niño prodigio ni una persona con una memoria o una capacidad de cálculo magníficas se convierte apodícticamente en una mente maravillosa, tampoco está garantizado que quien tenga un gran cociente intelectual vaya a serlo. Desde que el psicólogo francés Alfred Binet publicara en 1905 los primeros tests modernos de inteligencia, y que el alemán Wilhelm Stern emplease el término Intelligenz-Quotient como puntuación para la medida de la inteligencia de una persona, el IQ (intellectual quotient, en español “cociente intelectual”) ha pasado al lenguaje coloquial y se ha convertido en un número de uso habitual en estudios de ciencias sociales, en estadísticas educativas, en los departamentos de recursos humanos en las empresas... El prototipo de test de inteligencia de Binet lo combinó el estadounidense Lewis M. Terman, de la Universidad de Standford, con la noción de cociente intelectual de Stern, dando como resultado lo que hoy se conoce como test de Standford-Binet. ¿En qué consiste el cociente intelectual? Sencillamente en eso: en hacer un cociente o división entre la edad mental de un individuo y su edad cronológica y multiplicarlo por 100:
Cociente = Edad mental/Edad cronológica × 100.
Un cociente de 100 en la escala de Standford-Binet (la que se utiliza comúnmente) significa una persona de inteligencia media, ya que su edad mental está perfectamente sincronizada con su edad cronológica. Una persona con un cociente de 150 significa que a los 10 años de edad cronológica tiene una edad mental de 15(15/10 X 100 = 150), y una persona con un cociente de 80 significa que a los 10 años tiene una edad mental de 8 (8/10 X 100 = 80). El problema es que los primeros tests de inteligencia funcionaban básicamente para niños, en edades muy tempranas donde era más fácil calcular la diferencia entre la edad cronológica y la mental, pero no eran aptos para medir la inteligencia de los adultos. Por eso, los estudios más desarrollados para determinar el cociente intelectual emplean principalmente métodos estadísticos (desviaciones estándar, percentiles...) para las distribuciones de cocientes intelectuales en una determinada población. Hasta la fecha, la escritora norteamericana (que dejó la Universidad de Washington antes de terminar la carrera) Marilyn Vos Savant, nacida en 1946 y columnista de la famosa revista Parade, es quien ha obtenido la puntuación más alta en un test de inteligencia, con 228 en la escala de Standford- Binet. Sin embargo, el resultado ha generado mucha discusión, porque la medida de cocientes intelectuales altos es enormemente inexacta y todavía es objeto de controversia científica. Por ejemplo, medir un cociente superior a 130 con un test de Wechsler para adultos (que integra pruebas relacionadas con la comprensión verbal, la percepción organizativa, la memoria o la velocidad de procesamiento y de asimilación de la información) es bastante complicado. La propia Marilyn ha reconocido que un test puede ofrecer una idea más o menos aproximada sobre ciertas habilidades mentales, pero que la inteligencia comporta tantos campos y tantos factores que intentar medirla es, en el fondo, una empresa inútil.Por lo general, se suelen barajar los siguientes cocientes intelectuales a la hora de calificar la inteligencia de una persona:
Ni el que tiene un cociente alto tiene que verse como alguien superior (porque la inteligencia sólo es una faceta de la persona entre otras muchas), ni el que tiene un cociente bajo debe sentirse inferior o discriminado. Lo importante es aceptarse a uno mismo tal y como se es y esforzarse siempre por mejorar. De la misma manera, los gobiernos y las instancias educativas han de ofrecer a todos las posibilidades adecuadas para que se desarrollen según sus aptitudes y cualidades, de modo que su inteligencia pueda servir al progreso de la sociedad y del conocimiento, al tiempo que ayuden a quienes más asistencia necesiten en el aprendizaje. La inteligencia nunca puede justificar la soberbia o la autosatisfacción: precisamente los grandes hombres y mujeres han sabido reconocer sus limitaciones y lo mucho que ignoraban en comparación con lo que eran capaces de comprender o con lo que habían descubierto. Y siempre permanecen interrogantes que ni los genios puede responder y que nos afectan a todos por igual.
¿Por qué tener cociente alto o incluso extraordinariamente elevado no conlleva necesariamente ser una mente maravillosa como las que hemos descrito en este libro? Nuevamente, un gran cociente intelectual puede facilitar muchas cosas, ya que ofrece un potencial indiscutible. Pero al igual que haber sido un niño prodigio o disponer de una memoria fotográfica o de una calculadora inserta en el cerebro no garantiza que se hagan contribuciones auténticas al conocimiento (a las ciencias, al pensamiento, a las matemáticas...), tampoco el poseer un alto cociente intelectual asegura que esa mente sea verdaderamente creativa, innovadora e influyente en el curso de la historia. El propio Alfred Binet estaba convencido de que los testes de cociente intelectual no eran suficientes para medir la inteligencia de una persona, ya que las cualidades intelectuales no se pueden superponer, como se hace a la hora de calcular el cociente: no se pueden sin más sumar la fluidez verbal o el razonamiento matemático y, haciendo media, decir cuál es el cociente intelectual de un individuo. Hacer esa operación puede dar una idea del nivel de inteligencia y de las aptitudes, pero implica de por sí un presupuesto absolutamente cuestionable (que la inteligencia como un todo se puede fragmentar en “sectores de la inteligencia” y examinar cada una de estas áreas por separado). El padre de William James Sidis, Boris Sidis, despreciaba los testes de inteligencia como “estúpidos, pedantes, absurdos y engañosos”, y otros autores han llegado a acusar a los testes de inteligencia de racistas por llevar implícitas arbitrariedades culturales y geográficas (si bien hay modelos más desarrollados que no incorporan esos sesgos). Los tests se basan en consideraciones estadísticas, y lógicamente siempre pueden darse casos que no respondan a los procedimientos estadísticos que están en la base teórica de esos testes. Lo mismo podría decirse de los testes de personalidad: tienen un carácter orientativo, pero no ofrecen una certeza cien por cien que describa a un individuo tal y como es, porque en el fondo hacerlo sería inabarcable e imposible (¿quién es capaz de conocernos si ni nosotros mismos nos conocemos de manera óptima?). Por tanto, nadie debe frustrarse por no tener un cociente altísimo o por no haber destacado especialmente por precocidad o brillantez. Es verdad que, como ha reconocido la Asociación americana de psicología, los análisis de cociente intelectual presentan un valor predictivo notable y muchas veces pueden explicar las diferencias intelectuales que se producen entre determinados individuos. Pero nuevamente, no son métodos absolutos y por tanto es necesaria una visión más amplia de la inteligencia. Sin llegar a una crítica tan extrema como la que hizo el paleontólogo estadounidense Stephen J. Gould en The mismeasure of man (1981), en el que acusaba a la psicología contemporánea de “reificar” o “cosificar” conceptos abstractos como el de inteligencia en valores cuantitativos como el cociente intelectual, no se puede negar, a día de hoy, que la medición de la inteligencia entraña una inevitable imperfección, y que no siempre puede dar cuenta de las aptitudes reales de una persona. Por tanto, si bien la “medición” de la inteligencia puede ser interesante y ayudar en algunos aspectos, no es absoluta y no debe tomarse como absoluta a efectos de conocer las habilidades de uno, que en el fondo no se pueden identificar hasta que no se han “visto” (por su biografía, itinerario personal e intelectual...). En las ciencias sociales (como la psicología) no se puede emplear el mismo concepto de “predicción” que por ejemplo se usa en las matemáticas o en ciencias naturales como la física (al menos en la física clásica), porque el individuo de carne y hueso nunca se puede “uniformizar”, aunque con frecuencia encaje bastante bien en los estándares propuestos.
La inteligencia no es, desde luego, un número, una cantidad fija e inamovible. Puede aumentar o disminuir, por lo que todos (independientemente de nuestra procedencia social, de nuestro nivel de educación o del ambiente en que nos movamos) podemos, si nos lo proponemos, aumentarla. Esto no quiere decir que todos vayamos a alcanzar el mismo grado de inteligencia y de creatividad que un Shakespeare o un Einstein (aunque... ¿por qué no? ¿Acaso no podrá surgir un dramaturgo que supere a Shakespeare o un físico que destrone a Einstein y dé una visión más profunda y rigurosa del universo físico?). Se puede partir de un determinado potencial de inteligencia, que en unos casos será mayor o menor, pero ese potencial no define unívoca e irreversiblemente los logros intelectuales efectivos de una persona. Lo contrario sería transmitir una imagen excesivamente determinista del ser humano, cuando la experiencia (hemos tenido la oportunidad de comprobarlo en algunos de los personajes de esta obra) parece indicar que la persona muestra una desmesura. De hecho, el filósofo Xavier Zubiri concebía al ser humano como una “esencia abierta”, una capacidad de desbordar todo límite. Y eso ha sido y es justamente el progreso. Los testes de inteligencia y el cociente intelectual sirven como herramientas orientativas, pero nunca deben convertirse en identificadores o “huellas digitales”, al estilo de “usted tiene un 100 de cociente intelectual y entonces sólo puede optar a esto o a aquello”, máxime si con ello se pueden cerrar puertas a una persona, por ejemplo en la esfera laboral. Hay que ser conscientes de sus virtualidades y de sus restricciones.
Tampoco la inteligencia es algo que simplemente se herede, ante todo porque lo que normalmente se entiende por “herencia” es inmutabilidad, cuando lo que en realidad ocurre es que la herencia es cambiable, en el sentido de que uno u otro ambiente puede modular directamente esa herencia. Además, los estudios señalan que hay factores como la alimentación que pueden provocar un aumento o un descenso en los niveles de cociente intelectual, al influir en el desarrollo cognitivo de la persona. De igual forma, entrenarse en actividades intelectuales también ayuda. Otra cosa es que no se pueda saber a ciencia cierta cómo ayuda exactamente o en qué grado (si por leer tales libros o por jugar más partidas de ajedrez mi cociente intelectual va a verse incrementado en un tanto por ciento). Con todo esto sólo se quiere transmitir la idea de que la inteligencia no es una facultad incólume, impoluta e impasible, como si uno tuviese que conformarse irrevocablemente con la inteligencia que ha heredado o que tiene desde una cierta edad. Se puede hacer mucho en su favor o en su contra, y depende de nosotros mismos y de la sociedad. No se puede demostrar que un test de inteligencia mida la inteligencia “innata” de una persona, con independencia total de las experiencias y condicionamientos que ya ha recibido, aunque sea en pocos años. No podemos saber si en una determinada persona, por extraño que parezca en primera instancia, se dará la particular simbiosis de circunstancias y de azar que haga de ella una mente maravillosa capaz de servir con sus talentos a la sociedad y a su desarrollo intelectual, tecnológico, económico y ético. Por ello, la preocupación por la educación como la mayor riqueza de un país (el valor añadido por excelencia) es a todas luces fundamental. El nivel de un país no se mide sólo por el número y el tamaño de sus empresas, por su poderío militar, por sus infraestructuras o por sus recursos naturales. El nivel y el valor humano de un país se mide por el papel que en él jueguen el conocimiento y la educación. Y está en nuestras manos que la creatividad intelectual no se circunscriba a un ámbito geográfico, al de los países más avanzados e industrializados, lo que supone una enorme injustica a escala global que hace que en los países pobres, por disponer de unas peores condiciones materiales y de una peor educación, no se lidere el progreso intelectual, llegando a la tragedia de la fuga de cerebros y del éxodo masivo de figuras prometedoras al mundo rico, que acaba acumulando todo el capital intelectual de la humanidad y arrebatando la riqueza más preciada que poseen otros pueblos. Es algo que podemos solucionar: “globalizar” la inteligencia a todas las regiones del mundo, porque en todas, si se dan las condiciones de educación y nivel socioeconómico, pueden surgir mentes maravillosas.
Tanto los individuos como las sociedades pueden hacer mucho para desarrollar la inteligencia. No basta con disponer de un buen sistema educativo; nosotros mismos también tenemos que poner de nuestra parte. Potenciar la mente implica buscar activamente el conocimiento. El conocimiento o los interrogantes intelectuales no pueden ser, simplemente, “cosas” que nos llegan pasivamente: uno tiene que mostrar iniciativa, espíritu crítico, inquietud, leer e informarse muchísimo, dialogar con el que ya sabe... Hay que estar siempre abierto a aprender y aceptar que no se conoce todo. Creo que un error muy típico en los estudios superiores, sobre todo en los universitarios, es concebirlos como un mero trámite que hay que pasar para conseguir el título. Si “absorbo” como por ósmosis el contenido de los libros, manuales y apuntes lograré llevar a buen término una asignatura y así podré terminar la carrera. ¿Y nada más? ¿No me llaman la atención las preguntas sin respuesta que aún quedan, el porqué de lo que estoy estudiando, cómo se llegó a esas u otras conclusiones, qué limitaciones presentan, hacia dónde se dirige la investigación actual en ese campo...? ¿No me fascina ver la conexión que existe entre muchas ideas y disciplinas científicas, y cómo la “arquitectónica” del conocimiento permite que en muchas ocasiones partiendo de una idea general se vaya descendiendo progresivamente a los detalles? ¿No me fascina ver la “síntesis” que se puede encontrar detrás de todo “análisis”? Está claro que no todas las materias nos tienen que interesar o gustar por igual, pero al menos en las que nos interesen sí creo que es necesario adquirir una serie de inquietudes profundas que nos permitan formarnos un juicio propio e incluso proponernos efectuar alguna aportación que haga avanzar esa ciencia o línea de pensamiento. No hay trucos para ser una mente maravillosa. Sólo las mentes que verdaderamente han sido maravillosas a lo largo de los siglos podrían enseñárnoslo, pero en el fondo nos daríamos cuenta de que cada una tuvo una trayectoria singular. Eso sí: partiendo de puntos de origen distintos y atravesando sendas completamente dispares a menudo alcanzaron la misma meta, la de contribuir a aumentar nuestro conocimiento o a mejorar nuestras vidas. Gracias a Einstein entendemos más sobre el universo y la gravedad, y gracias a Tim Berners-Lee tenemos más acceso a las vías de información y de intercambio a escala global, aunque también por “culpa” de Einstein haya hoy nuevos interrogantes y por “culpa” de Berners-Lee hayan surgido no pocos problemas relacionados con la World Wide Web. Pero objetivamente hablando, ambos (y podríamos citar otros muchos nombres) han inaugurado un escenario intelectual y tecnológico nuevo.
Nunca se sabe si alguien puede convertirse en una mente maravillosa, creativa y descubridora. Y precisamente porque nunca se sabe, nunca hay que desistir, si se tiene el empeño, en cultivar la inteligencia y el aprendizaje.
Algunas lecturas recomendadas sobre los temas tratados
Como obra de referencia histórica, además de las enciclopedias destaca la historia universal del matrimonio Durant (Will y Ariel), que cubre desde el nacimiento de las grandes civilizaciones hasta Napoleón, y que abarca también los aspectos relacionados con la historia de la ciencia y del pensamiento en las distintas etapas que estudia.Para la historia de las matemáticas, un libro fundamental es El pensamiento matemático desde la antigüedad a nuestros días, de Morris Kline (Alianza, 1999).
Las Feynman’s Lectures on Physics, curso en tres volúmenes del premio Nobel Richard Feynman, constituyen una excelente exposición de los conceptos y teorías fundamentales de las ciencias físicas.
Como compendio extenso y pormenorizado de la historia de la filosofía está la obra del jesuita inglés Frederick Copleston, en varios volúmenes, desde la filosofía griega hasta el siglo XX.
En Internet, el nivel y el rigor de muchos artículos de wikipedia (al menos en la edición inglesa, que es la más completa y la que dispone de un mayor número de enlaces y de fuentes) son bastante altos, ofreciendo una idea muy adecuada de distintas cuestiones científicas, biográficas, históricas y filosóficas.
Otras obras interesantes relacionadas con los capítulos de este libro son:
- Historia de la escritura, de Ignace J. Gelb (Alianza, 1994)
- Historia del Egipto antiguo, de B.G. Trigger, B.J. Kemp, D. O’Connor, A.B. Lloyd (Crítica, 1997)
- Historia antigua de Egipto y del Próximo Oriente, Antonio Pérez Largacha (Akal, 2006)
- Introducción a la cosmología, Francesc Nicolau (Encuentro, 1988)
- Momentos estelares de la ciencia, Isaac Asimov (Salvat, 1984)
- El método, carta de Arquímedes a Eratóstenes, descubierto en 1906 en un palimpsesto (manuscrito que se había reutilizado para escribir un texto distinto al original), editado por Alianza (1986)
- El cosmos, la Tierra y el hombre, Preston Cloud (Alianza, 1988)
- El mensajero sideral, intercambio epistolar entre Galileo y Kepler (Alianza, 1990)
- Einstein 1905: un año milagroso, John Stachel (ed.) (Crítica, 2001)
- Sobre la teoría de la relatividad especial y general, Albert Einstein (Altaya,1998)
- El reloj de la sabiduría: tiempos y espacios en el cerebro humano,Francisco Mora (Alianza, 2004)
- Historia del tiempo: del big bang a los agujeros negros, Stephen Hawking (Alianza, 1999)
- El mundo cuántico, Stéphane Deligeorges (dir.) (Alianza, 1999)
0 Comentarios