Fisica y filosofia - Werner Heisenberg Premio Nobel

Fisica y filosofia - Werner HeisenbergEs bien conocido el hecho de que la Física ha abierto nuevos y vastos horizontes. Ello no ha sido posible, como lo muestra esta obra, sin modificar fundamentales conceptos científicos y filosóficos —pilares de la cultura y de la civilización. Mucho se ha escrito acerca del significado político de la investigación nuclear. Pero poco se ha dicho, hasta ahora, sobre las consecuencias de los descubrimientos que han conducido al Homo Sapiens a una situación tan remota del pasado inmediato como de los tiempos clásicos y medievales. Nadie más calificado para debatir este tema para un público de no especializados que el profesor Werner Heisenberg. En colaboración con Niels Bohr ha desarrollado nuevos principios en la teoría cuántica, y se lo tiene por uno de los científicos atómicos de avanzada. Heisenberg, Werner




Perspectivas del mundo
Sostiene la tesis de esta colección que el hombre, a pesar de su aparente cautiverio moral y espiritual, se halla en camino de desarrollar una nueva conciencia de sí mismo, la cual puede elevar, finalmente, a la raza humana por encima y más allá del miedo, la ignorancia y la soledad que la acosan en nuestros días. A esta naciente conciencia, a este concepto del hombre nacido de un universo percibido a través de una novísima visión de la realidad, se halla dedicada Perspectivas del mundo.
Únicamente aquellos conductores espirituales e intelectuales de nuestra época que poseen una capacidad creadora en esta dilatación de los horizontes del hombre han sido invitados a participar en esta Serie: son aquéllos que abrigan la certeza de que más allá de las divisiones que separan a los hombres existe una primordial fuerza unitiva, puesto que todos estamos unidos por una común conciencia de lo humano, más fundamental que cualquier unidad de dogma; son aquéllos que reconocen que la fuerza centrifuga que ha dispersado y atomizado a la humanidad debe ser reemplazada por una estructura integral y un sistema capaces de conferir sentido y finalidad a la existencia; aquellos pensadores, en fin, que comprenden que la ciencia misma, cuando no se halla inhibida por las limitaciones de su propia metodología, cuando es pura y humilde, concede al hombre una ilimitada jerarquía de todavía no soñadas consecuencias que pueden derivar de la misma.
Esta, colección aspira a señalar una realidad de cuya teoría científica sólo se ha revelado un aspecto. Es la sujeción a esta realidad la que presta proyección universal a los más originales y aislados pensamientos de los hombres de ciencia. Reconociendo paladinamente este concepto, reintegraremos la ciencia a la gran familia de las aspiraciones humanas mediante las cuales los hombres esperan realizarse, por sí mismos, en la comunidad universal como seres pensantes y conscientes. Porque nuestro problema consiste en descubrir un principio de diferenciación y a la vez de cohesión, lo suficientemente lúcido como para justificar y purificar el conocimiento científico, filosófico y aun cualquier otro, tanto discursivo como intuitivo, aceptando su interdependencia. Esta es la crisis de la comprensión consciente que se ha ido articulando a través de la crisis de la ciencia. Este es el nuevo despertar.
Cada volumen presenta el pensamiento y las creencias de su autor, y señala el rumbo en el cual la religión, la filosofía, el arte, la ciencia, la economía, la política y la historia pueden constituir esa forma de actividad humana que toma en cuenta las más completas y más precisas variedades, posibilidades, complejidades y dificultades. De este modo, Perspectivas del mundose esfuerza por definir el poder ecuménico de la inteligencia y del corazón, que capacita al hombre, a través de su misteriosa grandeza, para volverá crear su vida.
Se propone esta Serie reexaminar todos aquellos aspectos del esfuerzo humano de los cuales el especialista había aprendido a pensar que podía prescindir impunemente. Interpreta acontecimientos actuales y pasados que inciden sobre la vida humana en una época que, como la nuestra, tiende cada vez más a la universalidad, y encara lo que el hombre puede conseguir todavía, cuando un impulso interior invencible lo alienta a la búsqueda de lo que hay en él de más alto. Su finalidad es ofrecer enfoques nuevos de la evolución del mundo y del hombre, pero negándose siempre a traicionar la vinculación entrañable entre universalidad e individualidad, entre energía y forma, entre libertad y predestinación. Cada autor va realizando su obra con la creciente convicción de que espíritu y materia no son elementos separados y aparte; que la intuición y la razón deben recobrar su importancia como los medios de percibir y fundir lo que vive en nuestro interior con la realidad exterior.
Perspectivas del mundo intenta demostrar que la concepción de totalidad, unidad, organismo es una más alta y más concreta concepción que la de materia y energía. De este modo, nos empeñamos por dar en esta Serie un sentido ampliado de la vida, de la biología, no tal como ha sido revelado en el tubo de ensayo del laboratorio, sino tal como se lo experimenta dentro del propio organismo de vida. Porque el principio de vida consiste en la tensión que conecta lo espiritual con el reino de la materia. El elemento vital tiene caracteres dominantes en la íntima contextura de la naturaleza, por lo cual la vida, la biología, se vuelve una ciencia más allá de lo empírico. Las leyes de la vida tienen su origen más allá de sus simples manifestaciones físicas y nos compelen a considerar su fuente espiritual. En realidad, el ensanchamiento del marco conceptual no ha servido solamente para restaurar el orden en las respectivas ramas del conocimiento, sino que también ha revelado analogías en la posición del hombre respecto del análisis y la síntesis de la experiencia en dominios aparentemente separados del intelecto, sugiriendo la posibilidad de una descripción del significado de la existencia de contornos todavía más dilatados.
El conocimiento, como se demuestra en estos libros, no consiste ya en una mera manipulación del hombre y la naturaleza como fuerzas antagónicas, ni en la reducción de los hechos a un mero orden estadístico, sino que es un medio de liberar a la humanidad del poder destructor del medio, señalando el camino hacia la rehabilitación de la voluntad humana y el renacimiento de la fe y de la confianza en la persona humana. Las obras publicadas intentan mostrar, asimismo, que la demanda de esquemas, sistemas y autoridades se va haciendo menos insistente a medida que aumenta en Oriente y Occidente el anhelo de recuperar la dignidad, la integridad y la autodeterminación: derechos inalienables del hombre, que ahora podrá orientar el cambio mediante el designio consciente, y a la luz de la experiencia racional.
Otras de las cuestiones vitales exploradas se refieren a problemas de entendimiento internacional o de prejuicios entre los pueblos, con las tensiones y los antagonismos consiguientes. La visión y la responsabilidad crecientes de nuestra época apuntan a la nueva realidad de que la persona individual y la persona colectiva se integran y complementan entre sí; de modo que la esclavitud totalitaria, tanto de derecha como de izquierda, ha sido sacudida por la aspiración universal de reconquistar la autoridad de la verdad y la unidad humana. La humanidad puede por fin poner su esperanza, no ya en un autoritarismo proletario ni en un humanismo secularizado, que han traicionado igualmente el derecho de propiedad espiritual de la historia, sino en una fraternidad sacramental y en la unidad del conocimiento. Esta nueva conciencia ha producido un ensanchamiento de los horizontes humanos que trasciende todo sectarismo, y una revolución en el pensamiento humano, comparable a la premisa básica, de la soberanía de la razón entre los antiguos griegos; similar a la gran irradiación de la conciencia moral articulada por los profetas hebreos; análoga a los enunciados fundamentales del cristianismo; o a la alborada de una nueva era científica, la era de la ciencia de la dinámica, cuyos fundamentos experimentales formuló Galileo en el Renacimiento.
Uno de los esfuerzos importantes de esta Serie consiste en reconsiderar las acepciones y aplicaciones contradictorias que se dan hoy a términos tales como democracia, libertad, justicia, amor, paz, fraternidad y Dios. Y estas investigaciones responden al propósito de despejar el camino para la fundación de una auténtica historia universal no ya en términos de nación, de raza o de cultura, sino en los términos del hombre en sus relaciones con Dios, consigo mismo, con sus semejantes y con el universo, más allá de todo interés inmediato y egoísta. Porque el sentido de esta Edad Mundial consiste en el respeto de las esperanzas y los sueños del hombre; respeto que conduce a una comprensión más profunda de los valores fundamentales de todos los pueblos.
Perspectivas del mundo es una colección que intenta penetrar en el sentido verdadero del hombre, sentido no sólo determinado por la historia, sino que a su vez la determina. Y la historia, según aquí se la concibe, no se ocupa sólo de la vida del hombre sobre nuestro planeta, sino también de las influencias cósmicas que actúan en nuestro mundo humano.
Nuestra generación está descubriendo que la historia no se somete al optimismo social de la moderna civilización; y que la organización de las comunidades humanas y el establecimiento de la libertad y la paz no son solamente realizaciones intelectuales sino realizaciones de orden espiritual y moral, que exigen el cultivo integral de la personalidad humana, la “inmediata integridad de sentimiento y pensamiento” y acucian interminablemente al hombre para hacerlo salir del abismo de su insensatez y de sus padecimientos a fin de que se renueve y se reconstruya en la plenitud de su vida.
La justicia misma, que ha padecido un “estado de peregrinación y de crucifixión”, y ahora está siendo liberada poco a poco de las garras de la demonología social y política, en el Este como en el Oeste, empieza a sentar sus propias premisas. Los modernos movimientos revolucionarios que han desafiado a las sagradas instituciones de la sociedad, protegiendo a la injusticia social en nombre de la justicia social, son examinados y revaluados.
A la luz de este punto de vista, no tenemos otra alternativa que admitir que la servidumbre, con la cual la libertad es medida, debe ser mantenida con ella, es decir, que el aspecto de la verdad fuera del cual parece emerger la noche, la oscuridad de nuestro tiempo, es tan poco renunciable como el progreso subjetivo del hombre. De este modo, las dos fuentes de la conciencia del hombre son inseparables, no como un aspecto inerte sino como un aspecto viviente y complementario, un aspecto de aquel principio de complementariedad mediante el cual Niels Bohr ha buscado unir el cuanto y la onda, que constituyen la verdadera fábrica de radiante energía vital.
Existe hoy en la humanidad una fuerza contraria a la esterilidad y al peligro de la cultura cuantitativa y anónima de la masa; un sentido espiritual nuevo, aunque a veces imperceptible, de convergencia hacia la unidad del mundo, basada en el carácter sagrado de cada persona humana y en el respeto por la pluralidad de las culturas. Hay una conciencia, creciente de que la igualdad y la justicia no pueden evaluarse en simples términos numéricos, ya que son en su realidad proporcionales y analógicas. Porque cuando la igualdad es equiparada con lo intercambiable, la individualidad es negada y la personalidad humana aniquilada.
Estamos en el umbral de una era del mundo en la cual la vida humana se empeña en realizar formas nuevas. Reconocida la falsedad de la división entre hombres y naturaleza, tiempo y espacio, libertad y seguridad, nos enfrentamos con una imagen nueva del hombre en su unidad orgánica, y una visión nueva de la historia que le atribuye una riqueza y variedad de contenido, y una magnitud de alcances sin precedentes hasta ahora. Al vincular la sabiduría acumulada por el espíritu del hombre, a la realidad de la Edad Mundial, articulando su pensamiento con sus creencias, Perspectivas del mundo trata de estimular un renacimiento de esperanza en la sociedad, y de altivez en la decisión del hombre para determinar su destino.
Perspectivas del mundo abriga, la convicción de que todos los grandes cambios son precedidos por una vigorosa reorganización y revaluación intelectual. Nuestros autores están informados de que el pecado de hybris puede ser evitado demostrando que el proceso creador mismo no es tan libre actividad si por libre actividad entendemos actividad arbitraria, o no relacionada con las leyes cósmicas. Porque el proceso creador en la mente humana, el proceso evolucionista en la naturaleza orgánica y las leyes básicas del reino inorgánico no pueden ser sino variadas expresiones de un proceso formativo universal. De este modo, Perspectivas del mundo espera demostrar que aunque el presente período apocalíptico es de excepcional tensión, hay también en acción un excepcional movimiento hacia una unidad compensadora que rehúsa violar el poder fundamental que rige en el universo, el verdadero poder del cual todo esfuerzo humano debe depender finalmente. De esta manera podemos llegar a comprender que existe una independencia esencial del desarrollo espiritual y mental que, aunque está condicionado por circunstancias, jamás es determinado por las circunstancias. Así, la gran plétora de conocimientos humanos puede estar correlacionada con un discernimiento en la índole de la naturaleza humana armonizándose con el dilatado y profundo campo de actividad del pensamiento humano y de la humana experiencia.
A despecho de la infinita obligación del hombre y de su poder finito; a despecho de la intransigencia de los nacionalismos; del desvalimiento espiritual y de la profanación moral; por debajo del aparente torbellino y el caos del presente y extrayendo de las trasformaciones de este dinámico período la revelación de una conciencia de unidad universal, el propósito de Perspectivas del mundo es contribuir a reanimar “el corazón inmóvil de la verdad perfecta” e interpretar los elementos significativos de esta Edad Mundial que se está configurando actualmente en la continuidad ininterrumpida del proceso creador que reintegra el hombre a la humanidad, ahondando y fortaleciendo su comunión con el universo.
Ruth Nanda Anshen
Nueva York, 1958.
Capítulo 1
Tradición antigua y tradición moderna
Cuando se habla hoy de física moderna, en lo primero que se piensa es en las armas atómicas. Todos comprenden la enorme influencia de estas armas en la estructura política de nuestro mundo actual, y no resulta difícil admitir que la influencia de la física sobre la situación general es más grande que la que en cualquier otra época ha tenido. Pero ¿es realmente el aspecto político el más importante de la física moderna? Cuando el mundo haya ajustado su estructura política a las nuevas posibilidades técnicas ¿qué quedará, entonces, de la influencia de la física moderna?
Para contestar estas preguntas, debe tenerse presente que toda herramienta lleva consigo el espíritu con que ha sido creada. Puesto que todas las naciones y todos los grupos políticos habrán de estar interesados en las nuevas armas, independientemente del lugar y de las tradiciones culturales, el espíritu de la física moderna penetrará en las mentes de mucha gente, y se relacionará de diferentes maneras, con tradiciones más antiguas. ¿Cuál será el resultado de este impacto de una rama especial de la ciencia sobre antiguas y poderosas tradiciones? En aquellas partes del mundo en las que se ha desarrollado la ciencia moderna, el interés principal se ha centrado, desde hace mucho tiempo, en actividades prácticas, industria e ingeniería, combinadas con el análisis racional de las condiciones externas e internas de esas actividades. A la gente de esos países le será relativamente fácil hacer frente a las nuevas ideas, puesto que han tenido tiempo de adaptarse lenta y gradualmente a los métodos científicos del pensamiento moderno. En otras partes del mundo, estas ideas habrán de confrontarse con los fundamentos religiosos y filosóficos de la cultura local. Ya que los resultados de la física moderna afectan conceptos fundamentales, como los de realidad, espacio y tiempo, la confrontación puede conducir a desarrollos enteramente nuevos que no pueden preverse. Un rasgo característico de este encuentro entre la ciencia moderna y sistemas de pensamiento, más antiguos, será su internacionalismo. En este intercambio de ideas, una de las partes, la vieja tradición, será diferente en cada región del mundo, pero la otra será la misma en todas partes, y por lo tanto los resultados de este intercambio se desparramarán sobre todas las áreas en que tengan lugar estas discusiones.
Por tal razón, puede no ser una tarea insignificante tratar de discutir estas ideas de la física moderna en un lenguaje no demasiado técnico, estudiar sus consecuencias filosóficas, y compararlas con algunas de las tradiciones antiguas.
La mejor manera de enfrentar los problemas de la física moderna quizá sea mediante una descripción histórica del desarrollo de la teoríacuántica. Es verdad que la teoría de los quanta o cuantos es sólo un pequeño sector de la física atómica, y ésta a su vez es sólo una pequeña parte de la ciencia moderna. Sin embargo, es en la teoría del cuanto donde se han producido los cambios más fundamentales con respecto al concepto de realidad, y es en la forma final de esta teoría cuántica donde las nuevas ideas de la física moderna se han concentrado y cristalizado.
El equipo experimental necesario para la investigación en el campo de la física nuclear, enorme y extremadamente complicado, representa otro de los aspectos impresionantes de esta parte de la ciencia moderna. Pero con respecto a la técnica experimental, la física nuclear representa la extensión de un método de investigación que ha determinado el crecimiento de la ciencia moderna desde Huygens o Volta o Faraday. De manera similar, la desalentadora complicación matemática de algunas partes de la teoría cuántica, puede considerarse las últimas consecuencias de los métodos de Newton o Gauss o Maxwell. Pero el cambio en el concepto de realidad que se manifiesta en la teoría de los quanta no es una simple continuación del pasado; parece ser una verdadera ruptura en la estructura de la ciencia moderna. Por lo tanto, el primero de los capítulos siguientes, será dedicado al estudio del desarrollo histórico de la teoría del cuanto.
Capítulo 2
La historia de la teoría cuántica
El origen de la teoría cuántica está vinculado con un fenómeno bien conocido que no pertenece a la parte esencial de la física atómica. Cuando se calienta un trozo de materia, éste comienza a tomarse candente, y llega al rojo blanco a altas temperaturas. El color no depende mucho de la superficie del material, y para un cuerpo negro depende sólo de la temperatura. Por lo tanto, la radiación emitida por tal cuerpo a altas temperaturas es un tema adecuado para la investigación física: es un fenómeno simple que debería explicarse en base a las leyes conocidas de la radiación y el calor. Sin embargo, los intentos efectuados a fines del siglo diecinueve por Jeans y Lord Rayleigh fallaron, y pusieron de manifiesto serias dificultades. No sería posible describir aquí estas dificultades en palabras sencillas. Baste saber que la aplicación de las leyes conocidas no conducía a resultados razonables. Cuando en 1895, Planck comenzó a trabajar en este tema, trató de trasformar el problema de la radiación en el problema del átomo radiante. Esta trasformación no eliminaba ninguna de las dificultades fundamentales, pero simplificaba la interpretación de los datos empíricos. En esa misma época, durante el verano de 1900, Curlbaum y Rubens hicieron en Berlín nuevas mediciones muy exactas del espectro de la radiación térmica. Cuando Planck conoció esos resultados, trató de representarlos mediante fórmulas matemáticas sencillas que resultaran compatibles con sus investigaciones acerca de la relación entre calor y radiación. Un día, Rubens fue a tomar el té a casa de Planck, y ambos compararon las últimas conclusiones de aquél con la nueva fórmula sugerida por Planck. Este fue el descubrimiento de la ley de Planck de radiación calórica.
Al mismo tiempo, éste fue, para Planck el comienzo de un intenso trabajo de investigación teórica. ¿Cuál era la correcta interpretación física de la nueva fórmula? Puesto que a partir de sus primeros trabajos Planck pudo traducir fácilmente su fórmula en una afirmación acerca del átomo radiante (llamado el oscilador), pronto debió haber encontrado que su fórmula parecía indicar que el oscilador sólo podía poseer cantidades discretas de energía [1] Este resultado era tan diferente de todo lo que se conocía en física clásica, que seguramente él debió haberse rehusado a aceptarlo en un principio. Pero en momentos del trabajo más intenso, durante el mismo verano de 1900, se convenció finalmente de que no había forma de escapar a esta conclusión. Cuenta el hijo de Planck, que en un largo paseo por el Grunewald, parque de las afueras de Berlín, su padre le habló de sus nuevas ideas. Durante el paseo, le explicó que pensaba haber hecho un descubrimiento de gran importancia, comparable, quizá, con los descubrimientos de Newton. De modo que Planck debió haber comprendido, ya en esa época, que su fórmula afectaba los fundamentos de nuestra descripción de la naturaleza, y que estos fundamentos habrían de comenzar, algún día, a moverse de su actual situación tradicional hacia una nueva posición, aún desconocida, de estabilidad. A Planck, que tenía todo el aspecto de un conservador, no le gustaban nada estas consecuencias; pero publicó su hipótesis del cuanto en diciembre de 1900.
La idea de que la energía sólo podía ser emitida o absorbida en cuantos discretos de energía era tan nueva que no se la podía incorporar a la estructura tradicional de la física. Un intento de Planck de conciliar su hipótesis con las antiguas leyes de radiación, falló en sus puntos más importantes. El próximo paso en la nueva dirección tardó cinco años en darse.
Esta vez fue el joven Albert Einstein, un genio revolucionario, el que no temió avanzar apartándose de los viejos conceptos. Había dos problemas en los cuales pudo hacer uso de las nuevas ideas. Uno era el llamado efecto fotoeléctrico: la emisión de electrones por los metales bajo la influencia de la luz. Las experiencias, especialmente las de Lenard, mostraban que la energía de los electrones emitidos no dependía de la intensidad de la luz, sino solamente de su color, o con más precisión, de su frecuencia. Esto no se podía entender sobre la base de la teoría tradicional de la radiación. Einstein pudo explicar las observaciones interpretando que la hipótesis de Planck asevera que la luz consiste en cuantos de energía que atraviesan el espacio. La energía de un cuanto de luz debía ser, de acuerdo con las suposiciones de Planck, igual a la frecuencia de la luz multiplicada por la constante de Planck.
El otro problema era el del calor específico de los cuerpos sólidos. La teoría tradicional conducía a valores del calor específico que se ajustaban a las observaciones a altas temperaturas, pero que no se ajustaban a las observaciones a temperaturas bajas. Nuevamente, Einstein pudo demostrar que se podía comprender este comportamiento aplicando la hipótesis cuántica a las vibraciones elásticas del átomo del cuerpo sólido. Estos dos resultados significaron un notable avance, puesto que revelaron la existencia del cuanto de acción de Planck —como acostumbran los físicos a llamar su constante— en varios fenómenos que no se relacionaban directamente con la radiación de calor. Revelaban, al mismo tiempo, el carácter profundamente revolucionario de las nuevas hipótesis, ya que la primera de ellas conducía a una descripción de la luz completamente diferente de la imagen ondulatoria tradicional. Podía interpretarse que la luz consistía, bien en ondas electromagnéticas, según la teoría de Maxwell, bien en cuantos de luz, paquetes de energía que atraviesan el espacio con la velocidad de aquélla. ¿Pero podía consistir en ambas cosas? Einstein sabía, naturalmente, que los fenómenos bien conocidos de difracción e interferencia sólo podían explicarse sobre la base de la imagen ondulatoria. No podía refutar la contradicción que existía entre esta imagen ondulatoria y la idea de cuantos de luz; y no intentó siquiera eliminar la inconsistencia de su interpretación. Tomó, simplemente, la contradicción como algo que quizá habría de entenderse sólo mucho más tarde.
Mientras tanto, los experimentos de Becquerel, Curie y Rutherford habían clarificado, en cierta medida, el conocimiento de la estructura del átomo. En 1911, las observaciones de Rutherford sobre la interacción de los rayos alfa al pasar a través de la materia lo condujeron a su famoso modelo de átomo: un núcleo, cargado positivamente, y que contiene casi toda la masa del átomo, y electrones, que giran alrededor del núcleo como planetas alrededor del sol. El vínculo químico entre átomos de elementos diferentes se explica por la interacción de electrones exteriores de átomos vecinos; nada tiene que ver con los núcleos. El núcleo determina el comportamiento químico del átomo por su carga, la que, a su vez, fija el número de electrones del átomo neutro. Inicialmente, este modelo de átomo no conseguía explicar la característica más notable del átomo: su enorme estabilidad. Ningún sistema planetario que siguiera las leyes de la mecánica de Newton volvería jamás a su configuración inicial después de una colisión con un sistema semejante, pero un átomo de carbón, por ejemplo, seguirá siendo un átomo de carbón aun después de cualquier colisión o interacción por vinculación química.
La explicación de esta extraña estabilidad la dio Bohr en 1913, con la aplicación de la hipótesis del cuanto, de Planck. Si el átomo sólo puede cambiar su energía en cuantos discretos, esto debe significar que el átomo sólo puede existir en estados estacionarios discretos, el más bajo de los cuales es su estado normal. Por lo tanto, después de una interacción cualquiera, el átomo volverá finalmente, siempre, a su estado normal.
Con esta aplicación de la teoría cuántica al modelo de átomo, Bohr pudo no solamente explicar la estabilidad del átomo, sino también, en algunos casos simples, dar una interpretación teórica de las líneas de los espectros emitidos por los átomos excitados por descargas eléctricas o calor. Su teoría se apoyaba en una combinación de mecánica clásica para el movimiento de los electrones con condiciones cuánticas impuestas para definir los estados estacionarios del sistema. Sommerfeld dio, más tarde, una formulación matemática consistente de estas condiciones. Bohr sabía bien que las condiciones cuánticas estropeaban en cierto modo la consistencia de la mecánica de Newton. En el caso sencillo del átomo de hidrógeno se pudieron calcular, con la hipótesis de Bohr, las frecuencias de la luz emitida por el átomo, y la coincidencia con las observaciones fríe perfecta. Sin embargo, estas frecuencias eran diferentes de las frecuencias de rotación del electrón en su órbita alrededor del núcleo y de sus armónicas, y este hecho mostraba que la teoría estaba aún llena de contradicciones. Pero contenía una parte esencial de verdad. Explicaba cualitativamente el comportamiento químico de los átomos y sus espectros lineales; la existencia de estados estacionarios discretos fue verificada por las experiencias de Franck y Hertz, Stern y Gerlach.
La teoría de Bohr había abierto una nueva ruta de investigación. La gran cantidad de material experimental recogido durante varias décadas estaba ahora disponible como información acerca de las extrañas leyes cuánticas que gobiernan el movimiento de los electrones en el átomo. Muchos experimentos químicos podían usarse con el mismo propósito. Desde esta época, los físicos aprendieron a formularse las preguntas correctas; y hacer la pregunta adecuada es frecuentemente más de medio camino hacia la solución del problema.
¿Cuáles eran esas preguntas? Prácticamente todas estaban relacionadas con las extrañas contradicciones aparentes entre resultados de diferentes experimentos. ¿Cómo puede ser que la misma radiación que produce interferencia, y que por lo tanto debe consistir en ondas, produzca también el efecto fotoeléctrico, y en consecuencia deba consistir en partículas móviles? ¿Cómo es posible que la frecuencia del movimiento planetario del electrón en el átomo no se ponga de manifiesto en la frecuencia de la radiación emitida? ¿Significa esto que no existe tal movimiento planetario? Pero si la idea de ese tipo de movimiento es incorrecta, ¿qué les sucede a los electrones dentro del átomo? Se puede ver el movimiento de los electrones en una cámara de niebla, y, a veces, cómo se produce una colisión con un átomo; ¿por qué no se habrían de mover también dentro del átomo? Es verdad que podrían estar en reposo en el estado normal del átomo, el estado de mínima energía. Pero hay muchos estados de mayor energía, en los que la corteza de electrones tiene cierta cantidad de movimiento angular. Por lo tanto, el electrón no puede estar en reposo. Se pueden agregar muchos ejemplos similares. Una y otra vez nos encontramos con que el intento de describir los acontecimientos atómicos en los términos tradicionales de la física, nos conduce a contradicciones.
Gradualmente, en los años que siguieron a 1920, los físicos se fueron acostumbrando a estas dificultades; adquirieron un vago sentido de dónde se habrían de producir las dificultades, y aprendieron a evitar las contradicciones. Sabían qué descripción de un acontecimiento atómico habría de ser la correcta para la experiencia especial en discusión. Esto no era suficiente para presentar un cuadro de conjunto consistente de lo que sucede en un proceso cuántico, pero hizo cambiar de criterio a los físicos de modo de hacerles aceptar, en cierta manera, el espíritu de la teoría cuántica. Por lo tanto, aun algún tiempo antes de formularse de manera coherente la teoría cuántica, se sabía más o menos cuál habría de ser el resultado de cualquier experimento.
Se discutía frecuentemente lo que se llaman experimentos ideales. Tales experimentos tenían por objeto contestar preguntas críticas independientemente de la posibilidad de llevarlos a cabo. Por supuesto, era importante que, en principio, fuera posible realizar el experimento, pero la técnica podía ser extremadamente complicada. Estos experimentos ideales podían ser muy útiles para aclarar algunos problemas. Si no había acuerdo entre los físicos acerca del resultado de tales experimentos ideales, era posible, frecuentemente, encontrar un experimento similar pero, más simple, que pudiera llevarse a cabo, de manera que la respuesta experimental contribuyera a la aclaración de la teoría cuántica.
La más extraña de las experiencias de aquellos años fríe que las paradojas de la teoría cuántica no desaparecían durante el proceso de clarificación; al contrario, se tomaban aún más agudas y más excitantes. Estaba, por ejemplo, el experimento de Compton sobre la dispersión de rayos X. Desde los primeros experimentos sobre interferencia por dispersión de la luz, no se pudo dudar que la dispersión se producía, esencialmente, de la siguiente manera: la onda de luz incidente hace vibrar a un electrón que encuentra el rayo, con la frecuencia de la onda; el electrón oscilante emite, entonces, ondas esféricas con la misma frecuencia, y produce, por tanto, la dispersión de la luz. Sin embargo, Compton encontró en 1923 que la frecuencia de los rayos X de dispersión, era distinta de la del rayo incidente. Podía entenderse formalmente este cambio de frecuencia suponiendo que la dispersión consistía en la colisión de un cuanto de luz con un electrón. La energía del cuanto de luz se modifica durante el choque; y como la frecuencia multiplicada por la constante de Planck es la energía del cuanto de luz, la frecuencia también debía modificarse. Pero ¿qué sucede en esta interpretación con la onda luminosa? Las dos experiencias, una la de interferencia por dispersión y la otra sobre el cambio de frecuencia, parecían contradecirse mutuamente sin ninguna posibilidad de acuerdo.
En esta época, muchos físicos se habían convencido de que estas contradicciones aparentes pertenecían a la estructura intrínseca de la física atómica. Por lo tanto, en 1924, de Broglie intentó, en Francia, extender el dualismo entre ondas y partículas, a las partículas elementales de materia, especialmente al electrón. Demostró que a un electrón en movimiento, le correspondía cierta onda de materia, del mismo modo que una onda de luz corresponde a un cuanto de luz en movimiento. No era claro, en ese tiempo, el significado de la palabra corresponder, en esa relación. Pero de Broglie sugirió que la condición cuántica en la teoría de Bohr debiera ser interpretada como una afirmación acerca de ondas de materia. Una onda alrededor de un núcleo sólo puede ser, por razones geométricas, una onda estacionaria; y el perímetro de la órbita debe ser un múltiplo entero de la longitud de la onda. De esta manera, la idea de de Broglie relacionaba la condición cuántica, que siempre había sido un elemento formal en la mecánica del electrón, con el dualismo entre ondas y partículas.
En la teoría de Bohr, la discrepancia entre la frecuencia orbital del electrón calculada, y la frecuencia de la radiación emitida, debía ser interpretada como una limitación del concepto de órbita electrónica. Este concepto había sido algo dudoso desde el comienzo. En las órbitas más altas, sin embargo, los electrones debían moverse a gran distancia del núcleo, del mismo modo que se los ve mover en una cámara de niebla. Allí se podría hablar de órbita electrónica. Era, por lo tanto, muy satisfactorio, que en esas órbitas las frecuencias de la radiación emitida se aproximaran a la frecuencia orbital y a sus armónicas más elevadas. También había sugerido ya Bohr, en sus primeros artículos, que las intensidades de las líneas espectrales emitidas se aproximaban a las intensidades de las correspondientes armónicas. Este principio de correspondencia había demostrado ser muy útil para el cálculo aproximado de la intensidad de las líneas espectrales. De esta manera, podía tenerse la impresión de que la teoría de Bohr proporcionaba una descripción cualitativa, y no cuantitativa, de lo que sucede dentro del átomo; que algún nuevo aspecto del comportamiento de la materia se expresaba cualitativamente con las condiciones cuánticas, el cual, a su vez, se relacionaría con el dualismo entre ondas y partículas.
La formulación matemática precisa de la teoría cuántica emergió, finalmente, de dos desarrollos diferentes. Uno, partió del principio de correspondencia, de Bohr. Había que abandonar el concepto de órbita del electrón, pero se lo debía mantener, no obstante, en el límite de los grandes números cuánticos (órbitas grandes). En estos casos, la radiación emitida, por medio de sus frecuencias e intensidades, da una imagen de la órbita del electrón; representa lo que los matemáticos llaman un desarrollo de Fourier de la órbita. Era como si se debiese escribir las leyes mecánicas, no con ecuaciones entre las velocidades y posiciones del electrón, sino entre las frecuencias y amplitudes de su desarrollo en series de Fourier. Partiendo de tales ecuaciones, y con muy poco cambio, podía esperarse llegar a relaciones entre esas cantidades que correspondieran a frecuencias e intensidades de la radiación emitida, aun para órbitas pequeñas, y para el estado normal del átomo. Este plan se llevó, efectivamente, a cabo. En el verano de 1925 condujo a un formalismo matemático llamado mecánica de las matrices o, más genéricamente, mecánica cuántica. Las ecuaciones del movimiento de la mecánica de Newton frieron reemplazadas por ecuaciones similares entre matrices. Fue una experiencia extraña ver cómo muchos de los resultados de la antigua mecánica, como conservación de la energía, etcétera, podían encontrarse también en el nuevo esquema. Más tarde, las investigaciones de Born, Jordán y Dirac demostraron que las matrices que representan la posición y la cantidad de movimiento del electrón, no pueden intercambiarse. Este último hecho demuestra claramente la esencial diferencia entre mecánica cuántica y mecánica clásica.
El otro desarrollo siguió la idea de de Broglie acerca de ondas de materia. Schrödinger trató de establecer una ecuación ondulatoria para las ondas estacionarias de de Broglie, alrededor del núcleo. Primeramente, en 1926, acertó a deducir los valores de la energía de los estados estacionarios del átomo de hidrógeno, como valores propios de su ecuación ondulatoria, y pudo dar una norma más general para trasformar un sistema de ecuaciones clásicas de movimiento en una ecuación ondulatoria correspondiente, en un espacio de muchas dimensiones. Después, él mismo demostró que este formalismo de la mecánica ondulatoria era matemáticamente equivalente al de la ya conocida mecánica cuántica.
De manera que ya se disponía de un formalismo matemático coherente, al que se podía llegar por dos caminos diferentes, partiendo, bien de relaciones entre matrices, bien de ecuaciones ondulatorias. Este formalismo dio los valores exactos de la energía del átomo de hidrógeno; y en menos de un año se vio que también servía para el átomo de helio y los problemas tanto más complicados de los átomos más pesados. Pero ¿en qué sentido describía al átomo el nuevo formalismo? La paradoja del dualismo entre la imagen ondulatoria y la imagen corpuscular no había sido resuelta; quedaban un poco escondidas en el esquema matemático.
Un primer paso, muy interesante, hacia el entendimiento total de la teoría cuántica fue dado en 1924 por Bohr, Kramers y Slater.
Estos autores trataron de resolver la aparente contradicción entre la imagen ondulatoria y la corpuscular, mediante el concepto de onda de probabilidad. Las ondas electromagnéticas se interpretaban no como ondas reales sino como ondas de probabilidad, cuya intensidad determina, en cada punto, la probabilidad de absorción (o emisión inducida) de un cuanto de luz por parte de un átomo en ese punto. Esta idea condujo a la conclusión de que las leyes de conservación de la energía y de la cantidad de movimiento no necesitaban ser ciertas para un acontecimiento aislado, sino que son sólo leyes estadísticas, solamente exactas en un promedio estadístico. Esta conclusión no era correcta, sin embargo, y la relación entre el aspecto ondulatorio y el corpuscular resultaba aun más complicada.
Pero el artículo de Bohr, Kramers y Slater puso en evidencia un rasgo esencial de la interpretación correcta de la teoría cuántica. Este concepto de onda de probabilidad era algo enteramente nuevo en la física teórica desde Newton. Probabilidad, en matemáticas o en mecánica estadística, significa una afirmación acerca de nuestro grado de conocimiento de la situación real. Al arrojar los dados, no conocemos los detalles del movimiento de las manos que determinan la caída de aquéllos, y decimos, por lo tanto, que la probabilidad de obtener un número determinado es de uno en seis. La onda de probabilidad de Bohr, Kramers y Slater, sin embargo, significaba más que esto; significaba una tendencia hacia algo. Era una versión cuantitativa del viejo concepto de potentia de la filosofía de Aristóteles. Introducía algo situado a mitad de camino entre la idea de un acontecimiento y el acontecimiento real, una rara clase de realidad física a igual distancia de la posibilidad y la realidad.
Más tarde, cuando quedó fijada la estructura matemática de la teoría cuántica, Bohr retomó esta idea de probabilidad, y dio una clara definición de la cantidad matemática que, en el formalismo, debía ser interpretada como onda de probabilidad. No era una onda tridimensional como las electromagnéticas, o las elásticas, sino una onda en un espacio de configuración multidimensional, una cantidad matemática más bien abstracta, pues.
Aun en esta época, el verano de 1926, no era claro en cada caso, cómo debía usarse el formalismo matemático para describir una situación experimental dada. Se sabía describir los estados estacionarios del átomo, pero no un acontecimiento mucho más simple, como por ejemplo el movimiento del electrón en una cámara de niebla.
Cuando en aquel verano Schrödinger demostró que su formalismo de la mecánica ondulatoria era equivalente a la mecánica cuántica, trató, durante algún tiempo, de abandonar la idea de cuantos y de saltos cuantificados y de reemplazar los electrones del átomo por su onda de materia tridimensional. Lo alentaba a intentarlo el resultado encontrado por él: que los niveles de energía del átomo de hidrógeno parecían ser, con su teoría, simplemente las frecuencias propias de las ondas estacionarias de materia. Pensó, por lo tanto, que era un error llamarlas energía: eran simplemente frecuencias. Pero, en las discusiones que tuvieron lugar en Copenhague, en el otoño de 1926, entre Bohr y Schrödinger y el grupo de físicos de Copenhague, pronto resultó evidente que aquella interpretación no era suficiente ni siquiera para explicar la fórmula de radiación térmica, de Planck.
Durante los meses que siguieron a estas discusiones, un estudio intenso de todas las cuestiones concernientes a la interpretación de la teoría cuántica, realizado en Copenhague, condujo finalmente a una clarificación completa, y satisfactoria para muchos físicos, de la situación. Pero no fue una solución que pudiera aceptarse fácilmente. Recuerdo algunas discusiones con Bohr, que proseguían durante horas, hasta muy avanzada la noche, y que terminaban casi en desesperación; y, cuando salía después a caminar por el parque vecino, me repetía una y otra vez esta pregunta: “¿Es posible que la naturaleza sea tan absurda como se nos aparece a nosotros en estos experimentos atómicos?”.
Se llegó a la solución final por dos caminos distintos. Uno de ellos fue invertir los términos de la pregunta. En lugar de interrogamos : “¿Cómo puede expresarse una situación experimental dada con el esquema matemático conocido?” , debíamos formulamos esta pregunta: “¿Es cierto, quizá, que sólo pueden presentarse aquellas situaciones experimentales que pueden expresarse con el formalismo matemático?”. La suposición de que esto fuera efectivamente cierto conducía a limitaciones en el uso de los conceptos que habían constituido la base de la física clásica desde Newton. Podía hablarse de la posición y de la velocidad de un electrón, como en la mecánica de Newton, y podían observarse y medirse estas cantidades. Pero no podían fijarse ambas cantidades simultáneamente, con una exactitud arbitrariamente elevada. En realidad, el producto de estas dos inexactitudes resultó ser no menor que la constante de Planck dividida por la masa de la partícula. Relaciones similares podían formularse para otras situaciones experimentales. Usualmente se las llama relaciones de incertidumbre o principio de indeterminación [2].
Aprendimos, pues, que los viejos conceptos se ajustaban a la naturaleza sólo incorrectamente.
El otro camino de acceso fue el concepto de complementariedad, de Bohr. Schrödinger había descripto el átomo como un sistema formado no por un núcleo y electrones, sino por el núcleo y ondas de materia. Esta imagen de ondas de materia contenía también, por cierto, algún elemento de verdad. Bohr consideraba que las dos imágenes —ondulatoria y corpuscular— eran dos descripciones complementarias de la misma realidad. Cualquiera de esas descripciones sólo podía ser parcialmente verdad; debía haber limitaciones en el empleo del concepto de partícula, tanto como en el del concepto de onda; de otro modo era imposible evitar contradicciones. Tomando en cuenta estas limitaciones que pueden expresarse con las relaciones de incertidumbre, las contradicciones desaparecen.
De esta manera, desde la primavera de 1927 tenemos una interpretación coherente de la teoría cuántica, que suele designarse frecuentemente “interpretación de Copenhague”. Esta interpretación recibió su prueba crucial en el otoño de 1927, en la conferencia de Solvay, en Bruselas. Una y otra vez, aquellos experimentos que siempre habían conducido a las peores paradojas eran examinados cuidadosamente, especialmente por Einstein. Se idearon nuevos experimentos ideales para descubrir cualquier posible incoherencia de la teoría, pero ésta era consistente y se ajustaba a los experimentos, según lo que se podía ver.
Los detalles de esta interpretación de Copenhague serán tratados en el capítulo siguiente. Debe hacerse notar, en este punto, que había pasado un cuarto de siglo desde la primera idea de la existencia del cuanto de energía, hasta lograrse un verdadero entendimiento de las leyes de la teoría cuántica. Esto indica el gran cambio que debía introducirse en los conceptos fundamentales concernientes a la realidad antes de que pudiera comprenderse la nueva situación.
Capítulo 3
La interpretación de Copenhague de la teoría cuántica
La interpretación de Copenhague parte de una paradoja. Todo experimento de física, refiérase a fenómenos de la vida diaria o a acontecimientos atómicos, debe ser descripto en términos de la física clásica, con los cuales se forma el lenguaje usado para describir la organización de nuestras experiencias y para expresar sus resultados. No podemos, ni debemos reemplazar estos conceptos por otros. Sin embargo, su aplicación está restringida por las relaciones de incertidumbre. Debemos tener siempre presente esta limitación de los conceptos clásicos mientras los usamos, pero no podemos ni debemos tratar de mejorarlos.
Para comprender mejor esta paradoja, es conveniente comparar los procedimientos de interpretación teórica de una experiencia de física clásica y de otro de teoría cuántica. En la mecánica newtoniana, por ejemplo, podemos comenzar el estudio del movimiento de un planeta midiendo su velocidad y posición. Se traducen los resultados de la observación al lenguaje matemático, deduciendo números para las coordenadas y las cantidades de movimiento del planeta, a partir de los datos observados. Se emplean, entonces, las ecuaciones del movimiento, para deducir de aquellos valores de las coordenadas y cantidades de movimiento correspondientes a un instante dado, los valores de las coordenadas o cualquier otra propiedad del sistema en un momento posterior. De esta manera, el astrónomo puede pronosticar las propiedades del sistema correspondientes a cualquier instante futuro, por ejemplo, la hora exacta de un eclipse de luna.
En la teoría cuántica el procedimiento es ligeramente distinto. Podemos interesamos, por ejemplo, en el movimiento de un electrón en una cámara de niebla y podemos determinar, mediante algún tipo de observación, la posición y velocidad iniciales del electrón. Pero esta determinación no habrá de ser precisa; contendrá, por lo menos, las inexactitudes derivadas de las relaciones de incertidumbre, y probablemente otros errores mayores debidos a dificultades propias del experimento. Son las primeras inexactitudes las que nos permiten traducir los resultados de la observación al lenguaje matemático de la teoría cuántica. Se escribe una función de probabilidad que representa la situación experimental en el momento de la medición, incluyendo también los probables errores de medida.
Esta función de probabilidad representa una mezcla de dos cosas: en parte, un hecho, y en parte, nuestro conocimiento de un hecho. Representa un hecho en la medida en que asigna a la situación inicial la probabilidad uno (es decir, certidumbre completa) en el momento inicial: el electrón que se mueve con la velocidad observada, en la posición observada; “observada” significa observada dentro de la precisión del experimento. Representa nuestro conocimiento de un hecho, en la medida en que otro observador podría quizá conocer la posición del electrón con más exactitud. El error de la experiencia no representa, por lo menos hasta cierto punto, una propiedad del electrón sino una deficiencia, en nuestro conocimiento del electrón. Esta deficiencia de conocimiento también está contenida en la función de probabilidad.
En una investigación cuidadosa de física clásica, también deben considerarse los errores de observación. Como resultado, se obtendrá una distribución probabilística de los valores iniciales de las coordenadas y velocidades, de manera similar a la función de probabilidad de la teoría cuántica. Sólo que en física clásica faltará la incertidumbre necesaria, debida al principio de indeterminación.
Cuando se ha determinado, en física cuántica, la función de probabilidad, mediante la observación en el momento inicial, puede calcularse según las leyes de la teoría cuántica la función de probabilidad para un instante posterior, y puede determinarse, por lo tanto, la probabilidad de que una cantidad medida arroje un resultado establecido. Podemos pronosticar, por ejemplo, la probabilidad de encontrar el electrón en un instante dado en un determinado punto de la cámara de niebla. Debe hacerse notar, sin embargo, que la función de probabilidad no representa por sí misma una serie de acontecimientos en el trascurso del tiempo. Representa una tendencia hacia acontecimientos, y nuestro conocimiento de ellos. La probabilidad puede relacionarse con la realidad sólo si se cumple con una condición esencial: siempre que se efectúe una nueva medición para determinar una determinada propiedad del sistema. Sólo entonces la función de probabilidad nos permite calcular el probable resultado de la nueva medida. El resultado de la medición será establecido, otra vez, en términos de la física clásica.
Por lo tanto, la interpretación teórica de un experimento requiere tres etapas distintas: 1) la traducción de la situación experimental inicial en una función de probabilidad; 2) seguir esta función en el curso del tiempo; 3) el establecimiento de una nueva medición que habrá de hacerse, cuyo resultado puede ser calculado mediante aquella función. Para el primer paso, es condición necesaria el cumplimiento de las relaciones de incertidumbre. El segundo paso no puede ser descripto mediante conceptos clásicos; no existe descripción de lo que le sucede al sistema entre la observación inicial y la medición siguiente. Sólo en el tercer paso volvemos de lo que está “en potencia” a lo que está “en acto”.
Ilustraremos estas tres etapas con un experimento ideal. Se ha dicho que el átomo consiste en un núcleo y electrones que giran en tomo de él; también se ha manifestado que el concepto de órbita electrónica es dudoso. Podría argüirse que, al menos en principio, debiera ser posible ver al electrón moviéndose en su órbita. No se alcanzará semejante poder de definición con un microscopio común, ya que la inexactitud de la medida de la posición jamás podría ser menor que la longitud de onda de la luz. Pero un microscopio de rayos gama, los cuales tienen una longitud de onda menor que el tamaño del electrón, podría lograrlo. Tal microscopio no ha sido construido aún, pero esto no nos impide imaginar un experimento ideal.
¿Es posible la primera etapa, esto es, la traducción de la observación en una función de probabilidad? Es posible únicamente si se cumple la relación de incertidumbre después de la observación. La posición del electrón será conocida con una exactitud dada por la longitud de onda del rayo gama. El electrón podía haber estado prácticamente en reposo antes de la observación. Pero en el acto de la observación, por lo menos un cuanto de luz de los rayos gama debe haber pasado, habiendo sido desviado antes por el electrón. Por lo tanto, el electrón ha sido empujado por el cuanto de luz, y ha cambiado su cantidad de movimiento. Se puede demostrar que la indeterminación de este cambio es exactamente lo necesario para garantizar la validez de las relaciones de incertidumbre. No hay, pues, dificultad con la primera etapa.
Al mismo tiempo, puede verse fácilmente que no hay manera de observar la órbita del electrón alrededor del núcleo. La segunda etapa muestra un paquete de ondas moviéndose, no alrededor del núcleo, sino alejándose del átomo, por haber chocado el primer cuanto de luz con el electrón. La cantidad de movimiento del cuanto de luz del rayo gama es mucho más grande que la cantidad inicial del electrón, si la longitud de onda del rayo es mucho menor que la dimensión del átomo. Por lo tanto, el primer cuanto de luz es suficiente para expulsar al electrón del átomo, y jamás podrá observarse más que un punto en la órbita del electrón; no hay, pues, órbita en el sentido comente.
La observación siguiente —la tercera etapa— mostrará al electrón en su trayectoria alejándose del átomo. No hay manera de describir lo que ocurre entre dos observaciones consecutivas. Naturalmente, es tentador decir que el electrón debe de haber estado en algún lado entre las dos observaciones, y que, por lo tanto, debe de haber descripto algún tipo de trayectoria u órbita, aun en el caso en que resulte imposible llegar a conocerlas. Este sería un argumento razonable, en física clásica. Pero en la teoría cuántica, éste sería un abuso de lenguaje que, como veremos más adelante, no está justificado. Dejaremos en suspenso, por el momento, el establecer si esta advertencia se refiere a la manera en que se debe hablar acerca de acontecimientos atómicos, o si alude a los mismos hechos, es decir, si se refiere a la epistemología o a la ontología. De cualquier manera, debemos ser muy cautelosos acerca de los términos en que hablemos del comportamiento de las partículas atómicas.
En realidad, no necesitamos hablar de partículas. Para muchas experiencias es más conveniente hablar de ondas de materia, por ejemplo de ondas estacionarias alrededor del núcleo atómico. Tal descripción sería una contradicción directa de la otra descripción, si no se prestara atención a las limitaciones dadas por las relaciones de incertidumbre. Mediante las limitaciones se evita la contradicción. El uso de “ondas de materia” es conveniente, por ejemplo, al tratar de la radiación emitida por el átomo. Por medio de sus frecuencias e intensidades, la radiación proporciona información acerca de la distribución de la carga oscilante en el átomo, y entonces la imagen ondulatoria se acerca mucho más a la verdad que la imagen corpuscular. Por ello, Bohr recomendaba el uso de ambas imágenes, que él llama mutuamente “complementarias”. Las dos imágenes se excluyen mutuamente, ya que una determinada cosa no puede ser al mismo tiempo una partícula (es decir, sustancia confinada en un volumen restringido) y una onda (es decir, un campo que se extiende sobre un gran espacio), pero ambas se complementan entre sí. Bohr emplea el concepto de “complementariedad” en varias partes de la interpretación de la teoría cuántica. El conocimiento de la posición de una partícula es complementario del conocimiento de su velocidad o cantidad de movimiento. Si conocemos una de ellas con gran precisión, no podemos conocer la otra muy exactamente; y sin embargo debemos conocer ambas para definir el comportamiento del sistema. La descripción en el espacio-tiempo de un acontecimiento atómico, es complementaria de su descripción determinista. La función de probabilidad obedece a una ecuación de movimiento, como las coordenadas en la mecánica de Newton; su cambio en el curso del tiempo está completamente determinado por la ecuación de mecánica cuántica, pero no permite una descripción en el espacio-tiempo. La observación, por el otro lado, hace valer la descripción en el espacio y el tiempo, pero interrumpe la continuidad determinista de la función de probabilidad alterando nuestro conocimiento del sistema.
Generalmente, el dualismo entre dos descripciones diferentes de la misma realidad no es más una dificultad, ya que sabemos, por la formulación matemática de la teoría, que no pueden surgir contradicciones. El dualismo entre dos imágenes complementarias —ondas y partículas— también es puesto de manifiesto en la flexibilidad del esquema matemático. Normalmente, el formalismo se asemeja al de la mecánica newtoniana, con ecuaciones de movimiento para las coordenadas y las cantidades de movimiento de las partículas. Pero, mediante una simple trasformación, se lo puede presentar de manera que se asemeje a una ecuación de onda de materia, tridimensional. Por lo tanto, esta posibilidad de emplear diferentes imágenes complementarias tiene su analogía en las diferentes trasformaciones del esquema matemático; no conduce a dificultades, según la interpretación de Copenhague respecto de la teoría cuántica.
Una verdadera dificultad en la comprensión de esta interpretación se presenta cuando se formula la famosa pregunta: ¿Pero qué ocurre realmente en un acontecimiento atómico? Ya se ha dicho que el mecanismo y el resultado de una observación puede siempre ser expresado en términos de la física clásica. Pero lo que se deduce de una observación es una función de probabilidad, una expresión matemática que combina afirmaciones acerca de posibilidades o tendencias con afirmaciones sobre nuestro conocimiento de los hechos. De modo que no podemos objetivar completamente el resultado de una observación; no podemos describir lo qu e sucede entre esta observación y la siguiente. Esto suena como si hubiéramos introducido un elemento de subjetivismo en la teoría, como si dijéramos: lo que sucede depende del modo en que observemos, o del hecho mismo de que hagamos la observación. Antes de discutir este problema de subjetivismo, es necesario explicar con toda claridad por qué nos encontraríamos con dificultades insalvables si tratásemos de explicar lo que sucede entre dos observaciones consecutivas.
Con este objeto, es conveniente analizar el siguiente experimento ideal: supongamos que una pequeña fuente de luz monocromática envía un rayo de luz hacia una pantalla negra con dos agujeros. El diámetro de los agujeros puede no ser mucho mayor que la longitud de onda de la luz, pero la distancia entre ambos sí será mucho más grande. A cierta distancia, del otro lado de la pantalla, una placa fotográfica registra la luz incidente. Si se describe esta experiencia en términos de la imagen ondulatoria, puede decirse que la onda primaria penetra por los dos agujeros; habrá ondas esféricas secundarias que se interferirán entre sí, y la interferencia producirá un espectro de intensidad variable sobre la placa fotográfica.
El oscurecimiento de la placa es un proceso cuántico, una reacción química producida por cuantos de luz aislados. Por lo tanto, debe ser posible describir el experimento en términos corpusculares. Si fuera lícito decir lo que le sucede al cuanto de luz entre su emisión de la fuente luminosa y su absorción por la placa fotográfica, podría razonarse de esta manera: El cuanto de luz aislado puede llegar pasando por el primer agujero o por el segundo. Si pasa por el primero y es dispersado allí, la probabilidad de que llegue a ser absorbido en determinado punto de la placa no depende de que el otro agujero esté abierto o cerrado. La distribución de probabilidad sobre la placa será la misma que si el primero fuese el único agujero abierto. Si se repite el experimento muchas veces y se superponen todos los casos en los que el cuanto de luz ha pasado por el primer agujero, el oscurecimiento de la placa debido a estos casos corresponderá a la distribución de probabilidad. Si se consideran sólo los cuantos que llegan a través del segundo agujero, el oscurecimiento corresponderá a la distribución de probabilidad deducida de la suposición de que sólo este segundo agujero esté abierto. El oscurecimiento total, por lo tanto, será simplemente la suma de ambos oscurecimientos parciales; en otras palabras, no debiera haber espectro de interferencia. Pero sabemos que esto no es correcto, y que el experimento mostrará que este espectro existe. Por lo tanto, la afirmación de que un cuanto de luz debe pasar bien por un agujero, bien por el otro es problemática y conduce a contradicciones. Este ejemplo muestra claramente que el concepto de función de probabilidad no permite una descripción de lo que sucede entre dos observaciones. Todo intento de encontrar tal descripción conducirá a contradicciones; esto demuestra que el término sucede debe limitarse a la observación.
Ahora bien, este resultado es bien extraño, ya que parece sugerir que la observación desempeña un papel decisivo en el suceso y que la realidad varía, según la observemos o no. Para aclarar este punto debemos analizar más de cerca el proceso de observación.
Para comenzar, es importante que recordemos que en las ciencias naturales no nos interesa el universo en conjunto, incluidos nosotros mismos, sino que dirigimos nuestra atención hacia alguna parte del cosmos al cual hacemos objeto de nuestros estudios. En física atómica, esta parte suele ser un objeto pequeñísimo, una partícula atómica, o un grupo de tales partículas, a veces mucho más grande; el tamaño no es importante, lo que interesa es que una gran parte del universo, incluidos nosotros mismos, no pertenece al objeto.
Ahora bien, la interpretación teórica de un experimento parte de las dos etapas que han sido analizadas. En la primera debemos describir la organización del experimento, y eventualmente una primera observación, en términos de la física clásica, y traducirlos en una función de probabilidad. Esta función de probabilidad seguirá las leyes de la teoría cuántica, y sus trasformaciones en el curso del tiempo, que es continuo, pueden calcularse a partir de las condiciones iniciales; ésta es la segunda etapa. La función de probabilidad combina elementos objetivos y subjetivos. Contiene afirmaciones acerca de posibilidades, o mejor dicho tendencias (la potencia en la filosofía de Aristóteles), y estas afirmaciones son completamente objetivas, no dependen de ningún observador; y contienen afirmaciones acerca de nuestro conocimiento del sistema, las que, naturalmente, son subjetivas en la medida en que difieren según el observador. En casos ideales, el elemento subjetivo de la función de probabilidad puede llegar a ser prácticamente insignificante en comparación con el elemento objetivo. El físico habla, entonces, de un “caso puro”.
Cuando llegamos a la observación siguiente, cuyo resultado podrá ser pronosticado por la teoría, es muy importante comprender que nuestro objeto habrá de ponerse en contacto con el resto del mundo (el instrumental de medición, etc.) antes de la observación, o por lo menos en el mismo instante. Esto significa que la ecuación de movimiento para la función de probabilidad contiene ahora la influencia de la interacción con el aparato de medida. Esta influencia introduce un nuevo elemento de incertidumbre, ya que el aparato de medida debe ser necesariamente descripto en términos de la física clásica; tal descripción contiene todas las incertidumbres propias de la estructura microscópica del instrumento, que conocemos por la termodinámica; y puesto que el instrumento está conectado con el resto del mundo, contiene, de hecho, las incertidumbres de la estructura microscópica del mundo entero. Estas incertidumbres pueden ser llamadas objetivas en tanto que sean simplemente una consecuencia de la descripción en término clásicos, y no dependan del observador. Pueden ser llamadas subjetivas en la medida en que se refieren a nuestro incompleto conocimiento del mundo.
Después de esta interacción, la función de probabilidad contiene el elemento objetivo correspondiente a la “tendencia”, y el subjetivo del conocimiento incompleto, aun en el caso de que haya sido hasta entonces un “caso puro”. Por esta razón, el resultado de la observación no puede, generalmente, ser pronosticado con certeza; lo que se puede predecir es la probabilidad de obtener cierto resultado de la observación, y esta afirmación acerca de la probabilidad puede ser verificada repitiendo la experiencia muchas veces. A diferencia de lo que ocurre en mecánica newtoniana, la función de probabilidad no describe un acontecimiento determinado, sino un conjunto de posibles sucesos.
La misma observación introduce en la función de probabilidad un cambio discontinuo; selecciona, de entre todos los acontecimientos posibles, el que efectivamente ha tenido lugar. Dado que nuestro conocimiento del sistema ha cambiado discontinuamente, por la observación, su representación matemática también sufrirá un cambio discontinuo, y hablamos entonces de un “salto cuántico”. Cuando el viejo adagio Natura non facit saltus se emplea como crítica de la teoría cuántica, podemos responder que nuestro conocimiento puede cambiar repentinamente, por cierto; y esto es lo que justifica el uso del término “salto cuántico”.
Por consiguiente, la transición de lo “posible”, a lo que está “en acto”, se produce en el momento de la observación. Si queremos describir lo que sucede en un acontecimiento atómico, debemos comprender que el término “sucede” sólo puede aplicarse a la observación, no al estado de cosas entre dos observaciones. Se aplica al acto físico (no al psíquico) de la observación, y podemos decir que la transición entre la “potencia” y el “acto” tiene lugar tan pronto como se produce la interacción entre el objeto y el instrumento de medida, y, con ello, el resto del mundo; no se relaciona con el acto de registrar el resultado en la mente del observador. El cambio discontinuo en la función de probabilidad se produce, sin embargo, con el acto de este registrarse en la mente, porque es el cambio discontinuo de nuestro conocimiento el que tiene su imagen en el cambio discontinuo de la función de probabilidad.
¿Hasta qué punto, pues, hemos llegado, finalmente, a una descripción objetiva del mundo, especialmente del mundo atómico? En física clásica, la ciencia partía de la creencia (¿o debiéramos decir la ilusión?) de que podíamos describir el mundo, o al menos partes del mundo, sin referencia alguna a nosotros mismos. Esto es efectivamente posible en gran medida. Sabemos que la ciudad de Londres existe, veámosla o no. Puede decirse que la física clásica no es más que esa idealización en la cual podemos hablar acerca de partes del mundo sin referencia alguna a nosotros mismos. Su éxito ha conducido al ideal general de una descripción objetiva del mundo. La objetividad se ha convertido en el criterio decisivo para juzgar todo resultado científico. ¿Cumple la interpretación de Copenhague con este ideal? Quizá se pueda decir que la teoría cuántica corresponde a este ideal tanto como es posible. La verdad es que la teoría cuántica no contiene rasgos genuinamente subjetivos; no introduce la mente del físico como una parte del acontecimiento atómico. Pero arranca de la división del mundo en el “objeto”, por un lado, y el resto del mundo por otro, y del hecho de que, al menos para describir el resto del mundo, usamos los conceptos clásicos. Esta división es arbitraria, y surge históricamente como una consecuencia directa de nuestro método científico; el empleo de los conceptos clásicos es, en última instancia, una consecuencia del modo humano de pensar. Pero esto es ya una referencia a nosotros mismos, y en este sentido nuestra descripción no es completamente objetiva.
Se ha afirmado, al comenzar, que la interpretación de Copenhague parte de una paradoja: describimos nuestras experiencias en los términos de la física clásica y al mismo tiempo sabemos, desde el principio, que estos conceptos no se ajustan con precisión a la naturaleza. La tensión entre estos dos puntos de partida es la raíz del carácter estadístico de la teoría cuántica. Se ha sugerido alguna vez, por lo tanto, que debiéramos dejar totalmente de lado los conceptos clásicos, y que un cambio radical en los términos e ideas usados para describir los experimentos podría conducimos nuevamente a una descripción completamente objetiva de la naturaleza.
No obstante, esta sugestión se apoya en un mal entendido. Los conceptos de la física clásica son simplemente un refinamiento de los términos de la vida diaria, y constituyen una parte esencial del lenguaje en que se apoya toda la ciencia natural. Nuestra situación actual, en ciencia, es tal que empleamos los conceptos clásicos para la descripción de los experimentos, y el problema de la física cuántica era el de encontrar una interpretación teórica de sus resultados sobre esta base. Es inútil discutir qué podríamos hacer si fuéramos seres distintos. A esta altura debemos comprender, como lo ha expresado Weizsäcker, que “la Naturaleza es anterior al hombre, pero el hombre es anterior a la ciencia natural”. La primera parte de la sentencia justifica a la física clásica, con su ideal de completa objetividad. La segunda, nos dice por qué no podemos escapar a la paradoja de la teoría cuántica, o sea su necesidad de usar conceptos clásicos.
Debemos agregar algunos comentarios al modo en que la teoría cuántica interpreta los acontecimientos atómicos. Se ha dicho que partimos siempre de una división del mundo en dos partes, el objeto que vamos a estudiar, y el resto del mundo; y que esta división es, hasta cierto punto, arbitraria. No habría ninguna diferencia en el resultado final si considerásemos incluido en el objeto a una parte del instrumento de medida (o todo), y si aplicásemos a este objeto más complicado las leyes de la teoría cuántica. Se puede demostrar que tal alteración del tratamiento teórico no alteraría las predicciones sobre un experimento determinado. Esta es una consecuencia matemática del hecho de que las leyes de la teoría cuántica son, para aquellos fenómenos para los que la constante de Planck puede considerarse una cantidad muy pequeña, idénticas a las leyes clásicas. Pero sería un error creer que esta aplicación de las leyes de la teoría cuántica al instrumento de medida pudiera ayudamos a evitar la paradoja fundamental de esta teoría.
Un instrumento de medida merece este nombre sólo si está en íntimo contacto con el resto del mundo, si existe una acción mutua entre el aparato y el observador. Por lo tanto, la incertidumbre con respecto al comportamiento microscópico del mundo entrará en el sistema de la teoría cuántica tanto en esta interpretación como en la otra. Si se aislara al instrumento del resto del mundo, ni sería un aparato de medida, ni se lo podría describir en los términos de la física clásica.
Con respecto a esta situación, Bohr ha insistido en que es más realista decir que la división entre el objeto y el resto del mundo no es arbitraria. La situación actual en los trabajos de investigación de física atómica es ésta: deseamos comprender un fenómeno determinado, deseamos saber cómo se deriva este fenómeno de las leyes generales de la naturaleza. Por lo tanto, la parte de materia o radiación que forma parte del fenómeno es el “objeto” natural en el tratamiento teórico, y debe separarse, en este aspecto, de los instrumentos utilizados para estudiarlo. Esto introduce nuevamente un elemento subjetivo en la descripción de los acontecimientos atómicos, ya que el instrumento de medición ha sido construido por el observador; y debemos recordar que lo que observamos no es la naturaleza en sí misma, sino la naturaleza presentada a nuestro método de investigación. Nuestro trabajo científico en física consiste en hacer preguntas acerca de la naturaleza con el lenguaje que tenemos, y en tratar de obtener respuestas de la experimentación, con los métodos que están a nuestra disposición. De este modo, la teoría cuántica nos recuerda, como dice Bohr, la vieja sabiduría que aconseja no olvidar, al buscar la armonía de la vida, que en el drama de la existencia somos al mismo tiempo actores y espectadores. Es comprensible que en nuestra relación científica con la naturaleza nuestra propia actividad se tome muy importante cuando debemos tratar con porciones del mundo en las cuales sólo podemos penetrar por medio de los más elaborados.
Capítulo 4
La teoría cuántica y las raíces de la ciencia atómica
El concepto de átomo se remonta hacia mucho más allá del comienzo de la ciencia moderna, en el siglo diecisiete; tiene su origen en la filosofía de la antigua Grecia, y fue, en aquella temprana época, el núcleo del materialismo enseñado por Leucipo y Demócrito. Por otra parte, la moderna interpretación de los acontecimientos atómicos se parece muy poco a la genuina filosofía materialista; de hecho, se puede decir que la física atómica ha desviado a la ciencia de la tendencia materialista que tenía en el siglo diecinueve. Es, por lo tanto, interesante, comparar el desarrollo de la filosofía griega, hacia el concepto del átomo, con la posición actual de este concepto en la física moderna.
La idea de una última porción de materia, pequeñísima e indivisible, se presentó por primera vez en relación con el desenvolvimiento de los conceptos de materia, ser y devenir que caracterizó a la primera época de la filosofía griega. Este período parte del siglo vi antes de Cristo, con Tales, el fundador de la escuela de Mileto, a quien Aristóteles atribuye la afirmación de que “el agua es la causa material de todas las cosas”. Esta afirmación, por extraña que pueda parecemos, expresa, como lo ha señalado Nietzsche, tres ideas fundamentales de la filosofía: primero, la pregunta sobre la causa material de todas las cosas; segundo, la exigencia de que esta pregunta sea contestada de conformidad con la razón, sin recurrir a mitos ni al misticismo; tercero, el postulado de que debe ser posible reducir todo a un último principio. La afirmación de Tales fue la primera expresión de la idea de una sustancia fundamental, de la cual todas las otras cosas fueran formas transitorias. La palabra “sustancia” no era interpretada en aquella época, por cierto, con el sentido puramente material que actualmente acostumbramos a darle. La vida se relacionaba con esta “sustancia”, o era inherente a ella, y Aristóteles también atribuye a Tales la afirmación de que “todas las cosas están llenas de dioses”. Sin embargo, la cuestión se planteaba en el sentido de la causa material de todas las cosas, y no es difícil imaginar que Tales tomó su primera idea de consideraciones meteorológicas. De entre todas las cosas, sabemos que el agua puede tomar las más variadas formas: en el invierno puede adoptar el aspecto de nieve y hielo; puede transformarse en vapor, y puede formar las nubes. Puede retomar a la tierra, donde los ríos forman sus deltas, y puede brotar del suelo. El agua es la condición para la vida. Por tanto, si tal sustancia fundamental existía, era natural pensar primero en el agua.
La idea de la sustancia fundamental fue llevada entonces más adelante por Anaximandro, discípulo de Tales que vivía en la misma ciudad. Anaximandro negó que la sustancia fundamental fuera el agua, o cualquiera otra de las sustancias conocidas. Enseñaba que la sustancia primera era infinita, eterna y sin edad, y que abarcaba todo el universo. Esta sustancia primera se trasforma en las varias sustancias que nos son familiares. Teofrasto cita de Anaximandro: “En aquello de que se originan las cosas, vuelven ellas a transformarse otra vez, como está ordenado, porque ellas se dan mutuamente reparación y satisfacción de sus mutuas injusticias, de acuerdo al orden de los tiempos”. En esta filosofía, desempeña un papel fundamental la antítesis entre el Ser y el Devenir. La sustancia primera, infinita y sin edad, el Ser indiferenciado, degenera en las varias formas que conducen a luchas interminables. El proceso del Devenir es considerado como una degradación del Ser infinito, una desintegración en la lucha, expiada últimamente mediante un retomo a aquello que carece de forma y de carácter. La lucha que aquí se menciona es la oposición entre caliente y frío, fuego y agua, húmedo y seco, etcétera. La victoria temporaria de uno sobre el otro es la injusticia que deben reparar finalmente en la ordenación de los tiempos. De acuerdo con Anaximandro, existe un “movimiento eterno”, la creación y desaparición de mundos, por toda la eternidad. Es interesante hacer notar, a este respecto, que el problema —si la sustancia primera habrá de ser alguna de las conocidas, o si deberá ser algo esencialmente diferente— surge en forma ligeramente distinta en la parte más moderna de la física atómica. El físico trata actualmente de encontrar una ley fundamental del movimiento de la materia, de la cual puedan derivarse matemáticamente todas las partículas elementales y sus propiedades. Esta ecuación fundamental del movimiento puede referirse, bien a ondas de un tipo conocido (ondas del protón y el mesón), o a ondas de un carácter esencialmente diferente que no tengan nada que ver con ninguna de las ondas conocidas ni con las partículas elementales. En el primer caso ello significaría que todas las otras partículas elementales podrían ser reducidas, de algún modo, a algunos pocos tipos de partículas elementales “fundamentales”; de hecho, la física teórica ha seguido esta línea de investigación, principalmente, durante los últimos veinte años. En el segundo caso, todas las diferentes partículas elementales podrían ser reducidas a alguna sustancia universal a la cual podríamos llamar materia o energía, pero ninguna de las diferentes partículas podría ser preferida a las otras por ser más fundamental. Este último punto de vista corresponde a la doctrina de Anaximandro, y yo estoy convencido de que, en física moderna, es el correcto. Pero volvamos a la filosofía griega.
El tercero de los filósofos de Mileto, Anaxímenes, compañero de Anaximandro, enseñaba que la sustancia primera era el aire. “Así como el alma, que es aire, nos mantiene unidos, el aliento y el aire circundan todo el universo”. Anaxímenes introduce en la filosofía de Mileto la idea de que el proceso de condensación o rarefacción provoca la trasformación de la sustancia primera en otras sustancias. La condensación del vapor de agua en forma de nubes era un ejemplo obvio, y, por supuesto, no se conocía la diferencia entre vapor de agua y aire.
En la filosofía de Heráclito de Éfeso, el concepto de Devenir ocupa el lugar de privilegio. Él considera aquello que se mueve, el fuego, como elemento básico. Resuelve la dificultad de conciliaría idea de un principio fundamental con la infinita variedad de fenómenos, admitiendo que la lucha entre opuestos es, en realidad, una especie de armonía. Para Heráclito, el mundo es, a la vez, uno y muchos; es simplemente la “opuesta tensión” de los opuestos lo que constituye la unidad de lo Uno. Dice: “debemos saber que la guerra es común a todo, y que la lucha es justicia, y que todas las cosas reciben el ser y desaparecen mediante la lucha”.
Mirando hacia atrás el desarrollo de la filosofía griega hasta ese momento, se comprende que nació desde el principio hasta esa etapa, por la tensión entre lo Uno y lo Mucho. Para nuestros sentidos, el mundo consiste en una infinita variedad de cosas y sucesos, colores y sonidos. Pero para entenderlo, debemos introducir alguna clase de orden, y orden significa reconocer lo que es igual, e implica algún tipo de unidad. De aquí surge la creencia de que existe un principio fundamental y, al mismo tiempo, la dificultad de deducir de él la infinita variedad de las cosas. Puesto que el mundo se componía de materia, era natural tomar como punto de partida la idea de que debiera existir una causa material para todas las cosas. Pero cuando se llevaba la idea de unidad fundamental hasta sus últimas consecuencias se llegaba al Ser infinito, eterno e indiferenciado, el cual, fuese o no material, no podía explicar por sí mismo la variedad de las cosas. Esto conduce a la antítesis de Ser y Devenir y, finalmente, a la solución de Heráclito: que el cambio mismo es el principio fundamental; “el cambio imperecedero, que renueva el mundo” como lo han llamado los poetas. Pero el cambio en sí mismo no es una causa material y es representado, por lo tanto, en la filosofía de Heráclito, por el fuego como el elemento básico que es, al mismo tiempo, materia y fuerza móvil.
Podemos hacer notar, en este punto, que la física moderna está, en cierto modo, extremadamente cerca de la doctrina de Heráclito. Si reemplazamos la palabra fuego por energía, podemos casi repetir sus afirmaciones palabra por palabra, desde nuestro punto de vista moderno. La energía, en efecto, es la sustancia de que están hechas todas las partículas elementales, todos los átomos y, por lo tanto, todas las cosas, y la energía es aquello que se mueve. La energía es una sustancia, ya que su suma total no varía, y las partículas elementales pueden en realidad hacerse de esta sustancia, como se ve en muchas experiencias de creación de partículas elementales. La energía puede transformarse en movimiento, en calor, en luz y en tensión. La energía puede llamarse la causa fundamental de todos los cambios del mundo. Pero esta comparación entre la filosofía Griega y las ideas de la física moderna será analizada más adelante.
Con Parménides de Elea, la filosofía griega volvió por algún tiempo al concepto de lo Uno. Su mayor contribución al pensamiento griego fue, quizá, el haber introducido en la metafísica un argumento puramente lógico. “No puede conocerse lo que no es —ello es imposible— ni proferirlo; porque es la misma cosa poder ser pensado y poder ser”. Por lo tanto, sólo el Uno es, y no hay devenir o desaparición. Parménides negó la existencia del espacio vacío, por razones lógicas. Ya que todo cambio requiere espacio vacío, según suponía, afirmó que el cambio es una ilusión.
Pero la filosofía no pudo permanecer mucho tiempo apoyándose en esta paradoja. Empédocles, en la costa sur de Sicilia, abandonó por primera vez el monismo a favor de una especie de pluralismo.
Para evitar la dificultad de que una sustancia primera no pueda explicar la variedad de cosas y acontecimientos, supuso cuatro elementos básicos: la tierra, el agua, el aire y el luego. Estos elementos se mezclaban y separaban por la acción del Amor y la Lucha. Por lo tanto, estos dos últimos, a los que de varias maneras se los trata como si fueran corpóreos, son responsables del cambio imperecedero. Empédocles explica la formación del mundo de esta manera: Primero, existe la infinita esfera del Uno, como en la filosofía de Parménides. Pero en la sustancia primera, las cuatro “raíces” están mezcladas con el Amor. Entonces, cuando el Amor está desapareciendo y llega la Lucha, los elementos son parcialmente separados y parcialmente combinados. Después, los elementos se separan completamente y el Amor está fuera del mundo. Finalmente, el Amor junta nuevamente los elementos, la Lucha desaparece, y se vuelve así a la esfera originaria.
Esta doctrina de Empédocles representa una vuelta bien definida hacia puntos de vista materialistas. Los cuatro elementos son, más que principios fundamentales, verdaderas sustancias materiales. Aquí se expresa por primera vez la idea de que la mezcla y separación de unas pocas sustancias, fundamentalmente diferentes, explican la infinita variedad de cosas y acontecimientos. El pluralismo no atrae jamás a quienes están habituados a pensar en principios fundamentales. Pero es una clase de compromiso razonable, que evita la dificultad del monismo y permite el establecimiento de algún orden.
El paso siguiente hacia el concepto de átomo fue dado por Anaxágoras, contemporáneo de Empédocles. Durante unos treinta años vivió en Atenas, probablemente en la primera mitad del siglo v antes de Cristo. Anaxágoras insiste en la idea de mezcla, en la suposición de que todo cambio es causado por mezcla y separación. Supone una infinita variedad de infinitamente pequeñas “simientes” de que se componen todas las cosas, y que en variedad infinita no se relacionan con los cuatro elementos de Empédocles. Pero las simientes se mezclan y se separan nuevamente, y de este modo se produce todo cambio. La doctrina de Anaxágoras admite, por primera vez, una interpretación geométrica del término “mezcla”: Ya que habla de semillas infinitamente pequeñas, su mezcla puede ser imaginada como la mezcla de dos clases de avena de diferentes colores. Las simientes pueden cambiar en número y en posición relativa. Anaxágoras supone que todas las simientes están en todo, sólo que su proporción varía de una cosa a otra. Dice: “Todo está en todo; y no es posible para ellas apartarse, sino que todas las cosas tienen una porción de todo”. El universo de Anaxágoras se pone en movimiento, no por el Amor y la Lucha, como el de Empédocles, sino por “Nous”, que puede ser traducido como “Mente”.
De esta filosofía al concepto del átomo sólo faltaba un paso, que fue dado por Leucipo y Demócrito de Abdera. La antítesis de Ser y No-Ser de la filosofía de Parménides se seculariza aquí en la antítesis de lo “lleno” y lo “vacío”. El ser es no sólo Uno, sino que puede repetirse un número infinito de veces. Este es el átomo, la más pequeña unidad indivisible de materia. El átomo es eterno e indesmentible, pero tiene un tamaño finito. El movimiento es posible gracias al espacio vacío que existe entre los átomos. Así, por primera vez en la historia, fue mencionada la existencia de las más pequeñas partículas primarias —podríamos decir de partículas elementales— sillares fundamentales de la materia.
De acuerdo con este nuevo concepto del átomo, la materia no consta sólo de lo “lleno”, sino también de lo “vacío”, del espacio vacío en que se mueven los átomos. La objeción lógica de Parménides al “vacío”: que el no-ser no puede existir, fue sencillamente ignorada, para estar de acuerdo con la experiencia.
Desde nuestro punto de vista moderno, podríamos decir que el espacio vacío entre átomos, de la filosofía de Demócrito, no era la nada; era el soporte de la geometría y la cinemática, el que hacía posible las distintas disposiciones y los diferentes movimientos de los átomos. Pero la posibilidad del espacio vacío ha sido siempre un tema filosófico controvertido. En la teoría de la relatividad generalizada, la respuesta es que la geometría es producida por la materia, o la materia por la geometría. Esta respuesta corresponde más bien a los filósofos que sostienen el punto de vista de que el espacio está definido por la extensión de la materia. Pero Demócrito se aparta claramente de esta manera de pensar, para hacer posible el movimiento y el cambio.
Los átomos de Demócrito eran todos de la misma sustancia, que tenía la propiedad del ser, pero presentaban formas y tamaños diferentes. Eran divisibles, por lo tanto, en un sentido matemático, pero no físico. Los átomos podían moverse y ocupar diferentes posiciones en el espacio. Pero no tenían ninguna otra propiedad física. Carecían de color, de olor y de gusto. Se suponía que las propiedades de la materia que percibimos con los sentidos eran producidas por los movimientos y posiciones de los átomos en el espacio. Así como se pueden escribir tragedias y comedias con las mismas letras del alfabeto, la enorme variedad de acontecimientos del universo pueden producirse con los mismos átomos, mediante sus diferentes disposiciones y movimientos. La geometría y la cinemática, posibles gracias al espacio vacío, resultaban en cierto modo más importantes que el ser puro. Se cita de Demócrito: “las cosas simplemente aparentan tener color, ser dulces o amargas. Sólo los átomos y el espacio vacío tienen existencia real”.
Los átomos de la filosofía de Leucipo no se mueven simplemente al azar. Parece que Leucipo creía en un determinismo absoluto, pues se sabe que ha dicho: “nada sucede por nada, sino que todo ocurre por una causa y por necesidad”. Los atomistas no dieron ninguna razón que justificara el movimiento inicial de los átomos, lo que demuestra que ellos simplemente pensaban en una descripción causal del movimiento atómico; la causalidad sólo puede explicar sucesos posteriores por sucesos anteriores, pero nunca puede dar razón del comienzo.
Las ideas básicas de la teoría atómica fueron tomadas, y modificadas parcialmente, por filósofos griegos posteriores. A fin de compararla con la física atómica moderna, es importante mencionar la explicación de la materia dada por Platón en su diálogo del Timeo. Platón no era atomista; al contrario, Diógenes Laercio cuenta que a Platón le disgustaba tanto Demócrito, que quería hacer quemar todos sus libros. Pero Platón combinaba ideas que estaban próximas al atomismo con doctrinas pitagóricas y enseñanzas de Empédocles.
La escuela pitagórica era una rama del orfismo, que a su vez procedía de los cultos a Dionisio. En ella se estableció la relación entre religión y matemáticas que tanta influencia ha tenido, desde entonces, en el pensamiento humano. Los pitagóricos parecen haber sido los primeros en comprender la fuerza creadora que poseen las formulaciones matemáticas. Su descubrimiento de que dos cuerdas suenan en armonía si sus longitudes están en proporción simple demuestra cuánto significan las matemáticas en la comprensión de los fenómenos naturales. Para los pitagóricos no era tanto cuestión de comprensión: la simple proporción matemática creaba la armonía de sonidos. Había también mucho misticismo en las doctrinas de la escuela pitagórica, que nos resulta difícil de comprender. Pero al hacer de las matemáticas una parte de su religión tocaron un punto esencial en el desarrollo del pensamiento humano. Cito a Bertrand Russell sobre Pitágoras: “No sé de otro hombre que haya sido tan influyente como él en la esfera del pensamiento”.
Platón conocía el descubrimiento de los sólidos regulares hecho por los pitagóricos, y la posibilidad de combinarlos con los elementos de Empédocles. Comparó las partes más pequeñas del elemento tierra con el cubo, del aire con el octaedro, del fuego con el tetraedro y del agua con el icosaedro. No hay elemento que corresponda al dodecaedro; Platón decía sólo que “había aún una quinta combinación usada por Dios en la delineación del Universo”.
Si de alguna manera los sólidos regulares que representan los cuatro elementos pueden ser comparados con los átomos, Platón deja bien establecido que no son indivisibles. Los construye a partir de dos triángulos básicos, el equilátero y el isósceles, que colocados juntos forman la superficie de los sólidos. Por lo tanto, los elementos pueden (al menos parcialmente) ser trasformados unos en otros. Los sólidos regulares pueden descomponerse en sus triángulos y formar nuevos sólidos regulares con ellos. Por ejemplo, un tetraedro y dos octaedros pueden dividirse en veinte triángulos equiláteros que pueden volverse a combinar en un icosaedro. Es decir: un átomo de luego y dos de aire pueden combinarse para formar un átomo de agua. Pero los triángulos fundamentales no pueden ser considerados materia ya que carecen de extensión en el espacio. Solamente cuando se unen los triángulos para formar un sólido regular se crea una unidad de materia. Las partes más pequeñas de materia no son entes fundamentales, como en la filosofía de Demócrito, sino que son formas matemáticas. Acá es bien evidente que la forma es más importante que la sustancia de la cual es forma.
Luego de este breve examen de filosofía griega hasta la formación del concepto de átomo, podemos volver a la física moderna y preguntamos qué relación hay entre lo ya visto y nuestros modernos puntos de vista sobre el átomo y la teoría cuántica. Históricamente, la palabra “átomo” fue erróneamente utilizada en física y química moderna durante el renacimiento de la ciencia en el siglo XVIIya que las partículas más pequeñas de los llamados elementos químicos, son complicados sistemas de partículas más pequeñas. Hoy en día, se las llama partículas elementales, y si hay algo en la física moderna que pueda ser comparado con los átomos de Demócrito serían las partículas elementales, como el protón, el neutrón, el electrón, el mesón.
Demócrito consideraba acertadamente que si los átomos debían, por su movimiento y distribución, explicar las propiedades de la materia (color, olor, gusto) no podían ellos mismos tener esas propiedades. Por consiguiente, privó al átomo de esas cualidades, convirtiéndolo así en una porción de materia bastante abstracta. Pero Demócrito dejó al átomo la cualidad de “ser”, de extensión en el espacio, de forma y de movimiento. Les dejó estas cualidades porque habría resultado difícil llegar a hablar del átomo si no hubiera tenido alguna cualidad. Esto implica, por otra parte, que su concepto del átomo no puede explicar la geometría, la extensión en el espacio o la existencia, porque no puede reducirlas a algo más fundamental. El concepto moderno sobre las partículas elementales en relación con este punto parece más consistente y radical. Examinemos la cuestión: ¿Qué es una partícula elemental?
Decimos, por ejemplo, simplemente, “un neutrón”, pero no podemos dar una imagen precisa de lo que significamos con la palabra. Podemos usar diversas imágenes y describirlo, alternativamente, como una partícula, una onda o un paquete de ondas. Pero sabemos que ninguna de esas definiciones es precisa. Por cierto, el neutrón carece de color, de olor y de tacto. En este sentido se asemeja al átomo de la filosofía griega. Pero aun se le han quitado las otras cualidades, por lo menos en cierto sentido: los conceptos de geometría y cinemática, como forma o movimiento en el espacio, no pueden aplicársele consistentemente. Si uno desea dar una descripción precisa de la partícula elemental —y el énfasis está en la palabra “precisa”— lo único que puede darse como descripción es una función de probabilidad. Pero entonces uno ve que ni la cualidad de ser (si esto puede llamarse una “cualidad”) pertenece a lo descripto. Es una posibilidad de ser o una tendencia a ser. Por lo tanto, la partícula elemental de la física moderna es mucho más abstracta que el átomo de los griegos y, precisamente por esta misma propiedad, es más consistente como clave para explicar el comportamiento de la materia.
En la filosofía de Demócrito todos los átomos están formados por la misma sustancia, si la palabra “sustancia” puede ser aplicada aquí. Las partículas elementales en la física moderna llevan una masa en el mismo sentido limitado en que tienen otras propiedades. Dado que masa y energía son, de acuerdo con la teoría de la relatividad, esencialmente el mismo concepto, podemos decir que todas las partículas elementales consisten en energía. Podría interpretarse que esto define la energía como sustancia primaria del mundo. Tiene, en realidad, la propiedad esencial que corresponde al término “sustancia”: lo que se conserva. Hemos dicho antes que el punto de vista en este respecto está muy cerca del de Heráclito, si su elemento fuego se considera con el significado de energía. En realidad, energía es lo que mueve; puede llamársela la causa primera de todo movimiento, y la energía puede transformarse en materia, calor o luz. La lucha entre opuestos en la filosofía de Heráclito puede encontrarse en la lucha entre dos formas diferentes de energía.
En la filosofía de Demócrito los átomos son unidades de materia eternas e indesmentibles y nunca pueden ser trasformados unos en otros. En este asunto, la física moderna toma partido contra el materialismo de Demócrito y a favor de Platón y los pitagóricos. Las partículas elementales no son, por cierto, unidades de materia eternas e indesmentibles, por el contrario pueden transformarse en otras. En realidad, si dos de tales partículas, moviéndose en el espacio a una alta energía cinética, chocan, de la energía disponible pueden crearse muchas nuevas partículas elementales y las antiguas partículas pueden desaparecer en la colisión. Estos hechos han sido observados frecuentemente y ofrecen prueba fehaciente de que todas las partículas están hechas de la misma sustancia: energía. Pero el parecido entre los conceptos de la física moderna y los de Platón y los pitagóricos puede llevarse más lejos. Las partículas elementales, en el Timeo de Platón, no son en definitiva sustancia sino formas matemáticas. “Todas las cosas son números”, es una frase atribuida a Pitágoras. Las únicas formas matemáticas conocidas en esa época eran los sólidos regulares o los triángulos que forman su superficie. No puede dudarse que en la moderna teoría cuántica las partículas elementales serán también finalmente formas matemáticas pero de naturaleza mucho más complicada. Los filósofos griegos pensaban en formas estáticas y las hallaban en los sólidos regulares. En cambio la ciencia moderna, desde sus principios en el siglo XVI y XVII ha partido del problema dinámico. El elemento constante en la física, a partir de Newton, no es una configuración o una forma geométrica sino una ley dinámica. La ecuación de movimiento se cumple en todo momento, es en este sentido eterna; en tanto que las formas geométricas, como las órbitas, están cambiando. Por consiguiente, las formas matemáticas que representan a las partículas elementales serán soluciones de alguna eterna ley del movimiento para la materia. Hay en realidad un problema aún no resuelto: no se conoce todavía esta ley fundamental y no es por lo tanto posible derivar matemáticamente las propiedades de las partículas elementales de tal ley. Parece, sin embargo, que la física teórica actual no está muy lejos de dicha meta, y al menos podemos decir qué clase de ley esperamos. La ecuación final del movimiento para la materia será probablemente una ecuación cuántica no lineal de onda para un campo ondulatorio de operadores que representen simplemente la materia y no un tipo específico de ondas o partículas. Esta ecuación de onda será equivalente a sistemas bastante complicados de ecuaciones integrales, que tendrán “valores propios” y “soluciones propias”, como los llaman los físicos. Estas soluciones “propias” representarán finalmente a las partículas elementales: son las formas matemáticas que reemplazarán los sólidos regulares de los pitagóricos. Podríamos mencionar aquí, que estas “soluciones propias” surgirán de la ecuación fundamental para la materia por un proceso matemático muy parecido al que deduce las vibraciones armónicas de la cuerda pitagórica de la ecuación diferencial de la cuerda. Pero como ya hemos dicho, estos problemas no han sido resueltos aún. [3]
Si seguimos la línea pitagórica de pensamiento podemos esperar que la ley fundamental del movimiento resulte ser una ley matemática simple, aun cuando su evaluación con respecto a los estados “propios” sea muy complicada. Es difícil dar un buen argumento que justifique esta esperanza de simplicidad, fuera del hecho de que siempre, hasta ahora, ha sido posible escribir las ecuaciones fundamentales de la física con fórmulas matemáticas muy simples. Este hecho se ajusta a la religión pitagórica, y muchos físicos comparten esta creencia, pero no se ha dado todavía ningún argumento convincente.
Podemos agregar, en este punto, otro argumento concerniente a una pregunta frecuentemente formulada por los legos, sobre el concepto de la partícula elemental en la física moderna. ¿Por qué sostienen los físicos que las partículas elementales no pueden dividirse en partes menores? La respuesta demuestra cuánto más abstracta es la ciencia moderna comparada con la filosofía griega. El argumento es así: ¿Cómo podría dividirse una partícula elemental? Por cierto que sólo usando fuerzas extremas o herramientas muy poderosas. Las únicas herramientas disponibles son otras partículas elementales. Por consiguiente, el choque entre dos partículas elementales de extremadamente alta energía sería el único proceso que podría dividirlas. De hecho pueden dividirse en tal proceso, a veces en muchos fragmentos, pero estos fragmentos son otra vez partículas elementales y no trozos más pequeños de ellas, y el aumento de masa se realiza a expensas de la altísima energía de las dos partículas que chocan. En otras palabras, la transmutación de energía en materia hace posible que los fragmentos sean otra vez partículas elementales enteras.
Después de esta comparación de los modernos puntos de vista en física atómica con la filosofía griega, debemos agregar una advertencia, para que esta comparación no se interprete mal. Podría parecer, a primera vista, que los filósofos griegos hubieran llegado, mediante alguna forma de ingeniosa intuición, a las mismas conclusiones a que hemos llegado en los tiempos actuales, después de siglos de trabajo intenso con experiencias y con matemáticas. Esta manera de interpretar nuestra comparación sería totalmente errónea. Existe una diferencia enorme entre la ciencia moderna y la filosofía griega: y ella es justamente la actitud empírica de la ciencia moderna. Desde los tiempos de Galileo y Newton, la ciencia se ha basado en el estudio detallado de la naturaleza y en el postulado de que sólo se puede afirmar lo que ha sido verificado (o, al menos, puede ser verificado) experimentalmente. La idea de que puedan aislarse algunos acontecimientos de la naturaleza, mediante un experimento, a fin de estudiar sus detalles y descubrir las leyes inmutables que rigen los cambios ininterrumpidos, no se le ocurrió a los filósofos griegos. Cuando Platón dice, por ejemplo, que las más pequeñas partículas de fuego son tetraedros, no se ve fácilmente qué es lo que quería decir exactamente. ¿Se atribuye simbólicamente esa forma al elemento fuego, o actúan mecánicamente las partículas más pequeñas del luego como tetraedros rígidos, o elásticos, y mediante qué fuerza podrían ellos ser descompuestos en triángulos equiláteros, etcétera? La ciencia moderna habría preguntado, finalmente: ¿Cómo puede decidirse, experimentalmente, que los átomos de fuego son tetraedros, y no cubos, por ejemplo? Por lo tanto, cuando la ciencia moderna afirma que el protón es una cierta solución de una ecuación fundamental de la materia, lo que quiere decir es que podemos deducir matemáticamente, a partir de esa solución, todas las propiedades del protón, y verificar la exactitud de la solución en cada uno de sus detalles, mediante experiencias. Esta posibilidad de verificar experimentalmente la validez de una afirmación, con altísima precisión y con todos los detalles que se desee, le da un peso que no puede atribuirse a las afirmaciones de la primitiva filosofía griega.
Y a pesar de todo, algunas afirmaciones de la vieja filosofía griega están bastante cerca de las de la ciencia actual. Esto muestra simplemente cuán lejos puede llegarse combinando la experiencia que ordinariamente tenemos de la naturaleza sin necesidad de experimentos, con el esfuerzo infatigable en busca de un orden lógico que nos permita comprender esa experiencia a partir de principios generales.
Capítulo 5
Desarrollo de las ideas filosóficas a partir de descartes, y su comparación con la actual situación de la teoría cuántica
Durante los dos mil años que siguieron a la culminación de la ciencia y la cultura griega, en los siglos V y IV antes de Cristo, la mente humana estuvo ocupada, en gran parte, con problemas de un tipo diferente de los del periodo primitivo. En los primeros siglos de la cultura griega, el impulso más fuerte venía de la realidad inmediata del mundo en que vivimos y que percibimos con los sentidos. Esta realidad estaba llena de vida, y no había ninguna razón para hacer hincapié en la distinción entre materia y mente o entre cuerpo y alma. Pero en la filosofía de Platón ya se ve otra realidad que comienza a hacerse más fuerte. En el famoso símil de la cueva, Platón compara a los hombres con prisioneros atados en una caverna que sólo pueden mirar en una dirección, y sólo ven sus sombras y las de los objetos que los rodean, proyectadas sobre el muro por un luego que arde detrás de ellos. Dado que no ven más que las sombras, las consideran reales; y no advierten la existencia de los objetos que las proyectan. Finalmente, uno de los prisioneros se escapa de la cueva hacia la luz del sol. Por primera vez ve cosas reales, y comprende que ha sido engañado, hasta entonces, por las sombras. Por primera vez conoce la verdad, y sólo siente tristeza por el largo tiempo pasado en las tinieblas. El verdadero filósofo es el prisionero que ha escapado de la cueva hacia la luz de la verdad; él es el único que posee la verdadera sabiduría. Esta relación inmediata con la verdad, o con Dios, podríamos decir en un sentido cristiano, es la nueva realidad que ha comenzado a hacerse más poderosa que la realidad del mundo tal como la perciben nuestros sentidos. La relación inmediata con Dios sucede dentro del alma humana, no en el mundo, y éste fue el problema que ocupó el pensamiento humano más que ningún otro, durante los dos mil años que siguieron a Platón. En este período, los ojos de los filósofos se dirigieron hacia el alma humana y sus relaciones con Dios, a problemas de ética, y a la interpretación de la revelación, pero no hacia el mundo exterior. Sólo en la época del Renacimiento comenzó a verse un cambio en la mente humana, que terminó en un resurgimiento del interés por la naturaleza.
El gran desarrollo de las ciencias naturales desde los siglos dieciséis y diecisiete fue precedido y acompañado por ideas filosóficas estrechamente relacionadas con los conceptos fundamentales de la ciencia. Puede resultar instructivo, por lo tanto, comentar estas ideas desde la posición que finalmente ha alcanzado la ciencia contemporánea.
El primer gran filósofo de este nuevo período de la ciencia fue Renato Descartes, que vivió en la primera mitad del siglo XVII. Aquellas de sus ideas que resultaron más importantes para el desarrollo del pensamiento científico están contenidas en el Discurso del Método. Sobre la base de la duda, y del razonamiento lógico, trata de encontrar un fundamento completamente nuevo y, según él cree, sólido para todo sistema filosófico. No acepta la revelación como tal fundamento, ni quiere admitir sin crítica lo que se percibe con los sentidos. Así, parte, en su método, de la duda. Proyecta sus dudas sobre todo aquello que nos dicen los sentidos acerca del resultado de nuestros razonamientos, y finalmente llega a su famosa frase: “cogito ergo sum”. No puedo dudar de mi existencia, ya que se sigue del hecho de estar pensando. Después de establecer así la existencia del Yo, procede a probar la existencia de Dios, esencialmente sobre las líneas de la filosofía escolástica. Finalmente, la existencia del mundo se deduce del hecho de haberme dado Dios una fuerte tendencia a creer en la existencia del mundo; y es simplemente imposible que Dios haya querido engañarme.
Esta base de la filosofía cartesiana es radicalmente diferente de la de los antiguos filósofos griegos. Aquí, el punto de partida no es un principio fundamental o sustancia, sino el intento de lograr un conocimiento fundamental. Y Descartes se da cuenta de que tenemos más certeza en lo que sabemos acerca de nuestra mente que en lo que conocemos del mundo exterior. Pero ya su punto de partida con el “triángulo” Dios-Mundo-Yo, simplifica de una manera peligrosa el fundamento para ulteriores razonamientos. La división entre materia y espíritu o entre cuerpo y alma, iniciada con la filosofía de Platón, es ahora completa. Se separa a Dios del mundo y del Yo. De hecho se aleja a Dios tanto del mundo y de los hombres que se termina por relegarlo a un punto de referencia común para establecer la relación entre el Yo y el Mundo.
Mientras que la antigua filosofía griega había tratado de descubrir un orden en la infinita variedad de cosas y acontecimientos buscando algún principio fundamental unificador, Descartes trata de establecer el orden mediante alguna división fundamental. Pero las tres partes que resultan de la división pierden algo de su esencia cuando se considera a cualquiera de ellas separadas de las otras dos partes. Si se quiere usar, realmente, los conceptos fundamentales de Descartes, es esencial que Dios esté, de alguna manera, en el mundo y en el Yo, y que el Yo no esté totalmente separado del mundo. Descartes conocía, desde luego, la necesidad de esta relación, pero la filosofía y la ciencia natural se desarrollaron, en lo sucesivo, sobre la base de una polaridad entre la “res cogitans” y la “res extensa”, y la ciencia natural concentró su interés en la “res extensa”. La influencia que la división cartesiana tuvo en el pensamiento humano de las centurias que siguieron difícilmente podrá ser sobrestimada; pero es justamente esta división la que tendremos que criticar más adelante, desde el punto de vista de la física contemporánea.
Por supuesto, sería erróneo afirmar que Descartes dio un nuevo rumbo al pensamiento humano con su nuevo método filosófico. Lo que realmente hizo fue formular por primera vez una tendencia en el pensamiento humano que ya se vislumbraba durante el Renacimiento y la Reforma: un renovado interés por las matemáticas junto con una creciente influencia platónica en la filosofía, y la insistencia en una religión personal. El interés creciente por las matemáticas favoreció un sistema filosófico que partió del razonamiento lógico y procuró por medio de este método llegar a alguna verdad tan cierta como una conclusión matemática. La insistencia en una religión personal separó del mundo al Yo y a sus relaciones con Dios. El interés en combinar el conocimiento empírico con las matemáticas, como lo hizo Galileo, se debió quizá al intento de obtener, de esta manera, alguna forma de conocimiento que pudiera mantenerse completamente apartada de las disputas teológicas que levantó la Reforma. Este saber empírico podría formularse sin hablar de Dios o de nosotros, y favorecía la separación de los tres conceptos fundamentales: Dios-Mundo-Yo, o de la “res cogitans” de la “res extensa”. Hubo en este período, en algunos casos, un acuerdo explícito entre los pioneros de la ciencia empírica en el sentido de que en sus discusiones no debía mencionarse el nombre de Dios o de alguna causa fundamental.
Por otra parte, las dificultades que originaba la separación podían verse desde un principio. Al distinguir la “res cogitans” de la “res extensa”, por ejemplo, Descartes se vio forzado a poner los animales enteramente del lado de la “res extensa”. Los animales y las plantas no eran, por lo tanto, esencialmente diferentes de las máquinas, y su comportamiento estaba completamente determinado por causas materiales. Pero siempre ha sido difícil negar completamente la existencia de algún tipo de alma en los animales, y nos parece que el concepto más antiguo de alma, como el de la filosofía de Santo Tomás de Aquino, por ejemplo, era más natural y menos forzado que el concepto cartesiano de “res cogitans”, aun si estamos convencidos de que las leyes de la física y la química son estrictamente válidas en los organismos vivientes. Otra de las consecuencias posteriores de este punto de vista de Descartes fue que, si se consideraba a los animales como simples máquinas, era difícil no pensar lo mismo de los hombres. Puesto que la “res cogitans” y la “res extensa” eran consideradas como completamente diferentes en su esencia, no parecía posible que una de ellas pudiera actuar sobre la otra. Por lo tanto, para mantener un paralelismo completo entre las experiencias de la mente y las del cuerpo, la mente también debía quedar completamente determinada, en sus actividades, por leyes que se correspondieran con las de la física y la química. Surgió así la cuestión de la posibilidad del “libre albedrío”. Evidentemente, toda esta manera de describir las cosas es algo artificial, y muestra los graves defectos de la partición Cartesiana.
En cambio, en las ciencias naturales esta partición resultó, durante siglos, extremadamente exitosa. La mecánica de Newton y todas las otras partes de la física clásica construidas según su modelo, partían de la suposición de que se puede describir el mundo sin hablar de Dios ni de nosotros. Esta posibilidad pareció pronto casi una condición necesaria para las ciencias naturales en general.
Pero en este punto la situación cambia, en cierto modo, al llegar a la teoría cuántica y podemos, por lo tanto, intentar una comparación del sistema filosófico de Descartes con la situación actual en la física moderna. Se ha señalado ya que en la interpretación de Copenhague podemos proceder sin mencionamos a nosotros como individuos, pero no podemos olvidar el hecho de que las ciencias naturales han sido formadas por el hombre. Las ciencias naturales no describen y explican a la naturaleza simplemente; forman parte de la interacción entre la naturaleza y nosotros mismos; describen la naturaleza tal como se revela a nuestro modo de interrogarla. Esta es una posibilidad en la que Descartes no pudo haber pensado; pero hace que la separación neta entre el mundo y el Yo resulte imposible.
Si se analiza la gran dificultad que aun físicos eminentes como Einstein tuvieron en entender y aceptar la interpretación de Copenhague, se ve que la raíz de las dificultades está en la partición de Descartes. Esta partición ha penetrado profundamente, durante tres siglos, en la mente humana, y tardará mucho en ser reemplazada por una actitud realmente distinta frente al problema de la realidad.
La posición a la cual nos ha conducido la partición Cartesiana con respecto a la “res extensa” es la que podríamos denominar realismo metafísico. El mundo, es decir, las cosas extensas, existen. Éste debe ser distinguido del realismo práctico, y las diferentes formas de realismo pueden describirse así: “Objetivamos” un juicio si aceptamos que su contenido no depende de las condiciones bajo las cuales puede ser verificado. El realismo práctico da por sentado que hay juicios que pueden ser objetivados y que en realidad la mayor parte de nuestra experiencia de la vida diaria consiste en tales juicios. El realismo dogmático sostiene que no hay juicios concernientes al mundo material que no puedan ser objetivados. El realismo práctico siempre ha sido y será una parte fundamental de la ciencia natural. Sin embargo, el realismo dogmático no es, según vemos, una condición necesaria de la ciencia natural. No obstante, en el pasado ha desempeñado un papel muy importante en el desarrollo de la ciencia; en realidad, la posición de la física clásica es la del realismo dogmático. Cuando Einstein criticó la teoría cuántica lo hizo desde el punto de vista del realismo dogmático. Ésta es una actitud muy natural. Todo científico que realiza un trabajo de investigación siente que está buscando algo que sea objetivamente verdadero. Sus juicios no han de estar sujetos a las condiciones bajo las cuales pueden ser verificados. Especialmente en la física, el hecho de que podamos explicar la naturaleza mediante simples leyes matemáticas nos dice que hemos encontrado una imagen auténtica de la realidad y no algo inventado por nosotros mismos. Ésta es la posición en que se colocó Einstein cuando adoptó el realismo dogmático como base de la ciencia natural. Pero la teoría cuántica es por sí misma un ejemplo de la posibilidad de explicar la naturaleza por medio de simples leyes matemáticas, sin esa base. Tal vez estas leyes no parezcan muy simples cuando se las compara con la mecánica de Newton. Pero teniendo en cuenta la enorme complejidad de los fenómenos que deben ser explicados (el espectro lineal de los complicados átomos, por ejemplo), el esquema matemático de la teoría cuántica es comparativamente simple. La ciencia natural es realmente posible sin la base del realismo dogmático.
El realismo metafísico va un paso más allá que el realismo dogmático al decir que “las cosas existen realmente”. Esto es, en realidad, lo que quiso probar Descartes con el argumento de que “Dios no puede habernos engañado”. La afirmación de que las cosas existen realmente difiere de la del realismo dogmático al aparecer aquí la palabra “existen”, lo cual también está implícito en la otra afirmación “cogito ergo sum”... “Pienso, luego soy”. Pero es difícil ver qué es lo que aquí se quiere decir que no esté ya contenido en la tesis del realismo dogmático; y esto nos conduce a un análisis general de la afirmación “cogito, ergo sum”, que Descartes consideró como la base sólida sobre la cual podía construir su sistema. Es indudable que esta afirmación tiene la seguridad de una demostración matemática si las palabras “cogito” y “sum” se ajustan a su definición habitual o, para decirlo con mayor prudencia y espíritu crítico, si las palabras se definen de modo que se siga la consecuencia. Pero esto no nos muestra hasta dónde podemos emplear los conceptos de “pensar’ y “ser” para lograr nuestro propósito. Finalmente, en un sentido muy general, la medida en que pueden aplicarse nuestros conceptos es siempre una cuestión empírica.
La dificultad del realismo metafísico se sintió muy pronto después de Descartes y se convirtió en el punto de partida de la filosofía empírica, del sensualismo y el positivismo.
Los tres filósofos que pueden considerarse representativos de los comienzos de la filosofía empírica son Locke, Berkeley y Hume. Contrariamente a Descartes, Locke sostiene que todo conocimiento se funda últimamente en la experiencia. Esta experiencia puede ser sensación o percepción de la operación de nuestra inteligencia. El conocimiento, afirma Locke, es la percepción del acuerdo o desacuerdo existente entre dos ideas. El paso siguiente fue dado por Berkeley. Si nuestro conocimiento procede realmente de la percepción, la afirmación de que las cosas existen realmente carece de sentido, porque si la percepción se produce no es posible establecer ninguna diferencia sobre si las cosas existen o no existen. Por consiguiente, el hecho de ser percibido se identifica con la existencia. Esta línea argumental fue llevada entonces a un escepticismo extremo por Hume, quien rechazó la inducción y la causalidad y de ese modo llegó a una conclusión que, de ser tomada en serio, destruiría la base de toda ciencia empírica.
La crítica del realismo metafísico formulada por la filosofía empírica está ciertamente justificada en cuanto pone en guardia contra el empleo ingenuo del término “existencia”. Los juicios positivos de esta filosofía pueden ser criticados de manera similar. Nuestras percepciones no son originariamente conjuntos de colores o sonidos; lo que percibimos ya es percibido como alguna cosa — correspondiendo aquí destacar la palabra “cosa”— y, en consecuencia, es dudoso que podamos ganar algo tomando las percepciones, en vez de las cosas, como elementos últimos de la realidad.
La dificultad fundamental ha sido claramente reconocida por el moderno positivismo. Esta manera de pensar previene contra el empleo candoroso de términos tales como “cosa”, “percepción”, “existencia”, con el postulado general de que si una determinada afirmación tiene verdaderamente algún sentido debe ser analizada íntegramente y con espíritu crítico. Este postulado y su actitud fundamental provienen de la lógica matemática. El procedimiento de la ciencia natural se muestra como una adhesión de símbolos a los fenómenos. Los símbolos pueden, como en las matemáticas, combinarse de acuerdo con ciertas reglas, y de esta manera los juicios sobre los fenómenos pueden ser representados por combinaciones de símbolos. Sin embargo, una combinación de símbolos que no se ajusta a las reglas no es incorrecta, pero no tiene sentido.
En este razonamiento la dificultad obvia reside en la falta de un criterio general con respecto a cuándo puede una afirmación ser considerada como carente de significación. Una decisión definida sólo es posible cuando la afirmación pertenece a un rigoroso sistema de conceptos y de axiomas el cual, en la evolución de la ciencia natural, será más bien la excepción que la regla. En algunos casos, la conjetura de que una cierta afirmación carecía de sentido ha llevado históricamente a realizar importantes progresos porque abrió la vía hacia el descubrimiento de nuevas relaciones que habrían sido imposibles si la afirmación hubiera tenido sentido. Un ejemplo tomado de la teoría cuántica, que ya hemos tratado, es la siguiente frase: “¿En qué órbita se mueven los electrones alrededor del núcleo?”. Pero, por lo general, el esquema positivista tomado de la lógica matemática es demasiado estrecho para una descripción de la naturaleza que inevitablemente emplea palabras y conceptos que están sólo vagamente definidos.
La tesis filosófica de que todo conocimiento se funda últimamente en la experiencia ha terminado postulando la explicación lógica de cualquier afirmación relativa a la naturaleza. Tal postulado puede haber parecido justificado en el periodo de la física clásica, pero con la teoría cuántica hemos aprendido que no se puede cumplir. Las palabras “posición” y “velocidad” de un electrón, por ejemplo, parecían perfectamente definidas en cuanto a su sentido y sus posibles relaciones, y en realidad eran conceptos claramente definidos dentro del marco matemático de la mecánica de Newton. Pero no estaban verdaderamente bien definidos, como se ve por las relaciones de incertidumbre. Podría decirse que estaban bien definidos de acuerdo con su posición dentro de la mecánica de Newton, pero que no lo estaban en relación con la naturaleza. Esto nos muestra que nunca podemos saber por anticipado cuáles limitaciones se presentarán para la aplicación de ciertos conceptos por la extensión de nuestro conocimiento de las remotas partes de la naturaleza en las que sólo podemos penetrar con las herramientas más perfeccionadas. Por consiguiente, en el proceso de penetración nos vemos a veces obligados a emplear nuestros conceptos en una forma que no está justificada y que no tiene sentido. La insistencia en el postulado de la completa clarificación lógica haría la ciencia imposible. La física moderna nos recuerda aquí la antigua sabiduría de que quién insiste en jamás divulgar un error debe quedarse callado.
Una combinación de estas dos maneras de pensar, que comenzaron con Descartes por una parte, y con Locke y Berkeley por otra, fue intentada en la filosofía de Kant, que fundó el idealismo germano. La parte de su trabajo que tiene importancia en comparación con los resultados de la física moderna está contenida en la Crítica de la Razón Pura. Allí aborda el problema de si el conocimiento se funda únicamente en la experiencia o si puede provenir de otras fuentes, y llega a la conclusión de que nuestro conocimiento es en parte “a priori” y no inferido inductivamente de la experiencia. Establece, por consiguiente, una diferencia entre el conocimiento “empírico” y el conocimiento “a priori”. Al mismo tiempo plantea la distinción entre proposiciones “analíticas” y “sintéticas”. Las proposiciones analíticas se deducen simplemente por lógica y su negación llevaría a la propia contradicción. A las proposiciones que no son “analíticas” las llama “sintéticas”.
¿Cuál es, según Kant, el criterio para el conocimiento “a priori”? Kant acepta que todo conocimiento comienza con la experiencia, pero agrega que no siempre deriva de la experiencia. Es verdad que la experiencia nos enseña que una determinada cosa posee tales o cuales propiedades, pero no nos enseña que no pueda ser diferente. Por consiguiente, si una proposición es pensada juntamente con su necesidad tiene que ser “a priori”. La experiencia nunca generaliza sus juicios por completo. Por ejemplo, la frase “El sol se eleva todas las mañanas” significa que sabemos que esta regla no tuvo excepción en el pasado y que esperamos que no la tenga en el futuro. Pero sí podemos imaginamos excepciones a la regla. Si un juicio se expresa en forma completamente general y, por consiguiente, es imposible imaginar una excepción cualquiera, tiene que ser “a priori”. Un juicio analítico siempre es “a priori”. Hasta cuando un niño aprende aritmética jugando con bolitas no necesita después rehacer el experimento para saber que “dos y dos son cuatro”. El conocimiento empírico, por otra parte, es sintético.
¿Pero es posible un juicio sintético a priori? Kant trata de demostrarlo con ejemplos en los cuales parece cumplirse el criterio anterior. El espacio y el tiempo, dice, son formas a priori de la intuición pura. Para el caso del espacio ofrece los siguientes argumentos metafísicos:
1. El espacio no es un concepto empírico, abstraído de otras experiencias, porque se presupone que el espacio se refiere a sensaciones de algo exterior, y la experiencia de lo exterior sólo es posible mediante la representación del espacio.
2. El espacio es una representación necesariamente a priori que sirve de fundamento a todas las percepciones externas; porque no podemos imaginar una ausencia de espacio aunque podemos imaginar que puede no haber nada en el espacio.
3. El espacio no es un concepto general o discursivo de las relaciones de las cosas en general, porque solamente hay un espacio, del cual lo que llamamos “espacios” son partes, no casos particulares.
4. El espacio se presenta como una magnitud infinita que encierra en sí misma todas las partes del espacio; esta relación es diferente de la que existe entre un concepto y sus casos particulares y por lo tanto el espacio no es un concepto sino una forma de intuición.
No vamos a discutir aquí estos argumentos. Sólo los mencionamos como ejemplos de las pruebas que Kant tiene presentes para su teoría de los juicios sintéticos a priori.
Con respecto a la física, Kant la considera como a priori, junto con el espacio y el tiempo, la ley de la causalidad y el concepto de sustancia. En una etapa posterior de su obra trató de incluir la ley de conservación de la materia, la igualdad de “actio y reactio” y hasta la ley de la gravitación. Ningún físico estaría ahora dispuesto a seguir a Kant si el término “a priori” se empleara en el sentido absoluto que él le dio. En matemáticas, Kant considera la geometría euclidiana como “a priori”.
Antes de comparar estas doctrinas de Kant con los resultados de la física moderna, debemos hacer mención de otra parte de su obra a la cual habremos de referimos más adelante. La desagradable cuestión de si “las cosas existen realmente”, que ha dado origen a la filosofía empírica, también se presentó en el sistema de Kant. Pero Kant no siguió la línea de Berkeley ni de Hume, aunque ello hubiera tenido consistencia lógica. Kant conservó la noción de la “cosa en sí” como algo distinto de lo perceptible, y de esta manera guardó alguna conexión con el realismo.
Si ahora entramos a comparar las doctrinas de Kant con la física moderna se tiene la impresión, en el primer momento, de que su concepto fundamental de los “juicios sintéticos a priori” hubiera sido completamente destruido por los descubrimientos de nuestro siglo. La teoría de la relatividad ha hecho cambiar nuestras ideas sobre el espacio y el tiempo; en realidad nos ha mostrado imágenes totalmente nuevas del espacio y del tiempo de las cuales nada se ve en las formas a priori de la intuición pura de Kant. La ley de la causalidad ya no se aplica en la teoría cuántica y la ley de conservación de la materia ha dejado de ser verdad para las partículas elementales. Es obvio que Kant no pudo prever los nuevos descubrimientos, pero puesto que estaba convencido de que sus conceptos serían “la base de cualquier metafísica futura que pueda llamarse ciencia”, es interesante averiguar dónde estaba el error de sus argumentos.
Tomemos como ejemplo la ley de causalidad. Kant dice que cuando observamos un acontecimiento aceptamos la existencia de un acontecimiento anterior al cual el otro acontecimiento debe suceder de acuerdo con alguna regla. Ésta es, según Kant sostiene, la base de todo trabajo científico. En este punto no tiene importancia que siempre encontremos o no encontremos el acontecimiento precedente al cual el otro siguió. En realidad, podemos encontrarlo en muchos casos. Pero aun cuando no podamos encontrarlo, nada puede impedimos preguntar cuál ha sido ese acontecimiento precedente y buscarlo. Por consiguiente, la ley de causalidad se reduce al método de la investigación científica; es la condición que hace posible la ciencia. Como en realidad aplicamos este método, la ley de causalidad es “a priori” y no derivada de la experiencia.
¿Es esto verdad en la física atómica? Consideremos un átomo de radio, que puede emitir una partícula alfa. El tiempo de emisión de la partícula alfa no puede ser predicho. Lo único que podemos decir es que, por término medio, la emisión tendrá lugar en unos dos mil años. Por consiguiente, cuando observamos una emisión no buscamos el acontecimiento anterior que debió precederla de acuerdo con determinada regla. Lógicamente, sería muy posible buscar ese acontecimiento anterior y no debe desanimamos el hecho de que no haya sido encontrado hasta ahora. ¿Pero por qué ha cambiado realmente el método científico en este aspecto tan fundamental de la cuestión desde la época de Kant?
Para esto hay dos respuestas posibles. Una es que la experiencia nos ha convencido de que las leyes de la teoría cuántica son correctas y, si lo son, sabemos que no puede hallarse un acontecimiento anterior que pueda tomarse como causa de la emisión. La otra respuesta es que conocemos el acontecimiento anterior pero no con toda exactitud. Sabemos cuáles fuerzas del núcleo atómico son las responsables de la emisión de una partícula alfa. Pero este conocimiento lleva en sí la incertidumbre introducida por la interacción entre el núcleo y el resto del mundo. Si quisiéramos saber por qué la partícula alfa fue emitida en ese preciso momento tendríamos que conocer la estructura microscópica del mundo entero, incluyéndonos nosotros mismos, y ello es imposible. Por consiguiente, los argumentos de Kant en favor del carácter a priori de la ley de causalidad ya no se aplican.
De modo similar podría discutirse el carácter a priori del espacio y del tiempo como formas de intuición. El resultado sería el mismo. Los conceptos a priori, que Kant consideraba como una verdad indiscutible, han dejado de pertenecer al sistema científico de la física moderna.
Sin embargo, constituyen una parte esencial de este sistema en un sentido algo diferente. Al discutirse en Copenhague la interpretación de la teoría cuántica, se ha hecho notar que empleamos los conceptos clásicos para referimos a nuestros medios de experimentación y, de un modo más general, para referimos a esa parte del mundo que no pertenece al objeto del experimento. El empleo de estos conceptos, incluyendo los de espacio, tiempo y causalidad, es, de hecho, la condición para la observación de los acontecimientos atómicos y es, en este sentido de la palabra, “a priori”. Lo que Kant no ha previsto es que estos conceptos a priori pueden ser las condiciones de la ciencia y, al mismo tiempo, tener sólo un limitado radio de aplicación. Cuando realizamos un experimento, tenemos que aceptar una cadena causal de acontecimientos que, mediante el instrumento apropiado, comienza en el acontecimiento atómico y termina en el ojo del investigador. Si no se aceptara esta cadena causal, nada se podría saber del acontecimiento atómico. No obstante, debemos tener presente que la física clásica y la causalidad sólo tienen un radio limitado de aplicación. La paradoja fundamental de la teoría cuántica fue que no pudo ser prevista por Kant. La física moderna ha trasladado la afirmación de Kant sobre la posibilidad de los juicios sintéticos a priori del campo metafísico al práctico. De este modo los juicios sintéticos a priori tienen el carácter de una verdad relativa.
Si se reinterpreta de este modo el apriorismo kantiano, no hay razón para considerar las percepciones más que las cosas como dadas. Como en la física clásica, podemos hablar de esos acontecimientos que no se observan tal como lo hacemos de aquellos que se observan. Considerando la “cosa en sí”, Kant señala que no podemos llegar a ninguna conclusión con la percepción de la “cosa en sí”. Como lo ha advertido Weizsäcker, esta afirmación tiene su analogía formal en el hecho de que, no obstante el empleo de los conceptos clásicos, en todos los experimentos es posible un comportamiento no-clásico de los objetos atómicos. En último término, la “cosa en sí” es para el físico atómico, si es que llega a emplear este concepto, una estructura matemática; pero esta estructura, a pesar de Kant, se deduce indirectamente de la experiencia.
En esta reinterpretación, el apriorismo kantiano está indirectamente relacionado con la experiencia, en la medida en que se ha formado a través de la evolución de la inteligencia humana en un pasado muy distante. Siguiendo esta argumentación, el biólogo Lorentz ha comparado una vez los conceptos “a priori” con formas de comportamiento que en los animales se llaman “heredados o esquemas innatos”. Es en realidad muy probable que para ciertos animales primitivos el espacio y el tiempo sean algo distinto de lo que Kant llama nuestra “intuición pura” del espacio y el tiempo. Esto último puede corresponder a la especie “hombre”, pero no al mundo considerado como independiente de los hombres. Pero tal vez, siguiendo este comentario biológico sobre los “a priori”, nos estamos empeñando en una discusión demasiado hipotética. Los hemos mencionado tan sólo como un ejemplo de cómo los términos “verdad relativa” pueden ser interpretados en relación con los “a priori” de Kant.
Hasta aquí hemos mencionado a la física moderna como un ejemplo o, si se quiere, como un patrón para comprobar los resultados de algunos sistemas filosóficos del pasado que, por supuesto, eran considerados válidos para un campo mucho más extenso. Lo que hemos sacado particularmente en limpio del análisis de las filosofías de Descartes y de Kant puede expresarse de la siguiente manera:
Cualesquiera sean los conceptos o palabras que se han formado en el pasado en razón del intercambio entre el mundo y nosotros mismos, la verdad es que no están estrictamente definidos con respecto a su significado; es decir, que no sabemos hasta dónde pueden ayudamos a encontrar nuestro camino en el mundo. Frecuentemente sabemos que podemos aplicarlos a un extenso orden de experiencias internas y externas, pero nunca sabemos con exactitud cuáles son los límites precisos de su aplicabilidad. Esto es verdad hasta para los conceptos más simples y generales, como “existencia” y “espacio y tiempo”. En consecuencia, con la razón pura nunca será posible arribar a una verdad absoluta.
Los conceptos pueden, sin embargo, ser exactamente definidos con respecto a sus relaciones. Tal es, realmente, el caso cuando los conceptos se convierten en una parte de un sistema de axiomas y definiciones que pueden expresarse consistentemente mediante un esquema matemático. Ese grupo de conceptos relacionados entre sí puede ser aplicable a un extenso campo de la experiencia y ayudamos a descubrir nuestro camino en ese campo. Pero los límites de aplicabilidad no serán, por lo general, conocidos, o, por lo menos, no lo serán completamente.
Aun si comprobamos que el sentido de un concepto nunca está definido con precisión absoluta, algunos conceptos constituyen una parte integral de los métodos científicos, puesto que representan, por lo pronto, el resultado final de la evolución del pensamiento humano del pasado, aun del pasado más remoto. Hasta pueden ser heredados, y, en cualquier caso, constituyen las herramientas indispensables para la labor científica de nuestro tiempo. En este sentido pueden ser prácticamente a priori. Naturalmente, es posible que en el futuro puedan encontrarse nuevas limitaciones a su aplicabilidad.
Capítulo 6
La relación de la teoría cuántica con otras partes de la ciencia natural
Ya hemos dicho que los conceptos de las ciencias naturales a veces pueden ser exactamente definidos con respecto a sus relaciones. Esta posibilidad se comprobó por primera vez en los Principia de Newton, y esa es precisamente la razón por la cual las obras de Newton han ejercido una influencia tan enorme en todo el desarrollo de la ciencia natural durante los siglos siguientes. Newton comienza sus Principia con una serie de definiciones y axiomas que se hallan interrelacionados de tal manera que constituyen lo que podemos llamar un “sistema cerrado”. Cada concepto puede representarse mediante un símbolo matemático, y las relaciones entre los diferentes conceptos se representan con ecuaciones matemáticas que se expresan por medio de los símbolos. La imagen matemática del sistema asegura que en él no puede haber contradicciones. De esta manera, los posibles movimientos de los cuerpos bajo la influencia de las fuerzas actuantes están representados por las posibles soluciones de las ecuaciones. El sistema de definiciones y axiomas que puede escribirse con una serie de ecuaciones matemáticas es considerado como una descripción de una estructura eterna de la naturaleza, con independencia de un determinado espacio o de un determinado tiempo.
La relación entre los diferentes conceptos del sistema es tan íntima que, por lo general, no sería posible cambiar uno solo de los conceptos sin destruir todo el sistema.
Es por esta razón que durante largo tiempo el sistema de Newton fue considerado como definitivo, y parecía que la tarea que tenían ante sí los científicos del período siguiente se reducía a extender la mecánica de Newton en más amplios campos de experimentación. En realidad, la física se desarrolló sobre esas bases durante unos dos siglos.
De la teoría del movimiento de las masas podía pasarse a la mecánica de los cuerpos sólidos, a los movimientos rotatorios, a los movimientos continuos de un fluido o a los movimientos vibratorios de un cuerpo elástico. Todos estos aspectos de la mecánica o la dinámica se desarrollaron gradualmente en estrecha relación con la evolución de las matemáticas, especialmente con la del cálculo diferencial, y los resultados fueron comprobados mediante experimentos. La acústica y la hidrodinámica pasaron a ser una parte de la mecánica. Otra ciencia, para la cual era obvia la aplicación de la mecánica de Newton, fue la astronomía. Los perfeccionamientos de los métodos matemáticos llevaron gradualmente a determinar con exactitud cada vez mayor los movimientos de los planetas y de sus mutuas interacciones. Cuando se descubrieron los fenómenos de la electricidad y del magnetismo, las fuerzas eléctricas o magnéticas se compararon con las fuerzas gravitacionales, y sus efectos sobre el movimiento de los cuerpos pudieron ser estudiados de acuerdo con los principios de la mecánica de Newton. Finalmente, en el siglo diecinueve, hasta la teoría del calor pudo reducirse a un aspecto de la mecánica mediante la aceptación de que el calor consiste, en realidad, en un complicado movimiento estadístico de las más diminutas partes de la materia. Combinando los conceptos de la teoría matemática de probabilidad con los conceptos de la mecánica de Newton, Clausius, Gibbs y Boltzmann pudieron mostrar que las leyes fundamentales de la teoría del calor podían interpretarse como leyes estadísticas de acuerdo con la mecánica de Newton aplicada a sistemas mecánicos muy complicados.
Hasta aquí, el planteo propuesto por la mecánica de Newton fue celosamente observado y condujo al conocimiento de un vasto campo de experiencia. La primera dificultad se presentó en los estudios sobre el campo electromagnético de Faraday y Maxwell. En la mecánica de Newton la fuerza gravitacional se había considerado como dada y no como un objeto de posteriores estudios teoréticos. En el trabajo de Faraday y Maxwell, el campo de fuerza en sí se convirtió en objeto de investigación; los físicos deseaban saber cómo variaba este campo de fuerza en función del espacio y del tiempo. En consecuencia, trataron de hallar ecuaciones de movimiento para los campos y no fundamentalmente para los cuerpos sobre los cuales los campos actúan. Este cambio llevó nuevamente al punto de vista que había sido sostenido por muchos científicos antes de Newton. Según parecía, una acción podía ser trasferida de un cuerpo a otro solamente cuando los dos cuerpos se tocaban; por ejemplo, en una colisión o por medio de la fricción. Newton había introducido una novísima y curiosa hipótesis aceptando la existencia de una fuerza que actuaba a larga distancia. Ahora bien, en la teoría de los campos de fuerza se podía volver a la antigua concepción de que la acción se trasfiere de un punto a otro punto vecino, solamente si el comportamiento de los campos se describía en términos de ecuaciones diferenciales. Probóse que eso era realmente posible y, por consiguiente, la descripción de los campos magnéticos tal como los dan las ecuaciones de Maxwell parecieron una solución satisfactoria para el problema de la fuerza. Aquí se había cambiado realmente el planteo propuesto por la mecánica de Newton. Los axiomas y definiciones de Newton se habían referido a los cuerpos y su movimiento; pero con Maxwell los campos de fuerza parecieron adquirir el mismo grado de realidad que los cuerpos en la teoría de Newton. Naturalmente, esta interpretación no fue fácilmente aceptada; y para evitar semejante cambio en el concepto de realidad pareció aceptable comparar los campos electromagnéticos con los campos de deformación o tensión elástica, las ondas luminosas de la teoría de Maxwell con las ondas sonoras de los cuerpos elásticos. En consecuencia, muchos físicos creyeron que las ecuaciones de Maxwell se referían en realidad a las deformaciones de un medio elástico al que denominaron éter; y este nombre se dio simplemente para explicar que el medio era tan ligero y fino que podía penetrar en el interior de otra materia sin poder ser visto ni percibido. Sin embargo, esta explicación no fue muy satisfactoria puesto que no podía explicar la completa ausencia de cualquier onda longitudinal de luz.
Finalmente, la teoría de la relatividad, que será analizada en el próximo capítulo, mostraba de manera terminante que el concepto de éter como sustancia, al que se referían las ecuaciones de Maxwell, debía ser abandonado. Los argumentos no pueden ser discutidos en este momento; pero el resultado fue que los campos debían ser considerados como una realidad independiente.
Un resultado posterior y aún más sorprendente de la teoría de la relatividad especial fue el descubrimiento de nuevas propiedades del espacio y el tiempo, en realidad, de una relación entre espacio y tiempo que no fue antes conocida y que no existió en la mecánica de Newton.
Bajo la impresión de esta situación completamente nueva muchos físicos llegaron a la siguiente conclusión, un tanto temeraria: la mecánica de Newton había quedado desautorizada. La realidad primaria es el campo y no el cuerpo, y la estructura del espacio y el tiempo está correctamente descrita en las fórmulas de Lorentz y Einstein y no en los axiomas de Newton. En muchos casos la mecánica de Newton constituyó una buena aproximación, pero tenía que ser perfeccionada para ofrecer una descripción más rigurosa de la naturaleza.
Desde el punto de vista al que finalmente hemos llegado con la teoría cuántica, semejante afirmación se presentaría como una descripción muy pobre de la situación real. En primer lugar, olvida el hecho de que la mayor parte de los experimentos con los cuales se miden los campos se basan en la mecánica de Newton y, en segundo lugar, que la mecánica de Newton no puede ser perfeccionada; sólo puede ser reemplazada por algo fundamentalmente distinto.
El desarrollo de la teoría cuántica nos ha enseñado que debemos más bien describir la situación en los siguientes términos: allí donde los conceptos de la mecánica de Newton pueden emplearse para describir los acontecimientos de la naturaleza, las leyes formuladas por Newton son estrictamente correctas y no pueden ser perfeccionadas. Pero los fenómenos electromagnéticos no pueden ser adecuadamente descriptos mediante los conceptos de la mecánica de Newton. Por consiguiente, los experimentos con los campos electromagnéticos y las ondas luminosas, juntamente con sus análisis teoréticos de Maxwell, Lorentz y Einstein, han conducido a un nuevo sistema riguroso de definiciones y axiomas y de conceptos que pueden ser representados por símbolos matemáticos, lo cual es coherente en el mismo sentido que el sistema de la mecánica de Newton, pero es fundamentalmente diferente.
Por consiguiente, hasta las esperanzas que acompañaron a los científicos a partir de Newton tuvieron que tomar otra dirección. Aparentemente, no siempre podía lograrse el progreso de la ciencia empleando las leyes conocidas de la naturaleza para explicar los nuevos fenómenos. En algunos casos, los nuevos fenómenos que se observaron sólo podían comprenderse mediante nuevos conceptos que se adaptaron a los nuevos fenómenos del mismo modo que los conceptos de Newton se adaptaron a los acontecimientos mecánicos. A su vez, estos nuevos conceptos podían combinarse en un riguroso sistema y ser representados por símbolos matemáticos. Pero si la física o, en un plano más general, la ciencia natural procedía de tal modo se presentaba la siguiente interrogación: ¿Cuál es la relación entre los diferentes planteos conceptuales? Si, por ejemplo, los mismos conceptos o palabras se presentan en dos fórmulas diferentes y están diferentemente definidos con respecto a sus relaciones y su representación matemática, ¿en qué sentido representan los conceptos a la realidad?
Este problema se presentó tan pronto como se descubrió la teoría de la relatividad especial. Los conceptos de espacio y tiempo pertenecían a la vez a la mecánica de Newton y a la teoría de la relatividad. Pero en la mecánica de Newton, espacio y tiempo eran independientes; en la teoría de la relatividad estaban relacionados por la trasformación de Lorentz. En este caso especial podía mostrarse que las afirmaciones de la teoría de la relatividad se aproximan a las de la mecánica de Newton dentro del límite en el que todas las velocidades del sistema son muy reducidas comparadas con la velocidad de la luz. De aquí se podía deducir que los conceptos de la mecánica de Newton no podían ser aplicados a casos en los cuales ocurrían velocidades comparables a la de la luz. Así se encontró finalmente una limitación fundamental a la mecánica de Newton que no pudo ser advertida desde la serie coherente de conceptos ni mediante la simple observación de los sistemas mecánicos.
Por consiguiente, la relación entre dos diferentes series coherentes de conceptos exige siempre una investigación muy cuidadosa. Antes de entrar en una discusión general sobre la estructura de cualquiera de esos grupos rigurosos y coherentes de conceptos y de sus posibles relaciones, daremos una descripción de aquéllos que hasta aquí han sido definidos en física. Pueden distinguirse cuatro sistemas que ya han alcanzado su forma final.
El primero, la mecánica de Newton, ya ha sido analizado. Es adecuado para la descripción de todos los sistemas mecánicos, el movimiento de los fluidos y la vibración elástica de los cuerpos. Comprende la acústica, la estática y la aerodinámica.
El segundo sistema riguroso de conceptos se formó en el curso del siglo diecinueve en relación con la teoría del calor. Aunque la teoría del calor pudo finalmente ser vinculada con la mecánica mediante el desarrollo de la mecánica estadística, no sería práctico considerarla como una parte de la mecánica. En realidad, la teoría fenomenológica del calor emplea una cantidad de conceptos que no tienen su equivalente en otras ramas de la física como: calor, calor específico, entropía, energía libre, etc. Si de esta descripción fenomenológica se pasa a una interpretación estadística, considerando el calor como energía, distribuido estadísticamente entre los muchísimos grados de libertad debidos a la estructura atómica de la materia, entonces el calor no tiene más relación con la mecánica que con la electrodinámica u otras partes de la física. El concepto fundamental de esta interpretación es el concepto de probabilidad, estrechamente relacionado con el concepto de entropía en la teoría fenomenológica. Al lado de este concepto, la teoría estadística del calor necesita el concepto de energía. Pero, en física, cualquier sistema coherente de axiomas y conceptos habrá de contener necesariamente los conceptos de energía, cantidad de movimiento y cantidad de movimiento angular, y la ley de estas cantidades tiene que conservarse bajo ciertas condiciones. Así ha de ser si el sistema coherente pretende describir ciertas imágenes de la naturaleza, exactas en todo momento y en todas partes; en otras palabras, imágenes que no dependen del espacio y del tiempo o, como dicen los matemáticos, que no varían por traslaciones arbitrarias en el espacio y el tiempo, las rotaciones en el espacio y la trasformación de Galileo o Lorentz. Por consiguiente, la teoría del calor puede combinarse con cualquiera de los otros rigurosos sistemas de conceptos.
El tercer sistema riguroso de conceptos y axiomas tiene su origen en los fenómenos de la electricidad y el magnetismo y ha alcanzado su forma última en la primera década del siglo veinte mediante la labor de Lorentz, Einstein y Minkowski. Comprende la electrodinámica, la relatividad especial, la óptica, el magnetismo, y puede incluirse la teoría de de Broglie de ondas de materia de todas las diferentes clases de partículas elementales, pero no la teoría ondulatoria de Schrödinger.
Finalmente, el cuarto sistema coherente es esencialmente el de la teoría cuántica según ha sido expuesto en los dos primeros capítulos. Su concepto central es la función de probabilidad, o “matriz estadística” como la llaman los matemáticos. Comprende el cuanto y la mecánica ondulatoria, la teoría del espectro atómico, la química y la teoría de otras propiedades de la materia como conductividad eléctrica, ferromagnetismo, etcétera.
Las relaciones entre estos cuatro sistemas de conceptos puede expresarse de la siguiente manera: El primer sistema está contenido en el tercero como caso límite en el que la velocidad de la luz puede considerarse como infinitamente grande, y está contenido en el cuarto como caso límite en el que la constante de acción de Planck puede considerarse como infinitamente pequeña. El primero y parcialmente el tercero pertenecen al cuarto como a priori para la descripción de los experimentos. El segundo puede combinarse sin dificultad con cualquiera de los otros tres y es especialmente importante por sus relaciones con el cuarto. La existencia independiente del tercero y cuarto sugiere la existencia de un quinto sistema del cual uno, tres y cuatro son casos límites. Este quinto sistema se encontrará probablemente algún día en relación con la teoría de las partículas elementales.
De esta enumeración hemos omitido el sistema de conceptos relacionado con la teoría de la relatividad general ya que este sistema quizá no ha alcanzado aún su forma definitiva. Pero debe hacerse notar que éste es completamente distinto de los otros cuatro sistemas.
Después de este breve examen, podemos volver a la cuestión más general de lo que se debe considerar como formas características de un riguroso sistema de axiomas y definiciones. Tal vez la forma más importante sea la posibilidad de encontrarle una representación matemática coherente. Esta representación debe asegurar que el sistema no contiene contradicciones. Por lo tanto, el sistema debe ser adecuado para describir un vasto campo de experiencia. La gran variedad de los fenómenos en el campo debe corresponder al gran número de soluciones de las ecuaciones de la representación matemática. Las limitaciones del campo pueden, por lo general, no derivar de los conceptos. Los conceptos no están exactamente definidos en su relación con la naturaleza a pesar de la exacta definición de sus relaciones posibles. Por consiguiente, las limitaciones estarán señaladas por la experiencia, por el hecho de que los conceptos no permiten una completa descripción de los fenómenos observados.
Después de este breve análisis de la estructura de la física de hoy podemos analizar las relaciones de la física con las otras ramas de la ciencia natural. El vecino más próximo de la física es la química. En realidad, en virtud de la teoría cuántica estas dos ciencias han llegado a una completa unión. Pero cien años atrás se hallaban ampliamente separadas, sus métodos de investigación eran completamente diferentes, y los conceptos de la química no tenían sus equivalentes en la física. Conceptos tales como valencia, actividad, solubilidad y volatilidad tenían un carácter más cualitativo, y apenas si la química pertenecía a las ciencias exactas. Cuando a mediados del siglo pasado se desarrolló la teoría del calor, los científicos comenzaron a aplicarla a los procesos químicos, y desde entonces el trabajo científico en este campo se ha orientado con la esperanza de reducir las leyes de la química a la mecánica de los átomos. Debe destacarse, sin embargo, que esto no era posible dentro del marco de la mecánica de Newton. Para dar una descripción cualitativa de las leyes de la química había que formular un más amplio sistema de conceptos para la física atómica. Esto se logró finalmente con la teoría cuántica, que tiene sus raíces tanto en la química como en la física atómica. Entonces fue fácil ver que las leyes de la química no podían reducirse a la mecánica de las partículas atómicas de Newton, puesto que los elementos químicos mostraban en su comportamiento un grado de estabilidad que faltaba por completo en los sistemas mecánicos. Pero esto no se comprendió claramente hasta que no se formuló la teoría del átomo de Bohr, en 1913. Puede decirse que el resultado final fue que los conceptos de la química son en parte complementarios de los conceptos mecánicos. Si sabemos que un átomo determina sus propiedades químicas en su más bajo estado estacionario, no podemos hablar al mismo tiempo del movimiento de los electrones en el átomo.
La relación actual entre la biología, por un lado, y la física y la química por otro, puede ser muy similar a la que existía entre la química y la física hace cien años. Los métodos de la biología son diferentes de los de la física y la química, y los conceptos biológicos típicos son de un carácter más cualitativo que los de las ciencias exactas. Conceptos tales como vida, órgano, célula, función de un órgano, percepción, no tienen equivalentes en la física o la química. Además, la mayor parte de los progresos realizados en la biología durante los últimos cien años se han obtenido mediante la aplicación de la química y la física a los organismos vivientes y, en la actualidad, la biología tiende a explicar los fenómenos biológicos sobre la base del conocimiento de las leyes físicas y químicas. La cuestión está en saber si esta tendencia está o no justificada.
Lo mismo que en el caso de la química, la simple experiencia biológica enseña que los organismos vivos ostentan un grado de estabilidad que complicadas estructuras generales, consistentes en varios tipos diferentes de moléculas, no podrían tener solamente en base a las leyes físicas y químicas. Por consiguiente, algo hay que agregar a las leyes de la física y la química antes de que los fenómenos biológicos puedan ser íntegramente interpretados.
A este respecto dos distintos puntos de vista se han discutido con frecuencia en la literatura biológica. Uno se refiere a la teoría de la evolución, de Darwin, en sus relaciones con la genética moderna. De acuerdo con esta teoría, el único concepto que hay que agregar a los de la física y la química para comprender la vida es el concepto de historia. El enorme intervalo de tiempo de por lo menos cuatro mil millones de años que han trascurrido desde la formación de la tierra ha proporcionado a la naturaleza la posibilidad de ensayar una variedad ilimitada de estructuras de grupos de moléculas. Entre estas estructuras se han producido finalmente algunas que han podido reduplicarse aprovechando los más pequeños grupos de materia circundante y, por consiguiente, tales estructuras han podido crearse en gran cantidad. Los cambios accidentales de las estructuras han producido una variedad aún más amplia de las estructuras ya existentes. Las distintas estructuras tuvieron que disputarse los materiales extraídos de la materia circundante y de este modo, a través de la “supervivencia de los más aptos”, tuvo lugar finalmente la evolución de los organismos vivos. No puede dudarse de que esta teoría contiene una gran parte de verdad, y muchos biólogos sostienen que el agregado de los conceptos de historia y evolución a la coherente formulación de los conceptos de física y química será más que bastante para explicar todos los fenómenos biológicos. Uno de los argumentos a los que constantemente se recurre en favor de esta teoría destaca que siempre que las leyes de la física y la química han sido puestas a prueba en los organismos vivientes han resultado ser correctas; parece así definitivo que no hay lugar para admitir una “fiereza vital” distinta de las fuerzas físicas.
Por otra parte, es precisamente este argumento el que ha perdido mucho peso con la teoría cuántica. Puesto que los conceptos de física y química forman un sistema riguroso y coherente, especialmente el de la teoría cuántica, es indispensable que cuando estos conceptos hayan de ser empleados para la descripción de los fenómenos también sean válidas las leyes relacionadas con los conceptos. Por consiguiente, cuando se trata a los organismos vivos como sistemas fisicoquímicos es necesario que actúen como tales. Lo único que puede enseñamos algo sobre la suficiencia de este primer examen es si los conceptos fisicoquímicos permiten una descripción completa de los organismos. Los biólogos, que responden a esto por la negativa, sostienen el segundo punto de vista que ahora explicaremos.
Este segundo punto de vista quizá pueda exponerse de la siguiente manera: es muy difícil ver cómo conceptos tales como percepción, función de un órgano, afección, pueden constituir una parte de la coherente formulación de los conceptos de la teoría cuántica combinada con el concepto de historia. Por otra parte, estos conceptos son necesarios para una descripción completa de la vida hasta si por el momento excluimos al género humano como presentando nuevos problemas más allá de la biología. En consecuencia, para una comprensión de la vida, será probablemente indispensable ir más allá de la teoría cuántica y construir un nuevo sistema coherente de conceptos al cual la física y la química puedan pertenecer como “casos límites”. La historia puede ser una de sus partes esenciales, y conceptos tales como percepción, adaptación, afección, corresponderán también al sistema. Si este punto de vista es correcto, la combinación de la teoría de Darwin con la física y la química no sería bastante a explicar la vida orgánica; pero aun así sería cierto que los organismos vivos pueden ser en gran parte considerados como sistemas fisicoquímicos —como máquinas, según señalaron Descartes y Laplace— y, tratados como tales, reaccionarían como tales. Al mismo tiempo podría aceptarse, como lo ha sugerido Bohr, que nuestro conocimiento de una célula viva puede ser complementario del total conocimiento de su estructura molecular. Como un conocimiento completo de esta estructura sólo sería posible mediante operaciones que destruyen la vida de la célula, es lógicamente posible que la vida impida una completa determinación de su estructura fisicoquímica básica. Aun sosteniendo este segundo punto de vista sería probablemente recomendable, para la investigación biológica, no emplear otro método que el que se ha seguido durante las últimas décadas: tratar de explicar cuanto sea posible sobre la base de las leyes fisicoquímicas conocidas, y describir el comportamiento de los organismos celosamente y sin prejuicios teoréticos.
El primero de estos dos puntos de vista es más común que el segundo entre los biólogos modernos, pero la experiencia actualmente disponible no es suficiente para decidir entre ambos. La preferencia concedida por muchos biólogos al primer punto de vista puede deberse a la partición cartesiana, que tan profundamente ha penetrado en la mente humana durante los pasados siglos. Dado que la “res cogitans” estaba limitada a los hombres, al “Yo”, los animales no podían tener alma y pertenecían exclusivamente a la “res extensa”. En consecuencia, los animales pueden ser comprendidos, según se arguye, en los mismos términos que la materia en general, y las leyes de la física y la química conjuntamente con el concepto de historia deben ser suficientes para explicar su comportamiento. Es sólo cuando aparece la “res cogitans” cuando se presenta una situación nueva que requerirá conceptos completamente nuevos. Pero la partición cartesiana es una supersimplificación peligrosa y, por consiguiente, es muy posible que el segundo punto de vista sea el correcto.
Al margen de este asunto, que todavía no puede ser resuelto, es indudable que nos hallamos aún muy lejos de semejante sistema coherente y riguroso de conceptos para la descripción de los fenómenos biológicos. En biología, las complicaciones son tan desalentadoras que aún no es posible imaginar ningún sistema de conceptos en el que las relaciones puedan definirse tan exactamente como para que sea posible una representación matemática.
Si vamos más allá de la biología e incluimos en la discusión a la psicología, entonces apenas puede dudarse de que los conceptos de la física, la química y la evolución juntos no serán suficientes para describir los hechos. En este punto, la existencia de la teoría cuántica ha hecho variar nuestra actitud con respecto a lo que se creía en el siglo diecinueve. En ese período, algunos científicos se sentían inclinados a pensar que los fenómenos psicológicos podían explicarse, en último término, sobre la base de la física y de la química del cerebro. Desde el punto de vista de la teoría cuántica no existe ninguna razón para semejante suposición. No obstante el hecho de que las manifestaciones físicas del cerebro pertenezcan a los fenómenos psíquicos, no podríamos esperar que éstos bastaran a explicarlos. Jamás dudaríamos de que el cerebro actúa como un mecanismo fisicoquímico si lo consideráramos como tal; pero, para una comprensión de los fenómenos psíquicos tendríamos que partir del hecho de que la mente humana es objeto y sujeto del proceso científico de la psicología.
Revisando los diferentes sistemas de conceptos que se han construido en el pasado, y que posiblemente podrán construirse en el futuro en el intento de abrimos camino en el mundo mediante la ciencia, vemos que se presentan ordenándose de acuerdo con la parte cada vez mayor que en el sistema le corresponde al elemento subjetivo. La física clásica puede considerarse como esa idealización en la que hablamos del mundo como algo completamente aparte de nosotros mismos. Los tres primeros sistemas corresponden a esta idealización. Sólo el primer sistema se acomoda totalmente al “a priori” de la filosofía de Kant. En el cuarto sistema, el de la teoría cuántica, el hombre, como sujeto de conocimiento científico, aparece mediante las preguntas que se le formulan a la naturaleza en los términos apriorísticos de la ciencia humana. La teoría cuántica no admite una descripción exclusivamente objetiva de la naturaleza. En biología puede ser importante, para un conocimiento completo, que los problemas se planteen con respecto a la especie humana, que pertenece al género de los organismos vivos; en otras palabras, que sepamos lo que es la vida aun antes de haberla definido en forma científica. Pero no se debería, quizá, entrar en especulaciones sobre la posible estructura de sistemas de conceptos que aún no han sido formulados.
Cuando se compara este orden con las antiguas clasificaciones pertenecientes a las primeras etapas de la ciencia natural, se advierte que ahora el mundo ha sido dividido no en diferentes grupos de objetos sino en diferentes grupos de relaciones. En una etapa primitiva la ciencia distinguía, por ejemplo, como grupos diferentes a los minerales, las plantas, los animales, los hombres. De acuerdo con su grupo, estos objetos eran considerados como de naturalezas diferentes, constituidos por diferentes materiales, y con un comportamiento determinado por diferentes fuerzas. Ahora sabemos que siempre se trata de la misma materia; que la misma variedad de compuestos químicos puede pertenecer a cualquier objeto, a los minerales lo mismo que a los animales o las plantas; además, hasta las fuerzas que actúan entre las diferentes partes de la materia son, en último término, las mismas en toda clase de objetos. Lo que puede distinguirse es la clase de relación esencialmente importante en un determinado fenómeno. Por ejemplo, cuando hablamos de la acción de las fuerzas químicas nos referimos a una clase de relaciones que es más complicada o, en cualquier caso, distinta de la que se expresa en la mecánica de Newton. El mundo se nos aparece así como un complicado tejido de acontecimientos en los que las relaciones de diferente clase alternan, o se superponen, o se combinan y determinan así la contextura del todo.
Cuando nos representamos un grupo de relaciones mediante un riguroso y coherente sistema de conceptos, axiomas, definiciones y leyes, que a su vez está representado por un esquema matemático, lo que en realidad hacemos es aislar e idealizar este grupo de relaciones con un propósito de clarificación. Pero, aun cuando por tal modo se logre una completa claridad, no se sabe en qué exacta medida el sistema de conceptos describe la realidad.
Estas idealizaciones pueden considerarse como parte del lenguaje humano formado por el intercambio entre el mundo y nosotros, una respuesta humana al desafío de la naturaleza. En este sentido, pueden compararse con los diferentes estilos artísticos, como los de la arquitectura o la música. Un estilo artístico puede también definirse como un sistema de reglas formales que se aplican al material de un determinado arte. En un sentido estricto, tal vez estas reglas no puedan representarse mediante un sistema de conceptos y ecuaciones matemáticas, pero sus elementos fundamentales son muy similares a los elementos esenciales de las matemáticas. Igualdad y desigualdad, repetición y simetría: ciertas estructuras desempeñan un papel fundamental tanto en el arte como en las matemáticas. Generalmente se necesita el trabajo de varias generaciones para desarrollar —desde sus simples comienzos hasta las elaboradas formas que caracterizan su plenitud— ese sistema formal que luego se llamará el estilo del arte. El interés del artista está concentrado en este proceso de cristalización en el cual la materia del arte toma, mediante su labor, las distintas formas inspiradas por los primeros conceptos formales de ese estilo. Alcanzada la plenitud, el interés vuelve a desvanecerse porque la palabra “interés” significa: estar con algo, tomar parte en un proceso de vida; pero este proceso ya ha llegado a su fin. Aquí vemos otra vez cuán lejos están las reglas formales del estilo de representar esa realidad de la vida a que el arte alude. El arte es siempre idealización; el ideal es algo distinto de la realidad —por lo menos de la realidad de las sombras, como diría Platón—, pero la idealización es necesaria para la comprensión.
Esta comparación entre los diferentes sistemas de conceptos de la ciencia natural y los diferentes estilos del arte puede parecer caprichosa para quienes prefieren creer que los diferentes estilos artísticos son productos arbitrarios de la inteligencia humana. Quienes así opinen, argumentarán que en la ciencia natural estos diferentes sistemas de conceptos representan una realidad objetiva; que nos han sido revelados por la naturaleza; que, por consiguiente, no son de ninguna manera arbitrarios; y que son la consecuencia necesaria de nuestro creciente conocimiento experimental de la naturaleza. Acerca de este punto, muchos científicos estarán de acuerdo; ¿pero son los diferentes estilos artísticos un producto arbitrario de la inteligencia humana? En esto tampoco debemos dejamos engañar por la partición cartesiana. El estilo se produce por el intercambio entre el mundo y nosotros mismos, o, más específicamente, entre el espíritu de la época y el artista. El espíritu de una época es probablemente un hecho tan objetivo como cualquier hecho de la ciencia natural, y este espíritu da nacimiento a ciertas imágenes del mundo que hasta son independientes de la época, y en este sentido eternas. Mediante su trabajo, el artista busca que esas imágenes sean comprensibles, y este intento lo lleva a las formas de estilo en que se expresa.
Por consiguiente, los dos procesos, el de la ciencia y el del arte, no son muy distintos. En el curso de los siglos, ambos, la ciencia y el arte, forman un lenguaje humano mediante el cual podemos referimos a las más remotas partes de la realidad; y los sistemas conceptuales coherentes, tanto como los diferentes estilos del arte, son diferentes palabras o grupos de palabras de dicho lenguaje.
Capítulo 7
La teoría de la relatividad
En el campo de la física moderna, la teoría de la relatividad ha representado siempre un papel muy importante. Gracias a esta teoría se reconoció por primera vez la necesidad de un cambio en los principios fundamentales de la física. Por consiguiente, el examen de los problemas que se han planteado y que en parte se han resuelto mediante la teoría de la relatividad corresponde, fundamentalmente, a nuestro enfoque de las implicaciones filosóficas de la física moderna. En cierto sentido puede decirse que —a la inversa de la teoría cuántica— el desarrollo de la teoría de la relatividad, a partir del reconocimiento final de las dificultades para su solución, ha necesitado muy poco tiempo. La repetición del experimento de Michelson, realizada por Morley y Miller en 1904, constituyó la primera evidencia definitiva de la imposibilidad de detectar el movimiento de traslación de la tierra mediante métodos ópticos; y el informe decisivo de Einstein se dio a conocer menos de dos años más tarde. Por otra parte, el experimento de Morley y de Miller y las afirmaciones de Einstein no fueron más que la última etapa de un desarrollo que había comenzado mucho antes y que puede sintetizarse bajo el título de “electrodinámica de los cuerpos móviles”.
Evidentemente, la electrodinámica de los cuerpos móviles constituyó un importante campo de la física y de la ingeniería desde que se construyeron motores eléctricos. En esta materia, sin embargo, el descubrimiento por Maxwell de la naturaleza electromagnética de las ondas luminosas introdujo una seria dificultad. Estas ondas difieren de las demás, por ejemplo de las ondas sonoras, en una propiedad esencial: pueden propagarse en lo que parece ser el espacio vacío. Cuando una campana suena en un recipiente al vacío, el sonido no sale hacia afuera; pero la luz penetra fácilmente a través del volumen vacío. Se aceptó, en consecuencia, que las ondas luminosas podían ser consideradas como ondas elásticas de una sustancia muy liviana, llamada éter, que no podía ser vista ni percibida pero que llenaba el espacio vacío tanto como el espacio en que existía otra materia, como aire o vidrio. La idea de que las ondas electromagnéticas podían ser en sí mismas una realidad, con independencia de cualquier otro cuerpo, no se les ocurrió, por entonces, a los físicos. Puesto que esta sustancia hipotética —éter— parecía penetrar a través de otra materia, se planteaba esta interrogación: ¿Qué sucede si la materia es puesta en movimiento? ¿Participa el éter en este movimiento y, si es así, cómo se propaga una onda luminosa en el éter en movimiento?
Los experimentos que pueden aplicarse para ofrecer una respuesta son difíciles por la siguiente razón: las velocidades de los cuerpos móviles son por lo general muy pequeñas comparadas con la velocidad de la luz. Por consiguiente, el movimiento de estos cuerpos sólo puede producir muy reducidos efectos, que son proporcionales a la relación entre la velocidad del cuerpo y la velocidad de la luz, o a una potencia mayor de esa relación. Numerosos experimentos efectuados por Wilson, Rowland, Roentgen y Eichenwald, y Fizeau permitieron obtener la medida de tales efectos con una exactitud correspondiente a la primera potencia de este coeficiente. La teoría de los electrones desarrollada en 1895 por Lorentz permitió describir estos efectos en forma completamente satisfactoria. Pero entonces el experimento de Michelson, Morley y Miller provocó una nueva situación.
Este experimento será analizado con cierto detenimiento. Para obtener mayores efectos y resultados consecuentemente más exactos, se creyó que lo mejor era experimentar con cuerpos de muy alta velocidad. La tierra se mueve alrededor del sol con una velocidad calculada en unos 32 kilómetros por segundo. Si el éter estuviera quieto con respecto al sol y no se moviera con la tierra, entonces este rápido movimiento del éter con respecto a la tierra tendría que ponerse de manifiesto en un cambio de la velocidad de la luz. Esta velocidad sería diferente según que la luz se propagara en una dirección paralela o perpendicular a la dirección del movimiento del éter. Aun cuando el éter se moviera parcialmente con la tierra, tendría que producirse algún efecto debido a lo que podemos llamar viento del éter, y entonces dicho efecto probablemente dependería de la altitud sobre el nivel del mar en la cual se realizara el experimento. Un cálculo del efecto esperado mostró que sería muy reducido, puesto que es proporcional al cuadrado de la relación entre la velocidad de la tierra y la de la luz, y que, por consiguiente, habría que efectuar experimentos muy delicados sobre la interferencia de dos rayos de luz trasladándose paralela o perpendicularmente al movimiento de la tierra. El primer experimento de esta naturaleza, llevado a cabo por Michelson en 1881, no resultó suficientemente exacto. Pero las posteriores repeticiones del experimento tampoco acusaron los más mínimos signos del efecto esperado. Sobre todo, los experimentos de Morley y Miller, de 1904, pudieron considerarse como una prueba definitiva de que un efecto del esperado orden de magnitud no existe.
Este extraño resultado presentaba otro aspecto que había sido discutido por los físicos algún tiempo antes. En la mecánica de Newton figura un cierto “principio de relatividad” que puede describirse como sigue: Si en un determinado sistema de referencia el movimiento mecánico de los cuerpos cumple las leyes de la mecánica de Newton, entonces eso también es cierto para cualquier otro sistema de referencia que se encuentre en movimiento uniforme no rotativo con respecto al primer sistema. O, en otras palabras, un movimiento de traslación uniforme de un sistema no produce ninguna clase de efectos mecánicos y, en consecuencia, no puede ser observado mediante tales efectos.
Semejante principio de relatividad —así les parecía a los físicos — no podía ser cierto en óptica ni en electrodinámica. Si el primer sistema está quieto con respecto al éter, los demás sistemas no lo están y, por consiguiente, su movimiento con respecto al éter tendría que comprobarse con efectos de la naturaleza del considerado por Michelson. El resultado negativo del experimento de Morley y Miller, de 1904, resucitó la idea de que tal principio de relatividad podía ser cierto en electrodinámica tanto como la mecánica de Newton.
Por otra parte, existía un viejo experimento realizado por Fizeau en 1851 que parecía contradecir definitivamente el principio de relatividad. Fizeau había medido la velocidad de la luz en un líquido en movimiento. Si el principio de relatividad era correcto, la velocidad total de la luz en el líquido en movimiento tendría que ser la suma de la velocidad del líquido y la velocidad de la luz en el líquido en reposo. Pero no era así; el experimento de Fizeau mostró que la velocidad total era algo menor.
No obstante, los resultados negativos de todos los experimentos más recientes para reconocer el movimiento “con respecto al éter” indujeron a los físicos y matemáticos teóricos de entonces a buscar interpretaciones matemáticas que conciliaran la ecuación de onda para la propagación de la luz con el principio de relatividad. En 1904, Lorentz sugirió una trasformación matemática que llenaba tales exigencias. Tuvo que introducir la hipótesis de que los cuerpos móviles se contraen en la dirección del movimiento con un coeficiente dependiente de la velocidad del cuerpo, y que en diferentes sistemas de referencia existen diferentes tiempos “aparentes” que en muchos aspectos remplazan al tiempo “real”. De esta manera pudo representar algo parecido al principio de relatividad: la velocidad “aparente” de la luz era la misma en todo sistema de referencia. Ideas similares fueron discutidas por Poincaré, FitzGerald y otros físicos.
Sin embargo, el paso decisivo fue dado por el estudio de Einstein, en 1905, estableciendo que el tiempo “aparente” de la trasformación de Lorentz era el tiempo “real” y aboliendo lo que Lorentz había denominado tiempo “real”. Esto significaba un cambio en las bases mismas de la física; un cambio inesperado y radical que requería todo el coraje de un genio joven y revolucionario. Para dar este paso sólo se necesitaba la aplicación sistemática de la trasformación de Lorentz a la representación matemática de la naturaleza. Pero con esa nueva interpretación cambiaba la estructura del espacio y del tiempo y muchos problemas de la física aparecían ante una nueva luz. La sustancia éter, por ejemplo, también podía ser abolida. Puesto que todos los sistemas de referencia que existen para un movimiento uniforme de traslación se equivalen unos a otros en la descripción de la naturaleza, carece de sentido la afirmación de que existe una sustancia, el éter, que se halla en reposo en sólo uno de esos sistemas. Esa sustancia no es, en realidad, indispensable, y es mucho más sencillo decir que las ondas luminosas se propagan a través del espacio vacío y que los campos electromagnéticos constituyen una realidad por sí mismos y pueden existir en el espacio vacío.
Pero el cambio decisivo se producía en la estructura del espacio y el tiempo. Es muy difícil describir este cambio con las palabras del lenguaje habitual, sin recurrir al empleo de las matemáticas, puesto que los términos habituales, “espacio” y “tiempo”, se refieren a una estructura del espacio y del tiempo que es, en realidad, una idealización y una supersimplificación de la estructura real. Pero aun así tenemos que tratar de describir la nueva estructura y quizá podamos hacerlo del siguiente modo:
Cuando empleamos la palabra “pasado”, nos referimos a todos aquellos acontecimientos que podríamos conocer, por lo menos en principio, de los cuales podríamos haber oído hablar por lo menos en principio. De manera similar, en el término “futuro” comprendemos todos aquellos acontecimientos en que podríamos influir al menos en principio, que podríamos tratar de cambiar o prevenir por lo menos en principio. Para quien no sea un físico no es fácil ver por qué esta definición de los términos “pasado” y “futuro” puede ser la más conveniente. Pero puede observarse fácilmente que corresponde muy exactamente a nuestro empleo habitual de los términos. Si empleamos los términos de esta manera se advierte, como un resultado de numerosas experiencias, que el contenido de “pasado” y “futuro” no depende del estado de movimiento o de otras propiedades del observador. Podemos decir que la definición no varía con el movimiento de aquél. Esto es verdad tanto en la mecánica de Newton como en la teoría de la relatividad de Einstein.
Pero la diferencia es ésta: en la teoría clásica aceptamos que pasado y futuro se hallan separados por un intervalo de tiempo infinitamente corto al que podemos llamar momento presente. En la teoría de la relatividad hemos aprendido que la situación es distinta: futuro y pasado se hallan separados por un intervalo de tiempo finito cuya longitud depende de la distancia a que se encuentra el observador. Cualquier acto sólo puede propagarse con una velocidad menor o igual a la velocidad de la luz. Por consiguiente, un observador no puede en un determinado instante conocer ningún acontecimiento, ni influir en él, a una distancia que tenga lugar entre dos tiempos característicos. Un tiempo corresponde al instante en que debe darse la señal luminosa desde el punto del acontecimiento para que llegue al observador en el instante de la observación. El otro tiempo corresponde al instante en el que una señal luminosa producida por el observador en el instante de la observación, llega al punto del acontecimiento. Todo el intervalo de tiempo finito entre esos dos instantes puede decirse que pertenece al “tiempo presente” para el observador en el instante de la observación. Cualquier acontecimiento que tenga lugar entre los dos tiempos característicos puede llamarse “simultáneo” con el acto de observación.
El uso de la frase “puede llamarse” señala una ambigüedad de la palabra “simultáneo”, ambigüedad debida al hecho de que esta palabra se ha formado con la experiencia de la vida diaria, en la cual la velocidad de la luz siempre puede considerarse como infinitamente elevada. En realidad, este término también puede definirse en física de manera ligeramente distinta y Einstein ha empleado esta segunda definición en sus escritos. Cuando dos acontecimientos suceden simultáneamente en el mismo punto del espacio decimos que coinciden; ésta es una palabra completamente ambigua. Imaginémonos ahora tres puntos en el espacio, colocados en línea recta, de modo que el punto del medio se encuentre a la misma distancia de cada uno de los otros dos puntos extremos. Si dos acontecimientos suceden en los dos puntos extremos en tiempos que hagan que las señales luminosas originadas por los acontecimientos coincidan al llegar al punto situado en el medio, podemos definir los dos acontecimientos como simultáneos. Esta definición es más exacta que la primera. Una de sus consecuencias más importantes es que cuando dos acontecimientos son simultáneos para un observador pueden no ser simultáneos para otro observador, si éste se encuentra en movimiento con relación al primer observador. La relación entre las dos definiciones puede establecerse afirmando que cuando dos acontecimientos son simultáneos en el primer sentido del término, siempre puede encontrarse un sistema de referencia en el que también son simultáneos en el segundo sentido.
La primera definición del término “simultáneo” parece corresponder más aproximadamente al empleo que del término hacemos en la vida diaria, ya que la cuestión de si dos acontecimientos son simultáneos no depende, en la vida diaria, del sistema de referencia. Pero en las dos definiciones relativistas, el término ha adquirido una precisión de que carece en el lenguaje de la vida cotidiana. En la teoría cuántica los físicos tenían que aprender prontamente que los términos de la física clásica sólo describen la naturaleza en forma imprecisa, que su aplicación está limitada por las leyes cuánticas y, por consiguiente, que hay que emplearlos con suma prudencia. En la teoría de la relatividad los físicos han tratado de cambiar el significado de las palabras de la física clásica, para dar a los términos una precisión mayor de modo que se amolden a la nueva situación de la naturaleza.
La estructura del espacio y del tiempo descubierta por la teoría de la relatividad tiene muchas consecuencias en diferentes aspectos de la física. La electrodinámica de los cuerpos en movimiento puede derivarse inmediatamente del principio de relatividad. Este mismo principio puede ser formulado como una ley completamente general de la naturaleza, perteneciendo no solamente a la electrodinámica o la mecánica sino a cualquier grupo de leyes: las leyes toman la misma forma en todos los sistemas de referencia que sólo difieran entre sí por un movimiento uniforme de traslación; no varían con la trasformación de Lorentz.
Quizá la consecuencia más importante del principio de relatividad sea la inercia de la energía, o de la equivalencia de masa y energía. Dado que la velocidad de la luz es la velocidad limitativa que nunca puede ser alcanzada por ningún cuerpo material, es fácil advertir que es más difícil acelerar un cuerpo que ya está moviéndose muy rápidamente que un cuerpo en reposo. La inercia ha aumentado con la energía cinética. Pero, en forma completamente general, cualquier clase de energía, de acuerdo con la teoría de la relatividad, contribuirá a la inercia, es decir a la masa, y la masa perteneciente a una determinada cantidad de energía es precisamente esta energía dividida por el cuadrado de la velocidad de la luz. Por consiguiente, toda energía lleva masa consigo; pero hasta una energía más bien grande sólo lleva una masa muy pequeña, y esta es la razón por la cual la relación entre masa y energía no fue observada con anterioridad. Las dos leyes de la conservación de la masa y la conservación de la carga pierden su validez respectiva y se combinan en una sola ley que puede llamarse ley de conservación de la energía o masa. Hace cincuenta años, cuando se formuló la teoría de la relatividad, esta hipótesis de la equivalencia de masa y energía se presentó como una profunda revolución en la física, y sin embargo había muy poca evidencia experimental al respecto todavía. En la actualidad muchos experimentos nos muestran cómo pueden crearse partículas elementales a partir de la energía cinética, y como esas partículas se aniquilan para convertirse en radiación; por consiguiente, la trasformación de la energía en masa y viceversa nada tiene de extraordinario. La enorme liberación de energía de una explosión atómica es otra prueba, todavía más espectacular, de la validez de la ecuación de Einstein. Pero aquí podemos agregar una observación histórica y crítica. Alguna vez se ha afirmado que la enorme energía de las explosiones atómicas se debe a una trasmutación directa de masa en energía, y que solamente sobre la base de la teoría de la relatividad ha sido posible predecir esa energía. Esto es, sin embargo, una equivocación. La enorme cantidad de energía disponible en el núcleo atómico fue conocida desde los experimentos de Becquerel, Curie y Rutherford sobre la desintegración radiactiva. Cualquier cuerpo que se desintegra, como el radio, produce una cantidad de calor de más o menos un millón de veces mayor que el calor liberado mediante un proceso químico en una cantidad similar de material. La fuente de energía en el proceso de fisión del uranio es exactamente la misma que en la desintegración alfa del radio, sobre todo la repulsión electrostática de las dos partes en que el núcleo se divide. Por consiguiente, la energía de una explosión atómica procede directamente de esta fuente y no se deriva de una trasmutación de masa en energía. El número de partículas elementales con masa finita no disminuye durante la explosión. Pero también es cierto que en un núcleo atómico las energías de las partículas se manifiestan en sus masas y, en consecuencia, la liberación de energía está relacionada, en esta forma indirecta, con los cambios de las masas de los núcleos. La equivalencia de masa y energía —además de su gran importancia en la física— también plantea problemas concernientes a muy antiguos debates filosóficos. Varios sistemas filosóficos del pasado han sostenido la tesis de que la sustancia o materia no puede ser destruida. Sin embargo, muchos experimentos de la física moderna han demostrado que las partículas elementales, como los positrones y los electrones, pueden ser aniquiladas y trasformadas en radiación. ¿Significa esto que esos viejos sistemas filosóficos han sido desautorizados por la experimentación actual y que los argumentos por ellos sostenidos han sido erróneos?
Esta sería, sin duda, una conclusión precipitada e injustificada puesto que en la filosofía antigua o medieval los términos “sustancia” y “materia” no pueden ser simplemente identificados con el término “masa” de la física moderna. Si se quisiera expresar nuestra experiencia moderna en el lenguaje de las filosofías antiguas, habría que considerar masa y energía como dos formas diferentes de la misma “sustancia” y, en consecuencia, conservar la idea de sustancia como indesmentible.
Por otra parte, apenas puede decirse que es mucho lo que se gana expresando el conocimiento actual en un lenguaje antiguo. Los sistemas filosóficos del pasado se formaron con el conjunto de conocimientos aprovechables de su tiempo y siguiendo la línea de pensamiento que dichos conocimientos sugerían. No podía, ciertamente, esperarse que los filósofos de hace varios cientos de años pudieran prever el desarrollo de la física moderna o la teoría de la relatividad. Por consiguiente, los conceptos hacia los cuales eran atraídos los filósofos en el proceso de clarificación intelectual hace tanto tiempo no pueden de ninguna manera adaptarse a los fenómenos que sólo pueden observarse mediante las complicadas herramientas técnicas de nuestra época.
Pero antes de entrar a examinar las implicaciones filosóficas de la teoría de la relatividad hay que describir su posterior evolución.
La hipotética sustancia “éter”, que ha representado un papel tan importante en las primeras discusiones sobre las teorías de Maxwell, en el siglo diecinueve, ha sido abolida —como antes se ha dicho— por la teoría de la relatividad. Esto se expresa a veces diciendo que la idea del espacio absoluto ha sido abandonada. Pero semejante juicio debe aceptarse con mucha precaución. Es verdad que no es posible señalar un sistema de referencia en el que la sustancia éter se encuentre en reposo y que pueda consiguientemente merecer el nombre de “espacio absoluto”. Pero sería errado decir que el espacio ha perdido ahora todas sus propiedades físicas. Las ecuaciones de movimiento para los cuerpos materiales o campos, aún toman una forma diferente en un sistema “normal” de referencia, y en otro que gira o se halla en un movimiento no uniforme con respecto al “normal”. La existencia de las fuerzas centrífugas en un sistema rotatorio prueba —hasta donde a la teoría de la relatividad de 1905 y 1906 concierne— la existencia de propiedades físicas del espacio que permiten distinguir entre un sistema rotatorio y otro que no lo es.
Esto puede no parecer satisfactorio desde un punto de vista filosófico, desde el cual podría preferirse atribuir propiedades físicas solamente a las entidades físicas como cuerpos materiales o campos y no al espacio vacío. Pero en lo que concierne a la teoría de los procesos electromagnéticos o a los movimientos mecánicos, esta existencia de propiedades físicas del espacio vacío es simplemente una descripción de hechos que no puede discutirse.
Unos diez años más tarde, en 1916, un cuidadoso análisis de esta situación llevó a Einstein, a una importantísima extensión de la teoría de la relatividad, que es comúnmente llamada teoría de la “relatividad general”. Antes de comenzar una descripción de las principales ideas de esta teoría, puede ser útil decir unas palabras sobre el grado de certeza que podemos atribuir a estas dos partes de la teoría de la relatividad. La teoría de 1905 y 1906 se basa en un gran número de hechos bien establecidos: en los experimentos de Michelson y Morley y muchos otros similares, sobre la equivalencia de masa y energía en innumerables procesos radiactivos; en la dependencia de la vida de los cuerpos radiactivos con respecto a sus velocidades, etcétera. En consecuencia, esta teoría pertenece a los firmes fundamentos de la física moderna y, en nuestra presente situación, no puede discutirse.
Con respecto a la teoría de la relatividad general, la evidencia experimental es mucho menos convincente dado que el material experimental es muy escaso. Sólo se cuenta con unas pocas observaciones astronómicas que permiten controlar la exactitud de las suposiciones. Por consiguiente, toda esta teoría es mucho más hipotética que la primera.
La piedra angular de la teoría de la relatividad general es la relación entre la inercia y la gravedad. Mediciones muy cuidadosas han mostrado que la masa de un cuerpo como fuente de gravedad es exactamente proporcional a la masa como medida de la inercia del cuerpo. Ni las mediciones más exactas han mostrado jamás una desviación de esta ley. Si la ley es en general verdadera, las fuerzas gravitacionales pueden ser colocadas en el mismo nivel que las fuerzas centrífugas u otras fuerzas que aparecen como reacción de la inercia. Dado que las fuerzas centrífugas han de ser consideradas como debidas a las propiedades físicas del espacio vacío, según antes se ha expresado, Einstein se inclinó hacia la hipótesis de que las fuerzas gravitacionales también se deben a las propiedades del espacio vacío. Este era un paso muy importante que requería inmediatamente un segundo paso de igual importancia. Sabemos que las fuerzas de la gravedad son producidas por las masas. Si, consiguientemente, la gravitación se relaciona con las propiedades del espacio, estas propiedades del espacio deben ser originadas por las masas o influidas por ellas. En un sistema rotatorio, las fuerzas centrífugas deben ser producidas por la rotación (relativa al sistema) de masas posiblemente muy distantes.
Para llevar adelante el programa esbozado en estas pocas frases, Einstein tuvo que relacionar las ideas fundamentales de la física con el esquema matemático de la geometría general que había desarrollado Riemann. Puesto que las propiedades del espacio parecían cambiar en forma continua con los campos gravitacionales, su geometría tenía que ser comparada con la geometría de las superficies curvas donde la línea recta de la geometría euclidiana debía ser reemplazada por la línea geodésica, la línea de la distancia más corta, y donde la curvatura cambia constantemente. Como resultado final, Einstein se halló en condiciones de proponer una formulación matemática de la relación entre la distribución de las masas y los determinantes parámetros de la geometría. Esta teoría representó los hechos comunes de la gravitación. Era aproximadamente idéntica a la teoría convencional de la gravitación y predecía, además, unos cuantos efectos interesantes que se encontraban en el límite de lo mensurable. Figuraba, por ejemplo, la acción de la gravedad sobre la luz. Cuando una luz monocromática es emitida desde una estrella pesada, el cuanto de luz pierde energía al moverse a través del campo gravitacional de la estrella; a ello sigue una variante roja de la línea espectral emitida. Aún no existe una evidencia experimental de esta variante roja, como lo ha demostrado claramente el análisis de los experimentos de Freundlich. Pero sería también prematuro concluir que los experimentos contradicen la predicción de la teoría de Einstein. Un rayo de luz que pasara cerca del sol sería desviado por su campo gravitacional. La desviación ha sido hallada experimentalmente por Freundlich en el verdadero orden de magnitud; pero aún no se ha establecido si la desviación se acuerda cuantitativamente con el valor predicho por la teoría de Einstein. La mejor evidencia para la validez de la teoría de la relatividad general parece ser la precesión en el movimiento orbital del planeta Mercurio que, aparentemente, coincide muy bien con el valor predicho por la teoría.
Aunque la base experimental de la relatividad general es aún más bien débil, la teoría contiene ideas de la mayor importancia. Durante todo el período trascurrido desde los matemáticos de la antigua Grecia hasta el siglo diecinueve, la geometría euclidiana ha sido considerada como evidente; los axiomas de Euclides fueron estimados como el fundamento de cualquier geometría matemática, un fundamento que no podía discutirse. Luego, en el siglo diecinueve, los matemáticos Bolyai y Lobachewsky, Gauss y Riemann encontraron que podían inventarse otras geometrías susceptibles de ser desarrolladas con la misma precisión matemática que la de Euclides, y, en consecuencia, la cuestión de cuál geometría era la correcta pasó a ser una cuestión experimental. Pero sólo fue mediante el trabajo de Einstein cómo el problema pudo ser encarado por los físicos. La geometría en la teoría de la relatividad general no se relacionaba solamente con el espacio tridimensional sino con un complejo cuatridimensional formado por espacio y tiempo. La teoría establecía una relación entre la geometría de estas concepciones y la distribución de las masas en el mundo. Por consiguiente, esta teoría planteó en una forma enteramente nueva la vieja cuestión del comportamiento del espacio y el tiempo en las máximas dimensiones; podía sugerir diferentes respuestas susceptibles de ser verificadas por la observación.
En consecuencia, se encararon muy antiguos problemas filosóficos que habían atraído la atención del hombre desde los comienzos de la filosofía y de la ciencia. ¿Es el espacio finito o infinito? ¿Qué había antes del comienzo del tiempo? ¿Qué pasará al término del tiempo? ¿O es que no hay ni comienzo ni fin? Estas preguntas tuvieron diferentes respuestas en las diversas filosofías y religiones. En la filosofía de Aristóteles, por ejemplo, el espacio total del universo era finito (aunque era infinitamente divisible). El espacio se debía a la extensión de los cuerpos; donde no había cuerpos no había espacio. El universo estaba constituido por la tierra, el sol y las estrellas: un número finito de cuerpos. Más allá de la esfera de las estrellas el espacio no existía; en consecuencia, el espacio del universo era finito.
En la filosofía de Kant este problema pertenecía a lo que él llamaba “antinomias” —preguntas que no pueden contestarse dado que dos argumentos distintos conducen a opuestos resultados—. El espacio no puede ser finito ya que no nos es posible imaginar que pueda existir un límite para el espacio; en cualquier punto del espacio en que nos encontremos podemos imaginar que siempre es posible ir más allá. Al mismo tiempo, el espacio no puede ser infinito porque el espacio es algo que podemos imaginamos (de lo contrario la palabra “espacio” no existiría) y no podemos imaginar un espacio infinito. Por lo que hace a esta segunda tesis el argumento de Kant no ha sido verbalmente reproducido. La afirmación “el espacio es infinito” significa para nosotros algo negativo; no podemos llegar a un final del espacio. Para Kant eso significa que la infinitud del espacio es realmente dada, que “existe” en un sentido que difícilmente podemos reproducir. La conclusión de Kant es que a la pregunta de si el espacio es finito o infinito no se le puede dar una respuesta razonable porque la totalidad del universo no puede ser objeto de nuestra experiencia.
Una situación similar se presenta con respecto al problema de la infinitud del tiempo. En las Confesiones de San Agustín, por ejemplo, la pregunta se formula diciendo: ¿qué hacía Dios antes de que creara el mundo? Agustín no se satisface con el chiste que dice que “Dios estaba ocupado preparando el Infierno para los que hacen preguntas disparatadas”. Esto, dice, sería una respuesta muy cómoda, y trata de hacer un análisis racional del problema. El tiempo sólo pasa para nosotros; lo esperamos como futuro; pasa como momento presente y lo recordamos como pasado. Pero Dios no está en el tiempo; para Él mil años son como un día, y un día como mil años. El tiempo ha sido creado juntamente con el mundo, pertenece al mundo, por consiguiente, el tiempo no existía antes de que existiera el universo. Para Dios todo el curso del universo se da de una vez. El tiempo no existía antes de que Él creara el mundo. Es obvio que en tales afirmaciones la palabra “creara” plantea instantáneamente las principales dificultades. Esta palabra, tal como generalmente se la entiende, significa que algo que antes no existía ha cobrado existencia y, en este sentido, presupone el concepto de tiempo. Por consiguiente, es imposible definir en términos racionales lo que pudo significarse con la frase “el tiempo ha sido creado”. Este hecho vuelve a recordamos la lección frecuentemente enseñada por la física moderna: que toda palabra o concepto, por claro que parezca, sólo tiene un limitado radio de aplicación.
En la teoría de la relatividad general, estas preguntas sobre la infinitud del espacio y el tiempo pueden ser formuladas y en parte contestadas sobre una base empírica. Si la relación entre la geometría cuatridimensional del espacio y el tiempo y la distribución de las masas en el universo ha sido correctamente establecida por la teoría, entonces las observaciones astronómicas sobre la distribución de las galaxias en el espacio nos procuran datos sobre la geometría del universo como un todo. Es posible, por lo menos, construir “modelos” del universo, imágenes cosmológicas, cuyas consecuencias pueden ser comparadas con los hechos empíricos.
Con los conocimientos astronómicos actuales no es posible distinguir definidamente entre los varios modelos posibles. Puede ser que el espacio ocupado por el universo sea finito. Esto no querría decir que en alguna parte existe un fin del universo. Sólo significaría que avanzando cada vez más y más lejos en una misma dirección del universo se podría, en último término, regresar al punto de partida. Esta situación sería similar a la de la geometría bidimensional sobre la superficie de la tierra donde, partiendo de un punto en una dirección este, acabamos regresando al mismo punto por el oeste.
Con respecto al tiempo parece existir algo así como un comienzo. Muchas observaciones aluden a un origen del universo que habría tenido lugar hace unos cuatro mil millones de años; por lo menos parecen indicar que hacia aquel tiempo toda la materia del universo se hallaba concentrada en un espacio mucho más reducido que ahora y que desde ese reducido espacio ha ido extendiéndose constantemente con diferentes velocidades. El mismo tiempo de cuatro mil millones de años se encuentra en muchas observaciones diferentes (por ejemplo, con respecto a la edad de los meteoritos, o de los minerales en la tierra, etcétera), y sería por consiguiente difícil encontrar una interpretación fundamentalmente distinta de esta idea de un origen. Si ésta es la correcta, ello significaría que más allá de ese tiempo el concepto de tiempo debería sufrir cambios fundamentales. En el estado actual de las observaciones astronómicas, las preguntas sobre la geometría espacio-tiempo no pueden aún ser contestadas con ningún grado de certidumbre. Pero es muy interesante observar que estas preguntas quizá puedan ser eventualmente contestadas con un sólido fundamento empírico. Por el momento, hasta la teoría de la relatividad general descansa sobre una base experimental muy escasa y debe ser considerada como mucho menos cierta que la así llamada teoría de la relatividad especial expresada por la trasformación de Lorentz.
Aun dejando de lado la más amplia discusión de esta última teoría, no hay duda de que la teoría de la relatividad ha hecho cambiar profundamente nuestras ideas sobre la estructura del espacio y el tiempo. El aspecto más incitante de estos cambios no reside quizás en lo especial de su naturaleza sino en el hecho de que hayan sido posibles. La estructura del espacio y del tiempo, que ha sido definida por Newton como base de su descripción matemática de la naturaleza, era sencilla y coherente y se ajustaba estrechamente al empleo de los conceptos de espacio y tiempo de la vida cotidiana. Esta correspondencia era efectivamente tan estrecha, que las definiciones de Newton podían considerarse como la exacta formulación matemática de estos conceptos comunes. Antes de la teoría de la relatividad parecía completamente obvio que los acontecimientos podían ordenarse en el tiempo independientemente de su ubicación en el espacio. Ahora sabemos que esta impresión se produce en la vida cotidiana por el hecho de que la velocidad de la luz es mucho mayor que la de cualquiera otra velocidad registrada en la experiencia práctica; pero esta restricción, claro está, no era reconocida en aquel tiempo. Y aun cuando ahora conocemos esta restricción, apenas nos es posible imaginar que el orden temporal de los acontecimientos pueda depender de su localización.
Posteriormente la filosofía de Kant llamó la atención sobre el hecho de que los conceptos de espacio y tiempo corresponden a nuestra relación con la naturaleza, y no a la naturaleza misma; y que no podríamos describir la naturaleza sin emplear esos conceptos. En consecuencia, estos conceptos son, en cierto sentido, “a priori”; son la condición para, y no primariamente el resultado de la experiencia, y era creencia general que no podían ser afectados por una nueva experiencia. Por consiguiente, la necesidad del cambio se presentaba como una verdadera sorpresa. Era la primera vez que los científicos comprendían hasta qué punto debían ser precavidos en la aplicación de los conceptos de la vida diaria a la refinada experiencia de la moderna ciencia experimental. Hasta la formulación precisa y consistente de estos conceptos en el lenguaje matemático de la mecánica de Newton o su cuidadoso análisis en la filosofía de Kant carecía de protección contra el posible análisis crítico de las mediciones extremadamente exactas. Posteriormente esta advertencia demostró ser verdaderamente útil para el desarrollo de la física moderna, y seguramente habría sido todavía más difícil comprender la teoría cuántica si el éxito de la teoría de la relatividad no hubiera prevenido a los físicos contra un exagerado empleo de los conceptos tomados de la vida diaria o de la física clásica.
Capítulo 8
Crítica y contraproposiciones a la interpretación dada en Copenhague a la teoría cuántica
La interpretación de la teoría cuántica, de Copenhague, alejó muchísimo a los físicos de las concepciones simplemente materialistas que prevalecieron en la ciencia natural del siglo diecinueve. Como estas concepciones no sólo estuvieron intrínsecamente relacionadas con la ciencia natural de ese período sino que también contaron con el análisis metódico de algún sistema filosófico y penetraron profundamente en la mentalidad general, hasta en la del hombre de la calle, puede comprenderse que se efectuaran diversas tentativas para criticar la interpretación de Copenhague y reemplazarla por otra más de acuerdo con las ideas de la física clásica o de la filosofía materialista.
Estas tentativas pueden dividirse en tres grupos diferentes. El primer grupo no quiere cambiar la interpretación de Copenhague en lo que concierne a las predicciones de los resultados experimentales; pero aspira a cambiar el lenguaje de esta interpretación para hacerla más semejante a la física clásica. En otras palabras, trata de cambiar la filosofía sin cambiar la física. Algunos informes de este primer grupo limitan su acuerdo con las predicciones experimentales de la interpretación de Copenhague a todos aquellos experimentos hasta entonces efectuados o que pertenecían a la física electrónica normal.
El segundo grupo encuentra que la interpretación de Copenhague es la única adecuada, si los resultados experimentales están en un todo de acuerdo con las predicciones de esta interpretación. Por consiguiente, los estudios de este grupo tratan de cambiar en cierta medida algunos puntos críticos de la teoría cuántica.
Finalmente, el tercer grupo más bien expresa su general disconformidad con los resultados de la interpretación de Copenhague y especialmente con sus conclusiones filosóficas, sin formular contraproposiciones definidas. Los trabajos de Einstein, von Laue y Schrödinger pertenecen a este tercer grupo que ha sido, históricamente, el primero de los tres.
Sin embargo, todos los adversarios de la interpretación de Copenhague están de acuerdo en un punto. Sería deseable, en su opinión, volver al concepto de realidad de la física clásica o, para emplear un término filosófico más general, a la ontología del materialismo. Preferirían regresar a la idea de un mundo real objetivo, cuyas partes más pequeñas existen objetivamente del mismo modo que existen las piedras o los árboles, independientemente de si nosotros las observamos o no.
Esto, sin embargo, es imposible, o por lo menos no es completamente posible por la naturaleza de los fenómenos atómicos, según se ha analizado en algunos capítulos anteriores. A nosotros no nos corresponde decir cómo desearíamos que fueran los fenómenos atómicos sino solamente comprenderlos.
Cuando se analizan los estudios del primer grupo, es importante advertir desde el principio que sus interpretaciones no pueden ser refutadas por la experiencia ya que sólo repiten la interpretación de Copenhague en un lenguaje distinto. Desde un punto de vista estrictamente positivista, hasta podemos decir que aquí no nos encontramos con contraproposiciones a la interpretación de Copenhague sino con su exacta repetición en un lenguaje diferente. Por consiguiente, lo único que puede discutirse es la adecuación de ese lenguaje. Un grupo de contraproposiciones desarrolla la idea de los “parámetros ocultos”. Puesto que las leyes teoréticas cuánticas determinan, en general, los resultados de un experimento sólo estadísticamente, habría que inclinarse a pensar, desde el punto de vista clásico, que existen algunos parámetros ocultos que escapan a la observación de cualquier experimento ordinario pero que determinan el resultado del experimento en la forma causal normal. Por consiguiente, en algunos estudios se intenta introducir tales parámetros dentro del sistema de la mecánica cuántica.
Así, por ejemplo, de acuerdo con esta regla, Böhm ha formulado una contraproposición a la interpretación de Copenhague que recientemente ha sido también recogida, hasta cierto punto, por de Broglie. La interpretación de Böhm ha sido elaborada en detalle. Por consiguiente, aquí puede servir como una base para las discusiones. Böhm considera las partículas como estructuras “objetivamente reales”, como los puntos de masas en la mecánica de Newton. En su interpretación, las ondas en el espacio de configuración también son “objetivamente reales”, como los campos eléctricos. Espacio de configuración es un espacio de muchas dimensiones que se refiere a las diferentes coordenadas de todas las partículas pertenecientes al sistema. Aquí nos encontramos con una primera dificultad: ¿qué significa llamar “reales” a las ondas de este espacio? Este es un espacio muy abstracto. La palabra “real” se relaciona con la palabra latina “res”, que significa “cosa”; pero las cosas están en el ordinario espacio tridimensional, no en un abstracto espacio de configuración. A las ondas del espacio de configuración se las puede llamar “objetivas” cuando se desea expresar que esas ondas no dependen de ningún observador; pero difícilmente se las puede llamar “reales” a menos que se quiera cambiar el significado de la palabra. Böhm prosigue definiendo las líneas perpendiculares a las superficies de fases de ondas constantes como las posibles órbitas de las partículas. Cuál de estas líneas sea la órbita “real” depende, según él, de la historia del sistema y de los aparatos de medición, y no puede ser decidida sin un mayor conocimiento del sistema y de los equipos de medición que realmente pueden ser conocidos. Esta historia contiene, de hecho, los parámetros ocultos, la “órbita actual” antes del comienzo del experimento.
Una consecuencia de esta interpretación es, tal como lo ha señalado Pauli, que los electrones, en el estado básico de muchos átomos, tendrían que encontrarse en reposo y no cumpliendo ningún movimiento orbital alrededor del núcleo atómico. Esto aparece como una contradicción de los experimentos, puesto que la medida de la velocidad de los electrones en el estado básico (por ejemplo, mediante el efecto de Compton) revela siempre una distribución de la velocidad en el estado fundamental, que — conforme a las reglas de la mecánica cuántica— está dada por el cuadrado de la función de onda en el espacio de velocidad, o de cantidad de movimiento. Pero aquí Böhm puede argüir que las mediciones ya no pueden ser evaluadas por las leyes ordinarias. Acepta que la evaluación normal de la medición conduciría realmente a una distribución de la velocidad; pero cuando se toma en cuenta la teoría cuántica para el equipo de medición —sobre todo algunos extraños potenciales cuánticos introducidos ad hoc por Böhm— entonces ya es admisible la afirmación de que los electrones están siempre “realmente” en reposo. En las mediciones de la posición de la partícula, Böhm adopta la ordinaria interpretación del experimento como correcto; en las mediciones de velocidad la rechaza.
A este precio Böhm se considera a sí mismo en condiciones de poder asegurar: “No necesitamos abandonar la descripción precisa, racional y objetiva de los sistemas individuales en el reino de la teoría cuántica”. Sin embargo, esta descripción objetiva se muestra a sí misma como una especie de “superestructura ideológica” que tiene poco que hacer con la realidad física inmediata; en cuanto a los parámetros ocultos de la interpretación de Böhm, son de tal naturaleza que pueden no presentarse nunca en la descripción de los procesos reales, si la teoría cuántica permanece invariable.
Para eludir esta dificultad, Böhm expresa, en realidad, la esperanza de que en futuros experimentos en el campo de las partículas elementales, los parámetros ocultos puedan tener todavía una participación física, y que pueda así probarse la falsedad de la teoría cuántica. Cuando se expresaban tan curiosas esperanzas, Böhm acostumbraba decir que eran de estructura similar a la afirmación: “Podemos esperar que algún día resulte que 2 x 2 = 5, porque esto sería de gran beneficio para nuestras finanzas”. En realidad, el cumplimiento de las esperanzas de Böhm dejaría sin fundamentos no sólo a la teoría cuántica sino también a la interpretación de Böhm. Naturalmente, debe destacarse al mismo tiempo que la analogía mencionada, aunque completa, no representa un compulsivo argumento lógico contra una posible alteración futura de la teoría cuántica en la forma sugerida por Böhm. Porque no sería fundamentalmente inimaginable, por ejemplo, que una futura extensión de la lógica matemática pudiera dar un cierto significado a la afirmación de que en casos excepcionales 2 x 2 = 5, y hasta puede ser posible que esa extensión de las matemáticas fuera útil para los cálculos en los planos de la economía. A pesar de todo, estamos realmente convencidos, hasta sin poderosos fundamentos lógicos, de que en las matemáticas tales cambios no servirían para ayudamos financieramente. Por consiguiente, es muy difícil comprender cómo las proposiciones matemáticas señaladas en el trabajo de Böhm como una posible realización de sus esperanzas puedan emplearse para la descripción de los fenómenos físicos.
Si nos desentendemos de esta posible alteración de la teoría cuántica, entonces el lenguaje de Böhm, según ya lo hicimos notar, nada dice de la física que sea distinto de lo dicho por la interpretación de Copenhague. Allí sólo queda pues, la cuestión de la propiedad de este lenguaje. Además de la objeción ya formulada de que al hablar de órbitas de partículas nos estamos refiriendo a una “superestructura ideológica” superflua, cabe aquí mencionar particularmente que el lenguaje de Böhm destruye la simetría entre posición y velocidad que está implícita en la teoría cuántica; para las mediciones de posición, Böhm acepta la interpretación usual; para las mediciones de velocidad o cantidad de movimiento las rechaza. Dado que las propiedades de simetría siempre constituyen la imagen fundamental de una teoría, resulta difícil ver qué se habría ganado omitiéndolas en el lenguaje correspondiente. En consecuencia, no es posible considerar las contraproposiciones de Böhm a la teoría de Copenhague como un adelanto.
Una objeción similar puede formularse de modo algo distinto contra las interpretaciones estadísticas sostenidas por Bopp y (con leve diferencia) por Fenyes. Bopp considera la creación o la aniquilación de una partícula como el proceso fundamental de la teoría cuántica; la partícula es “real” en el sentido clásico de la palabra, en el sentido de la ontología materialista, y las leyes de la teoría cuántica son consideradas como un caso especial de correlaciones estadísticas para tales acontecimientos de creación y aniquilación. Esta interpretación, que contiene muchos comentarios interesantes sobre las leyes matemáticas de la teoría cuántica, puede desarrollarse de tal manera que conduzca, con respecto a las consecuencias físicas, a exactamente las mismas conclusiones que la interpretación de Copenhague. Hasta allí es, en un sentido positivista, tan isomorfa como la de Böhm. Pero en su lenguaje se destruye la simetría entre partículas y ondas que de otro modo es rasgo característico del esquema matemático de la teoría cuántica.
Ya en 1928, Jordán, Klein y Wigner, mostraron que el esquema matemático puede interpretarse no sólo como una cuantización del movimiento de partículas sino también como una cuantización de ondas de materia tridimensional; por consiguiente no hay razón para considerar estas ondas de materia como menos reales que las partículas. La simetría entre ondas y partículas podría asegurarse en la interpretación de Bopp solamente si la correspondiente correlación estadística se desarrollara para las ondas de materia en espacio y tiempo, y se dejara pendiente la cuestión de si partículas u ondas han de ser consideradas como la realidad “verdadera”.
La suposición de que las partículas son reales en el sentido de la ontología materialista siempre hará caer en la tentación de considerar las desviaciones del principio de incertidumbre como “básicamente” posibles. Fenyes, por ejemplo, dice que “la existencia del principio de incertidumbre (que combina con algunas relaciones estadísticas) de ningún modo hace imposibles las mediciones simultáneas, con arbitraria exactitud, de posición y velocidad”. No obstante, Fenyes no expone cómo esas mediciones serán llevadas a la práctica, y, por consiguiente, sus reflexiones parecen reducirse a abstracciones matemáticas.
Weizel, cuyas contraproposiciones a la interpretación de Copenhague son similares a las de Böhm y Fenyes, relaciona los “parámetros ocultos” con una nueva clase de partícula introducida ad hoc, el “zerón”, que, por otra parte, no es observable. Sin embargo, tal concepto hace correr el riesgo de que la interacción entre las partículas reales y los zerones disipe la energía entre los muchos grados de libertad del campo del zerón, de modo que toda la termodinámica se convierta en un caos. Weizel no ha explicado cómo espera evitar ese peligro.
El punto de vista de todas las publicaciones mencionadas puede definirse mejor, quizá, recordando un examen similar de la teoría de la relatividad especial. Quienquiera estuviere disconforme con las negaciones del éter, del espacio absoluto y del tiempo absoluto, expresadas por Einstein, podría argumentar como sigue: La no existencia del espacio absoluto y del tiempo absoluto no está probada de ningún modo por la teoría de la relatividad especial. Solamente se ha demostrado que el espacio verdadero y el tiempo verdadero no actúan realmente en ningún experimento ordinario; pero si este aspecto de las leyes de la naturaleza ha sido debidamente tomado en cuenta, y de ese modo los tiempos “aparentes” correctos han sido introducidos para sistemas coordenados movibles, no habría argumentos contra la aceptación de un espacio absoluto. Hasta sería probable aceptar que el centro de gravedad de nuestra galaxia está (al menos aproximadamente) en reposo en el espacio absoluto. Esta crítica de la teoría de la relatividad especial puede añadir que podemos esperar que futuras mediciones permitirán una clara definición del espacio absoluto (es decir, de los “parámetros ocultos” de la teoría de la relatividad) y que la teoría de la relatividad será así refutada.
Se ve en seguida que este argumento no puede ser refutado por vía experimental, puesto que no contiene afirmaciones que difieran de las de la teoría de la relatividad especial. Pero semejante interpretación destruiría, en el lenguaje empleado, la decisiva simetría propia de la teoría, principalmente la invariabilidad de Lorentz, y, por consiguiente, debe considerarse inapropiada.
La analogía con la teoría cuántica es obvia. Las leyes de la teoría cuántica son tales que los “parámetros ocultos”, inventados ad hoc, nunca pueden ser observados. Las decisivas propiedades de la simetría resultan así destruidas si introducimos los parámetros ocultos como una entidad ficticia en la interpretación de la teoría.
El trabajo de Blochinzev y Alexandrov es, en su planteo del problema, completamente diferente de los analizados anteriormente.
Desde el comienzo, estos autores limitan expresamente sus objeciones contra la interpretación de Copenhague al aspecto filosófico de la cuestión. Lo físico de esta interpretación es aceptado sin reservas.
No obstante, la forma externa de la polémica es mucho más aguda: “Entre las diferentes tendencias idealistas de la física contemporánea, la llamada escuela de Copenhague es la más reaccionaria. El presente informe está dedicado a desenmascarar las especulaciones idealistas y agnósticas de esta escuela sobre los problemas básicos de la física cuántica”, escribe Blochinzev en su introducción. La acritud de la polémica muestra que aquí no sólo tenemos que vérnosla con la ciencia sino también con una declaración de fe, con la adhesión a determinado credo. El propósito perseguido está expresado al final, en una cita de la obra de Lenin: “Por maravillosa que pueda ser, para la inteligencia común, la trasformación del imponderable éter en materia pesada; por extraña que parezca la falta en los electrones de cualquier masa excepto la electromagnética, por rara que parezca la limitación de las leyes mecánicas del movimiento para sólo un ámbito de los fenómenos naturales y su subordinación a las leyes más profundas de los fenómenos electromagnéticos; y así sucesivamente, todo esto no es más que otra confirmación de la dialéctica materialista”. Esta última afirmación parece reducir el interés del análisis de Blochinzev sobre la relación de la teoría cuántica con la filosofía del materialismo dialéctico por cuanto parece limitarlo al juicio de un tribunal cuya sentencia se conoce antes de la iniciación del juicio. No obstante, es interesante ver con toda claridad los argumentos sostenidos por Blochinzev y Alexandrov.
Aquí, donde la tarea consiste en conservar la ontología materialista, el ataque se dirige principalmente a la introducción del observador en la interpretación de la teoría cuántica. Alexandrov escribe: “Debemos por lo tanto entender como resultado de la medición de la teoría cuántica solamente el efecto objetivo de la interacción del electrón con un objeto apropiado. La mención del observador debe ser evitada, y debemos ocupamos en las condiciones objetivas y en los efectos objetivos. Una cantidad física es una característica objetiva del fenómeno pero no el resultado de una observación”. Según Alexandrov, la función de onda en el espacio de configuración caracteriza el estado objetivo del electrón.
En su presentación, Alexandrov descuida el hecho de que el formalismo de la teoría cuántica no permite el mismo grado de objetivación de la física clásica. Por ejemplo, si la interacción de un sistema con el aparato de medición se considera como un todo, de acuerdo con la mecánica cuántica, y si ambos son considerados como algo separado del resto del mundo, entonces el formalismo de la teoría cuántica no conduce, por lo general, a un resultado definitivo; no llevará, por ejemplo, al ennegrecimiento de la placa fotográfica en un punto determinado. Si se quiere mantener el “efecto objetivo” de Alexandrov, diciendo que “en realidad” la placa se ennegrece en un determinado punto después de la interacción, la contrarréplica es que el tratamiento cuántico del sistema consistente en el electrón, el aparato de medición y la placa, ha dejado de aplicarse. Es el carácter “fáctico” de un acontecimiento expresable con los términos propios de los conceptos de la vida diaria, lo que no está contenido sin ulteriores comentarios en el formalismo matemático de la teoría cuántica, y lo que aparece en la interpretación de Copenhague con la introducción del observador. Naturalmente, no debe creerse que la introducción del observador implique la aparición de una imagen subjetiva en la descripción de la naturaleza. Al observador sólo le corresponde, más bien, la función de registrar decisiones, es decir, procesos en el espacio y el tiempo, y no tiene importancia el hecho de que el observador pueda ser un aparato o un ser humano; pero el registro, es decir, la transición de lo “posible” a lo “real”, es aquí absolutamente necesaria y no puede ser omitida en la interpretación de la teoría cuántica. En este punto la teoría cuántica se halla intrínsecamente relacionada con la termodinámica en cuanto todo acto de observación es, por propia naturaleza, un proceso irreversible; sólo mediante tales procesos irreversibles es como el formalismo de la teoría cuántica puede relacionarse consistentemente con los acontecimientos reales del espacio y el tiempo. La irreversibilidad vuelve a ser —cuando se proyecta en la representación matemática del fenómeno— una consecuencia del conocimiento incompleto que el observador tiene del sistema y deja de ser completamente “objetiva”.
El planteo de Blochinzev difiere ligeramente del de Alexandrov: “En la mecánica cuántica no describimos un estado de la partícula en sí sino el hecho de que la partícula pertenece a este o aquel grupo estadístico. Esta pertenencia es completamente objetiva y no depende de las condiciones establecidas por el observador”. Tales declaraciones nos llevan muy lejos — probablemente demasiado lejos— del materialismo ontológico. Para aclarar este punto es útil recordar cómo esta dependencia de un grupo estadístico se utiliza para la interpretación de la termodinámica clásica. Si un observador ha determinado la temperatura de un sistema y desea extraer de sus resultados las conclusiones sobre los movimientos moleculares del sistema, puede decir que el sistema es nada más que una muestra de un conjunto canónico y por lo tanto puede considerar que posee quizá diferentes energías. “En realidad” —así podríamos concluir en física clásica— el sistema sólo tiene una energía definida en un determinado tiempo, y ninguna de las otras es comprobada. El observador ha quedado decepcionado si en ese momento consideró como posible una energía diferente. El conjunto canónico no sólo contiene conclusiones sobre el sistema mismo sino también sobre el incompleto conocimiento que del sistema tiene el observador. Si en la teoría cuántica Blochinzev intenta reunir las pertenencias de un sistema en un grupo “completamente objetivo”, emplea la palabra “objetivo” en un sentido distinto del de la física clásica. Para la física clásica estas pertenencias significan, como se ha dicho, no sólo conclusiones sobre el sistema sino también sobre el grado de conocimiento que el observador tiene del sistema. En la teoría cuántica puede hacerse una excepción a lo afirmado. Si en la teoría cuántica el conjunto está caracterizado por sólo una función de onda en el espacio de configuración (y no, como de costumbre, por una matriz estadística), nos encontramos con una situación especial (el llamado “caso puro”) en el que la descripción puede llamarse objetiva en cierto sentido y en el cual el elemento del conocimiento incompleto no se muestra inmediatamente. Pero dado que toda medición (de acuerdo con sus imágenes irreversibles) reintroduciría el elemento del conocimiento incompleto, la situación no sería fundamentalmente diferente.
Sobre todo, estas formulaciones nos permiten advertir lo difícil que es el intento de introducir ideas nuevas en un antiguo sistema de conceptos perteneciente a una filosofía anterior —o, para emplear una vieja metáfora, cuando intentamos poner vino nuevo en odres viejos—. Tales tentativas son siempre desalentadoras porque nos confundimos al preocupamos permanentemente con las fisuras de los odres en lugar de regocijamos por el vino nuevo. No nos es posible suponer que aquellos pensadores que hace un siglo introdujeron el materialismo dialéctico hubieran podido prever el desarrollo de la teoría cuántica. Sus ideas sobre la materia y la realidad no podían adaptarse a los resultados de la refinada técnica experimental de nuestros días.
Tal vez aquí podríamos agregar algunas observaciones generales sobre la actitud de los científicos con respecto de un credo especial, que puede ser un credo religioso o político. La diferencia fundamental entre un credo religioso y un credo político —el último se refiere a la inmediata realidad material del mundo que nos rodea, mientras que el primero tiene como objeto otra realidad más allá del mundo material— no tiene importancia para esta cuestión particular; lo que hay que analizar es el problema del credo en sí. Por lo dicho, nos sentiríamos inclinados a exigir que el científico nunca se apoye en doctrinas especiales, ni limite sus métodos de pensamiento a los de una filosofía particular. Debe estar siempre dispuesto a reconocer que las bases de su conocimiento varían con una nueva experiencia. Pero esta exigencia significaría, a la vez, una supersimplificación de nuestra situación en la vida; por dos razones: la primera es que la estructura de nuestro pensamiento se determina en nuestra juventud con ideas que ya encontramos en esa época o poniéndonos en contacto con personalidades destacadas de las cuales aprendemos. Esta estructura formará una parte integrante de toda nuestra labor futura y bien puede hacer que nos sea posteriormente difícil adaptamos a ideas completamente diferentes. La segunda razón finca en el hecho de que pertenecemos a una comunidad o sociedad. Esta comunidad se mantiene unida por ideas comunes, poruña escala común de valores éticos, o por un lenguaje común en el que uno se expresa sobre los problemas de la vida. Las ideas comunes pueden ser sustentadas por la autoridad de una Iglesia, de un partido o del Estado y, aun si no es ese el caso, puede ser difícil independizarse de las ideas comunes sin entrar en conflicto con la comunidad. Sin embargo, los resultados del pensamiento científico pueden contradecir algunas de las ideas comunes. No sería juicioso, por cierto, pretender que un científico no sea por lo general un miembro leal de su comunidad, que se le prive de la felicidad que puede corresponderle al pertenecer a una comunidad, y tampoco sería juicioso querer que las ideas comunes de la sociedad, que desde el punto de vista científico siempre son simplificaciones, puedan cambiar instantáneamente con el progreso del conocimiento científico, que puedan ser tan variables como necesariamente tienen que ser las teorías científicas. Con esto volvemos, aun en nuestro tiempo, al viejo problema de las “dos caras de la verdad” que ha llenado la historia del cristianismo a lo largo de las postrimerías de la Edad Media. Existe la doctrina, muy discutible, de que una “religión positiva —cualquiera sea su forma — constituye una indispensable necesidad para la masa del pueblo, mientras que el hombre de ciencia busca la verdad real al margen de la religión y solamente allí”. “La ciencia es esotérica”, según se dice, “es solamente para los menos”. Si en nuestro tiempo, las doctrinas políticas y las actividades sociales substituyen, en algunos países, a la religión positiva, el problema continúa siendo fundamentalmente el mismo. La primera aspiración del científico siempre será la honestidad intelectual, mientras que la comunidad le pedirá frecuentemente que —en vista de la variabilidad de la ciencia— espere por lo menos algunas décadas antes de manifestar en público sus opiniones disidentes. Es probable que no exista una solución fácil para este problema si la tolerancia no basta por sí sola; pero puede significar algún consuelo el hecho de que indudablemente se trata de un antiguo problema de la vida humana.
Volviendo ahora a las contraproposiciones de la interpretación de la teoría cuántica de Copenhague, debemos examinar el segundo grupo de proposiciones, el cual procura cambiar la teoría cuántica para llegar a una interpretación filosófica diferente. En este sentido, la tentativa más eficaz ha sido la de Janossy, quien ha observado que la rigurosa validez de la mecánica cuántica nos compele a apartamos del concepto de realidad de la física clásica. En consecuencia, trata de alterar la mecánica cuántica de tal modo que, aun cuando muchos de los resultados sigan siendo verdaderos, su estructura se aproxime a la de la física clásica. Su punto de ataque es lo que se ha llamado “la reducción de paquetes de ondas”, es decir, el hecho de que la función de onda o, de manera más general, la probabilidad de la función cambie discontinuamente cuando el observador conozca un resultado de medición. Janossy advierte que esta reducción no puede ser deducida de las ecuaciones diferenciales del formalismo matemático y cree que de esto puede inferir que hay inconsistencia en la interpretación habitual. Es bien sabido que la “reducción de paquetes de ondas” siempre aparece en la interpretación de Copenhague cuando se completa la transición de lo posible a lo real. La función de probabilidad, que abarcaba un amplio margen de posibilidades, es repentinamente reducida a un margen mucho más estrecho por el hecho de que el experimento ha llevado a un resultado definitivo, porque realmente ha ocurrido cierto acontecimiento. En el formalismo, esta reducción requiere que la llamada interferencia de posibilidades, que es el fenómeno más característico de la teoría cuántica, sea destruida por las interacciones parcialmente indefinibles e irreversibles del sistema, con los aparatos de medición y el resto del mundo. Janossy trata ahora de alterar la mecánica cuántica introduciendo en las ecuaciones los llamados términos de amortiguamiento, de tal modo que los términos de interferencia desaparecen por sí mismos después de un tiempo finito. Aun si esto correspondiese a la realidad —y no hay razón para suponerlo de acuerdo con los experimentos efectuados— todavía quedaría una cantidad de consecuencias alarmantes de tal interpretación, tal como Janossy mismo lo indica (por ejemplo, ondas que se propagan más rápidamente que la velocidad de la luz, intercambio de la secuencia de tiempo de causa y efecto, etcétera). Por consiguiente, difícilmente nos decidiríamos a sacrificar la simplicidad de la teoría cuántica por este modo de ver mientras no fuéramos obligados a ello por los experimentos.
Entre los restantes adversarios de lo que a veces se designa interpretación “ortodoxa” de la teoría cuántica, Schrödinger ha logrado una posición excepcional en tanto atribuye la “realidad objetiva” no a las partículas sino a las ondas y no se propone interpretar las ondas como “solamente ondas de probabilidad”. En su trabajo titulado “¿Hay saltos cuánticos?” intenta negar la existencia de los saltos cuánticos (puede discutirse lo apropiado del término “salto cuántico” en este lugar y sustituirlo por el término menos provocativo de “discontinuidad”). Pero, ante todo, el trabajo de Schrödinger contiene algunas incomprensiones de la interpretación habitual. Desdeña el hecho de que sólo las ondas del espacio de configuración (o las “matrices de trasformación”) son ondas de probabilidad en la interpretación habitual, mientras que las ondas de materia tridimensionales u ondas de radiación no lo son. Las últimas tienen tanta y tan poca “realidad” como las partículas; carecen de relación directa con las ondas de probabilidad, pero poseen una continua densidad de energía y cantidad de movimiento, lo mismo que un campo electromagnético en la teoría de Maxwell. Por consiguiente, Schrödinger afirma que, en cuanto a esto, los procesos pueden concebirse como menos continuos de lo que realmente son. Pero esta interpretación no puede eliminar el elemento de disconformidad que se encuentra por todas partes en la física atómica; cualquier pantalla centelleante o contador de Geiger demuestra la existencia de este elemento inmediatamente. En la interpretación habitual de la teoría cuántica está contenido en la transición de lo posible a lo real. El mismo Schrödinger no formula una contraproposición acerca de cómo entiende introducir el elemento de discontinuidad, observable en todas partes, de un modo distinto al de la interpretación habitual.
Finalmente, la crítica que Einstein, Laue y otros han formulado en varios trabajos, enfoca la cuestión de si la interpretación de Copenhague permite una descripción única, objetiva, de los hechos físicos. Sus argumentos esenciales pueden expresarse como sigue: El esquema matemático de la teoría cuántica parece ser una descripción perfectamente adecuada de las estadísticas de los fenómenos atómicos. Pero aun si sus afirmaciones sobre la probabilidad de los acontecimientos atómicos son completamente correctas, esta interpretación no describe lo que realmente pasa independientemente de las observaciones o entre ellas. Mas algo debe suceder; no podemos dudarlo; este algo no precisa ser descripto en términos de electrones u ondas o cuantos de luz, pero a menos que se lo describa de algún modo la tarea de la física no es completa. No puede admitirse que se refiera únicamente al acto de observación. El físico debe postular en su ciencia que está estudiando un mundo que él no ha construido, y que estaría presente, sin cambio alguno, si él no estuviera allí. Por consiguiente, la interpretación de Copenhague no ofrece una comprensión real de los fenómenos atómicos.
Fácilmente se advierte que lo que estas críticas reclaman es la antigua ontología materialista. ¿Pero cuál puede ser la respuesta desde el punto de vista de la interpretación de Copenhague?
Podemos decir que la física es una parte de la ciencia y que, como tal, persigue una descripción y una comprensión de la naturaleza. Cualquier clase de comprensión, sea o no científica, depende de nuestro lenguaje, de la comunicación de las ideas. Toda descripción de los fenómenos, de los experimentos y sus resultados, descansa sobre el lenguaje como único medio de comunicación. Las palabras de este lenguaje representan los conceptos de la vida diaria, lo que en el lenguaje científico de la física puede purificarse en los conceptos de la física clásica. Estos conceptos son las únicas herramientas para una clara comunicación sobre los acontecimientos, sobre la preparación de los experimentos y sobre sus resultados. Si, por consiguiente, al físico atómico se le pide una descripción de lo que realmente sucede en sus experimentos, las palabras “descripción” y “realmente” y “sucede” sólo pueden referirse a los conceptos de la vida diaria o de la física clásica. Tan pronto como el físico renuncia a estas bases pierde los medios de una comunicación clara y no puede continuar en su ciencia. En consecuencia, cualquier afirmación sobre lo que ha “sucedido realmente” es una afirmación que se hace en los términos de los conceptos clásicos y —a causa de la termodinámica y las relaciones de incertidumbre—, por su propia naturaleza, incompleta con respecto a los detalles de los hechos atómicos involucrados. La aspiración a “describir lo que sucede” en el proceso teorético cuántico entre dos observaciones sucesivas es una contradicción in adjecto puesto que la palabra “describir" se refiere al empleo de los conceptos clásicos, mientras que estos conceptos no pueden aplicarse en el espacio comprendido entre observaciones; sólo pueden aplicarse los puntos de observación.
Aquí debe advertirse que la interpretación de Copenhague de la teoría cuántica no es de ningún modo positivista. Pues, mientras el positivismo se funda en las percepciones sensuales del observador como elementos de la realidad, la interpretación de Copenhague considera las cosas y los procesos que pueden ser descriptos en términos de conceptos clásicos, es decir, lo real como fundamento de cualquier interpretación física.
Al mismo tiempo vemos que la naturaleza estadística de las leyes de la física microscópica no puede ser evitada, puesto que cualquier conocimiento de lo “real” es —a causa de las leyes teoréticas cuánticas— por su propia naturaleza, un conocimiento incompleto.
La ontología del materialismo descansa sobre la ilusión de que el género de existencia, la directa “realidad” del mundo que nos rodea, puede ser extrapolada dentro del ámbito atómico. Esta extrapolación es, sin embargo, imposible.
Pueden agregarse unas cuantas observaciones acerca de la estructura formal de todas las contraproposiciones hechas hasta aquí contra la interpretación de Copenhague de la teoría cuántica. Todas estas proposiciones se han visto obligadas por sí mismas a sacrificar las fundamentales propiedades de simetría de la teoría cuántica (por ejemplo, la simetría entre ondas y partículas o entre posición y velocidad).
Por consiguiente, bien podemos suponer que la interpretación de Copenhague no puede ser eludida si estas propiedades de simetría —como la invariancia de Lorentz en la teoría de la relatividad— resultan constituir una genuina imagen de la naturaleza; y todos los experimentos realizados sostienen este punto de vista.
Capítulo 9
La teoría cuántica y la estructura de la materia
El concepto de materia ha sufrido un gran número de cambios en la historia del pensamiento humano. Se han dado distintas interpretaciones en diferentes sistemas filosóficos. Todos estos diferentes significados de la palabra se hallan aún presentes, en mayor o menor grado, en lo que nosotros, en nuestro tiempo, concebimos mediante la palabra “materia”.
La primitiva filosofía griega, desde Tales hasta los atomistas, al buscar el principio unificador en la mutabilidad universal de todas las cosas, había formado el concepto de materia cósmica, una sustancia del mundo que experimenta todas estas trasformaciones de la que proceden todas las cosas individuales y en la que todas vuelven a transformarse. Esta materia fue parcialmente identificada con cierta materia específica como el agua, el aire o el fuego; sólo parcialmente, porque no poseía otro atributo que el de ser el material del cual están hechas todas las cosas.
Más tarde, en la filosofía de Aristóteles, la materia fue referida a la relación entre forma y materia. Todo cuanto percibimos en el mundo de los fenómenos, en tomo nuestro, es materia formada. La materia no es en sí misma una realidad sino solamente una posibilidad, una “potencia”; sólo existe mediante la forma. En el proceso natural, la “esencia”, como Aristóteles la llama, deja de ser mera posibilidad mediante la forma para ser realidad. La materia de Aristóteles no es, por cierto, una materia específica como el agua o el aire, ni es simplemente espacio vacío; es una especie de substrato corpóreo indefinido, que posee la posibilidad de llegar a ser realidad mediante la forma. Los ejemplos típicos de esta relación entre materia y forma, en la filosofía de Aristóteles, son los procesos biológicos en los que la materia es formada para convertirse en el organismo vivo, y la actividad creadora del hombre. La estatua está potencialmente en el mármol antes de que éste sea trabajado por el escultor.
Después, mucho más tarde, a partir de la filosofía de Descartes, la materia fue primariamente concebida como opuesta al alma. Existían dos aspectos complementarios del mundo, la “materia” y el “alma” o, como lo expresó Descartes, la “res extensa” y la “res cogitans”. Desde que los nuevos principios metódicos de la ciencia natural, particularmente los de la mecánica, rechazaron todo vestigio de fuerzas espirituales en los fenómenos corpóreos, la materia pudo ser considerada como una realidad en sí, independiente del alma y de todo poder sobrenatural. La “materia” de este período es “materia formada”, siendo el proceso de formación interpretado como una cadena causal de interacciones mecánicas; ha perdido su relación con el alma vegetativa de la filosofía aristotélica y, por consiguiente, el dualismo entre materia y forma dejó de ser aplicable. Es esta concepción de la materia la que constituye, con mucho, el ingrediente más poderoso de nuestro actual empleo de la palabra “materia”.
Finalmente, en la ciencia natural del siglo diecinueve hay otro dualismo que ha representado cierto papel, el dualismo entre materia y fuerza. La materia es aquello sobre lo cual pueden actuar las fuerzas; o la materia puede producir fuerzas. La materia, por ejemplo, produce la fuerza de la gravedad, y esta fuerza actúa sobre la materia. Materia y fuerza son dos aspectos bien diferenciados del mundo corpóreo. En la medida en que las fuerzas pueden ser fuerzas formativas, esta distinción se aproxima a la distinción aristotélica de materia y forma. Por otra parte, en la manifestación más reciente de la física moderna esta distinción entre materia y fuerza ha desaparecido completamente, puesto que todo campo de fuerza contiene energía y por tanto constituye materia. A cada campo de fuerza corresponde una clase específica de partículas elementales que poseen fundamentalmente las mismas propiedades que todas las demás unidades atómicas de materia.
Cuando la ciencia natural investiga el problema de la materia, sólo puede hacerlo mediante el estudio de las formas de la materia. La infinita variedad y mutabilidad de las formas de la materia deben constituir el objeto inmediato de la investigación, y los esfuerzos deben orientarse hacia la búsqueda de algunas leyes naturales, de algunos principios unificadores que puedan servir de guía a través de este inmenso campo. Por consiguiente, la ciencia natural —y especialmente la física— ha concentrado su interés, durante largo tiempo, en un análisis de la estructura de la materia y de las fuerzas responsables de esta estructura.
Desde los tiempos de Galileo, el método fundamental de la ciencia natural ha sido el experimental. Este método hizo que fuera posible pasar de la experiencia general a la experiencia específica, y aislar hechos característicos de la naturaleza mediante los cuales se pudieron estudiar sus “leyes” en forma más directa que mediante la experiencia general. Si se quería estudiar la estructura de la materia había que hacer experimentos con la materia. Había que exponer la materia a condiciones extremas para estudiar allí sus trasmutaciones, con la esperanza de encontrar los aspectos fundamentales de la materia, los cuales persisten bajo todos los cambios aparentes.
En los primeros días de la moderna ciencia natural, éste fue el objeto de la química, y tal empeño condujo bastante pronto a la idea del elemento químico. Una sustancia que ya no podía disolverse o desintegrarse por ninguno de los medios a disposición del químico —hervor, calentamiento, disolución, mezcla con otras sustancias, etcétera— se designó con el nombre de elemento. La introducción de este concepto fue un primer paso importantísimo hacia una interpretación de la estructura de la materia. La enorme variedad de sustancias fue por lo menos reducida a un número relativamente pequeño de sustancias más elementales, los “elementos”, y así fue posible establecer cierto orden entre los distintos fenómenos químicos. Como consecuencia, la palabra “átomo” se empleó para designar la más pequeña unidad de materia de un elemento químico, y la partícula más pequeña de un compuesto químico pudo concebirse como un pequeño grupo de átomos diferentes. La partícula más pequeña del elemento hierro, por ejemplo, fue un átomo de hierro, y la partícula más pequeña del agua, consistió en un átomo de oxígeno y dos átomos de hidrógeno.
El paso siguiente, y casi tan importante como aquél, fue el descubrimiento de la conservación de la masa en el proceso químico. Por ejemplo, cuando la combustión del elemento carbono lo trasforma en dióxido de carbono, la masa del dióxido de carbono es igual a la suma de las masas del carbono y del oxígeno anterior al proceso. Fue este descubrimiento el que dio una significación cuantitativa al concepto de materia: independientemente de sus propiedades químicas la materia podía ser medida por su masa.
Durante el período siguiente, particularmente en el siglo diecinueve, se descubrió una cantidad de nuevos elementos químicos; esa cantidad ha llegado actualmente al centenar. Este desarrollo mostró claramente que el concepto del elemento químico aún no había alcanzado el punto en el que fuera posible interpretar la unidad de la materia. La creencia de que hay muchísimas clases de materia, cualitativamente diferentes y sin ninguna relación entre unas y otras, no podía satisfacer.
A comienzos del siglo diecinueve se encontraron algunas pruebas de la relación entre los diferentes elementos en el hecho de que los pesos atómicos de los diferentes elementos parecían ser múltiplos enteros de la unidad más pequeña próxima al peso atómico del hidrógeno. La similaridad del comportamiento químico de algunos elementos fue otra manifestación que llevaba en la misma dirección. Pero solamente el descubrimiento de fuerzas mucho más poderosas que las aplicadas en los procesos químicos podía establecer realmente la relación entre los diferentes elementos y, consecuentemente, conducir a una precisa unificación de la materia.
En realidad, estas fuerzas se encontraron en el proceso radiactivo descubierto por Becquerel en 1896. Las investigaciones sucesivas de Curie, Rutherford y otros, revelaron la trasmutación de los elementos en el proceso radiactivo. En esos procesos, las partículas alfa eran emitidas como fragmentos de los átomos con una energía de más o menos un millón de veces mayor que la energía de una sola partícula atómica en un proceso químico. Por consiguiente, estas partículas podían utilizarse como herramientas para la investigación de la estructura íntima del átomo. El resultado de los experimentos de Rutherford sobre la dispersión de los rayos alfa fue el modelo nuclear del átomo de 1911. La imagen más importante de ese tan conocido modelo fue la separación del átomo en dos partes bien diferenciadas, el núcleo atómico y los haces electrónicos de su contorno. En el medio del átomo, el núcleo sólo ocupa una fracción extremadamente reducida del espacio ocupado por el átomo (su radio es unas mil veces más pequeño que el del átomo), pero contiene casi toda su masa. Su carga eléctrica positiva, que es un múltiplo entero de la llamada carga elemental, determina el número de los electrones del contorno —el átomo, como un todo, debe ser eléctricamente neutro— y las formas de sus órbitas.
La distinción entre el núcleo atómico y los haces electrónicos proporcionó al mismo tiempo una explicación apropiada del hecho de que para la química los elementos químicos son las últimas unidades de materia y que se requieren fuerzas mucho más poderosas para que los elementos se trasformen unos en otros. El enlace químico entre los átomos vecinos se debe a una interacción de los haces electrónicos, y las energías de esta interacción son relativamente pequeñas. Un electrón acelerado en un tubo de descarga por un potencial de sólo varios voltios tiene energía suficiente para inducir a los haces de electrones a la emisión de radiación, o para destruir el enlace químico en una molécula. Pero el comportamiento químico del átomo, aunque consiste en el comportamiento de sus haces electrónicos, está determinado por la carga del núcleo. Si se desea cambiar las propiedades químicas hay que cambiar el núcleo, y esto exige energías que pueden calcularse un millón de veces más grandes.
Sin embargo, el modelo nuclear del átomo, si se lo concibe como un sistema obediente a la mecánica de Newton, no podía explicar la estabilidad del átomo. Como ya se ha dicho en un capítulo anterior, solamente la aplicación de la teoría cuántica a este modelo, mediante el trabajo de Bohr, podía ser válida para el hecho de que, por ejemplo, un átomo de carbono, después de haberse hallado en interacción con otros átomos o después de haber emitido radiación continuara finalmente siendo un átomo de carbono con los mismos haces electrónicos que antes. La estabilidad podía explicarse simplemente por esos esquemas de la teoría cuántica que evitan una simple descripción objetiva en el espacio y el tiempo, de la estructura del átomo.
De esta manera pudo finalmente obtenerse una base para la interpretación de la materia. Las propiedades químicas y otras de los átomos podían explicarse con la aplicación del esquema matemático de la teoría cuántica a los haces electrónicos. Partiendo de esta base era posible extender el análisis de la estructura de la materia en dos opuestas direcciones. Se podía estudiar la interacción de los átomos, su relación con unidades más grandes, como las moléculas, los cristales o los objetos biológicos; o se podía, mediante la investigación del núcleo atómico y sus componentes, tratar de penetrar la unidad final de la materia. Se han efectuado trabajos en ambas direcciones durante las décadas pasadas, y en las próximas páginas nos referiremos al papel de la teoría cuántica en estos dos campos.
Las fuerzas existentes entre los átomos vecinos son primariamente fuerzas eléctricas, las de la atracción de las cargas opuestas y las de repulsión de las cargas iguales; los electrones son atraídos por los núcleos y se repelen entre sí. Pero estas fuerzas no actúan de acuerdo con las leyes de la mecánica de Newton sino según las de la mecánica cuántica.
Esto conduce a dos diferentes tipos de relaciones entre los átomos. En uno de ellos el electrón de un átomo se traslada al otro, por ejemplo, para llenar un hueco en su corteza electrónica casi completa. En este caso, ambos átomos están finalmente cargados y forman lo que los físicos denominan iones, y, puesto que sus cargas son opuestas, se atraen mutuamente.
En el segundo tipo, un electrón pertenece, de un modo propio de la teoría cuántica, a ambos átomos. Usando la imagen de la órbita electrónica, puede decirse que el electrón gira en tomo de ambos núcleos empleando una parecida cantidad de tiempo tanto en uno como en otro átomo. Este segundo tipo de relación corresponde a lo que los químicos llaman enlace de valencia.
Estos dos tipos de fuerzas, que pueden presentarse en cualquier mezcla, provocan la formación de varios grupos de átomos y parecen ser finalmente responsables de todas las complicadas estructuras de la materia macroscópica, que se estudian en la física y la química. La formación de los compuestos químicos tiene lugar mediante la formación de pequeños grupos cerrados de átomos diferentes, constituyendo cada grupo una molécula del compuesto.
La formación de los cristales es debida al ordenamiento de los átomos en enrejados regulares. Los metales se forman cuando los átomos están tan apretadamente compactos que sus electrones exteriores pueden abandonar su corteza y errar por todo el cristal. El magnetismo se debe al movimiento centrífugo de los electrones, y así sucesivamente.
En todos estos casos, el dualismo entre materia y fuerza puede aún ser retenido puesto que los núcleos y los electrones pueden ser considerados como fragmentos de la materia que se mantienen unidos en virtud de fuerzas electromagnéticas.
Mientras que de este modo la física y la química han llegado a una unión casi completa en sus relaciones con la estructura de la materia, la biología tiene que habérselas con estructuras de un tipo más complicado y algo diferente. Es verdad que no obstante la integridad del organismo viviente no puede en realidad hacerse una distinción terminante entre la materia animada y la inanimada. El desarrollo de la biología nos ha proporcionado un gran número de ejemplos en los que puede verse que las funciones biológicas específicas son efectuadas por moléculas especialmente grandes, o por grupos o cadenas de tales moléculas; y en la moderna biología se ha registrado una creciente tendencia a explicar los procesos biológicos como consecuencias de las leyes de la física y la química. Pero la clase de estabilidad que muestran los organismos vivos es de naturaleza un tanto diferente de la estabilidad de los átomos o los cristales. Es una estabilidad de proceso o de función más bien que una estabilidad de forma. No puede dudarse de que las leyes de la teoría cuántica representan un papel muy importante en los fenómenos biológicos. Por ejemplo, esas fuerzas específicas de la teorética cuántica que sólo pueden describirse imprecisamente mediante el concepto de la valencia química son esenciales para la comprensión de las grandes moléculas orgánicas y sus distintos moldes geométricos; los experimentos de mutaciones biológicas por radiación muestran al mismo tiempo la aplicabilidad de las leyes estadísticas de la teorética cuántica y la existencia de mecanismos amplificadores. La estrecha analogía entre el trabajo de nuestro sistema nervioso y el funcionamiento de las modernas calculadoras electrónicas destacan una vez más la importancia de los simples procesos elementales en el organismo vivo. Sin embargo, todo esto no prueba que la física y la química, juntamente con el concepto de evolución, hayan de ofrecer alguna vez una descripción completa del organismo vivo. Los procesos biológicos deben ser tratados con una experimentación científica mucho más cautelosa que los procesos de la física y la química. Tal como lo ha advertido Bohr, puede ocurrir que no sea posible darse una descripción del organismo vivo que pueda considerarse completa desde el punto de vista del físico ya que ello requeriría experimentos que interfieren demasiado en las funciones biológicas. Bohr ha descripto esta situación diciendo que en biología nos enfrentamos con manifestaciones de las posibilidades de esa naturaleza a la cual pertenecemos más bien que con los resultados de los experimentos que podemos efectuar. La situación de complementariedad a que esta formulación alude está representada como una tendencia de los métodos de la moderna investigación biológica que, por una parte, hace un uso completo de todos los métodos y resultados de la física y la química y, por otra parte, se funda en los conceptos que se refieren a los aspectos de la naturaleza orgánica que no están contenidos en la física o la química, como el concepto de la vida misma.
Hasta aquí hemos seguido el análisis de la estructura de la materia en una dirección: desde el átomo hasta las estructuras más complicadas consistentes en muchos átomos; desde la física atómica hasta la física de los cuerpos sólidos, la química y la biología. Ahora tenemos que emprender el camino inverso, y seguir la línea de investigación desde las partes exteriores del átomo hacia las interiores y desde el núcleo hasta las partículas elementales. Es esta dirección la que posiblemente ha de conducimos a una comprensión de la unidad de la materia; y aquí no tenemos por qué asustamos si destruimos las estructuras características con nuestros experimentos. Al poner en marcha la tarea de probar la unidad última de la materia, podemos exponer la materia a las mayores fuerzas posibles y a las condiciones más extremas para ver si una materia cualquiera puede ser finalmente trasmutada en cualquier otra materia.
El primer paso en esta dirección fue el análisis experimental del núcleo atómico. En el período inicial de estos estudios, que ocuparon casi las tres primeras décadas de nuestro siglo, las únicas herramientas aprovechables para los experimentos fueron las partículas alfa emitidas por los cuerpos radiactivos. Con la ayuda de estas partículas, Rutherford consiguió, en 1919, la trasmutación de los núcleos de los elementos livianos; pudo, por ejemplo, trasmutar un núcleo de nitrógeno en un núcleo de oxígeno agregando la partícula alfa al núcleo de nitrógeno y expulsando al mismo tiempo un protón. Este fue el primer ejemplo de procesos en escala nuclear que recordaron los procesos químicos, pero que condujeron a la trasmutación artificial de los elementos. El siguiente progreso sustancial fue, como bien se sabe, la aceleración artificial de los protones con equipos de alta tensión que les imprimían energías suficientes para provocar la trasmutación nuclear. Para esto se requieren voltajes de cerca de un millón de voltios, y Cockcroft y Walton lograron, en sus primeros experimentos decisivos, trasmutar los núcleos del elemento litio en los del helio. Este descubrimiento inició una rama de investigación completamente nueva, que puede llamarse apropiadamente física nuclear, y que muy pronto condujo a una comprensión cualitativa de la estructura del núcleo atómico.
La estructura del núcleo era verdaderamente muy simple. El núcleo atómico sólo consiste en dos clases de partículas elementales. Una es el protón, que es al mismo tiempo, simplemente, el núcleo del hidrógeno; la otra se llama neutrón, una partícula que tiene casi la masa del protón pero que es eléctricamente neutra. Cada núcleo puede ser individualizado por el número de protones y neutrones que lo integran. El núcleo de carbono normal, por ejemplo, consiste en 6 protones y 6 neutrones. Hay otros núcleos de carbono (a los primeros de los cuales se los llama isótopos), que consisten en 6 protones y 7 neutrones, etcétera. Así se ha obtenido finalmente una descripción de la materia en la cual, en vez de los numerosos elementos químicos, sólo se presentan tres unidades fundamentales: el protón, el neutrón y los electrones. Toda materia consiste en átomos y, por consiguiente, está construida con esas tres piedras básicas. Esto no era aún la unidad de la materia pero sí un gran paso hacia la unificación, y quizá hacia algo todavía más importante: la simplificación. Quedaba todavía por recorrer un largo trecho desde el conocimiento de las dos piedras básicas del núcleo hasta la completa comprensión de su estructura. El problema era aquí algo distinto del correspondiente a las envolturas atómicas exteriores que había sido solucionado a mediados de la segunda década. En los haces electrónicos, las fuerzas existentes entre las partículas se conocían con gran exactitud, pero había que encontrar las leyes dinámicas, y éstas se hallaron en la mecánica cuántica. Bien pudo suponerse que para el núcleo las leyes dinámicas fueran precisamente las de la mecánica cuántica, pero las fuerzas existentes entre las partículas no se conocían por anticipado; tenían que derivar de las propiedades experimentales de los núcleos. Este problema aún no ha sido solucionado por completo. Probablemente las fuerzas no tengan una forma tan simple como las de las fuerzas electrostáticas de los haces electrónicos y, en consecuencia, la dificultad matemática de computar las propiedades de esas fuerzas complicadas y la imprecisión de los experimentos obstaculizó el progreso. Pero se había logrado una definitiva comprensión cualitativa de la estructura del núcleo.
Quedaba entonces el problema final, el de la unidad de la materia. ¿Son estas piedras básicas —protón, neutrón y electrón— unidades en última término indestructibles de la materia, átomos en el sentido de Demócrito, sin ninguna relación como no sea con las fuerzas que actúan entre ellas, o sólo son formas diferentes de la misma clase de materia? ¿Pueden a su vez transmutarse unas en otras, y posiblemente también en otras formas de materia? Un experimento con este problema exige fuerzas y energías concentradas sobre las partículas atómicas mayores que las que fueron necesarias para la investigación del núcleo atómico. Puesto que las energías almacenadas en los núcleos atómicos no son suficientemente grandes como para proporcionamos una herramienta para tales experimentos, los físicos tienen que confiar ya sea en las fuerzas de dimensiones cósmicas o en el ingenio y la habilidad de los ingenieros.
En realidad, el progreso se ha manifestado en ambas direcciones. En el primer caso, los físicos apelaron a la llamada radiación cósmica. Los campos electromagnéticos de la superficie de las estrellas que se extienden sobre vastos espacios pueden, en determinadas circunstancias, acelerar partículas atómicas cargadas, electrones y núcleos. Los núcleos, debido a su mayor inercia, parecen tener una mayor posibilidad de permanecer en los campos de aceleración a larga distancia, y finalmente, cuando abandonan la superficie de la estrella, cayendo en el espacio vacío, ya han viajado a través de potenciales de varios miles de millones de voltios.
También puede haber una posterior aceleración en los campos magnéticos entre las estrellas; de todos modos, los núcleos parecen ser conservados dentro del espacio de la galaxia durante mucho tiempo cambiando de campos magnéticos, y por último ocupan ese espacio con lo que se llama radiación cósmica. Esta radiación alcanza la tierra desde el exterior y consiste en núcleos de toda clase, hidrógeno y helio y muchos elementos pesados, con energías de cerca de cien o mil millones de electrón voltios y, en algunos casos excepcionales, de un millón de veces esa cantidad. Cuando las partículas de esta radiación cósmica penetran dentro de la atmósfera de la tierra, golpean a los átomos de nitrógeno o de oxígeno de la atmósfera o pueden golpear los átomos de cualquier equipo experimental expuesto a la radiación.
La otra dirección seguida por la investigación fue la construcción de grandes máquinas aceleradoras cuyo prototipo era el ciclotrón construido por Lawrence, en California, a principios de la tercera década. La idea fundamental de estas máquinas es la de hacer que, mediante círculos magnéticos, las partículas cargadas giren en círculos un gran número de veces de modo que sean impelidas una y otra vez por los campos magnéticos mientras giran. En Gran Bretaña se emplean máquinas que desarrollan energías de varios cientos de millones de electrón voltios, y mediante la cooperación de doce países europeos actualmente se construye en Ginebra una enorme máquina de este tipo que esperamos pueda alcanzar energías de 25 000 millones de electrón voltios. Los experimentos realizados mediante la radiación cósmica o con los grandes aceleradores han revelado nuevos aspectos interesantes de la materia. Además de las tres piedras básicas de la materia — electrón, protón y neutrón—, se han encontrado nuevas partículas elementales que pueden ser creadas en esos procesos de altísimas energías para volver a desaparecer tras corto tiempo. Las nuevas partículas poseen propiedades similares a las de las antiguas, excepto en lo que hace a su inestabilidad. Hasta las más estables tienen una vida de casi sólo un millonésimo de segundo, y la vida de las otras es hasta mil veces más reducida. Actualmente se conocen alrededor de veinticinco diferentes partículas elementales nuevas; la más reciente es el protón negativo.
A primera vista estos resultados parecen sugerir el abandono de la idea de la unidad de la materia, puesto que el número de unidades fundamentales parece haber vuelto a aumentar hasta valores comparables con la cantidad de diferentes elementos químicos. Pero esta no sería una interpretación apropiada. Al mismo tiempo, los experimentos han mostrado que las partículas pueden crearse a partir de otras partículas o simplemente de la energía cinética de tales partículas, y pueden volver a desintegrarse en otras partículas. En realidad, los experimentos han demostrado la completa mutabilidad de la materia. Todas las partículas elementales pueden, sometidas a energías suficientemente elevadas, ser trasmutadas en otras partículas o pueden ser simplemente creadas de la energía cinética y desaparecer en energía, por ejemplo, en radiación. Por consiguiente, con esto tenemos, en realidad, la prueba final de la unidad de la materia. Todas las partículas elementales están hechas de la misma sustancia, que podemos llamar energía o materia universal; ellas no son más que las diferentes formas en que puede presentarse la materia.
Si comparamos esta situación con los conceptos aristotélicos de materia y forma, podemos decir que la materia de Aristóteles, que es mera “potencia”, tendría que compararse con nuestro concepto de la energía, la cual accede a la “realidad” por medio de la forma, cuando es creada la partícula elemental.
La física moderna, por supuesto, no se satisface con una descripción solamente cualitativa de la estructura fundamental de la materia; tiene que buscar, sobre las bases de una celosa investigación experimental, una formulación matemática de aquellas leyes naturales que determinan las “formas” de la materia, las partículas elementales y sus fuerzas. En esta parte de la física ya no se puede establecer una distinción entre materia y fuerza puesto que cada partícula elemental no solamente produce algunas fuerzas y actúa mediante fuerzas, sino que está representando, al mismo tiempo, un cierto campo de fuerza. El dualismo teorético cuántico de las ondas y las partículas hace que la misma entidad aparezca a la vez como materia y fuerza.
Todas las tentativas para encontrar una descripción matemática de las leyes concernientes a las partículas elementales han arrancado hasta aquí de la teoría cuántica de los campos de ondas. El trabajo teorético sobre teorías de este tipo comenzó a comienzos de la tercera década. Pero la primerísima investigación efectuada en este sentido reveló serias dificultades cuyas raíces se encuentran en la combinación de la teoría cuántica y la teoría de la relatividad especial. A primera vista parecería que las dos teorías, la teoría cuántica y la teoría de la relatividad, se refieren a aspectos de la naturaleza tan distintos que prácticamente nada tiene que hacer una con otra, y que sería fácil llenar los requisitos de ambas teorías con el mismo formalismo. Sin embargo, observando más de cerca se advierte que las dos teorías interfieren en un punto, y que es a partir de ese punto desde donde se presentan todas las dificultades.
La teoría de la relatividad especial ha revelado una estructura del espacio y del tiempo un tanto diferente de la estructura generalmente aceptada a partir de la mecánica de Newton. El rasgo más característico de esta estructura recientemente descubierta es la existencia de una velocidad máxima que no puede ser superada por ningún cuerpo móvil o señal viajera: la velocidad de la luz. Como consecuencia de esto, dos acontecimientos que se produzcan en puntos distantes no pueden tener ninguna relación causal inmediata si tienen lugar en tiempos tales que una señal luminosa, partiendo en el instante del acontecimiento en un punto, llega al otro después que el segundo acontecimiento se haya producido allí; y viceversa. En este caso los dos acontecimientos pueden denominarse simultáneos. Como ninguna clase de acción puede llegar a tiempo desde un acontecimiento en un punto hasta el otro, los dos acontecimientos no se hallan relacionados por ninguna acción causal.
Por esta razón ninguna acción a distancia, digamos, del tipo de las fuerzas gravitacionales de la mecánica de Newton era compatible con la teoría de la relatividad especial. La teoría tenía que reemplazar esa acción por acciones de punto a punto, desde un punto solamente a los puntos de una vecindad infinitesimal. Las expresiones matemáticas más naturales para acciones de este tipo eran las ecuaciones diferenciales de las ondas o campos que eran invariantes para la trasformación de Lorentz. Tales ecuaciones diferenciales excluyen cualquier acción directa entre acontecimientos “simultáneos”.
Por consiguiente, la estructura del espacio y del tiempo expresada en la teoría de la relatividad especial implicaba un límite infinitamente marcado entre la región de la simultaneidad, en la que ninguna acción podía ser trasmitida, y las otras regiones, en las que podía tener lugar una acción directa de un acontecimiento sobre otro.
Por otra parte, en la teoría cuántica las relaciones de incertidumbre ponen un límite definido a la precisión con que posiciones y momentos, o tiempo y energía, pueden ser medidos simultáneamente. Dado que un límite infinitamente preciso significa una infinita precisión con respecto a la posición en el espacio y el tiempo, las cantidades de movimiento o energías deben estar completamente indeterminadas o de hecho, arbitrariamente, las altas cantidades de movimiento y energías deben presentarse con incontenible probabilidad. En consecuencia, cualquier teoría que trate de satisfacer las exigencias tanto de la relatividad especial como de la teoría cuántica conducirá a inconsistencias matemáticas, a divergencias en la región de las altas energías y cantidades de movimiento. Esta secuencia de conclusiones quizá no parezca estrictamente coherente puesto que cualquier formalismo del tipo en consideración es muy complicado y podría tal vez ofrecer algunas posibilidades matemáticas para evitar la ruptura entre la teoría cuántica y la relatividad. Pero hasta ahora todos los esquemas matemáticos que se han ensayado han conducido de hecho a divergencias, es decir a contradicciones matemáticas, o no han llenado los requisitos de las dos teorías. Y es fácil ver que las dificultades proceden realmente del punto que se ha examinado.
Muy interesante fue por sí misma la manera como los esquemas matemáticos convergentes no llenan los requisitos de la relatividad o de la teoría cuántica. Por ejemplo, un esquema, cuando es interpretado en términos de acontecimientos reales en el espacio y el tiempo, lleva a una especie de reversión del tiempo; predeciría procesos en los que repentinamente se crean partículas en algún punto del espacio, cuya energía es luego provista por algún otro proceso de colisión entre partículas elementales en algún otro punto. Los físicos se han convencido gracias a sus experimentos de que en la naturaleza no ocurren procesos de este tipo, al menos si los dos procesos se hallan separados por distancias mensurables en espacio y tiempo. Otro esquema matemático intentó evitar las divergencias mediante un proceso llamado de renormalización; parecía posible colocar los infinitos en un lugar del formalismo desde donde no pudieran interferir con el establecimiento de las relaciones bien definidas entre aquellas cantidades que pueden ser observadas directamente. En realidad, este esquema ha conducido a un progreso muy sustancial en la electrodinámica cuántica, por cuanto considera algunos detalles interesantes del espectro del hidrógeno que antes no había sido comprendido. Un análisis más riguroso de este esquema matemático ha hecho probable, sin embargo, que aquellas cantidades que en la teoría cuántica normal han de interpretarse como probabilidades puedan, bajo determinadas circunstancias, tomarse negativas en el formalismo de renormalización. Esto impediría el empleo constante del formalismo en la descripción de la naturaleza.
La solución final de estas dificultades todavía no ha sido encontrada. Algún día surgirá del conjunto del material experimental cada vez más exacto sobre las diferentes partículas elementales, su creación y aniquilación, y las fuerzas entre ellas existentes. Al buscar posibles soluciones para las dificultades habría que recordar, tal vez, que esos procesos con reversión del tiempo que han sido antes analizados no pueden ser experimentalmente excluidos si sólo tienen lugar dentro de las regiones extremadamente pequeñas del espacio y el tiempo, fuera del marco de nuestro presente equipo experimental. Naturalmente, uno se resistiría a aceptar tales procesos con reversión del tiempo si en una etapa posterior de la física pudiera existir la posibilidad de seguir experimentalmente tales acontecimientos en el mismo sentido que se siguen los acontecimientos atómicos comunes. Pero aquí el análisis de la teoría cuántica y el de la relatividad pueden volver a ayudamos para considerar el problema bajo una nueva luz.
La teoría de la relatividad se relaciona con una constante universal de la naturaleza, la velocidad de la luz. Esta constante determina la relación entre el espacio y el tiempo y por consiguiente se halla implícitamente contenida en cualquier ley natural que cumpla con los requisitos de la invariabilidad de
Lorentz. Nuestro lenguaje natural y los conceptos de la física clásica pueden aplicarse solamente a los fenómenos para los cuales la velocidad de la luz pueda ser considerada como prácticamente infinita.
Cuando en nuestros experimentos nos acercamos a la velocidad de la luz, debemos estar preparados para resultados que no pueden interpretarse con estos conceptos.
La teoría cuántica se relaciona con otra constante universal de la naturaleza, el cuanto de acción de Planck. Una descripción objetiva de los acontecimientos del espacio y el tiempo sólo es posible cuando operamos con objetos o procesos en una escala comparativamente amplia. Cuando nuestros experimentos se acercan a la región en la que el cuanto de acción se hace fundamental nos encontramos con todas esas dificultades de los conceptos comunes que han sido examinados en anteriores capítulos de este libro.
Debe existir una tercera constante universal en la naturaleza. Esto es obvio por razones exclusivamente dimensionales. Las constantes universales determinan la escala de la naturaleza, las cantidades características que no pueden ser reducidas a otras cantidades. Se necesitan por lo menos tres unidades fundamentales para un sistema completo de unidades. Esto se advierte más fácilmente mediante convencionalismos tales como el empleo del sistema c-g-s (centímetro, gramo, segundo) de los físicos. Una unidad de longitud, una de tiempo y una de masa bastan para formar un sistema completo; pero hay que tener por lo menos tres unidades. También se las podría sustituir por unidades de longitud, velocidad y masa; o por unidades de longitud, velocidad y energía, etcétera. Pero son imprescindibles por lo menos tres unidades fundamentales. Ahora bien, la velocidad de la luz y la constante de acción de Planck sólo nos proporcionan dos de estas unidades. Tiene que haber una tercera, y sólo una teoría que contenga esta tercera unidad podrá ser capaz de determinar las masas y demás propiedades de las partículas elementales. A juzgar por nuestro actual conocimiento de estas partículas, el modo más apropiado para introducir esta tercer constante universal sería mediante la aceptación de una longitud universal cuyo valor sería de unos 10-13 cm., o sea algo más pequeña que los radios de los núcleos atómicos livianos. Cuando a partir de estas tres unidades se obtiene una fórmula cuya dimensión corresponde a la masa, su valor tiene el orden de magnitud de las masas de las partículas elementales.
Si aceptáramos que las leyes de la naturaleza contienen una tercer constante universal de la dimensión de una longitud y del orden de 10 -13 cm., entonces volveríamos a esperar que nuestros conceptos habituales se apliquen a regiones de espacio y tiempo que son grandes comparadas con la constante universal. Tendríamos que preparamos otra vez para fenómenos de un nuevo carácter cualitativo cuando en nuestros experimentos nos aproximamos a regiones del espacio y el tiempo más pequeñas que los radios nucleares. El fenómeno de reversión del tiempo, que ha sido analizado y que sólo ha resultado como una posibilidad matemática de consideraciones teoréticas, puede consecuentemente pertenecer a estas pequeñas regiones. Si hiera así, no se lo podría observar de manera que permitiera una descripción en los términos de los conceptos clásicos. En la medida en que pueden ser observados y descriptos en términos clásicos, tales procesos obedecerían al acostumbrado orden del tiempo.
Pero todos estos problemas serán motivo de futuras investigaciones en la física atómica. Es de esperar que el esfuerzo combinado de los experimentos en la región de la alta energía y del análisis matemático conducirá alguna vez a una inteligencia completa de la unidad de la materia. El término “inteligencia completa” significaría que las formas de la materia, en el sentido de la filosofía aristotélica, aparecería como el resultado, como las soluciones de un acabado esquema matemático representativo de las leyes naturales de la materia.
Capítulo 10
Lenguaje y realidad en la física moderna
A lo largo de la historia de la ciencia, los nuevos descubrimientos y las ideas nuevas siempre han provocado discusiones y han llevado a publicaciones polémicas de crítica de las ideas nuevas, y tales críticas siempre han sido provechosas para su desarrollo; pero estas controversias jamás han alcanzado el grado de violencia a que han llegado después del descubrimiento de la teoría de la relatividad y, en menor grado, después de la teoría cuántica. En ambos casos los problemas científicos han terminado conectándose con tendencias políticas, y algunos científicos han recurrido a métodos políticos para sostener sus puntos de vista. Esta violenta reacción en el reciente desarrollo de la física moderna, sólo puede entenderse cuando se advierte que los fundamentos de la física han comenzado a vacilar; y esta vacilación ha provocado el temor de que la ciencia pueda quedarse sin cimientos. Es probable que, a la vez, eso signifique que aún no se ha encontrado un lenguaje correcto para hablar de la nueva situación y que las expresiones incorrectas publicadas aquí y allá en el entusiasmo de los nuevos descubrimientos hayan causado toda clase de confusiones. Este es un problema verdaderamente fundamental. El progreso de la técnica experimental de nuestro tiempo aporta al ámbito de la ciencia nuevos aspectos de la naturaleza que no pueden ser descriptos con los términos de los conceptos comunes. ¿Pero en qué lenguaje tienen, entonces, que ser descriptos? El primer lenguaje que emerge del proceso de clarificación científica es por lo general, en la física teorética, un lenguaje matemático, el esquema matemático, que permite predecir los resultados de los experimentos. El físico puede sentirse satisfecho cuando tiene el esquema matemático y sabe cómo usarlo para la interpretación de los experimentos. Pero también tiene que comunicar sus resultados a los que no son físicos, quienes no se sentirán satisfechos a menos que les sea dada alguna explicación en un lenguaje claro, comprensible para todo el mundo. Hasta para el mismo físico la descripción en un lenguaje claro será, un criterio del grado de comprensión que se ha obtenido. ¿En qué medida es posible una descripción semejante? ¿Es posible hablar del átomo mismo? Éste es un problema de lenguaje tanto como de física y, por consiguiente, se necesitan algunas observaciones referentes al lenguaje en general y al lenguaje científico en particular. El lenguaje se ha formado durante la edad prehistórica en la raza humana, como un medio de comunicación y como una base para el pensamiento. Poco sabemos de las múltiples etapas de su formación; pero ahora el lenguaje contiene un gran número de conceptos que constituyen útiles herramientas para una comunicación más o menos ambigua de los acontecimientos de la vida diaria. Estos conceptos se adquieren gradualmente mediante el empleo del lenguaje, sin análisis crítico, y luego de haber empleado una palabra con suficiente frecuencia, pensamos que sabemos más o menos lo que significa. Es, por supuesto, un hecho bien conocido que las palabras no están tan claramente definidas como lo parecen a primera vista y que sólo poseen un limitado radio de aplicación. Podemos hablar, por ejemplo, de un pedazo de hierro o de un pedazo de madera, pero no podemos hablar de un pedazo de agua. La palabra “pedazo” no se aplica a las sustancias líquidas. O, para citar otro ejemplo: Al discutir sobre la limitación de los conceptos, Bohr gusta relatar la siguiente anécdota: “Un niño entra en una confitería llevando en la mano un penique, y pregunta: ‘¿Puede darme un penique de caramelos mezclados?’ El confitero saca dos caramelos y se los entrega al niño diciéndole: ‘Aquí tienes dos caramelos. Puedes mezclarlos tú mismo’”. Un ejemplo más serio de la problemática relación entre palabras y conceptos se advierte en el hecho de que las palabras “rojo” y “verde” son empleadas hasta por personas incapacitadas para distinguir los colores, aun cuando la aplicabilidad de tales términos tiene que ser muy diferente para ellos y para el resto de la gente.
La incertidumbre intrínseca del significado de las palabras se reconoció, naturalmente, muy pronto y ha aumentado la necesidad de las definiciones, o —como la palabra “definición” dice— para el establecimiento de límites que determinen dónde ha de emplearse la palabra y dónde no. Pero las definiciones sólo pueden darse con la ayuda de otros conceptos, y así habrá que apoyarse finalmente en algunos conceptos que deben tomarse como son, indefinidos y sin analizarlos.
El problema de los conceptos del lenguaje ha constituido uno de los temas principales de la filosofía griega desde los tiempos de Sócrates cuya vida fue —si hemos de aceptar la artística representación que de sus diálogos hace Platón— una continua discusión sobre el contenido de los conceptos en el lenguaje y sobre las limitaciones de los modos de expresión. Con el fin de obtener una base sólida para el pensamiento científico, Aristóteles comenzó, en su lógica, por el análisis del lenguaje, la estructura formal de las conclusiones y las deducciones independientemente de sus contenidos. De esta manera logró un grado de abstracción y precisión que hasta ese tiempo fue desconocido en la filosofía griega, y con ello contribuyó inmensamente a la clarificación y al establecimiento de un orden en nuestros métodos de pensamiento. Él fue quien, en realidad, echó las bases del lenguaje científico.
Por otra parte, este análisis lógico del lenguaje también entraña el peligro de una supersimplificación. En la lógica, la atracción se orienta hacia las estructuras muy particularizadas, las relaciones sin ninguna ambigüedad entre premisas y deducciones, los moldes sencillos del razonamiento; y todas las demás estructuras del lenguaje son descuidadas. Estas estructuras restantes pueden presentarse mediante asociaciones entre ciertos significados de las palabras; por ejemplo, el significado secundario de una palabra que atraviese sólo vagamente por la mente cuando la palabra es escuchada puede contribuir fundamentalmente al contenido de la frase. El hecho de que cada palabra pueda provocar en nuestra mente sólo movimientos semiconscientes puede emplearse para representar alguna parte de la realidad en el lenguaje mucho más claramente que con el empleo de los moldes lógicos. En consecuencia, los poetas han objetado frecuentemente ese énfasis del lenguaje y del pensamiento en los moldes lógicos, los cuales — si interpreto correctamente sus opiniones— pueden hacer que el lenguaje sea menos apropiado a sus propósitos. Podemos recordar, por ejemplo, las palabras de Goethe en Fausto, con las que Mefistófeles se dirige al joven estudiante:
Aprovecha tu tiempo, que rápido se va.
Sé metódico, y eso te enseñará a ganarlo.
Por eso, amigo mío, te aconsejo empezar
Poniendo entre tus manos un buen texto de lógica.
Con esas apretadas botas españolas
Formarás bien tu mente, y así también sabrás
Avanzar con prudencia, pensando lo debido,
Y no a la manera de cualquier friego fatuo,
Por entre los senderos donde el error te acecha.
También te enseñará, a lo largo del día,
Que para eso que haces de manera espontánea
Como comer y beber hay también un proceso
—Uno, dos, tres— indispensable.
La red del pensamiento se parece al oficio
Del tejedor que mueve un pedal y millares
De hilos invisibles se combinan. Entonces
Llega el filósofo y te prueba que así
Tiene que ser. Que lo primero es esto
Y estotro lo segundo, y pues que ello es así
Lo tercero y lo cuarto es sólo consecuencia;
Pues que si no hubiera primero ni segundo
Lo tercero y lo cuarto tampoco existiría.
Todos los estudiantes saben que esto es así
Y no obstante ninguno se ha vuelto tejedor.
Quién busca conocerlo que es el ser humano
Por arrancarle el alma empieza, pero entonces
No tiene entre las manos más que fragmentos muertos
Pues se le ha escapado el alma que unifica.
Este pasaje contiene una admirable descripción de la estructura del lenguaje y de la estrechez de los simples moldes lógicos.
Por otra parte, la ciencia tiene que basarse en el lenguaje como único medio de comunicación y allí, donde el problema de la ambigüedad es de la mayor importancia, los moldes lógicos deben cumplir su función. En este punto, la dificultad característica puede describirse como sigue. En la ciencia natural tratamos de deducir lo particular de lo general, para interpretar el fenómeno particular como consecuencia de las simples leyes generales. Al ser formuladas en el lenguaje, las leyes naturales sólo pueden encerrar unos cuantos conceptos simples; de otro modo la ley no sería simple y general. De estos conceptos se deriva una infinita variedad de fenómenos posibles, no sólo cualitativamente sino también con completa precisión con respecto a todos los detalles. Es obvio que los conceptos del lenguaje ordinario, imprecisos y sólo vagamente definidos como son, nunca pueden permitir tales derivaciones. Cuando de determinadas premisas se sigue una cadena de conclusiones, el número de posibles eslabones de la cadena depende de la precisión de las premisas. Por consiguiente, en la ciencia natural los conceptos de las leyes generales deben ser definidos con absoluta precisión, y esto sólo puede lograrse mediante la abstracción matemática.
En las otras ciencias la situación puede ser algo similar mientras se requieren definiciones más bien precisas; por ejemplo, en derecho. Pero aquí el número de eslabones de la cadena de conclusiones no necesita ser muy grande, no se necesita una precisión absoluta, y más bien bastan las definiciones precisas en términos del lenguaje habitual.
En la física teorética tratamos de interpretar grupos de fenómenos mediante la introducción de símbolos matemáticos que pueden correlacionarse con los hechos, principalmente con los resultados de las mediciones. A los símbolos les asignamos nombres que representan su correlación con las mediciones. Los símbolos quedan así vinculados al lenguaje. Entonces los símbolos se relacionan recíprocamente en un riguroso sistema de definiciones y axiomas, y finalmente las leyes naturales se expresan como ecuaciones entre los símbolos. La infinita variedad de soluciones de estas ecuaciones corresponden, pues, a la infinita variedad de fenómenos particulares posibles en esta parte de la naturaleza. De este modo el esquema matemático representa el grupo de fenómenos mientras se mantiene la correlación entre los símbolos y las mediciones. Es esta correlación la que permite la expresión de las leyes naturales en términos del lenguaje común, puesto que nuestros experimentos, que consisten en hechos y observaciones, pueden siempre ser descriptos con el lenguaje común.
Sin embargo, en el proceso de expansión del conocimiento científico, el lenguaje también se expande; aparecen nuevos términos y los viejos se aplican a un campo más amplio o diferentemente del lenguaje común. Términos tales como “energía”, “electricidad”, “entropía”, constituyen ejemplos corrientes. De esta manera desarrollamos un lenguaje científico que puede llamarse una extensión natural del lenguaje común adaptado a los nuevos campos del conocimiento científico.
En el pasado siglo, han sido introducidos en la física una cantidad de conceptos nuevos, y en algunos casos ha trascurrido bastante tiempo antes que los científicos se acostumbraran a su empleo. El término “campo electromagnético”, por ejemplo, que en cierta medida estaba ya presente en los trabajos de Faraday y que constituyó luego la base de la teoría de Maxwell, no fue fácilmente aceptado por los físicos quienes dirigían principalmente su atención hacia el movimiento mecánico de la materia. La introducción del concepto implicaba realmente un cambio en las ideas científicas, y tales cambios no se cumplen muy fácilmente.
No obstante, todos los conceptos introducidos hasta el final del siglo pasado formaron un perfecto sistema consistente, aplicable a un ancho campo de la experiencia, y, juntamente con los conceptos anteriores, formaron un lenguaje que no sólo los científicos sino también los técnicos y los ingenieros pudieron utilizar con éxito para sus trabajos. En la base de las ideas fundamentales de este lenguaje estaba la aceptación de que el orden de los acontecimientos en el tiempo es completamente independiente de su orden en el espacio, que la geometría de Euclides es válida en el espacio real, y que los acontecimientos “suceden” en el espacio y el tiempo independientemente del hecho de si son observados o no. No se negaba que toda observación tiene cierta influencia sobre el fenómeno observado, pero se aceptaba, generalmente, que realizando cuidadosamente los experimentos, esta influencia podía ser discrecionalmente reducida. De hecho, esto parecía una condición necesaria para el ideal de objetividad que era considerado como la base de toda ciencia natural.
En medio de esta que diríamos pacífica situación de la física irrumpió la teoría cuántica y la teoría de la relatividad especial, lentamente al principio y creciendo luego gradualmente, como una repentina novedad para las bases de la ciencia natural. La primera discusión violenta se desarrolló en tomo a los problemas del espacio y el tiempo planteados por la teoría de la relatividad. ¿Cómo podía hablarse sobre la nueva situación? ¿Habría que considerar la contracción de los cuerpos móviles de Lorentz como una contracción real o sólo como una contracción aparente? ¿Habría que reconocer que las estructuras del espacio y del tiempo eran efectivamente distintas de lo que se había creído o solamente se diría que los resultados experimentales podían relacionarse matemáticamente de un modo que correspondiera a estas nuevas estructuras, mientras que el espacio y el tiempo, constituyendo los modos necesarios y universales por los cuales se nos presentan las cosas, continuaban siendo lo que siempre habían sido? En el fondo de estas controversias, el verdadero problema era el hecho de que no existía un lenguaje con el cual se pudiera hablar consistentemente sobre la nueva situación. El lenguaje habitual se fundaba en los antiguos conceptos del espacio y el tiempo y este lenguaje solamente ofrecía un medio preciso de comunicación sobre los planteos y los resultados de las mediciones. Sin embargo, los experimentos mostraron que los antiguos conceptos no eran aplicables en todas partes.
El punto de partida indudable para la interpretación de la teoría de la relatividad era el hecho de que en la condición límite de las pequeñas velocidades (pequeñas en comparación con la velocidad de la luz), la teoría nueva era prácticamente idéntica a la antigua. Por consiguiente, en este aspecto de la teoría era evidente la forma en que los símbolos matemáticos tenían que correlacionarse con las mediciones y con los términos del lenguaje habitual; en realidad, sólo por esta correlación se encontró la trasformación de Lorentz. En esta zona no existían dudas acerca del significado de las palabras y de los símbolos. Esta correlación era ya de hecho suficiente para la aplicación de la teoría a todo el campo de la investigación experimental relacionado con el problema de la relatividad. Por consiguiente, las cuestiones que se discutían sobre lo “real” o lo “aparente” de la contracción de Lorentz, o sobre la definición de la palabra “simultáneo”, etcétera, no se referían tanto a los hechos como al lenguaje.
Con respecto al lenguaje, por otra parte, se ha reconocido, gradualmente, que quizá no debiera insistirse demasiado sobre ciertos principios. Siempre es difícil encontrar un criterio general convincente sobre cuáles términos han de emplearse y cómo han de emplearse en el lenguaje. Sólo había que esperar el desarrollo del lenguaje el cual, al cabo de algún tiempo, se ajusta a la nueva situación. En realidad, en la teoría de la relatividad especial este ajuste se ha producido en gran parte durante los últimos cincuenta años. La distinción entre la contracción “real” y la “aparente”, por ejemplo, ha desaparecido. La palabra “simultáneo” se emplea de acuerdo con la definición dada por Einstein, mientras que para la más amplia definición analizada en un capítulo anterior, el término “a una distancia de tipo espacial”, es comúnmente empleado.
En la teoría de la relatividad general, la idea de una geometría no euclidiana del espacio real ha sido violentamente discutida por algunos filósofos, quienes señalaron que todo nuestro método de plantear los experimentos ya presuponían la geometría euclidiana.
En realidad, si un mecánico trata de preparar una superficie perfectamente plana, puede hacerlo de la siguiente manera. Prepara primeramente tres superficies de más o menos el mismo tamaño y de aspecto plano. Luego trata de poner en contacto dos de esas tres superficies colocándolas una con otra en distintas posiciones relativas. El grado en el cual ese contacto sea posible en la superficie total es una medida del grado de exactitud por la cual las superficies pueden llamarse “planas”. Quedará satisfecho con sus tres superficies solamente si el contacto entre dos cualesquiera de ellas es completo en todas partes. Si esto es así, puede probarse matemáticamente que la geometría euclidiana rige en las tres superficies. De esta manera, se argumentó, la geometría euclidiana resulta correcta por nuestras propias medidas.
Desde el punto de vista de la relatividad general, por supuesto, puede replicarse que este argumento prueba la validez de la geometría euclidiana solamente en pequeñas dimensiones, en las dimensiones de nuestro equipo experimental. La exactitud con que en esta zona se conserva es tan grande, que el procedimiento arriba indicado para obtener las superficies planas puede realizarse siempre. Las desviaciones extremadamente ligeras con respecto a la geometría euclidiana que aún existen en esta zona no se pondrán de manifiesto puesto que las superficies están hechas de un material que no es estrictamente rígido, pero permite algunas pequeñas deformaciones y puesto que el concepto de “contacto” no puede definirse con absoluta precisión. El procedimiento que ha sido descripto no serviría para superficies en una escala cósmica; pero ese no es un problema de la física experimental.
Una vez más es indudable que el punto de partida para la interpretación física del esquema matemático en la relatividad general es el hecho de que la geometría es muy aproximadamente euclidiana en las pequeñas dimensiones; la teoría se aproxima, en esta región, a la teoría clásica. Por lo tanto, la correlación entre los símbolos matemáticos y las mediciones y los conceptos del lenguaje común es aquí evidente. Sin embargo, se puede hablar de una geometría no euclidiana en las grandes dimensiones. En realidad, mucho tiempo antes de que la teoría de la relatividad general hubiera sido desarrollada, la posibilidad de una geometría no euclidiana del espacio real parece haber sido considerada por los matemáticos, especialmente por Gauss, en Gotinga. Cuando efectuó mediciones geodésicas muy exactas en un triángulo formado por tres montañas —la Brocken en las montañas de Harz, la Inselberg en Turingia, y la Hohenhagen cerca de Gotinga— se dice que observó muy cuidadosamente si la suma de los tres ángulos era realmente igual a 180 grados; y que buscó una diferencia que probaría la posibilidad de algunas desviaciones de la geometría euclidiana. De hecho, no encontró desviaciones dentro de la exactitud de sus mediciones.
En la teoría de la relatividad general, el lenguaje mediante el cual describimos las leyes generales se acuerda realmente con el lenguaje científico de los matemáticos, y para la descripción de los experimentos mismos podemos emplear los conceptos comunes, puesto que la geometría euclidiana es válida con suficiente exactitud en las pequeñas dimensiones.
Sin embargo, el problema más difícil, con relación al empleo del lenguaje, se plantea en la teoría cuántica. Aquí carecemos, en principio, de una guía sencilla para correlacionar los símbolos matemáticos con los conceptos del lenguaje común; y lo único que sabemos desde el comienzo, es el hecho de que nuestros conceptos comunes no pueden ser aplicados a la estructura de los átomos. Aquí también el punto de partida indudable para la interpretación física del formalismo parece ser el hecho de que el esquema matemático de la mecánica cuántica se aproxima al de la mecánica clásica en dimensiones que resultan grandes comparadas con el tamaño de los átomos. Pero aun esta misma observación debe ser formulada con algunas reservas. Hasta en las dimensiones grandes hay muchas soluciones de las ecuaciones teoréticas cuánticas para las cuales no pueden encontrarse soluciones análogas en la física clásica. En estas soluciones el fenómeno de la “interferencia de probabilidades” se haría presente, como se ha visto en anteriores capítulos; en la física clásica no existe. Por consiguiente, hasta en el límite de las grandes dimensiones, la correlación entre los símbolos matemáticos, las mediciones y los conceptos comunes no tiene nada de trivial. Para llegar a una correlación tan evidente hay que tomar en cuenta otra imagen del problema. Debe observarse que el sistema tratado con los métodos de la mecánica cuántica es, en realidad, una parte de un sistema mucho más grande (eventualmente el mundo entero); y hay interacción con este sistema más grande; y debemos añadir que las propiedades microscópicas del sistema más grande son (al menos en gran parte) desconocidas. Esta afirmación constituye, indudablemente, una descripción correcta de la situación actual. Dado que el sistema podía no ser el objeto de las mediciones y de las investigaciones teoréticas, no pertenecería, en realidad, al mundo de los fenómenos si careciera de interacciones con un sistema más grande del cual el observador es una parte. La interacción con el sistema más grande y sus indefinidas propiedades microscópicas introduce, entonces, un nuevo elemento estadístico —la teorética cuántica y la clásica— en la descripción del sistema que se considera. En la condición límite de las grandes dimensiones, este elemento estadístico destruye los efectos de la “interferencia de probabilidades” de tal modo que entonces el esquema de la mecánica cuántica se aproxima realmente, en el límite, al de la clásica. Por consiguiente, en este punto la correlación entre los símbolos matemáticos de la teoría cuántica y los conceptos del lenguaje común es evidente, y esta correlación basta para la interpretación de los experimentos. Los problemas restantes vuelven a referirse al lenguaje más bien que a los hechos, puesto que pertenecen al concepto “hecho”, que puede ser descripto en el lenguaje común.
Pero los problemas del lenguaje son aquí verdaderamente serios. Deseamos hablar de algún modo de la estructura de los átomos y no solamente de los “hechos” —estos últimos pueden ser, por ejemplo, las manchas de una placa fotográfica o las gotas de agua en una cámara de niebla, pero no podemos hablar de los átomos con el lenguaje habitual.
El análisis puede proseguir ahora en dos sentidos completamente diferentes. Podemos preguntar qué lenguaje referente a los átomos se ha desarrollado realmente entre los físicos en los treinta años que han trascurrido desde la formulación de la mecánica cuántica; o podemos describir las tentativas efectuadas para definir un lenguaje científico preciso que corresponda al esquema matemático.
En respuesta a la primera pregunta, puede decirse que el concepto de complementariedad, introducido por Bohr en la interpretación de la teoría cuántica, ha incitado a los físicos a emplear un lenguaje ambiguo más bien que un lenguaje preciso; a emplear los conceptos clásicos de una manera algo vaga, de conformidad con el principio de incertidumbre; a usar alternativamente conceptos clásicos que, empleados simultáneamente, conducirían a contradicciones. De este modo se habla de órbitas electrónicas, de ondas de materia y densidad de carga, de energía y cantidad de movimiento, etc., teniendo siempre conciencia de que estos conceptos solo poseen un radio de aplicabilidad muy limitado. Cuando este vago y desordenado empleo del lenguaje produce dificultades, el físico tiene que conformarse con el esquema matemático y su evidente correlación con los hechos experimentales.
Este empleo del lenguaje es, en muchos sentidos, muy satisfactorio puesto que nos recuerda el empleo similar del lenguaje en la vida diaria o en la poesía. Comprobamos que la situación de complementariedad no está confinada solamente al mundo atómico; lo descubrimos cuando reflexionamos sobre una decisión y los motivos de nuestra decisión o cuando tenemos que elegir entre el goce de la música o el análisis de su estructura. Por otra parte, cuando los conceptos clásicos son empleados así, siempre conservan una cierta vaguedad; sólo adquieren en su relación con la “realidad” la misma significación estadística que los conceptos de la termodinámica clásica en su interpretación estadística. Por consiguiente, un breve análisis de estos conceptos estadísticos de la termodinámica puede ser de utilidad.
El concepto “temperatura” parece describir en la termodinámica una imagen objetiva de la realidad, una propiedad objetiva de la materia. En la vida diaria esto es muy fácil de definir con el auxilio de un termómetro, lo que aceptamos diciendo que un pedazo de materia posee una cierta temperatura. Pero cuando intentamos definir lo que puede significar la temperatura de un átomo nos encontramos, hasta en la física clásica, en una posición mucho más difícil. En realidad, no podemos correlacionar este concepto “temperatura del átomo” con una propiedad bien definida del átomo sino que tenemos que relacionarlo, al menos parcialmente, con nuestro insuficiente conocimiento del mismo. Podemos correlacionar el valor de la temperatura con ciertas suposiciones estadísticas sobre las propiedades del átomo, pero parece muy dudoso que una suposición pueda llamarse objetiva. El concepto “temperatura del átomo” no está mejor definido que el concepto “mezcla” en la broma del niño que compró caramelos mezclados.
De una manera similar, en la teoría cuántica todos los conceptos clásicos, cuando se aplican al átomo, están tan bien y tan poco definidos como el de “temperatura del átomo”; están correlacionados por suposiciones estadísticas; sólo en raros casos la suposición puede convertirse en un equivalente de la certidumbre. Aquí también, como en la termodinámica clásica, es difícil llamar objetiva a la suposición. Podría, quizá, dársele el nombre de tendencia objetiva o de posibilidad, una potentia en el sentido de la filosofía aristotélica. En realidad, creo que el lenguaje actualmente empleado por los físicos cuando hablan sobre los acontecimientos atómicos produce en sus mentes nociones similares a la del concepto potentia. De este modo los físicos se han ido poco a poco acostumbrando a considerar las órbitas electrónicas, etcétera, no como realidad sino más bien como una especie de potentia. El lenguaje ha terminado acomodándose, al menos hasta cierto punto, a esta situación real. Pero no es un lenguaje preciso con el que se pudieran emplear los moldes lógicos normales; es un lenguaje que produce imágenes en nuestra mente, pero juntamente con ellas la noción de que las imágenes sólo tienen una vaga relación con la realidad, que representan solamente una tendencia hacia la realidad.
La vaguedad de este lenguaje en uso entre los físicos ha conducido, por consiguiente, a tentativas de definir un lenguaje preciso, de acuerdo con moldes lógicos definidos, en plena conformidad con el esquema matemático de la teoría cuántica. El resultado de estas tentativas llevadas a cabo por Birkhoff y Neumann, y más recientemente por Weizsäcker, puede establecerse diciendo que el esquema matemático de la teoría cuántica puede ser interpretado como una extensión o modificación de la lógica clásica. Es especialmente un principio fundamental de la lógica clásica el que parece requerir una modificación. En la lógica clásica está aceptado que si una afirmación tiene algún sentido, o la afirmación o la negación de la afirmación tiene que ser correcta. En “aquí hay una mesa” o “aquí no hay una mesa”, o la primera o la segunda afirmación tiene que ser correcta. Tertium non datur, una tercera posibilidad no existe. Pudiera ser que ignoráramos si la afirmación o su negación es la correcta; pero en “realidad” una de las dos es correcta.
En la teoría cuántica esta ley: tertium non datur tiene que ser modificada. Claro está que contra cualquier modificación de este principio fundamental puede argüirse que el principio está aceptado en el lenguaje común y que por lo menos tenemos que hablar de una modificación eventual de la lógica en el lenguaje natural. Por consiguiente, sería contradictorio describir en lenguaje natural un esquema lógico que no se aplica al lenguaje natural. Aquí Weizsäcker advierte, sin embargo, que pueden distinguirse varios niveles de lenguaje.
Un nivel se refiere a los objetos; por ejemplo, a los átomos o los electrones. Un segundo nivel se refiere a las afirmaciones sobre los objetos. Un tercer nivel puede referirse a las afirmaciones sobre las afirmaciones hechas sobre los objetos, etcétera. Así sería posible poseer entonces, diversos moldes lógicos a diferentes niveles. Es indudable, por último, que tenemos que volver al lenguaje natural, por consiguiente, a los moldes lógicos clásicos. Pero Weizsäcker sugiere que la lógica clásica puede existir a priori con respecto a la lógica cuántica de manera similar a como lo está la física clásica con respecto a la teoría cuántica. La lógica clásica estaría entonces contenida como una especie de condición límite en la lógica cuántica, pero esto constituiría un molde lógico más general.
La posible modificación del molde lógico clásico se referirá, entonces, en primer término, al nivel concerniente a los objetos. Consideremos un átomo moviéndose en una caja cerrada, dividida por una pared en dos partes iguales. La pared puede tener un agujero pequeñísimo para que el átomo pueda atravesarla. Entonces el átomo, según la lógica clásica, puede hallarse en la mitad izquierda o en la mitad derecha de la caja. Una tercera posibilidad no existe: tertium non datur. En la teoría cuántica, sin embargo, tenemos que admitir —en caso de emplear las palabras “átomo” y “caja”— que existen otras posibilidades que son, por modo extraño, combinaciones de las dos posibilidades anteriores. Esto es indispensable para explicarlos resultados de nuestros experimentos. Podríamos, por ejemplo, observar la luz que ha sido dispersada por el átomo. Podríamos efectuar tres experimentos: primero, el átomo se encuentra (cerrando, por ejemplo, el agujero de la pared) confinado en la mitad izquierda de la caja, y la intensidad de la distribución de la luz dispersa es medida; luego se halla confinado en la mitad derecha y la luz dispersa vuelve a ser medida; y, finalmente, el átomo puede moverse libremente en toda la caja y la intensidad de distribución de la luz dispersa vuelve a ser medida. Si el átomo hubiera de encontrarse siempre en la mitad izquierda o en la mitad derecha de la caja, la intensidad final de la distribución sería (según la fracción de tiempo que el átomo se hallara en cada una de las dos partes) una mezcla de las dos anteriores intensidades de distribución. Pero, en general, esto no es experimentalmente cierto. La intensidad de distribución real está modificada por la “interferencia de probabilidades”, ya expuesta anteriormente.
Para hacer frente a esta situación, Weizsäcker ha introducido el concepto de “grado de verdad”. Para la alternativa de cualquier simple afirmación como “El átomo está en la mitad izquierda (o en la mitad derecha) de la caja” hay un número complejo que define la medida de su “grado de verdad”. Si el número es 1, quiere decir que la afirmación es verdadera; si el número es 0, quiere decir que es falsa. Pero existen otros valores posibles. El cuadrado absoluto del número complejo proporciona la probabilidad de que la afirmación sea cierta; la suma de las dos probabilidades que se refieren a las dos partes de la alternativa (o izquierda o derecha, en nuestro caso) debe ser una unidad. Pero cada par de números complejos que se refieren a las dos partes de la alternativa representa, según la definición de
Weizsäcker, una “afirmación” que es ciertamente verdadera si los números tienen precisamente estos valores; los dos números, por ejemplo, son suficientes para determinar la intensidad de distribución de la luz dispersa en nuestro experimento. Si se admite de este modo el empleo del término “afirmación”, puede introducirse el término “complementariedad” con la siguiente definición: toda afirmación que no sea idéntica a una de las dos afirmaciones alternativas —en nuestro caso a las afirmaciones: “el átomo está en la mitad izquierda” o “el átomo está en la mitad derecha de la caja”— se denomina complementaria de estas afirmaciones. En cada afirmación complementaria, la cuestión de si el átomo se halla en la izquierda o en la derecha no está decidida. Pero, de todos modos, decir “no está decidida” equivale a decir “no conocido”. “No conocido” significaría que el átomo está “realmente” a la izquierda o a la derecha, pero que nosotros no sabemos dónde está. No obstante, “no decidida” indica una situación diferente que sólo puede expresarse mediante afirmaciones complementarias.
Este molde lógico general, cuyos detalles no pueden ser aquí descriptos, corresponde precisamente al formalismo matemático de la teoría cuántica. Constituye la base de un lenguaje preciso que puede emplearse para describir la estructura del átomo. Pero la aplicación de semejante lenguaje presenta un número de problemas difíciles de los cuales aquí analizaremos sólo dos: la relación entre los diferentes “niveles” de lenguaje y las consecuencias para la ontología fundamental.
En la lógica clásica la relación entre los diferentes niveles de lenguaje se halla en una relación biunívoca. Las dos afirmaciones, “El átomo está en la mitad izquierda” y “Es verdad que el átomo está en la mitad izquierda”, pertenecen, lógicamente, a diferentes niveles. En la lógica clásica estas afirmaciones son completamente equivalentes, es decir, o las dos son ciertas o las dos son falsas. No es posible que una sea verdadera y falsa la otra. Pero en el molde lógico de complementariedad esta relación es más complicada. La exactitud o la inexactitud de la primera afirmación todavía implica la exactitud o la inexactitud de la segunda afirmación. Pero la inexactitud de la segunda afirmación no implica la inexactitud de la primera afirmación. Si la segunda afirmación es incorrecta, puede estar sin decidirse si el átomo está en la mitad izquierda; el átomo no tiene necesariamente por qué estar en la mitad derecha. Hay aún una equivalencia completa entre los dos niveles de lenguaje con respecto a la exactitud de una afirmación, pero no con respecto a la inexactitud. Esta relación permite comprender la persistencia de las leyes clásicas en la teoría cuántica: cuando de un determinado experimento puede obtenerse un resultado definido mediante la aplicación de las leyes clásicas, el resultado también habrá de seguirse con la teoría cuántica, y se confirmará experimentalmente.
El propósito final perseguido por Weizsäcker es la aplicación de los moldes lógicos modificados en los más altos niveles de lenguaje, pero esto no puede discutirse aquí.
El otro problema se refiere a la ontología que fundamenta los moldes lógicos modificados. Si el par de números complejos representa una “afirmación” en el sentido que acaba de señalarse, debería existir un “estado” o “situación” de una naturaleza en la que la afirmación es correcta. En esta acepción emplearemos la palabra “estado”. Los “estados” correspondientes a las afirmaciones complementarias son entonces llamados “estados coexistentes” por Weizsäcker. Este término “coexistente” describe correctamente la situación; sería realmente difícil llamarlos “estados diferentes”, puesto que, en cierta medida, cada estado también contiene otros “estados coexistentes”. Este concepto de “estado” constituiría entonces una primera definición relativa a la ontología de la teoría cuántica. Inmediatamente se advierte que este empleo de la palabra “estado”, especialmente la frase “estado coexistente”, es tan distinto de la ontología materialista habitual que cabe dudar de si se está empleando una terminología conveniente. Por otra parte, si se considera la palabra “estado” como describiendo alguna potencialidad más bien que una realidad —se puede simplemente substituir la palabra “estado” por la palabra “potencialidad”— entonces el concepto de “potencialidades coexistentes” es muy aceptable puesto que una potencialidad puede incluir o cubrir otras potencialidades.
Todas estas complicadas definiciones y diferenciaciones pueden evitarse si se limita el lenguaje a la descripción de los hechos, es decir, de los resultados experimentales. Sin embargo, si se desea hablar de las partículas atómicas mismas hay que emplear o el esquema matemático como único suplemento para el lenguaje natural o combinarlo con el lenguaje que emplea una lógica modificada o una lógica de ningún modo completamente definida. En los experimentos sobre los acontecimientos atómicos, tenemos que vérnoslas con cosas y con hechos, con fenómenos que son tan perfectamente reales como los de la vida cotidiana. Pero los átomos o las mismas partículas elementales no son tan reales; constituyen un mundo de potencialidades o posibilidades más bien que uno de cosas o de hechos.
Capítulo 11
El papel de la física moderna en el actual desarrollo del pensamiento humano
Las implicaciones filosóficas de la física moderna han sido analizadas en los capítulos anteriores para mostrar que esta modernísima parte de la ciencia se relaciona, en muchos aspectos, con muy antiguas direcciones del pensamiento, y que aborda algunos de los antiguos problemas desde una nueva dirección. Es probablemente cierto, de un modo general, que en la historia del pensamiento humano los progresos más fructíferos tienen frecuentemente lugar en aquellos puntos donde convergen dos líneas diferentes del pensamiento. Estas líneas pueden tener sus raíces en muy distintas zonas de la cultura, en diferentes épocas o diferentes ambientes culturales o diferentes tradiciones religiosas; de aquí que, si realmente se encuentran, es decir, si realmente se relacionan unas con otras de manera que pueda producirse una efectiva acción recíproca, entonces es dable esperar que se produzcan nuevos e interesantes progresos. La física atómica, como parte de la ciencia moderna, penetra verdaderamente, en nuestro tiempo, en muy diferentes tradiciones culturales. Se la enseña no solamente en Europa y los países occidentales, en los que pertenece a la actividad tradicional de las ciencias naturales, sino que también se la estudia en el Lejano Oriente, en países como el Japón, la China y la India, con sus diferentes fondos culturales, y en Rusia, donde se ha impuesto, en nuestros días, una nueva manera de pensar; una nueva manera que se relaciona con los progresos científicos específicos de la Europa del siglo diecinueve y con otras tradiciones completamente diferentes de la misma Rusia. Demás está decir que no será propósito de las páginas siguientes hacer predicciones sobre los probables resultados del encuentro de las ideas de la física moderna con las antiguas tradiciones, pero quizá sea posible señalar los puntos en los cuales puede comenzar a producirse la interacción de las diferentes ideas.
Al considerar este proceso de expansión de la física moderna, no sería ciertamente posible separarlo de la expansión general de la ciencia natural, de la industria y la ingeniería, de la medicina, etcétera, o sea de lo que constituye la moderna civilización en todas partes del mundo. La física moderna no es más que un eslabón de una larga cadena de acontecimientos que empezó con las obras de Bacon, Galileo y Kepler, y la aplicación práctica de la ciencia natural en los siglos diecisiete y dieciocho. La relación entre la ciencia natural y la ciencia técnica ha sido, desde el principio, de ayuda mutua. El progreso de la ciencia técnica, el perfeccionamiento del instrumental, la invención de nuevos recursos técnicos han proporcionado las bases para un conocimiento empírico de la naturaleza cada vez más y más exacto y el progreso realizado en la interpretación de la naturaleza, y finalmente la formulación matemática de las leyes naturales, han abierto el camino para nuevas aplicaciones de este conocimiento en la ciencia técnica. La invención del telescopio, por ejemplo, capacitó a los astrónomos para medir el movimiento de las estrellas con mayor exactitud que antes; con ello fue posible un progreso considerable en la astronomía y la mecánica. Por otra parte, el conocimiento preciso de las leyes mecánicas fue de la mayor importancia para el perfeccionamiento de los instrumentos mecánicos, para la construcción de las máquinas, etcétera. La gran expansión de esta combinación de la ciencia natural con la ciencia técnica comenzó cuando se logró poner a disposición del hombre algunas de las fuerzas de la naturaleza. La energía almacenada en el carbón, por ejemplo, pudo entonces realizar algunos de los trabajos que antes tenían que ser realizados por el hombre mismo. Las industrias que surgieron de esas nuevas posibilidades pudieron ser consideradas, al principio, como una continuación y expansión natural del antiguo comercio. En muchos aspectos, el trabajo de las máquinas continuaba pareciéndose a la antigua artesanía, y el de las fábricas químicas podía contemplarse como una continuación del de las tintorerías y las farmacias de épocas anteriores. Pero luego aparecieron nuevas ramas industriales sin equivalencia en el antiguo comercio; por ejemplo, la ingeniería eléctrica. La penetración de la ciencia en las partes más remotas de la naturaleza capacitó a los ingenieros para emplear las fuerzas naturales que en otros tiempos fueron escasamente conocidas; y el exacto conocimiento de estas fuerzas en términos de formulación matemática de las leyes que las gobiernan constituyó una base sólida para la construcción de toda clase de máquinas.
El éxito enorme de esta combinación de la ciencia natural con la técnica otorgó una extraordinaria preponderancia a las naciones o estados o comunidades en los que floreció este género de actividad humana y, como consecuencia lógica, este género de actividad tuvo que ser adoptado hasta por aquellas naciones que, por propia tradición, no se hubieran sentido inclinadas hacia las ciencias naturales y técnicas. Por último, los modernos medios de comunicación y de tráfico completaron este proceso de expansión de cada civilización técnica. Indudablemente, este proceso ha trasformado fundamentalmente las condiciones de vida sobre la tierra; y se esté o no de acuerdo, se lo llame progreso o peligro, lo evidente es que ha ido más allá de todo posible gobierno de las fuerzas humanas. Se lo puede más bien considerar como un proceso biológico en la más amplia escala, mediante el cual las estructuras activas del organismo humano dominan la mayor parte de la materia y la trasforman de manera conveniente para el crecimiento de la población humana.
La física moderna pertenece al aspecto más reciente de este progreso, y su resultado más desgraciadamente visible, la invención de las armas nucleares, ha mostrado la esencia de este progreso en la más impresionante de las formas posibles. Ha demostrado, claramente, por una parte, que los cambios producidos por la combinación de las ciencias naturales y técnicas no pueden ser únicamente considerados desde un punto de vista optimista; en parte, al menos, ha justificado la opinión de quienes siempre previnieron contra los riesgos de tales trasformaciones radicales de nuestras condiciones de vida habituales. Por otra parte, ha compelido aun a las naciones o individuos que se esforzaron por mantenerse al margen de estos peligros a prestar la máxima atención a las nuevas realizaciones, puesto que es obvio que el poderío político, en el sentido de poderío militar, descansa sobre la posesión de las armas atómicas. La finalidad de este libro no puede ser, por cierto, el análisis extensivo de las implicaciones políticas de la física nuclear. Pero diremos por lo menos algunas palabras sobre estos problemas por cuanto son los primeros que acucien a la imaginación de la gente tan pronto se menciona la física atómica.
Es evidente que la invención de las nuevas armas, especialmente la de las armas termonucleares, ha cambiado fundamentalmente la estructura política del mundo. No sólo ha sufrido un cambio decisivo el concepto de naciones o estados independientes, puesto que cualquier nación que no se halle en posesión de tales armas tiene que depender de alguna manera de las pocas que las producen en grandes cantidades; sino que también cualquier intento bélico en gran escala con semejantes armas significa, prácticamente, una absurda forma de suicidio. A esto se debe que frecuentemente se oiga decir que la guerra se ha hecho imposible y que ya no volverá a existir. Este punto de vista es, por desdicha, una exagerada simpleza, demasiado optimista. Por el contrario, el absurdo de una guerra con armas termonucleares puede, en principio, actuar como un incentivo para una guerra en pequeña escala. Cualquier nación o conglomerado político convencido de sus derechos históricos o morales para intentar un cambio de la presente situación pensará que el empleo de las armas convencionales para tal propósito no involucrará grandes riesgos; creerá que la otra parte no habrá de recurrir al empleo de las armas nucleares puesto que, careciendo de razones históricas y morales, no se arriesgará a una guerra en gran escala. Esta situación induciría, en cambio, a las otras naciones a establecer que en caso de pequeñas guerras provocadas por agresores recurrirían realmente al empleo de armas nucleares, y de ese modo el peligro persistiría. Puede también suceder que de aquí a veinte o treinta años el mundo haya sufrido cambios tan grandes que el peligro de guerra en gran escala, de la aplicación de todos los recursos técnicos para la destrucción del enemigo, haya disminuido sensiblemente o haya desaparecido. Pero el camino hacia ese nuevo estado de cosas estará lleno de los mayores peligros. Debemos comprender, como en todos los tiempos pasados, que lo que parece histórica o espiritualmente justo para unos puede parecer lo contrario para otros. La continuación del status que puede no ser siempre la mejor solución; por el contrario, puede ser más importante encontrar medios pacíficos de conformidad con las nuevas situaciones, y en muchos casos extremadamente difícil encontrar una decisión justa. En consecuencia, no ha de ser probablemente demasiado pesimista decir que la gran guerra puede ser evitada solamente si todos los diferentes grupos políticos están dispuestos a renunciar a algunos de sus derechos aparentemente más evidentes, en vista de que la cuestión de lo justo o lo injusto puede parecer fundamentalmente diferente para cada lado. Éste no es, por supuesto, un punto de vista original; sólo es, en realidad, una aplicación de esa actitud humana que ha sido enseñada, a lo largo de muchos siglos, por alguna de las grandes religiones.
La invención de las armas nucleares también ha presentado problemas completamente nuevos para la ciencia y los científicos. La influencia política de la ciencia se ha hecho mucho más poderosa de lo que era antes de la Segunda Guerra Mundial, y este hecho ha significado para los científicos, y particularmente para el físico atómico, una doble responsabilidad. Puede, efectivamente, tomar una parte activa en la administración del país en relación con la importancia de la ciencia para la comunidad; entonces tendrá eventualmente que encarar la responsabilidad de decisiones de un peso enorme y que van mucho más allá del reducido círculo de la investigación y la labor universitaria a la cual se dedicó. O puede sustraerse voluntariamente a toda participación en las decisiones políticas; en ese caso también será responsable de las decisiones equivocadas que pudo impedir si no hubiera preferido la tranquila vida del científico. Evidentemente, los hombres de ciencia están en el deber de informar detalladamente a sus gobiernos sobre la destrucción sin precedente que significaría una guerra con armas termonucleares. Fuera de esto, los científicos son frecuentemente invitados a participar en solemnes declaraciones en favor de la paz mundial, pero debo confesar que nunca he podido descubrir nada en declaraciones de esta especie. Tales declaraciones pueden parecer una grata demostración de buena voluntad; pero cualquiera que hable en favor de la paz, sin establecer con precisión las condiciones de esa paz, debe ser inmediatamente sospechoso de estar hablando solamente de una clase de paz que favorece a él y a su grupo, lo cual, por supuesto, será absolutamente indigno. Cualquier honesta declaración de paz debe contener una enumeración de los sacrificios que se está dispuesto a hacer para preservarla. Pero, por lo general, los hombres de ciencia carecen de autoridad para formular afirmaciones de esa naturaleza.
El científico puede, al mismo tiempo, hacer cuanto esté a su alcance para promover la cooperación internacional en el campo que le es propio. La enorme importancia que muchos gobiernos atribuyen actualmente a las investigaciones de la física nuclear y el hecho de que el nivel de la labor científica sea todavía muy diferente en los distintos países favorece la cooperación internacional en esta materia. Científicos jóvenes de muchos y diferentes países pueden reunirse en los institutos de investigación que desarrollan una intensa actividad en el campo de la física moderna, y el esfuerzo común ante los difíciles problemas científicos ha de favorecer la mutua comprensión. En el caso de la organización de Ginebra ha sido posible lograr un acuerdo entre una cantidad de naciones diferentes para construir un laboratorio común y obtener, mediante el esfuerzo combinado, el costoso equipo experimental que se requiere para las investigaciones de la física nuclear. Esta forma de cooperación ha de contribuir seguramente a crear una actitud común ante los problemas de la ciencia —común hasta más allá de los problemas puramente científicos— entre los científicos de la joven generación. Naturalmente, no puede saberse por anticipado lo que ha de crecer de las semillas así sembradas cuando los científicos vuelvan a encontrarse en su antiguo medio y participen nuevamente en sus propias tradiciones culturales. Pero difícilmente puede dudarse de que el intercambio de ideas entre los científicos jóvenes de los diferentes países y entre las diferentes generaciones en todos los países ha de ayudar a alcanzar sin demasiada tensión un nuevo estado de cosas en el cual se logre el equilibrio entre las antiguas fuerzas de la tradición y las necesidades inevitables de la vida moderna. Es principalmente una característica de la ciencia lo que la hace más a propósito que cualquier otra cosa para crear el primer vínculo firme entre las diferentes tradiciones culturales. Es el hecho de que las últimas decisiones sobre el valor de un determinado trabajo científico, sobre lo que en el mismo está bien y lo que no lo está, no depende de ninguna autoridad humana. A veces pueden pasar muchos años antes de que se conozca la solución de un problema, antes de que sea posible distinguir entre la verdad y el error; pero, en último término, los problemas serán resueltos, y las soluciones no serán dadas por ningún grupo de científicos sino por la naturaleza misma. Por consiguiente, las ideas científicas se difunden entre quienes están interesados por la ciencia de un modo completamente diferente del de la difusión de las ideas políticas.
Mientras las ideas políticas pueden alcanzar una influencia convincente entre las grandes masas populares precisamente porque corresponden o parecen corresponder a los intereses del pueblo, las ideas científicas se difundirán únicamente porque son verdaderas. Existen criterios objetivos y últimos que aseguran la exactitud de las afirmaciones científicas.
Naturalmente, todo cuanto aquí se ha dicho sobre cooperación internacional e intercambio de ideas ha de ser igualmente cierto para cualquier sector de la ciencia moderna; lo dicho no se limita a la física atómica. En este aspecto, la física moderna sólo es una de las muchas ramas de la ciencia, y aun cuando sus aplicaciones técnicas —las armas y el uso pacífico de la energía atómica— conceden una importancia especial a esta rama, no hay razón para considerar que la cooperación internacional en este campo sea mucho más importante que en otro cualquiera. Pero ahora tenemos que rever aquellas concepciones de la física moderna que son fundamentalmente distintas del desarrollo previo de la ciencia natural, y para esto tenemos que retroceder a la historia europea de este desarrollo producido por la combinación de las ciencias naturales y técnicas.
Los historiadores han discutido frecuentemente sobre si el progreso de la ciencia natural después del siglo dieciséis fue de algún modo la consecuencia de las anteriores tendencias del pensamiento humano. Puede argumentarse que algunas tendencias de la filosofía cristiana condujeron a una idea de Dios demasiado abstracta, que colocaron a Dios tan por encima del mundo que se comenzó a considerar el mundo sin ver al mismo tiempo a Dios en él. La partición cartesiana puede ser considerada como un paso final en esta evolución. O puede decirse que todas las controversias teológicas del siglo dieciséis produjeron un descontento general en tomo a los problemas que no pudieron plantearse realmente mediante la razón y fueron expuestos a las luchas políticas de la época; que este descontento favoreció el interés por problemas que estaban completamente al margen de las disputas teológicas. O bien, puede aludirse simplemente a la enorme actividad, al nuevo espíritu de las sociedades europeas del Renacimiento. De todos modos, en este período apareció una nueva autoridad completamente independiente de la religión cristiana, de la filosofía o de la Iglesia, la autoridad de la experiencia, la autoridad del hecho empírico. A esta autoridad puede hallársele una vinculación con ciertas tendencias filosóficas más antiguas como, por ejemplo, con la filosofía de Occam y de Duns Escoto, pero sólo se convirtió en una fuerza vital de la actividad humana desde el siglo dieciséis en adelante. Galileo no solamente pensó acerca de los movimientos mecánicos, el del péndulo y el de la piedra que cae; experimentó cualitativamente cómo se producían esos movimientos. Al principio esta nueva actividad no significó ciertamente una desviación de la tradicional religión cristiana. Al contrario, se habló de dos formas de revelación de Dios. Una estaba escrita en la Biblia, la otra había de ser encontrada en el libro de la naturaleza. La Sagrada Escritura había sido escrita por el hombre y su interpretación, por consiguiente, estaba sujeta a error, en tanto que la naturaleza era la expresión directa de las intenciones de Dios.
Sin embargo, el énfasis puesto sobre la naturaleza se relacionó con un cambio lento y gradual del aspecto de la realidad. Mientras en la Edad Media lo que ahora llamamos el significado simbólico de una cosa fue en cierto modo su realidad primaria, el aspecto de la realidad cambió hacia lo que podemos percibir con nuestros sentidos. Se hizo primariamente real aquello que podemos ver y tocar. Y esta nueva concepción de la realidad pudo relacionarse con una nueva actividad: podemos experimentar y ver como las cosas realmente son. Era fácil advertir que esta novedosa actitud significaba el punto de partida de la inteligencia hacia un inmenso campo de posibilidades nuevas, y es bien comprensible que, en este nuevo movimiento, la Iglesia viera los peligros más que las esperanzas. El famoso juicio de Galileo por sus opiniones sobre el sistema copernicano marcó el comienzo de una lucha que se prolongó durante más de un siglo. En esta controversia, los representantes de la ciencia natural pudieron argumentar que la experiencia ofrece una verdad indiscutible, que no es posible dejar abandonada al criterio de ninguna humana autoridad la decisión sobre lo que realmente sucede en la naturaleza, y que tal decisión está tomada por la naturaleza o, en este sentido, por Dios. Los representantes de la religión tradicional, por su parte, pudieron argüir que concediendo demasiada atención al mundo material, a lo que percibimos mediante nuestros sentidos, perdemos contacto con los valores esenciales de la vida humana, precisamente con esa parte de la realidad que está más allá del mundo material. Estos dos argumentos no llegaron a conciliarse y, en consecuencia, el problema no pudo solucionarse por ninguna clase de acuerdo o decisión.
Mientras tanto, la ciencia natural seguía obteniendo una imagen más clara y amplia del mundo material. En la física, esta imagen tuvo que ser descrita mediante aquellos conceptos que ahora llamamos conceptos de la física clásica. El mundo consistía en cosas en el espacio y en el tiempo, las cosas consistían en materia, y la materia puede producir fuerzas y puede ser sometida a fuerzas. Los acontecimientos se producen por la interacción entre la materia y las fuerzas; todo acontecimiento es el resultado y la causa de otros acontecimientos. Al mismo tiempo, la actitud del hombre hacia la naturaleza dejó de ser contemplativa para tomarse pragmática. No se estaba tan interesado por la naturaleza tal como es sino que se prefería saber qué podía hacerse con ella. La consecuencia fue que la ciencia natural se convirtió en una ciencia técnica; cada progreso del conocimiento se vinculó a la cuestión del empleo práctico que del mismo podía obtenerse. Esto fue así no solamente en la física; la actitud fue fundamentalmente la misma con respecto a la química y la biología, y el éxito de los nuevos métodos en la agricultura o la medicina contribuyó esencialmente a la propagación de las nuevas tendencias.
De este modo, el siglo diecinueve desarrolló finalmente un sistema extremadamente rígido para la ciencia natural, el cual no sólo inspiró a la ciencia sino también la opinión general de las grandes masas populares. Este sistema estuvo sostenido por los conceptos básicos de la física clásica: espacio, tiempo, materia y causalidad; por la concepción de la realidad aplicada a las cosas o los acontecimientos que podíamos percibir con nuestros sentidos o que podían ser observados mediante los delicados instrumentos que la ciencia técnica había proporcionado. La materia fue la realidad primera. El progreso de la ciencia se concibió como una cruzada para la conquista del mundo material. Utilidad era el santo y seña de la época.
Por otra parte, ese sistema era tan estrecho y tan rígido que resultaba difícil encontrar en él un lugar para muchos conceptos de nuestro lenguaje que siempre habían pertenecido a su misma sustancia, por ejemplo, los conceptos de inteligencia, de alma humana o de vida. La inteligencia sólo podía ser introducida dentro de ese cuadro general como una especie de espejo del mundo material; y cuando se estudiaban las propiedades de este espejo en la ciencia de la psicología, los científicos estaban siempre tentados —si puedo llevar más lejos la comparación— a prestar mayor atención a su mecanismo que a sus propiedades ópticas. Aun allí se intentaba aplicar los conceptos de la física clásica, en primer término el de causalidad. Del mismo modo, la vida tenía que ser explicada como procesos físicos y químicos, gobernados por leyes naturales, totalmente determinados por la causalidad. Darwin, con su concepción de la evolución, dio amplias pruebas para esta interpretación. Dentro de este sistema era particularmente difícil encontrar un lugar para aquellas partes de la realidad que habían sido el objeto de la religión tradicional y que se presentaban ahora como más o menos imaginarias. Por consiguiente, en aquellos países europeos en los cuales había que seguir las ideas hasta sus últimas consecuencias, se desarrolló una abierta hostilidad de la ciencia contra la religión, y hasta en los demás países hubo una creciente tendencia hacia la indiferencia para tales asuntos; de esta presión sólo quedaron exceptuados los valores éticos de la religión cristiana, al menos momentáneamente. La confianza en el método científico y en el pensamiento racionalista reemplazó a todas las demás defensas de la inteligencia humana.
Volviendo ahora a las contribuciones de la física moderna, puede decirse que el cambio más importante producido por sus resultados consiste en la disolución de este rígido sistema de conceptos del siglo diecinueve. Muchas tentativas se hicieron antes, naturalmente, a fin de salir de este marco rígido que parecía evidentemente demasiado estrecho para una comprensión de las partes fundamentales de la realidad. Pero no se veía qué habría de erróneo en conceptos tales como materia, espacio, tiempo y causalidad, que tan grandes éxitos obtuvieron en la historia de la ciencia. Sólo la investigación experimental misma, llevada a cabo con todo el refinado equipo que la ciencia técnica pudo ofrecer, y su interpretación matemática, proporcionaron las bases para un análisis crítico —o, podría decirse, obligaron al análisis crítico— de estos conceptos, y terminaron finalmente con la disolución del sistema rígido.
La disolución se llevó a cabo en dos etapas distintas. La primera fue el descubrimiento, mediante la teoría de la relatividad, de que hasta los conceptos fundamentales tales como los de espacio y tiempo podían ser cambiados, y que de hecho debían ser cambiados, de acuerdo con la nueva experiencia. Este cambio no concernía a los conceptos más bien vagos de espacio y tiempo del lenguaje ordinario, pero sí a su precisa formulación en el lenguaje científico de la mecánica de Newton, que fue equivocadamente aceptada como definitiva. La segunda etapa fue el análisis del concepto de la materia impuesto por los resultados experimentales concernientes a la estructura atómica. Es probable que la idea de la realidad de la materia haya sido la parte más firme de ese rígido marco de conceptos del siglo diecinueve, y esta idea tenía por lo menos que ser modificada en relación con la nueva experiencia. Una vez más los conceptos, en tanto pertenecían al lenguaje ordinario, permanecían intactos. No hubo dificultad para hablar de la materia, o de los hechos, o de la realidad, cuando había que describir los experimentos atómicos y sus resultados. Pero la extrapolación científica de estos conceptos dentro de las partes más pequeñas de la materia no podía hacerse de la sencilla manera sugerida por la física clásica, aun cuando había determinado equivocadamente la perspectiva general sobre el problema de la materia.
Estos nuevos resultados tuvieron que ser considerados, antes que nada, como una seria advertencia contra la aplicación en cierto modo forzada de los conceptos científicos en dominios a los cuales no pertenecían. La aplicación de los conceptos de la física clásica, por ejemplo en la química, había sido una equivocación. Ahora, por consiguiente, debemos estar menos inclinados a aceptar que los conceptos de la física, aun los de la teoría cuántica, puedan aplicarse por doquiera en la biología o en las otras ciencias. Tendremos, por el contrario, que mantener las puertas abiertas para la entrada de los nuevos conceptos aun en aquellas partes de la ciencia donde los conceptos antiguos han sido muy útiles para la comprensión de los fenómenos. Trataremos, sobre todo, de evitar cualquier conclusión temeraria, principalmente en aquellos puntos en los que la aplicación de los antiguos conceptos parece un tanto forzada o no completamente adecuada al problema.
Además, uno de los aspectos más importantes del desarrollo y el análisis de la física moderna es la experiencia de que los conceptos del lenguaje ordinario, vagamente definidos como están, parezcan ser más estables en la expansión del conocimiento que los términos precisos del lenguaje científico, derivado como una idealización de grupos solamente limitados de fenómenos. Esto no es, en realidad, sorprendente puesto que los conceptos del lenguaje ordinario están formados por la relación inmediata con la realidad; representan la realidad. Es verdad que no están muy bien definidos y que, por consiguiente, pueden sufrir cambios en el curso de los siglos, tanto como los sufrió la realidad misma, pero nunca pierden su relación inmediata con la realidad. Por otra parte, los conceptos científicos son idealizaciones; se derivan de la experiencia obtenida mediante delicados instrumentos experimentales, y están precisamente definidos mediante axiomas y definiciones. Sólo mediante estas definiciones precisas es posible relacionar los conceptos con un esquema matemático y deducir matemáticamente la infinita variedad de fenómenos posibles en este campo. Pero con este proceso de idealización y con la definición precisa se pierde la relación inmediata con la realidad. Los conceptos todavía corresponden muy aproximadamente a la realidad en aquella parte de la naturaleza que ha sido el objeto de la investigación. Pero la correspondencia puede perderse en otras partes que contienen otros grupos de fenómenos.
Teniendo presente la estabilidad intrínseca de los conceptos del lenguaje ordinario en el proceso del desarrollo científico se ve que —después de la experiencia de la física moderna— nuestra actitud hacia conceptos tales como los de inteligencia, alma humana, o vida, o Dios serán diferentes de los del siglo diecinueve, porque estos conceptos pertenecen al lenguaje ordinario y, por consiguiente, tienen una relación inmediata con la realidad. Verdad es que también comprobamos que estos conceptos no están bien definidos en el sentido científico y que su aplicación puede conducir a muchas contradicciones; mientras tanto, tenemos que tomar los conceptos como están, sin analizar; pero sabemos, sin embargo, que tienen contacto con la realidad. A este respecto puede ser útil recordar que hasta en las partes más exactas de la ciencia, en las matemáticas, no podemos evitar el empleo de conceptos que involucran contradicciones. Es bien sabido, por ejemplo, que el concepto de infinitud lleva a contradicciones que han sido analizadas, pero sería prácticamente imposible construir las partes principales de la matemática sin este concepto.
La orientación general del pensamiento humano, durante el siglo diecinueve, se inclinó hacia una creciente confianza en el método científico y los términos racionales precisos, y condujo a un escepticismo general con respecto a aquellos conceptos del lenguaje ordinario que no se ajustan al cerrado marco del pensamiento científico, por ejemplo, los de la religión. En muchos aspectos, la física moderna ha intensificado este escepticismo; pero, al mismo tiempo, lo ha dirigido contra una estimación exagerada de los conceptos científicos precisos, contra una concepción demasiado optimista del progreso en general y, finalmente, contra el mismo escepticismo. El escepticismo respecto de los conceptos científicos precisos no significa que deba existir una limitación definida para la aplicación del pensamiento racional. Por el contrario, puede decirse que la capacidad humana para comprender puede ser en cierto sentido ilimitada. Pero los conceptos científicos existentes siempre abarcan sólo una parte limitada de la realidad, y la otra parte que aún no ha sido comprendida es infinita. Siempre que vamos de lo conocido a lo desconocido podemos alentar la esperanza de comprender, pero al mismo tiempo tenemos que aprender un nuevo significado de la palabra “comprensión”. Sabemos que cualquier comprensión tiene que basarse, en último término, en el lenguaje ordinario porque sólo allí es donde podemos estar seguros de tomar contacto con la realidad, y, por consiguiente, debemos ser escépticos con respecto a todo escepticismo que se refiera a este lenguaje ordinario y sus conceptos fundamentales. Debemos, en consecuencia, emplear estos conceptos tal como han sido empleados en todos los tiempos. Quizá de esta manera la física moderna haya abierto la puerta a una perspectiva más amplia de las relaciones entre la inteligencia humana y la realidad.
En nuestros días esta ciencia moderna penetra, pues, en otras partes del mundo donde la tradición cultural ha sido completamente distinta de la civilización europea. El impacto de esta nueva actividad de la ciencia natural y la ciencia técnica debe hacerse sentir allí más fuertemente que en Europa puesto que los cambios de las condiciones de vida que en Europa se han producido en dos o tres siglos tendrán allí lugar dentro de unas pocas décadas. Podría suponerse que en muchos lugares esta nueva actividad pudiera aparecer como una declinación de la cultura más antigua, como una actitud bárbara y despiadada que altera la sensible balanza sobre la cual descansa toda humana felicidad. Tales consecuencias son inevitables y deben aceptarse como una de las características de nuestro tiempo. Pero aun allí la franqueza de la física moderna puede contribuir en cierta medida a reconciliar las tradiciones más antiguas con las nuevas orientaciones del pensamiento. Por ejemplo, la gran contribución científica a la física teorética que llega del Japón desde la última guerra puede ser la señal de una cierta relación entre las ideas filosóficas tradicionales del Lejano Oriente y la sustancia filosófica de la teoría cuántica. Tal vez sea más fácil adaptarse al concepto teorético cuántico de la realidad cuando no se ha tenido que transitar por la ingenua ruta del pensamiento materialista que aún prevalecía en Europa en las primeras décadas de este siglo.
Naturalmente, estas observaciones no deben ser erróneamente interpretadas como una subestimación de las viejas tradiciones culturales que han sufrido el impacto del progreso técnico. Pero puesto que todo el progreso ha excedido desde hace mucho tiempo todo dominio de las fuerzas humanas, tenemos que aceptar esto como una de las concepciones fundamentales de nuestro tiempo y tratar de relacionarlo, en cuanto sea posible, con los valores humanos que han constituido la finalidad de las antiguas tradiciones culturales y religiosas. Aquí puede permitírsenos recordar una anécdota de la religión hasídica: Había un anciano rabí, sacerdote famoso por su sabiduría a quien todo el mundo iba a pedir consejo. Un día recibió la visita de un hombre desesperado por todos los cambios que se producían a su alrededor y que se quejaba de todo el mal producido por el llamado progreso. “Si se consideran los auténticos valores de la vida —exclamó—, ¿no resulta completamente inútil toda esta preocupación por la técnica?”. “Tal vez sea así —replicó el rabí—, pero si uno es como debe ser se puede aprender de todo”. “No —contestó el visitante—, de tonterías tales como el ferrocarril, el teléfono o el telégrafo, no es posible aprender nada”. Pero el rabí insistió: “Se equivoca. El ferrocarril puede enseñarle que por llegar un minuto tarde puede perderlo todo. El telégrafo puede enseñarle que todas las palabras tienen valor. Y el teléfono puede enseñarle que lo que decimos aquí puede ser oído más allá”. El visitante comprendió lo que el rabí quería decirle y se fue.
Finalmente, la ciencia moderna penetra en esas grandes áreas de nuestro mundo actual donde las nuevas doctrinas se instalaron hace apenas unas décadas como las bases de nuevas y poderosas sociedades. La ciencia moderna se encuentra tanto ante el contenido de las doctrinas que se vinculan a las ideas filosóficas de la Europa del siglo diecinueve (Hegel y Marx), como ante la credulidad sin compromisos. Dado que la física moderna tiene que representar un gran papel en estos países debido a su aplicación práctica, difícilmente puede evitarse que la estrechez de las doctrinas sea sentida por quienes realmente han comprendido la física moderna y su significación filosófica. Por consiguiente, en este punto debe producirse una interacción entre la ciencia y la dirección general del pensamiento. La influencia de la ciencia no debe ser, naturalmente, sobrestimada; pero es posible que la franqueza de la ciencia moderna pueda hacer que sea aún más fácil, hasta para los grandes conglomerados humanos, ver que algunas doctrinas no son posiblemente tan importantes para la sociedad como antes se había creído. En esta forma, la influencia de la ciencia moderna puede favorecer una actitud de tolerancia y mostrarse así valiosa.
Por otra parte, el fenómeno de la credulidad sin compromiso lleva consigo un peso mucho mayor que algunas nociones filosóficas del siglo diecinueve. No podemos cerrar los ojos ante el hecho de que la gran mayoría de la gente difícilmente puede tener un juicio bien fundado sobre la exactitud de ciertas doctrinas o ideas generales. En consecuencia, la palabra “creencia” puede no significar para esta mayoría la “percepción de la verdad de algo” sino que sólo puede interpretarse como “tomando esto como base de la vida”. Fácilmente puede advertirse que esta segunda forma de creencia es más firme, es mucho más estable que la primera, que puede persistir aun a pesar de las contradicciones inmediatas de la experiencia y que, por consiguiente, puede no ser sacudida por el mayor conocimiento científico. La historia de las últimas dos décadas ha mostrado muchos ejemplos de que esta segunda clase de creencia puede a veces llegar a extremos en que parece completamente absurda, y que entonces sólo termina con la muerte del creyente. La ciencia y la historia pueden enseñamos que esta clase de creencia puede convertirse en un gran peligro para quienes la comparten. Pero ese conocimiento es inútil porque no puede verse cómo podría ser evitado y, en consecuencia, dicha creencia siempre ha pertenecido a las grandes fuerzas de la historia humana. Naturalmente, de acuerdo con la tradición científica del siglo diecinueve uno se sentiría inclinado a esperar que toda creencia tuviera por base el análisis racional de cada argumento; y que esta otra base de creencia, en la que cierta verdad real o aparente es simplemente tomada como base de la vida, no debería existir. Es cierto que una reflexión prudente fundada en argumentos exclusivamente racionales puede evitar muchos errores y peligros, dado que ello permite adaptarse a nuevas situaciones, y esto puede ser una condición necesaria para la vida. Pero recordando nuestra experiencia de la física moderna es fácil ver que siempre debe existir una complementariedad fundamental entre la reflexión y la decisión. En las decisiones prácticas de la vida difícilmente será posible agotar todos los argumentos en favor o en contra de una decisión, y por consiguiente siempre habrá que actuar con una prueba insuficiente. La decisión se adopta, en último término, apurando todos los argumentos —tanto los que han sido comprendidos como los que pueden presentarse a una reflexión posterior— y poniendo punto final a la meditación. La decisión puede ser el resultado de la reflexión, pero al mismo tiempo es complementaria de la reflexión; excluye la reflexión. En la vida, hasta las decisiones más importantes deben siempre contener este inevitable elemento de irracionalidad. La decisión es en sí misma necesaria, puesto que debe haber algo en qué apoyarse, algún principio que guíe nuestros actos. Sin ese firme sostén nuestras acciones perderían su fiereza. Por consiguiente, no puede impedirse que alguna verdad real o aparente constituya la base de la vida, y este hecho tiene que ser aceptado con respecto a los grupos humanos cuyas bases son distintas de las nuestras.
Para concluir con todo lo que se ha dicho sobre la ciencia moderna, puede tal vez afirmarse que la física moderna es sólo una parte, pero muy característica, del proceso histórico general que tiende hacia la unificación y la ampliación del mundo actual. Este proceso habrá de llevar por sí mismo a una disminución de las tensiones políticas y culturales que crean el gran peligro de nuestros días. Pero se acompaña de otro proceso que actúa en dirección opuesta. El hecho de que grandes masas humanas tengan conciencia de este proceso de unificación conduce a incitar a todas las fuerzas existentes en las comunidades cultas a que traten de imponer con la mayor amplitud sus valores tradicionales en la etapa final de la unificación. Por consiguiente, las tensiones se intensifican y los dos opuestos procesos están tan estrechamente vinculados el uno con el otro que toda intensificación del proceso de unificación —mediante el progreso técnico, por ejemplo— intensifica también la lucha por la influencia en la etapa final y, en consecuencia, aumenta la inestabilidad de la etapa transitoria. En este peligroso proceso de unificación, la física moderna sólo juega un papel quizá muy reducido. Pero contribuye en dos formas decisivas a conducir el progreso hacia una forma de evolución más tranquila. En primer término, demuestra que el empleo de armas nucleares en el proceso sería desastroso y, en segundo lugar, por el modo como se halla abierta a toda clase de concepciones ofrece la esperanza de que en la etapa final de unificación muchas diversas tradiciones culturales puedan vivir juntas y combinar los diferentes esfuerzos humanos en una nueva forma de equilibrio entre el pensamiento y el hecho, entre la actividad y la meditación.
Notas:
[1]En latín quanta, plural de quantum, y en castellano cuantos.
[2]Este principio fue establecido por el mismo Heisenberg.(N. del T.)
[3]Después de aparecida esta obra, Heisenberg ha condensado en una breve fórmula lo que parece ser la explicación de toda la naturaleza inorgánica.


Werner Karl Heisenberg (Wurzburgo5 de diciembre de 1901-Múnich1 de febrero de 1976) fue un físico y filósofo alemán. Es conocido sobre todo por formular el principio de incertidumbre, una contribución fundamental al desarrollo de la teoría cuántica. Este principio afirma que es imposible medir simultáneamente de forma precisa la posición y el momento lineal de una partícula. Heisenberg fue galardonado con el Premio Nobel de Física en 1932.

Publicar un comentario

0 Comentarios