Insuficiencias de la física clásica

    En los últimos años del siglo XIX, los pilares de las ciencias físicas parecían sólidos y bien asentados. Las leyes de la mecánica elaboradas por Isaac Newton y sus sucesores y las del electromagnetismo que James Clerk Maxwell sintetizó en elegantes ecuaciones se situaban entre los principales logros del pensamiento científico. A ello se sumaban los avances de la termodinámica clásica, que parecían encauzar la descripción del complejo ámbito de la energía y sus manifestaciones.

    El uso de sofisticadas herramientas matemáticas y estadísticas había permitido asimismo establecer un modelo de la física válido tanto para lo mayúsculo como para lo ínfimo. Las leyes de Newton y su teoría de la gravitación universal explicaban con buen grado de aproximación el movimiento de los planetas y las fuerzas mecánicas en el mundo sublunar. El uso de la mecánica estadística permitía extender estos mismos principios al interior microscópico de los cuerpos para realizar un cálculo del calor específico de los gases acorde con los resultados experimentales.

    Las ecuaciones de Maxwell del electromagnetismo habían predicho la existencia de ondas electromagnéticas. Los trabajos desarrollados por Heinrich Hertz en la década de 1880 con un aparato que producía ondas de radio en UHF dieron validez experimental a esta hipótesis. La luz, además, aparecía como una forma de onda electromagnética afín a radiaciones como los rayos X, gamma, ultravioleta o infrarrojo. El grado de optimismo de los físicos sobre el estado de la ciencia era tal que algunos pronosticaron que la tarea de sus sucesores consistiría simplemente en calcular la siguiente cifra decimal de los experimentos.

    Pronto la realidad haría desvanecerse este sueño cientifista. Ciertos problemas e inconsistencias que se habían considerado menores, como la determinación exacta de la velocidad de la luz en el vacío o la radiación asociada al «cuerpo negro», un ente hipotético que absorbe toda la radiación que recibe, terminaron por situarse en el centro de una verdadera revolución científica. En los primeros años del siglo XX, Albert Einstein y los pioneros de la mecánica cuántica demostraron lo equivocado que estaba el planteamiento de sus predecesores. Con un conjunto de ideas totalmente novedosas, demostraron que las insuficiencias de la física eran de tal condición que se hacía preciso volver a pensar sobre la naturaleza del tiempo y el espacio, la energía y la masa, el determinismo y la causalidad.

    Bases de la física newtoniana

    En los últimos años del siglo XIX se comenzaban a atisbar los problemas que abocarían a una revolución de la física en las décadas siguientes. Sin embargo, las teorías vigentes, avaladas por 200 años de éxitos en los experimentos, alardeaban de que los principios de la física de Newton resultaban válidos y universales para todos los sistemas de la naturaleza. Bastaría con mejorar la calidad de los experimentos para obtener una explicación convincente de los «flecos» que aún quedaban por resolver.

    La historia demostró que aquella visión optimista de la ciencia estaba errada. Para comprender el carácter de las limitaciones de la física newtoniana es aconsejable revisar sucintamente sus bases filosóficas, origen de sus extraordinarios logros en ciencia y tecnología, pero también fuente de su restricción de miras y de sus insuficiencias intrínsecas.

    La física newtoniana era heredera de la revolución científica de los siglos XVI y XVII. Entonces, el polaco Nicolás Copérnico demostró la inexactitud del modelo que situaba a la Tierra en el centro del Universo, al constatar que el planeta gira alrededor del Sol. Galileo Galilei y Johannes Kepler, entre otros, fueron determinantes en la evolución de las ideas científicas de la época e Isaac Newton sintetizó aquellos trabajos en un tratado sobre mecánica que aunaba en un modelo único las interpretaciones de los movimientos de los planetas y de los cuerpos en la superficie terrestre.

    Para intentar demostrar la existencia del movimiento absoluto, Isaac Newton propuso el ejemplo de un cubo lleno de agua y suspendido de una cuerda que permite su giro libre. Newton interpretó la superficie cóncava que se engendra en el agua al hacer girar el cubo como resultado de la influencia de los objetos celestes inmóviles. En sentido totalmente opuesto, la física contemporánea considera que es un efecto de los procesos cuánticos.

    Uno de los legados principales de la revolución copernicana fue el denominado método científico. Desde los albores de la Edad Moderna, para que un modelo físico pudiera considerarse verosímil fue imperativo que sus predicciones concordaran con los resultados de la observación o la experimentación. Este principio se mantiene como uno de los puntales de la ciencia moderna y demostró ser fundamental para el tránsito de la física decimonónica a la contemporánea.

    El método científico permitió más de dos siglos de extraordinario desarrollo de la física según los conceptos elaborados por Newton. El valor esencial otorgado a la observación y al experimento se sustentaba en una idea central de este período: el determinismo científico. Los investigadores de la época consideraban que era posible predecir lo que acontecería en el futuro si se conocían suficientemente las condiciones del estado actual de un sistema y las leyes de la naturaleza que rigen su comportamiento. Esta idea sería cuestionada por la mecánica cuántica en la primera mitad del siglo XX.

    Por otra parte, la física newtoniana, reforzada por la teoría electromagnética de Maxwell, defendía la existencia de un entorno «absoluto» en el que era posible encuadrar y definir los fenómenos físicos. Para Newton y sus sucesores, el espacio era un marco perenne e inamovible, tal que todos sus puntos se consideran equivalentes (homogeneidad) y las leyes de la física actúan por igual en todas sus direcciones (isotropía). Entendían además que el tiempo era una entidad independiente del espacio, constante, susceptible de medirse con relojes y ajena al discurrir de los hechos naturales. Hoy es bien sabido que, desde 1905, la teoría de la relatividad de Einstein contradijo fundadamente esta visión.

    Limitaciones de la física del siglo XIX

    Para comprender las limitaciones a que se enfrentaba la concepción newtoniana del mundo como un ámbito determinista y predecible dentro de un marco de referencia absoluto de espacio y tiempo independientes, pueden recordarse las vicisitudes históricas acontecidas en torno a dos insuficiencias de los modelos newtonianos. La primera, que no desbordó aún el contexto de la física clásica, se refería a los problemas para medir la velocidad de la luz y comprender su verdadera naturaleza. La segunda, base primera de la revolución cuántica, alude a un problema aparentemente menor: la incompletitud de la termodinámica clásica para explicar la radiación del cuerpo negro.

    Los patrones de interferencia conocidos como anillos de Newton constituyen un modelo clásico para estudiar el comportamiento de la luz como una onda.

    El éter lumínico

    El estudio de los principios elementales que explican el fenómeno de la luz ha constituido uno de los temas clásicos de la ciencia. Después de las elucubraciones filosóficas de la antigüedad, en la Edad Moderna europea se expusieron dos hipótesis, aparentemente antagónicas, acerca del hecho luminoso. Newton consideró que la luz estaba constituida por un chorro de partículas que incidían sobre los cuerpos y los iluminaban por reflexión. En cambio, Christiaan Huygens había postulado una teoría ondulatoria, según la cual la luz es una onda, una perturbación parecida al sonido y otras vibraciones que se propaga por el espacio alterando las características del medio físico que atraviesa.

    Pese al inmenso prestigio de Newton, la teoría ondulatoria de la luz fue ganando adeptos a lo largo de los siglos XVIII y XIX. La hipótesis de Huygens permitía explicar satisfactoriamente los conocidos fenómenos de interferencia entre rayos luminosos. Además, la teoría del electromagnetismo de Maxwell, ya en la segunda mitad del siglo XIX predijo la existencia de una radiación electromagnética a la que, definitivamente, correspondía con gran exactitud la descripción de las ondas luminosas.

    Según la óptica y el electromagnetismo del momento, la luz era una radiación electromagnética que se desplaza en el espacio como una onda semejante al sonido. Ahora bien, es bien sabido que el sonido se propaga a modo de vibraciones de las partículas del medio, ya sea éste el aire, el agua, diversos sólidos, etc. Sin embargo, la radiación electromagnética, y por supuesto la luz, viaja por el espacio sin necesidad de un medio material de esta clase: se desplaza también en el vacío.

    Esta constatación llevó a los científicos a proponer un medio hipotético que serviría de soporte a la propagación de la luz. Le llamaron éter lumínico y lo definieron como un medio que impregnaba todo el espacio y sus cuerpos y era sede de los fenómenos luminoso y electromagnético. Las conjeturas teóricas llevaron a dotar a este presunto éter de las propiedades más variopintas. Había de ser un medio omnipresente, incompresible, transparente y continuo, provisto de una rigidez de varios millones de veces la del acero para soportar las altas frecuencias de las ondas luminosas. A la vez, debía carecer de masa y de viscosidad, pues en caso contrario tendría efectos perceptibles, nunca observados, en las órbitas de los planetas.

    No obstante, en esta descripción quedaba un asunto pendiente. La presencia del éter no había podido contrastarse mediante el experimento, con lo cual era imposible convalidarla aplicando los preceptos del método científico.

    Experimento de Michelson-Morley. En los últimos años del siglo XX se diseñaron numerosos experimentos para intentar establecer definitivamente la existencia del éter lumínico. Muchos de ellos se basaban en un enfoque indirecto: ya que resultaba imposible observar o medir el éter, era preciso investigar sus efectos sobre otros fenómenos, como la propia luz.

    Se aplicó un sencillo razonamiento: si el éter existía y poseía las propiedades de inmutabilidad y universalidad que se le suponían, las distintas direcciones de la luz en su desplazamiento por el espacio debían provocar un cambio en su velocidad. Por ejemplo, la luz que viajara en el sentido del movimiento de la Tierra debería tener, con respecto al éter inmóvil, una velocidad aparente desde la Tierra distinta que la que se desplazara «en contra» del planeta. De este modo, habría de ser posible determinar mínimas variaciones en el comportamiento de la luz por causa de su deriva con respecto al éter.

    Los estadounidenses Albert Michelson y Edward Morley diseñaron uno de los experimentos científicos más rigurosos de la historia para encontrar estas discrepancias en el movimiento las ondas luminosas. Aplicando sus extraordinarios conocimientos de interferometría, diseñaron un dispositivo de altísima sensibilidad que sirvió para medir la velocidad de la luz con una precisión inigualada. Sin embargo, no encontraron ninguna deriva en la luz atribuible a la dirección de propagación. El éxito del experimento residió precisamente en su fracaso: al no encontrar rastro ninguno del éter lumínico, este resultado avalaría a posteriori la hipótesis de Albert Einstein sobre la naturaleza de la luz en la que se sustenta la teoría de la relatividad.

    Esquema simplificado del interferómetro de Michelson-Morley. La luz emitida por la fuente se divide en el espejo M semitransparente. Una parte llega a M1 y la otra a M2, y ambas se reflejan para alcanzar al observador en distintos momentos, lo que ocasiona interferencias ópticas. Disponiendo uno de estos haces paralelo al movimiento de la Tierra y estudiando la diferencia de fase de las ondas que interfieren, sería posible determinar posibles diferencias en la velocidad de la luz debidas a la existencia del supuesto éter lumínico.

    La radiación del cuerpo negro

    En otras partes de la obra se ha explicado el rápido avance de la termodinámica a lo largo del siglo XIX. Entendida como una ciencia capaz de explicar el comportamiento de la energía, el trabajo, el calor y otras magnitudes a escala macroscópica, su combinación con los principios de la mecánica estadística le permitieron ampliar su campo de estudio también a los componentes microscópicos de gases, líquidos y sólidos.

    Representación gráfica de la intensidad de la radiación del cuerpo negro en función de la longitud de onda emitida. Según la teoría clásica (línea de puntos), al reducirse la longitud de onda, o aumentar la frecuencia, la intensidad de la radiación se haría infinita. La experimentación demuestra otra realidad, expresada en las gráficas de la figura para temperaturas calientes, templadas y frías.

    Sin embargo, a finales de este siglo los investigadores se enfrentaban a una cuestión intrigante relacionada con un modelo termodinámico teórico conocido como radiación del cuerpo negro. En esencia, un cuerpo negro es una entidad que absorbe toda la energía que recibe (de ahí su «color» negro) y que, al calentarse, emite radiación térmica. El estudio del espectro (relación de frecuencias e intensidades) de esta radiación térmica para el cuerpo negro no coincidía con los hechos experimentales.

    En el laboratorio, la aproximación más exacta a un modelo de cuerpo negro se construye mediante un objeto hueco abierto al exterior por un orificio de dimensiones mínimas. Las paredes internas del objeto se recubren de una capa de pigmento negro (por ejemplo, negro de humo), de manera que la radiación electromagnética que entra por el orificio se refleja sucesivamente en dichas paredes hasta ser absorbida.

    La radiación que emite un cuerpo negro al calentarse tiene una particularidad muy interesante: depende únicamente de la temperatura de las paredes de la cavidad. Según los postulados teóricos de la física clásica, esta radiación debería emitirse de manera continua, con independencia del material que conforme la cavidad. Sin embargo, la determinación práctica del espectro de radiación del cuerpo negro presentaba problemas insolubles para la ciencia del siglo XIX. Por la aplicación de los descubrimientos del electromagnetismo y la termodinámica estadística, esta radiación debería tener un brillo infinito a las frecuencias más altas, un hecho obviamente absurdo.

    Para superar esta paradoja, conocida bajo el nombre de «catástrofe del ultravioleta», en 1900 Max Planck propuso una hipótesis que a la postre resultaría revolucionaria: la energía emitida por el cuerpo negro no debería ser continua, sino discreta, repartida en impulsos o múltiplos de una cierta cantidad a la que denominó quantum o cuanto. La ley de Planck resultante para explicar la radiación del cuerpo negro no sólo casaba bien con el experimento: sería la semilla de la que nació la física cuántica a principios del siglo XX.