Las bases de la física cuántica

Rafael Barea, profesor del Departamento de Ingeniería Industrial de la Universidad Nebrija, hace un recorrido por los acontecimientos que sentaron las bases de la física cuántica. A lo largo de los cuatro artículos que ha escrito podremos descubrir cuáles fueron las claves del comienzo de esta ciencia.

1. Un poco de historia

Ha pasado un siglo desde los acontecimientos que establecieron los principios que dieron lugar al inicio de la física cuántica, esa parte de la física menos intuitiva por alejarse de nuestra experiencia diaria y que, por ende, es más difícil de entender.

A veces no somos conscientes de que en una sesión de clase se explican conceptos y conocimiento que han llevado a innumerables científicos años de desarrollo y discusión. Tras cada “fórmula” ha habido un elenco de investigadores que han antecedido al desarrollo, otros que la han desarrollado y otros muchos que han experimentado y comprobado cada uno de los resultados… La ciencia es una labor de equipo. Lamentablemente, en muchas ocasiones se dan explicaciones simplistas sobre acontecimientos científicos como si hubiese una “ciencia de autor”. En este artículo me gustaría repasar los acontecimientos que sentaron las bases de la física cuántica, advirtiendo que faltan innumerables nombres de personas que cotejaron, ensayaron y aportaron su trabajo aunque su nombre se pierda en la historia (no sus aportaciones).

Finalizaba el siglo XIX cuando parecía que toda la física estaba ya desarrollada y que durante años se obtenían predicciones que eran confirmadas por experimentos. Galileo (1564-1692) enseñó a idear experimentos y realizar mediciones que se podían constatar con leyes matemáticas. Con el soporte del formalismo matemático, Newton (1642-1727) desarrolló la Ley de la Gravitación que daba sentido a las medidas que se habían estado realizando durante siglos sobre los movimientos de los planetas.

Maxwell (1831-1879) había unificado dos de las fuerzas que se conocían en ese momento, en la llamada Teoría electromagnética (incluyó con una sola formulación todas las fuerzas eléctricas y magnéticas). Su formulación en forma de ecuaciones matemáticas para explicar los campos electromagnéticos fue capaz de predecir la existencia de ondas invisibles que Hertz (1851-1854) detectó en 1888 (casi 10 años después de la muerte de Maxwell), mientras trabajaba en Berlín; las conocidas como ondas de radio.

Poco a poco se fue construyendo la que hoy conocemos como física clásica, donde se sabía predecir con “certeza” todo movimiento de cualquier partícula (entendida como esferas impenetrables), ya que había una correspondencia única entre causa y efecto; y conocida la posición de una partícula se podía saber su posición en cualquier instante futuro o pasado. Se conocían las leyes de la óptica y todo lo conocido estaba sometido a leyes deterministas, donde se podía ir desde causa a efecto sin intervención alguna de azar, todo estaba determinado.

Pero al comienzo del siglo XX, la física clásica comenzó a resquebrajarse y la nueva generación de físicos propuso ideas que violaban el sentido común.

Todo comenzó en la rama de la termodinámica que, si bien, no se vio afectada por los cambios que se produjeron, fue donde Maxwell en 1859 desarrolló la Teoría cinética de los gases, recurriendo a promedios estadísticos. Maxwell, que era un atomista convencido (en ese tiempo no todos sus coetáneos creían en la existencia de los átomos), entendía las moléculas como esferas macizas que se movían en línea recta interactuando únicamente mediante choques que conservaban la energía e inicialmente (y aquí estuvo la novedad), dado que cualquier sistema tenía un número inmenso de partículas, supuso que la posición y velocidad de cada molécula era aleatoria dentro del gas.

Consiguió demostrar que lo que llamamos temperatura mide realmente la velocidad cuadrática media microscópica de las moléculas que se mueven aleatoriamente. Aún hoy en día, más de cien años después, es difícil explicar que lo que llamamos temperatura realmente es una medida de velocidades promedio de las moléculas. Uno de los hitos más importantes de Maxwell es que sus predicciones proporcionaban una distribución de velocidades, esto es un rango de velocidades del que dado el gran número de partículas, solo podemos medir unas propiedades promedio…. Por tanto, introdujo la primera ley estadística de la física, que rompía la relación biunívoca entre causa y efecto introduciendo aleatoriedad.

Boltzmann (1844-1906), inspirado en la teoría de Maxwell, presentó su teorema de equipartición de la energía, que viene a decir que cuando un sistema está en equilibrio, la energía del sistema se dividía a partes iguales entre todos sus grados de libertad (todas las posiciones y velocidades).

Clausius (1822-1888) en 1850 había postulado la segunda ley de la termodinámica donde introdujo un término llamado entropía indicando que ésta siempre aumenta, siendo máximo el aumento en el que el sistema alcance el equilibrio térmico. Sin embargo, no quiso profundizar en el término que explicaba la experimentación, dejando sin definir el origen de la misma. Fue Boltzmann el que interpretó la entropía como un “desorden” medible mediante cálculo de probabilidades, teniendo en cuenta las posibles configuraciones de los microconstituyentes, y creó con ello la mecánica estadística, que es el método de predecir propiedades macroscópicas de los cuerpos a partir del comportamiento estadístico de los constituyentes microscópicos.

Así pues, comenzaba el siglo XX con estos antecedentes y con tres experimentos que reproducidos en diferentes laboratorios daban lugar a las mismas mediciones exactas y completamente paradójicas, pues no conseguían explicarse con la física del momento:

1-La radicación del cuerpo negro y la catástrofe ultravioleta.
2-El efecto fotoeléctrico.
3-Espectros ópticos.

Los comentarios están cerrados.