Elaborado por Materia para OpenMind Recomendado por Materia
80
Inicio El mundo después de la revolución: la física de la segunda mitad del siglo XX
Artículo del libro Fronteras del conocimiento

El mundo después de la revolución: la física de la segunda mitad del siglo XX

Tiempo estimado de lectura Tiempo 80 de lectura
«Para construir el modelo de universo estacionario, Einstein tuvo que modificar la ecuación original de su teoría de la relatividad introduciendo un nuevo término: la "constante cosmológica"»

Las grandes revoluciones del siglo XX

Durante la primera mitad del siglo xx –estrictamente en su primer cuarto– se produjeron dos grandes revoluciones científicas. Fue en la física donde tuvieron lugar tales cataclismos cognitivos, a los que conocemos bajo la denominación de revoluciones relativista y cuántica, asociadas a la formulación de las teorías especial y general de la relatividad (Einstein 1905 a 1915) y de la mecánica cuántica (Heisenberg 1925; Schrödinger 1926).

Relatividad

Mucho se ha escrito y escribirá en el futuro sobre la importancia de estas formulaciones teóricas y cómo afectaron al conjunto de la física antes incluso de que la centuria llegase a su mitad. Creada para resolver la «falta de entendimiento» que crecientemente se percibía entre la mecánica newtoniana y la electrodinámica de James Clerk Maxwell (1831-1879), la teoría de la relatividad especial obligó a modificar radicalmente las ideas y definiciones –vigentes desde que Isaac Newton (1642-1727) las incorporase al majestuoso edificio contenido en su Philosophiae Naturales Principia Mathematica (1687)– de conceptos tan básicos desde el punto de vista físico, ontológico y epistemológico como son espacio, tiempo y materia (masa). El resultado, en el que las medidas de espacio y tiempo dependían del estado de movimiento del observador y la masa, m, era equivalente a la energía, E (la célebre expresión E=m•c2, donde c representa la velocidad de la luz), abrió nuevas puertas a la comprensión del mundo físico; sirvió, por ejemplo, para comenzar a entender cómo era posible que los elementos radiactivos (uranio, polonio, radio, torio) que Henri Becquerel (1852-1908) junto a Marie (1867-1934) y Pierre Curie (1859-1906) habían sido los primeros en estudiar (1896, 1898), emitiesen radiaciones de manera continua, sin aparentemente perder masa.

¡Y qué decir de la teoría general de la relatividad, que explicaba la gravedad a costa de convertir el espacio –mejor dicho, el cuatridimensional espacio-tiempo– en curvo y con una geometría variable! Inmediatamente se comprobó que con la nueva teoría einsteiniana era posible comprender mejor que con la gravitación universal newtoniana los fenómenos perceptibles en el Sistema Solar (se resolvió, por ejemplo, una centenaria anomalía en el movimiento del perihelio de Mercurio). Y por si fuera poco, enseguida el propio Einstein (1917) tuvo la osadía intelectual de aplicar la teoría de la relatividad general al conjunto del Universo, creando así la cosmología como disciplina auténticamente científica, predictiva. Es cierto que el modelo que Einstein propuso entonces, uno en el que el Universo era estático, no sobrevivió finalmente, pero lo importante, abrir la puerta al tratamiento científico del universo, constituyó un acontecimiento difícilmente igualable en la historia de la ciencia (1).

Para encontrar la solución exacta de las ecuaciones de la cosmología relativista que utilizó, Einstein (1879-1955) se guio por consideraciones físicas. Otros matemáticos o físicos con especiales sensibilidades y habilidades matemáticas, no siguieron semejante senda, hallando muy pronto nuevas soluciones exactas –que implícitamente representaban otros modelos de universo– recurriendo únicamente a técnicas matemáticas para tratar las complejas (un sistema de diez ecuaciones no lineales en derivadas parciales) ecuaciones de la cosmología relativista. Así, Alexander Friedmann (1888-1925), Howard Robertson (1903-1961) y Arthur Walker (n. 1909) encontraron soluciones que implicaban modelos de universo en expansión. De hecho, hubo otro científico que obtuvo un resultado similar: el sacerdote católico belga Georges Lemaître (1894-1966), pero éste debe ser mencionado por separado ya que al igual que había hecho Einstein con su modelo estático, Lemaître (1927) se basó en consideraciones físicas para defender la idea de una posible, real, expansión del Universo.Ahora bien, todos estos modelos surgían de soluciones de las ecuaciones cosmológicas; esto es, se trataba de posibilidades teóricas. La cuestión de cómo es realmente el Universo –¿estático?, ¿en expansión?– quedaba aún por dilucidar, para lo cual el único juez aceptable era la observación.

La gloria imperecedera de haber encontrado evidencia experimental a favor de que el Universo se expande pertenece al astrofísico estadounidense Edwin Hubble (1889-1953), quien se benefició del magnífico telescopio reflector con un espejo de 2,5 metros de diámetro que existía en el observatorio de Monte Wilson (California) en el que trabajaba, al igual que de unos excelentes indicadores de distancia, las cefeidas, estrellas de luminosidad variable en las que se verifica una relación lineal entre la luminosidad intrínseca y el periodo de cómo varía esa luminosidad (Hubble 1929; Hubble y Humason 1931). Y si, como Hubble sostuvo, el Universo se expandía, esto quería decir que debió existir en el pasado (estimado inicialmente en unos diez mil millones de años, más tarde en quince mil millones y en la actualidad en unos trece mil setecientos millones) un momento en el que toda la materia habría estado concentrada en una pequeña extensión: el «átomo primitivo» de Lemaître, o, una idea que tuvo más éxito, el Big Bang (Gran Estallido).

Nació así una visión del Universo que en la actualidad forma parte de la cultura más básica. No fue, sin embargo, siempre así. De hecho, en 1948, cuando terminaba la primera mitad del siglo, tres físicos y cosmólogos instalados en Cambridge: Fred Hoyle (1915-2001), por un lado, y Hermann Bondi (1919-2005) y Thomas Gold (1920-2004), por otro (los tres habían discutido sus ideas con anterioridad a la publicación de sus respectivos artículos), dieron a conocer un modelo diferente del Universo en expansión: la cosmología del estado estable, que sostenía que el Universo siempre ha tenido y tendrá la misma forma (incluyendo densidad de materia, lo que, debido a la evidencia de la expansión del Universo, obligaba a introducir la creación de materia para que un «volumen» de Universo tuviese siempre el mismo contenido aunque estuviese dilatándose); en otras palabras: que el Universo no tuvo ni un principio ni tendrá un final (2).

A pesar de lo que hoy podamos pensar, imbuidos como estamos en «el paradigma del Big Bang», la cosmología del estado estable ejerció una gran influencia durante la década de 1950. Veremos que fue en la segunda mitad del siglo cuando finalmente fue desterrada (salvo para unos pocos fieles, liderados por el propio Hoyle)

Física cuántica

La segunda gran revolución a la que hacía referencia es la de la física cuántica. Aunque no es rigurosamente exacto, hay sobrados argumentos para considerar que el punto de partida de esta revolución tuvo lugar en 1900, cuando mientras estudiaba la distribución de energía en la radiación de un cuerpo negro, el físico alemán Max Planck (1858-1947) introdujo la ecuación E=h•? donde E es, como en el caso de expresión relativista, la energía, h una constante universal (denominada posteriormente «constante de Planck») y ? la frecuencia de la radiación involucrada (Planck 1900). Aunque él se resistió de entrada a apoyar la idea de que este resultado significaba que de alguna manera la radiación electromagnética (esto es, la luz, una onda continua como se suponía hasta entonces) se podía considerar también como formada por «corpúsculos» (posteriormente denominados «fotones») de energía h•?, semejante implicación terminó imponiéndose, siendo en este sentido Einstein (1905b) decisivo. Se trataba de la «dualidad onda-corpúsculo».

Durante un cuarto de siglo, los físicos pugnaron por dar sentido a los fenómenos cuánticos, entre los que terminaron integrándose también la radiactividad, la espectroscopia y la física atómica. No es posible aquí ofrecer ni siquiera un esbozo del número de científicos que trabajaron en este campo, de las ideas que manejaron y los conceptos que introdujeron, ni de las observaciones y experimentos realizados. Únicamente puedo decir que un momento decisivo en la historia de la física cuántica se produjo en 1925, cuando un joven físico alemán de nombre Werner Heisenberg (1901-1976) desarrolló la primera formulación coherente de una mecánica cuántica: la mecánica cuántica matricial. Poco después, en 1926, el austriaco Erwin Schrödinger (1887-1961) encontraba una nueva versión (pronto se comprobó que ambas eran equivalentes): la mecánica cuántica ondulatoria.

Si la exigencia de la constancia de velocidad de la luz contenida en uno de los dos axiomas de la teoría de la relatividad especial, la dependencia de las medidas espaciales y temporales del movimiento del observador o la curvatura dinámica del espacio-tiempo constituían resultados no sólo innovadores sino sorprendentes, que violentan nuestro «sentido común», mucho más chocantes resultaron ser aquellos contenidos o deducidos en la mecánica cuántica, de los que es obligado recordar al menos dos: (1) la interpretación de la función de onda de la ecuación de Schrödinger debida a Max Born (1882-1970), según la cual tal función –el elemento básico en la física cuántica para describir el fenómeno considerado– representa la probabilidad de que se dé un resultado concreto (Born 1926); y (2) el principio de incertidumbre (Heisenberg 1927), que sostiene que magnitudes canónicamente conjugadas (como la posición y la velocidad, o la energía y el tiempo) sólo se pueden determinar simultáneamente con una indeterminación característica (la constante de Planck): ?x•?p?h, donde x representa la posición y p el momento lineal (el producto de la masa por la velocidad). A partir de este resultado, al final de su artículo Heisenberg extraía una conclusión con implicaciones filosóficas de largo alcance: «En la formulación fuerte de la ley causal “Si conocemos exactamente el presente, podemos predecir el futuro”, no es la conclusión, sino más bien la premisa la que es falsa. No podemos conocer, por cuestiones de principio, el presente en todos sus detalles». Y añadía: «En vista de la íntima relación entre el carácter estadístico de la teoría cuántica y la imprecisión de toda percepción, se puede sugerir que detrás del universo estadístico de la percepción se esconde un mundo “real” regido por la causalidad. Tales especulaciones nos parecen –y hacemos hincapié en esto– inútiles y sin sentido. Ya que la física tiene que limitarse a la descripción formal de las relaciones entre percepciones».

La mecánica cuántica de Heisenberg y Schrödinger abrió un mundo nuevo, científico al igual que tecnológico, pero no era en realidad sino el primer paso. Existían aún muchos retos pendientes, como, por ejemplo, hacerla compatible con los requisitos de la teoría de la relatividad especial, o construir una teoría del electromagnetismo, una electrodinámica, que incorporase los requisitos cuánticos. Si Einstein había enseñado, y la física cuántica posterior incorporado en su seno, que la luz, una onda electromagnética, estaba cuantizada, esto es, que al mismo tiempo que una onda también era una «corriente» de fotones, y si la electrodinámica que Maxwell había construido en el siglo xix describía la luz únicamente como una onda, sin ninguna relación con la constante de Planck, entonces era evidente que algo fallaba, que también había que cuantizar el campo electromagnético.

No fue necesario, sin embargo, esperar a la segunda mitad del siglo xx para contar con una electrodinámica cuántica. Tal teoría, que describe la interacción de partículas cargadas mediante su interacción con fotones, fue construida en la década de 1940, de manera independiente, por un físico japonés y dos estadounidenses: Sin-itiro Tomonaga (1906-1979), Julian Schwinger (1918-1984) y Richard Feynman (1918-1988) (3).

La electrodinámica cuántica representó un avance teórico considerable, pero tampoco significaba, ni mucho menos, el final de la historia cuántica; si acaso, ascender un nuevo peldaño de una escalera cuyo final quedaba muy lejos. En primer lugar porque cuando la teoría de Tomonaga-Schwinger-Feynman fue desarrollada ya estaba claro que además de las tradicionales fuerzas electromagnética y gravitacional existen otras dos: la débil, responsable de la existencia de la radiactividad, y la fuerte, que unía a los constituyentes (protones y neutrones) de los núcleos atómicos (4). Por consiguiente, no bastaba con tener una teoría cuántica de la interacción electromagnética, hacía falta además construir teorías cuánticas de las tres restantes fuerzas.

Relacionado íntimamente con este problema, estaba la proliferación de partículas «elementales». El electrón fue descubierto, como componente universal de la materia, en 1897 por Joseph John Thomson (1856-1940). El protón (que coincide con el núcleo del hidrógeno) fue identificado definitivamente gracias a experimentos realizados en 1898 por Wilhelm Wien (1864-1928) y en 1910 por Thomson. El neutrón (partícula sin carga) fue descubierto en 1932 por el físico inglés James Chadwick (1891-1974). Y en diciembre de este año, el estadounidense Carl Anderson (1905-1991) hallaba el positrón (idéntico al electrón salvo en que su carga es opuesta, esto es, positiva), que ya había sido previsto teóricamente en la ecuación relativista del electrón, introducida en 1928 por uno de los pioneros en el establecimiento de la estructura básica de la mecánica cuántica, el físico inglés Paul Dirac (1902-1984).

Electrones, protones, neutrones, fotones y positrones no serían sino los primeros miembros de una extensa familia (mejor, familias) que no hizo más que crecer desde entonces, especialmente tras la entrada en funcionamiento de unas máquinas denominadas «aceleradores de partículas». En el establecimiento de esta rama de la física, el ejemplo más característico de lo que se ha venido en llamar Big Science (Gran Ciencia), ciencia que requiere de enormes recursos económicos y de equipos muy numerosos de científicos y técnicos, nadie se distinguió más que Ernest O. Lawrence (1901-1958), quien a partir de la década de 1930 desarrolló en la Universidad de Berkeley (California) un tipo de esos aceleradores, denominados «ciclotrones», en los que las partículas «elementales» se hacían girar una y otra vez, ganando en cada vuelta energía, hasta hacerlas chocar entre sí, choques que se fotografiaban para luego estudiar sus productos, en los que aparecían nuevas partículas «elementales». Pero de esta rama de la física, denominada «de altas energías», volveré a hablar más adelante, cuando trate de la segunda mitad del siglo xx; ahora basta con decir que su origen se encuentra en la primera mitad de esa centuria.

Establecido el marco general, es hora de pasar a la segunda mitad del siglo, a la que está dedicada el presente artículo. Y comenzaré por el escenario más general: el Universo, en el que la interacción gravitacional desempeña un papel central, aunque, como veremos, no exclusivo, particularmente en los primeros instantes de su existencia.

El mundo de la gravitación

Evidencias de la expansión del Universo la radiación cósmica de microondas

Señalé antes que no todos los físicos, astrofísicos y cosmólogos entendieron la expansión descubierta por Hubble como evidencia de que el Universo tuvo un comienzo, un Big Bang. La cosmología del estado estable de Hoyle-Bondi-Gold proporcionaba un marco teórico en el que el Universo había sido siempre igual, y esta idea fue bien aceptada por muchos. Sin embargo, en la década siguiente a la de su formulación, la de 1950, comenzó a tener problemas. El que fuese así se debió no a consideraciones teóricas, sino a las nuevas posibilidades observacionales que llegaron de la mano del desarrollo tecnológico. Es éste un punto que merece la pena resaltar: eso que llamamos ciencia es producto de una delicada combinación entre teoría y observación. No hay, efectivamente, ciencia sin la construcción de sistemas (teorías) que describen conjuntos de fenómenos, pero mucho menos la hay sin observar lo que realmente sucede en la naturaleza (simplemente, no somos capaces de imaginar cómo se comporta la naturaleza). Y para observar se necesitan instrumentos; cuanto más poderosos –esto es, capaces de mejorar las potencialidades de nuestros sentidos–, mejor. Y esto equivale a desarrollo tecnológico.

Sucede que la segunda mitad del siglo xx fue una época en la que la tecnología experimentó un desarrollo gigantesco, mucho mayor que en el pasado, y esto repercutió muy positivamente en el avance de la ciencia, en general, y de la astrofísica y cosmología en particular. En lo relativo a los problemas que afectaron a la cosmología del estado estable, a los que antes me refería, tales dificultades nacieron del desarrollo de la radioastronomía, una disciplina que había dado sus primeros pasos en la década de 1930, gracias a los trabajos de Karl Jansky (1905-1950), un ingeniero eléctrico que trabajaba para los laboratorios Bell (estrictamente Bell Telephone Laboratories), el «departamento» de American Telephone and Telegraph Corporation encargado de la investigación y el desarrollo. En 1932, mientras buscaba posibles fuentes de ruido en emisiones de radio, Jansky detectó emisiones eléctricas procedentes del centro de nuestra galaxia. A pesar de la importancia que visto retrospectivamente asignamos ahora a tales observaciones, Jansky no continuó explorando las posibilidades que había abierto; al fin y al cabo, el mundo de la investigación fundamental no era el suyo.

No inmediatamente, pero sí pronto aquellas antenas primitivas se convirtieron en refinados radiotelescopios; habitualmente discos de cada vez mayor diámetro, que recogían radiación electromagnética procedente del espacio. La importancia de estos instrumentos para el estudio del Universo es obvia: los telescopios ópticos en los que se basaba hasta entonces la astrofísica únicamente estudiaban un rango muy pequeño del espectro electromagnético; eran, por así decir, casi «ciegos».

Uno de los primeros lugares en los que floreció institucionalmente la radioastronomía fue en Cambridge (Inglaterra). Fue allí donde Martin Ryle (1918-1984), continuó decididamente por la senda esbozada por Jansky. En semejante tarea se vio ayudado por los conocimientos que había obtenido durante la Segunda Guerra Mundial (trabajó entonces en el Telecommunications Research Establishment gubernamental, más tarde bautizado como Royal Radar Establishment), así como por la mejora que esa conflagración había significado para la instrumentación electrónica. Utilizando radiotelescopios, algunos de cuyos componentes diseñó él mismo, Ryle identificó en 1950 cincuenta radio-fuentes, número que aumentó radicalmente cinco años más tarde, cuando llegó a las dos mil. Uno de sus hallazgos fue descubrir una radio-fuente en la constelación de Cygnus, situada a 500 años-luz de la Vía Láctea. Al ver más lejos en el espacio, estaba viendo también más atrás en el tiempo (las señales que recibía habían sido emitidas hacía mucho, el tiempo que les había costado llegar a la Tierra). Con sus observaciones se estaba, por tanto, adentrando en la historia pasada del universo. Hubble había dado el primer gran paso en el camino de la cosmología observacional; Ryle –que recibió el Premio Nobel de Física en 1974– el segundo.

Gracias a sus observaciones con radio-fuentes, Ryle llegó a conclusiones que iban en contra de la cosmología del estado estable, reivindicando así la del Big Bang. Al analizar las curvas que relacionaban el número de radio-estrellas por unidad de ángulo sólido con la intensidad que emiten, Ryle (1955) concluía que no veía la manera en la que las observaciones se pudiesen explicar en términos de la teoría del estado estable».

Mucho más concluyente a favor de la existencia en el pasado de un gran estallido fue otro descubrimiento, uno de los más célebres e importantes en toda la historia de la astrofísica y cosmología: el del fondo de radiación de microondas.

En 1961, E. A. Ohm, un físico de una de las instalaciones de los laboratorios Bell, situada en Crawford Hill, New Jersey, construyó un radiómetro para recibir señales de microondas procedentes del globo Echo (un reflector de señales electromagnéticas lanzado en 1960) de la NASA. No era una casualidad: los laboratorios Bell querían comenzar a trabajar en el campo de los satélites de comunicación. En observaciones realizadas en la longitud de onda de 11 cm., Ohm encontró un exceso de temperatura de 3,3°K (grados kelvin) en la antena, pero este resultado apenas atrajo alguna atención (5).

Otro de los instrumentos que se desarrollaron por entonces en Crawford Hill fue una antena en forma de cuerno, una geometría que reducía las interferencias. El propósito inicial era utilizarla para comunicarse, vía el globo Echo, con el satélite Telstar de la compañía (la antena debía ser muy precisa, ya que debido a la forma del globo, las señales que incidiesen en él se difundirían mucho). En 1963, sabiendo de la existencia de esta antena, Robert Wilson (n. 1936) abandonó su puesto posdoctoral en el Instituto Tecnológico de California (Caltech) para aceptar un trabajo en los laboratorios Bell. Arno Penzias (n. 1933), un graduado de la Universidad de Columbia (Nueva York) tres años mayor que Wilson, ya llevaba por entonces dos años en los laboratorios. Afortunadamente, aquel mismo año la antena, pequeña pero de gran sensibilidad, pudo ser utilizada para estudios de radioastronomía, ya que la compañía decidió abandonar el negocio de comunicaciones vía satélite. Realizando medidas para una longitud de onda de 7,4 centímetros, Penzias y Wilson encontraron una temperatura de 7,5°K, cuando debía haber sido únicamente de 3,3°K. Además, esta radiación (o temperatura) suplementaria, que se creía efecto de algún ruido de fondo, resultó ser independiente de la dirección en la que se dirigiese la antena. Los datos obtenidos indicaban que lo que estaban midiendo no tenía origen ni atmosférico, ni solar, ni galáctico. Era un misterio.

Después de descartar que los ruidos proviniesen de la propia antena, la única conclusión posible era que tenía algo que ver con el cosmos, aunque no se sabía cuál podía ser la causa. La respuesta a esta cuestión llegó de algunos colegas de la cercana Universidad de Princeton, algunos de los cuales, como James Peebles (n. 1935), ya habían considerado la idea de que si hubo un Big Bang debería existir un fondo de ruido remanente del universo primitivo, un ruido que, en forma de radiación, correspondería a una temperatura mucho más fría (debido al enfriamiento asociado a la expansión del Universo) que la enorme que debió producirse en aquella gran explosión. Las ideas de Peebles habían animado a su colega en Princeton Robert Dicke (1916-1995) a iniciar un experimento destinado a encontrar esa radiación de fondo cósmico, tarea en la que se les adelantaron, sin pretenderlo, Penzias y Wilson. Aun así, fue el grupo de Princeton el que suministró la interpretación de las observaciones de Penzias y Wilson (1965), que éstos publicaron sin hacer ninguna mención a sus posibles implicaciones cosmológicas. La temperatura correspondiente a esa radiación situada en el dominio de las microondas corresponde según las estimaciones actuales a unos 2,7°K (en su artícu-lo de 1965, Penzias y Wilson daban un valor de 3,5°K).

El que Penzias y Wilson detectasen el fondo de radiación de microondas en un centro dedicado a la investigación industrial, en donde se disponía y desarrollaban nuevos instrumentos es significativo. Expresa perfectamente la ya mencionada necesidad de instrumentos más precisos, de nueva tecnología, para avanzar en el conocimiento del Universo. Según se dispuso de esta tecnología, fue ampliándose la imagen del cosmos. Y así llegaron otros descubrimientos, de los que destacaré dos: púlsares y cuásares.

Púlsares y cuásares

En 1963, un radioastrónomo inglés, Cyril Hazard, que trabajaba en Australia, estableció con precisión la posición de una poderosa radio-fuente, denominada 3C273. Con estos datos, el astrónomo holandés Maarten Schmidt (n. 1929), del observatorio de Monte Palomar (California), localizó ópticamente el correspondiente emisor, encontrando que las líneas del espectro de 3C273 estaban desplazadas hacia el extremo del rojo en una magnitud que revelaba que se alejaba de la Tierra a una velocidad enorme: 16% de la velocidad de la luz. Utilizando la ley de Hubble, que afirma que la distancia de las galaxias entre sí son directamente proporcionales a su velocidad de recesión, se deducía que 3C273 estaba muy alejada, lo que a su vez implicaba que se trataba de un objeto extremadamente luminoso, más de cien veces que una galaxia típica. Fueron bautizados como quasi-stellar sources (fuentes casi-estelares), esto es, quasars (cuásares), y se piensa que se trata de galaxias con núcleos muy activos.

Desde su descubrimiento, se han observado varios millones de cuásares, aproximadamente el 10% del número total de galaxias brillantes (muchos astrofísicos piensan que una buena parte de las galaxias más brillantes pasan durante un breve periodo por una fase en la que son cuásares). La mayoría están muy alejados de nuestra galaxia, lo que significa que la luz que se ve ha sido emitida cuando el universo era mucho más joven. Constituyen, por consiguiente, magníficos instrumentos para el estudio de la historia del Universo.

En 1967, Jocelyn S. Bell (n. 1943), Anthony Hewish (n. 1924) y los colaboradores de éste en Cambridge construyeron un detector para observar cuásares en las frecuencias radio. Mientras lo utilizaba, Bell observó una señal que aparecía y desaparecía con gran rapidez y regularidad. Tan constante era el periodo que parecía tener un origen artificial (¿acaso una fuente extraterrestre inteligente?). No obstante, tras una cuidadosa búsqueda Bell y Hewish concluyeron que estos «púlsares», como finalmente fueron denominados, tenían un origen astronómico (Hewish, Bell, Pilkington, Scott y Collins 1968) (6). Ahora bien, ¿qué eran estas radio-fuentes tan regulares? La interpretación teórica llegó poco después, de la mano de Thomas Gold, uno de los «padres» de la cosmología del estado estable, reconvertido ya al modelo del Big Bang. Gold (1968) se dio cuenta de que los periodos tan pequeños implicados (del orden de 1 o 3 segundos en los primeros púlsares detectados) exigían una fuente de tamaño muy pequeño. Las enanas blancas eran demasiado grandes para rotar o vibrar con tal frecuencia, pero no así las estrellas de neutrones (7). Pero ¿el origen de las señales recibidas se debía a vibraciones o a rotaciones de estas estrellas? No a vibraciones, porque en estrellas de neutrones éstas eran demasiado elevadas (alrededor de mil veces por segundo) para explicar los periodos de la mayoría de los pulsares. Por consiguiente, los púlsares tenían que ser estrellas de neutrones en rotación. En la actualidad, cuando se han descubierto púlsares que emiten rayos X o gamma (incluso algunos luz en el espectro óptico), también se admiten otros mecanismos para la producción de la radiación que emiten; por ejemplo, la acreción de materia en sistemas dobles.

Además de su interés astrofísico, los púlsares cumplen otras funciones. Una de ellas ha sido utilizarlos para comprobar la predicción de la relatividad general de que masas aceleradas emiten radiación gravitacional (un fenómeno análogo al que se produce con cargas eléctricas: la radiación electromagnética).

La confirmación de que, efectivamente, la radiación gravitacional existe derivó del descubrimiento, en 1974, del primer sistema formado por dos púlsares interaccionando entre sí (denominado PSR1913+16), por el que Russell Hulse (n. 1950) y Joseph Taylor (n. 1941) recibieron en 1993 el Premio Nobel de Física. En 1978, después de varios años de observaciones continuadas de ese sistema binario, pudo concluirse que las órbitas de los púlsares varían acercándose entre sí, un resultado que se interpreta en términos de que el sistema pierde energía debido a la emisión de ondas gravitacionales (Taylor, Fowler y McCulloch 1979). Desde entonces han sido descubiertos otros púlsares en sistemas binarios, pero lo que aún resta es detectar la radiación gravitacional identificando su paso por instrumentos construidos e instalados en la Tierra, una empresa extremadamente difícil dado lo minúsculo de los efectos implicados: se espera que las ondas gravitacionales que lleguen a la Tierra (originadas en algún rincón del Universo en el que tenga lugar un suceso extremadamente violento) produzcan distorsiones en los detectores de no más de una parte en 1021; esto es, una pequeña fracción del tamaño de un átomo. Existen ya operativos diseñados para lograrlo: el sistema de 4 kilómetros de detectores estadounidenses denominado LIGO, por sus siglas inglesas, Laser Interferometric Gravitational wave Observatories.

También los cuásares resultan ser objetos muy útiles para estudiar el Universo en conjunción con la relatividad general. Alrededor de uno entre quinientos cuásares se ven implicados en un fenómeno relativista muy interesante: la desviación de la luz que emiten debido al efecto gravitacional de otras galaxias situadas entre el cuásar en cuestión y la Tierra, desde donde se observa este fenómeno, denominado «lentes gravitacionales» (8). El efecto puede llegar a ser tan grande que se observan imágenes múltiples de un solo cuásar.

En realidad, las lentes gravitacionales no son producidas únicamente por cuásares; también lo son por grandes acumulaciones de masas (como cúmulos de galaxias) que al desviar la luz procedente de, por ejemplo, galaxias situadas tras ellas (con respecto a nosotros) dan lugar, en lugar de a una imagen más o menos puntual, a un halo de luz, a una imagen «desdoblada». Fueron observados por primera vez en 1979, cuando Walsh, Carswell y Weyman (1979) descubrieron una imagen múltiple de un cuasar en 0957+561. Posteriormente, se han tomado fotografías con el telescopio espacial Hubble de un cúmulo de galaxias situado a unos mil millones de años-luz de distancia en las que además de las galaxias que forman el cúmulo se observan numerosos arcos (trozos de aros) que se detectan con mayor dificultad debido a ser más débiles luminosamente. Estos arcos son en realidad las imágenes de galaxias mucho más alejadas de nosotros que las que constituyen el propio cúmulo, pero que observamos mediante el efecto de lente gravitacional (el cúmulo desempeña el papel de la lente que distorsiona la luz procedente de tales galaxias). Además de proporcionar nuevas evidencias en favor de la relatividad general, estas observaciones tienen el valor añadido de que la magnitud de la desviación y distorsión que se manifiesta en estos arcos luminosos es mucho mayor del que se esperaría si no hubiese nada más en el cúmulo que las galaxias que vemos en él. De hecho, las evidencias apuntan a que estos cúmulos contienen entre cinco y diez veces más materia de la que se ve. ¿Se trata de la materia oscura de la que hablaré más adelante?

Para muchos —al menos hasta que el problema de la materia y energía oscuras pasó a un primer plano— la radiación de fondo, los púlsares y los cuásares, de los que me he ocupado en esta sección, constituyen los tres descubrimientos más importantes en la astrofísica de la segunda mitad del siglo xx. Ciertamente, lo que estos hallazgos nos dicen, especialmente en el caso de púlsares y cuásares, es que el Universo está formado por objetos mucho más sorprendentes, y sustancialmente diferentes, de los que se había supuesto existían durante la primera mitad del siglo xx. Ahora bien, cuando se habla de objetos estelares sorprendentes o exóticos, es inevitable referirse a los agujeros negros, otro de los «hijos» de la teoría de la relatividad general.

Agujeros negros

Durante décadas tras su formulación en 1915 y haber sido explotadas las predicciones de la teoría einsteiniana de la gravitación con relación al Sistema Solar (movimiento del perihelio de Mercurio, curvatura de los rayos de luz y desplazamiento gravitacional de las líneas espectrales), la relatividad general estuvo en gran medida en manos de los matemáticos, hombres como Hermann Weyl (1885-1955), Tullio Levi-Civita (1873-1941), Jan Arnouldus Schouten (1883-1971), Cornelius Lanczos (1892-1974) o André Lichnerowicz (1915-1998). La razón era, por un lado, la dificultad matemática de la teoría, y por otro el que apenas existían situaciones en las que se pudiese aplicar. Su dominio era el Universo y explorarlo requería de unos medios tecnológicos que no existían entonces (también, por supuesto, era preciso una financiación importante). Este problema fue desapareciendo a partir de finales de la década de 1960, y hoy se puede decir que la relatividad general se ha integrado plenamente en la física experimental, incluyendo apartados que nos son tan próximos como el Global Positioning System (GPS). Y no sólo en la física experimental correspondiente a los dominios astrofísico y cosmológico, también, como veremos más adelante, se ha asociado a la física de altas energías.

Y en este punto, como uno de los objetos estelares más sorprendentes y atractivos vinculados a la relatividad general cuya existencia se ha descubierto en las últimas décadas, es necesario referirse a los agujeros negros, que de hecho han ido más allá del mundo puramente científico, afincándose asimismo en el social.

Estos objetos pertenecen, como digo, al dominio teórico de la teoría de la relatividad general, aunque sus equivalentes newtonianos habían sido propuestos –y olvidados– mucho antes por el astrónomo británico John Michell (c. 1724-1793) en 1783, y por Pierre Simon Laplace (1749-1827) en 1795. Su exoticidad proviene de que involucran nociones tan radicales como la destrucción del espacio-tiempo en puntos denominados «singularidades» (9).

El origen de los estudios que condujeron a los agujeros negros se remonta a la década de 1930, cuando el físico de origen hindú, Subrahamanyan Chandrasekhar (1910-1995), y el ruso Lev Landau (1908-1968), mostraron que en la teoría de la gravitación newtoniana un cuerpo frío de masa superior a 1,5 veces la del Sol no podría soportar la presión producida por la gravedad (Chandrasekhar 1931; Landau 1932). Este resultado condujo a la pregunta de qué sucedería según la relatividad general. Robert Oppenheimer (1904-1967), junto a dos de sus colaboradores, George M. Volkoff y Hartland Snyder (1913-1962) demostraron en 1939 que una estrella de semejante masa se colapsaría hasta reducirse a una singularidad, esto es, a un punto de volumen cero y densidad infinita (Oppenheimer y Volkoff 1939; Oppenheimer y Snyder 1939).

Pocos prestaron atención, o creyeron, en las conclusiones de Oppenheimer y sus colaboradores y su trabajo fue ignorado hasta que el interés en los campos gravitacionales fuertes fue impulsado por el descubrimiento de los cuásares y los púlsares. Un primer paso lo dieron en 1963 los físicos soviéticos, Evgenii M. Lifshitz (1915-1985) e Isaak M. Khalatnikov (n. 1919), que comenzaron a estudiar las singularidades del espacio-tiempo relativista. Siguiendo la estela del trabajo de sus colegas soviéticos e introduciendo poderosas técnicas matemáticas, a mediados de la década de 1960 el matemático y físico británico Roger Penrose (n. 1931) y el físico Stephen Hawking (n. 1942), demostraron que las singularidades eran inevitables en el colapso de una estrella si se satisfacían ciertas condiciones (10).

Un par de años después de que Penrose y Hawking publicasen sus primeros artículos, la física de las singularidades del espacio-tiempo se convirtió en la de los «agujeros negros», un término afortunado que no ha hecho sino atraer la atención popular sobre este ente físico. El responsable de esta aparentemente insignificante pequeña revolución terminológica fue el físico estadounidense, John A. Wheeler (1911-2008). Él mismo explicó la génesis del término de la forma siguiente (Wheeler y Ford 1998, 296-297):

En el otoño de 1967, Vittorio Canuto, director administrativo del Instituto Goddard para Estudios Espaciales de la NASA en el 2880 de Broadway, en Nueva York, me invitó a dar una conferencia para considerar posibles interpretaciones de las nuevas y sugerentes evidencias que llegaban de Inglaterra acerca de los púlsares. ¿Qué eran estos púlsares? ¿Enanas blancas que vibraban? ¿Estrellas de neutrones en rotación? ¿Qué? En mi charla argumenté que debíamos considerar la posibilidad de que en el centro de un púlsar se encontrase un objeto completamente colapsado gravitacionalmente. Señalé que no podíamos seguir diciendo, una y otra vez, «objeto completamente colapsado gravitacionalmente». Se necesitaba una frase descriptiva más corta. ¿Qué tal agujero negro?, preguntó alguien de la audiencia. Yo había estado buscando el término adecuado durante meses, rumiándolo en la cama, en la bañera, en mi coche, siempre que tenía un momento libre. De repente, este nombre me pareció totalmente correcto. Cuando, unas pocas semanas después, el 29 de diciembre de 1967, pronuncié la más formal conferencia Sigma Xi-Phi Kappa en la West Ballroom del Hilton de Nueva York, utilicé este término, y después lo incluí en la versión escrita de la conferencia publicada en la primavera de 1968.

El nombre era sugerente y permanecería, pero la explicación era errónea (como ya he señalado un púlsar está propulsado por una estrella de neutrones).

Aunque la historia de los agujeros negros tiene sus orígenes, como se ha indicado, en los trabajos de índole física de Oppenheimer y sus colaboradores, durante algunos años predominaron los estudios puramente matemáticos, como los citados de Penrose y Hawking. La idea física subyacente era que debían representar objetos muy diferentes a cualquier otro tipo de estrella, aunque su origen estuviese ligado a éstas. Surgirían cuando, después de agotar su combustible nuclear, una estrella muy masiva comenzase a contraerse irreversiblemente debido a la fuerza gravitacional. Así, llegaría un momento en el que se formaría una región (denominada «horizonte») que únicamente dejaría entrar materia y radiación, sin permitir que saliese nada, ni siquiera luz (de ahí lo de «negro»): cuanto más grande es, más come, y cuanto más come, más crece. En el centro del agujero negro está el punto de colapso. De acuerdo con la relatividad general, allí la materia que una vez compuso la estrella es comprimida y expulsada aparentemente «fuera de la existencia».

Evidentemente, «fuera de la existencia» no es una idea aceptable. Ahora bien, existe una vía de escape a semejante paradójica solución: la teoría de la relatividad general no es compatible con los requisitos cuánticos, pero cuando la materia se comprime en una zona muy reducida son los efectos cuánticos los que dominarán. Por consiguiente, para comprender realmente la física de los agujeros negros es necesario disponer de una teoría cuántica de la gravitación (cuantizar la relatividad general o construir una nueva teoría de la interacción gravitacional que sí se pueda cuantizar), una tarea aún pendiente en la actualidad, aunque se hayan dado algunos pasos en esta dirección, uno de ellos debido al propio Hawking, el gran gurú de los agujeros negros: la denominada «radiación de Hawking» (Hawking 1975), la predicción de que, debido a procesos de índole cuántica, los agujeros negros no son tan negros como se pensaba, pudiendo emitir radiación (11).

No sabemos, en consecuencia, muy bien qué son estos misteriosos y atractivos objetos. De hecho, ¿existen realmente? La respuesta es que sí. Cada vez hay mayores evidencias en favor de su existencia. La primera de ellas fue consecuencia de la puesta en órbita, el 12 de diciembre de 1970, desde Kenia, para conmemorar la independencia del país, de un satélite estadounidense bautizado como Uhuru, la palabra suajili para «Libertad». Con este instrumento se pudo determinar la posición de las fuentes de rayos X más poderosas. Entre las 339 fuentes identificadas, figura Cygnus X-1, una de las más brillantes de la Vía Láctea, en la región del Cisne. Esta fuente se asoció posteriormente a una estrella supergigante azul visible de una masa 13 veces la del Sol y una compañera invisible cuya masa se estimó –analizando el movimiento de su compañera– en 7 masas solares, una magnitud demasiado grande para ser una enana blanca o una estrella de neutrones, por lo que se considera un agujero negro. No obstante, algunos sostienen que la masa de este objeto invisible es de 3 masas solares, con lo que podría ser una estrella de neutrones. En la actualidad se acepta generalmente que existen agujeros negros supermasivos en el centro de aquellas galaxias (aproximadamente el 1% del total de galaxias del Universo) cuyo núcleo es más luminoso que el resto de toda la galaxia. De manera indirecta se han determinado las masas de esos superagujeros negros en más de doscientos casos, pero sólo en unos pocos de manera directa; uno de ellos está en la propia Vía Láctea.

Inflación y «arrugas en el tiempo»

El estudio del Universo constituye un rompecabezas descomunal. Medir ahí distancias, masas y velocidades, tres datos básicos, es, obviamente, extremadamente complejo: no podemos hacerlo directamente ni tampoco podemos «ver» todo con precisión. Con los datos de que se disponía, durante un tiempo bastó con el modelo que suministraba la solución de Robertson-Walker-Friedmann de la relatividad general, que representa el Universo expandiéndose con una aceleración que depende de su contenido de masa-energía. Pero existían problemas para la cosmología del Big Bang que fueron haciéndose cada vez más patentes.

Uno de ellos era si esa masa-energía es tal que el Universo continuará expandiéndose siempre o si es lo suficientemente grande como para que la atracción gravitacional termine venciendo a la fuerza del estallido inicial haciendo que, a partir de un momento, comience a contraerse para finalmente llegar a un Big Crunch (Gran Contracción). Otro problema residía en la gran uniformidad que se observa en la distribución de masa del Universo si uno toma como unidad de medida escalas de unos 300 millones de años-luz o más (a pequeña escala, por supuesto, el Universo, con sus estrellas, galaxias, cúmulos de galaxias y enormes vacíos interestelares, no es homogéneo). El fondo de radiación de microondas es buena prueba de esa macro-homogeneidad. Ahora bien, en la teoría estándar del Big Bang es difícil explicar esta homogeneidad mediante los fenómenos físicos conocidos; además, si tenemos en cuenta que la transmisión de información sobre lo que sucede entre diferentes puntos del espacio-tiempo no puede ser transmitida con una velocidad superior a la de la luz, sucede que en los primeros momentos de existencia del Universo no habría sido posible que regiones distintas «llegasen a un consenso», por decirlo de alguna manera, acerca de cuál debería ser la densidad media de materia y radiación (12).

Para resolver este problema se propuso la idea del Universo inflacionario, según la cual en los primeros instantes de vida del Universo se produjo un aumento gigantesco, exponencial, en la velocidad de su expansión. En otras palabras, el miniUniverso habría experimentado un crecimiento tan rápido que no habría habido tiempo para que se desarrollasen procesos físicos que diesen lugar a distribuciones inhomogéneas. Una vez terminada la etapa inflacionaria, el Universo habría continuado evolucionando de acuerdo con el modelo clásico del Big Bang.

En cuanto a quiénes fueron los científicos responsables de la teoría inflacionaria, los principales nombres que hay que citar son los del estadounidense Alan Guth (n. 1947) y el soviético Andrei Linde (n. 1948) (13). Pero más que nombres concretos, lo que me interesa resaltar es que no es posible comprender esta teoría al margen de la física de altas energías (antes denominada de partículas elementales), de la que me ocuparé más adelante; en concreto de las denominadas teorías de gran unificación (Grand Unified Theories; GUT), que predicen que tendría que producirse una transición de fase a temperaturas del orden de 1027 grados Kelvin (14). Aquí tenemos una muestra de uno de los fenómenos más importantes que han tenido lugar en la física de la segunda mitad del siglo xx: la reunión de la cosmología, la ciencia de «lo grande», y la física de altas energías, la ciencia de «lo pequeño»; naturalmente, el lugar de encuentro ha sido los primeros instantes de vida del Universo, cuando las energías implicadas fueron gigantescas.

Bien, la inflación da origen a un Universo uniforme, pero entonces ¿cómo surgieron las minúsculas inhomogeneidades primordiales de las que habrían nacido, al pasar el tiempo y actuar la fuerza gravitacional, estructuras cósmicas como las galaxias?

Una posible respuesta a esta pregunta era que la inflación podría haber amplificado enormemente las ultramicroscópicas fluctuaciones cuánticas que se producen debido al principio de incertidumbre aplicado a energías y tiempo (?E•?t?h). Si era así, ¿dónde buscar tales inhomogeneidades mejor que en el fondo de radiación de microondas?

La respuesta a esta cuestión vino de los trabajos de un equipo de científicos estadounidenses a cuya cabeza estaban John C. Mather (n. 1946) y George Smoot (n. 1945). Cuando la NASA aprobó en 1982 fondos para la construcción de un satélite –el Cosmic Background Explorer (COBE), que fue puesto en órbita, a 900 kilómetros de altura, en el otoño de 1989– para estudiar el fondo cósmico de microondas, Mather se encargó de coordinar todo el proceso, así como del experimento (en el que utilizó un espectrofotómetro enfriado a 1,5°K) que demostró que la forma del fondo de radiación de microondas se ajustaba a la de una radiación de cuerpo negro a la temperatura de 2,735°K, mientras que Smoot midió las minúsculas irregularidades predichas por la teoría de la inflación. Diez años después, tras haber intervenido en los trabajos más de mil personas y con un coste de 160 millones de dólares, se anunciaba (Mather et al. 1990; Smoot et al. 1992) que el COBE había detectado lo que Smoot denominó «arrugas» del espacio-tiempo, las semillas de las que surgieron las complejas estructuras –como las galaxias– que ahora vemos en el Universo (15). Podemos captar algo de la emoción que sintieron estos investigadores al comprobar sus resultados a través de un libro de divulgación que Smoot publicó poco después, Wrinkles in Time (Arrugas en el tiempo). Escribió allí (Smoot y Davidson 1994, 336):

Estaba contemplando la forma primordial de las arrugas, podía sentirlo en mis huesos. Algunas de las estructuras eran tan grandes que sólo podían haber sido generadas durante el nacimiento del Universo, no más tarde. Lo que tenía ante mí era la marca de la creación, las semillas del Universo presente.

En consecuencia, «la teoría del Big Bang era correcta y la de la inflación funcionaba; el modelo de las arrugas encajaba con la formación de estructuras a partir de la materia oscura fría; y la magnitud de la distribución habría producido las estructuras mayores del Universo actual bajo el influjo del colapso gravitacional a lo largo de 15.000 millones de años».

El COBE fue un magnífico instrumento, pero en modo alguno el único. Los ejemplos en los que astrofísica y tecnología se dan la mano son múltiples. Y no sólo instrumentos instalados en la Tierra, también vehículos espaciales. Así, hace ya bastante que el Sistema Solar se ve frecuentado por satélites con refinados instrumentos que nos envían todo tipo de datos e imágenes. Sondas espaciales como Mariner 10, que observó, en 1973, Venus desde 10.000 kilómetros; Pioneer 10 y Voyager 1 y 2, que entre 1972 y 1977 se adentraron por los alrededores de Júpiter, Saturno, Urano y Plutón, o Galileo, dirigido hacia Júpiter y sus satélites.

Un tipo muy especial de vehículo es el telescopio espacial Hubble, que la NASA puso en órbita, después de un largo proceso, en la primavera de 1990 (16). Situar un telescopio en un satélite artificial significa salvar ese gran obstáculo para recibir radiaciones que es la atmósfera terrestre. Desde su lanzamiento, y especialmente una vez que se corrigieran sus defectos, el Hubble ha enviado y continúa enviando imágenes espectaculares del Universo. Gracias a él, por primera vez disponemos de fotografías de regiones (como la nebulosa de Orión) en las que parece que se está formando una estrella. No es completamente exagerado decir que ha revolucionado nuestro conocimiento del Universo.

Planetas extrasolares

Gracias al avance tecnológico los científicos están siendo capaces de ver nuevos aspectos y objetos del Cosmos, como, por ejemplo, la existencia de sistemas planetarios asociados a estrellas que no sean el Sol. El primer hallazgo en este sentido se produjo en 1992, cuando Alex Wolszczan y Dale Frail descubrieron que al menos dos planetas del tipo de la Tierra orbitan alrededor de un púlsar (Wolszczan y Frail 1992); tres años después, Michel Mayor y Didier Queloz hicieron público que habían descubierto un planeta del tamaño y tipo de Júpiter (un gigante gaseoso) orbitando en torno a la estrella 51 Pegasi (Mayor y Queloz 1995). Desde entonces el número de planetas extrasolares conocidos ha aumentado considerablemente. Y si existen tales planetas, acaso en algunos también se haya desarrollado vida. Ahora bien, aunque la biología que se ocupa del problema del origen de la vida no descarta que en entornos lo suficientemente favorables las combinaciones de elementos químicos puedan producir, debido a procesos sinérgicos, vida, ésta no tiene porque ser vida del tipo de la humana. La biología evolucionista, apoyada en los registros geológicos, ha mostrado que la especie humana es producto del azar evolutivo. Si, por ejemplo, hace 65 millones de años no hubiese chocado contra la Tierra, a una velocidad de aproximadamente treinta kilómetros por segundo, un asteroide o un cometa de unos diez kilómetros de diámetro, produciendo una energía equivalente a la que librarían cien millones de bombas de hidrógeno, entonces acaso no habrían desaparecido (no, desde luego, entonces) una cantidad enorme de especies vegetales y animales, entre las que se encontraban los dinosaurios, que no dejaban prosperar a los, entonces, pequeños mamíferos, que con el paso del tiempo terminarían produciendo, mediante procesos evolutivos, especies como la de los homo sapiens.

Precisamente por semejante aleatoriedad es por lo que no podemos estar seguros de que exista en otros planetas, en nuestra o en otra galaxia, vida inteligente que trate, o haya tratado, de entender la naturaleza construyendo sistemas científicos, y que también se haya planteado el deseo de comunicarse con otros seres vivos que puedan existir en el Universo. Aun así, desde hace tiempo existen programas de investigación que rastrean el Universo buscando señales de vida inteligente. Programas como el denominado SETI, siglas del Search of Extra-Terrestrial Intelligence (Búsqueda de Inteligencia Extraterrestre), que ha utilizado receptores con 250 millones de canales, que realizan alrededor de veinte mil millones de operaciones por segundo.

Materia y energía oscuras

La existencia de planetas extrasolares ciertamente nos conmueve y emociona, pero no es algo «fundamental»; no altera los pilares del edificio científico. Muy diferente es el caso de otros descubrimientos relativos a los contenidos del Universo. Me estoy refiriendo a que tenemos buenas razones para pensar que existe en el Cosmos una gran cantidad de materia que no observamos, pero que ejerce fuerza gravitacional. La evidencia más inmediata procede de galaxias en forma de disco (como nuestra propia Vía Láctea) que se encuentran en rotación. Si miramos a la parte exterior de estas galaxias, encontramos que el gas se mueve de manera sorprendentemente rápida; mucho más rápidamente de lo que debería debido a la atracción gravitacional producida por las estrellas y gases que detectamos en su interior. Otras evidencias proceden de los movimientos internos de cúmulos de galaxias. Se cree que esta materia «oscura» constituye el 30% de toda la materia del Universo. ¿Cuál es su naturaleza? Ése es uno de los problemas; puede tratarse de estrellas muy poco luminosas (como las enanas marrones), de partículas elementales exóticas o de agujeros negros. No podremos entender realmente lo que son las galaxias, o cómo se formaron, hasta que sepamos qué es esa materia oscura. Ni tampoco podremos saber cuál será el destino último de nuestro Universo.

Junto al problema de la materia oscura, otro parecido ha adquirió prominencia en la última década del siglo xx: el de la energía oscura. Estudiando un tipo de supernovas –estrellas que han explotado dejando un núcleo–, un grupo dirigido por Saul Perlmutter (del Laboratorio Lawrence en Berkeley, California) y otro por Brian Schmidt (Observatorios de Monte Stromlo y Siding Spring, en Australia) llegaron a la conclusión de que, al contrario de lo supuesto hasta entonces, la expansión del Universo se está acelerando (Perlmutter et al. 1998; Schmidt et al. 1998). El problema es que la masa del Universo no puede explicar tal aceleración; había que suponer que la gravedad actuaba de una nueva y sorprendente manera: alejando las masas entre sí, no atrayéndolas. Se había supuesto que para propulsar el Big Bang debía de haber existido una energía repulsiva en la creación del Universo, pero no se había pensado que pudiera existir en el Universo ya maduro.

Una nueva energía entraba así en acción, una energía «oscura» que reside en el espacio vacío. Y como la energía es equivalente a la masa, esta energía oscura significa una nueva aportación a la masa total del Universo, distinta, eso sí, de la masa oscura. Se tiene, así, que alrededor del 3% del Universo está formado por masa ordinaria, el 30% de masa oscura y el 67% de energía oscura. En otras palabras: creíamos que conocíamos eso que llamamos Universo y resulta que es un gran desconocido. Porque ni sabemos qué es la materia oscura ni lo que es la energía oscura. Una posible explicación de esta última se podría encontrar en un término que introdujo Einstein en 1916-1917 en las ecuaciones de campo de la relatividad general. Como vimos, al aplicar su teoría de la interacción gravitacional al conjunto del Universo, Einstein buscaba encontrar un modelo que representase un Universo estático y ello le obligó a introducir en sus ecuaciones un nuevo término, la ya citada constante cosmológica, que en realidad representaba un campo de fuerza repulsiva, para compensar el efecto atractivo de la gravitación. Al encontrarse soluciones de la cosmología relativista que representan un Universo en expansión y demostrarse observacionalmente (Hubble) que el Universo se expande, Einstein pensó que no era necesario mantener aquella constante, aunque podía incorporarse sin ningún problema en los modelos expansivos teóricos. Acaso ahora sea necesario resucitarla. Ahora bien, semejante resurrección no se podrá limitar a incluirla de nuevo en la cosmología relativista; esto ya no basta: es preciso que tome su sentido y lugar en las teorías cuánticas que intentan insertar la gravitación en el edificio cuántico; al fin y al cabo la energía oscura es la energía del vacío, y éste tiene estructura desde el punto de vista de la física cuántica. Y puesto que ha salido, una vez más, la física cuántica es hora de pasar a ella, a cómo se desarrolló y consolidó la revolución cuántica durante la segunda mitad del siglo xx.

Un mundo cuántico

La física de altas energías: de los protones, neutrones y electrones a los quarks

Antes, al tratar de la revolución cuántica que surgió en la primera mitad del siglo, me referí a la búsqueda de los componentes básicos de la materia, las denominadas «partículas elementales». Vimos entonces cómo ir más allá de protones, electrones y neutrones, las más básicas de esas partículas, requería energías más elevadas de las que podían proporcionar los «proyectiles» –por ejemplo, partículas alfa– que proporcionaban las emisiones de elementos radiactivos (especialmente el radio), y que fue Ernest Lawrence quien abrió una nueva senda introduciendo y desarrollando unos instrumentos denominados aceleradores de partículas (ciclotrones en su caso), cuyo funcionamiento se basa en acelerar partículas a energías elevadas, haciéndolas chocar luego unas con otras (o con algún blanco predeterminado) para ver qué es lo que se produce en tales choques; esto es, de qué nuevos componentes más pequeños están compuestas esas partículas… si es que lo están (17).

La física de partículas elementales, también llamada, como ya indiqué, de altas energías, ha sido una de las grandes protagonistas de la segunda mitad del siglo xx. Se trata de una ciencia muy cara (es el ejemplo canónico de Big Science, Gran Ciencia, ciencia que requiere de grandes equipos de científicos y técnicos y de grandes inversiones); cada vez, de hecho, más cara, al ir aumentado el tamaño de los aceleradores para poder alcanzar mayores energías. Después de la Segunda Guerra Mundial contó –especialmente en Estados Unidos– con la ayuda del prestigio de la física nuclear, que había suministrado las poderosas bombas atómicas. Limitándome a citar los aceleradores más importantes construidos, señalaré que en 1952 entró en funcionamiento en Brookhaven (Nueva York) el denominado Cosmotrón, para protones, que podía alcanzar 2,8 GeV (18); luego vinieron, entre otros, el Bevatrón (Berkeley, protones; 1954), 3,5 Gev; Dubna (URSS, protones; 1957), 4,5 Gev; Proton-Synchroton (CERN, Ginebra, protones; 1959), 7 GeV; Slac (Stanford; 1966), 20 GeV; PETRA (Hamburgo, electrones y positrones; 1978), 38 GeV; Collider (CERN, protones y antiprotones; 1981), 40 GeV; Tevatron (Fermilab, Chicago, protones y antiprotones), 2.000 GeV, y SLC (Stanford, California, electrones y positrones), 100 GeV, los dos de 1986; LEP (CERN, electrones y positrones; 1987), 100 GeV, y HERA (Hamburgo, electrones y protones; 1992), 310 GeV.

Las siglas CERN corresponden al Centre Européen de Recherches Nucleaires (Centro Europeo de Investigaciones Nucleares), la institución que en 1954 crearon en Ginebra doce naciones europeas para poder competir con Estados Unidos. Con sus aceleradores, el CERN –formado ahora por un número mayor de países (España es uno de ellos)– ha participado de manera destacada en el desarrollo de la física de altas energías. De hecho, en tiempos difíciles para esta disciplina como son los actuales, el CERN acaba de completar (2008) la construcción de un nuevo acelerador, uno en el que los protones chocarán con una energía de 14.000 GeV: el LHC (Large Hadron Collider). Toma así la vieja Europa la antorcha en mantener el «fuego» de esta costosa rama de la física.

¿Por qué he dicho «tiempos difíciles para esta disciplina»? Pues porque debido a su elevado costo, en los últimos años esta rama de la física está pasando por dificultades. De hecho, hace poco sufrió un duro golpe en la que hasta entonces era su patria principal, Estados Unidos. Me estoy refiriendo al Supercolisionador Superconductor (Superconducting Super Collider; SSC). Este gigantesco acelerador, que los físicos de altas energías norteamericanos estimaban indispensable para continuar desarrollando la estructura del denominado modelo estándar, iba a estar formado por un túnel de 84 kilómetros de longitud que debería ser excavado en las proximidades de una pequeña población de 18.000 habitantes, situada a 30 kilómetros al sudoeste de Dallas, en Waxahachie. En el interior de ese túnel miles de bobinas magnéticas superconductoras guiarían dos haces de protones para que, después de millones de vueltas, alcanzaran una energía veinte veces más alta que la que se podía conseguir en los aceleradores existentes. En varios puntos a lo largo del anillo, los protones de los dos haces chocarían, y enormes detectores controlarían lo que sucediera en tales colisiones. El coste del proyecto, que llevaría diez años, se estimó inicialmente en 6.000 millones de dólares.

Después de una azarosa vida, con parte del trabajo de infraestructura ya realizado (la excavación del túnel), el 19 de octubre de 1993 y después de una prolongada, difícil y cambiante discusión parlamentaria, tanto en el Congreso como en el Senado, el Congreso canceló el proyecto. Otros programas científicos –especialmente en el campo de las ciencias biomédicas– atraían la atención de los congresistas y senadores americanos; y también, ¿cómo negarlo?, de la sociedad, más interesada en asuntos que atañen a su salud.

Pero dejemos los aceleradores y vayamos a su producto, a las partículas aparentemente «elementales». Gracias a los aceleradores, su número fue creciendo de tal manera que terminó socavando drásticamente la idea de que la mayoría pudiesen ser realmente elementales en un sentido fundamental. Entre las partículas halladas podemos recordar, por ejemplo, piones y muones de diversos tipos, o las denominadas ?, W o Z, sin olvidar a sus correspondientes antipartículas (19). El número –cientos– resultó ser tan elevado que llegó a hablarse de un «zoo de partículas», un zoo con una fauna demasiado elevada.

A ese zoo se les unió otra partícula particularmente llamativa: los quarks. Su existencia fue propuesta teóricamente en 1964 por los físicos estadounidenses Murray Gell-Mann (n. 1929) y George Zweig (n. 1937). Hasta su aparición en el complejo y variado mundo de las partículas elementales, se pensaba que protones y neutrones eran estructuras atómicas inquebrantables, realmente básicas, y que la carga eléctrica asociada a protones y electrones era una unidad indivisible. Los quarks no obedecían a esta regla, ya que se les asignó cargas fraccionarias. De acuerdo a Gell-Mann (1964) y Zweig (1964), los hadrones, las partículas sujetas a la interacción fuerte, están formados por dos o tres especies de quarks y antiquarks, denominados u (up; arriba), d (down; abajo) y s (strange; extraño), con, respectivamente, cargas eléctricas 2/3, -1/3 y -1/3 la del electrón (20). Así, un protón está formado por dos quarks u y uno d, mientras que un neutrón está formado por dos quarks d y por otro u; son, por consiguiente, estructuras compuestas. Posteriormente, otros físicos propusieron la existencia de tres quarks más: charm (c; 1974), bottom (b; 1977) y top (t; 1995). Para caracterizar esta variedad, se dice que los quarks tienen seis tipos de «sabores» (flavours); además, cada uno de estos seis tipos puede ser de tres clases, o colores: rojo, amarillo (o verde) y azul. Y para cada quark existe, claro, un antiquark.

Por supuesto, nombres como los anteriores –color, sabor, arriba, abajo…– no representan la realidad que asociamos normalmente a tales conceptos, aunque puede en algún caso existir una cierta lógica en ellos, como sucede con el color. Veamos lo que el propio Gell-Mann (1995, 199) ha señalado con respecto a este término:

Aunque el término «color» es más que nada un nombre gracioso, sirve también como metáfora. Hay tres colores, denominados rojo, verde y azul a semejanza de los tres colores básicos en una teoría simple de la visión humana del color (en el caso de la pintura, los tres colores primarios suelen ser el rojo, el amarillo y el azul, pero para mezclar luces en lugar de pigmentos, el amarillo se sustituye por el verde). La receta para un neutrón o un protón consiste en tomar un quark de cada color, es decir, uno rojo, uno verde y uno azul, de modo que la suma de colores se anule. Como en la visión del color blanco se puede considerar una mezcla de rojo, verde y azul, podemos decir metafóricamente que el neutrón y el protón son blancos.

En definitiva, los quarks tienen color pero los hadrones no: son blancos. La idea es que sólo las partículas blancas son observables directamente en la naturaleza, mientras que los quarks no; ellos están «confinados», asociados formando hadrones. Nunca podremos observar un quark libre. Ahora bien, para que los quarks permanezcan confinados deben existir fuerzas entre ellos muy diferentes de las electromagnéticas o de las restantes. «Así como la fuerza electromagnética entre electrones está mediada por el intercambio virtual de fotones», utilizando de nuevo a Gell-Mann (1995, 200), «los quarks están ligados entre sí por una fuerza que surge del intercambio de otros cuantos: los gluones (del inglés glue, pegar), llamados así porque hacen que los quarks se peguen formando objetos observables blancos como el protón y el neutrón» (21).

Aproximadamente una década después de la introducción de los quarks, se desarrolló una teoría, la cromodinámica cuántica, que explica por qué los quarks están confinados tan fuertemente que nunca pueden escapar de las estructuras hadrónicas que forman. Por supuesto, el nombre cromodinámica –procedente del término griego cromos (color)– aludía al color de los quarks (y el adjetivo «cuántica» a que es compatible con los requisitos cuánticos). Al ser la cromodinámica cuántica una teoría de las partículas elementales con color, y al estar éste asociado a los quarks, que a su vez tratan de los hadrones, las partículas sujetas a la interacción fuerte, tenemos que la cromodinámica cuántica describe esta interacción.

Con la electrodinámica cuántica –logro, como ya indiqué, de la primera mitad del siglo xx– y la cromodinámica cuántica, se disponía de teorías cuánticas para las interacciones electromagnética y fuerte. Pero ¿y la débil, la responsable de los fenómenos radiactivos? En 1932, Enrico Fermi (1901-1954), uno de los mejores físicos de su siglo, desarrolló una teoría para la interacción débil (que aplicó, sobre todo, a la denominada «desintegración beta», proceso radiactivo en el que un neutrón se desintegra dando lugar a un protón, un electrón y un antineutrino), que mejoraron en 1959 Robert Marshak (1916-1992), E. C. George Sudarshan (n. 1931), Richard Feynman y Murray Gell-Mann, pero la versión más satisfactoria para una teoría cuántica de la interacción débil llegó cuando en 1967 el estadounidense Steven Weinberg (n. 1933) y el año siguiente el paquistaní (afincando en Inglaterra) Abdus Salam (1929-1996) propusieron independientemente una teoría que unificaba las interacciones electromagnética y débil. Su modelo incorporaba ideas propuestas en 1960 por Sheldon Glashow (n. 1932) (22). Por estos trabajos, Weinberg, Salam y Glashow compartieron el Premio Nobel de Física de 1979; esto es, después de que, en 1973, una de las predicciones de su teoría –la existencia de las denominadas «corrientes neutras débiles»– fuese corroborada experimentalmente en el CERN.

La teoría electrodébil unificaba la descripción de las interacciones electromagnética y débil, pero ¿no sería posible avanzar por la senda de la unificación, encontrando una formulación que incluyese también a la interacción fuerte, descrita por la cromodinámica cuántica? La respuesta, positiva, a esta cuestión vino de la mano de Howard Georgi (n. 1947) y Glashow, que introdujeron las primeras ideas de lo que se vino a denominar teorías de gran unificación (GUT), que ya mencioné con anterioridad (Georgi y Glashow 1974).

El impacto principal de esta familia de teorías se ha producido en la cosmología; en concreto en la descripción de los primeros instantes del Universo. Desde la perspectiva de las GUTs, al principio existía sólo una fuerza que englobaba las electromagnética, débil y fuerte, que fueron separándose al irse enfriando el Universo. Con semejante equipaje teórico es posible ofrecer explicaciones de cuestiones como el hecho de que exista (al menos aparentemente y para nuestra fortuna) más materia que antimateria en el Universo. Esto es debido a que las GUTs tienen en común que en ellas no se conserva una magnitud denominada «número bariónico», lo que significa que son posibles procesos en los que el número de bariones –entre los que se encuentran, recordemos, los protones y los neutrones– producidos no es igual al de antibariones. Utilizando esta propiedad, el físico japonés Motohiko Yoshimura (1978) demostró que un estado inicial en el que exista igual número de materia y antimateria puede evolucionar convirtiéndose en uno con más protones o neutrones que sus respectivas antipartículas, produciendo así un Universo como el nuestro, en el que hay más materia que antimateria.

Gracias al conjunto formado por las anteriores teorías, poseemos un marco teórico extraordinario para entender de qué está formada la naturaleza. Su capacidad predictiva es increíble. De acuerdo con él, se acepta que toda la materia del Universo está formada por agregados de tres tipos de partículas elementales: electrones y sus parientes (las partículas denominadas muón y tau), neutrinos (neutrino electrónico, muónico y tauónico) y quarks, además de por los cuantos asociados a los campos de las cuatro fuerzas que reconocemos en la naturaleza (23); el fotón para la interacción electromagnética, las partículas Z y W (bosones gauge) para la débil, los gluones para la fuerte y, aunque la gravitación todavía no se ha incorporado a ese marco, los aún no observados gravitones para la gravitacional. El subconjunto formado por la cromodinámica cuántica y teoría electrodébil (esto es, el sistema teórico que incorpora las teorías relativistas y cuánticas de las interacciones fuerte, electromagnética y débil) es especialmente poderoso si tenemos en cuenta el balance predicciones-comprobaciones experimentales. Es denominado modelo estándar. De acuerdo al distinguido físico e historiador de la ciencia, Silvan Schweber (1997, 645), «la formulación del Modelo Estándar es uno de los grandes logros del intelecto humano, uno que rivaliza con la mecánica cuántica. Será recordado –junto a la relatividad general, la mecánica cuántica y el desciframiento del código genético– como uno de los avances intelectuales más sobresalientes del siglo xx. Pero, mucho más que la relatividad general y la mecánica cuántica, es el producto de un esfuerzo colectivo». Quiero hacer hincapié en esta última expresión, «esfuerzo colectivo». El lector atento de estas páginas se dará cuenta fácilmente, sin embargo, de que yo únicamente me he referido en estas páginas a unos pocos físicos; a la punta de un gran iceberg. Ha sido inevitable: la historia de la física de altas energías requiere no ya de un extenso libro, sino de varios.

Ahora bien, no obstante su éxito obviamente el modelo estándar no es «la teoría final». Por una parte porque la interacción gravitacional queda al margen, pero también porque incluye demasiados parámetros que hay que determinar experimentalmente. Se trata de las, siempre incómodas pero fundamentales, preguntas del tipo «¿por qué?». ¿Por qué existen las partículas fundamentales que detectamos? ¿Por qué esas partículas tienen las masas que tienen? ¿Por qué, por ejemplo, el tau pesa alrededor de 3.520 veces lo que el electrón? ¿Por qué son cuatro las interacciones fundamentales, y no tres, cinco o sólo una? ¿Y por qué tienen estas interacciones las propiedades (como intensidad o rango de acción) que poseen?

¿Un mundo de ultraminúsculas cuerdas?

Pasando ahora a la gravitación, la otra interacción básica, ¿no se puede unificar con las otras tres? Un problema central es la inexistencia de una teoría cuántica de la gravitación que haya sido sometida a pruebas experimentales. Existen candidatos para cumplir ese espléndido sueño unificador, unos complejos edificios matemáticos llamados teorías de cuerdas.

Según la teoría de cuerdas, las partículas básicas que existen en la naturaleza son en realidad filamentos unidimensionales (cuerdas extremadamente delgadas) en espacios de muchas más dimensiones que las tres espaciales y una temporal de las que somos conscientes; aunque más que decir «son» o «están constituidas» por tales cuerdas, habría que decir que «son manifestaciones» de vibraciones de esas cuerdas. En otras palabras, si nuestros instrumentos fuesen suficientemente poderosos, lo que veríamos no serían «puntos» con ciertas características a los que llamamos electrón, quark, fotón o neutrino, por ejemplo, sino minúsculas cuerdas (cuyos cabos pueden estar abiertos o cerrados) vibrando. La imagen que suscita esta nueva visión de la materia más que «física» es, por consiguiente, «musical»: «Del mismo modo que las diferentes pautas vibratorias de la cuerda de un violín dan lugar a diferentes notas musicales, los diferentes modelos vibratorios de una cuerda fundamental dan lugar a diferentes masas y cargas de fuerzas… El Universo –que está compuesto por un número enorme de esas cuerdas vibrantes–. Es algo semejante a una sinfonía cósmica», ha señalado el físico, y miembro destacado de la «comunidad de cuerdas», Brian Greene (2001, 166-168) en un libro titulado El Universo elegante, que ha sido un éxito editorial.

Es fácil comprender el atractivo que algunos sienten por estas ideas: «Las cuerdas son verdaderamente fundamentales; son “átomos”, es decir componentes indivisibles, en el sentido más auténtico de la palabra griega, tal como la utilizaron los antiguos griegos. Como componentes absolutamente mínimos de cualquier cosa, representan el final de la línea –la última de las muñecas rusas llamadas “matrioskas”– en las numerosas capas de subestructuras dentro del mundo microscópico» (Green 2001, 163). Ahora bien, ¿qué tipo de materialidad es la de estos constructos teóricos unidimensionales? ¿Podemos pensar en ellos como una especie de «materia elemental» en algún sentido parecido a aquel en el que se piensa cuando se habla habitualmente de materia, incluso de partículas tan (a la postre acaso sólo aparentemente) elementales como un electrón, un muón o un quark?

Decía antes que las teorías de cuerdas son unos complejos edificios matemáticos, y así es. De hecho, las matemáticas de la teoría de las cuerdas son tan complicadas que hasta ahora nadie conoce ni siquiera las ecuaciones de las fórmulas exactas de esa teoría, únicamente unas aproximaciones de dichas ecuaciones, e incluso estas ecuaciones aproximadas resultan ser tan complicadas que hasta la fecha sólo se han resuelto parcialmente. No es por ello sorprendente que uno de los grandes líderes de esta disciplina sea un físico especialmente dotado para las matemáticas. Me estoy refiriendo al estadounidense Edward Witten (n. 1951). Para hacerse una idea de su talla como matemático basta con señalar que en 1990 recibió (junto a Pierre-Louis Lions, Jean-Christophe Yoccoz y Shigefumi Mori) una de las cuatro medallas Fields que se conceden cada cuatro años y que constituyen el equivalente en matemáticas de los Premios Nobel. Fue Witten (1995) quien argumentó, iniciando así lo que se denomina «la segunda revolución de la cuerdas», que para que la teoría de cuerdas (o supercuerdas) pueda aspirar a ser realmente una Teoría del Todo, debe tener diez dimensiones espaciales más una temporal, esto es, once (Witten denominó Teoría M a esa formulación, todavía por desarrollar completamente) (24).

Enfrentados con las teorías de cuerdas, es razonable preguntarse si al avanzar en la exploración de la estructura de la materia no habremos alcanzado ya niveles en los que la «materialidad» –esto es, la materia– se desvanece transformándose en otra cosa diferente. Y ¿en qué otra cosa? Pues si estamos hablando de partículas que se manifiestan como vibraciones de cuerdas, ¿no será esa «otra cosa», una estructura matemática? Una vibración es, al fin y al cabo, la oscilación de algo material, pero en cuanto a estructura permanente tiene probablemente más de ente matemático que de ente material. Si fuese así, podríamos decir que se habría visto cumplido el sueño, o uno de los sueños, de Pitágoras. Los físicos habrían estado laborando duramente a lo largo de siglos, milenios incluso, para descubrir, finalmente, que la materia se les escapa de las manos, como si de una red se tratase, convirtiéndose en matemática, en estructuras matemáticas. La teoría de cuerdas, en resumen, resucita viejos problemas, acaso fantasmas. Problemas como el de la relación entre la física (y el mundo) y la matemática.

Independientemente de estos aspectos de naturaleza en esencia filosófica, hay otros que es imprescindible mencionar. Y es que hasta la fecha las teorías de cuerdas han demostrado muy poco, sobre todo si no olvidamos que la ciencia es explicación teórica, sí, pero también experimentos, someter la teoría al juez último que es la comprobación experimental. Las teorías de cuerdas son admiradas por algunos, comentadas por muchos y criticadas por bastantes, que insisten en que su naturaleza es excesivamente especulativa. Así, Lee Smolin (2007, 17-18), un distinguido físico teórico, ha escrito en un libro dedicado a estas teorías:

En los últimos veinte años, se ha invertido mucho esfuerzo en la teoría de cuerdas, pero todavía desconocemos si es cierta o no. Incluso después de todo el trabajo realizado, la teoría no ha proporcionado ninguna predicción que pueda ser comprobada mediante experimentos actuales o, al menos, experimentos que podamos concebir en la actualidad. Las escasas predicciones limpias que propone ya han sido formuladas por otras teorías aceptadas.

Parte de la razón por la que la teoría de cuerdas no realiza nuevas predicciones es que parece presentarse en un número infinito de versiones. Aun limitándonos a las teorías que coinciden con algunos de los hechos básicos observados sobre nuestro Universo, por ejemplo, su vasto tamaño o la existencia de energía oscura, nos siguen quedando algo así como 10500 teorías de cuerdas diferentes; es decir, un 1 con 500 ceros detrás, más que todos los átomos conocidos del Universo. Una cantidad tal de teorías, nos deja poca esperanza de poder identificar algún resultado de algún experimento que no se pudiera incluir en alguna de ellas. Por tanto, no importa lo que muestren los experimentos, pues no se puede demostrar que la teoría de cuerdas sea falsa, aunque lo contrario también es cierto: ningún experimento puede demostrar que sea cierta.

Recordemos en este punto que uno de los sistemas metodológicos de la ciencia más influyentes continúa siendo el construido por el filósofo de origen austriaco, instalado finalmente en la London School of Economics de Londres, Karl Popper (1902-1994), quien siempre insistió en que una teoría que no es refutable mediante ningún experimento imaginable no es científica; esto es, que si no es posible imaginar algún experimento cuyos resultados contradigan las predicciones de una teoría, ésta no es realmente científica. Y aunque en mi opinión tal criterio es demasiado exigente para ser siempre verdad, constituye una buena guía. En cualquier caso, el futuro tendrá la última palabra sobre las teorías de cuerdas.

Nucleosíntesis estelar

En las páginas anteriores me he ocupado de los aspectos más básicos de la estructura de la materia, pero la ciencia no se reduce a buscar lo más fundamental, la estructura más pequeña; también pretende comprender aquello que nos es más próximo, más familiar. Es obligado, en este sentido, referirse a otro de los grandes logros de la física del siglo xx: la reconstrucción teórica de los procesos –nucleosíntesis– que condujeron a formar los átomos que encontramos en la naturaleza, y de los que nosotros mismos estamos formados. De estas cuestiones se ocupa la física nuclear, una disciplina relacionada, naturalmente, con la física de altas energías, aunque ésta sea más «fundamental» al ocuparse de estructuras más básicas que los núcleos atómicos.

De hecho, la física de altas energías proporciona las bases sobre las que se asienta el edificio de la física nuclear que se ocupa de la nucleosíntesis estelar. Han sido, en efecto, los físicos de altas energías los que se han ocupado, y ocupan, de explicar cómo de la «sopa» indiferenciada de radiación y energía que surgió del Big Bang fueron formándose las partículas que constituyen los átomos (25).

Al ir disminuyendo la temperatura del Universo, esa sopa se fue diferenciando. A la temperatura de unos 30.000 millones de grados Kelvin (que se alcanzó en aproximadamente 0,11 segundos), los fotones –esto es, recordemos, la luz– se independizaron de la materia, distribuyéndose uniformemente por el espacio. Únicamente cuando la temperatura del Universo bajó a los 3.000 millones de grados Kelvin (casi 14 segundos después del estallido inicial) comenzaron a formarse –mediante la unión de protones y neutrones– algunos núcleos estables, básicamente el hidrógeno (un protón en torno al cual orbita un electrón) y el helio (dos protones y dos neutrones en el núcleo, con dos electrones como «satélites»). Estos dos elementos, los más ligeros que existen en la naturaleza, fueron –junto a fotones y neutrinos–, los principales productos del Big Bang, y representan aproximadamente el 73% (el hidrógeno) y el 25% (el helio) de la composición del universo (26).

Tenemos, por consiguiente, que el Big Bang surtió generosamente al Universo de hidrógeno y de helio. Pero ¿y los restantes elementos? Porque sabemos que hay muchos más elementos en la naturaleza. No hace falta ser un experto para saber que existe el oxígeno, el hierro, el nitrógeno, el carbono, el plomo, el sodio, el cinc, el oro y muchos elementos más. ¿Cómo se formaron?

Antes incluso de que los físicos de altas energías hubiesen comenzado a estudiar la nucleosíntesis primordial, hubo físicos nucleares que durante la primera mitad del siglo xx se ocuparon del problema de la formación de los elementos más allá del hidrógeno y el helio. Entre ellos es obligado mencionar a Carl Friedrich von Weizsäcker (1912-2007) en Alemania y a Hans Bethe (1906-2005) en Estados Unidos (Weizsäcker 1938; Bethe y Critchfield 1938; Bethe 1939a, b) (27). Justo cuando iba a comenzar la segunda mitad de la centuria, George Gamow (1904-1968) y sus colaboradores, Ralph Alpher (1921-2007) y Robert Herman (1914-1997), dieron otro paso importante, que fue seguido diecisiete años después por Robert Wagoner (n. 1938), William Fowler (1911-1995) y Fred Hoyle, que armados con un conjunto mucho más completo de datos de reacciones nucleares, explicaron que en el universo el litio constituye una pequeña fracción (10-8) de la masa correspondiente al hidrógeno y al helio, mientras que el total de los restantes elementos representa un mero 10-11 (Wagoner, Fowler y Hoyle 1967) (28).

Gracias a aportaciones como éstas –y las de muchos otros– ha sido posible reconstruir las reacciones nucleares más importantes en la nucleosíntesis estelar. Una de estas reacciones es la siguiente: dos núcleos de helio chocan y forman un átomo de berilio, elemento que ocupa el cuarto lugar (número atómico) en la tabla periódica, tras el hidrógeno, helio y litio (su peso atómico es 9, frente a 1 para el hidrógeno, 4 para helio y 6 para el litio). En realidad se produce más de un tipo de berilio; uno de ellos, el isótopo de peso atómico 8 es muy radiactivo, existiendo durante apenas una diezmilbillonésima de segundo, tras lo cual se desintegra produciendo de nuevo dos núcleos de helio. Pero si durante ese instante de vida el berilio choca con un tercer núcleo de helio puede formar un núcleo de carbono (número atómico 6 y peso atómico 12), que es estable. Y si las temperaturas son suficientemente elevadas, los núcleos de carbono se combinan y desintegran de maneras muy diversas, dando lugar a elementos como magnesio (número atómico 12), sodio (11), neón (10) y oxígeno (8). A su vez, los núcleos de oxígeno pueden unirse y formar azufre y fósforo. De este modo, se fabrican elementos cada vez más pesados. Hasta llegar al hierro (26).

Hechos de este tipo nos llevan a otra cuestión: la de cómo han llegado estos elementos a la Tierra, puesto que el lugar en el que fueron fabricados necesita de energías y temperaturas que no se dan en nuestro planeta. Y si suponemos que no deben existir diferencias grandísimas entre nuestro planeta y los demás –salvo en detalles como composición o posibilidad de que exista vida–, cómo han llegado a cualquier otro planeta. Pues bien, una parte de los elementos (hasta el hierro) que no se produjeron en los primeros instantes del Universo, se han fabricado sobre todo en el interior de estrellas. La emisión al espacio exterior de esos elementos puede tener lugar de tres maneras: mediante la lenta pérdida de masa en estrellas viejas, en la denominada fase «gigante» de la evolución estelar; durante los relativamente frecuentes estallidos estelares que los astrónomos denominan «novas»; y en las dramáticas y espectaculares explosiones que se producen en la etapa estelar final que alumbran las denominadas «supernovas» (una de estas explosiones fue detectada en 1987: la supernova SN1987A; la explosión había tenido lugar 170.000 años antes, el tiempo que ha tardado la luz en llegar a la Tierra).Es sobre todo en la explosión de las supernovas cuando los elementos pesados fabricados en la nucleosíntesis estelar se difunden por el espacio. No se conoce demasiado bien por qué se producen estas explosiones, pero se cree que además de expulsar los elementos que acumulaba la estrella en su interior (salvo parte que retiene convertidos en objetos muy peculiares, como estrellas de neutrones), en el estallido se sintetizan elementos todavía más pesados que el hierro; elementos como el cobre, cinc, rubidio, plata, osmio, uranio, y así hasta una parte importante de los más de cien elementos que contiene en la actualidad la tabla periódica, y que son relativamente abundantes en sistemas estelares como el nuestro, el Sistema Solar.

Precisamente por esta abundancia de elementos pesados, parece razonable pensar que el Sol es una estrella de segunda generación, formada, algo menos de hace 5.000 millones de años, por la condensación de residuos de una estrella anterior que murió en una explosión de supernova. El material procedente de semejante explosión se agrupó en un disco de gas y polvo con una protoestrella en el centro. El Sol se «encendió» cuando el núcleo central de materia se comprimió tanto que los átomos de hidrógeno se fundieron entre sí. Y alrededor suyo, a lo largo de bandas elípticas, siguiendo un proceso parecido pero menos intenso gravitacionalmente, se formaron los planetas de lo que llamamos Sistema Solar: Mercurio, Venus, la Tierra, Marte, Júpiter, Saturno, Urano, Neptuno y Plutón (aunque éste no es desde hace poco considerado en la categoría de «planeta»), y los satélites de éstos, como la Luna.

Desde esta perspectiva, la Tierra (formada hace unos 4.500 millones de años), al igual que los demás planetas, es algo parecido a un pequeño basurero (o cementerio) cósmico; un lugar en el que se han acumulado restos de la vida de estrellas, no lo suficientemente importantes como para dar lugar a un astro; esto es, aglomerados de elementos en cantidades tan pequeñas que no han podido desencadenar en su interior reacciones termonucleares como las que se producen en las estrellas. Pero al igual que en los basureros también se abre camino la vida, así ocurrió en esta Tierra nuestra, con su diámetro de, aproximadamente, 12.700 kilómetros y su peso de unas 6•1021 (6 seguido de 21 ceros) toneladas. Nosotros somos testigos y demostración de este fenómeno.

Dentro de unos 7.500 millones de años, la zona central del Sol, en la que el hidrógeno se convierte en helio, aumentará de tamaño a medida que el hidrógeno se vaya consumiendo. Y cuando ese núcleo de helio alcance un tamaño suficiente, el Sol se dilatará hasta convertirse en una estrella de las denominadas gigantes rojas. Se hará tan gigantesca que su diámetro terminará alcanzando la órbita de la Tierra, acabando con ella. Antes de que suceda esto, la superficie terrestre llegará a estar tan caliente como para que el plomo se funda, hiervan los océanos y desaparezca todo rastro de vida. De esta manera, los procesos nucleares que nos dieron la vida acabarán con ella.

Más allá del mundo microscópico

Las teorías físicas de las que he estado tratando en las secciones precedentes son, es cierto, teorías cuánticas; ahora bien, el mundo de la física cuántica no se restringe a ellas y constituiría un grave error no referirse a otras novedades que surgieron en ese mundo durante la segunda mitad del siglo xx. Enfrentado con la difícil cuestión de buscar los avances más importantes, he optado por seleccionar dos grupos. El primero incluye desarrollos que han reforzado a la física cuántica frente a críticas como las que lideró Einstein junto a Podolsky y Rosen. El segundo trata de los trabajos que han puesto de relieve la existencia de fenómenos cuánticos macroscópicos.

Una teoría no local: el entrelazamiento cuántico

El fin de la ciencia es suministrar sistemas teóricos que permitan relacionar cuantos más fenómenos naturales mejor y que estos sistemas tengan capacidad predictiva. A esto le llamamos «explicar la naturaleza». Ahora bien, «explicar» no quiere decir encontrar respuestas que nos resulten familiares, que no violenten nuestras categorías explicativas más comunes: ¿por qué la naturaleza iba a seguir tales pautas? Ya aludí antes a que la física cuántica muestra con especial virulencia que la realidad nos puede resultar, de acuerdo con algunas teorías de gran éxito, profundamente contraintuitiva. Si este rasgo estaba claro desde que en 1925-1926 se contó con la mecánica cuántica, ahora lo está aún más. Veamos a qué me refiero.

En 1935, Albert Einstein, junto a dos colaboradores suyos, Boris Podolsky (1896-1966) y Nathan Rosen (1910-1995), publicaron un artículo (Einstein, Podolsky y Rosen 1935) en el que argumentaban que la mecánica cuántica no podía ser una teoría completa, que era necesario introducir nuevas variables. Sería largo explicar los argumentos que emplearon, que van más allá de lo puramente físico, adentrándose en terrenos claramente filosóficos (daban una definición de lo que es la «realidad física»); simplemente diré que su análisis condujo a que un físico natural de Belfast que trabajaba en el División de Teoría del CERN, John Stewart Bell (1928-1990), demostrase que existían unas relaciones (desigualdades) que se podían emplear para decidir experimentalmente qué tipo de teoría era correcta, si una «completa» (que incluyese unas variables «ocultas» para la formulación cuántica) que obedeciese a los requisitos que Einstein, Podolsky y Rosen habían planteado en 1935 o la mecánica cuántica tradicional (Bell 1964, 1966). Provistos del análisis de Bell, John Clauser, Michael Horne, Abner Shimony y Richard Holt (1969) propusieron un experimento concreto para aplicar en él la prueba de las desigualdades de Bell. Este experimento se llevó a cabo en el Instituto de Óptica Teórica y Aplicada de Orsay, en las cercanías de París, por un equipo dirigido por Alain Aspect (n. 1947). Y el resultado (Aspect, Dalibard y Roger 1982) favoreció a la mecánica cuántica. Será rara, contraintuitiva, con variables que no se pueden determinar simultáneamente, socavará nuestra idea tradicional de lo que es la realidad, pero es cierta. El análisis de Bell y el experimento de equipo de Aspect mostraron además un rasgo de la mecánica cuántica que aunque conocido apenas había sido destacado: su no localidad; que todos los elementos de un sistema cuántico están conectados, entrelazados, entre sí; no importa que, alejados por tanta distancia, no sea posible que se transmita la señal de lo que le ha sucedido a uno de sus elementos a otro con la velocidad de la luz, la máxima permitida por la relatividad especial. En otras palabras, un elemento se «entera» –y reacciona– instantáneamente de lo que le sucede a otro independientemente de la distancia que les separe. La no localidad –que Einstein siempre rechazó, como contraria al «sentido común» físico– plantea, no hay duda, un problema de compatibilidad con la relatividad especial, pero no existe ninguna razón para pensar que no se encuentre en el futuro una generalización de la mecánica cuántica que resuelva esta dificultad. Eso sí, seguro que no será fácil.

La no localidad abre, asimismo, posibilidades que parecen pertenecer al dominio de la ciencia-ficción. Utilizaré, en este sentido, lo que ha escrito el divulgador científico Amir Aczel (2004, 20): «Mediante el entrelazamiento puede también “teleportarse” el estado de una partícula hasta un destino lejano, como sucede con el capitán Kirk en la serie televisiva Star Trek cuando pide ser proyectado de vuelta al Enterprise. Para ser preciso, nadie ha sido todavía capaz de teleportar a una persona. Pero el estado de un sistema cuántico ha sido teleportado en el laboratorio. Es más, este increíble fenómeno está comenzando a emplearse en criptografía y (podría usarse) en la futura computación cuántica».

Ideas –y, al menos en parte, realidades– como éstas, muestran que la ciencia puede superar incluso a la ciencia-ficción. En cualquier caso, consecuencias de la física cuántica como éstas pertenecerán más al siglo xxi que al que hace poco se cerró.

Fenómenos cuánticos macroscópicos:

«Lo submicroscópico deviene macróscopico»

Estamos acostumbrados a pensar que el dominio de la física cuántica es únicamente el microscópico, el de partículas elementales, átomos o radiaciones, pero no es así aunque es cierto que históricamente estos fenómenos fueron los responsables de la génesis de las teorías cuánticas. Las dos manifestaciones principales de esa física cuántica macroscópica son los condensados de Bose-Einstein y la superconductividad.

Condensados de Bose-Einstein

Desde el punto de vista de la teoría, los condensados (o condensación) de Bose-Einstein proceden del artículo que publicó en 1924 el físico hindú Satyendranath Bose (1894-1974), en el que introducía una nueva estadística (una forma de contar fotones) para explicar la ley de radiación de un cuerpo negro que había llevado a Max Planck a introducir la primera noción de cuantización en 1900. Fue Einstein quien reconoció el valor (y ayudó a que fuese publicado) del trabajo de Bose (1924), al que completó con dos artículos (Einstein 1924, 1925) en los que ampliaba las conclusiones de Bose. Señaló, por ejemplo, que se podría producir en un gas de fotones una condensación: «Una parte “se condensa” y la restante continúa siendo un gas perfecto saturado» (Einstein 1925). Con la expresión «condensación», Einstein quería decir que un grupo de fotones actúa como si fuese una unidad, sin que entre ellos parezca que existen fuerzas de interacción. Además, predijo que «si la temperatura desciende lo suficiente», se produciría en ese gas «una caída brutal y acelerada de la viscosidad en el entorno de una cierta temperatura», que estimaba para el helio líquido –en el que ya había indicios de tal superfluidez– en unos 2°K.

Hubo, no obstante, que esperar hasta el 8 de enero de 1938 para que se produjera un avance en la predicción einsteiniana de la existencia de superfluidez. Fue entonces cuando se publicaron en la revista inglesa Nature dos breves artículos, uno a cargo del Piotr Kapitza (1894-1984), director del Instituto de Problemas Físicos en Moscú y anteriormente (hasta que en 1934 Stalin le retuvo en la Unión Soviética, durante uno de sus viajes de vacaciones) catedrático en el Laboratorio Cavendish de Cambridge, y otro de dos jóvenes físicos canadienses que estaban trabajando en el Laboratorio Mond que la Royal Society patrocinaba en Cambridge, Jack Allen (1908-2001) y Don Misener (1911-1996). En ellos (Kapitza 1938; Allen y Misener 1938) se anunciaba que el helio líquido fluía casi sin sufrir la resistencia de la viscosidad por debajo de 2,18°K. Fueron, sin embargo, Fritz London (1900-1954) y Laszlo Tisza (n. 1907) quienes demostraron teóricamente que este fenómeno constituía la evidencia de la superfluidez (29).

Se trataba, por supuesto, de la vieja idea que Einstein había propuesto en 1924, y a la que apenas se había prestado atención, aunque ahora más desarrollada y aplicada a otros sistemas muy diferentes a los gases ideales considerados por el creador de la relatividad.

Es preciso señalar, sin embargo, que a pesar de que en la actualidad damos a los descubrimientos de 1938 un gran valor, en la medida en que mostraban macroscópicamente un comportamiento cuántico, en su momento este aspecto no se destacó tanto. Para comprender mejor la relación entre la condensación de Bose-Einstein y los aspectos macroscópicos de la física cuántica, hubo que tratar con átomos, producir «superátomos», conjuntos de átomos que se comportasen como una unidad y fuesen perceptibles macroscópicamente. Semejante logró se alcanzó mucho más tarde, en 1995. Aquel año, dos físicos de Colorado, Eric Cornell (n. 1961) y Carl Wieman (n. 1951), produjeron un superátomo de rubidio, y unos meses después Wolfgang Ketterle (n. 1957), del MIT, otro de sodio (los tres recibieron el Premio Nobel de Física de 2001). Veamos cómo han descrito los dos primeros su aportación (Cornell y Wieman 2003, 82):

Nuestro grupo de investigación del Instituto Conjunto de Astrofísica de Laboratorio (o JILA ahora), en Boulder, creó en junio de 1995 una gota, aunque minúscula, maravillosa. Al enfriar 2.000 átomos de rubidio hasta una temperatura de menos de 100 milmillonésimas de grado sobre el cero absoluto (100 milmillonésimas de grados kelvin) hicimos que los átomos perdiesen su identidad individual y se comportaran como si fuesen un solo «superátomo». Las propiedades físicas de todos ellos, sus movimientos, por ejemplo, se volvieron idénticas. Este condensado de Bose-Einstein, el primero observado en un gas, viene a ser el análogo material del láser, con la diferencia de que en el condensado son átomos, no fotones, los que danzan al unísono (30).

Y más adelante añadían (Cornell y Wieman 2003, 82-84):

Raras veces vemos los efectos de la mecánica cuántica reflejados en la conducta de una cantidad macroscópica de materia. Las contribuciones incoherentes del inmenso número de partículas de cualquier porción de materia oscurecen la naturaleza ondulatoria de la mecánica cuántica; sólo podemos inferir sus efectos. Pero en la condensación de Bose la naturaleza ondulatoria de cada átomo está en fase con las demás; y lo está de manera precisa. Las ondas mecanocuánticas atraviesan la muestra entera y se observan a simple vista. Lo submicroscópico deviene macroscópico.

La creación de condensados de Bose-Einstein ha arrojado luz sobre viejas paradojas de la mecánica cuántica. Por ejemplo, si dos o más átomos están en un solo estado mecanicocuántico, y eso es lo que pasa en un condensado, será imposible distinguirlos, se haga la medición que se haga. Los dos átomos ocuparán el mismo volumen de espacio, se moverán a la misma velocidad, dispersarán luz del mismo color, etc.

En nuestra experiencia, basada en el trato constante de la materia a temperaturas normales, no hay nada que nos ayude a comprender esta paradoja. Por un motivo: a las temperaturas normales y a las escalas de magnitud en que nos desenvolvemos, es posible describir la posición y el movimiento de todos y cada uno de los objetos de un conjunto… A temperaturas bajísimas o a escalas de magnitud pequeñas, la mecánica clásica va perdiendo vigor… No podemos saber la posición exacta de cada átomo, y es mejor imaginarlos como manchas imprecisas. La mancha es un paquete de ondas, la región del espacio donde cabe esperar que esté el átomo. Conforme el conjunto de átomos se enfría, crece el tamaño de los paquetes de ondas. Mientras cada uno esté espacialmente separado de los demás será posible, al menos en principio, distinguir átomos entre sí. Pero cuando la temperatura llega a ser lo bastante baja los paquetes de ondas de los átomos vecinos se solaparán. Entonces, los átomos «se Bose-condensarán» en el menor estado de energía que sea posible, y los paquetes de ondas se fundirán en un solo paquete macroscópico. Los átomos sufrirán una crisis cuántica de identidad: ya no podremos distinguir unos de los otros.

Superconductividad

La superconductividad es otro de los fenómenos físicos en los que la cuantización se manifiesta macroscópicamente. El fenómeno en sí fue descubierto hace mucho, en 1911, cuando el físico holandés Heike Kamerlingh Onnes (1853-1926), el gran pionero y experto mundial en bajas temperaturas, encontró en su laboratorio de Leiden que cuando enfriaba el mercurio metal a 4°K, se anulaba por completo su resistencia ante el paso de una corriente eléctrica (Kamerlingh Onnes 1911). Una vez iniciada esa corriente, continuaría indefinidamente aunque no se le aplicase ninguna diferencia de potencial. Más tarde se encontró que otros metales y compuestos se hacían también superconductores a temperaturas cercanas al cero absoluto de temperatura. Ahora bien, una cosa es la evidencia experimental y otra la explicación teórica, y ésta tardó en llegar. Fue, en efecto, en 1957 cuando los estadounidenses John Bardeen (1908-1991), Leon Cooper (n. 1930) y John Robert Schrieffer (n. 1931) dieron con tal teoría (conocida por las iniciales de sus apellidos: BCS) (31). Su explicación (Bardeen, Cooper y Schrieffer 1957) consistía en que a partir de una cierta temperatura los electrones que transportan la corriente eléctrica en un elemento o compuesto superconductor se agrupan en parejas –como había supuesto con anterioridad Cooper (1956); de ahí los «pares de Cooper»– que actúan como bosones; esto es, partículas como los fotones que no están sometidos a ciertos requisitos cuánticos. Este agrupamiento se produce a temperaturas muy bajas y se debe a la interacción entre los electrones y la red de átomos metálicos del compuesto superconductor. En este momento, agrupados, los pares de electrones marchan como un armonioso ejército de bosones que ignoran los impedimentos atómicos. Es así como se manifiesta macroscópicamente este efecto cuántico.

La teoría BCS constituyó un éxito formidable de la física cuántica, pero no es totalmente satisfactoria, como se puso en evidencia por su incapacidad de predecir la existencia de superconductividad en materiales cerámicos a temperaturas mucho más elevadas que las que se manejaban hasta entonces. Fue en 1986, en los laboratorios de IBM de Zúrich, donde Georg Bednorz (n. 1950) y Alexander Müller (n. 1927) encontraron que un óxido de lantano, bario y cobre era superconductor a temperaturas tan altas (no, claro, para nuestras experiencias cotidianas) como 35°K (32). El año siguiente, Paul Chu (1987) elevó la escala de temperaturas superconductoras, hallando un óxido de itrio, bario y cobre que se volvía superconductor a la temperatura de 93°K, una temperatura que se puede alcanzar sin más que bañar ese óxido en nitrógeno líquido que –a diferencia del helio– es abundante y barato. Desde entonces, el número de estos materiales y de las temperaturas a las que se hacen superconductores no ha hecho sino aumentar.

El hallazgo de Bednorz y Müller (1986) (33) por el que recibieron el Premio Nobel de Física en 1987, abre nuevas perspectivas no sólo a la física sino también, y acaso sobre todo, a la tecnología: materiales superconductores a temperaturas a las que se puede llegar en el mundo cotidiano (esto es, fuera del laboratorio) pueden tal vez revolucionar nuestras vidas algún día.

Artilugios cuánticos:

transistores, chips, máseres y láseres

El comentario anterior, la relevancia de la física cuántica en la tecnología, va mucho más allá de la superconductividad. Es posible que materiales superconductores cambien en el futuro nuestras vidas, pero de lo que no hay duda es de otros materiales, los semiconductores, ya las han cambiado (34).La primera gran aplicación de los semiconductores llegó con la invención del transistor, debida a John Bardeen, William Shockley (1910-1989)) y Walter Brattain (1902-1987), mientras trabajaban en el departamento de física del estado sólido de los laboratorios Bell (35). En 1956 los tres recibieron el Premio Nobel de Física, el primero de los dos que ganó Bardeen (el segundo, como ya vimos, fue por la superconductividad).

Un transistor es un dispositivo electrónico hecho de material semiconductor, que puede regular una corriente que pasa a través de él y también actuar como amplificador o célula fotoeléctrica, y, que comparado con los tubos de vacío que le precedieron, necesita cantidades muy pequeñas de energía para funcionar; además son más estables, compactos, actúan instantáneamente y duran más.

Tras los transistores vinieron los circuitos integrados, minúsculos y muy delgados dispositivos en los que se fundamenta el mundo digital. Los circuitos integrados se fabrican sobre un sustrato (habitualmente de silicio) depositando finas películas de materiales que, ora conducen, ora aíslan, la electricidad. Estas películas, ensambladas según patrones elaborados de antemano, forman transistores (cada circuito integrado puede albergar millones de transistores) que funcionan como interruptores encargados de controlar el flujo de electricidad a través del circuito, o chip.

Integrados en los chips, los transistores desempeñan funciones básicas en los billones y billones de microprocesadores que, repartidos, controlan, por ejemplo, motores de coche, teléfonos celulares, misiles, satélites, redes de gas, hornos microondas, ordenadores o aparatos para discos compactos. Han cambiado, literalmente, las formas en las que nos comunicamos, relacionamos con el dinero, escuchamos música, vemos televisión, conducimos coches, lavamos nuestras ropas o cocinamos.

Hasta la llegada de los transistores y circuitos integrados, las máquinas de calcular utilizadas eran gigantescos amasijos de componentes electrónicos. Durante la Segunda Guerra Mundial se construyó una de los primeras máquinas de calcular electrónicas: el Electronic Numerical Integrator and Computer (Computador Integrador Numérico Electrónico, también conocido por sus siglas inglesas, ENIAC). Tenía 17.000 tubos electrónicos, unidos por miles de cables, pesaba 30 toneladas y consumía 174 kilowatios. Podemos considerarlo el paradigma de la primera generación de computadores. Con los transistores llegó, en la década de 1950, la segunda generación: el primer computador surgido de la física del estado sólido –una rama de la física cuántica– fue el TRADIC (de Transistor Digital Computer), construido en 1954 por los laboratorios Bell para la Fuerza Aérea estadounidense; utilizaba 700 transistores y podía competir en velocidad con ENIAC. A finales de la década de 1960, gracias a los circuitos integrados, llegaría la tercera generación, a la que siguió una cuarta, con computadoras que utilizan microprocesadores y refinados lenguajes de programación. Y ya se habla de los computadores cuánticos, que en lugar de utilizar bits, que toman valores 1 o 0, definidos, recurren a qubits, bits cuánticos, que pueden estar en superposiciones cuánticas de 0 y 1, lo mismo que un fotón puede estar en superposiciones de polarización horizontal y vertical. Pero los computadores cuánticos, si se logran, pertenecerán a, posiblemente, la segunda mitad del siglo xxi.

Gracias a todos estos desarrollos nos encontramos sumergidos de lleno en un mundo pleno de computadoras que realizan, a velocidades y fiabilidades extraordinarias, todo tipo de funciones, y sin las cuales nuestra vida sería muy diferente. Y nada de esto, es muy importante destacarlo, se habría producido sin los resultados obtenidos en una rama de la física cuántica: la física del estado sólido (también denominada de la materia condensada).

En el haber de esta rama de la física se encuentra también el que ha estrechado las relaciones entre ciencia y sociedad. En 1955, por poner un ejemplo, Shockley, uno de los inventores del transistor, abandonó los laboratorios Bell para fundar su propia compañía en el área de la bahía de San Francisco. El Shockley Semiconductor Laboratory abrió sus puertas en febrero de 1956, reclutando un excelente grupo de profesionales. No tuvo, sin embargo, demasiado éxito, pero a la postre constituyó el germen que condujo al crecimiento de una zona en la que se agruparon diversas compañías tecnológicas en un lugar de California que terminó siendo conocido como Silicon Valley, el Valle del Silicio.

Ciencia y técnica se alían en este mundo tecnocientifíco de una manera tan, digamos, íntima, que no es cierto que las innovaciones fundamentales se den sólo en los enclaves científicos y los negocios en los tecnológicos. Recordemos, en este sentido, que las técnicas fundamentales (proceso «planar») para la fabricación de los chips fueron ideadas en 1957 por Jean Hoerni (1924-1997), de la empresa Fairchild Semiconductors. El primer circuito integrado fue construido allí por Robert N. Noyce (1927-1990) en 1958. Diez años después (1968), Noyce dejó Fairchild para fundar, junto a Gordon Moore (n. 1929), Intel, donde dirigió con Ted Hoff (n. 1937), la invención del microprocesador, que generó una nueva revolución.

Quiero mencionar, asimismo, que el desarrollo de los microprocesadores electrónicos ha estimulado –y, a su vez, se ha visto él mismo beneficiado por– la denominada «nanotecnología», cuyo objetivo es el control y manipulación de la materia a una escala del orden de entre 1 y 100 nanómetros (1 nanómetro equivale a 10-9 metros). La nanotecnología es más una técnica (un conjunto de técnicas) que una ciencia, pero de ella cabe esperar (en parte ya lo está dando) desarrollos que no sólo beneficien nuestras posibilidades materiales sino también al conocimiento científico más básico.

Máseres y láseres

Aún no he mencionado –aunque cronológicamente precedieron a algunos de los desarrollos anteriores– al máser y al láser, acrónimos de, respectivamente, Microwave Amplification by Stimulated Emission of Radiation (amplificación de microondas mediante emisión estimulada de radiación) y de Light Amplification by Stimulated Emission of Radiation (amplificación de luz por emisión estimulada de radiación).

Desde el punto de vista de la teoría, estos instrumentos-procedimientos para amplificar ondas de la misma frecuencia (longitud de onda) se explican en base al contenido de dos artículos de Einstein (1916a, b). Sin embargo, su realización práctica, con todos los nuevos elementos teóricos y experimentales que ello conllevó, no llegó hasta la década de 1950. Los responsables de este logro fueron, de manera independiente, los físicos del Instituto Lebedev de Física de Moscú, Aleksandr M. Prokhorov (1916-2002) y Nikolai G. Basov (1922-2001), y el estadounidense Charles Townes (n. 1915), de la Universidad de Columbia, Nueva York (los tres compartieron el Premio Nobel de Física de 1964).

En mayo de 1952, durante una conferencia sobre radio-espectroscopía en la Academia de Ciencias de la URSS, Basov y Prokhorov describieron el principio del máser, aunque no publicaron nada hasta dos años después (Basov y Prokhorov 1954). Y no sólo describieron su principio, sino que también Basov construyó uno como parte de su tesis doctoral, unos pocos meses después de que Townes hiciese lo propio.

Merece la pena resumir cómo Townes llegó por su parte a la misma idea del máser, ya que ilustra acerca de lo muy diversos que pueden ser los elementos que forman parte de los procesos de descubrimiento científico. Tras permanecer en los laboratorios Bell entre 1939 y 1947, en donde se ocupó, entre otros temas, de la investigación relacionada con el radar, Townes pasó al Radiation Laboratory de la Universidad de Columbia, creado durante la Segunda Guerra Mundial para desarrollar radares, esenciales para el desarrollo de la guerra. Al igual que otras instituciones, este laboratorio continuó recibiendo dinero de los militares después de la contienda, dedicando el 80% de su presupuesto al desarrollo de tubos que generasen microondas. En la primavera de 1950, Townes organizó en Columbia para la Oficina de Investigación de la Marina un comité asesor para considerar nuevas formas de generar microondas de menos de un centímetro. Tras un año de considerar la cuestión, se le ocurrió un nuevo enfoque antes de asistir a una de las sesiones de su comité: era la idea de máser. Cuando logró, en 1954 y en colaboración con un joven doctor, Herbert J. Zeiger, y un doctorando, James P. Gordon, hacer realidad operacional esa idea utilizando un gas de moléculas de amoniaco (Gordon, Zeiger y Townes 1954), resultó que las oscilaciones producidas por el máser se caracterizaban no sólo por su alta frecuencia y potencia, sino también por su uniformidad. El máser, en efecto, produce una emisión coherente de microondas; esto es, radiación altamente concentrada, de una única longitud de onda.

Incluso antes de que los másers empezasen a proliferar, algunos físicos comenzaron a intentar extender su idea a otras longitudes de onda. Entre ellos se encontraba el propio Townes (también Basov y Prokhorov), quien a partir del otoño de 1957 inició trabajos para ir desde las microondas a la luz visible, colaborando con su cuñado, Arthur Schawlow (1921-1999), un físico de los laboratorios Bell. Fruto de sus esfuerzos fue un artículo básico, en el que mostraban cómo se podría construir un láser, al que todavía denominaban «máser óptico» (Schawlow y Townes 1958). No está de más mencionar que los abogados de los laboratorios Bell, para los que trabajaba Schawlow y con los que Townes tenía un contrato de asesor, pensaron que la idea del láser no tenía interés suficiente como para ser patentada; únicamente lo hicieron ante la insistencia de Townes (Schwalow y Townes 1960).

La carrera por construir un láser se intensificó a partir de entonces. Aunque la historia posterior no siempre ha sido lo suficientemente clara en este punto, el primero que tuvo éxito fue Theodore Maiman (1927-2007), de los Hughes Research Laboratories de Malibu (California), que consiguió poner en funcionamiento un láser de rubí el 16 de mayo de 1960. Maiman envió a la entonces recién establecida Physical Review Letters un manuscrito con sus resultados, pero su editor, Samuel Goudsmit, lo rechazó como «sólo otro artículo sobre el máser». En su lugar, Maiman recurrió a Nature, en cuyo número del 6 de agosto de 1960 consiguió publicar el resultado de su trabajo (Maiman 1960). Poco después, Schawlow anunciaba –en Physical Review Letters– que había puesto en funcionamiento otro láser, también de rubí (considerablemente más grande y potente que el de Maiman) junto a cinco colaboradores (Collins, Nelson, Schawlow, Bond, Garret y Kaiser 1960). Habida cuenta de estos hechos es cuestionable que fuese Schawlow quien recibiese en 1981 el Premio Nobel (compartido con Nicolaas Bloembergen y con Kai Siegbahn) aunque formalmente fuese por su contribución (y la de Bloembergen) al desarrollo de la espectroscopia láser (36).

Los máseres y, sobre todo, los láseres (otro «hijo», por cierto, de la física cuántica que muestra macroscópicamente efectos cuánticos) son instrumentos bien conocidos por el público, en particular algunas de sus aplicaciones (por ejemplo, en operaciones de desprendimientos de retina, en las que se emplean láseres); sin embargo, lo son menos otras de gran importancia científica. Una de ellas es su utilización en espectroscopía. Al ser radiaciones monocromáticas de gran energía es posible dirigirlas con precisión a niveles atómicos determinados; los resultados obtenidos permiten conocer mucho mejor las propiedades de las moléculas, cuya estructura las hace mucho más complicadas de estudiar que los átomos.

Un mundo no lineal

Los descubrimientos y desarrollos a los que me he referido hasta ahora son, probablemente, los más sobresalientes desde un punto de vista, digamos, fundamental; no obstante, no incluyen un conjunto de avances que están abriendo nuevas y sorprendentes ventanas a la comprensión científica de la naturaleza. Se trata de los fenómenos no lineales; esto es, los gobernados por leyes que involucran ecuaciones con términos cuadráticos (37).

Si repasamos la historia de la física hasta bien entrado el siglo xx, nos encontramos con que sus teorías más básicas o son esencialmente lineales (los casos de la teoría de la gravitación universal de Newton y de la electrodinámica de Maxwell), o, permitiendo ser utilizadas para sistemas no lineales, como sucede con la mecánica newtoniana, se han aplicado mayoritariamente a sistemas lineales, incluso cuando es transparentemente claro que ello implica una aproximación a la realidad. El ejemplo más sencillo en este sentido es el de un péndulo plano simple. Cualquier estudiante de bachillerato, no digamos de física, sabe que la ecuación diferencial que se utiliza para describir el movimiento de este tipo de péndulo es

d2?(t)/dt2 + (g/l)?(t) = 0

donde ? representa el desplazamiento angular del péndulo, l la longitud del péndulo, g la aceleración de la gravedad y t el tiempo. Ahora bien, cuando se deduce (no es un problema difícil) la ecuación que debe cumplir el movimiento de un péndulo plano simple, no es ésta la ecuación a la que se llega, sino

d2?(t)/dt2 + (g/l)sen?(t) = 0

que es obviamente no lineal, ya que

sen(?1+?2)?sen?1+sen?2

Para evitar esta circunstancia, que complica enormemente la resolución del problema, se restringe el problema a oscilaciones pequeñas, esto es, a ángulos pequeños, lo que permite utilizar el desarrollo en serie de Taylor de la función seno

sen???-?3/6+…

y quedándose únicamente con el primer término, obtener la primera (lineal) de las dos ecuaciones citadas.

Lo que este ejemplo tan sencillo nos muestra es que la denominada «física clásica» no es ajena a sistemas no lineales, pero que trata de evitarlos debido a la dificultad matemática de su tratamiento: no existen, de hecho, métodos matemáticos generales sistemáticos para tratar las ecuaciones no lineales. Por supuesto, son numerosos los problemas conocidos de antiguo asociados a sistemas (leyes) no lineales, especialmente los pertenecientes al ámbito de la hidrodinámica, de la física de los fluidos. Así, por ejemplo, cuando el agua fluye con una velocidad pequeña por una tubería, su movimiento (denominado laminar), regular y predecible, se describe mediante ecuaciones lineales, pero cuando las velocidades involucradas son elevadas entonces el movimiento del agua se hace turbulento, formándose remolinos que siguen trayectorias irregulares, aparentemente erráticas, características típicas de un comportamiento no lineal. La aerodinámica, naturalmente, es otro ejemplo de dominio no lineal, como saben muy bien todos aquellos implicados en el diseño de aviones (38).

La riqueza de los sistemas no lineales es extraordinaria; la riqueza y las novedades que aportan con respecto a los lineales. Desde el punto de vista matemático (que con frecuencia encuentra su correlato en dominios reales), las ecuaciones-sistemas no lineales pueden mostrar transiciones de comportamientos regulares a aparentemente arbitrarios; pulsos localizados, que en sistemas lineales producen perturbaciones que decaen más pronto que tarde, mantienen su individualidad en los sistemas no lineales; esto es, dan lugar a estructuras localizadas y altamente coherentes, con las obvias implicaciones que este fenómeno puede tener en la aparición y mantenimiento de estructuras relacionadas con la vida (desde las células y organismos pluricelulares hasta incluso, aunque pueda parecer una idea peregrina, pensamientos). Uno de los primeros ejemplos conocidos de este tipo de comportamiento son los célebres «solitones», soluciones de la ecuación no lineal en derivadas parciales denominada de Korteweg-de Vries (o ecuación KdV), desarrollada en 1895 como una descripción aproximada de las ondas de agua que se movían en un canal estrecho y poco profundo. No fue, sin embargo, hasta 1965 cuando Norman Zabusky y Martin Kruskal encontraron una solución de esta ecuación que representa una de las formas más puras de estructura coherente en movimiento (Zabusky y Kruskal 1965): el solitón, una onda solitaria que se mueve con velocidad constante. Lejos de ser entelequias matemáticas, los solitones se manifiestan en la naturaleza: por ejemplo, en las ondas superficiales (que se mueven esencialmente en una dirección) observadas en el mar de Andamán, que separa las islas de Andamán y de Nicobar de la península de Malasia.

El caos

Un caso particularmente importante de sistema no lineal son los sistemas caóticos. Un sistema caótico se caracteriza porque las soluciones de las ecuaciones que lo representan son extremadamente sensibles a las condiciones iniciales; esto es, son tales que si se cambian un poco, minúsculamente, esas condiciones, entonces la solución (la trayectoria que sigue el objeto descrito por la solución) se ve modificada radicalmente, siguiendo un camino completamente diferente, al contrario que en los sistemas no caóticos, aquellos con los que la física nos ha familiarizado durante siglos, en los que pequeños cambios en las condiciones iniciales no alteran sustancialmente la solución. Es por su extrema variabilidad frente a aparentemente insignificantes cambios en sus puntos y condiciones de partida, que esas soluciones y los sistemas a que pertenecen se denominan caóticos. Pero que sean «caóticos» no significa que no puedan ser sometidos a leyes expresables en términos matemáticos. Es preciso recalcar que los sistemas caóticos están descritos por leyes codificadas en expresiones matemáticas, expresiones de hecho similares a las que pueblan el universo de las leyes lineales de la dinámica newtoniana.

El tiempo meteorológico constituye uno de los grandes ejemplos de sistemas caóticos; de hecho, fue estudiándolo cuando se descubrió realmente el caos: pequeñas perturbaciones en la atmósfera pueden cambiar el clima en proporciones enormes. Su descubridor fue el meteorólogo teórico estadounidense Edward Norton Lorenz (1938-2008).

Estaba trabajando en sus investigaciones sobre el tiempo atmosférico, desarrollando modelos matemáticos simples cuyas propiedades exploraba con la ayuda de ordenadores, cuando, en 1960, observó que algo raro ocurría cuando repetía cálculos anteriores. He aquí como él mismo reconstruyó los acontecimientos y su reacción en un libro que escribió años después, La esencia del caos (Lorenz 1995, 137-139):

En un momento dado, decidí repetir algunos de los cálculos con el fin de examinar con mayor detalle lo que estaba ocurriendo. Detuve el ordenador, tecleé una línea de números que había salido por la impresora un rato antes y lo puse en marcha otra vez. Me fui al vestíbulo a tomarme una taza de café y regresé al cabo de una hora, tiempo durante el cual el ordenador había simulado unos dos meses de tiempo meteorológico. Los números que salían por la impresora no tenían nada que ver con los anteriores. Inmediatamente pensé que se había estropeado alguna válvula o que el ordenador tenía alguna otra avería, cosa nada infrecuente, pero antes de llamar a los técnicos decidí comprobar dónde se encontraba la dificultad, sabiendo que de esa forma podría acelerar la reparación. En lugar de una interrupción brusca, me encontré con que los nuevos valores repetían los anteriores en un principio, pero que enseguida empezaban a diferir, en una, en varias unidades, en la última cifra decimal, luego en la anterior y luego en la anterior. La verdad es que las diferencias se duplicaban en tamaño más o menos constantemente cada cuatro días, hasta que cualquier parecido con las cifras originales desaparecía en algún momento del segundo mes. Con eso me bastó para comprender lo que ocurría: los números que yo había tecleado no eran los números originales exactos sino los valores redondeados que había dado a la impresora en un principio. Los errores redondeados iniciales eran los culpables: se iban amplificando constantemente hasta dominar la solución. Dicho con terminología de hoy: se trataba del caos.

Lo que Lorenz había observado empíricamente, ayudado por su ordenador, es que existen sistemas que pueden desplegar un comportamiento impredecible (lo que no quiere decir «no sujeto a leyes»): pequeñas diferencias en una sola variable tienen efectos profundos en la historia posterior del sistema. Por eso, por ser un sistema caótico, el tiempo meteorológico es tan difícil de predecir, tan, como solemos decir, imprevisible.

El artículo en el que presentó sus resultados (Lorenz 1963) constituye uno de los grandes logros de las ciencias físicas del siglo xx, aunque pocos científicos que no fueran meteorólogos repararon entonces en él, una situación que cambiaría de forma radical a lo largo de las décadas siguientes. No poco tuvo que ver en semejante cambio de actitud la célebre frase «El aleteo de una mariposa en Brasil puede producir un tornado en Texas», que Lorenz incluyó en una conferencia que pronunció el 29 de diciembre de 1972 en una sesión de la reunión anual de la American Association for the Advancement of Science (39).

Cada vez está más claro que los fenómenos caóticos abundan en la naturaleza. Los encontramos ya en dominios propios de la economía, aerodinámica, la biología de poblaciones (en, por ejemplo, algunos modelos «presa-depredador»), termodinámica, química y, por supuesto, en el mundo de las ciencias biomédicas (un ejemplo es el de algunas arritmias). Parece que puede manifestarse incluso en los aparentemente estables movimientos planetarios.

Las consecuencias que para nuestra visión del mundo tiene el descubrimiento del caos y su, por lo que parece, ubicua presencia son incalculables. El mundo no es como suponíamos. Y no lo es sólo en los dominios atómicos, descritos por la física cuántica, en los que reinan la probabilidad y la incertidumbre, sino también en aquellos gobernados por las más «clásicas» leyes de tipo newtoniano. Newtonianas, sí, pero no como las que utilizó el gran Isaac Newton y todos sus seguidores, esto es, leyes lineales sino no lineales. La naturaleza no es lineal, sino no lineal. No todos los sistemas no lineales son caóticos, pero sí que todos los sistemas caóticos son no lineales. El mundo es por ello más complicado de explicar; no podemos predecir todo lo que va a suceder siguiendo el viejo, newtoniano, estilo, pero ¿por qué iba a ser la naturaleza tan «sencilla»? Lo maravilloso es que seamos capaces de descubrir tales comportamientos y las leyes matemáticas que subyacen en ellos.

Podría, y acaso debería, haber mencionado otros desarrollos que se han producido, o iniciado, durante la segunda mitad del siglo xx, como, por ejemplo, en la termodinámica del no equilibrio, en la que uno de los elementos centrales son los gradientes, diferencias de magnitudes como pueden ser la temperatura o la presión. Su importancia reside en que los gradientes son la auténtica fuente de la vida, que tiene que luchar contra la tendencia de la naturaleza a reducir gradientes, es decir, contra la tendencia de la energía a disiparse conforme a la segunda ley de la termodinámica (expresada según la a menudo citada entropía). Para los seres vivos, el equilibrio termodinámico equivale a la muerte, por lo que para comprender la vida es imperativo entender la termodinámica del no equilibrio y no limitarse a la del equilibrio, que dominó gran parte de los siglos xix y xx. La complejidad de la vida –y de otros sistemas existentes en la naturaleza– es una derivación natural de la tendencia a reducción de gradientes: allí donde las circunstancias lo permiten, surgen organizaciones cíclicas para disipar entropía en forma de calor. Puede incluso argumentarse –es una nueva forma, poco darwiniana, de entender la evolución– que puesto que el acceso a los gradientes se mejora mediante el perfeccionamiento de la percepción, el incremento de la inteligencia es una tendencia evolutiva que promueve selectivamente la prosperidad de aquellos que explotan recursos menguantes sin agotarlos. Esta rama de la física (y de la química) experimentó un gran desarrollo en la segunda mitad del siglo xx, y por ello constituye un magnífico ejemplo de otros avances que han tenido lugar a lo largo de ese periodo en la física y que, como decía, tal vez debería haber tratado aquí, aunque sean en cierto sentido de un carácter «menos fundamental». Pero ya me he extendido demasiado y es hora de poner punto final.

Bibliografía

Aczel, A. D. Entrelazamiento. Barcelona: Crítica, 2004 (edición original en inglés de 2002).

Allen, J. y D. Misener. «Flow of liquid helium II». Nature 141 (1938): 75.

Aspect, A., J. Dalibard y G. Roger. «Experimental test of Bell’s inequalities using time-varying analyzers». Physical Review Letters 49 (1982): 1.804-1.807.

Bardeen, J. y W. Brattain. «The transistor, a semiconductor triode». Physical Review 74 (1948): 230-231 (L).

— «Physical principles involved in transistor action». Physical Review 75 (1949): 1.208-1.225.

— L. N. Cooper y J. R. Schrieffer. «Microscopic theory of superconductivity». Physical Review 106 (1957): 162-164 (L).

Basov, N. G. y A. M. Prokhorov. «3-level gas oscillator». Eksperim. i Teor. Fiz. (JETP) 27 (1954): 431.

Bednorz, J. G. y K. A. Müller. «Possible high Tc superconductivity in the Ba-La-Cu-O system». Zeitschrift für Physik B- Condensed Matter 64 (1986): 189-193.

Bell, J. S. «On the Einstein-Podolsky-Rosen paradox». Physics 1 (1964): 195-200.

— «On the problem of hidden variables in quantum mechanics». Reviews of Modern Physics 38 (1966): 447-452..

Bethe, H. «Energy production on stars». Physical Review 55 (1939a): 103.

— «Energy production in stars», Physical Review 55 (1939b): 434-456.

— y C. L. Critchfield. «The formation of deuterons by proton combination», Physics Review 54 (1938): 248-254.

Bondi, H. y Th. Gold. «The steady-state theory of the expanding universe». Monthly Notices of the Royal Astronomical Society 108 (1948): 252-270.

Born, M. «Zur Quantenmechanik der Stossvorgänge. (Vorläufige Mitteiling)». Zeitschrift für Physik 37 (1926): 863-867.

Bose, S. «Plancks Gesetz und Lichtquantenhypothese». Zeitschrift für Physik 26 (1924): 178-181.

Chandrasekhar, S. «The maximum mass of ideal white dwarfs». Astrophysical Journal 74 (1932): 81-82.

Chu, P. C. W. «Superconductivity above 90 K». Proceedings of the National Academy of Sciences 84 (1987): 4.681-4.682.

Clauser, J. F., M. A. Horne, A. Shimony y R. A. Holt. «Proposed experiment to test local hidden-variable theories». Physical Review Letters 23, (1969): 880-884.

Collins, R. J., D. F. Nelson, A. L. Schawlow, W. Bond, C. G. B. Garret y W. Kaiser. «Coherence, narrowing, directionality, and relaxation oscillations in the light emission from ruby». Physical Review Letters 5 (1960): 303-305.

Cooper, L. N. «Bound electron pairs in a degenerate Fermi gas». Physical Review 104 (1956): 1.189-1.190 (L).

Cornell, E. A. y C. E. Wiemann. «El condensado de Bose-Einstein». Investigación y Ciencia. Temas 31 (primer trimestre 2003): 82-87.

Einstein, A. «Zur Elektrodynamik bewegter Körper». Annalen der Physik 17 (1905a): 891-921.

— «Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichts-punkt». Annalen der Physik 17 (1905b): 132-148.

— «Die Feldgleichungen der Gravitation». Preussische Akademie der Wissenschaften (Berlin). Sitzungsberichte (1915): 844-847.

— «Strahlungs -Emission und -Absorption nach der Quantentheorie». Deutsche Physikalische Gesellschaft. Verhandlungen 18 (1916a): 318-323.

— «Zur Quantentheorie der Strahlung». Physikalische Gesellschaft Zürich. Mitteilungen 18 (1916b): 47-62. También publicado en Physikalische Zeitschrift 18 (1917): 121-128.

— «Kosmologische Betrachtungen zur allegemeinen Relativitätstheorie», Preussische Akademie der Wissenschaften (Berlin). Sitzungsberichte (1917): 142-152.

— «Quantentheorie des einatomigen idealen Gases». Preussische Akademie der Wissenschaften (Berlin). Sitzungsberichte (1924): 261-267.

— «Quantentheorie des einatomigen idealen gases. 2. Abhandlung». Preussische Akademie der Wissenschaften (Berlin). Sitzungsberichte (1925): 3-14.

— «Lens-like action of a star by the deviation of light in the gravitational field». Science 84 (1936): 506-507.

— B. Podolsky y N. Rosen. «Can quantum.mechanical description of physical reality be considered complete?». Physical Review 47 (1935): 777-780.

Fermi, E. «Tentativo di una teoria dei raggi». Il Nuovo Cimento 11 (1934a): 1-19.

— «Versuch einer Theorie der ?-Strahlen. I». Zeitschrift für Physik 88 (1934b): 161-177.

Feynman, R. P. «Space-time approach to quantum electrodynamics». Physical Review 76 (1949): 769-789.

— y M. Gell-Mann. «Theory of the Fermi interaction». Physical Review 109 (1958): 193-198.

Fukuda, H., Y. Miyamoto y S. Tomonaga. «A self-consistent subtraction method in the quantum field theory. II». Progress in Theoretical Physics 4 (1939): 47-59.

Gell-Mann, M. «A schematic model of baryons and mesons». Physic Letters 8 (1964): 214-215.

— El quark y el jaguar. Barcelona: Tusquets, 1995 (edición original en inglés de 1994).

Georgi, H. y S. L. Glashow. «Unity of all elementary particle forces». Physical Review Letters (1974): 438.

Glashow, S. L. «Partial-symmetries of weak interactions». Nuclear Physics 22 (1960): 579-588.

Gold, T. «Rotating neutron stars as the origin of the pulsating radio sources». Nature 218 (1968): 731-732.

Gordon, J., P. Herbert, J. Zeiger y Ch. H. Townes. «Molecular microwave oscillator and new hyperfine structure in the microwave spectrum of NH3». Physical Review 95 (1954): 282-284 (L).

Greene, B. El universo elegante. Barcelona: Crítica / Planeta, 2001 (edición original en inglés de 1999).

Guth, A. H. «Inflationary universe: a possible solution to the horizon and flatness problem». Physical Review D 23 (1981): 347-356.

Hawking, S. W. «Occurrence of singularities in open universes». Physical Review Letters 15 (1965): 689

— «Occurrence of singularities in cosmology». Proceedings Royal Society A 294 (1966a): 511-521.

— «Occurrence of singularities in cosmology». Proceedings Royal Society A 295 (1966b): 490-493.

— «Particle creation by black holes», en Isham, Penrose y Sciama, eds. (1975): 219-267.

— y R. Penrose. «The singularities of gravitational collapse and cosmology». Proceedings of the Royal Society of London A 314 (1969): 529-548.

Heisenberg, W. «Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen». Zeitschrift für Physik 33 (1925): 879-893.

— «Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik». Zeitschrift für Physik 43 (1927): 172-198.

Hewish, A., S. J. Bell, J. D. H. Pilkington, P. F. Scott y R. A. Collins. «Observation of a rapidly pulsating radio source». Nature 217 (1968): 709-713.

Hoddeson, L., L. Brown, M. Riordan y M. Dresden, (eds). The Rise of the Standard Model. Cambridge: Cambridge University Press, 1997.

Hoyle, F. «A new model for the expanding universe». Monthly Notices of the Royal Astronomical Society 108 (1948): 372-382.

Hubble, E. «A relation between distance and ra-dial velocity among extra-galactic nebulae». Proceedings of the National Academy of Sciences of the U.S.A. 15, (1929): 168-173.

— y M. L. Humanson. «The velocity-distance relation among extra-galactic nebulae». Astrophysical Journal 74 (1931): 43-80.

Hulse, R. A. y J. H. Taylor. «Discovery of a pulsar in a binary system». Astrophysical Journal 195 (1975): L51-L53.

Isham, Ch. J., R. Penrose y D. W. Sciama, (eds). Quantum Gravity. An Oxford Symposium. Oxford: Oxford University Press, 1975.

Kamerlingh Onnes, H. «Further experiments with liquid helium. C. On the change pf electric resistance of pure metals at very low temperature. IV. The resistance of pure mercury at helium temperatures». Communications from the Physical Laboratory at the University of Leiden N°. 120a (1911): 3-15.

Kapitza, P. «Viscosity of liquid helium above the ?-point». Nature 141 (1938): 74.

Landau, L. «On the theory of stars». Phys. Z. Sowjetunion 1 (1932): 285-287.

Lemaître, G. «Un univers homogène de masse

constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extra-galactiques». Annales de la Société Scientifique de Bruxelles 47 (1927): 49-59.

Linde, A. D. «A new inflationary universe scenario: a possible solution of the horizon, flatness, homogeneity, isotropy and primordial monopole problem». Physics Letters 108 D (1982): 383-393.

London, F. «The ?-point phenomenon of liquid helium and the Bose-Einstein degeneracy». Nature 141 (1938): 643-644.

Lorenz, E. N. «Deterministic non-periodic flows». Journal of Atmospheric Science 20 (1963): 130-141.

— La esencia del caos. Madrid: Debate, 1995 (edición original en inglés de 1993).

Maiman, Th. H. «Stimulated optical radiation in ruby». Nature 187 (1960): 493-494.

Mather, J. C. et al. «A preliminary measurement of the cosmic microwave background spectrum by the Cosmic Background Explorer (COBE) satellite». Astrophysical Journal 354 (1990): L-37-L40.

Mayor, M. y D. Queloz. «A Jupiter-mass companion to a solar-type star». Nature 378 (1995): 355-359.

Müller, K. A. y J. G. Bednorz. «The discovery of a class of high-temperature superconductivity». Science 237 (1987): 1133-1139.

Oppenheimer, J. R. y H. Snyder. «On continued gravitational contraction». Physical Review 56 (1939): 455-459.

— y G. Volkov. «On massive neutron cores». Physical Review 55 (1939): 374-381.

Penrose, R. «Gravitational collapse and space-time singularities». Physical Review Letters 14 (1965): 57-59.

Penzias, A. A. y R. W. Wilson. «A measurement of excess antenna temperature at 4080 Mc/s». Astrophysical Journal 142 (1965): 414-419.

Perlmutter, S. et al. «Discovery of a supernova explosion at half the age of the universe and its cosmological implications». Nature 391 (1998): 51-54.

Planck, M. «Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum». Verhandlungen der Deutschen Physikalischen Gesellschaft 2 (1900): 237-243.

Ryle, M. «Radio stars and their cosmological significance». The Observatory 75 (1955): 137-147.

Salam, A. «Weak and electromagnetic interactions», en Svartholm, ed. (1968).

Schawlow, A. y Ch. H. Townes. «Infrared and optical masers». Physical Review 112 (1958): 324-327.

— «A medium in which a condition of population inversion exists». U.S. Patent 2.929.922, 22 de marzo de 1960.

Schödinger, E. «Quantisierung als Eigenwertproblem. (Erste Mitteilung)». Annalen der Physik 79 (1926): 361-376.

Schmidt, B. et al. «High-Z supernova search: Measuring cosmic deceleration and global curvature of the universe using type Ia supernova». Astrophysical Journal 507 (1998): 46-63.

Schweber, S. «A historical perspective on the rise of the standard model». En Hoddeson, Brown, Riordan y Dresden, eds. (1997): 645-684.

Schwinger, J. S. «On radiative corrections to electron scattering». Physical Review 75 (1949): 898-899 (L).

Shockley, W. «Density of surface states on silicon deduced from contact potential measurements». Physical Review 72 (1947): 345.

— «Modulation of conductance of thin films of semiconductors by surface changes». Physical Review 74 (1948): 232-233.

Smolin, L. Las dudas de la física en el siglo XXI. Barcelona: Crítica, 2007 (edición original en inglés de 2006).

Smoot, G. et al. «Structure of the COBE differential microwave radiometer first year maps». Astrophysical Journal 396 (1992): L1-L5.

— y K. Davison. Arrugas en el tiempo. Barcelona: Círculo de Lectores, 1994 (edición original en inglés de 1993).

Sudarshan, E., C. George y R. E. Marshak. «The nature of the four-fermion interaction». Padua Conference on Mesons and Recently Discovered Particles. Padua, 1957: V14-24.

— «Chirality invariance and the universal Fermi interaction». Physical Review 109 (1958): 1.860-1.862.

Svartholm, N., ed. Elementary Particle Theory: Relativistic Groups and Analyticity. Estocolmo: Almqvist and Wilksell, 1968.

Taylor, J. H, L. A. Fowler y P. M. McCulloch. «Measurements of general relativistic effects in the binary pulsar PSR1913+16». Nature 277 (1979): 437-440.

Tisza, L. «Transport phenomena in helium II». Nature 141 (1938): 913.

Wagoner, R. V., W. A. Fowler y F. Hoyle. «On the synthesis of elements at very high temperatures». Astrophysical Journal 148 (1967): 3-49.

Walsh, D., R. F. Carswell y R. J. Weyman. «0957+561 {A}, {B}: twin quasistellar objects or gravitational lens?». Nature 279 (1979): 381.

Weinberg, S. «A model of leptons». Physics Review Letters 19 (1967): 1.264-1.266.

— The First Three Minutes: A Modern View of the Origin of the Universe. Nueva York: Basic Books, 1979.

Weizsäcker, C. F. von. «Über elementumwandlungen im inner der sterne, II». Physikalische Zeitschrift 39 (1938): 633-646.

Wheeler, J. A. y K. Ford. Geons, Black Holes and Quantum Foam. Nueva York: Norton, 1998.

Witten, E. «String theory dynamics in various dimensions». Nuclear Physics B 443 (1995): 85-126.

Wolszczan, A. y D. Frail. «A planetary system around the millisecond pulsar PSR1257+12». Nature 355 (1992): 145-147.

Yoshimura, M. «Unified gauge theories and the baryon number of the universe». Physical Review Letters 41 (1978): 281-284.

Zabusky, N. J. y M. D. Kruskal. «Interaction of “solitons” in a collisionless plasma and the recurrence of initial states». Physical Review Letters 15 (1965): 240-243.

Zweig, G. «An SU(3) model for strong interaction symmetry and its breaking». CERN Report

Notas

  1. Para poder construir un modelo de universo estático, Einstein tuvo que modificar las ecuaciones básicas de la elatividad general, incluyendo un término adicional, en el que aparecía una «constante cosmológica».
  2. Hoyle (1948), Bondi y Gold (1948).
  3. Fukuda, Miyamoto y Tomonaga (1949), Schwinger (1949) y Feynman (1949). Por sus trabajos los tres compartieron el Premio Nobel de Física en 1965.
  4. Hasta entonces se suponía que los núcleos atómicos estaban constituidos por protones (cargados positivamente) y electrones (cargados negativamente). ¿Cómo si no,se pensaba, podía explicarse la emisión de electrones (radiación beta) que tenía lugar en los procesos radiactivos? La desintegración beta terminaría siendo explicada utilizando una de las propiedades más llamativas de la física cuántica: la creación y aniquilación de partículas: los electrones no están en el núcleo, se crean en la desintegración beta.
  5. La relación entre temperaturas y longitudes de onda se puede obtener a partir de leyes como la de Stefan-Boltzmann, Wien o Planck. La relación entre grados celsius y kelvin viene definida por las relaciones siguientes: 0°C equivale a 273,15°K y 100°C a 373,15°K.
  6. En 1974 Hewish compartió el Premio Nobel de Física con Ryle. Jocelyn Bell, que había observado por primera vez los púlsares, fue dejada al margen.
  7. La posibilidad de que existieran estrellas de neutrones —especie de núcleos gigantes formados únicamente por neutrones y unidos por la fuerza de la gravedad— fue propuesta por primera vez en 1934 (esto es, sólo dos años después de que Chadwick descubriese el neutrón) por el físico y astrofísico suizo afincando en California (Caltech) Fritz Zwicky (1898-1974). La masa mínima para que pueda existir una estrella de neutrones es, según la relatividad general, 0,1 masas solares, mientras que el máximo parece encontrarse en torno a 6 masas solares. En el caso de una estrella de neutrones de 1 masa solar, su radio sería de unos 13 kilómetros y su densidad 2•1017 kg•m-3, alrededor de 2•1014 veces la densidad del agua.
  8. Como en otras ocasiones, Einstein (1936) ya había predicho la existencia de este fenómeno.
  9. 9. Hay que recordar que desde el punto de vista de la teoría de la relatividad general espacio-tiempo y gravedad representan el mismo concepto físico, en tanto que es la curvatura del primero la que describe la segunda.
  10. Véase, por ejemplo, Penrose (1965), Hawking (1965, 1966a, 1966b) y Hawking y Penrose (1969). Aunque no me detendré en este punto, sí quiero señalar que en esta empresa también participaron otros científicos, como G. F. R. Ellis.
  11. Semejante emisión conduciría a una lenta disminución de la masa del agujero negro. Si la disminución fuese continua, el agujero negro podría terminar desapareciendo. Sin embargo, para agujeros negros normales (de unas pocas masas solares), esto no sucedería. En el caso, por ejemplo, de un agujero negro de una masa solar, su temperatura sería menor que la de la radiación del fondo de microondas, lo que significa que agujeros negros de semejante masa absorberían radiación más rápidamente de la que emitirían; esto es, continuarían aumentando de masa. Sin embargo, si existiesen agujeros negros muy pequeños (formados, por ejemplo, en los primeros instantes del Universo, debido a las fluctuaciones de densidad que se debieron producir entonces), éstos tendrían una temperatura mucho mayor y radiarían más energía de la que absorberían. Perderían masa, lo que les haría todavía más calientes, estallando finalmente en una gran explosión de energía. Su vida sería tal que quizás podríamos observar tales explosiones ahora. No obstante, aún no han sido detectadas.
  12. Esta dificultad recibe el nombre de «problema del horizonte».
  13. Guth (1981), Linde (1982).
  14. En una transición de fase tiene lugar un cambio repentino en el estado del sistema en cuestión. Un ejemplo es cuando el agua (líquida) se convierte en hielo (sólido).
  15. Por sus trabajos ambos recibieron el Premio Nobel de Física de 2006.
  16. Hasta comienzos de la década de 1990 el tamaño de los espejos de los telescopios ópticos instalados en la Tierra más grandes era de entre 5 y 6 metros de diámetro. El mayor telescopio de entonces, con un espejo primario (o colector) de 6 metros de diámetro, estaba en el Cáucaso ruso. Venía después el telescopio del observatorio de Monte Palomar, inaugurado poco después de la Segunda Guerra Mundial, con un diámetro de 5 metros, y a continuación una larga serie de telescopios de en torno a 4 metros. En la actualidad se han completado o están en marcha una serie de proyectos de construcción de grandes telescopios que, por sus características y su aprovechamiento de las tecnologías más modernas, están permitiendo ya dar un importante salto cuantitativo —y en más de un sentido cualitativo también— en la investigación astrofísica. Se trata de telescopios de hasta 10 metros, como el que ya está en funcionamiento en Manua Kea, Hawai, propiedad del California Institute of Technology y de la Universidad de California, y otro que se está construyendo en el mismo lugar. Con el construido, el más grande del mundo, se observó, en el cúmulo de las Pléyades, una enana marrón (PPL15), una estrella tan pequeña que no luce como las demás, por lo que hasta entonces no habían sido vistas, aunque sí detectadas en algún caso a través de sus efectos gravitacionales. Otro instrumento de este tamaño es el Gran Telescopio del Instituto de Astrofísica de Canarias, instalado en el Roque de los Muchachos, que ya ha visto la primera luz.
  17. Estrictamente no fue Lawrence quien inició el camino de la física de partículas elementales utilizando fuentes no radiactivas, aunque sí quien dio con el procedimiento técnico más adecuado. Antes, en Cambridge, John D. Cockcroft (1897-1967) y Ernest T. S. Walton (1903-1995) utilizaron un multiplicador voltaico que les proporcionó los 500 kV (1 kV=1.000 voltios) que necesitaron para ser los primeros en observar, en 1932, la desintegración artificial de átomos de litio en dos partículas ?. Y hubo más precedentes, como los generadores desarrollados por Robert J. Van de Graaff (1901-1967).
  18. 1 GeV=1.000 millones de electrón-voltios. 1 electrón-voltio es la energía de movimiento que ganaría un electrón sometido a la diferencia de potencial de un voltio.
  19. Cada partícula tiene su antipartícula (aunque a veces coincidan): cuando una y otra se encuentran, desaparecen —se aniquilan— produciendo energía.
  20. Los hadrones pueden ser de dos tipos: bariones (protones, neutrones e hiperones) y mesones (partículas cuyas masas tienen valores entre la del electrón y la del protón).
  21. Es interesante también citar lo que Gell-Mann (1995, 198) ha señalado a propósito del nombre quark: «En 1963, cuando bauticé con el nombre de “quark” a los constituyentes elementales de los nucleones, partí de un sonido que no se escribía de esa forma, algo parecido a “cuorc”. Entonces, en una de mis lecturas ocasionales de Finnegans Wake, de James Joyce, descubrí la palabra “quark” en la frase “Tres quarks para Muster Mark”. Dado que “quark” (que se aplica más que nada al grito de una gaviota) estaba para rimar con “Mark”, tenía que buscar alguna excusa para pronunciarlo como “cuorc”. Pero el libro narra los sueños de un tabernero llamado Humphrey Chipden Earkwicker. Las palabras del texto suelen proceder simultáneamente de varias fuentes, como las “palabras híbridas” en A través del espejo, de Lewis Carroll. De vez en cuando aparecen frases parcialmente determinadas por la jerga de los bares. Razoné, por tanto, que tal vez una de las fuentes de la expresión “Tres quarks para Muster Mark” podría ser “Tres cuartos para Mister Mark” (cuarto en inglés es quart) en cuyo caso la pronunciación “cuorc” no estaría totalmente injustificada. En cualquier caso, el número tres encaja perfectamente con el número de quarks presentes en la naturaleza».
  22. Glashow (1960), Weinberg (1967), Salam (1968).
  23. Para entenderla la idea de cuanto de una interacción basta con pensar en el ya citado caso de la radiación electromagnética, que según la teoría clásica se propaga a través de campos (ondas), mientras que de acuerdo con la física cuántica lo hace mediante los corpúsculos (fotones), cuantos de energía h•? propuestos en 1905 por Einstein.
  24. No hay consenso acerca del porqué de la letra M. Unos opinan que es por Teoría Madre, otros Teoría del Misterio, Teoría de la Membrana o Teoría Matriz.
  25. Una magnífica y pionera exposición es la de Weinberg (1979).
  26. No he tenido ocasión de mencionarlo: los neutrinos, que durante mucho tiempo se supuso no tenían masa (como los fotones), sí la tienen. Éste es otro de los resultados importantes de la física de la segunda mitad del siglo xx.
  27. Por estos trabajos, Bethe recibió el Premio Nobel de Física de 1967.
  28. Fowler obtuvo el Premio Nobel de Física de 1983 por estos trabajos, compartido con Chandrasekhar. Es sorprendente que Hoyle, que inició muchos de estos trabajos, quedase al margen de la decisión de la Academia sueca.
  29. London (1938), Tisza (1938).
  30. El cero absoluto de temperatura (0°K) corresponde a –273,15°C. A esa temperatura, las moléculas no se mueven.
  31. Los tres compartieron el Premio Nobel de Física en 1972.
  32. Hasta entonces, el superconductor de temperatura más elevada era una aleación de niobio y germanio, que actuaba así a 23°K.
  33. Ver, asimismo, Müller y Bednorz (1987).
  34. Como su nombre indica, y aunque ciertamente no es una definición que en principio ilustre mucho, un semiconductor es un material que conduce la electricidad en un rango entre el que caracteriza a un metal y a un aislante. Habitualmente, la conductividad de los semiconductores puede ser mejorada añadiéndoles pequeñas impurezas o por otros factores, como en el caso del silicio, que es muy poco conductor a bajas temperaturas, aunque su conductividad aumenta si se aplica calor, luz o una diferencia de potencial (por ello el silicio se utiliza en transistores, rectificadores y circuitos integrados).
  35. Ver Shockley (1947, 1948) y Bardeen y Brattain (1948, 1949).
  36. Siegbahn lo recibió por sus aportaciones al desarrollo de la espectroscopía electrónica de alta resolución.
  37. De manera simbólica, se puede decir que la expresión de la linealidad es la ecuación A + A = 2A, mientras que en el mundo de la no linealidad, el universo en el que la reunión de dos seres genera, crea, nuevas propiedades, A+A ? 2A. De manera rigurosa, esto es, matemáticamente, la diferencia esencial entre un sistema lineal y otro no lineal es que mientras que dos soluciones de un sistema lineal se pueden sumar formando una nueva solución del sistema inicial («principio de superposición»), esto no es cierto en el caso de un sistema no lineal.
  38. De las grandes teorías de la física clásica, la más intrínsecamente no lineal es la teoría de la relatividad general (las ecuaciones del campo de esta teoría de la interacción gravitacional son no lineales).
  39. Esta conferencia no fue publicada en su momento; ha sido incluida en Lorenz (1995, 185-188).
Citar esta publicación
Escuchando
Mute
Cerrar

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada