En 1911, un científico británico llamado C. T. R. Wilson,1 estaba estudiando
formaciones de nubes y tenía que hacer excursiones periódicas a la cumbre de
Ben Nevis, una montaña escocesa famosa por su humedad. Un día pensó que tenía
que haber un medio más fácil de hacerlo. Así que, cuando regresó al Laboratorio
Cavendish de Cambridge, construyó una cámara de nubes artificiales, un
instrumento sencillo con el que podía enfriar y humedecer el aire, creando un
modelo razonable de una nube en condiciones de laboratorio.
El artilugio funcionaba muy bien, pero produjo además un beneficio inesperado.
Cuando aceleró una partícula alfa a través de la cámara para sembrar sus
supuestas nubes, la partícula dejó un rastro visible, como las estelas de condensación que deja un
avión al pasar. Acababa de inventar el detector de partículas. Este detector
aportó una prueba convincente de que las partículas subatómicas existían
realmente.
Luego otros dos científicos del Cavendish inventaron un instrumento de haz de
protones más potente, mientras que, en California, Ernest Lawrence fabricó en
Berkeley su famoso e impresionante ciclotrón o desintegrador de átomos, que fue
elemocionante nombre que se dio a estos aparatos durante mucho tiempo. Todos
estos artefactos funcionaban (y siguen haciéndolo) basándose más o menos en el
mismo principio, en la idea de acelerar un protón u otra partícula cargada
hasta una velocidad elevadísima a lo largo de una pista (unas veces circular,
otras lineal), hacerla chocar con otra partícula y ver qué sale volando. Por
eso los llamaron desintegradores de átomos. No era un procedimiento científico
muy sutil, pero resultaba en general efectivo.
Cuando los físicos construyeron máquinas mayores y más ambiciosas, empezaron a
descubrir o a postular partículas o familias de partículas aparentemente sin
fin: muones, piones, hiperones, mesones, mesones K, bosones Higgs, bosones
vectoriales intermedios, bariones, taquiones. Hasta los físicos empezaron a
sentirse un poco incómodos. «Joven –contestó Enrico Fermi a un estudiante que
le preguntó el nombre de una partícula concreta-, si yo fuese capaz de recordar
los nombres de esas partículas me habría hecho botánico.»
Hoy los aceleradores tienen nombres que parecen de cosas que podría usar Flash
Gordon en combate: el sincrotón superprotónico, la gran cámara de reacción
electrón-positrón, la gran cámara de reacción hadrónica, la cámara de reacción
relativista de iones pesados. Empleando enormes cantidades de energía -algunos
operan sólo de noche para que los habitantes de las poblaciones del entorno no
tengan que presenciar cómo se debilitan las luces de sus casas al ponerse en
marcha elaparato-, pueden acelerar partículas hasta un estado de agitación tal
que un solo electrón puede dar 47.000 vueltas a un túnel de siete kilómetros en
menos de un segundo. Se han despertado temores de que los científicos pudiesen
crear en su entusiasmo, e involuntariamente, un agujero negro o incluso algo
denominado «quarks extraños» que podría interactuar en teoría con otras
partículas subatómicas y propagarse incontrolablemente. Si estás leyendo esto
es que no ha sucedido.
Encontrar partículas exige cierta dosis de concentración. No sólo son pequeñas
y rápidas, sino que suelen ser también fastidiosamente evanescentes. Pueden
aflorar a la existencia y desaparecer de nuevo en un periodo tan breve como
0,000000000000000000000001 de segundo (10-24 segundos). Ni siquiera las más
torpes e inestables persisten más de 0,0000001 segundos (10-7 segundos).
Algunas partículas son casi ridículamente escurridizas. Cada segundo visitan la
Tierra 10.000 billones de billones de diminutos neutrinos que casi carecen de
masa -la mayoría disparados por los terribles calores nucleares del Sol- y
prácticamente todos atraviesan el planeta y todo lo que hay en él, incluidos tú
y yo, como si
no existiéramos. Para atrapar sólo unos
cuantos, los científicos necesitan depósitos que contengan hasta 57.000 metros
cúbicos de agua pesada (es decir, agua con una abundancia relativa de deuterio)
en cámaras subterráneas (normalmente antiguas minas) donde no pueden interferir
otras radiaciones.
Uno de esos neutrinosviajeros chocará de vez en cuando con uno de los núcleos
atómicos del
agua y producirá un soplito de energía. Los científicos cuentan estos soplitos
y, por ese medio, nos acercan más a una comprensión de las propiedades básicas del universo.
Observadores japoneses informaron en 1998 que los neutrinos tienen masa, aunque
no mucha… aproximadamente una diezmillonésima parte de la de un electrón.
Lo que hace falta hoy en realidad para encontrar partículas es dinero, y mucho.
Existe una curiosa relación inversa en la física moderna entre la pequeñez de
lo que se busca y la escala de los instrumentos necesarios para efectuar la
búsqueda. La CERN es como
una pequeña ciudad. Se extiende a ambos lados de la frontera francosuiza,
cuenta con tres mil empleados, ocupa un emplazamiento que se mide en kilómetros
cuadrados y se ufana de poseer una serie de imanes, que pesan más que la torre
Eiffel, y un túnel subterráneo circular de unos 26 kilómetros.
Desintegrar átomos, como
ha dicho James Trefil, es fácil; lo haces cada vez que enciendes una lámpara
fluorescente. Desintegrar núcleos atómicos requiere, sin embargo, muchísimo
dinero y un generoso suministro de electricidad. Descender hasta el nivel de
los quarks (las partículas que componen las partículas) requiere aún más:
billones de voltios de electricidad y el presupuesto de un pequeño estado
centroamericano. La nueva gran cámara hadrónica de la CERN, que está previsto
que empiece a funcionar en el año 2.005, dispondrá de 14 billones devoltios de
energía y su construcción costará unos 1.500 millones de dólares. (Todo este
costoso esfuerzo ha tenido consecuencias adicionales. La World Wide Web es un
vástago de la CERN. La inventó un científico de la CERN, Tim Berlers-Lee, en
1989. (N. del A.)
Pero esos números no son nada comparado con lo que podría haberse conseguido, y
lo que podría haberse gastado, con la inmensa supercámara de reacción
superconductora, condenada ya por desgracia a la inexistencia, que empezó a
construirse cerca de Waxahachie (Texas) en los años ochenta, antes de que
sufriese una supercolisión propia con el Congreso estadounidense. El propósito
de esa cámara de reacción era que los científicos pudiesen sondear «la naturaleza
básica de la materia», como se dice siempre, recreando con la mayor exactitud
posible las condiciones del universo durante sus primeras diezbillonésimas de
segundo. El plan consistía en lanzar partículas por un túnel de 84 kilómetros
de longitud, hasta conseguir 99 billones de voltios, algo verdaderamente
escalofriante. Era un proyecto grandioso, pero habría costado 8.000 millones de
dólares realizarlo (una cifra que acabó elevándose a 10.000 millones de
dólares) y cientos de millones de dólares al año mantenerlo en marcha.
El Congreso, tal vez en el mejor ejemplo de la historia de lo que es tirar el
dinero por un agujero, gastó 2…000 millones de dólares y luego canceló el
proyecto en 1993, después de haberse excavado ya 22 kilómetros de túnel. Así
que ahora Texas dispone delagujero más caro del universo. El lugar
es, según me ha dicho mi amigo Jeff Guinn, del Fort Worth
Star-Telegraph, «básicamente un enorme campo despejado salpicado a lo largo de
su circunferencia por una serie de poblaciones decepcionantemente pequeñas».
Desde el desastre de la supercámara de reacción, los físicos de partículas han
puesto sus miras en objetivos algo más humildes. Pero hasta los proyectos
relativamente modestos pueden resultar costosísimos si los comparamos, bueno,
casi con cualquier cosa. La construcción de un observatorio de neutrinos en la
antigua Mina Homestake de Lead (Dakota del Sur) costaría 500 millones -y se
trata de una mina que ya está excavada-antes de que se pudiesen calcular
siquiera los costes anuales de funcionamiento. Habría además 281 millones de
dólares de «costes generales de conversión». Por otra parte, readaptar un
acelerador de partículas en Fermilab (Illinois)
sólo cuesta 260 millones de dólares.
En suma, la física de partículas es una empresa enormemente cara. Pero también
es productiva. El número actual de partículas es de bastante más de 250, con
unas cien más, cuya existencia se sospecha. Pero desgraciadamente, según
Richard Feynman: «Es muy difícil entender las relaciones de todas esas
partículas, y para qué las quiere la naturaleza, o bien cuáles son las
conexiones que existen entre ellas». Cada vez que conseguimos abrir una caja,
nos encontramos indefectiblemente con que dentro hay otra. Hay quien piensa que
existen unas partículasllamadas taquiones, que pueden viajar a una velocidad
superior a la de la luz. Otros ansían hallar gravitones, que serían la sede de
la gravedad. No es fácil saber en qué momento llegamos al fondo irreductible.
Carl Sagan planteó en Cosmos la posibilidad de que, si viajases hacia abajo
hasta entrar en un electrón, podrías encontrarte con que contiene un universo
propio, lo que recuerda todos aquellos relatos de ciencia ficción de la década
de los cincuenta. «En su interior, organizados en el equivalente local de
galaxias y estructuras más pequeñas, hay un número inmenso de partículas
elementales mucho más pequeñas, que son a su vez universos del siguiente nivel, y así eternamente… una
regresión infinita hacia abajo, universos dentro de universos, interminablemente.
Y también hacia arriba.»
Para la mayoría de nosotros es un mundo que
sobrepasa lo comprensible. Incluso el simple hecho de leer hoy una guía
elemental de la física de partículas obliga a abrirse camino por espesuras
léxicas como ésta: «El pión cargado y el antipión se desintegran
respectivamente en un muón, más un antineutrino y un antimuón, más un neutrino
con una vida media de 2,603 x 10-8 segundos, el pión neutral se desintegra en
dos fotones con una vida media de aproximadamente 10,8 x 10-16 segundos, y el
muón y el antimuón se desintegran respectivamente en…» y así sucesivamente. Y
esto procede de un libro escrito para el lector medio, por uno de los
divulgadores (normalmente) más lúcidos, Steven Winberg.
En la década delos sesenta, en un intento de aportar un poco de sencillez a las
cosas, el físico del Instituto Tecnológico de California, Murray Gell- Mann
inventó una nueva clase de partículas, básicamente, según Steven Winberg, «para
reintroducir una cierta economía en la multitud de hadrones» un término
colectivo empleado por los físicos para los protones, los neutrones y otras
partículas gobernadas por la fuerza nuclear fuerte. La teoría de Gell- Mann era
que todos los hadrones estaban compuestos de partículas más pequeñas e incluso
más fundamentales. Su colega Richard Feynman quiso llamar a estas nuevas
partículas básicas partones,'como
en Dolly, pero no lo consiguió. En vez de eso, pasaron a conocerse como quarks.
Gell-Mann tomó el nombre de una frase de Finnegan's Wake: «Tres quarks para Muster
Mark» (algunos físicos riman la palabra con storks, no con larks aunque esta
última es casi con seguridad la pronunciación en la que pensaba Joyce). La
simplicidad básica de los quarks no tuvo larga vida. En cuanto empezaron a
entenderse mejor, fue necesario introducir subdivisiones. Aunque los quarks son
demasiado pequeños para tener color, sabor o cualquier otra característica
física que podamos identificar, se agruparon en seis categorías (arriba, abajo,
extraño, encanto, superior e inferior), a las que los físicos aluden
curiosamente como sus «aromas» y que se dividen a su vez en los colores rojo,
verde y azul. (Uno sospecha que no fue simple coincidencia que estos términos
se aplicaran por primeravez en California
en la época de la siquedelia.)
Finalmente, emergió de todo esto lo que se denomina Modelo Estándar, que es
esencialmente una especie de caja de piezas para el mundo subatómico. El Modelo
Estándar consiste es seis quarks, seis leptones, cinco bosones conocidos y un
sexto postulado, el bosón de Higgs (por el científico escocés Peter Higgs), más
tres de las cuatro fuerzas físicas: las fuerzas nucleares fuerte y débil y el
electromagnetismo.
Esta ordenación consiste básicamente en que entre los bloques de construcción
fundamentales de la materia figuran los quarks; éstos se mantienen unidos por
unas partículas denominadas gluones; y los quarks y los gluones unidos forman
protones y neutrones, el material del núcleo del átomo. Los lectones
son la fuente de electrones y neutrinos. Los quarks y los lectones unidos se
denominan fermiones. Los bosones (llamados así por el físico indio S. N. Bose) son partículas que producen
y portan fuerzas, e incluyen fotones y gluones. El bosón de Higgs puede existir
o no existir en realidad. Se inventó simplemente como un medio de dotar de masa a las
partículas.
Es todo, como
puedes ver, un poquito difícil de manejar, pero es el modelo más sencillo que
puede explicar todo lo que sucede en el mundo de las partículas. Casi todos los
físicos de partículas piensan, como
comentó Leon Lederman en un documental de televisión en 1985, que el Modelo
Estándar carece de elegancia y de sencillez. «Es demasiado complicado. Tiene
parámetrosdemasiado arbitrarios. No podemos imaginarnos en realidad al creador
jugueteando con zo teclas para establecer parámetros para crear el universo tal
como lo
conocemos», comentó. La física sólo es en verdad una búsqueda de la sencillez
básica, pero lo que tenemos hasta el momento es una especie de desorden
elegante… O, en palabras de Lederman: «Existe el sentimiento profundo de que el
cuadro no es bello».
El Modelo Estándar no sólo es incompleto y difícil de manejar. Por una parte,
no dice absolutamente nada sobre la gravedad. Busca cuanto quieras en el Modelo
Estándar y no encontrarás nada que explique por qué cuando dejas un sombrero en
una mesa no se eleva flotando hasta el techo. Ni puede explicar la masa, como ya hemos comentado
hace un momento. Para dar algo de masa a las
partículas tenemos que introducir ese hipotético bosón de Higgs. Si existe en
realidad o no es una cuestión que han de resolver los físicos en el sigloXIX. Como comentaba
despreocupadamente Feynman: «Estamos, pues, apegados a una teoría y no sabemos
si es verdadera o falsa, pero lo que sí sabemos es que es un poco errónea o, al
menos, incompleta».
Los físicos, en un intento de agruparlo todo, se han sacado de la manga algo
llamado la teoría de las supercuerdas, que postula que todas esas cositas, como
los quarks22 y los lectones, que habíamos considerado anteriormente partículas,
son en realidad «cuerdas», fibras vibrantes de energía que oscilan en 11
dimensiones, consistentes en las tres que ya conocemos, más eltiempo, y otras
siete dimensiones que son, bueno, incognoscibles para nosotros. Las cuerdas son
muy pequeñas… lo bastante pequeñas como
para pasar por partículas puntuales.
La teoría de las supercuerdas, al introducir dimensiones extra, permite a los
físicos unir leyes cuánticas y gravitatorias en un paquete relativamente limpio
y ordenado. Pero significa también que cualquier cosa que digan los científicos
sobre la teoría empieza a parecer inquietantemente como el tipo de ideas que te espantaría si te
la expusiese un conocido en el banco de un parque. He aquí, por ejemplo, al
físico Michio Kaku explicando la estructura del universo desde el punto de
vista de las supercuerdas:
La cuerda heterótica está formada por una cuerda cerrada que tiene dos tipos de
vibraciones, 24 una en el sentido de las agujas del reloj y, la otra, en el
sentido contrario, que se tratan de una forma diferente. Las vibraciones en el
sentido de las agujas del
reloj viven en un espacio decadimensional. Las que van en el sentido contrario
viven en un espacio de 26 dimensiones, 16 de las cuales han sido compactadas.
(Recordamos que, en el espacio de cinco dimensiones, la quinta estaba
compactada por hallarse agrupada en un círculo.)
La teoría de las cuerdas ha generado además una cosa llamada teoría M, que
incorpora superficies conocidas como membranas…
o simplemente branas, para las almas selectas del mundo de la física.
Me temo que esto es la parada en la autopista del conocimiento en la que la mayoría
denosotros debemos bajar. He aquí unas frases del New York Times explicándolo de la forma
más simple para el público en general:
El proceso ekpirótico se inicia en el pasado indefinido con un par de branas
planas y vacías, dispuestas entre sí en paralelo en un espacio alabeado de
cinco dimensiones… Las dos branas, que forman las paredes de la quinta
dimensión, podrían haber brotado de la nada como una fluctuación cuántica en un pasado
aún más lejano y haberse separado luego.
No hay discusión posible. Ni posibilidad de entenderlo. Ekpirótico, por cierto,
se deriva de la palabra griega que significa conflagración.
Las cosas han llegado a un extremo en física que, como comentaba en Nature Paul Davies, es
«casi imposible para los no científicos diferenciar entre lo legítimamente
extraño y la simple chifladura». La cosa llegó a un interesante punto álgido en
el otoño de 2002 cuando dos físicos franceses, los hermanos gemelos Igor y
Grichak Bogdanov, elaboraron una teoría de ambiciosa densidad que incluía
conceptos como «tiempo imaginario» y la «condición Kubo-Schwinger-Martin» y que
se planteaba describir la nada que era el universo antes de la Gran Explosión…
un periodo que se consideró siempre incognoscible (ya que precedía al
nacimiento de la física y de sus propiedades).
La teoría de los Bogdanov provocó casi inmediatamente un debate entre los
físicos respecto a si se trataba de una bobada, de una idea genial o de un
simple fraude. «Científicamente, está claro que se trata de undisparate más o
menos completo -comentó al New York Times el físico de la Universidad de
Columbia Peter Woid-, pero eso no la diferencia mucho de gran parte del resto de la literatura
científica que se expone últimamente».
Karl Popper, a quien Steven Weinberg ha llamado «el decano de los filósofos de
la ciencia modernos», dijo en cierta ocasión que puede que no haya en realidad
una teoría definitiva para la física, que cada explicación debe necesitar más
bien una explicación posterior, produciéndose con ello «una cadena infinita de
más y más principios fundamentales». Una posibilidad rival es que ese
conocimiento se halle
simplemente fuera de nuestro alcance. «Hasta ahora, por fortuna -escribe
Weinberg en El sueño de una teoría definitiva-, no parece que estemos llegando
al límite de nuestros recursos intelectuales.»
Seguramente este campo sea un sector en el que veremos posteriores avances del pensamiento; y serán pensamientos que quedarán casi
con seguridad fuera del
alcance de la mayoría.
Mientras los físicos de las décadas medias del siglo XX examinaban perplejos el mundo
de lo muy pequeño, los astrónomos se hallaban no menos fascinados ante su
incapacidad de comprender el universo en su conjunto.
La última vez que hablamos de Edwin Hubble, había decidido que casi todas las
galaxias de nuestro campo de visión se están alejando de nosotros y que la
velocidad y la distancia de ese retroceso son perfectamente proporcionales: cuanto
más lejos está la galaxia, más deprisa se aleja.Hubble se dio cuenta de que
esto se podía expresar con una simple ecuación, Ho = v/d (donde Ho es una
constante, ves la velocidad recesional de una galaxia en fuga y d la distancia
que nos separa de ella). Ho ha pasado a conocerse desde entonces como la constante de Hubble y, el conjunto, como la Ley de Hubble.
Valiéndose de su fórmula, Hubble calculó que el universo tenía unos dos mil
millones de años de antigüedad, lo que resultaba un poco embarazoso porque
incluso a finales los años veinte estaba cada vez más claro que había muchas
cosas en el universo (incluida probablemente la propia Tierra) que eran más
viejas. Precisar más esa cifra ha sido desde entonces una preocupación
constante de la cosmología.
Casi la única cosa constante de la constante de Hubble ha sido el gran
desacuerdo sobre el valor que se le puede asignar. Los astrónomos descubrieron
en 1956 que las cefeidas variables eran más variables de lo que ellos habían
pensado; había dos variedades, no una. Esto les permitió corregir sus cálculos
y obtener una nueva edad del
universo de entre siete mil y veinte mil millones de años… una cifra no
demasiado precisa, pero lo suficientemente grande al menos para abarcar la
formación de la Tierra.
En los años siguientes surgió una polémica, que se prolongaría
interminablemente, entre Allan Sandage, heredero de Hubble en Monte Wil son, y
Gérard de Vaucouleurs, un astrónomo de origen francés con base en la
Universidad de Texas. Sandage, después de años de cálculos meticulosos, llegóa
un valor para la constante de Hubble de 50, lo que daba una edad para el
universo de 20.000 millones de años. De Vaucouleurs, por su parte, estaba
seguro de que el valor de la constante de Hubble era 100. (Tienes derecho a preguntarte,
claro está, qué es lo que quiere decir exactamente «una constante de 50» o «una
constante de 100». La respuesta está en las unidades astronómicas de medición.
Los astrónomos no utilizan nunca, salvo en lenguaje coloquial, los años luz.
Utilizan una distancia llamada el parsec (una contracción de paralaje y
segundo), basada en una medida universal denominada paralaje estelar y que
equivale a 3,26 años luz. Las mediciones realmente grandes, como
la del tamaño
de un universo, se expresan en megaparsecs: 1 megaparsec millón de parsecs. La
constante se expresa en kilómetros por segundo por megaparsec. Así que, cuando
los astrónomos hablan de una constante Hubble de 50 , lo que en realidad
quieren decir es «50 kilómetros por segundo por megaparsec». Se trata, sin
duda, de una medida que para nosotros no significa absolutamente nada; pero
bueno, en la mayoría de las mediciones astronómicas las distancias son tan
inmensas que no significan absolutamente nada. (N. del A.). Esto significaba
que el universo sólo tenía la mitad del
tamaño y de la antigüedad que creía Sandage (diez mil millones de años). Las
cosas dieron un nuevo bandazo hacia la incertidumbre cuando un equipo de los
Observatorios Carnegie de California aseguraron, en 1994, basándose en mediciones
delTelescopio Espacial Hubble, que el universo podía tener sólo ocho mil
millones de años de antigüedad… una edad que aceptaban que era inferior a la de
algunas de las estrellas que contenía. En febrero de 2003, un equipo de la NASA
y el Centro de Vuelos Espaciales Goddard de Maryland, utilizando un nuevo tipo
de satélite de largo alcance llamado la Sonda Anisotrópica Microndular
Wilkinson, proclamó con cierta seguridad que la edad del universo es 13.700
millones de años, cien millones de años arriba o abajo. Así están las cosas, al
menos por el momento.
Que sea tan difícil hacer un cálculo definitivo se debe a que suele haber un
margen muy amplio para la interpretación. Imagina que estás en pleno campo de
noche e intentas determinar a qué distancia están de ti dos luces eléctricas
alejadas. Utilizando instrumentos bastante sencillos de astronomía puedes
calcular sin mucho problema que las bombillas tienen el mismo brillo y que una
está, por ejemplo, un 50% más alejada que la otra. Pero de lo que no puedes
estar seguro es de si la luz más cercana es, por ejemplo, de una bombilla de 58
vatios que está a 37 metros de distancia o de una de 61 vatios que está a 36,5
metros de distancia. Amén de eso, debes tener en cuenta las perturbaciones
causadas por variaciones en la atmósfera de la Tierra, por polvo
intergaláctico, por luz estelar contaminante de fondo y muchos otros factores.
El resultado final es que tus cálculos se basan inevitablemente en una serie de
supuestos interdependientes,cualquiera de los cuales puede ser motivo de
discusión. Además está el problema de que el acceso a telescopios es siempre
difícil y medir las desviaciones hacia el rojo ha sido muy costoso
históricamente en tiempo de telescopio. Podría llevar toda una noche conseguir
una sola exposición. En consecuencia, los astrónomos se han visto impulsados (o
han estado dispuestos) a basar conclusiones en pruebas bastante endebles. Como ha dicho el
periodista Geoffrey Carr, en cosmología tenemos «una montaña de teoría
edificada sobre una topera de pruebas». O como
ha dicho Martin Rees: «Nuestra satisfacción actual [con los conocimientos de
que disponemos] puede deberse a la escasez de datos más que a la excelencia de
la teoría».
Esta incertidumbre afecta, por cierto, a cosas relativamente próximas tanto como a los bordes lejanos del universo. Como dice Donald Goldsmith,
cuando los astrónomos dicen que la galaxia M8 está a sesenta millones de años
luz de distancia, lo que en realidad quieren decir -«pero lo que no suelen
resaltar para el público en general»- es que está a una distancia de entre
cuarenta y noventa millones de años luz de nosotros… y no es exactamente lo
mismo. Para el universo en su conjunto, esto, como es natural, se amplía. Pese al éxito
clamoroso de las últimas declaraciones, estamos muy lejos de la unanimidad.
Una interesante teoría, propuesta recientemente, es la de que el universo no es
ni mucho menos tan grande como
creíamos; que, cuando miramos a lo lejos, alguna de lasgalaxias que vemos
pueden ser simplemente reflejos, imágenes fantasmales creadas por luz rebotada.
Lo cierto es que hay mucho, incluso a nivel básico, que no sabemos… por
ejemplo, nada menos que de qué está hecho el universo. Cuando los científicos
calculan la cantidad de materia necesaria para mantener unidas las cosas,
siempre se quedan desesperadamente cortos. Parece ser que un 90% del universo,
como mínimo, y puede que hasta el 99%, está compuesto por la «materia oscura»
de Fritz Zwicky… algo que es, por su propia naturaleza, invisible para
nosotros. Resulta un tanto fastidioso pensar que vivimos en un universo que en
su mayor parte no podemos ni siquiera ver, pero ahí estamos.
Por lo menos los nombres de los dos principales culpables posibles son
divertidos: se dice que son bien WIMP (Weakly Interacting Massive Particles, o
grandes partículas que interactúan débilmente, que equivale a decir manchitas
de materia invisible que son restos de la Gran Explosión) o MACHO (Massive
Compact Halo Objects, objetos con halo compactos masivos, otro nombre en realidad
para los agujeros negros, las enanas marrones y otras estrellas muy tenues).
Los físicos de partículas han tendido a inclinarse por la explicación basada en
las partículas, las WIMP, los astrofísicos por la estelar de los MACHO. Estos
últimos llevaron la voz cantante durante un tiempo, pero no se localizaron ni
mucho
menos los suficientes, así que la balanza acabó inclinándose por las WIMP… con
el problema de que nunca se habíalocalizado ni una sola. Dado que interactúan
débilmente, son -suponiendo que existan- muy difíciles de identificar. Los
rayos cósmicos provocaban demasiadas interferencias. Así que los científicos
deben descender mucho bajo tierra. A un
kilómetro de profundidad, los bombardeos cósmicos serían una millonésima de lo
que serían en la superficie. Pero incluso en el caso de que se añadieran todas
ellas, «dos tercios del universo no figuran
aún en el balance» como
ha dicho un comentarista. De momento podríamos muy bien llamarlas DUNNOS (de
Dark Unknown Nonreflective Nondetectable Objects Somewhere, objetos oscuros
desconocidos no reflectantes e indetectables situados en alguna parte).
Pruebas recientes indican no sólo que las galaxias del universo están huyendo de nosotros, sino
que lo están haciendo a una tasa que se acelera. Esto contradice todas las
expectativas. Además, parece que el universo puede estar lleno no sólo de
materia oscura, sino de energía oscura. Los científicos le llaman a veces
también energía del
vacío o quintaesencia. Sea lo que sea, parece estar pilotando una expansión que
nadie es capaz de explicar del
todo. La teoría es que el espacio vacío no está ni mucho menos tan vacío, que
hay partículas de materia y antimateria que afloran a la existencia y
desaparecen de nuevo, y que esas partículas están empujando el universo hacia
fuera a un ritmo acelerado. Aunque resulte bastante inverosímil, lo único que
resuelve todo esto es la constante cosmológica de Einstein…, elpequeño añadido
matemático que introdujo en la Teoría General de la Relatividad para detener la
presunta expansión del universo y que él calificó como «la mayor metedura de
pata de mi vida». Ahora parece que, después de todo, puede que hiciese bien las
cosas.
Lo que resulta de todo esto es que vivimos en un universo cuya edad no podemos
calcular del
todo, rodeados de estrellas cuya distancia de nosotros y entre ellas no podemos
conocer, lleno de materia que no somos capaces de identificar, que opera según
leyes físicas cuyas propiedades no entendemos en realidad…
Y, con ese comentario bastante inquietante, regresemos al planeta Tierra y
consideremos algo que sí entendemos…, aunque tal vez a estas alturas no te
sorprenda saber que no lo comprendemos del
todo y que, lo que entendemos, hemos estado mucho tiempo sin entenderlo.