Indispensable constante cosmológica

Desde 1927 y el artículo fundacional de la moderna cosmología relativista del astrónomo y canónigo belga Georges Lemaître, la teoría y las observaciones han coincidido en demostrar que el Universo está en expansión, considerando la mayoría de los astrónomos que esta expansión, bajo la influencia de la gravedad, debería evolucionar frenándose. Así que con confianza, a partir de los datos recogidos por los grandes telescopios, dos equipos independientes dirigidos por Saul Perlmutter, Brian Schmidt y Adam Riess se propusieron cartografiar el Universo, pensando que medirían con una precisión sin precedentes los signos de esta ralentización.

Para su sorpresa, descubrieron que, si bien la expansión del Universo se frenó efectivamente en los primeros miles de millones de años por la gravedad, se aceleró después de 7.000 millones de años. La explicación más natural para tal aceleración es invocar la existencia de una fuerza repulsiva a gran escala, capaz de contrarrestar la fuerza de atracción de las masas celestes: se trata de la «energía oscura».

El descubrimiento, confirmado desde entonces por otros métodos, hará que los astrónomos reciban el Premio Nobel de Física 2011. Pero la publicación de los resultados, en 1998, ya dio lugar al habitual revuelo en la prensa sobre el modelo de : «Nuestro modelo del Universo se pone en duda. «El Foro Económico de Davos incluso dedicó una sesión al tema en enero de 2000, ante un público que no entendía nada. Invitado como ponente junto a dos cosmólogos estadounidenses, traté de atemperar el revuelo mediático explicando que la aceleración de la expansión cósmica no exigía necesariamente un replanteamiento de los modelos generales del Big Bang. Creo que no tuve éxito: no era obvio, ante un público que esperaba una primicia, explicar que un físico belga, el mismo Georges Lemaître mencionado anteriormente, en francés y con sesenta años de antelación, ya había dado todos los entresijos de la repulsión cósmica invocando una constante cosmológica.

De hecho, este término que aparece ya en 1917 en las ecuaciones originales de Einstein en forma de la letra griega λ fue posteriormente abandonado por la corriente principal de la cosmología anglosajona. Sin embargo, explica con toda naturalidad y elegancia el fenómeno de la repulsión cósmica sin implicar ningún misterio en particular. El caso merece más detalles, y las recurrentes objeciones a la identificación de la energía oscura con la constante cosmológica alguna aclaración.

¿La mayor metedura de pata de Einstein?

En 1917, Albert Einstein quiso, lógicamente, utilizar su nueva teoría de la relatividad general para describir la estructura del universo en su conjunto. La opinión predominante en aquella época era que el Universo debía ser estático, es decir, invariable en el tiempo. Einstein esperaba que su teoría apoyara este punto de vista. Este no fue el caso. El modelo de Universo que desarrolló por primera vez no tiene un radio de curvatura constante: la inexorable fuerza de atracción de la gravedad, que actúa sobre cada cuerpo celeste, tiende a desestabilizarlo y a hacerlo colapsar sobre sí mismo. Sin embargo, nuestro Universo no se colapsa.

Para Einstein, el único remedio para este problema es añadir un término ad hoc pero matemáticamente consistente a sus ecuaciones originales. Esta adición corresponde a una especie de «antigravedad», que actúa como una fuerza repulsiva que sólo se siente a escala cósmica. Gracias a este truco matemático, el modelo de Einstein sigue siendo permanente e inmutable. Einstein representa este término con la letra griega Λ y lo llama «constante cosmológica». En efecto, es una constante, ya que debe mantener exactamente el mismo valor en el espacio y en el tiempo. Formalmente, puede tomar cualquier valor a priori, pero el seleccionado por Einstein da como resultado un modelo de Universo estático.

En ese mismo año, el astrofísico holandés Willem de Sitter construyó otro modelo de Universo relativista estático, muy diferente al de Einstein (supone que la densidad de la materia permanece nula a lo largo del tiempo), pero que también incluye una constante cosmológica, cuyo efecto aquí es inducir, en ausencia de materia y por tanto de gravedad, una curvatura del espacio-tiempo. El papel de la constante se ilumina entonces bajo una nueva luz. En el modelo de Sitter, las líneas del Universo (las trayectorias espacio-temporales) seguidas por las galaxias se separan rápidamente unas de otras en el transcurso del tiempo, como si el espacio estuviera en dilatación general: esto significa que, en ausencia de materia, la constante cosmológica tiene una influencia definitiva en la estructura del Universo. A ojos de Einstein, sin embargo, la solución de Sitter se reduce a una mera curiosidad matemática, en la medida en que el Universo real sí contiene materia.

Un primer avance se produjo en 1922, cuando el matemático ruso Alexander Friedmann estudió modelos cosmológicos relativistas sin prejuzgar el carácter estático del Universo. Descubrió soluciones simples y exactas haciendo de los modelos estáticos de Einstein y Sitter casos muy especiales de soluciones más generales, que son dinámicas.

Poco después, las observaciones astronómicas realizadas en Estados Unidos por Vesto Slipher y plasmadas en 1929 por Edwin Hubble (que se llevaría él solo toda la gloria) confirmaron que, efectivamente, las galaxias tienden a separarse con el tiempo. Paralelamente, el teórico británico Arthur Eddington reexaminó el modelo estático de Einstein y demostró que, como una pluma en su punta, es inestable: a la menor perturbación, debería entrar en expansión o en contracción.

Estos nuevos hechos coincidieron en hacer admitir que el modelo cosmológico de Einstein no es un buen modelo del Universo y, concomitantemente, en cuestionar la constante cosmológica. Dado que ya no cumple su función principal, es decir, estabilizar el radio del Universo, ¿qué sentido tiene mantenerlo? Einstein fue el primero en hacer autocrítica. Tras algunas reticencias, finalmente admitió la relevancia de las soluciones dinámicas de Friedmann y en la nueva solución que elaboró en 1932 con de Sitter, ¡la constante cosmológica desapareció!

El hombre que dijo no

A primera vista, el debate parece cerrado. Sin embargo, un hombre no está de acuerdo. Su nombre es Georges Lemaître. Comenzó sus investigaciones cosmológicas en 1925 y comprendió el papel dinámico que desempeña la constante cosmológica en el modelo de Sitter. En 1927, encontró las soluciones más generales descubiertas por Friedmann e hizo por primera vez el vínculo entre la expansión del espacio y el aparente vuelo de las galaxias. Es el verdadero padre de la cosmología moderna y de los famosos modelos del Big Bang.

universo estático, modelos de einstein y lemaitre'univers statique, d'einstein et de lemaitre

En el modelo de universo estático (a) ideado por Albert Einstein, la introducción de una constante cosmológica contrarresta la tendencia al colapso debido a la gravedad. Georges Lemaître desarrolló otros modelos dinámicos. En el modelo de 1927, conocido como «universo en expansión eterna» (b), la constante cosmológica genera una fuerza de repulsión que acelera la expansión. El principio se traslada al pasado de forma infinita, donde se conecta con el modelo estático de Einstein. En el modelo del Universo vacilante (c), que data de 1931, el Universo tiene un comienzo, el Big Bang, y luego pasa por una fase en la que su expansión se ve frenada por la gravitación. Tras una fase de cuasi-equilibrio, la constante cosmológica toma el relevo: la expansión se acelera.

Para Lemaître, la constante cosmológica es un ingrediente esencial de la teoría relativista, una necesidad tanto lógica como observacional. Desarrolla un argumento premonitorio en tres puntos. En primer lugar, la constante cosmológica es necesaria para obtener una escala temporal evolutiva mucho mayor que la duración de las edades geológicas. En segundo lugar, la inestabilidad del equilibrio entre la atracción gravitatoria y la repulsión cósmica es una forma de entender cómo pudieron formarse las estrellas y las galaxias durante un lapso de tiempo de unos mil millones de años después del Big Bang. Por último, la energía contenida en el Universo sólo está definida a una constante aditiva, porque la relatividad general no proporciona un método para ajustar un cambio arbitrario en el nivel cero de energía. Según Lemaître, la constante cosmológica permite realizar este ajuste. Ya en 1934 previó, pues, el vínculo entre la constante cosmológica y la mecánica cuántica.

A los ojos de Lemaître, la constante cosmológica está así adornada con todas las virtudes. Sin embargo, nunca consiguió convencer a Einstein, que llegó a decir que con la introducción de la constante cosmológica había cometido la mayor metedura de pata de su vida.

Esta curiosa afirmación se interpreta a menudo por el hecho de que el padre de la relatividad general se habría sentido descontento por haber estropeado la belleza de su teoría introduciendo un término superfluo. Esto no es cierto, porque ya en 1916 Einstein había previsto la existencia de este término fuera del contexto cosmológico. En una nota a pie de página, señaló que sus ecuaciones del campo gravitatorio no eran las más generales posibles y que había un término adicional compatible con la estructura de su teoría. Además, el matemático francés Élie Cartan demostró en 1922 que la forma más general de las ecuaciones de la relatividad general debe incluir necesariamente una constante de integración idéntica a la constante cosmológica, y Einstein conocía este resultado. No, el verdadero error de Einstein fue dar al término cosmológico un valor muy particular para obligar a su modelo del Universo a permanecer estático. Al hacerlo, se perdió el descubrimiento más importante de la cosmología del siglo XX: la expansión del Universo. Einstein era muy consciente de ello, y se puede interpretar su sorprendente decisión de abandonar toda investigación en cosmología a partir de 1933 como la consecuencia de una autoestima herida.

Aún así, la desautorización del padre de la relatividad tendrá mucho peso, y el resto de la comunidad de cosmólogos le seguirá: a pesar de los poderosos argumentos de Lemaître a su favor, la constante cosmológica seguirá en el armario durante sesenta años, sobre todo porque antes de 1998 ninguna observación astronómica directa ha venido a apoyar su existencia.

Las virtudes del vacío

La idea de la constante cosmológica también sufrió su interpretación en términos de energía del vacío. En 1934, en una época en la que la teoría cuántica estaba aún en pañales, Lemaître fue el primero en tener en cuenta la energía del vacío y en asociarle una presión negativa para interpretar la constante cosmológica. Pero su contribución quedaría completamente ignorada.

No fue hasta finales de la década de 1940, cuando la mayoría de los astrónomos rechazaron la idea de una constante cosmológica, que los físicos teóricos comenzaron a explorar las propiedades del vacío. Empezaron a comprender que la noción de espacio vacío era más sutil de lo que habían pensado. El espacio no es un receptáculo pasivo lleno de materia y radiación, es una entidad física y dinámica que tiene «carne». Y esta carne es la energía del vacío. Físicos como Paul Dirac, Enrico Fermi y Richard Feynman plantean la hipótesis de que lo que llamamos «espacio vacío» está, en virtud del principio de Heisenberg, lleno de «partículas virtuales», que se manifiestan como realidad material sólo efímeramente. El vacío cuántico actúa como un banco del que se puede tomar prestada energía para crear una partícula y una antipartícula (de modo que sean inobservables) durante un tiempo muy breve. La cantidad de energía que se puede tomar prestada es inversamente proporcional a la duración del préstamo.

Las fluctuaciones cuánticas en el vacío electromagnético tienen incluso manifestaciones macroscópicas, predichas en 1948 por el físico holandés Hendrik Casimir, que demostró que inducían una fuerza de atracción entre dos placas conductoras paralelas.

Efecto Casimir

Dos superficies perfectamente conductoras separadas por el vacío se atraen. Este «efecto Casimir» resulta de las fluctuaciones cuánticas espontáneas del campo electromagnético en el vacío.

Así que el vacío no es la nada, está potencialmente lleno de energía. Aplicando este concepto a la cosmología, el ruso Yakov Zeldovich volvió a demostrar en 1967, sin haber leído nunca a Lemaître, que el término Λ equivale a un campo de energía latente en el espacio vacío. La constante cosmológica es, en cierto sentido, una «dinamita» del vacío.

Basándose en estos conocimientos teóricos, los cosmólogos Alan Guth y Andrei Linde propusieron en 1979 que la energía del vacío provocó una fase de «inflación» en el Universo muy primordial: durante un periodo de tiempo muy corto, entre 10-36 y 10-34 segundos después del Big Bang, nuestro Universo habría experimentado un crecimiento exponencial, habiéndose acelerado fuertemente su expansión durante este periodo.

Los modelos de inflación fueron aceptados con bastante rapidez, pero los astrónomos siguieron ignorando la constante cosmológica por considerarla inadecuada para describir el Universo actual. Sólo el cosmólogo de origen canadiense James Peebles, galardonado con el Premio Nobel 2019, propone a principios de los años 80 la reintroducción de la constante cosmológica en los modelos del Big Bang. En efecto, el desarrollo de la teoría de la inflación implica que la geometría del espacio observable debe estar muy cerca de una geometría de curvatura cero. Sin embargo, no hay suficiente materia en el Universo para lograr tal geometría. Por ello, Peebles invoca un valor elevado de la constante cosmológica para compensar el déficit.

Los errores de cálculo de la energía del vacío

Los físicos que trabajan en el concepto de energía del vacío tienen en mente un proyecto más grande: la unificación de las interacciones fundamentales. Para ello, se ven obligados a añadir a sus ecuaciones términos que representan campos naturales totalmente nuevos. El concepto de campo fue inventado en el siglo XIX por los matemáticos para expresar cómo puede variar una determinada cantidad de un punto a otro del espacio. Los físicos adoptaron inmediatamente esta idea para describir cuantitativamente cómo las fuerzas, como la gravedad y el electromagnetismo, cambian con la distancia desde una fuente. Por ejemplo, el campo de Higgs, cuyo bosón mediador fue demostrado experimentalmente en el Cern en 2012, deriva de la teoría electrodébil introducida por Sheldon Glashow, Abdus Salam y Steven Weinberg para unificar las interacciones electromagnética y nuclear débil.

Bosón de Higgs

El bosón de Higgs fue descubierto en 2012 en el Cern por el detector Atlas. Aquí lo delata su descomposición en cuatro partículas (los haces azul y rojo). Media un campo cuántico (el campo de Higgs) que constriñe el valor energético del vacío, posible causa de la expansión acelerada del Universo.

© Cern/Atlas

Pero la introducción de nuevos campos cuánticos tiene un precio: dan al estado de vacío una enorme energía latente, que se comporta exactamente como la constante λ de los modelos cosmológicos. Como había profetizado Lemaître, este controvertido término ha sido resucitado brillantemente por la teoría cuántica. Sólo queda calcular su valor en el marco del modelo estándar de la física de partículas. ¡Y ahí, la catástrofe! Son posibles varias formas de cálculo, pero el valor obtenido en la mayoría de los casos es 10122 veces mayor que el prescrito por la observación astronómica, una brecha tan asombrosa, descrita como «la peor predicción de toda la física», que nuestra mente tiene dificultades para comprenderla. Con una energía de vacío tan grande, toda la materia del Universo se dispersaría instantáneamente, y las galaxias nunca se habrían formado.

Es concebible que sea desagradable, a los ojos de los físicos teóricos, que sus mejores modelos de unificación, que se supone que hacen predicciones ultraprecisas en el ámbito de las partículas elementales, conduzcan a una consecuencia cosmológica tan aberrante. Este es un ejemplo extremo del problema básico que aqueja al modelo estándar de la física de partículas: no podemos entender por qué la treintena de parámetros libres de los que depende para escribir las leyes de la física tienen tales y tales valores.

Por lo que respecta a la constante cosmológica, los físicos han intentado por todos los medios reducir la brecha inventando teorías «más allá del modelo estándar». La más estudiada es la supersimetría (Susy), llamada así porque asume la simetría entre los fermiones (partículas que componen la materia) y los bosones (que llevan las interacciones). Pero no hubo suerte, fracasó por completo en la resolución del problema.

Para salvar el día, los físicos de alta energía imaginaron entonces que la constante cosmológica podría no ser realmente constante. Por ejemplo, Robert Caldwell y sus colaboradores propusieron en 1998 la existencia de una nueva entidad que impregnaría completamente el espacio, de forma muy parecida al éter de Aristóteles, un quinto elemento llamado «quintaesencia». El término ha sido adoptado por los investigadores para aplicarlo a este hipotético nuevo campo energético. Este campo, que se dice que varía con excesiva lentitud, puede seguir representándose en los modelos del universo mediante el término cosmológico, que entonces deja de definirse como una constante. Todavía puede interpretarse como lo que queda en el Universo cuando se elimina toda la materia y la radiación. En este sentido, la quintaesencia corresponde a una cierta forma de vacío, pero más flexible que la constante cosmológica porque varía con el tiempo. El valor de este campo, extremadamente alto en el Universo muy primordial (de acuerdo, por tanto, con los cálculos de los físicos de alta energía), caería muy bajo en el curso de la evolución cósmica, en línea con el valor medido ahora por los astrónomos.

Otro enfoque es el de la teoría de cuerdas, una extensión de la supersimetría que pretende incluir una descripción de la gravedad. Una de sus propuestas más sorprendentes se refiere al multiverso. Sus más fervientes (y publicitados) defensores, como Leonard Susskind, Brian Greene y Max Tegmark, pretenden convertir un fracaso explicativo en un extravagante juego de manos: si no entendemos los valores que toman las constantes fundamentales en nuestro Universo, basta con suponer que nuestro Universo pertenece a un conjunto cuasi-infinito e inobservable de Universos, cada uno de los cuales está provisto de parámetros distribuidos al azar. En el «paisaje» del multiverso, la constante cosmológica es extraordinariamente grande en la mayoría de los casos, pero seguro que hay un Universo muy improbable en el que es estrictamente cero, otro igualmente improbable en el que tiene el «valor correcto» -el de nuestro Universo, por supuesto-.

La teoría M, una extensión de la teoría de cuerdas propuesta por Edward Witten, promete aún más. Según sus defensores, en el mundo multidimensional «brana» derivado de la teoría, la energía oscura medida en nuestro Universo de cuerdas podría ser importada de las dimensiones extra de la «matriz» en la que estaríamos inmersos. Otros investigadores ven el origen de la repulsión cósmica en las posibles interacciones entre las branas, lo que equivale a eliminar toda la energía oscura. Esto no arroja ninguna luz sobre el problema, si recordamos que la teoría M es mucho más misteriosa que la energía oscura, que al menos tiene efectos observables sobre la tasa de expansión cósmica!

Como podemos ver, ninguna de estas nuevas teorías, por fascinantes que sean, resuelve las dificultades mejor que sus anteriores versiones de menor energía. Al igual que ellos, los hace retroceder cada vez un poco más, alejando aún más la fantasía que suscitan: la de una física totalmente unificada que estaría próxima a su culminación.

En este punto, cabe preguntarse si el descubrimiento de la aceleración cósmica debía conducir necesariamente a tantas contorsiones teóricas. Por un lado, se puede pensar que se necesita más imaginación y creatividad para sacar a la física teórica de lo que se cree que es un callejón sin salida. Por otro, cabe preguntarse si precisamente la física actual no adolece de un exceso de imaginación frente al déficit de datos experimentales.

Y entre estas dos posturas, recordemos que el fenómeno de la aceleración cósmica puede describirse simplemente con la constante cosmológica clásica de las ecuaciones de Einstein, sin apelar a una nueva física. Sin embargo, que sea la explicación más sencilla no significa que sea la correcta. Entonces, si no es la constante cosmológica asociada al vacío cuántico la que provoca la aceleración observada de la expansión cósmica, ¿cuál es la causa? El problema que se plantea es el de la compatibilidad entre la descripción clásica del espacio, el tiempo y la gravitación y la descripción cuántica de la materia: la naturaleza aún misteriosa de la energía oscura sugiere que falta algo esencial en nuestra comprensión del universo físico. Como tal, su elucidación puede servir de guía sobre cómo desarrollar una buena teoría de la gravitación cuántica.

Rastreando la energía oscura

¿Podemos entonces imaginar montajes experimentales que puedan restringir mejor los distintos modelos de energía oscura? Esta última se caracteriza por una presión negativa. Esta última es, de hecho, equivalente a la tensión, al igual que los objetos elásticos, los muelles y las láminas de caucho, también tienen, cuando se estiran, una presión negativa dirigida hacia el interior.

Se demuestra que, cuando la presión es inferior a un tercio de la densidad de energía, la fuerza gravitatoria cambia de signo y se convierte en repulsiva. El parámetro clave es la ecuación de estado, que hace explícita la relación entre la presión p de la energía oscura y su densidad energética ρ como p = w ρ c2, donde w es un parámetro que depende de la naturaleza de la energía. Para obtener una energía repulsiva, w debe ser negativo y menor que – 1/3.

Como había visto Lemaître ya en 1934, la constante cosmológica o el vacío cuántico se caracterizan por w = – 1, por lo que son fuertemente repulsivos. Otras formas de energía oscura, como los modelos de quintaesencia, tienen w entre – 1 y – 1/3. La forma más extrema de energía repulsiva, conocida como «energía fantasma», se caracteriza por w < – 1. La flexibilidad teórica permite además que la ecuación de estado varíe arbitrariamente en el tiempo.

Los astrónomos han puesto en marcha ambiciosos programas de observación que pueden restringir los posibles valores de w y con ello los distintos modelos de energía oscura. La cuestión es crucial para la cosmología, ya que el futuro a muy largo plazo de nuestro Universo depende totalmente de ella. Si el parámetro w resulta ser muy cercano a – 1, la teoría de la relatividad general y su constante cosmológica explicarán bien la tasa de expansión del Universo y la presencia de energía oscura. Por otro lado, un valor significativamente diferente implicaría la existencia de otra forma de energía oscura o la necesidad de revisar la teoría de la relatividad general…

Los destinos del Universo

Los destinos del Universo

La evolución del Universo depende crucialmente de la densidad total de materia y energía que contiene. Cuando los astrofísicos hacen un inventario de todas las formas de materia y energía, se encuentran con una serie de complicaciones. Las diferentes formas de energía han dominado a su vez el curso de la evolución cósmica y han impuesto la dinámica, es decir, la variación en el tiempo del factor de escala espacial R, que puede identificarse, por ejemplo, con el radio del Universo observable. Se pueden distinguir cuatro fases. La primera, todavía hipotética, es el brevísimo período de inflación, en el que R se habría expandido exponencialmente. Es durante este periodo cuando se habría creado la materia. En una segunda fase, la radiación dominaba, pero como la densidad de energía disminuye como R-4 mientras R aumenta, fue suplantada en una tercera fase por la materia cuya densidad sólo disminuye como R-3. Por razones similares, en una cuarta fase la energía oscura tomó el relevo hace 7.000 millones de años y domina el Universo actual. Su efecto es acelerar la expansión, aunque no tan rápido como durante la inflación. Nadie sabe a dónde nos llevará, ya que desconocemos su verdadera naturaleza y no conocemos su ley de variación en el tiempo. No obstante, se pueden esbozar tres escenarios.

Una energía oscura constante (en rojo) dominará cada vez más el balance energético del Universo, y la expansión observada del espacio seguirá acelerándose hasta hacerse exponencial. Las estructuras que no estén ya conectadas gravitatoriamente se romperán y sus partes se alejarán unas de otras a velocidades aparentemente superiores a la de la luz. La aceleración acabará por impedirnos observar grandes porciones del Universo que hoy son visibles. Sin embargo, las estructuras ligadas gravitacionalmente, como las galaxias y los sistemas planetarios, seguirán siéndolo. Así, el Sistema Solar o la Vía Láctea seguirán siendo esencialmente los mismos que ahora, mientras que el resto del Universo parecerá alejarse de nosotros. Este escenario llamado «Big Chill» es, en nuestro estado actual de conocimiento, el más plausible.

Con la densidad de energía oscura disminuyendo (en blanco) en el futuro (este es el modelo por excelencia), la materia puede volver a ser dominante. El horizonte cósmico crecerá, revelándonos más y más del Universo. La gravedad atractiva volverá a prevalecer y la expansión no sólo dejará de acelerarse, sino que se invertirá y el Universo se contraerá en su conjunto para desaparecer en un «Big Crunch» («Gran Colapso») que puede producirse dentro de 18.000 millones de años.

Si la energía oscura aumenta (azul) con el tiempo, o si está dominada por la energía fantasma fuertemente repulsiva, el espacio se expandirá a un ritmo cada vez mayor, y la aceleración será a su vez acelerada. En este caso, el resultado será un «Big Rip», que se produce cuando la aceleración se vuelve infinita después de un tiempo finito. Toda la materia del universo, incluso los átomos, será desgarrada por la expansión del espacio. En el escenario más extremo, este acontecimiento se producirá dentro de «sólo» 22.000 millones de años. Primero las galaxias se separarán unas de otras y los cúmulos se disolverán. Unos 60 millones de años antes del Big Rip, la gravedad será demasiado débil para mantener unida nuestra galaxia y se dispersará; tres meses antes, el sistema solar se desgarrará; en los últimos minutos, las estrellas y los planetas se harán añicos, y entre 10 y 19 segundos antes, los átomos y los núcleos se destruirán por sí mismos, dejando un Universo vacío y sin estructura.

© Veronique Marmont

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *