¿Por qué Todo es tan Oscuro?

Por Dra. Amira Val Baker, Científica de Resonance Science Foundation 

Cuando algo parece un poco misterioso o simplemente no entendemos lo que está pasando, nos gusta describirlo con el adjetivo "oscuro".

Esta es una de las razones por las que se acuñó el término materia "oscura", que se propuso por primera vez para explicar la anomalía observada en las velocidades de rotación de las galaxias. Es decir, las velocidades de rotación observadas del gas y el polvo en los bordes exteriores de una galaxia giran tan rápido como el gas y el polvo cerca de su centro. Esta anomalía fue observada por primera vez en 1978 por Vera Rubin y W. Kent Ford, quienes realizaron mediciones precisas utilizando un nuevo instrumento que el propio Ford había diseñado. Al principio, pensaron que sus datos podían ser erróneos, pero luego sus resultados fueron corroborados por observaciones posteriores de las velocidades de rotación de las galaxias, ¡sugiriendo que efectivamente había una anomalía entre lo esperado y lo observado!

 

Entonces, ¿qué ocurre aquí?

Bien, para determinar la masa de un cuerpo celeste hay que hacer algunas suposiciones sobre cómo se espera que funcionen las cosas, es decir, se tienen en cuenta las leyes físicas conocidas. Estas suposiciones o leyes se aplican a lo que se observa para poder determinar la masa. Como no es posible realizar mediciones directas de la masa de un cuerpo celeste, los astrónomos observan la luz emitida y ven cómo cambia con el tiempo. El análisis de cómo cambia la luz con el tiempo revela la dinámica del sistema, por ejemplo, la velocidad, que, basándose en las leyes de la física, permite determinar la masa.

Por ejemplo, en el caso de las galaxias, sus velocidades de rotación se calculan mediante la medición de sus desplazamientos doppler en los espectros de luz. Estas velocidades calculadas se representan contra su distancia respectiva al centro galáctico, produciendo una curva de rotación.

Para medir el desplazamiento Doppler, los astrónomos dispersan la luz mediante un espectrógrafo (es decir, un prisma), lo que permite observar las líneas espectrales, que representan las transiciones de los electrones entre orbitales. Estas líneas espectrales tendrán una longitud de onda específica en función de la transición atómica, pero también la longitud de onda se desplazará, es decir, se acortará o aumentará debido a que el gas se acerca o se aleja de la línea de visión del astrónomo. Esta técnica se utiliza para medir las velocidades de rotación.

Para determinar la curva de rotación de la galaxia necesitamos observar la luz emitida por la misma. Sin embargo, la luz visible de las estrellas sufre de extinción interestelar -donde la luz no puede penetrar las nubes de polvo galáctico- y, por tanto, no son la mejor fuente de luz galáctica. En su lugar, se utiliza el hidrógeno neutro que existe en las regiones de baja densidad del medio interestelar y que emite luz con una longitud de onda de 21 cm -conocida como la línea de 21 cm del hidrógeno-. En el caso del hidrógeno neutro, la radiación de 21 cm de longitud de onda (1420 MHz) procede de la transición entre los dos niveles del estado básico del hidrógeno.

Ahora bien, a partir de las leyes físicas conocidas se puede suponer que la velocidad cambiará con la distancia, donde en el caso de un sistema rígido u homogéneo -como el supuesto para el núcleo galáctico- la velocidad será proporcional a la distancia, es decir, la velocidad aumentará con el radio.

 

Así que, teniendo en cuenta todo esto, podríamos esperar una curva de rotación de las galaxias más o menos así,

 

Sin embargo, incluso con esta observación más precisa utilizando la línea de hidrógeno de 21 cm, la curva de rotación resultante no es la esperada,

 

Fuente: http://abyss.uoregon.edu/~js/cosmo/

Entonces, ¿cómo podemos explicar esta curva de rotación? ¿Por qué aumenta la velocidad y luego se aplana? Basándonos en lo que sabemos y acabamos de discutir, se podría suponer que la constante de proporcionalidad en la ecuación que rige la dinámica Kepleriana tendría que NO ser constante. Es decir, la masa tendría que aumentar con respecto al radio, manteniendo la velocidad aproximadamente constante. Como no se ha observado ninguna masa adicional, se ha propuesto que la masa adicional debe ser un tipo de masa diferente e indetectable, es decir, "oscura".

Ahora bien, aunque esta idea de la materia oscura parece nueva, ya había sido propuesta por personas como Zwicky, quien en 1933, mediante el estudio de las velocidades galácticas en el Cúmulo de Coma, llegó a la conclusión de que la masa total necesaria para mantener unido el Cúmulo es unas 400 veces mayor que la observada [1] [2]. Esta conclusión fue ampliada por el trabajo de muchos otros y sigue siendo un área de investigación activa. Hoy en día se calcula que aproximadamente el 85% de toda la materia es materia "oscura".

Entonces, ¿qué es la materia oscura, aparte de ser una entidad desconocida?


Poco después de que la idea de la materia oscura cobrara fuerza, se presentaron varias teorías que proponían posibles fuentes, por ejemplo, objetos "oscuros" formados en la época temprana del Universo [3]; restos oscuros de estrellas de la población III (las estrellas originales formadas después del Big Bang y, por tanto, compuestas totalmente de gas primordial), como enanas blancas, estrellas de neutrones o agujeros negros [3] [4]; y partículas elementales exóticas, como neutrinos masivos [5] [6].

La idea de los neutrinos masivos se desvaneció cuando se midió que la masa de un neutrino electrónico era de 30 eV [7] y un argumento basado en el principio de exclusión de Pauli -que establece que dos o más fermiones idénticos no pueden ocupar simultáneamente el mismo estado cuántico- demostró que los halos de galaxias individuales no podían estar formados por neutrinos con masas tan pequeñas [8].

 

WIMPs
Posteriormente, se pusieron a la luz una plétora de candidatos, cuya principal característica es que no se detectan en las bandas de ondas electromagnéticas conocidas. Por tanto, se asumió que este objeto de materia oscura no interactúa de forma significativa con el espectro electromagnético y sólo lo hace a través de la gravedad o de cualquier otra fuerza que sea tan o más débil que la fuerza nuclear débil. Es decir, que son muy silenciosos y no se comunican demasiado bien, como algunos científicos.

En el universo primitivo, la materialización de las partículas y antipartículas a partir de la energía radiante mediante la producción de pares -y la posterior destrucción mediante la aniquilación- estaba en equilibrio. Es decir, las tasas de producción tanto de las partículas como de los fotones eran iguales a sus tasas de destrucción, de modo que ningún fotón y/o partícula era permanente, sino que fluctuaba continuamente dentro y fuera de la existencia. A medida que el universo se enfriaba, la energía no era suficiente para la producción de pares y, por tanto, el número de partículas y fotones disminuía hasta que la probabilidad de interacción de las partículas alcanzaba un nivel crítico, de manera que la aniquilación de las partículas cesaba y la densidad numérica (número de partículas) se estabilizaba. Para una partícula específica, la densidad numérica en la que se produce la estabilización depende de la masa de la partícula. Para una candidata a materia oscura, tendría que ser lo suficientemente masiva y de movimiento lento (subrelativista) como para poder agruparse y formar la estructura que observamos hoy en día. Esta es la visión general de la materia oscura y se denomina modelo de materia oscura fría.

La supersimetría -una de las teorías candidatas a la gravedad cuántica, que se centra en la relación entre las partículas ordinarias (fermiones) y las entidades "portadoras de fuerza" (bosones)- predice nuevas partículas elementales que se ajustan a la descripción de una partícula masiva de interacción débil (WIMP), por ejemplo, higgsinos, sneutrinos, squarks, selectrones.

Fuente: New Scientist

 

La más ligera de estas partículas supersimétricas estables es el neutralino que resulta tener una densidad numérica calculada aproximadamente igual a la densidad conocida de la materia oscura. El neutralino es por tanto el candidato más probable para una WIMP y con una masa que está dentro de los niveles de energía que pueden ser detectados en aceleradores de partículas como el Gran Colisionador de Hadrones (LHC). Hay que tener en cuenta que cualquier detección de partículas WIMP en el LHC no sería directa, sino que se produciría en forma de energía perdida del orden específico. Sin embargo, hasta ahora no se ha realizado ninguna detección de este tipo.

La detección directa de una WIMP sería la confirmación óptima de la materia oscura, sin embargo, al tratarse de interacciones débiles, la probabilidad de que interactúen es extremadamente baja, y mucho menos de que detectemos una interacción de rango energético tan pequeño. Sin embargo, hay muchos experimentos dedicados a detectar la interacción de una WIMP con la materia atómica. Dependiendo del material del detector, por ejemplo, silicio, germanio, yoduro de sodio, etc., se pueden detectar fonones -vibraciones en la red atómica- y/o centelleo -luminiscencia de electrones ionizados-. Para reducir los eventos de fondo, estos experimentos operan a gran profundidad y a temperaturas extremadamente frías, donde están protegidos de los rayos cósmicos y se minimizan las excitaciones térmicas. Aunque numerosos experimentos están buscando activamente, por ejemplo, el Laboratorio Subterráneo de Ciencia e Ingeniería (DUSEL), el Gran Experimento Subterráneo de Xenón (LUX), los Laboratorios del Observatorio de Neutrinos de Sudbury (SNOLAB) y el Laboratorio Subterráneo de China Jinping (CJPL), hasta la fecha no se ha detectado ningúna WIMP.

Estos métodos experimentales subterráneos permiten otra fuente de detección indirecta: la detección de neutrinos. Si suponemos que las WIMPS son las partículas de materia oscura y existen en el halo de las galaxias, entonces habrían pasado por nuestro entorno local y en algún momento, en los últimos miles de millones de años, habrían sido dispersados por los núcleos. Esta pérdida de energía habría atrapado a las WIMPS en el pozo gravitatorio del Sol y/o la Tierra hasta que la densidad numérica aumentara lo suficiente como para que se produjera la aniquilación. La aniquilación de lss WIMPs da lugar a neutrinos de alta energía, por lo que, basándose en este razonamiento, cabría esperar que un flujo de neutrinos emanara del sol. Los neutrinos producidos en las reacciones nucleares del núcleo solar tienen una energía mucho menor que los neutrinos producidos por la aniquilación de las WIMPs. Además, estos neutrinos de mayor energía interactúan en la atmósfera de la Tierra produciendo muones. Sin embargo, los muones también se crean a través de la interacción de los rayos cósmicos con la atmósfera de la Tierra, por lo que, de nuevo, para reducir los eventos de fondo, los detectores se colocan en el subsuelo. Detectores como el Antarctic Muon And Neutrino Detector Array (AMANDA), el Observatorio de Neutrinos del Polo Sur (IceCube) y el proyecto Astronomy with a Neutrino Telescope and Abyss environmental RESearch (ANTARES) están buscando una señal, pero estos métodos tampoco han dado resultado.

La aniquilación de las WIMPs también produce rayos gamma, lo que ha sido otro foco de búsqueda de estas elusivas partículas de materia oscura. Se espera que esta aniquilación tenga lugar en los halos galácticos y podría detectarse a través de un exceso de rayos gamma. Sin embargo, distinguir entre los rayos gamma debidos a la aniquilación y los procedentes de las distintas fuentes astrofísicas ha resultado difícil. Por ejemplo, un estudio reciente en el que se han utilizado datos del Large Area Telescope del telescopio espacial Fermi de la NASA ha sugerido que el exceso de emisión de rayos gamma podría ser, en cambio, una población conocida de púlsares.

La miríada de experimentos y técnicas de búsqueda no han revelado hasta ahora ningún resultado positivo, por lo que parece que el candidato más prometedor -las WIMPs- se enfrenta finalmente a la derrota y un equipo de destacados científicos que asisten a un taller (workshopsobre nuevas ideas en materia oscura se ha animado a buscar en otra parte y a ampliar su perspectiva.

                    Fuente: http://physicstoday.scitation.org/journal/pto

 

MACHOs

Uno de los candidatos alternativos a la materia oscura que bien podría constituir una fracción de esta masa desaparecida son los MACHOs (MAssive Compact Halo Objects). A diferencia de las WIMP, los MACHOs son bariónicos y se presentan en forma de objetos astronómicos como objetos de masa jupiterina, enanas marrones, restos de agujeros negros de estrellas de primera generación, agujeros negros primordiales, estrellas de neutrones y enanas blancas. Si el halo galáctico estuviera lleno de objetos como éstos, no se detectarían por emisión o absorción de luz. La detección de un MACHO podría realizarse mediante el fenómeno conocido como microlente, en el que la luz de una estrella lejana se amplía cuando un objeto de tipo MACHO pasa por delante de ella.

La materia no bariónica tiene una densidad mucho mayor (por un factor de ~ 5) que la de la materia bariónica y la gravedad es demasiado débil para hacer crecer las estructuras actuales a partir de las condiciones iniciales suaves observadas en el fondo cósmico de microondas (CMB). Una masa adicional aceleraría el proceso, pero sólo si no interactuara con la luz del mismo modo que lo hace la materia "bariónica" ordinaria. Así, se llegó a la conclusión de que lo más probable es que la mayor parte de la materia oscura sea no bariónica y que, si los MACHOs existieran, sólo serían responsables de una pequeña fracción de la materia oscura, principalmente en los halos de las galaxias espirales.

 

Axiones

Los axiones son otro candidato viable para la materia oscura. A diferencia de las WIMPs, que se supone que se crearon térmicamente en el universo primitivo, se sugiere que los axiones se crearon de forma no térmica durante un evento de transición de fase. Se propusieron por primera vez en la década de 1970 para explicar el problema de la CP fuerte, es decir, la C como carga y la P como paridad (inversión espacial). El problema es, la pregunta de por qué la cromodinámica cuántica (QCD) no parece romper la simetría CP cuando en principio permite tal violación.

El hecho de que vivamos en un universo dominado por la materia indica que las leyes de la física no son las mismas para la materia y la antimateria y que debe haberse producido una violación de la simetría fundamental de la naturaleza, conocida como violación CP [9]. Sin embargo, aunque este es el caso para las interacciones débiles [10], no lo es para las interacciones electromagnéticas y fuertes, por lo que se conoce como el problema CP fuerte. Los axiones fueron postulados por Roberto Peccei y Helen Quinn para dar cuenta de esto, donde el potencial de los axiones cancelaría exactamente un término de violación de CP introducido en los cálculos de QCD. Desde 2016, el Experimento de Materia Oscura Axion ha intentado sintonizar una antena de microondas con la frecuencia de emisión de la materia oscura, sin éxito. El último estudio realizado en el Instituto Paul Scherrer (PSI) también resulta nulo. La Fuente de Neutrones Ultrafríos (UCN) del PSI se utiliza principalmente para determinar el momento dipolar eléctrico de un neutrón, pero las mediciones a lo largo del tiempo podrían revelar una fluctuación de una frecuencia consistente, lo que sería indicativo de una interacción entre el neutrón y la hipotética partícula axión.

Los axiones son 10.000 trillones de veces menos masivos que un electrón y, en teoría, podrían condensarse en un condensado de Bose-Einstein y ser así la hipotética materia oscura superfluida responsable de la rotación de las galaxias, a diferencia de la materia oscura normal responsable de los cúmulos de galaxias. Sin embargo, esto se ha descartado debido a que los axiones son débiles y atractivos y las partículas de materia oscura superfluida deben ser repulsivas.

 

Tal vez sea el momento de encender las luces y obtener algo de claridad en esto.

Para empezar, partamos de la premisa de que todo está conectado y, en ese caso, no habría una partícula que sólo interactuara a través de la gravedad. De hecho, tal vez, sólo tal vez, no hay ninguna partícula de materia "oscura" después de todo - y en su lugar es la física que tenemos que mirar.

Esta es la premisa de Mordehai Milgrom, que ideó una teoría sobre la dinámica newtoniana modificada (MOND) [11] [12] [13]. La idea central de MOND es la física invariante de escala -es decir, la física que no cambia a través de las escalas- parece obvia ¿no? Sin embargo, este no es el consenso general, que actualmente afirma que las leyes de la física cambian a diferentes escalas, es decir, que se tiene la mecánica cuántica a escala cuántica y la relatividad general a grandes escalas.

¿Y si no fuera así y viviéramos en un Universo invariante de escala, es decir, en una visión de la física unificada en la que la gravedad cuántica fuera la física a todas las escalas?
Esto está en consonancia con la observación de Dirac (1973) sobre que "... las ecuaciones que expresan las leyes básicas de la Física deberían ser invariantes bajo el grupo más amplio posible de transformaciones. Este es el caso de las ecuaciones de Maxwell de la electrodinámica que en ausencia de cargas y corrientes muestran la propiedad de invariancia de escala" [14].
Milgrom da un paso interesante e introduce la física invariante de escala a bajas aceleraciones por debajo de un límite crítico que se define en el marco del modelo. A partir de este enfoque, el modelo MOND predice con éxito los efectos dinámicos observados de las galaxias, desde las enanas hasta las elípticas y espirales, etc., y también predice correctamente la correlación entre la luminosidad de una galaxia y su tasa de rotación, conocida como la relación Tully-Fisher.

Fuente: Science

Este marco invariante de escala subyacente de MOND, en el que la gravedad es una propiedad emergente, es también lo que pretende Erik Verlinde en su teoría de la gravedad emergente. El modelo conceptual de Verlinde utiliza la teoría de la información cuántica, la teoría de cuerdas y la física de los agujeros negros para sugerir que el espacio-tiempo y la gravedad emergen juntos a partir de interacciones cuánticas entrelazadas. Esta gravedad emergente contiene una fuerza adicional que, según Verlinde, puede explicar los fenómenos observados en galaxias y cúmulos que actualmente se atribuyen a la materia oscura.

André Maeder ha presentado una teoría similar que asume la invariancia de escala. Al igual que MOND, define un límite en el que la invariancia de escala es aplicable a grandes escalas (es decir, aceleraciones bajas en MOND). Luego, al igual que Verlinde, encuentra una fuerza adicional que se opone a la gravedad. Esta fuerza sólo es pequeña a densidades muy bajas, es decir, en la Tierra la fuerza sería demasiado pequeña para marcar una diferencia medible, pero a escala galáctica es lo suficientemente fuerte como para mantener unidas las galaxias en rotación sin necesidad de materia oscura. El modelo de Maeder utiliza un nuevo sistema de coordenadas y explica con éxito la tasa de rotación de las galaxias individuales y las velocidades sorprendentemente altas de las galaxias en los cúmulos de galaxias, así como la aceleración de la energía que generalmente se atribuye a la energía oscura [15] [16] [17].
Estos modelos de Milgrom, Verlinde y Maeder ofrecen una visión interesante de la materia oscura, en la que, en lugar de buscar una nueva partícula, se aborda la física para dar cuenta de los atributos de la materia oscura. Sin embargo, no todo el mundo está convencido, como señala David Spergel, quien afirma que la teoría de Maeder, o cualquier otra teoría que intente explicar la materia oscura, tendría que ajustarse a todos los datos cosmológicos, por ejemplo, la prueba más clara de la existencia de la materia oscura es el CMB -la radiación que queda del big bang- cuyas fluctuaciones de temperatura observadas no pueden explicarse sin la materia oscura.

Según Spergel, el modelo de la materia oscura fría se ajusta muy bien a los datos, y la teoría de Maeder no. Sin embargo, la validez de dicho modelo acaba de ser puesta en duda en un reciente artículo de un equipo de astrofísicos que estudia la cinemática de las galaxias satélite.

En cualquier caso, Spergel también cree que la teoría de Maeder no podría explicar los efectos de lente gravitacional que se observan alrededor de algunas galaxias y que sólo pueden explicarse por una masa adicional: ¡la masa oscura! Curiosamente, Maeder llega a una conclusión similar sobre MOND y afirma que, al tratarse de una teoría clásica, no puede incluirse en el modelo cosmológico [17].

Hay muchas más teorías alternativas de la gravedad que intentan eliminar la necesidad de la materia oscura y la energía oscura, pero estos modelos son todavía trabajos en curso y no pueden explicar todavía todas las características de la materia oscura.

Además, y posiblemente lo más importante, estos modelos tienen límites a la in-varianza de escala. Si asumimos un enfoque unificado con invariancia de escala, en el que cualquier dilatación o contracción del espacio no cambiaría la física, entonces se asumiría que esto es válido en todas las escalas.

La física unificada de Haramein, en su modelo holográfico generalizado, ofrece un enfoque de este tipo en el que la invarianza de escala es válida en todas las escalas. En su modelo la masa de todas las partículas, estrellas, galaxias y todos los sistemas, resulta y emerge del agujero negro central que sostiene cada uno de estos sistemas. Así, la masa que falta para explicar las anomalías observacionales ya no es necesaria en forma de partícula y, en cambio, puede predecirse directamente a partir de la física del enfoque holográfico generalizado. El modelo holográfico generalizado predice con éxito la masa del protón y del electrón, así que, ¿qué pasa con la masa de los sistemas de mayor escala?

La discrepancia entre la densidad del vacío a escala cuántica y la escala cosmológica -conocida como la catástrofe del vacío- se resolvió utilizando el modelo holográfico generalizado, donde la densidad cambiante es un resultado directo de la física invariante de escala gobernada por el modelo holográfico generalizado. Por lo tanto, este modelo es válido desde lo más pequeño hasta lo más grande y es muy probable que sea aplicable a todas las escalas. La cuestión es si podemos predecir la masa observada de nuestra galaxia basándonos en el modelo holográfico generalizado.

Referencias:

  1. F. Zwicky, “Die Rotverschiebung von extragalaktischen Nebeln,” Helvetica Physica Acta, vol. 6, pp. 110-127, 1933.
  2. F. Zwicky, “On the Masses of Nebulae and of Clusters of Nebulae,” ApJ, vol. 86, p. 217, 1937.
  3. S. D. M. White and M. J. Rees, M.N.R.A.S., vol. 183, no. 341, 1978.
  4. B. J. Carr, J. R. Bond and W. D. Arnett, ApJ, vol. 277, pp. 445-469, 1984.
  5. S. S. Gershtein and Y. B. Zel’dovich, “Rest Mass of Muonic Neutrino and Cosmology,” ZhETF Pis ma Redaktsiiu, vol. 4, p. 174, 1966.
  6. R. Cowsick and J. McClelland, “An upper limit on the neutrino rest mass,” Physical Review Letters, vol. 29, no. 10, 1972.
  7. F. Reines, H. W. Sobel and E. Pasierb, “Evidence for Neutrino Instability,” Phys. Rev. Lett., vol. 45, p. 1307, 1980.
  8. S. Tremaine and J. E. Gunn, “Dynamical role of light neutral leptons in cosmology,” Phys. Rev. Lett., vol. 42, no. 6, pp. 407-410, 1979.
  9. A. d. Sakharov, “Violation of CP invariance, C asymmetry, and baryon asymmetry of the Universe,” Pisma Zh. Eksp. Teor. Fiz, vol. 5, pp. 32-35, 1967.
  10. C.-S. Wu, “Experimental Test of Parity Conservation in Beta Decay,” Phys. Rev, vol. 105, p. 1413, 1957.
  11. M. Milgrom, Astrophys. J. , vol. 270, p. 365, 1983a.
  12. M. Milgrom, Astrophys. J. , vol. 270, p. 371, 1983b.
  13. M. Milgrom, Astrophys. J. , vol. 270, p. 384, 1983c.
  14. P. A. M. Dirac, “Dirac, P. A. M. 1973,,” Proceedings of the Royal Society of London Series A, vol. 333, p. 403, 1973.
  15. A. Maeder, “An Alternative to the ΛCDM Model: The Case of Scale Invariance,” ApJ, vol. 834, no. 2, 2017.
  16. A. Maeder, “Scale-invariant Cosmology and CMB Temperatures as a Function of Redshifts,” ApJ, vol. 847, no. 1, 2017.
  17. A. Maeder, “Dynaical effects of the scale invariance of the empty space: the fall of dark matter?,” ApJ, vol. 849, no. 2, 2017.
Close

50% Complete

Two Step

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.