Los científicos de Oxford cuestionan la idea de que la expansión del universo se está acelerando

Las supernovas de tipo Ia se denominan cariñosamente 'velas estándar' en astronomía. Afortunadamente, son predecibles, por lo que los usamos para medir distancias. El Premio Nobel de Física 2011 fue para tres astrónomos que usaron velas estándar para llegar a la misma conclusión basándose en los mismos datos: a saber, que el universo se está expandiendo a un ritmo cada vez más acelerado. Pero un equipo de cosmólogos de Oxford ha realizado un nuevo análisis utilizando una biblioteca ampliada de supernovas, y sus resultados arrojan dudas sobre las conclusiones ganadoras del Nobel.

Cuando el equipo de Oxford hizo su propio análisis de los escenarios de expansión del universo, su resultado más seguro y en el mejor de los casos era mucho menos seguro de que el universo se está expandiendo a un ritmo acelerado. En lugar, los datos 'Se presta' a la conclusión de que la tasa de expansión es constante.

Posibles modelos del universo en expansión

Posibles modelos del universo en expansión. Crédito de la imagen: The Cosmic Perspective / Jeffrey O. Bennett, Megan O. Donahue, Nicholas Schneider y Mark Voit.



Todo depende de la idea de sigmas. Al igual que los valores p, los sigmas están destinados a transmitir una medida de la confianza que los científicos tienen en sus datos. Los valores sigma más altos, como los valores p más bajos, significan una mayor confianza. Las conclusiones sobre la expansión de nuestro universo que ganó el Nobel tenían una calificación de confianza de cinco sigma. Los científicos de Oxford obtuvieron solo tres sigma en su modelo más seguro. Si bien eso no solo derriba el modelo estándar actual de cosmología, sí plantea la posibilidad de que debamos realizar una prueba de cordura. Si los datos que tenemos no son una muestra representativa del comportamiento de nuestras velas estándar, entonces realmente necesitamos ver qué otras hipótesis nos hemos basado en ese conjunto de datos.

“Un ejemplo análogo en este contexto sería la sugerencia reciente de una nueva partícula con un peso de 750 GeV basada en datos del Gran Colisionador de Hadrones del CERN”, dijo el autor principal Subir Sarkar. en una oracion. “Inicialmente tuvo una importancia aún mayor - 3.9 y 3.4 sigma en diciembre del año pasado - y estimuló más de 500 artículos teóricos. Sin embargo, se anunció en agosto que los nuevos datos muestran que la importancia se ha reducido a menos de 1 sigma. Fue solo una fluctuación estadística y no existe tal partícula '.

Sarkar señaló que la energía oscura podría ser muy difícil de encontrar porque en realidad no existe. El problema en nuestras hipótesis que resolvimos usando el concepto de materia oscura podría ser simplemente un artefacto de hacer nuestras principales teorías cosmológicas en la década de 1930, 'mucho antes de que existieran datos reales'.

Naturalmente, dice Sarkar, se necesitará mucho trabajo para vender a la comunidad física estas ideas. “Es de esperar que esto motive mejores análisis de datos cosmológicos, así como que inspire a los teóricos a investigar modelos cosmológicos más matizados”, agregó Sarkar. 'Se logrará un progreso significativo cuando el telescopio europeo extremadamente grande haga observaciones con un 'peine láser' ultrasensible para medir directamente durante un período de 10 a 15 años si la tasa de expansión se está acelerando'.

Copyright © Todos Los Derechos Reservados | 2007es.com