Una del espacio.
+37
ender
Josep TB
mario_man
Music56
Mugaland
naviayork
pricol
Madrededios!!
garantamaulas
sergio.fs
izozaya
walkie
Plantem un pí
JOSE ANTONIO MARTINEZ
Francisco Sanchez
Lord-ka
jibanezm
carapau
JBP
Gregorio J
Celsius
Enrike
DrFunk
rutho
MONOLITO
orejones
karma7
Felix
galena
rubius
daimonides
DINKI
trocri
Noncondition
Vicgarza
MERIDIAN
villegas63
41 participantes
Página 29 de 39.
Página 29 de 39. • 1 ... 16 ... 28, 29, 30 ... 34 ... 39
Una del espacio.
Hola.
Un equipo internacional de investigadores publican en Astrophysical Journal que las últimas observaciones del telescopio que porta el cohete suborbital de la NASA (un telescopio único), reportan imágenes ultra nítidas del Sol en las que se aprecian por vez primera hilos magnéticos de 500 km. de anchura.
Dichos hilos están llenos de plasma extremadamente caliente de millones de grados, y se distribuyen por toda la capa màs externa del astro.
Forman una especie de hebras de 500 km. con gases electrificados calientes que fluyen dentro de ellas.
El telescopio puede llegar a detectar estructuras en la atmósfera del Sol de hasta 70 km. de ancho.
A partir de ahora el debate estará en saber cómo se crean estas hebras calientes omnipresentes, y confían en que su presencia nos ayudará a comprender mejor las erupciones y tormentas solares.
Próximamente, la NASA volverá a lanzar al espacio suborbital este telescopio, para cotejar nuevos datos con los obtenidos de las naves espaciales Parker de la NASA y el Solar Orbiter, que tambièn apuntan al Sol.
Un saludo.
Un equipo internacional de investigadores publican en Astrophysical Journal que las últimas observaciones del telescopio que porta el cohete suborbital de la NASA (un telescopio único), reportan imágenes ultra nítidas del Sol en las que se aprecian por vez primera hilos magnéticos de 500 km. de anchura.
Dichos hilos están llenos de plasma extremadamente caliente de millones de grados, y se distribuyen por toda la capa màs externa del astro.
Forman una especie de hebras de 500 km. con gases electrificados calientes que fluyen dentro de ellas.
El telescopio puede llegar a detectar estructuras en la atmósfera del Sol de hasta 70 km. de ancho.
A partir de ahora el debate estará en saber cómo se crean estas hebras calientes omnipresentes, y confían en que su presencia nos ayudará a comprender mejor las erupciones y tormentas solares.
Próximamente, la NASA volverá a lanzar al espacio suborbital este telescopio, para cotejar nuevos datos con los obtenidos de las naves espaciales Parker de la NASA y el Solar Orbiter, que tambièn apuntan al Sol.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
El telescopio espacial Kepler no funciona desde noviembre de 2.018, pero hay ingentes cantidades de datos pendientes de revisar, y la última sorpresa es el exoplaneta Kepler 1649c.
Es el más semejante a la Tierra de los más de 4.200 conocidos:
- Rocoso.
- 1,06 diámetros terrestres.
- Ubicado en la zona habitable de una estrella enana roja tipo M, de solo el 20% de la masa del Sol.
- Periodo orbital de 19,5 días.
- Recibe el 75% de la energía que recibe la Tierra del Sol.
- A 300 años luz de nosotros.
- Es el primer exoplaneta potencialmente habitable entre las enanas rojas de mediano tamaño observadas.
En ese sistema planetario ya existía el exoplaneta Kepler 1649b del tamaño de la Tierra, pero con un periodo orbital muy corto de solo 8,7 días, por lo que es un "exovenus".
Las órbitas de Kepler 1649b y 1649c están en una resonancia de 9:4.
Es una resonancia muy dèbil, por lo que es posible que exista un tercer planeta en el sistema, aún no descubierto, y que estaría situado entre los 2 conocidos.
Como en los datos del telescopio Kepler no hay rastro de él, esto implica que o bien es más pequeño que Marte, o la inclinación de su plano orbital es distinta a la de los otros 2 y desde la Tierra no podemos ver su tránsito por delante de su estrella.
Con las observaciones de Kepler sabemos ya que, de media, cada estrella enana roja alberga más de 2 planetas de tamaño inferior a Neptuno y un periodo orbital mayor de 200 días.
Se han descubierto pequeños planetas alrededor de enanas rojas con más frecuencia que los que orbitan estrellas tipo solares.
Un saludo.
El telescopio espacial Kepler no funciona desde noviembre de 2.018, pero hay ingentes cantidades de datos pendientes de revisar, y la última sorpresa es el exoplaneta Kepler 1649c.
Es el más semejante a la Tierra de los más de 4.200 conocidos:
- Rocoso.
- 1,06 diámetros terrestres.
- Ubicado en la zona habitable de una estrella enana roja tipo M, de solo el 20% de la masa del Sol.
- Periodo orbital de 19,5 días.
- Recibe el 75% de la energía que recibe la Tierra del Sol.
- A 300 años luz de nosotros.
- Es el primer exoplaneta potencialmente habitable entre las enanas rojas de mediano tamaño observadas.
En ese sistema planetario ya existía el exoplaneta Kepler 1649b del tamaño de la Tierra, pero con un periodo orbital muy corto de solo 8,7 días, por lo que es un "exovenus".
Las órbitas de Kepler 1649b y 1649c están en una resonancia de 9:4.
Es una resonancia muy dèbil, por lo que es posible que exista un tercer planeta en el sistema, aún no descubierto, y que estaría situado entre los 2 conocidos.
Como en los datos del telescopio Kepler no hay rastro de él, esto implica que o bien es más pequeño que Marte, o la inclinación de su plano orbital es distinta a la de los otros 2 y desde la Tierra no podemos ver su tránsito por delante de su estrella.
Con las observaciones de Kepler sabemos ya que, de media, cada estrella enana roja alberga más de 2 planetas de tamaño inferior a Neptuno y un periodo orbital mayor de 200 días.
Se han descubierto pequeños planetas alrededor de enanas rojas con más frecuencia que los que orbitan estrellas tipo solares.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Los resultados del proyecto conjunto ALPINE revelan que las galaxias giratorias en forma de disco podrían haber existido en el Universo primitivo en grandes cantidades, mucho antes de lo que se pensaba hasta la fecha.
Han sido 70 horas de observaciones con el telescopio ALMA, el Observatorio WM Keck en Hawài y los telescopios espaciales Spitzer (ya retirado) y Hubble de un parche del cielo que contenía 118 galaxias que existían entre 1.000 y 1.500 millones de años después del Big Bang, en múltiples longitudes de onda desde el ultravioleta hasta las ondas de radio.
Los científicos han medido la firma del ion conocido "C+"...forma de carbono cargada positivamente, y de esta manera pueden ver cómo giran las galaxias.
Cuando la luz ultravioleta de las estrellas recièn nacidas golpea a las nubes de polvo, crea los átomos C+.
A medida que el gas que contiene C+ en las galaxias gira hacia nosotros, su firma cambia a longitudes de onda más azules.
ALPINE creó un catálogo no solamente de las velocidades de rotación de las 118 galaxias, sino tambièn de sus densidades de gas y la cantidad de estrellas que se forman.
La encuesta reveló galaxias destrozadas rotatorias en proceso de fusión, y otras galaxias espirales perfectamente lisas.
"Estas galaxias giratorias, bien ordenadas en una etapa muy temprana y turbulenta del Universo significan que deben haberse creado por un proceso suave de recolección de gas y aún no han chocado con otras galaxias, como lo han hecho muchas otras galaxias. Esperamos que futuras observaciones con la nueva generación de telescopios determinarán la estructura más detallada de estas 118 galaxias, para intentar comprender cómo crecen tan rápido las galaxias, y qué proceso interno les permite aumentar su tamaño tan rápidamente", explica Andreas Faisst, del Centro de Astronomìa en Caltech.
Otra noticia a destacar es que hoy 24 de abril del 2.020 se cumplen 30 años desde el lanzamiento del telescopio espacial Hubble: un cilindro de 13,30 metros de largo por algo más de 4 m. de ancho.
Orbita a 547 km. de altura a una velocidad de 27.000 km/hora, y realiza una vuelta completa cada 95 minutos alrededor de la Tierra.
Manda 140 gigabytes de datos/semana, ha realizado 1.200.000 observaciones con su espejo de 4 m. de diàmetro, y como resultado de ellas se han publicado 12.800 artículos.
Un saludo.
Los resultados del proyecto conjunto ALPINE revelan que las galaxias giratorias en forma de disco podrían haber existido en el Universo primitivo en grandes cantidades, mucho antes de lo que se pensaba hasta la fecha.
Han sido 70 horas de observaciones con el telescopio ALMA, el Observatorio WM Keck en Hawài y los telescopios espaciales Spitzer (ya retirado) y Hubble de un parche del cielo que contenía 118 galaxias que existían entre 1.000 y 1.500 millones de años después del Big Bang, en múltiples longitudes de onda desde el ultravioleta hasta las ondas de radio.
Los científicos han medido la firma del ion conocido "C+"...forma de carbono cargada positivamente, y de esta manera pueden ver cómo giran las galaxias.
Cuando la luz ultravioleta de las estrellas recièn nacidas golpea a las nubes de polvo, crea los átomos C+.
A medida que el gas que contiene C+ en las galaxias gira hacia nosotros, su firma cambia a longitudes de onda más azules.
ALPINE creó un catálogo no solamente de las velocidades de rotación de las 118 galaxias, sino tambièn de sus densidades de gas y la cantidad de estrellas que se forman.
La encuesta reveló galaxias destrozadas rotatorias en proceso de fusión, y otras galaxias espirales perfectamente lisas.
"Estas galaxias giratorias, bien ordenadas en una etapa muy temprana y turbulenta del Universo significan que deben haberse creado por un proceso suave de recolección de gas y aún no han chocado con otras galaxias, como lo han hecho muchas otras galaxias. Esperamos que futuras observaciones con la nueva generación de telescopios determinarán la estructura más detallada de estas 118 galaxias, para intentar comprender cómo crecen tan rápido las galaxias, y qué proceso interno les permite aumentar su tamaño tan rápidamente", explica Andreas Faisst, del Centro de Astronomìa en Caltech.
Otra noticia a destacar es que hoy 24 de abril del 2.020 se cumplen 30 años desde el lanzamiento del telescopio espacial Hubble: un cilindro de 13,30 metros de largo por algo más de 4 m. de ancho.
Orbita a 547 km. de altura a una velocidad de 27.000 km/hora, y realiza una vuelta completa cada 95 minutos alrededor de la Tierra.
Manda 140 gigabytes de datos/semana, ha realizado 1.200.000 observaciones con su espejo de 4 m. de diàmetro, y como resultado de ellas se han publicado 12.800 artículos.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Un equipo de astrónomos de la Universidad de Warwick (Gran Bretaña), han descubierto con el telescopio espacial TESS de la NASA el mayor exoplaneta rocoso hallado hasta la fecha: lo han llamado TOI-84b.
Es 40 veces màs masivo que la Tierra, de casi igual densidad, a 225 años luz de nosotros y su superficie es 150 veces mayor que nuestro planeta.
Piensan que se trata del núcleo rocoso de un anterior mundo gigante gaseoso, desprovisto ahora de su inmenso manto de gas.
Habría sido parecido a los actuales Júpiter, Saturno, Urano o Neptuno, que todavía no sabemos si poseen un núcleo firme y rocoso.
Los científicos estiman 2 hipótesis:
- TOI-84b podrìa haber perdido su envoltura gaseosa debido a acercarse demasiado a una estrella, y ésta la habría succionado.
- O tal vez, es el resultado tras una colisión catastrófica con otro planeta gigante.
TOI-84b da una vuelta completa alrededor de su estrella cada 18,4 horas y tiene una temperatura de 1.500 grados C.
Es totalmente distinto a los más de 4.200 exoplanetas conocidos actualmente: es único, con un misterioso camino evolutivo recorrido.
Un saludo.
Un equipo de astrónomos de la Universidad de Warwick (Gran Bretaña), han descubierto con el telescopio espacial TESS de la NASA el mayor exoplaneta rocoso hallado hasta la fecha: lo han llamado TOI-84b.
Es 40 veces màs masivo que la Tierra, de casi igual densidad, a 225 años luz de nosotros y su superficie es 150 veces mayor que nuestro planeta.
Piensan que se trata del núcleo rocoso de un anterior mundo gigante gaseoso, desprovisto ahora de su inmenso manto de gas.
Habría sido parecido a los actuales Júpiter, Saturno, Urano o Neptuno, que todavía no sabemos si poseen un núcleo firme y rocoso.
Los científicos estiman 2 hipótesis:
- TOI-84b podrìa haber perdido su envoltura gaseosa debido a acercarse demasiado a una estrella, y ésta la habría succionado.
- O tal vez, es el resultado tras una colisión catastrófica con otro planeta gigante.
TOI-84b da una vuelta completa alrededor de su estrella cada 18,4 horas y tiene una temperatura de 1.500 grados C.
Es totalmente distinto a los más de 4.200 exoplanetas conocidos actualmente: es único, con un misterioso camino evolutivo recorrido.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Tras 7 años de observaciones con el espectrógrafo SOPHIE instalado en el Observatorio de la Alta Provenza (Francia) y sumadas las del telescopio espacial TESS de la NASA, los astrónomos nos revelan en Astronomy & Astrophysics que la estrella HD 158259 situada en la Constelación de Drako, tiene hasta 6 planetas que la orbitan: 1 supertierra y 5 minineptunos.
Los 6 mundos tienen masas comprendidas entre 2 y 6 veces la de la Tierra, y el sistema planetario es muy compacto: la distancia del planeta más lejano a su estrella es algo menor que la distancia que existe entre Mercurio y el Sol.
Entre los más de 4.200 exoplanetas conocidos hasta la fecha, están registrados cientos de sistemas planetarios donde se agrupan, pero solamente 12 de ellos poseen 6 o màs planetas.
Este sistema en torno a la estrella HD 158259 se caracteriza por ser extremadamente regular, pues la relación de periodos entre cualquiera de 2 planetas próximos es muy cercana a 3:2.
Esto significa que a medida que el primer planeta (el más cercano a la estrella) completa 3 órbitas a su alrededor, el segundo planeta (más lejano) termina 2 órbitas.
Y a medida que este segundo mundo completa 3 órbitas, el siguiente acaba 2 órbitas...y así sucesivamente con el resto.
Un saludo.
Tras 7 años de observaciones con el espectrógrafo SOPHIE instalado en el Observatorio de la Alta Provenza (Francia) y sumadas las del telescopio espacial TESS de la NASA, los astrónomos nos revelan en Astronomy & Astrophysics que la estrella HD 158259 situada en la Constelación de Drako, tiene hasta 6 planetas que la orbitan: 1 supertierra y 5 minineptunos.
Los 6 mundos tienen masas comprendidas entre 2 y 6 veces la de la Tierra, y el sistema planetario es muy compacto: la distancia del planeta más lejano a su estrella es algo menor que la distancia que existe entre Mercurio y el Sol.
Entre los más de 4.200 exoplanetas conocidos hasta la fecha, están registrados cientos de sistemas planetarios donde se agrupan, pero solamente 12 de ellos poseen 6 o màs planetas.
Este sistema en torno a la estrella HD 158259 se caracteriza por ser extremadamente regular, pues la relación de periodos entre cualquiera de 2 planetas próximos es muy cercana a 3:2.
Esto significa que a medida que el primer planeta (el más cercano a la estrella) completa 3 órbitas a su alrededor, el segundo planeta (más lejano) termina 2 órbitas.
Y a medida que este segundo mundo completa 3 órbitas, el siguiente acaba 2 órbitas...y así sucesivamente con el resto.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
El Observatorio Swift Neil Gehrels de la NASA ha logrado calcular la cantidad de agua perdida por el cometa interestelar Borisov, a medida que se acercaba y rodeaba al Sol a finales del 2.019, cuando el material congelado en su superficie se calienta y se convierte en gas.
Entre finales del 2.019 y febrero del 2.020 Swift hizo hasta 6 observaciones, y en la actividad máxima, Borisov arrojó 30 litros/segundo de agua al espacio.
Y durante todo su viaje a través del Sistema Solar, han estimado que el cometa perdió 230.000.000 de litros de agua: el equivalente a unas 92 piscinas olímpicas.
Estas eyecciones tambièn han servido a los astrónomos para poder calcular el tamaño de Borisov, resultando que al menos mide 740 metros de anchura, y hasta el 55% de su superficie arrojaba material al espacio cuando estaba en el lugar más pròximo al Sol: una proporción muy considerable, si la comparamos con el resto de todos los cometas catalogados.
Borisov, aún siendo un objeto interestelar, comparte algunos de sus rasgos con los otros cometas internos del Sistema Solar.
Por ejemplo, con respecto al hidroxilo y el cianógeno (carbono y nitrógeno), Borisov produjo una pequeña cantidad de carbono diatómico, molécula hecha de 2 àtomos de carbono y amidógeno, una molécula derivada del amonìaco.
Entre el 25 y el 30% de todos los cometas internos del Sistema Solar tienen este rasgo.
Un saludo.
El Observatorio Swift Neil Gehrels de la NASA ha logrado calcular la cantidad de agua perdida por el cometa interestelar Borisov, a medida que se acercaba y rodeaba al Sol a finales del 2.019, cuando el material congelado en su superficie se calienta y se convierte en gas.
Entre finales del 2.019 y febrero del 2.020 Swift hizo hasta 6 observaciones, y en la actividad máxima, Borisov arrojó 30 litros/segundo de agua al espacio.
Y durante todo su viaje a través del Sistema Solar, han estimado que el cometa perdió 230.000.000 de litros de agua: el equivalente a unas 92 piscinas olímpicas.
Estas eyecciones tambièn han servido a los astrónomos para poder calcular el tamaño de Borisov, resultando que al menos mide 740 metros de anchura, y hasta el 55% de su superficie arrojaba material al espacio cuando estaba en el lugar más pròximo al Sol: una proporción muy considerable, si la comparamos con el resto de todos los cometas catalogados.
Borisov, aún siendo un objeto interestelar, comparte algunos de sus rasgos con los otros cometas internos del Sistema Solar.
Por ejemplo, con respecto al hidroxilo y el cianógeno (carbono y nitrógeno), Borisov produjo una pequeña cantidad de carbono diatómico, molécula hecha de 2 àtomos de carbono y amidógeno, una molécula derivada del amonìaco.
Entre el 25 y el 30% de todos los cometas internos del Sistema Solar tienen este rasgo.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Hoy a las 09:56 horas el asteroide 1998 OR2 de unos 2 km. de diámetro, de forma redondeada y que gira sobre sí mismo cada 4 horas, se aproximará hasta 6,3 millones de km. de la Tierra (16 veces la distancia entre la Luna y la Tierra), en su trayectoria por el interior del Sistema Solar.
Desde que fue descubierto el 24.07.1998 dentro del programa NEAT (Near-Earth Asteroid Tracking), es el paso más cercano: tiene una órbita que contiene totalmente a la terrestre y con un perihelio justo afuera de la òrbita de la Tierra.
NEAT tiene sus telescopios ubicados en el monte Maui de la isla de Haleakala (Hawài), a 3.000 metros de altitud, zona que destaca por la limpieza del cielo.
El próximo acercamiento está previsto para el 16.04.2079 con lo que durante todos estos días la comunidad astronómica internacional aprovechará para apuntar diversos telescopios, con la finalidad de recabar mucha màs información del asteroide 1998 OR2.
Un saludo.
Hoy a las 09:56 horas el asteroide 1998 OR2 de unos 2 km. de diámetro, de forma redondeada y que gira sobre sí mismo cada 4 horas, se aproximará hasta 6,3 millones de km. de la Tierra (16 veces la distancia entre la Luna y la Tierra), en su trayectoria por el interior del Sistema Solar.
Desde que fue descubierto el 24.07.1998 dentro del programa NEAT (Near-Earth Asteroid Tracking), es el paso más cercano: tiene una órbita que contiene totalmente a la terrestre y con un perihelio justo afuera de la òrbita de la Tierra.
NEAT tiene sus telescopios ubicados en el monte Maui de la isla de Haleakala (Hawài), a 3.000 metros de altitud, zona que destaca por la limpieza del cielo.
El próximo acercamiento está previsto para el 16.04.2079 con lo que durante todos estos días la comunidad astronómica internacional aprovechará para apuntar diversos telescopios, con la finalidad de recabar mucha màs información del asteroide 1998 OR2.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
El telescopio espacial Spitzer (ya retirado en enero de este año) de la NASA estuvo realizando durante 16 años muy precisas observaciones de la "danza" realizada entre 2 Agujeros Negros Masivos situados en el centro de la galaxia OJ 287.
El mayor de ellos está rodeado por un gigantesco disco de gas, y el más pequeño colisiona una y otra vez con el disco, entrando y saliendo, produciendo en cada choque un destello equivalente a 1.000 millones de estrellas.
Debido a la compleja física del sistema que afecta al camino de la òrbita del AN menor, estos destellos se han visto que suceden de manera irregular, con diferencias que abarcan entre 1 y 12 años entre sí.
El equipo que ha estudiado a este dúo de AN ha logrado finalmente crear un modelo predecible de ese "baile" estelar, con los impactos del AN menor atravesando el disco de gas, que se puede apreciar en el siguiente video (sin sonido) de 1' 12" resultando poco a poco un dibujo en forma de rosetón.
A partir de los 48" el diagrama animado de la izquierda nos ilustra con el recorrido de la òrbita del AN menor (punto rojo) alrededor del AN mayor (punto blanco), y sus colisiones con el disco de gas (línea rosa), que se producen 2 veces por òrbita.
Los años de las colisiones se indican debajo del diagrama y en el gráfico de la derecha, que se remonta hasta el año 1.886.
[Tienes que estar registrado y conectado para ver este vínculo]
Un saludo.
El telescopio espacial Spitzer (ya retirado en enero de este año) de la NASA estuvo realizando durante 16 años muy precisas observaciones de la "danza" realizada entre 2 Agujeros Negros Masivos situados en el centro de la galaxia OJ 287.
El mayor de ellos está rodeado por un gigantesco disco de gas, y el más pequeño colisiona una y otra vez con el disco, entrando y saliendo, produciendo en cada choque un destello equivalente a 1.000 millones de estrellas.
Debido a la compleja física del sistema que afecta al camino de la òrbita del AN menor, estos destellos se han visto que suceden de manera irregular, con diferencias que abarcan entre 1 y 12 años entre sí.
El equipo que ha estudiado a este dúo de AN ha logrado finalmente crear un modelo predecible de ese "baile" estelar, con los impactos del AN menor atravesando el disco de gas, que se puede apreciar en el siguiente video (sin sonido) de 1' 12" resultando poco a poco un dibujo en forma de rosetón.
A partir de los 48" el diagrama animado de la izquierda nos ilustra con el recorrido de la òrbita del AN menor (punto rojo) alrededor del AN mayor (punto blanco), y sus colisiones con el disco de gas (línea rosa), que se producen 2 veces por òrbita.
Los años de las colisiones se indican debajo del diagrama y en el gráfico de la derecha, que se remonta hasta el año 1.886.
[Tienes que estar registrado y conectado para ver este vínculo]
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Un equipo de investigadores del Instituto Max Planck publican el primer estudio comparativo en Science sobre la actividad del Sol y otras 369 estrellas similares, en el que nos muestran, sorpresivamente, que el grupo de estrellas tiene unas variaciones de intensidad del brillo unas 5 veces mayores.
El grado en que varía la actividad del Sol (número de manchas y brillo) han podido reconstruirlo desde el año 1.610 pues existen datos fidedignos desde esa fecha.
Y las distribuciones de variedades radiactivas del carbono y berilio que se pueden apreciar en los anillos de los árboles y en los núcleos de hielo, permiten saberlo en los últimos 9.000 años.
Seleccionando y filtrando entre los miles de estrellas del catálogo del telescopio espacial Kepler, escogieron 369 astros semejantes en temperatura superficial, edad, proporción de hidrógeno y helio, y periodo de rotación sobre sí mismas: esta última, es una variable crucial, pues la rotación contribuye a la creación del campo magnético en un proceso de dinamo interior.
El estado del campo magnético determina con qué frecuencia el Sol emite su radiación energética, y arroja partìculas a elevadas velocidades a su espacio exterior en violentas erupciones.
El Sol rota sobre sí mismo cada 24,5 días y las 369 estrellas seleccionadas entre 20 y 30 días.
Con las conclusiones de este estudio sabemos que el Sol ha sido mucho menos activo durante los últimos 9.000 años, comparado con esas 369 estrellas muy semejantes.
Y en los últimos 10 años tambièn ha mostrado menor brillo de lo habitual, dentro de sus estándares, siendo las predicciones para los próximos 11 años muy semejantes.
Un saludo.
Un equipo de investigadores del Instituto Max Planck publican el primer estudio comparativo en Science sobre la actividad del Sol y otras 369 estrellas similares, en el que nos muestran, sorpresivamente, que el grupo de estrellas tiene unas variaciones de intensidad del brillo unas 5 veces mayores.
El grado en que varía la actividad del Sol (número de manchas y brillo) han podido reconstruirlo desde el año 1.610 pues existen datos fidedignos desde esa fecha.
Y las distribuciones de variedades radiactivas del carbono y berilio que se pueden apreciar en los anillos de los árboles y en los núcleos de hielo, permiten saberlo en los últimos 9.000 años.
Seleccionando y filtrando entre los miles de estrellas del catálogo del telescopio espacial Kepler, escogieron 369 astros semejantes en temperatura superficial, edad, proporción de hidrógeno y helio, y periodo de rotación sobre sí mismas: esta última, es una variable crucial, pues la rotación contribuye a la creación del campo magnético en un proceso de dinamo interior.
El estado del campo magnético determina con qué frecuencia el Sol emite su radiación energética, y arroja partìculas a elevadas velocidades a su espacio exterior en violentas erupciones.
El Sol rota sobre sí mismo cada 24,5 días y las 369 estrellas seleccionadas entre 20 y 30 días.
Con las conclusiones de este estudio sabemos que el Sol ha sido mucho menos activo durante los últimos 9.000 años, comparado con esas 369 estrellas muy semejantes.
Y en los últimos 10 años tambièn ha mostrado menor brillo de lo habitual, dentro de sus estándares, siendo las predicciones para los próximos 11 años muy semejantes.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Un experimento explorará la Materia Oscura (MO) llevando átomos a estados de superposición separados por distancias macroscòpicas.
Los investigadores se preparan para escudriñar la naturaleza a pequeñas distancias "estirando" átomos ultrafríos hasta escalas macroscòpicas, mientras los dejan caer por un tubo de 100 metros de longitud.
Aprovechando las propiedades ondulatorias de los àtomos, el experimento buscará posibles señales de la elusiva MO y, en un futuro, Ondas Gravitacionales de nuevas frecuencias.
Científicos de 8 instituciones han unido sus esfuerzos para convertir el pozo de una mina de Illinois en el interferómetro atómico mayor del mundo: el Sensor Interferométrico de Gradiómetro Atómico de Ondas de Materia (MAGIS-100).
Tras completar la fase de diseño, los investigadores pretenden montar el instrumento en 2.021 y poco después comenzar a usar los láseres para inducir estados de superposición en átomos de estroncio y separarlos a grandes distancias.
"En el verano del año 2.021 es cuando las cosas empezarán a ponerse verdaderamente interesantes", afirma Rob Plunkett, investigador principal del proyecto en el Fermilab, el laboratorio que acogerá el experimento.
Con un total de 12,3 millones de $ el proyecto se suma a toda una serie de investigaciones de precisión que tratan de llenar el vacío existente entre los pequeños experimentos de sobremesa desarrollados en una única universidad, y los proyectos de varios decenios y miles de millones de $ como el Gran Colisionador de Hadrones (LHC), o el Observatorio de Ondas Gravitacionales por Interferometría Láser (LIGO).
"Para explorar el gran abanico de masas y propiedades que podría tener la MO, también se necesitan proyectos a pequeña escala: no puedes jugártelo todo a una carta", explica Asimina Arvanitaki, investigadora del Instituto Perimeter de Física Teórica en Ontario.
En el experimento MAGIS-100 se manipularán átomos en caída libre con láseres.
Un pulso láser puede interaccionar con un átomo individual e inducir en él una superposición de estados cuánticos, correspondientes a haber absorbido o no la energía del láser.
Según la mecánica cuàntica, todo lo que existe en la naturaleza, desde un fotón a una bola de beisbol, tiene propiedades ondulatorias, aunque estas sean imperceptibles en los grandes objetos.
Cuando los laseres de MAGIS-100 exciten un átomo de la forma adecuada, su naturaleza ondulatoria le permitirá "extenderse en el espacio" (es decir, adoptar una superposición de estados de movimiento caracterizados por una separación espacial macroscópica), con la componente excitada de la onda atómica, la que absorbe la energìa del làser, desplazàndose a mayor velocidad.
Un prototipo de MAGIS de 10 metros de altura ubicado en la Universidad de Stanford ha batido un récord al producir separaciones de más de medio metro entre los estados.
La instalación del Fermilab debería alcanzar varios metros.
A medida que los átomos bajan por el pozo, un segundo pulso làser recombinará la componente excitada de cada onda atómica con su compañera más lenta.
Midiendo la interferencia entre ambas, los investigadores podrán establecer con precisión la aceleración del átomo que cae.
Dado que los atomos estarán en caìda libre durante todo el proceso, las vibraciones producidas por terremotos o por grandes camiones que circulen en las inmediaciones apenas deberìan afectar a las medidas.
Continuará.
Un saludo.
Un experimento explorará la Materia Oscura (MO) llevando átomos a estados de superposición separados por distancias macroscòpicas.
Los investigadores se preparan para escudriñar la naturaleza a pequeñas distancias "estirando" átomos ultrafríos hasta escalas macroscòpicas, mientras los dejan caer por un tubo de 100 metros de longitud.
Aprovechando las propiedades ondulatorias de los àtomos, el experimento buscará posibles señales de la elusiva MO y, en un futuro, Ondas Gravitacionales de nuevas frecuencias.
Científicos de 8 instituciones han unido sus esfuerzos para convertir el pozo de una mina de Illinois en el interferómetro atómico mayor del mundo: el Sensor Interferométrico de Gradiómetro Atómico de Ondas de Materia (MAGIS-100).
Tras completar la fase de diseño, los investigadores pretenden montar el instrumento en 2.021 y poco después comenzar a usar los láseres para inducir estados de superposición en átomos de estroncio y separarlos a grandes distancias.
"En el verano del año 2.021 es cuando las cosas empezarán a ponerse verdaderamente interesantes", afirma Rob Plunkett, investigador principal del proyecto en el Fermilab, el laboratorio que acogerá el experimento.
Con un total de 12,3 millones de $ el proyecto se suma a toda una serie de investigaciones de precisión que tratan de llenar el vacío existente entre los pequeños experimentos de sobremesa desarrollados en una única universidad, y los proyectos de varios decenios y miles de millones de $ como el Gran Colisionador de Hadrones (LHC), o el Observatorio de Ondas Gravitacionales por Interferometría Láser (LIGO).
"Para explorar el gran abanico de masas y propiedades que podría tener la MO, también se necesitan proyectos a pequeña escala: no puedes jugártelo todo a una carta", explica Asimina Arvanitaki, investigadora del Instituto Perimeter de Física Teórica en Ontario.
En el experimento MAGIS-100 se manipularán átomos en caída libre con láseres.
Un pulso láser puede interaccionar con un átomo individual e inducir en él una superposición de estados cuánticos, correspondientes a haber absorbido o no la energía del láser.
Según la mecánica cuàntica, todo lo que existe en la naturaleza, desde un fotón a una bola de beisbol, tiene propiedades ondulatorias, aunque estas sean imperceptibles en los grandes objetos.
Cuando los laseres de MAGIS-100 exciten un átomo de la forma adecuada, su naturaleza ondulatoria le permitirá "extenderse en el espacio" (es decir, adoptar una superposición de estados de movimiento caracterizados por una separación espacial macroscópica), con la componente excitada de la onda atómica, la que absorbe la energìa del làser, desplazàndose a mayor velocidad.
Un prototipo de MAGIS de 10 metros de altura ubicado en la Universidad de Stanford ha batido un récord al producir separaciones de más de medio metro entre los estados.
La instalación del Fermilab debería alcanzar varios metros.
A medida que los átomos bajan por el pozo, un segundo pulso làser recombinará la componente excitada de cada onda atómica con su compañera más lenta.
Midiendo la interferencia entre ambas, los investigadores podrán establecer con precisión la aceleración del átomo que cae.
Dado que los atomos estarán en caìda libre durante todo el proceso, las vibraciones producidas por terremotos o por grandes camiones que circulen en las inmediaciones apenas deberìan afectar a las medidas.
Continuará.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Prosigo con la segunda y última parte.
MAGIS-100 dejará caer simultáneamente 1.000.000 de estas ondas atómicas a lo largo de las secciones superior e inferior del pozo. Analizando aún más patrones de interferencia (comparando los de las nubes superior e inferior de àtomos), el aparato será capaz de detectar minúsculas discrepancias con las leyes físicas conocidas a lo largo de todo el instrumento.
Por ejemplo, cualquier pequeña diferencia en la manera en que caen las ondas atómicas, podría revelar la presencia de partículas desconocidas en el espacio a través del que viajaron.
"Cuanto más tiempo dure la caída de los átomos, màs precisa será la medida", dice el físico de Stanford Jason Hogan.
La Materia Oscura (MO) podría producir efectos medibles en este experimento.
La mayoría de los proyectos de detección de MO han buscado las llamadas partículas masivas que interaccionan débilmente (WIMP), un tipo de partículas pesadas predichas por la teoría. Pero, dado que no han aparecido, empiezan a considerarse otras alternativas.
Entre los numerosos modelos de MO, las partículas ultraligeras (que según Plunkett constituyen "todo un continente inexplorado"), están cobrando fuerza.
Estos objetos fantasmales podrían influir de diversas maneras en las partículas conocidas, según Surjeet Rajendran, físico teórico de la Universidad Johns Hopkins y colaborador de MAGIS.
El aparato MAGIS-100 debería ser capaz de detectar dos efectos producidos por estas partículas, que podrían ser 1.000 trillones de veces más ligeras que el electrón:
- Variaciones en el valor de las constantes fundamentales.
- Perturbaciones producidas por una quinta fuerza todavía desconocida.
MAGIS sería entre cientos y miles de veces màs sensible a estos cambios que todos los instrumentos actuales.
Mientras algunos investigadores prefieren buscar partículas con propiedades concretas predichas por la teoría, otros optan por tender la red màs amplia que permita la tecnología.
Los aceleradores de partículas ya han explorado minuciosamente el dominio de las partículas pesadas y con intensas interacciones. A pesar de ello, al modelo estándar de la física de partículas parecen faltarle aún algunas piezas cruciales.
Gray Rybka, físico de la Universidad de Washington, señala que "existe la sensación de que realizar un descubrimiento en el intervalo de masas màs bajas podría resultar más sencillo".
Y añade que el número de científicos que comparten esa opinión "no ha dejado de multiplicarse en la última década".
Aún sin saber exactamente qué está buscando, MAGIS "ampliará notablemente el alcance de los actuales experimentos", asegura Arvanitaki.
E incluso si la MO resultase invisible para MAGIS-100, el aparato también puede realizar avances en el campo de las Ondas Gravitacionales. Aunque no será capaz de detectarlas por sì mismo, servirá para poner a prueba y desarrollar la tecnología que se usará en una futura versión del experimento, la cual podría registrar pequeñas perturbaciones espaciales al dejar caer nubes de àtomos separadas por 1.000 metros.
Este método podría medir Ondas Gravitacionales con frecuencias demasiado bajas para LIGO, y demasiado altas para el futuro detector espacial LISA (Antena Espacial de Interferometría Láser), como las producidas por los Agujeros Negros y las estrellas de neutrones tiempo antes de chocar.
Un hipotético proyecto "MAGIS-1000" sería capaz de proporcionar a los telescopios alertas tempranas de tales colisiones.
Por ahora, los investigadores esperan que MAGIS-100 les permita abrir una nueva vía de acceso al mundo de la MO ultraligera.
Tim Kovachy, físico de la Universidad del Noroeste que trabaja en el sistema láser del experimento, indica: "Hay que hacer todo lo posible, pues estamos muy motivados para no dejar un rincón sin explorar".
Un saludo.
Prosigo con la segunda y última parte.
MAGIS-100 dejará caer simultáneamente 1.000.000 de estas ondas atómicas a lo largo de las secciones superior e inferior del pozo. Analizando aún más patrones de interferencia (comparando los de las nubes superior e inferior de àtomos), el aparato será capaz de detectar minúsculas discrepancias con las leyes físicas conocidas a lo largo de todo el instrumento.
Por ejemplo, cualquier pequeña diferencia en la manera en que caen las ondas atómicas, podría revelar la presencia de partículas desconocidas en el espacio a través del que viajaron.
"Cuanto más tiempo dure la caída de los átomos, màs precisa será la medida", dice el físico de Stanford Jason Hogan.
La Materia Oscura (MO) podría producir efectos medibles en este experimento.
La mayoría de los proyectos de detección de MO han buscado las llamadas partículas masivas que interaccionan débilmente (WIMP), un tipo de partículas pesadas predichas por la teoría. Pero, dado que no han aparecido, empiezan a considerarse otras alternativas.
Entre los numerosos modelos de MO, las partículas ultraligeras (que según Plunkett constituyen "todo un continente inexplorado"), están cobrando fuerza.
Estos objetos fantasmales podrían influir de diversas maneras en las partículas conocidas, según Surjeet Rajendran, físico teórico de la Universidad Johns Hopkins y colaborador de MAGIS.
El aparato MAGIS-100 debería ser capaz de detectar dos efectos producidos por estas partículas, que podrían ser 1.000 trillones de veces más ligeras que el electrón:
- Variaciones en el valor de las constantes fundamentales.
- Perturbaciones producidas por una quinta fuerza todavía desconocida.
MAGIS sería entre cientos y miles de veces màs sensible a estos cambios que todos los instrumentos actuales.
Mientras algunos investigadores prefieren buscar partículas con propiedades concretas predichas por la teoría, otros optan por tender la red màs amplia que permita la tecnología.
Los aceleradores de partículas ya han explorado minuciosamente el dominio de las partículas pesadas y con intensas interacciones. A pesar de ello, al modelo estándar de la física de partículas parecen faltarle aún algunas piezas cruciales.
Gray Rybka, físico de la Universidad de Washington, señala que "existe la sensación de que realizar un descubrimiento en el intervalo de masas màs bajas podría resultar más sencillo".
Y añade que el número de científicos que comparten esa opinión "no ha dejado de multiplicarse en la última década".
Aún sin saber exactamente qué está buscando, MAGIS "ampliará notablemente el alcance de los actuales experimentos", asegura Arvanitaki.
E incluso si la MO resultase invisible para MAGIS-100, el aparato también puede realizar avances en el campo de las Ondas Gravitacionales. Aunque no será capaz de detectarlas por sì mismo, servirá para poner a prueba y desarrollar la tecnología que se usará en una futura versión del experimento, la cual podría registrar pequeñas perturbaciones espaciales al dejar caer nubes de àtomos separadas por 1.000 metros.
Este método podría medir Ondas Gravitacionales con frecuencias demasiado bajas para LIGO, y demasiado altas para el futuro detector espacial LISA (Antena Espacial de Interferometría Láser), como las producidas por los Agujeros Negros y las estrellas de neutrones tiempo antes de chocar.
Un hipotético proyecto "MAGIS-1000" sería capaz de proporcionar a los telescopios alertas tempranas de tales colisiones.
Por ahora, los investigadores esperan que MAGIS-100 les permita abrir una nueva vía de acceso al mundo de la MO ultraligera.
Tim Kovachy, físico de la Universidad del Noroeste que trabaja en el sistema láser del experimento, indica: "Hay que hacer todo lo posible, pues estamos muy motivados para no dejar un rincón sin explorar".
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Un equipo de astrónomos de la ESO al mando de Thomas Rivinius, publica en Astronomy & Astrophysics que han encontrado un Agujero Negro (AN) de masa estelar en la Vía Láctea, situado a solo 1.000 años luz de la Tierra: es el más cercano a nosotros descubierto hasta la fecha, lo han llamado HR 6819 y tiene solamente 8 masas solares.
Ha sido hallado con el espectrógrafo FEROS instalado en el telescopio MPG de espejo de 2,20 metros de diàmetro del Observatorio La Silla ubicado en Chile.
Forma parte de un sistema triple junto con 2 estrellas compañeras que lo orbitan, y de momento no consume materia, permaneciendo "dormido".
Está en la Constelación de Telescopium, y se pueden ver las 2 estrellas a simple vista desde el hemisferio sur de la Tierra en una noche oscura y despejada.
Existen solamente dos docenas de AN de masa estelar catalogados en la Vía Láctea y los astrónomos piensan que pueden haber muchos más sistemas triples como el de HR 6819: el próximo a confirmar es el denominado LB-1.
Encontrar màs AN de masa estelar y poder estudiarlos serviría para aprender mucho sobre la formación y evolución de las estrellas que nacen con más de 8 masas solares, que terminan su vida explotando en forma de supernova y dejando tras de sí un Agujero Negro.
Un saludo.
Un equipo de astrónomos de la ESO al mando de Thomas Rivinius, publica en Astronomy & Astrophysics que han encontrado un Agujero Negro (AN) de masa estelar en la Vía Láctea, situado a solo 1.000 años luz de la Tierra: es el más cercano a nosotros descubierto hasta la fecha, lo han llamado HR 6819 y tiene solamente 8 masas solares.
Ha sido hallado con el espectrógrafo FEROS instalado en el telescopio MPG de espejo de 2,20 metros de diàmetro del Observatorio La Silla ubicado en Chile.
Forma parte de un sistema triple junto con 2 estrellas compañeras que lo orbitan, y de momento no consume materia, permaneciendo "dormido".
Está en la Constelación de Telescopium, y se pueden ver las 2 estrellas a simple vista desde el hemisferio sur de la Tierra en una noche oscura y despejada.
Existen solamente dos docenas de AN de masa estelar catalogados en la Vía Láctea y los astrónomos piensan que pueden haber muchos más sistemas triples como el de HR 6819: el próximo a confirmar es el denominado LB-1.
Encontrar màs AN de masa estelar y poder estudiarlos serviría para aprender mucho sobre la formación y evolución de las estrellas que nacen con más de 8 masas solares, que terminan su vida explotando en forma de supernova y dejando tras de sí un Agujero Negro.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Se publica en "The Astronomer's Telegram", que el pasado 28 de abril un equipo de astrónomos detectaron por primera vez una explosión rápida de radio de pocos milisegundos de duración (FRB), dentro de la Vía Láctea.
Lo hicieron usando el radiotelescopio CHIME ubicado en Canadá, y es un evento único hasta la fecha: bien podría resolver estos enigmáticos y potentísimos sucesos energéticos que ocurren de improvisto desde cualquier lugar del Cosmos.
Al recibirse desde tan cerca, han podido identificar el objeto que emitió la FRB y proviene de un magnetar conocido como SGR 1935+2154 y está lo suficientemente aproximado de la Tierra, como para poder medir la contraparte de rayos X de la explosión FRB: hasta ahora ha sido imposible desde que se detectó la primera FRB en el año 2.001, siendo incluso algunos de estos eventos repetitivos.
La hipótesis que barajan los científicos sobre la causa de las FRB es que se tratarían de un tipo singular de estrellas de neutrones con un campo magnético extremadamente potente, y el equilibrio entre su campo magnètico y su fuerza gravitacional conduce a temblores muy fuertes, seguidos de masivos destellos del magnetar.
Comentan que solamente les falta analizar su espectro, para ser validada como una FRB al 100%.
Un saludo.
Se publica en "The Astronomer's Telegram", que el pasado 28 de abril un equipo de astrónomos detectaron por primera vez una explosión rápida de radio de pocos milisegundos de duración (FRB), dentro de la Vía Láctea.
Lo hicieron usando el radiotelescopio CHIME ubicado en Canadá, y es un evento único hasta la fecha: bien podría resolver estos enigmáticos y potentísimos sucesos energéticos que ocurren de improvisto desde cualquier lugar del Cosmos.
Al recibirse desde tan cerca, han podido identificar el objeto que emitió la FRB y proviene de un magnetar conocido como SGR 1935+2154 y está lo suficientemente aproximado de la Tierra, como para poder medir la contraparte de rayos X de la explosión FRB: hasta ahora ha sido imposible desde que se detectó la primera FRB en el año 2.001, siendo incluso algunos de estos eventos repetitivos.
La hipótesis que barajan los científicos sobre la causa de las FRB es que se tratarían de un tipo singular de estrellas de neutrones con un campo magnético extremadamente potente, y el equilibrio entre su campo magnètico y su fuerza gravitacional conduce a temblores muy fuertes, seguidos de masivos destellos del magnetar.
Comentan que solamente les falta analizar su espectro, para ser validada como una FRB al 100%.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Y de la FRB más cercana descubierta hasta la fecha, nos vamos al tercer sistema más aproximado a la Tierra (después de Alpha Centauri y la Estrella de Barnard), llamado Luhman 16A y Luhman 16B.
Consiste en un sistema binario de enanas marrones muy distintas entre sí.
Las enanas marrones son estrellas fallidas: objetos más pesados que los planetas gigantes, pero con insuficiente masa como para que su gravedad las convierta en luminosas estrellas.
Suelen tener entre 13 y 80 veces la masa de Júpiter.
Este binomio Luhman 16A-16B de enanas marrones pesan cada una 30 veces más que Júpiter, tienen 1.000 grados C. de temperatura y un clima muy diferente, según el artículo publicado por Max Millar-Blanchaer, del Instituto de Tecnologìa de California (Caltech), en The Astrophysical Journal.
Mientras que en Luhman 16A se aprecian unas bandas de nubes similares a las de Júpiter, en Luhman 16B las nubes son más irregulares, por lo que tiene notables variaciones de brillo debido a sus turbias características, donde pueden llover silicatos o amoníaco: lo han revelado las mediciones de luz polarizada en las nubes, a través de un instrumento instalado en el Very Large Telescope.
Los astrónomos piensan que ambas enanas marrones se formaron a la vez, pero al igual que lo sucedido con Venus y la Tierra, estas estrellas pequeñas son gemelas con un clima muy distinto.
Un saludo.
Y de la FRB más cercana descubierta hasta la fecha, nos vamos al tercer sistema más aproximado a la Tierra (después de Alpha Centauri y la Estrella de Barnard), llamado Luhman 16A y Luhman 16B.
Consiste en un sistema binario de enanas marrones muy distintas entre sí.
Las enanas marrones son estrellas fallidas: objetos más pesados que los planetas gigantes, pero con insuficiente masa como para que su gravedad las convierta en luminosas estrellas.
Suelen tener entre 13 y 80 veces la masa de Júpiter.
Este binomio Luhman 16A-16B de enanas marrones pesan cada una 30 veces más que Júpiter, tienen 1.000 grados C. de temperatura y un clima muy diferente, según el artículo publicado por Max Millar-Blanchaer, del Instituto de Tecnologìa de California (Caltech), en The Astrophysical Journal.
Mientras que en Luhman 16A se aprecian unas bandas de nubes similares a las de Júpiter, en Luhman 16B las nubes son más irregulares, por lo que tiene notables variaciones de brillo debido a sus turbias características, donde pueden llover silicatos o amoníaco: lo han revelado las mediciones de luz polarizada en las nubes, a través de un instrumento instalado en el Very Large Telescope.
Los astrónomos piensan que ambas enanas marrones se formaron a la vez, pero al igual que lo sucedido con Venus y la Tierra, estas estrellas pequeñas son gemelas con un clima muy distinto.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Suponer que el espaciotiempo presenta un tipo concreto de estructura granular permite predecir el valor empírico de la Energía Oscura. La idea apunta a una insospechada conexión entre la gravedad y el problema de la medida en mecánica cuàntica.
Cuando en 1.915 Albert Einstein propuso la relatividad general (la teoría que describe la gravedad en términos de la geometría del espaciotiempo), ya venía gestándose la otra gran revolución de la física moderna: la mecánica cuàntica.
Sin embargo, un siglo después aún seguimos sin encontrar un esquema completamente satisfactorio que unifique ambos paradigmas.
Ello se debe, en parte, a la tensión existente entre sus principios básicos, un aspecto que queda ejemplificado por la estricta localidad de la relatividad general y la no localidad intrínseca de la mecànica cuántica, identificada por John Bell en 1.964 al analizar las correlaciones de partículas entrelazadas.
Por otro lado, cabe señalar que cada una de ellas adolece de sus propios problemas por separado.
La relatividad general predice de manera genérica la aparición de singularidades: regiones del espacio y el tiempo donde la teoría pierde su validez. Por su parte, la mecánica cuàntica sufre una deficiencia conceptual muy seria conocida como "problema de medida".
En términos simplificados, esta aparece porque la teoría postula 2 tipos de leyes muy distintas para describir la evolución de un sistema físico, dependiendo de si este se encuentra bajo observación o no.
Sin embargo, la teoría no deja claro en ningún momento qué tipo de interacción cuenta exactamente como observación. Los múltiples enfoques que se han propuesto para intentar resolver esta cuestión siguen siendo objeto de fuertes controversias.
Una pregunta natural es si las tensiones que afectan a estos 2 pilares de la física moderna podrían estar relacionadas.
En una serie de trabajos recientes publicados por investigadores de la Universidad de Aix-Marsella y de Stanford, comentan que se han obtenido resultados que podrìan apuntar en esa dirección. La conexión parece provenir de otro de los grandes misterios de la física contemporánea: la Energía Oscura, el enigmático agente responsable de la expansión acelerada del Universo.
En concreto, una nueva hipótesis sobre la estructura microscópica del espacio y el tiempo proporciona una explicación plausible sobre el origen de la Energía Oscura y, al mismo tiempo, permite predecir correctamente su valor empírico.
Continuará.
Un saludo.
Suponer que el espaciotiempo presenta un tipo concreto de estructura granular permite predecir el valor empírico de la Energía Oscura. La idea apunta a una insospechada conexión entre la gravedad y el problema de la medida en mecánica cuàntica.
Cuando en 1.915 Albert Einstein propuso la relatividad general (la teoría que describe la gravedad en términos de la geometría del espaciotiempo), ya venía gestándose la otra gran revolución de la física moderna: la mecánica cuàntica.
Sin embargo, un siglo después aún seguimos sin encontrar un esquema completamente satisfactorio que unifique ambos paradigmas.
Ello se debe, en parte, a la tensión existente entre sus principios básicos, un aspecto que queda ejemplificado por la estricta localidad de la relatividad general y la no localidad intrínseca de la mecànica cuántica, identificada por John Bell en 1.964 al analizar las correlaciones de partículas entrelazadas.
Por otro lado, cabe señalar que cada una de ellas adolece de sus propios problemas por separado.
La relatividad general predice de manera genérica la aparición de singularidades: regiones del espacio y el tiempo donde la teoría pierde su validez. Por su parte, la mecánica cuàntica sufre una deficiencia conceptual muy seria conocida como "problema de medida".
En términos simplificados, esta aparece porque la teoría postula 2 tipos de leyes muy distintas para describir la evolución de un sistema físico, dependiendo de si este se encuentra bajo observación o no.
Sin embargo, la teoría no deja claro en ningún momento qué tipo de interacción cuenta exactamente como observación. Los múltiples enfoques que se han propuesto para intentar resolver esta cuestión siguen siendo objeto de fuertes controversias.
Una pregunta natural es si las tensiones que afectan a estos 2 pilares de la física moderna podrían estar relacionadas.
En una serie de trabajos recientes publicados por investigadores de la Universidad de Aix-Marsella y de Stanford, comentan que se han obtenido resultados que podrìan apuntar en esa dirección. La conexión parece provenir de otro de los grandes misterios de la física contemporánea: la Energía Oscura, el enigmático agente responsable de la expansión acelerada del Universo.
En concreto, una nueva hipótesis sobre la estructura microscópica del espacio y el tiempo proporciona una explicación plausible sobre el origen de la Energía Oscura y, al mismo tiempo, permite predecir correctamente su valor empírico.
Continuará.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
La teoría cuántica y la relatividad general han alcanzado más que notables éxitos.
La primera nos ha dado la moderna electrónica y nos ha permitido entender no solo la estructura atómica, sino casi la totalidad de la física de partículas.
Por su parte, la relatividad general ha llegado a predecir desde fenómenos como los Agujeros Negros y las Ondas Gravitacionales, hasta el preciso comportamiento de los dispositivos GPS.
Sin embargo, puede que su àmbito de mayor impacto haya sido la cosmología.
Hablar de la dinámica del Universo como un todo resulta casi impensable sin relatividad general.
Fue aquí donde Einstein cometió el que, al parecer, acabaría calificando años más tarde como el "mayor error" de su vida.
La relatividad general implica que el Universo no puede ser estático, sino que debe evolucionar con el tiempo. Sin embargo, la idea de un Cosmos cambiante contradecía los indicios disponibles a principios del siglo XX, por lo que Einstein modificó la teoría agregando un término a sus ecuaciones básicas.
Dicho término, llamado constante cosmológica, ejerce un efecto similar a una "gravedad repulsiva" y hace posible que un universo estático aparezca como solución de las correspondientes ecuaciones.
Pocos años después que Einstein modificase la teorìa original, el astrónomo Edwin Hubble analizó el movimiento de las galaxias distantes y llegó a la conclusiòn de que nuestro Universo no es estático, sino que se expande.
Como consecuencia, la constante cosmològica de Einstein dejó de ser necesaria.
A pesar de ello, los físicos nunca olvidaron por completo la idea, ya que dicho término parecìa tener cabida de manera muy narural en la teorìa.
En efecto, la constante cosmológica puede interpretarse como la densidad de energìa asociada al espacio vacío. Pero, dado que la relatividad general funciona muy bien sin constante cosmológica, esta solo puede tomar un valor diminuto para resultar compatible con las observaciones.
El problema radica en que, al tratar de estimar el valor de la energìa del vacío a partir de primeros principios, se obtiene un valor 10 elevado a 120 veces mayor de lo aceptable.
Ante esta situación, la mayoría de los físicos concluyeron que debía existir algún principio fundamental de la naturaleza que obligaba a que la energía del vacío fuese exactamente cero.
Continuará.
Un saludo.
La teoría cuántica y la relatividad general han alcanzado más que notables éxitos.
La primera nos ha dado la moderna electrónica y nos ha permitido entender no solo la estructura atómica, sino casi la totalidad de la física de partículas.
Por su parte, la relatividad general ha llegado a predecir desde fenómenos como los Agujeros Negros y las Ondas Gravitacionales, hasta el preciso comportamiento de los dispositivos GPS.
Sin embargo, puede que su àmbito de mayor impacto haya sido la cosmología.
Hablar de la dinámica del Universo como un todo resulta casi impensable sin relatividad general.
Fue aquí donde Einstein cometió el que, al parecer, acabaría calificando años más tarde como el "mayor error" de su vida.
La relatividad general implica que el Universo no puede ser estático, sino que debe evolucionar con el tiempo. Sin embargo, la idea de un Cosmos cambiante contradecía los indicios disponibles a principios del siglo XX, por lo que Einstein modificó la teoría agregando un término a sus ecuaciones básicas.
Dicho término, llamado constante cosmológica, ejerce un efecto similar a una "gravedad repulsiva" y hace posible que un universo estático aparezca como solución de las correspondientes ecuaciones.
Pocos años después que Einstein modificase la teorìa original, el astrónomo Edwin Hubble analizó el movimiento de las galaxias distantes y llegó a la conclusiòn de que nuestro Universo no es estático, sino que se expande.
Como consecuencia, la constante cosmològica de Einstein dejó de ser necesaria.
A pesar de ello, los físicos nunca olvidaron por completo la idea, ya que dicho término parecìa tener cabida de manera muy narural en la teorìa.
En efecto, la constante cosmológica puede interpretarse como la densidad de energìa asociada al espacio vacío. Pero, dado que la relatividad general funciona muy bien sin constante cosmológica, esta solo puede tomar un valor diminuto para resultar compatible con las observaciones.
El problema radica en que, al tratar de estimar el valor de la energìa del vacío a partir de primeros principios, se obtiene un valor 10 elevado a 120 veces mayor de lo aceptable.
Ante esta situación, la mayoría de los físicos concluyeron que debía existir algún principio fundamental de la naturaleza que obligaba a que la energía del vacío fuese exactamente cero.
Continuará.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Una de las maneras de formular una teoría que evite el problema de la energía del vacío, pasa por considerar cierta modificaciòn de la relatividad general conocida como "gravedad unimodular".
Esta teoría sufre el inconveniente de que la ley de conservación de la energìa no emana de ella de manera directa (como sí ocurre en relatividad general), sino que debe introducirse como postulado adicional.
Sin embargo, tal y como enfatizó Steven Weinberg en los años ochenta, en la gravedad unimodular el vacío no gravita, lo que evita el desastre de las estimaciones que le asignan una densidad de energìa 10 elevado a 120 veces mayor de lo permitido.
El asunto tomó un cariz bastante más problemàtico en 1.998. Aquel año, diversas observaciones astronòmicas revelaron que el Universo no solo se expande, sino que lo hace cada vez más rápido.
Algo así es justo lo contrario de lo que cabría esperar, ya que, en principio, la atracción gravitatoria entre galaxias debería frenar la expansión còsmica, no acelerarla. Una vez más, la explicación más natural era la constante cosmológica de Einstein y el "efecto repulsivo" que esta implica sobre el movimiento de las galaxias.
Sin embargo, ahora su valor se convierte en un gran misterio: ni es enorme, como indican las estimaciones basadas en la energìa del vacío, ni es exactamente cero, como sugieren varios enfoques alternativos.
De hecho, hoy sabemos que la densidad de energía asociada a la constante cosmológica equivale a unos 7 por 10 elevado a menos 30 gramos/cm3: un valor diminuto, (en comparación, la densidad del agua es de 1 gramo/cm3), pero que, al sumarlo sobre todo el Universo, da cuenta del 68% de su contenido enérgico total.
Esta situación llevó a postular una enorme cantidad de nuevas teorías, al tiempo que el fenómeno causante de la expansión acelerada del Cosmos pasò a denominarse con el término más genérico de Energía Oscura.
Por otro lado, existen varios indicios que llevan a cuestionarse la exactitud de la ley de conservación de la energía. Por supuesto, en caso de que hubiese violaciones de dicha ley, estas tendrìan que ser minúsculas, ya que de lo contrario las habríamos observado en los experimentos.
Con todo, no es necesario que esta ley sea estrictamente vàlida.
Continuará.
Saludos.
Una de las maneras de formular una teoría que evite el problema de la energía del vacío, pasa por considerar cierta modificaciòn de la relatividad general conocida como "gravedad unimodular".
Esta teoría sufre el inconveniente de que la ley de conservación de la energìa no emana de ella de manera directa (como sí ocurre en relatividad general), sino que debe introducirse como postulado adicional.
Sin embargo, tal y como enfatizó Steven Weinberg en los años ochenta, en la gravedad unimodular el vacío no gravita, lo que evita el desastre de las estimaciones que le asignan una densidad de energìa 10 elevado a 120 veces mayor de lo permitido.
El asunto tomó un cariz bastante más problemàtico en 1.998. Aquel año, diversas observaciones astronòmicas revelaron que el Universo no solo se expande, sino que lo hace cada vez más rápido.
Algo así es justo lo contrario de lo que cabría esperar, ya que, en principio, la atracción gravitatoria entre galaxias debería frenar la expansión còsmica, no acelerarla. Una vez más, la explicación más natural era la constante cosmológica de Einstein y el "efecto repulsivo" que esta implica sobre el movimiento de las galaxias.
Sin embargo, ahora su valor se convierte en un gran misterio: ni es enorme, como indican las estimaciones basadas en la energìa del vacío, ni es exactamente cero, como sugieren varios enfoques alternativos.
De hecho, hoy sabemos que la densidad de energía asociada a la constante cosmológica equivale a unos 7 por 10 elevado a menos 30 gramos/cm3: un valor diminuto, (en comparación, la densidad del agua es de 1 gramo/cm3), pero que, al sumarlo sobre todo el Universo, da cuenta del 68% de su contenido enérgico total.
Esta situación llevó a postular una enorme cantidad de nuevas teorías, al tiempo que el fenómeno causante de la expansión acelerada del Cosmos pasò a denominarse con el término más genérico de Energía Oscura.
Por otro lado, existen varios indicios que llevan a cuestionarse la exactitud de la ley de conservación de la energía. Por supuesto, en caso de que hubiese violaciones de dicha ley, estas tendrìan que ser minúsculas, ya que de lo contrario las habríamos observado en los experimentos.
Con todo, no es necesario que esta ley sea estrictamente vàlida.
Continuará.
Saludos.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Prosigo con la cuarta parte.
Entre las razones para dudar de ella se cuentan algunas de las soluciones propuestas al problema de la medida en mecánica cuàntica. Las teorías que postulan el llamado "colapso espontáneo" de la función de onda (ciertas modificaciones de la teoría cuàntica tradicional que resuelven la ambigüedad mencionada antes sobre las distintas leyes de evolución de los sistemas físicos), llevan de manera genérica a violaciones de la ley de conservación de la energía.
En paralelo, varios de los caminos propuestos para formular una teoría cuàntica del espaciotiempo sugieren que, a un nivel fundamental, este no tendría un carácter continuo, sino que presentaría algún tipo de granularidad. De ser el caso, podemos imaginar el espaciotiempo como una superficie rugosa que "frenaría" el movimiento de las partículas, lo que darìa lugar a pequeñas violaciones de la ley de conservación de la energìa.
El aspecto clave reside en que una violación de este tipo, no importa lo pequeña que sea, resulta incompatible con las ecuaciones básicas de la relatividad general. Sin embargo, no sucede lo mismo con la gravedad unimodular. En esta teoría, la conservación de la energìa no aparece como un resultado, sino que debe imponerse desde el principio como un postulado màs.
Hace unos 2 años, el grupo del físico teórico Daniel E. Sudarsky (del Instituto de Ciencias Nucleares de la Universidad Nacional Autónoma de México), decidió explorar el postulado opuesto: ¿qué ocurriría si la ley de conservación de la energìa no fuese vàlida en un sentido estricto?
Lo que observaron fue que, bajo ciertas condiciones, la gravedad unimodular no solo podía acomodar este tipo de violaciones, sino que, además, se generaba un efecto prácticamente indistinguible del asociado a la Energía Oscura.
En los trabajos de 2.018 y 2.019 el equipo de Daniel E. Sudarsky se propuso calcular la dispersión de energía asociada a una hipotética granularidad del espaciotiempo.
En concreto, consideraron un tipo de granularidad que solo se tornaría aparente cuando el espaciotiempo se curvase (es decir, en presencia de materia y energìa), pero que pasaría inadvertida cuando la geometría del espaciotiempo fuese "plana" (sin curvatura).
Aunque nuesto Universo tiene 4 dimensiones (3 dimensiones espaciales más el tiempo), a modo de analogía bidimensional podemos pensar en una pared de azulejos.
Si la pared es plana, no notaremos las baldosas (suponiendo que sus aristas encajen a la perfección).
En cambio, si la pared es curva, los bordes de los azulejos resultarían imposibles de ocultar.
Al deslizar nuestra mano, sentiríamos las aristas como obstáculos que impedirían un movimiento suave.
Continuará con la quinta y última parte.
Un saludo.
Prosigo con la cuarta parte.
Entre las razones para dudar de ella se cuentan algunas de las soluciones propuestas al problema de la medida en mecánica cuàntica. Las teorías que postulan el llamado "colapso espontáneo" de la función de onda (ciertas modificaciones de la teoría cuàntica tradicional que resuelven la ambigüedad mencionada antes sobre las distintas leyes de evolución de los sistemas físicos), llevan de manera genérica a violaciones de la ley de conservación de la energía.
En paralelo, varios de los caminos propuestos para formular una teoría cuàntica del espaciotiempo sugieren que, a un nivel fundamental, este no tendría un carácter continuo, sino que presentaría algún tipo de granularidad. De ser el caso, podemos imaginar el espaciotiempo como una superficie rugosa que "frenaría" el movimiento de las partículas, lo que darìa lugar a pequeñas violaciones de la ley de conservación de la energìa.
El aspecto clave reside en que una violación de este tipo, no importa lo pequeña que sea, resulta incompatible con las ecuaciones básicas de la relatividad general. Sin embargo, no sucede lo mismo con la gravedad unimodular. En esta teoría, la conservación de la energìa no aparece como un resultado, sino que debe imponerse desde el principio como un postulado màs.
Hace unos 2 años, el grupo del físico teórico Daniel E. Sudarsky (del Instituto de Ciencias Nucleares de la Universidad Nacional Autónoma de México), decidió explorar el postulado opuesto: ¿qué ocurriría si la ley de conservación de la energìa no fuese vàlida en un sentido estricto?
Lo que observaron fue que, bajo ciertas condiciones, la gravedad unimodular no solo podía acomodar este tipo de violaciones, sino que, además, se generaba un efecto prácticamente indistinguible del asociado a la Energía Oscura.
En los trabajos de 2.018 y 2.019 el equipo de Daniel E. Sudarsky se propuso calcular la dispersión de energía asociada a una hipotética granularidad del espaciotiempo.
En concreto, consideraron un tipo de granularidad que solo se tornaría aparente cuando el espaciotiempo se curvase (es decir, en presencia de materia y energìa), pero que pasaría inadvertida cuando la geometría del espaciotiempo fuese "plana" (sin curvatura).
Aunque nuesto Universo tiene 4 dimensiones (3 dimensiones espaciales más el tiempo), a modo de analogía bidimensional podemos pensar en una pared de azulejos.
Si la pared es plana, no notaremos las baldosas (suponiendo que sus aristas encajen a la perfección).
En cambio, si la pared es curva, los bordes de los azulejos resultarían imposibles de ocultar.
Al deslizar nuestra mano, sentiríamos las aristas como obstáculos que impedirían un movimiento suave.
Continuará con la quinta y última parte.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
En este espaciotiempo granular, el equipo de Daniel E. Sudarsky procediò a buscar una expresión que describiera el movimiento de una partìcula y que les permitiera evaluar cuáles serían sus desviaciones con respecto a las predicciones de la relatividad general.
Semejante expresión debìa quedar caracterizada por un parámetro no muy diferente de 1, al que denominaron æ; por la masa y el espín de la partícula; por la curvatura del espaciotiempo, y por el estado de movimiento de la materia circundante.
Para sorpresa del equipo de científicos, esos requisitos les llevaron a una expresión prácticamente única que les permitìa estimar la tasa de pérdida de energìa. Y junto a las ecuaciones de la gravedad unimodular, ello les proporcionaba una fòrmula para la constante cosmológica que, al evaluarla, resultò arrojar precisamente el orden de magnitud observado.
En otras palabras: su hipótesis sobre la estructura granular del espaciotiempo podrìa estar explicando no solo la naturaleza y el origen de la Energía Oscura, sino tambièn su magnitud.
Vale la pena señalar que las desviaciones con respecto a la conservación de la energìa que surgen de esta propuesta resultan demasiado pequeñas para poder observarlas directamente, al menos con la actual tecnologìa.
Sin embargo, en el marco de la gravedad unimodular, dichas violaciones se acumulan durante la evolución del Universo. La constante cosmológica sería entonces una especie de "recuerdo" acumulado de las violaciones de la conservación de la energía a lo largo de toda la historia del Cosmos, si bien el efecto dominante parece provenir de una temprana época en la que el Universo observable era unas 10 elevado a 15 veces menor que en la actualidad.
Aunque todo esto parece muy prometedor, todavía quedan varias cuestiones por aclarar.
Por ejmplo, se ha mencionado que las violaciones de la ley de conservación de la energía pueden ser de dos tipos:
- Las debidas a ciertas modificaciones de la mecánica cuàntica concebidas para resolver el problema de la medida.
- Y las asociadas a la granularidad del espaciotiempo.
¿Podrìan una y otra ser dos caras de la misma moneda?
Por otro lado, serìa de gran interés hallar otros efectos ligados a esta idea cuya comprobación experimental permitiese al equipo corroborarla o desecharla.
Todo indica que, en el mejor de los casos, apenas estamos comenzando a entender estos misterios.
Pero, a su vez, esta notable conexión entre la Energía Oscura y la granularidad del espaciotiempo sugiere que es probable que todos ellos estèn interconectados.
Un saludo.
En este espaciotiempo granular, el equipo de Daniel E. Sudarsky procediò a buscar una expresión que describiera el movimiento de una partìcula y que les permitiera evaluar cuáles serían sus desviaciones con respecto a las predicciones de la relatividad general.
Semejante expresión debìa quedar caracterizada por un parámetro no muy diferente de 1, al que denominaron æ; por la masa y el espín de la partícula; por la curvatura del espaciotiempo, y por el estado de movimiento de la materia circundante.
Para sorpresa del equipo de científicos, esos requisitos les llevaron a una expresión prácticamente única que les permitìa estimar la tasa de pérdida de energìa. Y junto a las ecuaciones de la gravedad unimodular, ello les proporcionaba una fòrmula para la constante cosmológica que, al evaluarla, resultò arrojar precisamente el orden de magnitud observado.
En otras palabras: su hipótesis sobre la estructura granular del espaciotiempo podrìa estar explicando no solo la naturaleza y el origen de la Energía Oscura, sino tambièn su magnitud.
Vale la pena señalar que las desviaciones con respecto a la conservación de la energìa que surgen de esta propuesta resultan demasiado pequeñas para poder observarlas directamente, al menos con la actual tecnologìa.
Sin embargo, en el marco de la gravedad unimodular, dichas violaciones se acumulan durante la evolución del Universo. La constante cosmológica sería entonces una especie de "recuerdo" acumulado de las violaciones de la conservación de la energía a lo largo de toda la historia del Cosmos, si bien el efecto dominante parece provenir de una temprana época en la que el Universo observable era unas 10 elevado a 15 veces menor que en la actualidad.
Aunque todo esto parece muy prometedor, todavía quedan varias cuestiones por aclarar.
Por ejmplo, se ha mencionado que las violaciones de la ley de conservación de la energía pueden ser de dos tipos:
- Las debidas a ciertas modificaciones de la mecánica cuàntica concebidas para resolver el problema de la medida.
- Y las asociadas a la granularidad del espaciotiempo.
¿Podrìan una y otra ser dos caras de la misma moneda?
Por otro lado, serìa de gran interés hallar otros efectos ligados a esta idea cuya comprobación experimental permitiese al equipo corroborarla o desecharla.
Todo indica que, en el mejor de los casos, apenas estamos comenzando a entender estos misterios.
Pero, a su vez, esta notable conexión entre la Energía Oscura y la granularidad del espaciotiempo sugiere que es probable que todos ellos estèn interconectados.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
La NASA ha dado a conocer un video de 2' 34" donde nos muestra los 3 robots que llevará a bordo el róver Perseverance que será lanzado en una ventana a partir del 17 de julio hacia Marte, para recoger y almacenar muestras del suelo, y que traerá de vuelta a la Tierra:
[Tienes que estar registrado y conectado para ver este vínculo]
Un saludo.
La NASA ha dado a conocer un video de 2' 34" donde nos muestra los 3 robots que llevará a bordo el róver Perseverance que será lanzado en una ventana a partir del 17 de julio hacia Marte, para recoger y almacenar muestras del suelo, y que traerá de vuelta a la Tierra:
[Tienes que estar registrado y conectado para ver este vínculo]
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Un equipo internacional de astrónomos de la ESO (al mando de Rachana Bhatawdekar) no ha encontrado, sorpresivamente, estrellas de la Población lll de primera generación en el intervalo de 500 a 1.000 millones de años después del Big Bang.
Deducen, en contra de lo que se pensaba hasta ahora, que la Población lll fue forjada a partir del material primordial que surgió del Big Bang: hidrógeno, helio y litio.
Estos 3 elementos son los ùnicos que existían antes de que los procesos en los núcleos de las estrellas pudieran crear elementos más pesados, como nitrógeno, oxìgeno, hierro y carbono.
Han usado datos de archivo tomados por el Telescopio Espacial Spitzer, el Very Large Telescope y muy recientes del Hubble, para estudiar el cúmulo masivo MACSJO416 con la càmara de campo amplio 3 del Hubble.
Usando este súpercúmulo de galaxias como lente gravitacional, han revelado galaxias más lejanas tras èl de 10 a 100 veces más dèbiles de lo observado anteriormente.
Dicha cámara ha permitido al Hubble usar esta "lupa cósmica" para poder estudiar objetos mucho más allà de sus capacidades operativas nominales.
El equipo de la ESO desarrolló una nueva técnica para disminuir la luz de las galaxias brillantes situadas en un primer plano que constituyen esta lente gravitacional, y así descubrir galaxias distantes con masas más bajas nunca antes observadas, hasta solamente 500 millones de años tras el Big Bang.
Rachana Bhatawdekar dice: "Estos resultados tienen profundas consecuencias astrofísicas, ya que las galaxias de la primera generación en el Universo temprano (llamada Población lll) se formaron mucho antes de lo que pensàbamos. Tambièn respalda firmemente la idea de que las galaxias débiles de baja masa en el Universo temprano son las responsables de la reionización: periodo cuando el medio intergalàctico neutral fue ionizado por las primeras estrellas y galaxias".
Un saludo.
Un equipo internacional de astrónomos de la ESO (al mando de Rachana Bhatawdekar) no ha encontrado, sorpresivamente, estrellas de la Población lll de primera generación en el intervalo de 500 a 1.000 millones de años después del Big Bang.
Deducen, en contra de lo que se pensaba hasta ahora, que la Población lll fue forjada a partir del material primordial que surgió del Big Bang: hidrógeno, helio y litio.
Estos 3 elementos son los ùnicos que existían antes de que los procesos en los núcleos de las estrellas pudieran crear elementos más pesados, como nitrógeno, oxìgeno, hierro y carbono.
Han usado datos de archivo tomados por el Telescopio Espacial Spitzer, el Very Large Telescope y muy recientes del Hubble, para estudiar el cúmulo masivo MACSJO416 con la càmara de campo amplio 3 del Hubble.
Usando este súpercúmulo de galaxias como lente gravitacional, han revelado galaxias más lejanas tras èl de 10 a 100 veces más dèbiles de lo observado anteriormente.
Dicha cámara ha permitido al Hubble usar esta "lupa cósmica" para poder estudiar objetos mucho más allà de sus capacidades operativas nominales.
El equipo de la ESO desarrolló una nueva técnica para disminuir la luz de las galaxias brillantes situadas en un primer plano que constituyen esta lente gravitacional, y así descubrir galaxias distantes con masas más bajas nunca antes observadas, hasta solamente 500 millones de años tras el Big Bang.
Rachana Bhatawdekar dice: "Estos resultados tienen profundas consecuencias astrofísicas, ya que las galaxias de la primera generación en el Universo temprano (llamada Población lll) se formaron mucho antes de lo que pensàbamos. Tambièn respalda firmemente la idea de que las galaxias débiles de baja masa en el Universo temprano son las responsables de la reionización: periodo cuando el medio intergalàctico neutral fue ionizado por las primeras estrellas y galaxias".
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
El 10 de abril de 2.019 la humanidad atisbó por primera vez un Agujero Negro (AN).
El Telescopio del Horizonte de Sucesos (EHT), una red de radiotelescopios distribuidos estratégicamente por toda la Tierra, difundió la imagen de un AN de 6.500 millones de masas solares situado en el centro de la cercana galaxia llamada M87.
Supuso un logro impresionante: fue nuestro primer vistazo a los objetos más enigmáticos del Universo, predichos desde hace mucho, pero que nunca habían sido avistados directamente.
Lo màs emocionante es que esta imagen y otras observaciones ya están comenzando a proporcionar nuevas pistas sobre uno de los misterios más profundos de la física.
Los AN son una predicción de la Relatividad General y numerosos indicios astrofísicos apoyan su existencia. Pero en 1.974 Stephen Hawking descubrió que los AN se evaporan. Eso implicarìa que todo lo que cae en ellos acaba por ser destruido, incluida la información contenida en la materia que engullen.
Sin embargo, la mecánica cuàntica prohìbe que se destruya la información.
Eso ha llevado a los físicos a lanzar varias propuestas o hipótesis para modificar nuestra imagen de los AN y hacerla compatible con la física cuàntica:
- LA INFORMACIÓN SE DESTRUYE: Agujero Negro "Clásico" con horizonte de sucesos en el borde más externo. La información que entra en el AN se destruye al evaporarse este. El problema es que contradice la mecánica cuàntica, que establece que la información no puede destruirse.
- LA INFORMACIÓN NO SE DESTRUYE:
1) Agujero Negro de "Pelo Suave" en el borde más externo y un poco más allá está la impronta de la información. Esta información no entra completamente en el AN, sino que deja una impronta justo fuera del horizonte de sucesos. El problema es que la mayoría de los expertos no consideran que esta propuesta proporcione una solución convincente.
2) Agujero Negro de "Bola de Pelusa": es un tipo de remanente masivo en el que el AN es reemplazado por cuerdas y geometrìa de dimensiones superiores. El problema es que exige modificar la noción de localidad, es decir, la idea de que nada (tampoco la información) puede viajar màs rápido que la luz.
3) Agujero Negro de "Muro de Fuego", con un muro de partículas en su zona más externa. Es un tipo de remanente masivo, en el que un muro de partículas de alta energía sustituye al horizonte de sucesos, y el AN no tiene interior. El problema es que exige modificar la noción de localidad, es decir, la idea de que nada (tampoco la información) puede viajar más rápido que la luz.
4) Agujero Negro de "Halo Cuàntico". Un AN de halo cuàntico interacciona con su entorno, posiblemente mediante pequeñas fluctuaciones del espaciotiempo. Eso permite la transferencia de la información al exterior. El problema es que exige modificar la noción de localidad, es decir, la idea de que nada (tampoco la información) puede viajar más rápido que la luz.
Continuará.
Un saludo.
El 10 de abril de 2.019 la humanidad atisbó por primera vez un Agujero Negro (AN).
El Telescopio del Horizonte de Sucesos (EHT), una red de radiotelescopios distribuidos estratégicamente por toda la Tierra, difundió la imagen de un AN de 6.500 millones de masas solares situado en el centro de la cercana galaxia llamada M87.
Supuso un logro impresionante: fue nuestro primer vistazo a los objetos más enigmáticos del Universo, predichos desde hace mucho, pero que nunca habían sido avistados directamente.
Lo màs emocionante es que esta imagen y otras observaciones ya están comenzando a proporcionar nuevas pistas sobre uno de los misterios más profundos de la física.
Los AN son una predicción de la Relatividad General y numerosos indicios astrofísicos apoyan su existencia. Pero en 1.974 Stephen Hawking descubrió que los AN se evaporan. Eso implicarìa que todo lo que cae en ellos acaba por ser destruido, incluida la información contenida en la materia que engullen.
Sin embargo, la mecánica cuàntica prohìbe que se destruya la información.
Eso ha llevado a los físicos a lanzar varias propuestas o hipótesis para modificar nuestra imagen de los AN y hacerla compatible con la física cuàntica:
- LA INFORMACIÓN SE DESTRUYE: Agujero Negro "Clásico" con horizonte de sucesos en el borde más externo. La información que entra en el AN se destruye al evaporarse este. El problema es que contradice la mecánica cuàntica, que establece que la información no puede destruirse.
- LA INFORMACIÓN NO SE DESTRUYE:
1) Agujero Negro de "Pelo Suave" en el borde más externo y un poco más allá está la impronta de la información. Esta información no entra completamente en el AN, sino que deja una impronta justo fuera del horizonte de sucesos. El problema es que la mayoría de los expertos no consideran que esta propuesta proporcione una solución convincente.
2) Agujero Negro de "Bola de Pelusa": es un tipo de remanente masivo en el que el AN es reemplazado por cuerdas y geometrìa de dimensiones superiores. El problema es que exige modificar la noción de localidad, es decir, la idea de que nada (tampoco la información) puede viajar màs rápido que la luz.
3) Agujero Negro de "Muro de Fuego", con un muro de partículas en su zona más externa. Es un tipo de remanente masivo, en el que un muro de partículas de alta energía sustituye al horizonte de sucesos, y el AN no tiene interior. El problema es que exige modificar la noción de localidad, es decir, la idea de que nada (tampoco la información) puede viajar más rápido que la luz.
4) Agujero Negro de "Halo Cuàntico". Un AN de halo cuàntico interacciona con su entorno, posiblemente mediante pequeñas fluctuaciones del espaciotiempo. Eso permite la transferencia de la información al exterior. El problema es que exige modificar la noción de localidad, es decir, la idea de que nada (tampoco la información) puede viajar más rápido que la luz.
Continuará.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Este enigma es la paradoja de qué ocurre con la informaciòn en un Agujero Negro (AN).
Al investigar esta cuestión, los físicos han descubierto que la mera existencia de los AN resulta incompatible con las leyes cuànticas que, hasta donde sabemos, describen el resto del Universo.
Resolver esta contradicción podrìa requerir una revolución conceptual tan profunda como la que nos llevó de la física clásica a la mecánica cuàntica.
Los teóricos han examinado muchas ideas, pero no disponían de demasiados indicios directos que les ayudaran a resolver el problema. Sin embargo, con la primera imagen de un AN comenzamos a tener datos reales con lo que dar forma a sus teorías.
Las futuras observaciones del EHT (especialmente aquellas que muestren la evolución temporal de los AN) y las recientes detecciones de fusiones de AN mediante observatorios de Ondas Gravitacionales podrían brindarnos pistas importantes y marcar el comienzo de una nueva era en la física
Pese al misterio que los envuelve, los AN parecen estar por todo el Cosmos.
Las observaciones del EHT y las mediciones de Ondas Gravitacionales constituyen los indicios más sólidos y recientes de que estos objetos son reales y sorprendentemente comunes.
No obstante, su mera existencia amenaza los fundamentos de la física: al aplicar a los AN los principios básicos de la mecánica cuàntica que creemos que gobiernan el resto de las leyes de la naturaleza, surgen contradicciones. Eso pone de manifiesto algún tipo de fallo en la forma actual de dichas leyes.
El problema emana de una de las preguntas más sencillas que podemos hacernos sobre los AN: ¿qué sucede con lo que cae en ellos?
De acuerdo con las leyes actuales de la mecánica cuàntica, la materia y la energía pueden cambiar de forma. Las partìculas, por ejemplo, pueden transformarse en otras. Pero hay algo que es sagrado y nunca se destruye: la información cuàntica.
Si conocemos la descripciòn cuántica completa de un sistema, deberìamos ser capaces de determinar siempre y de forma exacta su descripción anterior o posterior, sin pérdida alguna de información. Así que una pregunta más precisa sería: ¿qué ocurre con la información cuàntica que cae en un AN?
Nuestra comprensión de los AN se basa en la teorìa de la relatividad general de Albert Einstein, que describe la gravedad como el resultado de la curvatura del espacio y el tiempo.
Una forma habitual de visualizar esta idea es mediante una bola pesada que deforma la superficie de una cama elàstica. La curvatura del espaciotiempo desvía las trayectorias de los objetos con masa y de la luz, y a eso le llamamos gravedad.
Si se concentra suficiente masa en una región lo bastante pequeña, la deformación del espaciotiempo a su alrededor será tan intensa que ni siquiera la luz podrá escapar de la región interior al denominado horizonte de sucesos: tenemos entonces un AN.
Y dado que nada (tampoco la información) puede viajar más rápido que la luz, todo aquello que supere esa frontera quedará retenido allí. Así pues, los AN son sumideros que atrapan tanto la información como la materia y luz.
Pero la historia se complica aún más. Uno de los resultados más importantes de Stephen Hawking es su predicción de que los AN se evaporan. Este hallazgo realizado en 1.974 condujo a la alarmante idea de que los AN destruyen la información cuántica.
Según la mecánica cuàntica, en todo lugar y momento se están creando pares de "partículas virtuales", formados por una partícula y su antipartícula.
Estos pares normalmente se aniquilan de inmediato, pero si se forman cerca del horizonte de un AN, es posible que una de las partículas caiga dentro de él y la otra logre escapar.
Al hacerlo se lleva una energía que, de acuerdo con la ley de conservación de la energía, debe perder el AN.
En consecuencia, la emisiòn de esas partículas hace que el AN vaya disminuyendo de tamaño hasta desaparecer por completo.
El problema es que las partìculas que escapan (y que forman lo que se conoce como "Radiación de Hawking"), no transportan información acerca de lo que cayó al AN.
Por lo tanto, los cálculos de Hawking parecen demostrar que la información cuàntica que entra en un AN acaba destruida, en contra de lo que postula la mecànica cuántica.
Continuará.
Un saludo.
Este enigma es la paradoja de qué ocurre con la informaciòn en un Agujero Negro (AN).
Al investigar esta cuestión, los físicos han descubierto que la mera existencia de los AN resulta incompatible con las leyes cuànticas que, hasta donde sabemos, describen el resto del Universo.
Resolver esta contradicción podrìa requerir una revolución conceptual tan profunda como la que nos llevó de la física clásica a la mecánica cuàntica.
Los teóricos han examinado muchas ideas, pero no disponían de demasiados indicios directos que les ayudaran a resolver el problema. Sin embargo, con la primera imagen de un AN comenzamos a tener datos reales con lo que dar forma a sus teorías.
Las futuras observaciones del EHT (especialmente aquellas que muestren la evolución temporal de los AN) y las recientes detecciones de fusiones de AN mediante observatorios de Ondas Gravitacionales podrían brindarnos pistas importantes y marcar el comienzo de una nueva era en la física
Pese al misterio que los envuelve, los AN parecen estar por todo el Cosmos.
Las observaciones del EHT y las mediciones de Ondas Gravitacionales constituyen los indicios más sólidos y recientes de que estos objetos son reales y sorprendentemente comunes.
No obstante, su mera existencia amenaza los fundamentos de la física: al aplicar a los AN los principios básicos de la mecánica cuàntica que creemos que gobiernan el resto de las leyes de la naturaleza, surgen contradicciones. Eso pone de manifiesto algún tipo de fallo en la forma actual de dichas leyes.
El problema emana de una de las preguntas más sencillas que podemos hacernos sobre los AN: ¿qué sucede con lo que cae en ellos?
De acuerdo con las leyes actuales de la mecánica cuàntica, la materia y la energía pueden cambiar de forma. Las partìculas, por ejemplo, pueden transformarse en otras. Pero hay algo que es sagrado y nunca se destruye: la información cuàntica.
Si conocemos la descripciòn cuántica completa de un sistema, deberìamos ser capaces de determinar siempre y de forma exacta su descripción anterior o posterior, sin pérdida alguna de información. Así que una pregunta más precisa sería: ¿qué ocurre con la información cuàntica que cae en un AN?
Nuestra comprensión de los AN se basa en la teorìa de la relatividad general de Albert Einstein, que describe la gravedad como el resultado de la curvatura del espacio y el tiempo.
Una forma habitual de visualizar esta idea es mediante una bola pesada que deforma la superficie de una cama elàstica. La curvatura del espaciotiempo desvía las trayectorias de los objetos con masa y de la luz, y a eso le llamamos gravedad.
Si se concentra suficiente masa en una región lo bastante pequeña, la deformación del espaciotiempo a su alrededor será tan intensa que ni siquiera la luz podrá escapar de la región interior al denominado horizonte de sucesos: tenemos entonces un AN.
Y dado que nada (tampoco la información) puede viajar más rápido que la luz, todo aquello que supere esa frontera quedará retenido allí. Así pues, los AN son sumideros que atrapan tanto la información como la materia y luz.
Pero la historia se complica aún más. Uno de los resultados más importantes de Stephen Hawking es su predicción de que los AN se evaporan. Este hallazgo realizado en 1.974 condujo a la alarmante idea de que los AN destruyen la información cuántica.
Según la mecánica cuàntica, en todo lugar y momento se están creando pares de "partículas virtuales", formados por una partícula y su antipartícula.
Estos pares normalmente se aniquilan de inmediato, pero si se forman cerca del horizonte de un AN, es posible que una de las partículas caiga dentro de él y la otra logre escapar.
Al hacerlo se lleva una energía que, de acuerdo con la ley de conservación de la energía, debe perder el AN.
En consecuencia, la emisiòn de esas partículas hace que el AN vaya disminuyendo de tamaño hasta desaparecer por completo.
El problema es que las partìculas que escapan (y que forman lo que se conoce como "Radiación de Hawking"), no transportan información acerca de lo que cayó al AN.
Por lo tanto, los cálculos de Hawking parecen demostrar que la información cuàntica que entra en un AN acaba destruida, en contra de lo que postula la mecànica cuántica.
Continuará.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Este descubrimiento abrió una profunda crisis en la física.
En el pasado, los trances similares han sido el motor de grandes avances. Por ejemplo, a principios del siglo XX la física clásica parecìa predecir la inestabilidad última de los àtomos, en abierta contradicciòn con la existencia de materia estable. Este problema jugò un papel central en la revolución cuàntica.
Según la física clásica, como los electrones que orbitan en el interior de los átomos estàn continuamente cambiando de dirección, deberìan emitir radiación de forma constante. Eso les haría perder energìa, de modo que acabarìan precipitàndose en espiral sobre el núcleo.
Pero en 1.913 Niels Bohr propuso que los electrones solo pueden moverse en determinadas òrbitas cuantizadas, lo que les impide caer hacia el interior.
Esta idea radical ayudó a sentar las bases de la mecànica cuàntica, que reescribió las leyes de la naturaleza a nivel fundamental.
Cada vez parece más claro que la crisis de los Agujeros Negros conducirá, de manera similar, a un cambio de paradigma de la física.
Cuando predijo la evaporación de los Agujeros Negros (AN), Stephen Hawking sugirió que la mecánica cuàntica tenía que estar equivocada y que en realidad debía ser posible destruir la información.
Pero los físicos pronto se dieron cuenta de que eso conllevaría una drástica violación de la ley de conservación de la energìa, que invalidaría nuestra descripción actual del Universo. Así pues, parece necesario buscar una solución diferente.
Otra idea que se planteó en un primer momento fue la de que los AN quizá no se evaporan por completo, sino que dejan tras de sí un remanente microscópico que contendrìa la información original.
Pero si esto fuera así, las propiedades básicas de la mecánica cuàntica predecerìan inestabilidades catastróficas que llevarían a la materia ordinaria a convertirse en esos remanentes, lo cual tampoco concuerda con nuestra experiencia cotidiana.
Es evidente que hay algo profundamente incorrecto. Resulta tentador concluir que el error está en el análisis original de Hawking y que la información escapa de algún modo de un AN que emite radiación de Hawking. El problema es que esta idea entra en conflicto con un concepto fundamental de la física actual: el principio de localidad, que establece que la información no puede desplazarse a velocidades superlumínicas, es decir, mayores que la luz.
Pero según nuestra definición, la única manera de escapar de un AN es viajar más rápido que la luz.
Por lo tanto, si la información consigue escapar, debe hacerlo a velocidades superlumínicas, violando el principio de localidad. En las 4 décadas transcurridas desde el descubrimiento de Hawking, los físicos han intentado encontrar fisuras en este argumento, pero no las han encontrado.
Quienes más se acercaron fueron el propio Hawking, Malcolm Perry y Andrew Strominger.
En 2.016 estos investigadores propusieron que, debido a un error en el análisis original, la información en realidad nunca llega a entrar completamente en el AN.
En cambio, dejarìa una especie de impronta en el exterior, en forma de lo que se conoce como "Pelo Suave". No obstante, un análisis más detallado parece estar cerrando este resquicio y la mayoría de los expertos no creen que constituya la respuesta al problema. En suma, todo indica que es necesario considerar alternativas más radicales.
Una posibilidad obvia es que algún tipo de física aún desconocida impida que existan los AN.
La visión habitual es que, cuando una estrella muy masiva agota su combustible nuclear y muere, se derrumba bajo la acción de su propia gravedad para formar un AN.
Pero, ¿y si la estrella nunca alcanzara ese estadio y en realidad se transformara en un objeto que se comportase "mejor"?
De hecho, cuando las estrellas de menor masa, como el Sol, colapsan al final de su vida no producen AN, sino restos densos como las enanas blancas o las estrellas de neutrones.
Quizás alguna ley física no conocida evite que las estrellas de mayor masa den lugar a AN y las lleve a convertirse en algún tipo de remanente masivo, algo más parecido a una estrella de neutrones que a un AN.
Continuará.
Un saludo.
Este descubrimiento abrió una profunda crisis en la física.
En el pasado, los trances similares han sido el motor de grandes avances. Por ejemplo, a principios del siglo XX la física clásica parecìa predecir la inestabilidad última de los àtomos, en abierta contradicciòn con la existencia de materia estable. Este problema jugò un papel central en la revolución cuàntica.
Según la física clásica, como los electrones que orbitan en el interior de los átomos estàn continuamente cambiando de dirección, deberìan emitir radiación de forma constante. Eso les haría perder energìa, de modo que acabarìan precipitàndose en espiral sobre el núcleo.
Pero en 1.913 Niels Bohr propuso que los electrones solo pueden moverse en determinadas òrbitas cuantizadas, lo que les impide caer hacia el interior.
Esta idea radical ayudó a sentar las bases de la mecànica cuàntica, que reescribió las leyes de la naturaleza a nivel fundamental.
Cada vez parece más claro que la crisis de los Agujeros Negros conducirá, de manera similar, a un cambio de paradigma de la física.
Cuando predijo la evaporación de los Agujeros Negros (AN), Stephen Hawking sugirió que la mecánica cuàntica tenía que estar equivocada y que en realidad debía ser posible destruir la información.
Pero los físicos pronto se dieron cuenta de que eso conllevaría una drástica violación de la ley de conservación de la energìa, que invalidaría nuestra descripción actual del Universo. Así pues, parece necesario buscar una solución diferente.
Otra idea que se planteó en un primer momento fue la de que los AN quizá no se evaporan por completo, sino que dejan tras de sí un remanente microscópico que contendrìa la información original.
Pero si esto fuera así, las propiedades básicas de la mecánica cuàntica predecerìan inestabilidades catastróficas que llevarían a la materia ordinaria a convertirse en esos remanentes, lo cual tampoco concuerda con nuestra experiencia cotidiana.
Es evidente que hay algo profundamente incorrecto. Resulta tentador concluir que el error está en el análisis original de Hawking y que la información escapa de algún modo de un AN que emite radiación de Hawking. El problema es que esta idea entra en conflicto con un concepto fundamental de la física actual: el principio de localidad, que establece que la información no puede desplazarse a velocidades superlumínicas, es decir, mayores que la luz.
Pero según nuestra definición, la única manera de escapar de un AN es viajar más rápido que la luz.
Por lo tanto, si la información consigue escapar, debe hacerlo a velocidades superlumínicas, violando el principio de localidad. En las 4 décadas transcurridas desde el descubrimiento de Hawking, los físicos han intentado encontrar fisuras en este argumento, pero no las han encontrado.
Quienes más se acercaron fueron el propio Hawking, Malcolm Perry y Andrew Strominger.
En 2.016 estos investigadores propusieron que, debido a un error en el análisis original, la información en realidad nunca llega a entrar completamente en el AN.
En cambio, dejarìa una especie de impronta en el exterior, en forma de lo que se conoce como "Pelo Suave". No obstante, un análisis más detallado parece estar cerrando este resquicio y la mayoría de los expertos no creen que constituya la respuesta al problema. En suma, todo indica que es necesario considerar alternativas más radicales.
Una posibilidad obvia es que algún tipo de física aún desconocida impida que existan los AN.
La visión habitual es que, cuando una estrella muy masiva agota su combustible nuclear y muere, se derrumba bajo la acción de su propia gravedad para formar un AN.
Pero, ¿y si la estrella nunca alcanzara ese estadio y en realidad se transformara en un objeto que se comportase "mejor"?
De hecho, cuando las estrellas de menor masa, como el Sol, colapsan al final de su vida no producen AN, sino restos densos como las enanas blancas o las estrellas de neutrones.
Quizás alguna ley física no conocida evite que las estrellas de mayor masa den lugar a AN y las lleve a convertirse en algún tipo de remanente masivo, algo más parecido a una estrella de neutrones que a un AN.
Continuará.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Una del espacio.
Hola.
Continúo con la cuarta parte.
El problema con esta idea es explicar cómo se estabilizarían tales objetos: ningún proceso físico conocido puede evitar que colapsen debido a su propia gravedad, y cualquier proceso imaginable requeriría un intercambio superlumínico de información entre los extremos del objeto que se derrumba.
En realidad, los grandes AN pueden formarse a partir de materia con una densidad muy baja.
Por ejemplo, si el AN de 6.500 millones de masas solares que hay en el centro de la galaxia M87 hubiera surgido a partir de una nube de polvo (lo que en teoría es posible, aunque parece que en realidad su formación fue màs compleja), el colapso se habría iniciado cuando el polvo hubiera alcanzado la densidad del aire en la cima del Everest: el aire en la cumbre del Everest no forma un AN porque no hay suficiente, pues harían falta 6.500 millones de masas solares.
Para que la nube se convirtiera de manera instantànea en un remanente masivo en vez de dar lugar a un AN, algún nuevo proceso físico drástico y superlumínico debería dominar en ese régimen de baja densidad.
Otra posibilidad relacionada es que el AN sí se forme pero, mucho antes de evaporarse, se convierta en un remanente masivo que incluya toda la información original. Una vez màs, esto requeriría la transferencia no local de información desde el interior del AN inicial hasta el remanente final.
A pesar de estos problemas, los físicos han contemplado versiones de los 2 escenarios anteriores.
Por ejemplo, en 2.003 Samir Mathur planteó la propuesta basada en la teorìa de cuerdas, que afirma que las partículas fundamentales son cuerdas diminutas.
Su idea es que el AN se transforma en un tipo de remanente masivo conocido como "Bola de Pelusa" (Fuzzball), o bien que esta se forma directamente en vez del AN.
Gracias a la complicada física de la teoría de cuerdas, que requiere un espaciotiempo con màs de 4 dimensiones, las bolas de pelusa pueden tener una geometría complicada: en lugar de la abrupta frontera de un AN tradicional (el horizonte de sucesos), la bola de pelusa tendría una frontera màs grande y difusa, en la que nos encontraríamos cuerdas y geometría de dimensiones superiores.
Una versión más reciente de la idea del remanente propone que, en lugar de un AN convencional, lo que se forma es un remanente masivo rodeado de un "Muro de Fuego" de partículas de alta energìa, situado allí donde deberìa estar el horizonte de sucesos.
Este muro incinerarìa cualquier cosa que se topase con èl, convirtièndola en energìa pura que se añadirìa al muro. No obstante, tanto el escenario del muro de fuego como el de la bola de pelusa precisan violaciones de la localidad, y los objetos resultantes tendrían otras propiedades muy difíciles de explicar.
Continuará.
Un saludo.
Continúo con la cuarta parte.
El problema con esta idea es explicar cómo se estabilizarían tales objetos: ningún proceso físico conocido puede evitar que colapsen debido a su propia gravedad, y cualquier proceso imaginable requeriría un intercambio superlumínico de información entre los extremos del objeto que se derrumba.
En realidad, los grandes AN pueden formarse a partir de materia con una densidad muy baja.
Por ejemplo, si el AN de 6.500 millones de masas solares que hay en el centro de la galaxia M87 hubiera surgido a partir de una nube de polvo (lo que en teoría es posible, aunque parece que en realidad su formación fue màs compleja), el colapso se habría iniciado cuando el polvo hubiera alcanzado la densidad del aire en la cima del Everest: el aire en la cumbre del Everest no forma un AN porque no hay suficiente, pues harían falta 6.500 millones de masas solares.
Para que la nube se convirtiera de manera instantànea en un remanente masivo en vez de dar lugar a un AN, algún nuevo proceso físico drástico y superlumínico debería dominar en ese régimen de baja densidad.
Otra posibilidad relacionada es que el AN sí se forme pero, mucho antes de evaporarse, se convierta en un remanente masivo que incluya toda la información original. Una vez màs, esto requeriría la transferencia no local de información desde el interior del AN inicial hasta el remanente final.
A pesar de estos problemas, los físicos han contemplado versiones de los 2 escenarios anteriores.
Por ejemplo, en 2.003 Samir Mathur planteó la propuesta basada en la teorìa de cuerdas, que afirma que las partículas fundamentales son cuerdas diminutas.
Su idea es que el AN se transforma en un tipo de remanente masivo conocido como "Bola de Pelusa" (Fuzzball), o bien que esta se forma directamente en vez del AN.
Gracias a la complicada física de la teoría de cuerdas, que requiere un espaciotiempo con màs de 4 dimensiones, las bolas de pelusa pueden tener una geometría complicada: en lugar de la abrupta frontera de un AN tradicional (el horizonte de sucesos), la bola de pelusa tendría una frontera màs grande y difusa, en la que nos encontraríamos cuerdas y geometría de dimensiones superiores.
Una versión más reciente de la idea del remanente propone que, en lugar de un AN convencional, lo que se forma es un remanente masivo rodeado de un "Muro de Fuego" de partículas de alta energìa, situado allí donde deberìa estar el horizonte de sucesos.
Este muro incinerarìa cualquier cosa que se topase con èl, convirtièndola en energìa pura que se añadirìa al muro. No obstante, tanto el escenario del muro de fuego como el de la bola de pelusa precisan violaciones de la localidad, y los objetos resultantes tendrían otras propiedades muy difíciles de explicar.
Continuará.
Un saludo.
JOSE ANTONIO MARTINEZ- Cantidad de envíos : 5395
Localización : zaragoza
Fecha de inscripción : 08/01/2015
Página 29 de 39. • 1 ... 16 ... 28, 29, 30 ... 34 ... 39
Temas similares
» Una del espacio.
» CDS DE GRAN CALIDAD
» Necesito un poco mas de espacio
» CAJAS PARA UN MCINTOSH
» Un nuevo espacio en la red
» CDS DE GRAN CALIDAD
» Necesito un poco mas de espacio
» CAJAS PARA UN MCINTOSH
» Un nuevo espacio en la red
Página 29 de 39.
Permisos de este foro:
No puedes responder a temas en este foro.