Una imagen ampliada de la galaxia HD1. Créditos: Harikane et al.
Un equipo internacional de astrónomos, entre los que se encuentran investigadores del Centro de Astrofísica de Harvard y del Smithsonian, ha detectado el objeto astronómico más lejano de la historia: una galaxia situada a 13.500 millones de años luz.
La galaxia, denominada HD1, se describe en la revista Astrophysical Journal. En un artículo adjunto publicado en Monthly Notices of the Royal Astronomical Society Letters, los científicos han empezado a especular sobre qué es exactamente. Al brillar sólo unos 300 millones de años después del Big Bang, podría albergar las estrellas más antiguas del universo o un agujero negro supermasivo.
HD1 fue descubierto como parte de un estudio para descubrir galaxias al comienzo del Universo. Para ello se utilizaron cuatro poderosos telescopios ópticos e infrarrojos tras más de 1.200 horas de observación: con el telescopio Subaru, el telescopio VISTA, el telescopio infrarrojo del Reino Unido y el telescopio espacial Spitzer. A continuación, el equipo llevó a cabo observaciones de seguimiento con el Atacama Large Millimetre/submillimetre Array (ALMA) para confirmar la distancia, que es 100 millones de años luz más lejana que GN-z11, la actual poseedora del récord de la galaxia más lejana.
El equipo propone dos ideas: HD1 puede estar formando estrellas a un ritmo asombroso y es posible que incluso albergue las primeras estrellas del universo, conocidas como estrellas de la Población III, que, hasta ahora, nunca se habían observado. Otra posibilidad es que HD1 contenga un agujero negro supermasivo con una masa 100 millones de veces superior a la de nuestro Sol.
Es extremadamente brillante en luz ultravioleta. Para explicarlo, el equipo ha supuesto que en él se están produciendo algunos procesos energéticos o, mejor aún, que se produjeron hace miles de millones de años. Al principio, los investigadores supusieron que HD1 era una galaxia estándar con brotes estelares, una galaxia que está creando estrellas a un ritmo elevado, sin embargo, se estimó que HD1 estaba formando más de 100 estrellas cada año, un ritmo al menos 10 veces superior al esperado para galaxias de este tipo. Fue entonces cuando el equipo comenzó a sospechar que HD1 podría no estar formando estrellas normales y corrientes. Sin embargo, un agujero negro supermasivo también podría explicar la extrema luminosidad de HD1. Al engullir enormes cantidades de gas, la región que rodea al agujero negro podría emitir fotones de alta energía. En este caso, se trataría del primer agujero negro supermasivo conocido por la humanidad, observado mucho más cerca del Big Bang que el actual.
«La primera población de estrellas que se formó en el universo era más masiva, más luminosa y más caliente que las estrellas modernas», afirma Fabio Pacucci, autor principal del estudio de MNRAS y astrónomo del Centro de Astrofísica. «Si asumimos que las estrellas producidas en HD1 son estas primeras, o estrellas de la Población III, entonces sus propiedades podrían explicarse más fácilmente. De hecho, las estrellas de la Población III son capaces de producir más luz ultravioleta que las estrellas normales, lo que podría aclarar la extrema luminosidad ultravioleta de HD1.»
Las gotas minúsculas de líquido y las nanopartículas pueden atrapar la luz por un efecto de resonancia, llamado en jerga científica nanofocusing, de forma similar a como la luz puede quedar atrapada entre dos espejos. Como resultado, la intensidad lumínica es amplificada en su interior. Esto también sucede en gotas de agua muy finas y partículas sólidas en nuestra atmósfera, es decir, en aerosoles.
Utilizando microscopía de rayos X moderna, los investigadores de ETH Zurich y el Paul Scherrer Institute (PSI) han investigado cómo la amplificación de luz afecta los procesos fotoquímicos que tienen lugar en las partículas de aerosol. Pudieron demostrar que la amplificación de la luz hace que estos procesos químicos sean dos o tres veces más rápidos en promedio de lo que serían sin este efecto.
Esta investigación ha sido ahora publicada en la prestigiosa revista Science y nosotros nos hacemos eco de ella gracias a Pablo Corral, antiguo alumno de la Universidad de Salamanca, que es uno de los principales investigadores y al que ya referenciamos por otro prestigioso artículo publicado en la revista de gran impacto Nature Communications.
“Amplification of light within aerosol particles accelerates in-particle photochemistry” Pablo Corral Arroyo, Grégory David, Peter A. Alpert, Evelyne A. Parmentier, Markus Ammann and Ruth Signorell. SCIENCE, Vol 376, Issue 6590 [14 Apr 2022], pp. 293-296.
Usando el “Swiss Light Source” (un acelerador de partículas en Suiza) en el Paul Scherrer Institute, los investigadores estudiaron aerosoles que consisten en pequeñas partículas de citrato de hierro (III). Su exposición a la luz ultravioleta reduce este compuesto a citrato de hierro (II). La microscopía de rayos X permite distinguir áreas dentro de las partículas de aerosol compuestas por citrato de hierro (III) de aquellas compuestas por citrato de hierro (II) con una precisión de 25 nanómetros. De esta forma, los científicos pudieron observar y mapear en alta resolución la secuencia temporal de esta reacción fotoquímica dentro partículas de aerosol individuales.
“Para nosotros, el citrato de hierro (III) era un compuesto representativo que era fácil de estudiar con nuestro método”, dice Pablo Corral Arroyo, postdoctorado en el grupo encabezado por la profesora Ruth Signorell, y autor principal del estudio. El citrato de hierro (III) es como toda una gama de otros compuestos químicos que pueden aparecer en los aerosoles de la atmósfera. Muchos compuestos orgánicos e inorgánicos son sensibles a la luz y, cuando se exponen a la luz, pueden descomponerse en moléculas más pequeñas y volátiles y, por lo tanto, éstas se pueden evaporar facilmente. “Las partículas de aerosol reaccionan con la luz solar cambiando su tamaño y composición química”, explica. Entre otras cosas, dispersan la luz solar de manera diferente, lo que afecta los fenómenos meteorológicos y climáticos. Además, cambian sus características como núcleos de condensación en la formación de nubes. “Las partículas de aerosol generan las nubes. La composición química de estas partículas influyen en su habilidad para formar nubes. Por lo que los procesos fotoquímicos iniciados por la luz solar en estas partículas, influyen en la formación de nubes.”
Los científicos usaron una microscopía de rayos X disponible en el “Swiss Light Source” para mapear y cuantificar con alta precisión la amplificación de la luz en las partículas se produce a través de efectos de resonancia. La intensidad de la luz es mayor en el lado de la partícula opuesto al que está iluminado, generando una zona dentro de la partícula, llamada hotspot, en la que la intensidad lumínica es unas 10 veces más alta que en el resto de la partícula.“En este hotspot, las reacciones fotoquímicas son hasta diez veces más rápidas de lo que serían sin el efecto de resonancia”, dice Pablo Corral Arroyo, “Vimos como en el hotspot la reacción fotoquímica ocurría mucho más rápido que en el resto de la partícula. La primera vez que medimos este efecto fue un momento increíble”, explica emocionado. Promediado sobre toda la partícula, esto da una aceleración por el factor mencionado anteriormente de dos a tres.
Usando los datos de su experimento, los investigadores pudieron crear un modelo para estimar el efecto en una variedad de otras reacciones fotoquímicas de los aerosoles típicos en la atmósfera. Resultó que el efecto no afecta solo a las partículas de citrato de hierro (III), sino a todos los aerosoles (partículas o gotitas) hechos de compuestos que pueden reaccionar con la luz. Y estas reacciones también son dos o tres veces más rápidas en promedio. Como tal, los resultados también tienen un efecto en la investigación climática. «Los modelos climáticos actuales de la química atmosférica global aún no tienen en cuenta este efecto de amplificación de la luz. Nosotros sugerimos incorporar este efecto en futuros modelos para predecir con más precisión patrones climáticos», dice Pablo Corral Arroyo.
Nuestra sociedad ha evolucionado y la digitalización que nos envuelve presenta un sinfín de beneficios. Sin embargo, nos hace más vulnerables a los miles ciberataques que se producen a diario en la red. En el Módulo 6 “Agentes de la amenaza” de C1b3rWall Academy, Juanma Cabo Pimentel, investigador de Policía Judicial y jefe del Grupo de Ciberataques en la Unidad Central de Ciberdelincuencia nos muestra qué tipos de ciberataques son más comunes en España y sus consecuencias.
Investigadores de la Universidad de Salamanca proponen un nuevo principio de la física que interconecta la física fundamental y la informática teórica.
El nuevo ‘Principio de computacionalidad’ afirma que el Universo posee dos constantes físicas fundamentales que deben ser añadidas a las ya conocidas para su descripción, la potencia computacional y la jerarquía de complejidades computacionales.
Luis Alonso-Romero, Sergio Miguel-Tomé y Ángel Luis Sánchez-Lázaro
Universe publica el artículo de Sergio Miguel-Tomé, Ángel Luis Sánchez-Lázaro y Luis Alonso-Romero que ofrece un profundo análisis e interpretación sobre la investigación en física que usa conceptos de teoría de la computación.
Los autores han pagado los costes de la publicación del artículo para que su acceso sea en abierto y cualquier persona del mundo pueda consultarlo gratuitamente.
Los conceptos de las ciencias de la computación han ido incorporándose en muchos ámbitos de la sociedad y la ciencia. En el ámbito de la física, la adopción de conceptos de la informática teórica ha llegado hasta el punto de que una de las afirmaciones que más interés y más discusiones provoca es la de considerar que el Universo sea una computadora.
En medio de este debate, los científicos de la Universidad de Salamanca Sergio Miguel-Tomé, investigador de la Facultad de Ciencias, y Ángel Luis Sánchez-Lázaro y Luis Alonso-Romero, profesor titular y catedrático jubilado del Departamento de Informática y Automática, respectivamente, acaban de publicar un artículo que analiza en profundidad las relaciones existentes entre la física fundamental y la computación que ha dado como resultado la presentación del nuevo ‘Principio de computacionalidad’ que entraña una nueva visión del Universo y relaciona la física fundamental con la teoría de la computación.
Esta nueva idea fundamental dicta que, “el Universo es un sistema computacional que tiene un poder computacional específico y una jerarquía de clases de complejidad especifica asociados a él”, informa a Comunicación USAL Sergio Miguel-Tomé, autor principal del trabajo. El artículo, recogido por la revista Universe, ofrece una amplia revisión histórica sobre la adopción de conceptos de la teoría de la computación en la física y analiza cuestiones discutidas en el seno de esta ciencia con respecto a la computación. En especial, la afirmación objeto de numerosas disputas entre la comunidad científica durante los últimos 30 años en torno a que el Universo sea una computadora.
Origen del proyecto y reacciones de los académicos
Miguel-Tomé, explica que, “la obtención de este nuevo principio surge como consecuencia de razonar y reflexionar sobre qué es un modelo computacional, qué es un sistema físico y qué es una teoría de física fundamental”. Analizando las conexiones entre los conceptos, el científico de la USAL se dio cuenta de que “existía un proceso deductivo que permitía obtener el Principio de computacionalidad como consecuencia de esas relaciones”, comenta.
Kenneth Wharton, catedrático de física de la San José State University (Estados Unidos), ha elogiado el artículo de la USAL destacando del trabajo “la impresionante síntesis que contiene de todos los nuevos caminos en los que los conceptos computacionales han sido conectados a la física”.
¿Es el Universo un computador? Disputa científica de las últimas décadas
La afirmación que sugiere que el Universo es un sistema computacional ha generado numerosas disputas en la física en las últimas décadas. El artículo analiza los siete argumentos dados hasta la fecha en contra de la idea y su resultado muestra que en todos ellos se usa un concepto de computación que no aprecia la extensión total del concepto. Este sería el motivo por el que “los argumentos han sido refutados con contraejemplos de la computación y sus demostraciones concluyen en fracaso”, subraya el científico de la USAL.
Wharton, autor de reconocidos ensayos críticos contra el supuesto, considera que la idea está “bellamente abordada” en el artículo y muestra cómo “una visión suficientemente amplia de computación pareciera que soportara una respuesta positiva sobre la cuestión”. Además, ha resaltado lo valioso del enfoque adoptado en el artículo porque ha conducido a “una conjetura intrigante”, según la cual “ciertos parámetros computacionales podrían ser propiedades fundamentales del Universo, e investigar en ellas podría, por lo tanto, informar de los fundamentos mismos de la física”.
Por su parte, Christian Hoelbling, catedrático de física de la Universität Wuppertal (Alemania), destaca especialmente del estudio “la cuidadosa distinción que en él se hace entre las distintas propuestas sobre el Universo como sistema computacional”, algo que, en palabras del experto, “ayuda enormemente a clarificar las diferentes nociones sobre computabilidad, cómo se aplican generalmente a las teorías físicas y dónde podrían ser demasiado restrictivas”.
La publicación aborda también la interesante hipótesis de que tanto nuestras mentes y el Universo sean una simulación y muestra, además, cómo esta hipótesis mezclada junto con la idea del Universo como sistema computacional ha producido confusión conduciendo a afirmaciones erróneas sobre resultados en ciertos experimentos.
Al respecto, al científico alemán le gusta especialmente “la cuidadosa separación” que se hace en el artículo entre computabilidad y las recientes propuestas del Universo como una simulación, algo que considera “esencial para separar el concepto de que las leyes físicas puedan ser, en principio, computacionales de las ideas altamente especulativas sobre un universo simulado”.
Computación, física y nuevo paradigma para la física fundamental
Averiguar por qué se han ido adoptando en física los conceptos de la informática fue una de las primeras cuestiones abordadas por los investigadores de la USAL en el trabajo. Su análisis muestra que la cuestión no es una simple coincidencia matemática, sino que existe una conexión muy profunda entre física y computación debido al importante papel que en ambas disciplinas juega el concepto de estado, lo que hace que exista una superposición entre ambas ciencias y sea la razón por la que la física encuentra herramientas matemáticas para describir fenómenos físicos en la informática teórica.
Los investigadores también muestran en su estudio que, combinando el nuevo principio con el marco matemático de la informática teórica surge un nuevo marco para el desarrollo de teorías para la física fundamental, al que han denominado Marco Computacionalista (MC). Así, el MC contiene una nueva visión sobre los conceptos de computación y fenómeno físico de tal manera que la computación deja de ser un concepto matemático para convertirse en una propiedad física que debe ser investigada por la física para describir los sistemas y fenómenos físicos, incluido el propio Universo.
Al respecto, el profesor de la USAL Alonso-Romero indica que el MC “ayuda a obtener una visión más profunda y precisa de la naturaleza de un fenómeno físico y de lo que subyace debajo de su descripción matemática”. Una propuesta “sumamente interesante” para el profesor Hoelbling, que declara estar “deseando ver qué frutos concretos puede dar el MC en el futuro”.
Aún hay un gran número de preguntas que la informática teórica no puede resolver en el ámbito de la física, sobre lo que Sánchez-Lázaro comenta, por su parte, que, “esta relación intrínseca debería impulsar el avance simultáneo en la investigación en ambos campos”. Para ello sería necesario “la creación de programas de investigación específicos que generen grupos de investigación o proyectos con especialistas de las dos disciplinas debido a la escasez de expertos con altos conocimientos conjuntos en ambas materias, tanto en física fundamental como en informática teórica”, remarca.
Premio Nobel Eugene Wigner y conexión con las Ciencia Cognitivas
Asimismo, el MC tiene repercusiones más allá de la propia física y en el artículo también se revisan las relativas a la matemática. Un ejemplo sería el famoso artículo en 1960 del Premio Nobel Eugene Wigner en el que se preguntaba por qué las matemáticas eran tan efectivas describiendo todo tipo de fenómenos naturales. Un hecho que, aunque se antoje algo irrazonable, sin embargo, es un hecho.
Máquina de Turing
El MC arrojaría ahora luz sobre el enigma y ayudaría a explicar la irrazonable efectividad de las matemáticas al sugerir que un modelo computacional permite simular otros modelos computacionales. Cabe recordar que en informática se ha observado cómo una máquina de Turing puede ser recreada dentro de un autómata celular en el llamado el juego de la vida. El hecho de que unos modelos computacionales puedan ser recreados por otros sería justo lo que pasaría en nuestro Universo, es decir, “al ser nuestro Universo un sistema computacional, se pueden recrear otros modelos computacionales que tengan la misma o menos potencia computacional que la que el mismo posea”, apunta Miguel Tomé.
Para concluir, los científicos identifican la conexión de la física con las ciencias cognitivas como otra de las consecuencias evidentes del MC. Hasta el momento, la física está desconectada de las teorías científicas que mejor explican el comportamiento de los seres humanos y, además, las ciencias cognitivas han considerado que la mente es un proceso computacional sin considerar que los procesos computacionales fueran físicos. El MC hace replantear ahora “la relación entre física y las ciencias cognitivas, permitiendo que las ciencias cognitivas tengan su base en la física”, concluyen.
El estudio liderado por la Universidad de Salamanca, financiado por la Unión Europea y publicado en la prestigiosa revista “Comunicar”, utiliza técnicas computacionales para analizar casi 850.000 «tuits» de toda Europa entre 2015 y 2020
El discurso de odio constituye una de las amenazas más graves para la convivencia en la Unión Europea. Basados en esta premisa, investigadores de la Universidad de Salamanca han demostrado que la presencia de mensajes xenófobos en redes sociales sirve para predecir la opinión púbica y las actitudes ciudadanas de aceptación social hacia los inmigrantes en Europa. Además, han comprobado que en las regiones europeas con más extranjeros, las actitudes hacia estos colectivos son más favorables. Se trata de uno de los estudios internacionales más amplios liderados en este ámbito desde España y supone un importante avance en el uso de técnicas computacionales para el estudio y monitorización del discurso de odio. Según el estudio, los datos de Twitter pueden ser utilizados para tener un mejor conocimiento de las actitudes de la ciudadanía a nivel local y regional, lo que permitiría diseñar políticas e iniciativas más adecuadas que faciliten la integración y la convivencia de los extranjeros.
Carlos Arcila Calderón, Patricia Sánchez Holgado y David Blanco Herrero, en las instalaciones del Centro de Supercomputación de Castilla y León.
La investigación, que ha sido publicada esta semana por la revista científica «Comunicar»(internacionalmente reconocida en áreas como Comunicación o Educación), analiza casi 850.000 tuits geolocalizados relacionados con migrantes o refugiados recogidos en todos los países de la Unión Europea entre 2015 y 2020, detectando automáticamente aquellos que contienen odio, gracias a la aplicación de técnicas de Inteligencia Artificial en los equipos del Centro de Supercomputación de Castilla y León (SCAYLE). Estos datos, que generan el primer mapa europeo de discurso de odio contra inmigrantes, fueron comparados con indicadores sobre aceptación en cada una de las regiones europeas (nivel NUTS 2) extraídos del Eurobarómetro. Según Carlos Arcila Calderón, profesor de la Universidad de Salamanca e investigador principal del estudio, una de las novedades más importantes es el uso de contenidos geolocalizados, ya que permite realizar un trabajo mucho más detallado comparando regiones, puesto que “a menudo dentro de un mismo país hay diferencias que no pueden ser obviadas: por ejemplo, ni las actitudes hacia los inmigrantes ni el volumen de odio en redes sociales son iguales en regiones como el País Vasco o Extremadura”.
Presencia de odio en Twitter
Otra de las novedades del estudio es su condición longitudinal, lo que permite evaluar la evolución tanto de las actitudes como de la presencia de odio en Twitter a lo largo del tiempo. Los investigadores generaron una visualización en formato vídeo en donde se muestra dónde y cuándo se han producido grandes acumulaciones de discurso de odio hacia inmigrantes y refugiados en Twitter entre 2015 y 2020. Los principales focos están en grandes ciudades, donde hay un mayor volumen de población, pero llama la atención el gran volumen de odio observado de manera constante en Italia y algunos focos derivados de fenómenos mediáticos. Así, el odio permanece estable en Reino Unido en el periodo analizado, pero resulta más alto en 2016, coincidiendo con el Brexit; también en los años 2015 y 2016, durante la llegada masiva de refugiados sirios, la presencia de odio online fue más habitual, algo que también sucede a mediados de 2018, en parte a raíz del caso del buque Aquarius que atracó en Valencia tras varios días en el Mediterráneo.
Entre las observaciones del trabajo también conviene destacar algunas diferencias entre países, como la mayor presencia de odio detectada en países como Italia y Grecia. De hecho, esto contrasta con los reducidos niveles de odio presentes en España, un país con unas condiciones socioculturales y económicas semejantes a las de Italia y Grecia. Esto mismo se observa también en el apoyo a la inmigración, en el que además destacan las actitudes negativas de los países del este, como Hungría. Las explicaciones para estas observaciones son diversas, desde cuestiones históricas a políticas, pero el profesor Arcila subraya la buena situación de España: “el problema del discurso de odio no se puede infravalorar, pero sí conviene ponerlo en contexto y reconocer que las actitudes hacia el inmigrante son mejores que en muchos otros lugares y que, en términos generales, España puede considerarse un país tolerante”.
Promedio de apoyo a la inmigración por región europea entre 2015 y 2017
Usando simulaciones derivadas de los datos del Eurobarómetro para cada región europea, una de las principales comprobaciones del estudio es que las actitudes ciudadanas de rechazo a la inmigración están correlacionadas con la cantidad de discurso de odio dirigido hacia estos colectivos en Twitter. Esto quiere decir que los mensajes que emitimos en redes sociales sirven para conocer la opinión pública, lo que supone una comprobación sociológica relevante y pone de relieve el valor de estos medios para conocer los climas de opinión, sin necesidad de recurrir a datos de encuestas.
Además, los resultados apuntan a que en las regiones con una mayor presencia de migrantes existen mejores actitudes ciudadanas hacia la inmigración. Patricia Sánchez-Holgado, investigadora posdoctoral en la Universidad de Salamanca y miembro del equipo investigador, explica que “esto demuestra que, en general, el contacto entre locales e inmigrantes favorece la tolerancia y que el rechazo se deriva de miedos infundados y de estereotipos que no se sostienen cuando se enfrentan con la realidad”. No obstante, según añade Sánchez-Holgado, los datos de este estudio no permiten concluir aún que la mayor presencia de inmigrantes en las regiones europeas esté relacionada con una menor cantidad de discurso de odio hacia este colectivo.
El estudio, titulado “Discurso de odio y aceptación social hacia migrantes en Europa: Análisis de tuits con geolocalización”, es producto de una investigación desarrollada por un equipo de investigadores del Observatorio de los Contenidos Audiovisuales de la Universidad de Salamanca, entre los que también se encuentran investigadores en formación como Cristina Quintana-Moreno, Javier J. Amores y David Blanco-Herrero. El estudio ha recibido financiación de la Unión Europea a través de los proyectos internacionales «Enhanced migration measures from a multidimensional perspective (HumMingBird)», financiado con 2.992.035 euros dentro del programa Horizonte 2020 (https://hummingbird-h2020.eu/), y «Preventing Hate Against Refugees and Migrants (PHARM)», financiado con 362.131,85 euros dentro del programa Rights, Equality and Citizenship (https://pharmproject.usal.es).
Vídeo con la evolución de los focos de odio en Europa entre 2015 y 2020