Quanto pesa este aglomerado de galáxias?

 Crédito: Pixabay/CC0 Public Domain

Já faz quase um século desde que o astrônomo Fritz Zwicky calculou pela primeira vez a massa do Aglomerado Coma, uma densa coleção de quase 1.000 galáxias localizadas no universo próximo. Mas estimar a massa de algo tão grande e denso, para não mencionar 320 milhões de anos-luz de distância, tem sua parcela de problemas – antes e agora. As medições iniciais de Zwicky, e as muitas feitas desde então, são atormentadas por fontes de erro que inclinam a massa para cima ou para baixo.

Agora, usando ferramentas de aprendizado de máquina, uma equipe liderada por físicos da Carnegie Mellon University desenvolveu um método de aprendizado profundo que estima com precisão a massa do Coma Cluster e mitiga efetivamente as fontes de erro. 

"As pessoas fazem estimativas em massa do Coma Cluster há muitos, muitos anos. Mas ao mostrar que nossos métodos de aprendizado de máquina são consistentes com essas estimativas de massa anteriores, estamos construindo confiança nesses métodos novos e muito poderosos que estão em alta no campo de cosmologia agora", disse Matthew Ho, um estudante de quinto ano de pós-graduação no Centro McWilliams de Cosmologia do Departamento de Física e membro do Instituto de Planejamento de IA NSF da Carnegie Mellon para Física do Futuro. 

Métodos de aprendizado de máquina são usados ​​com sucesso em uma variedade de campos para encontrar padrões em dados complexos, mas eles só ganharam espaço na pesquisa de cosmologia na última década. Para alguns pesquisadores da área, esses métodos trazem uma grande preocupação: como é difícil entender o funcionamento interno de um modelo complexo de aprendizado de máquina, eles podem ser confiáveis ​​para fazer o que foram projetados para fazer? Ho e seus colegas decidiram abordar essas reservas com suas pesquisas mais recentes, publicadas na Nature Astronomy . 

Para calcular a massa do aglomerado Coma, Zwicky e outros usaram uma medição de massa dinâmica, na qual estudaram o movimento ou a velocidade de objetos que orbitam dentro e ao redor do aglomerado e, em seguida, usaram sua compreensão da gravidade para inferir a massa do aglomerado. Mas esta medição é suscetível a uma variedade de erros. Aglomerados de galáxias existem como nós em uma enorme teia de matéria distribuída por todo o universo , e estão constantemente colidindo e se fundindo, o que distorce o perfil de velocidade das galáxias constituintes..

E porque os astrônomos estão observando o aglomerado de uma grande distância, há muitas outras coisas no meio que podem parecer e agir como se fossem parte do aglomerado de galáxias, o que pode influenciar a medição de massa. Pesquisas recentes fizeram progressos na quantificação e contabilização do efeito desses erros, mas os métodos baseados em aprendizado de máquina oferecem uma abordagem inovadora baseada em dados, de acordo com Ho.

“Nosso método de aprendizado profundo aprende com dados reais o que são medidas úteis e o que não são”, disse Ho, acrescentando que seu método elimina erros de galáxias entrelaçadas (efeitos de seleção) e explica várias formas de galáxias (efeitos físicos). "O uso desses métodos orientados a dados torna nossas previsões melhores e automatizadas". 

“Uma das principais deficiências das abordagens padrão de aprendizado de máquina é que elas geralmente produzem resultados sem incertezas”, acrescentou o professor associado de física Hy Trac, consultor de Ho. "Nosso método inclui estatísticas Bayesianas robustas, que nos permitem quantificar a incerteza em nossos resultados." 

Ho e seus colegas desenvolveram seu novo método personalizando uma conhecida ferramenta de aprendizado de máquina chamada rede neural convolucional , que é um tipo de algoritmo de aprendizado profundousado no reconhecimento de imagem. Os pesquisadores treinaram seu modelo alimentando-o com dados de simulações cosmológicas do universo. O modelo aprendeu observando as características observáveis ​​de milhares de aglomerados de galáxias, cuja massa já é conhecida. Após uma análise aprofundada da manipulação do modelo dos dados de simulação, Ho aplicou-o a um sistema real - o Coma Cluster - cuja massa real não é conhecida.

O método de Ho calculou uma estimativa de massa consistente com a maioria das estimativas de massa feitas desde a década de 1980. Isso marca a primeira vez que essa metodologia específica de aprendizado de máquina foi aplicada a um sistema observacional.

“Para construir a confiabilidade dos modelos de aprendizado de máquina, é importante validar as previsões do modelo em sistemas bem estudados, como o Coma”, disse Ho. "Estamos atualmente realizando uma verificação mais rigorosa e extensa de nosso método. Os resultados promissores são um forte passo para a aplicação de nosso método em dados novos e não estudados".

Modelos como esses serão críticos no futuro, especialmente quando levantamentos espectroscópicos em larga escala, como o Dark Energy Spectroscopic Instrument, o Vera C. Rubin Observatory e o Euclid, começarem a liberar as vastas quantidades de dados que estão coletando do céu. .

"Em breve teremos um fluxo de dados em escala de petabytes", explicou Ho. "Isso é enorme. É impossível para humanos analisar isso manualmente. Enquanto trabalhamos na construção de modelos que podem ser estimadores robustos de coisas como massa enquanto mitigam fontes de erro, outro aspecto importante é que eles precisam ser computacionalmente eficientes se estivermos vamos processar esse enorme fluxo de dados dessas novas pesquisas. E é exatamente isso que estamos tentando resolver — usando aprendizado de máquina para melhorar nossas análises e torná-las mais rápidas."

Fonte: phys.org

Comentários

Postagens mais visitadas deste blog

Mu Cephei

Cavalo-marinho cósmico

Eta Carinae

Fobos sobre Marte

Nebulosa Crew-7

Agitando o cosmos

Astrônomos encontram planetas ‘inclinados’ mesmo em sistemas solares primitivos

Júpiter ao luar

Galáxia Messier 101

Ganimedes de Juno