Quanto pesa este aglomerado de galáxias?
Já faz quase um século desde que o astrônomo Fritz Zwicky calculou pela
primeira vez a massa do Aglomerado Coma, uma densa coleção de quase 1.000
galáxias localizadas no universo próximo. Mas estimar a massa de algo tão
grande e denso, para não mencionar 320 milhões de anos-luz de distância, tem
sua parcela de problemas – antes e agora. As medições iniciais de Zwicky, e as
muitas feitas desde então, são atormentadas por fontes de erro que inclinam a
massa para cima ou para baixo.
Agora, usando ferramentas de aprendizado de máquina, uma equipe
liderada por físicos da Carnegie Mellon University desenvolveu um método de
aprendizado profundo que estima com precisão a massa do Coma Cluster e mitiga
efetivamente as fontes de erro.
"As pessoas fazem estimativas em massa do Coma Cluster há muitos,
muitos anos. Mas ao mostrar que nossos métodos de aprendizado de máquina são
consistentes com essas estimativas de massa anteriores, estamos construindo
confiança nesses métodos novos e muito poderosos que estão em alta no campo de
cosmologia agora", disse Matthew Ho, um estudante de quinto ano de
pós-graduação no Centro McWilliams de Cosmologia do Departamento de Física e
membro do Instituto de Planejamento de IA NSF da Carnegie Mellon para Física do
Futuro.
Métodos de aprendizado de máquina são usados com sucesso em uma
variedade de campos para encontrar padrões em dados complexos, mas eles só
ganharam espaço na pesquisa de cosmologia na última década. Para alguns
pesquisadores da área, esses métodos trazem uma grande preocupação: como é
difícil entender o funcionamento interno de um modelo complexo de aprendizado
de máquina, eles podem ser confiáveis para fazer o que foram projetados para
fazer? Ho e seus colegas decidiram abordar essas reservas com suas pesquisas
mais recentes, publicadas na Nature Astronomy .
Para calcular a massa do aglomerado Coma, Zwicky e outros usaram uma
medição de massa dinâmica, na qual estudaram o movimento ou a velocidade de
objetos que orbitam dentro e ao redor do aglomerado e, em seguida, usaram sua
compreensão da gravidade para inferir a massa do aglomerado. Mas esta medição é
suscetível a uma variedade de erros. Aglomerados de galáxias existem como nós
em uma enorme teia de matéria distribuída por todo o universo , e estão
constantemente colidindo e se fundindo, o que distorce o perfil de velocidade
das galáxias constituintes..
E porque os astrônomos estão observando o aglomerado de uma grande
distância, há muitas outras coisas no meio que podem parecer e agir como se
fossem parte do aglomerado de galáxias, o que pode influenciar a medição de
massa. Pesquisas recentes fizeram progressos na quantificação e contabilização
do efeito desses erros, mas os métodos baseados em aprendizado de máquina
oferecem uma abordagem inovadora baseada em dados, de acordo com Ho.
“Nosso método de aprendizado profundo aprende com dados reais o que são
medidas úteis e o que não são”, disse Ho, acrescentando que seu método elimina
erros de galáxias entrelaçadas (efeitos de seleção) e explica várias formas de
galáxias (efeitos físicos). "O uso desses métodos orientados a dados torna
nossas previsões melhores e automatizadas".
“Uma das principais deficiências das abordagens padrão de aprendizado
de máquina é que elas geralmente produzem resultados sem incertezas”,
acrescentou o professor associado de física Hy Trac, consultor de Ho.
"Nosso método inclui estatísticas Bayesianas robustas, que nos permitem
quantificar a incerteza em nossos resultados."
Ho e seus colegas desenvolveram seu novo método personalizando uma
conhecida ferramenta de aprendizado de máquina chamada rede neural
convolucional , que é um tipo de algoritmo de aprendizado profundousado no
reconhecimento de imagem. Os pesquisadores treinaram seu modelo alimentando-o
com dados de simulações cosmológicas do universo. O modelo aprendeu observando
as características observáveis de milhares de aglomerados de galáxias, cuja
massa já é conhecida. Após uma análise aprofundada da manipulação do modelo dos
dados de simulação, Ho aplicou-o a um sistema real - o Coma Cluster - cuja
massa real não é conhecida.
O método de Ho calculou uma estimativa de massa consistente com a
maioria das estimativas de massa feitas desde a década de 1980. Isso marca a
primeira vez que essa metodologia específica de aprendizado de máquina foi
aplicada a um sistema observacional.
“Para construir a confiabilidade dos modelos de aprendizado de máquina,
é importante validar as previsões do modelo em sistemas bem estudados, como o
Coma”, disse Ho. "Estamos atualmente realizando uma verificação mais
rigorosa e extensa de nosso método. Os resultados promissores são um forte
passo para a aplicação de nosso método em dados novos e não estudados".
Modelos como esses serão críticos no futuro, especialmente quando
levantamentos espectroscópicos em larga escala, como o Dark Energy
Spectroscopic Instrument, o Vera C. Rubin Observatory e o Euclid, começarem a
liberar as vastas quantidades de dados que estão coletando do céu. .
"Em breve teremos um fluxo de dados em escala de petabytes",
explicou Ho. "Isso é enorme. É impossível para humanos analisar isso
manualmente. Enquanto trabalhamos na construção de modelos que podem ser
estimadores robustos de coisas como massa enquanto mitigam fontes de erro,
outro aspecto importante é que eles precisam ser computacionalmente eficientes
se estivermos vamos processar esse enorme fluxo de dados dessas novas
pesquisas. E é exatamente isso que estamos tentando resolver — usando
aprendizado de máquina para melhorar nossas análises e torná-las mais
rápidas."
Fonte: phys.org
Comentários
Postar um comentário
Se você achou interessante essa postagem deixe seu comentario!