Cientistas desenvolvem a maior simulação do universo até agora
Os modelos na astrofísica
Simulações são muito importantes na astrofísica. Isso porque não temos
contato direto com os objetos de estudo. As informações, portanto, são
extraídas a partir de métodos engenhosos de observação. Pela espectroscopia,
por exemplo, conseguimos entender melhor a composição química dos astros. Pela
análise do movimento dos corpos, por sua vez, podemos ter informações sobre
suas massas e distâncias. A estatística, em sua forma mais tradicional,
contudo, trabalha com repetições. E como repetir o que acontece numa estrela
distante? Na astronomia, não há ambientes controlados. O tamanho de uma
amostra, em muitos casos, corresponde a poucos ou até mesmo um só dado.
Nos modelos, porém, podemos alterar parâmetros. Construir novos
cenários. E explorar múltiplas versões de um objeto ou fenômeno. Uma aplicação
conhecida são os problemas de N-corpos. Neles, se estuda o movimento de um
sistema com muitos corpos celestes a partir da força gravitacional entre eles.
A solução parece simples. Pelo fato, contudo, de que todo par de corpos
interage entre si com alguma intensidade, a matemática pode ficar bastante
complexa adicionando mais e mais objetos. Foi a partir de um problema assim que
cientistas criaram uma nova simulação do universo. E os dados, acredite, cabem
na memória de um computador.
O universo na palma da mão
O trabalho publicado na Monthly Notices of the Royal Astronomical
Society e disponível na base de artigos ArXiv não foca na formação e evolução
de estrelas. Isso porque a ênfase é mais ampla. A maior simulação demonstrada,
chamada Uchuu, considera cerca de 2.1 trilhões de partículas massivas de
matéria escura espalhadas por mais de 9 bilhões de anos-luz. Isso porque, até
onde sabemos, o que chamamos de matéria escura compõe a maior parte do
universo. Logo, é fundamental para a formação e aglomeração de galáxias. A
resolução das simulações é tão alta que é possível distinguir os aglomerados
dos halos de matéria escura que acreditamos encobrirem as galáxias. Uma
simulação como essa pode ser bem útil para astrofísicos trabalhando com grandes
quantidades de dados. Até agora, é também a maior já desenvolvida.
O grande feito não vem sem um custo computacional, contudo. Foram
necessários 40 mil núcleos e 20 mil horas de processamento para gerar 3
petabytes de dados. Em termos mais comuns, isso seria equivalente a mais de 3
milhões de gigabytes. Usando alta compressão, contudo, a memória ocupada pôde
ser reduzida para cerca de 100 terabytes. E já existem SSDs (um tipo de memória
de computador) com essa quantidade de armazenamento. O preço ainda não é
acessível para usuários comuns, mas previsões estimam que estarão mais
presentes entre nós em um futuro próximo. Por enquanto, para a maioria de nós,
podemos nos contentar em acessar os dados pela Internet.
Fonte: Socientifica
Comentários
Postar um comentário
Se você achou interessante essa postagem deixe seu comentario!