At Large Hadron Collider do CERN (LHC), o mais poderoso acelerador de partículas do mundo, os cientistas iniciar milhões de colisões de partículas por segundo em sua busca para entender a estrutura fundamental da matéria. A imagem acima ilustra CERN um evento boson Higgs de colisões entre prótons no detector CMS no LHC. A partir da colisão no centro, a partícula decai em dois fótons (linhas tracejadas amarelas e torres verdes)
Argonne físicos estão usando Mira para realizar simulações de Grande Colisor de Hádrons (LHC) experimentos com um supercomputador de classe liderança pela primeira vez, lançando luz sobre um caminho a seguir para interpretar futuras dados do LHC. Pesquisadores do Argonne Leadership Computing Facility (ALCF) ajudou a equipe a otimizar seu código para o supercomputador, que lhes permitiu simular milhares de milhões de colisões de partículas mais rápido do que nunca.
Com cada colisão produzindo cerca de um megabyte de dados, a facilidade, localizado na fronteira da França e Suíça, gera uma quantidade colossal de dados. Mesmo depois de filtragem de cerca de 99 por cento do que, os cientistas ficam com cerca de 30 petabytes (ou 30 milhões de gigabytes) por ano para analisar para uma ampla gama de experiências de física, incluindo estudos sobre o bóson de Higgs e matéria escura.
Para ajudar a enfrentar o desafio considerável de interpretar todos esses dados, os investigadores do Departamento de Energia Argonne National Laboratory (DOE) dos EUA estão demonstrando o potencial de simular eventos de colisão com Mira, a 10 petaflops IBM Blue Gene / Q supercomputador na Liderança Argonne Facilidade Computing (ALCF), uma DOE Escritório de Ciência Facility Usuário.
"Simulando as colisões é fundamental para ajudar-nos a compreender a resposta dos detectores de partículas", disse o investigador principal Tom LeCompte, um físico Argonne eo ex-coordenador de física do LHC para o experimento ATLAS, um dos quatro detectores de partículas na instalação. "As diferenças entre os dados simulados e os dados experimentais pode nos levar a descobrir sinais de nova física".
Isto marca a primeira vez que um supercomputador de classe de liderança tem sido utilizado para realizar simulações massivamente paralelas de eventos de colisão do LHC. O esforço tem sido um grande sucesso, até agora, mostrando que esses supercomputadores podem ajudar a orientar futuras descobertas no LHC, acelerando o ritmo em que simularam os dados podem ser produzidos. O projecto também demonstra como recursos de computação de liderança podem ser usados para informar e facilitar outros experimentos de física de alta energia intensivas de dados.
Desde 2002, os cientistas do LHC têm contado com o Worldwide LHC Computing Grid para todas as suas necessidades de processamento de dados e simulação. Vinculação milhares de computadores e sistemas de armazenamento em 41 países, esta infra-estrutura de computação distribuída internacional permite que os dados sejam acessados e analisados em tempo quase real por uma comunidade internacional de mais de 8.000 físicos colaboram entre os quatro principais experimentos do LHC.
"A computação em grade tem sido muito bem sucedida para LHC, mas existem algumas limitações no horizonte", disse LeCompte."Uma delas é que algumas simulações de eventos do LHC são tão complexos que levaria semanas para concluí-las. Outra é que as necessidades de computação do LHC devem crescer por pelo menos um fator de 10 nos próximos anos."
Para investigar o uso de supercomputadores como uma possível ferramenta para o LHC, LeCompte solicitou e recebeu tempo de computação no ALCF através Computing Advanced Research Scientific Computing Liderança Desafio do DOE. Seu projeto é focado na simulação de eventos ATLAS que são difíceis de simular com o grid computing.
Enquanto grande desafio de dados do LHC parece um ajuste natural para um dos supercomputadores mais rápidos do mundo, levou um extenso trabalho de adaptar um método de simulação LHC existente para a arquitetura massivamente paralela de Mira.
Com a ajuda de pesquisadores ALCF, a equipe de Argonne transformado ALPGEN, um aplicativo baseado em Monte Carlo, que gera eventos em colisões hadrônicas, a partir de um single-threaded código de simulação em código maciçamente multi-threaded que pode ser executado de forma eficiente em Mira. Ao melhorar o desempenho de I do código de E / S e reduzir seu uso de memória, eles foram capazes de dimensionar ALPGEN para ser executado no sistema de Mira plena e ajudar a executar o código de 23 vezes mais rápido do que inicialmente fez. O trabalho de otimização de código permitiu à equipa para simular rotineiramente milhões de eventos de colisão do LHC em paralelo.
"Ao executar esses trabalhos em Mira, eles completaram a pena de dois anos de simulações ALPGEN em questão de semanas, ea grade de computação LHC tornou-se correspondentemente livre para executar outras tarefas", disse Uram.
Ao longo do curso do projeto, as simulações da equipe têm equiparado a cerca de 9 por cento da computação anual feito pelo experimento ATLAS. Em última análise, esse esforço está ajudando a acelerar a ciência que depende dessas simulações.
"Os conjuntos de dados que já gerados são importantes, e gostaríamos de tê-los feito de qualquer maneira, mas agora nós os temos em nossas mãos cerca de um ano e meio mais cedo", disse LeCompte. "Isso, por sua vez, irá ajudar-nos a obter mais resultados para conferências e publicações em um momento anterior."
Como supercomputadores como Mira se melhor integrados no fluxo de trabalho do LHC, LeCompte acredita que uma fração muito maior de simulações poderia eventualmente ser deslocado para computadores de alto desempenho. Para ajudar a mover o LHC nessa direção, sua equipe planeja aumentar o intervalo de códigos capazes de funcionar com Mira, com os próximos candidatos sendo Sherpa, um outro código de geração de evento, e Geant4, um código para simular a passagem de partículas através da matéria.
"Nós também planejamos para ajudar outros grupos de física de alta energia usar supercomputadores de liderança como Mira", disse LeCompte. "Nossa experiência é que leva um ano ou mais para chegar ao tamanho mínimo da partição, e mais um ano para executar em grande escala."
O Galaxy diário via DOE / Argonne National labratory
Nenhum comentário:
Postar um comentário