Convocadores
Computação
- Beatriz Gay (UFGRS)
Computação
- Vitor de Souza (IFSC-USP)
A reunião e organização dos recursos de computação para os experimentos do LHC se deu sob o paradigma de computação em grid, com clusters baseados em servidores homogêneos. Esse paradigma foi extremamente bem sucedido, com a criação do Worldwide LHC Computing Grid (WLCG). Através do WLCG foram realizadas a análise dos mais de 160 femtobarn inversos de colisões pp entregues pelo acelerador até...
We present a free and open-source Intelligent Platform Management Controller (IPMC) hardware mezzanine in mini-DIMM form factor, based on an STM32H745 microcontroller. An IPMC is a fundamental component of electronic boards compliant to the PICMG Advanced Telecommunications Computing Architecture, such as those envisaged for the High-Luminosity upgrades of the back-end electronics of LHC...
We employ machine learning techniques to investigate novel approaches for particle simulation and identification. In one front we study the possibility of using Deep Neural Networks for jet identification in the L1 trigger at HL-LHC. We perform a survey of architectures (MLP, CNN and Graph Networks) and benchmark their performance and resource consumption on FPGAs. We use the HLS4ML jet...
Deep Learning methods are among the state-of-art of several computer vision tasks, intelligent control systems, fast and reliable signal processing and inference in big data regimes. It is also a promising tool for scientific analysis, such as gamma/hadron discrimination.
We present an approach based on Deep Learning for shower parameter regression of water Cherenkov detectors. We design our...
O sistema de trigger do Experimento ATLAS é dividido em dois níveis, Level One (L1) e High-Level Trigger (HLT). No L1 as informações são processadas em hardware dedicado e as regiões de interesse, onde foram encontrados candidatos a eventos relevantes, são selecionadas e enviadas à filtragem de alto nível HLT. O HLT opera de modo paralelo em um conjunto de computadores e é dividido em...
O NeuralRinger é o discriminador padrão da colaboração ATLAS na detecção de elétrons na etapa rápida de trigger, e para isso, utiliza a informação dos calorímetros formatada em anéis centrados na célula mais quente para alimentar um conjunto de redes neurais artificiais. Cada classificador deste conjunto é especializado em uma faixa de valores de energia transversa e pseudorapidez, o que...
O LHC é o maior acelerador de partículas em funcionamento e é constituído de um conjunto de sete experimentos distribuídos ao longo de seu perímetro de aproximadamente 27 Km, sendo o ATLAS o maior deles. A fim de registrar os eventos ocorridos durante as colisões, o ATLAS foi projetado com elevada segmentação de mais de 100 milhões de canais. Dentre os subdetectores constituintes do ATLAS...
O Experimento ATLAS possui cerca de 100 milhões de canais de leitura, tendo sido projetado para observar em torno de 1,7 bilhões de colisões próton-próton por segundo, produzindo um volume de dados bastante elevado, devido à sua fina segmentação (maior do que 60 TB/s). O ATLAS, neste momento, passa por um extenso programa de upgrade, visando sua operação nas condições ainda mais desafiadoras...
The ALICE experiment at the LHC/CERN is being upgraded to further improve its capacity to characterize the Quark-Gluon Plasma (QGP) with improved vertexing resolution and exploitation of the higher luminosity of the upgraded LHC. Besides several instrumental updates, including new electronics and detector systems, the On-line and Off-line computing system of ALICE (ALICE O2) is being...
The LHCb experiment will use a triggerless readout system starting in 2022. Data will be collected at an event rate of 30 MHz using a software-only High Level Trigger that will enable unprecedented flexibility for trigger selections. The first stage (HLT1) will reduce the event rate by at least a factor 30 while the second stage (HLT2) will perform full analysis selection. Both the computing...
O LHC prevê um aumento crescente da sua luminosidade, o que irá gerar uma maior ocupação nos sistemas de leitura dos seus experimentos. Muitos dos processos físicos de interesse resultam em decaimentos em elétrons, fótons e múons, que são medidos pelos diversos subsistemas. Atualmente, o Experimento ATLAS passa por um extenso programa de upgrade, envolvendo os calorímetro e o espectrômetro de...
Importantes processos físicos de interesse que se espera observar no LHC produzem decaimentos com fótons e elétrons. O amplo programa de física do experimento ATLAS depende de um sistema eficiente de filtragem online (trigger) para detectar tais assinaturas. No período de tomada de dados agendado para 2021-2024 (Run3), o LHC irá operar em elevada...
Atualmente, o LHC está em processo de upgrade, devendo aumentar vertiginosamente a sua luminosidade (HL-LHC) e, assim, o número de eventos físicos para análise em cada colisão. Com isso, as condições de operação do ATLAS se tornam muito mais inóspitas e exigentes, pois haverá empilhamento de sinais nos seus sub-detectores e, assim, maior dificuldade em identificar os canais físicos de...
O experimento DUNE é um experimento de long baseline dedicado ao estudo dos parâmetros de oscilação dos neutrinos, decaimento do próton e neutrinos de supernovas. Seu detector distante empregará a tecnologia de câmara de projeção temporal preenchida com argônio líquido, sendo composto por 4 módulos, sendo que o segundo módulo, Vertical Drift, teve sua proposta inicial aprovada em dezembro de...
Simulações da ARAPUCA, contemplando suas múltiplas iterações, são peças essenciais no processo de P&D, contribuindo desde a otimização da eficiência até a escolha de materiais junto à indústria. Como parte dos esforços para o desenvolvimento da ARAPUCA no Brasil, apresentamos aqui o software ArapucaSim, que não somente utiliza a biblioteca Geant4, para simulações de Monte Carlo, como...