O Comitê Técnico-Científico (CTC) da Rede Nacional de Física de Altas Energias (RENAFAE) convida a todos da comunidade de física de altas energias do Brasil a participarem do Workshop: Projetos para o Futuro da Física de Altas Energias no Brasil, que ocorrerá de 12 a 14 de julho de 2021 no formato online. O objetivo desse Workshop é realizar um levantamento e uma reflexão sobre os projetos correntes e futuros dos grupos brasileiros envolvendo instrumentação e computação. Além de apresentações dos projetos específicos dos grupos, a proposta do Workshop é organizar discussões temáticas, buscando um processo de convergência dos grupos brasileiros que atuam em frentes correlatas visando a preparação de um projeto nacional que possa ser apresentado às agências de fomento.
Algumas informações para os apresentadores:
As apresentações ocorrerão nos dias 12 e 13/07 (por favor, verifique o link Timetable no menu à esquerda) com 15 minutos para a exposição de slides e 5 minutos para perguntas. É importante frisar que as apresentações serão gravadas.
Gostaríamos de solicitar que fosse incluído em sua apresentação, um ou dois slides com o seguinte conteúdo:
Esse material será de extrema importância para organizarmos discussões temáticas que ocorrerão no terceiro dia do evento (14/07), buscando um processo de convergência dos grupos brasileiros que atuam em frentes correlatas e visando a preparação de um projeto nacional que possa ser apresentado às agências de fomento.
Agradecemos desde já sua compreensão e colaboração!
The Resistive Plate Chambers (RPC) are used in the barrel and forward region of the CMS muon system. They provide a muon trigger and are used in the muon trajectory reconstruction. The future increase of the LHC luminosity (HL-LHC) imposes a challenge to the RPC system. In order to cope with the new conditions, an upgrade is planned. In the forward region, two additional RPC stations called RE3/1 and RE4/1, based on improved RPC technology will be installed. The link boards of the present RPC detectors will be upgraded allowing better time resolution and higher rate capabilities.
During the last years, several studies on the performance of new technologies and configurations have been done using Monte-Carlo simulations and testing new detectors in the Gamma Irradiation Facility at CERN.
The results indicate that the technology to be used for the extension of the RPC system is HPL double gap RPC. This talk will present the main activities are developing by Brazilian groups, in the special of the UERJ, UNICAMP and UEA on RPC upgrade project Phase I and our contributions and activities for the RPC Upgrade Phase II program will be finished with the installation of the chambers during the Yearly Technical Stops at the end of 2023/24 and replace of al Link System during LS3.
RPC systems of CMS, ATLAS and ALICE operate with a gas mixture with around 95% of C2H2F4, also known as R134a, which has a high GWP. Due to the use restrictions of greenhouse gases and their increasing cost, finding eco-friendly alternatives has become crucial. Mixtures with low GWPs like HFO are candidates to replace C2H2F4, but more studies have to be done. Performance of detection efficiency, spatial resolution, noise, rate capability and long term stability have to be characterized. Moreover, the prospect for the use of the RPC technology in future detector future colliders, e.g. ILC and FCC, are strictly related to the proof that RPC based detectors can operate in required performance and cope with GWP emission restrictions.
The CMS-RPC muon subsystem is being upgraded to extend the eta coverage and ensure a reliable operation in the HL-LHC phase. Since 2017 the UERJ group has participated in crucial maintenance and upgrade activities of the RPC system. It includes on-site work during LS2, tests of electronics and chambers in irradiation facilities, and the new systems' integration tests. In particular, the development of the online DAQ software and the DCS (Detector Control System) are group responsibility in this subsystem, as well as validation of prototype chambers and electronics for the upgrade program.
We plan to equip the local laboratory infrastructure at UERJ and UEA to accomplish the commitments and join the effort to find an alternative gas mixture for RPC operation, and investigate other gas detector technologies in view of contributions for future experiments, seeding a long term expertise for this kind of detector technology. A summary of the work done and the perspective for the coming years will be presented.
The LHC's experiments pass through significant upgrades of their systems aiming at the high-luminosity regime starting in 2025. The experiments must stand for higher event rates and the massive amount of data to acquire in this new regime to couple with experimental needs. For the ALICE time-projection chamber (TPC), the new technology of gaseous electron multiplier (GEM) replaces the multi-wire proportional chambers as readouts with the advantages of continuous operation and superior count rate capabilities. Besides, the GEMs present better stability regarding the ion-backflow and aging effects. The ALICE São Paulo team contributes massively to this upgrade by developing the SAMPA chip that is responsible for signal acquisition, treatment, and conversion to digital. More recently, the team's contribution has been extended to the development of GEMs, to the study of new production and prototyping techniques, to the study of the aging process for its better understanding, and to the application of such technology to other areas. For example, the development of a local production route for the technological application of GEMs is under study. Micro-resolution 3D printing has been studied for fast prototyping of new geometries, pushing forward the GEM technology and state-of-the-art additive manufacturing techniques. In the context of the ALICE experiment and the CERN RD51 collaboration, the degradation process that leads to the aging of the GEM is under study by adopting advanced surface analysis techniques, providing significant outcomes compared to recent similar studies. Additionally, targeting technological applications, the GEM’s position- and energy-sensitive capability has enabled the production of hyper-spectra maps of transmitted and reflected x-rays for imaging applications. Recent findings when adapting the GEM's sensitivity to neutrons by adopting conversion layers has proved to be an alternative to the $^3$He current neutron detection technology. For the future, the team targets the consolidation of local production of GEMs and the GEM's geometry optimization by advanced microfabrication techniques, the study of gaseous fragments that participate in the degradation process, and the development of a complete detector prototype to open new horizons of technological application with significant development of Brazilian technological capabilities for radiation detection applications.
The ALICE experiment operates at CERN-LHC accelerator complex and was designed having as main goal the study of relativist heavy ion collisions, and in particular the properties of the quark gluon plasma (QGP) nuclear matter status. The detector layout is characterized by a good coverage in the mid-rapidity ($| \eta| < 1$), especially optimized to allow measuring up to quite soft part (p$\approx$150 MeV) of particle spectrum. In the forward regions the ALICE detector is characterised by an asymmetric layout, with a muon spectrometer in the $-4.5 < \eta < -2.5$ region, while the positive side is presently lightly instrumented.
After many years of preliminary technological development and better characterization of the physics case, in 2020 a Letter of Intent for a Forward Calorimeter (FoCal) was presented, and the project was approved both by the ALICE collaboration and by the LHC Experiment Committee.
The main goal of Focal is to measure with a high-precision the inclusive production of direct photons and $\gamma$-jet and jet-jet coincidences in the high rapidity region, for both proton-proton and proton-Pb collisions, providing, in such a way, the possibility to investigate the Parton Distribution Function in the small Bijorken-x region, which is still quite experimentally unexplored.
The FoCal consists of a high-granularity electromagnetic calorimeter (FoCal-E) followed by a conventional (Cu or Pb scintillating fibre spaghetti design) hadron calorimeter (FoCal-H). The FoCal-E is sampling calorimeter which uses tungsten (small Molière radius) as converter, and silicon to detect and track the shower. The current proposal foresees 18 layers formed by tungsten and silicon pads (pad size ${\rm \approx 1 \: cm^2} $) and two (or three) layers of tungsten and silicon pixels providing high granularity readout ($\approx 30 \times 30 \: {\rm \mu m ^2}$ ). The pad layers will allow the measurement of the shower energy and profile, and the pixel layers will provide two-photon separation with high spatial precision in order to separate between isolated photons and merged showers of decay photon pairs from neutral pions.
The Brazilian groups in ALICE (USP, UNICAMP, UFABC and UFRGS) aimed contribution to this project is the characterization of the FoCal silicon pad layers readout system. Given the extensive experience of the groups obtained during the development of the SAMPA chip, that instruments the ALICE TPC and MCH detectors, it is natural to expect that a significant contribution to this part of the project can be achieved. Combined to this, given the interest of the groups in the development of a research infrastructure for silicon detectors, the contribution to the readout of the silicon pad detectors naturally matches such endeavour.
Starting 2025, the LHC and its experiments will enter into a new era, the era of the High Luminosity LHC (HL-LHC), a program aiming for high precision measurements in the Standard Model, exploration of new regions of the phase space and searches for signals of new physics through very rare processes. Colliding proton beams at $\sqrt{s}=14$ TeV, the HL-LHC will reach an instantaneous luminosity of 7.5 $\times 10^{34}\mathrm{cm}^{-2}\mathrm{s}^{-1}$. With 200 simultaneous collisions per bunch crossing, the very busy environment dominated by QCD jet production will make the tracking-vertex association and particle identification a very demanding task and many of the current detectors, trigger and data acquisition systems will not be able to retain their performance in this situation. Moreover, this high luminosity will give rise to a significant increase in the radiation dose, with the high rapidity regions being the most affected. To cope with these challenges, the experiments will have to resort to new systems using the state-of-the-art particle detectors in order to withstand years of radiation dose delivered by the HL-LHC. The ATLAS experiment will deploy a new semiconductor based system, the High granularity Timing Detector (HGTD), a 2m disk to be installed between the ATLAS barrel and the endcap ($2.4 < |\eta|< 4.0$) that will provide timing information in order to aid track-vertex association and pileup mitigation. The CMS will also rely on timing measurements for its future internal detector (MTD), while ALICE foresees a completely new semiconductor based detector in 2030 (ALICE3), with two timing layers devoted to particle identification up to $|\eta|< 4.0$ and able to provide a timing resolution better than 20ps. All these experiments will use or are considering the forefront technology in silicon timing sensors, the Low Gain Avalanche Detector (LGAD). Having an intrinsic gain of only a few tens, these silicon-based sensors can provide picosecond timing resolution while withstanding radiation doses that can reach up to $2.5 \times 10^{15} \mathrm{ncm}^{-2}$ and 2 MGy[Si]. LGAD based detectors can be built with millimetric segmentation and very thin, resulting in a low material budget. As part of the ATLAS Phase-II program, the group already participates since 2018 in the R\&D of LGAD sensors for HGTD and will soon start the prototypes qualification. In the near future, the experience gained in ATLAS will be extended to explore new semiconductor radiation sensors for low energy applications (synchrotron light) and for the recently proposed ALICE3 TOF timing layers.
A instrumentação de detectores no Laboratório de Física de Partículas Elementares (LAPE) da UFRJ envolve pesquisa e desenvolvimento de tecnologias relativas ao detector de vértices do LHCb, projetado em pixels com leitura ultra-rápida, resistência à radiação e alta eficiência. No atual Upgrade I do experimento LHCb, o detector de vértices VELO está sendo substituído por detectores híbridos de pixel de silício com chip de leitura Velopix, da família Medipix/Timepix, capazes de operar em luminosidade de $2 \times 10^{33}$ cm$^{-2}$s$^{-1}$ com leitura a 40 MHz e transmissão de dados a 1.6 Tbit/s, e capazes de suportar fluências de radiação até $8\times 10^{15}$ 1 MeV n$_{eq}$ cm$^{-2}$. Apresentamos as contribuições do LAPE-UFRJ ao desenvolvimento de detectores e eletrônica para o Upgrade I do VELO e os planos para o futuro no Upgrade II.
The CMS group at UERJ has been an integral part of the Precision Proton Spectrometer (PPS) subsystem project of the collaboration.
The PPS detector system has been installed and integrated into the CMS experiment since 2016 and has collected over $110\,\text{fb}^{-1}$ of data during the LHC Run 2.
It is a joint project of the CMS and TOTEM collaborations with the capability of measuring protons scattered at very small angles, operating at high instantaneous luminosity.
The physics motivation of the PPS project is the study of central exclusive production (CEP), i.e. the process $\mathrm{p}\mathrm{p} \to \mathrm{p}^{\left(\ast\right)} + \mathrm{X} + \mathrm{p}^{\left(\ast\right)}$, mediated by colour-singlet gluon exchange, photons or $Z$ bosons, by detecting at least one of the outgoing protons.
CEP provides unique sensitivity to SM processes and BSM physics, e.g. searches for anomalous gauge couplings, axion-like particles, inclusive dark matter (DM) and DM mediator searches, and new resonances.
The CMS collaboration intends to construct a new near-beam proton spectrometer at the High-Luminosity LHC (HL-LHC), similar to the PPS system.
By installing detectors in suitable locations in the accelerator chain, the accessible mass range allows the study of CEP where the system $\mathrm{X}$ is the SM Higgs boson, and with a mass acceptance upper limit of $\approx 2.7\,\text{TeV}$.
This talk will review the PPS detector system, the proton reconstruction chain and its performance using Run 2 data, and highlight measurements of CEP.
Finally, the design, feasibility and expected performance of the detector system at the HL-LHC will be discussed.
O experimento CONNIE (Coherent Neutrino-Nucleus Interaction Experiment) está operando junto à Central Nuclear de Angra 2, visando a detecção do espalhamento elástico coerente dos antineutrinos de reator com os núcleos de silício e testar física além do Modelo Padrão. Para esse fim, o experimento utiliza a tecnologia de dispositivos de carga acoplada (CCDs), que possuem um baixíssimo liminar de detecção (com ruído abaixo de 2 e-). Apesar de ser um detector de baixa massa, ele se beneficia do grande aumento do fluxo dos neutrinos da central nuclear com a diminuição da energia. O detector passou por uma fase inicial de engenharia, para testar a operação do experimento, de 2014 a 2016. Em 2016 foi completada a primeira versão de CONNIE, operando com 8 CCDs construídos especialmente para esse fim e que forneceram dados de qualidade científica, com massa ativa total de 50 g. A primeira fase de análise de dados, correspondendo ao período 2016-2018, permitiu atingir o recorde mundial com o menor limiar de detecção de neutrinos (50 eV de energia de ionização) e estabelecer um limite superior ao seu fluxo medido no detector. Com essa medida foi possível impor limites em extensões simplificadas do Modelo Padrão com mediadores leves escalares ou vetoriais, obtendo as restrições mais fortes nos parâmetros desses modelos em baixas energias com experimentos de neutrinos. Em 2019 experimentou-se uma nova forma de leitura das CCDs visando aumentar a relação sinal-ruído, melhorando a sensibilidade do experimento por um fator 2. Os próximos passos para levar à efetiva detecção dos neutrinos via espalhamento coerente são: i) diminuir ainda mais o limiar de detecção, ii) aumentar a massa do detector. Para isso, será utilizada uma nova tecnologia, denominada Skipper-CCD que permite alcançar níveis de ruído sub-eletrônicos. No final de junho de 2021 foram instalados dois sensores Skipper-CCD e todo o experimento passou a utilizar uma eletrônica de leitura de nova geração, a Low Threshold Acquisition (LTA). Foi construída uma nova interface entre as CCDs e a LTA de modo a poder operar em simultâneo CCDs anteriores de CONNIE e as Skipper-CCD. Com isso, CONNIE se tornou o único experimento no mundo a combinar essas duas tecnologias, o que permitirá realizar inúmeros testes e calibrações cruzadas, visando entender e melhorar o comportamento das Skipper-CCD em um experimento operando no nível do solo ao lado de um reator nuclear. O próximo passo será preencher todo o detector CONNIE com Skipper-CCDs, aumentando sua massa com esses novos sensores, o que abrirá uma nova janela na detecção de neutrinos e testes do Modelo Padrão. Nesta apresentação mostraremos brevemente os novos resultados de CONNIE e iremos discutir a potencialidade dos novos sensores, juntamente com as necessidades e desafios para completar a nova versão do experimento.
A reunião e organização dos recursos de computação para os experimentos do LHC se deu sob o paradigma de computação em grid, com clusters baseados em servidores homogêneos. Esse paradigma foi extremamente bem sucedido, com a criação do Worldwide LHC Computing Grid (WLCG). Através do WLCG foram realizadas a análise dos mais de 160 femtobarn inversos de colisões pp entregues pelo acelerador até 2021, bem como a geração de uma quantidade da mesma magnitude de eventos simulados. O São Paulo Research and Analysis Center (SPRACE), estabelecido em 2003 com o apoio da FAPESP, possibilita a participação de pesquisadores de SP no experimento Compact Muon Solenoid (CMS) do LHC e opera o cluster BR-SP-SPRACE do WLCG, associado ao Open Science Grid (OSG). Atualmente o cluster do SPRACE é formado por 128 servidores, totalizando um poder computacional de 25.2 kHS06 e 3 PB de espaço de armazenamento. Um upgrade para as condições do Run 3 está previsto para o fim de 2021, com +20% de poder computacional e +30% de armazenamento.
Esse paradigma, entretanto, não será suficiente para o High-Luminosity LHC (HL-LHC). As condições experimentais do HL-LHC implicam uma luminosidade instantânea de até 75 Hz/nb e até 200 colisões pp simultâneas por evento. Discutiremos os parâmetros de aquisição e processamento de dados na Fase-2 do experimento CMS, durante a era do HL-LHC, e possíveis frentes de desenvolvimento para atacar esse problema: o uso de técnicas de aprendizado de máquina, e o uso de recursos heterogêneos de computação. Utilizaremos como referências os problemas de rastreamento de partículas e de simulação de jatos no HL-LHC, e a implementação do trigger de alto nível da Fase-2 do CMS. Discutiremos também a parte da transferência de dados, com ênfase no upgrade da estrutura de rede para 100G e a entrada do SPRACE no LHCONE, uma coleção de locais de acesso que agem como pontos de entrada para uma rede overlay privada para os sites do LHC.
We present a free and open-source Intelligent Platform Management Controller (IPMC) hardware mezzanine in mini-DIMM form factor, based on an STM32H745 microcontroller. An IPMC is a fundamental component of electronic boards compliant to the PICMG Advanced Telecommunications Computing Architecture, such as those envisaged for the High-Luminosity upgrades of the back-end electronics of LHC experiments. The mezzanine, named OpenIPMC-HW (OpenIPMC HardWare) runs inside its FreeRTOS-based firmware an instance of the free and open-source OpenIPMC software, which implements the IPMI functions required by the PICMG standard. The mezzanine is pin-by-pin compatible with existing IPMC solutions and is currently being tested on the Pulsar-IIb, Serenity and Apollo ATCA boards.
The Phase-2 upgrade of the CMS experiment will involve the replacement of many detector components, preparing the experiment for operation at the HL-LHC. During this upgrade, the silicon tracker detector will be completely replaced. The development of the prototypes and the quality assurance testing on the mass-produced final version of the new tracker sensor modules requires a flexible electronic testing infrastructure, capable of interfacing the modules with a computer. This infrastructure is based on the FC7, an AMC card equipped with a Xilinx Kintex-7 FPGA and jointly designed by CERN and Imperial College, running the uDTC gateware. A key component of uDTC is the Command Processor Block, responsible for the real-time configuration and operation of the modules during testing. In this technical presentation we present the development process and the final implementation of the new Command Processor Block for the uDTC, focusing on architecture choices and lessons learned from this development.
We employ machine learning techniques to investigate novel approaches for particle simulation and identification. In one front we study the possibility of using Deep Neural Networks for jet identification in the L1 trigger at HL-LHC. We perform a survey of architectures (MLP, CNN and Graph Networks) and benchmark their performance and resource consumption on FPGAs. We use the HLS4ML jet dataset to compare the results obtained in this study to previous literature on Fast Machine Learning applications on FPGAs. We also investigate the use of generative adversarial networks (GAN) for fast simulation of particle showers in electromagnetic calorimeters, which is used to reproduce energy deposition and shower shapes in multi-layer setups.
Deep Learning methods are among the state-of-art of several computer vision tasks, intelligent control systems, fast and reliable signal processing and inference in big data regimes. It is also a promising tool for scientific analysis, such as gamma/hadron discrimination.
We present an approach based on Deep Learning for shower parameter regression of water Cherenkov detectors. We design our method using simulations. In this contribution, we explore the recovery of the shower’s center coordinates and its ground energy. We evaluate the limits of such estimation near the borders of the arrays, including when the center is outside the detector’s range. We made use of several Deep Learning architectures to select the most promising and optimized the network design. The method could be easily adapted to estimate other parameters of interest.
O sistema de trigger do Experimento ATLAS é dividido em dois níveis, Level One (L1) e High-Level Trigger (HLT). No L1 as informações são processadas em hardware dedicado e as regiões de interesse, onde foram encontrados candidatos a eventos relevantes, são selecionadas e enviadas à filtragem de alto nível HLT. O HLT opera de modo paralelo em um conjunto de computadores e é dividido em dois sub-níveis sequenciais, a Etapa Rápida (Fast Step) e a Etapa Precisa (Precision Step). Com as características de operação do LHC para o Run 3, é esperado um crescimento vertiginoso do empilhamento de sinais, enquanto consequência do contínuo aumento da luminosidade do LHC, o que torna ainda mais complexa a tarefa do sistema de trigger. Neste trabalho, uma proposta de calibração das medições de energia realizadas no calorímetro do ATLAS é apresentada para a etapa rápida do trigger de elétrons. O sistema de calibração proposto utiliza dados simulados para treinar uma boosted decision tree (BDT), que realiza a correção nas medições de energia antes da etapa rápida de trigger. Um procedimento de calibração semelhante é adotado para a Etapa Precisa de trigger, entretanto são utilizadas como entradas as informações do chuveiro de deposição de energia das partículas (shower shapes). Neste trabalho, como entradas para a BDT, serão utilizadas também, as informações do calorímetro formatadas em anéis concêntricos de deposição de energia, os quais já são utilizados nesta etapa Fast para a tomada de decisão do trigger para elétrons e, recentemente, também aprovados para o trigger de fótons. Esses anéis descrevem de forma eficiente a distribuição energética longitudinal e transversalmente, entretanto alguns estudos prévios indicaram a existência de alguma assimetria na deposição de energia em relação aos eixos de referência do calorímetro. Adicionalmente, neste trabalho, está sendo estudado o impacto do uso de frações dos anéis (anéis assimétricos) no processo de calibração, com o objetivo de melhorar a resolução de energia no HLT. O estudo se baseia na proposição de novas topologias e na comparação do seu desempenho na calibração, em relação à estrutura padrão dos anéis. Com o sistema de calibração pretende-se reduzir a taxa de eventos que são analisados pelo HLT, a partir de uma melhor estimação do valor de energia dos clusters eletromagnéticos.
O NeuralRinger é o discriminador padrão da colaboração ATLAS na detecção de elétrons na etapa rápida de trigger, e para isso, utiliza a informação dos calorímetros formatada em anéis centrados na célula mais quente para alimentar um conjunto de redes neurais artificiais. Cada classificador deste conjunto é especializado em uma faixa de valores de energia transversa e pseudorapidez, o que possibilita uma melhor caracterização da física de interesse e maior eficiência de trigger. Para o projeto e as atualizações do NeuralRinger, foi necessário desenvolver um framework computacional capaz de: (i) acessar os dados do detector (experimentais ou simulados) e efetuar a reconstrução da cadeia de trigger para agrupamentos eletromagnéticos; (ii) realizar a segmentação dos dados coletados em energia e pseudorapidez necessárias para treinamento e operação do conjunto de redes neurais; (iii) executar o processo de treinamento do conjunto de redes neurais artificiais e (iv) analisar os resultados obtidos visando a operação na estrutura de software do ATLAS. O framework é composto dos seguintes módulos: Apolo, Prometheus, Saphyra e Kolmov. O Apolo é o framework responsável por extrair as informações de interesse do ambiente computacional do ATLAS. São contabilizadas nessa extração as informações associada a cada evento e em cada etapa do sistema de trigger: Level 1, etapa Fast e etapa Precision do HLT (do inglês, High Level Trigger), bem como o valor da energia de cada partícula e a sua pseudorapidez. Essas informações são utilizadas pelo framework Prometheus, que separa os dados em faixas de energia e pseudorapidez e realiza emulações das cadeias de trigger para elétrons e fótons, a fim de avaliar o impacto da inserção dos modelos neurais em diversas etapas das cadeias de processamento. Uma vez separadas, as informações de cada partícula, os anéis construídos são utilizados pelo Saphyra, que é o framework responsável por treinar os modelos neurais em diversos tipos de arquitetura. O Saphyra utiliza o TensorFlow® como biblioteca de software que dá suporte para o treinamento de classificadores neurais rasos e profundos. Para realizar a análise dos classificadores treinados, o Kolmov é utilizado. Uma análise da validação cruzada do treinamento é disponibilizada, permitindo escolher o melhor modelo para cada faixa de energia e pseudorapidez, bem como realizar o procedimento de correção por valores de empilhamento das amostras coletadas pelo Apolo. Os classificadores ajustados são processados novamente pelo Prometheus, para avaliar a eficiência e seu impacto na cadeia de trigger em função da energia da partícula, da pseudorapidez e empilhamento de sinais. Todo o framework foi adaptado para ser executado em um cluster de GPU (Graphics Processing Unit) e CPU (Central Processing Unit), pois é dotado de um sistema de controle de acesso remoto e alocação de recursos que é capaz de gerenciar tarefas com opção de processamento em modo paralelo. Com exceção do Apolo, os demais módulos podem ser instalados através de containers, facilitando sua instalação e evitando problemas de dependências. Este ambiente de desenvolvimento vem dando suporte aos colaboradores brasileiros, suíços e franceses que colaboram para os desenvolvimentos no HLT do ATLAS.
Ao longo da operação, o LHC e seus experimentos passam por diferentes fases de atualização. A primeira fase aconteceu entre os anos de 2019 e 2020, enquanto a sua segunda fase está agendada para ocorrer entre os anos de 2024 e 2026. Na segunda fase do programa de atualização, o principal calorímetro hadrônico do ATLAS (TileCal) substituirá completamente sua cadeia de leitura eletrônica. Entretanto, haveria benefícios adicionais para o programa de física do ATLAS caso a segmentação do TileCal se tornasse mais fina, mesmo que não se possam alterar suas características mecânicas.
Uma opção que está sendo implementada substitui os tubos fotomultiplicadores atuais, de anodo único, por tubos com capacidade de leitura multi-anodal (MA-PMT), o que possibilita dobrar a granularidade atual do calorímetro, obtendo informações adicionais sobre a energia depositada em cada célula. Esta granularidade mais fina permite melhores medidas do perfil longitudinal de jatos produzidos durante o regime de alta luminosidade no LHC (HL-LHC), além de melhorias nas reconstruções de momento, massa e posição angular.
No trabalho aqui proposto, técnicas de aprendizado profundo são utilizadas para associar a imagem formada na tarde de pixels da MA-PMT à uma sub-região da célula em questão. Na primeira etapa do trabalho, utilizamos Modelos Generativos Adversariais para criar dados sintéticos capazes de simular as imagens formadas na grade de pixels da MA-PMT, com o objetivo de aumentar a estatística do processo.Na segunda etapa da análise, as imagens sintéticas são usadas para criar um modelo de classificação, o qual é baseado em Redes Neurais Convolucionais e associa o padrão de imagens formadas na MA-PMT à novas sub-regiões dentro da célula do calorímetro. Os dados reais do processo são utilizados para avaliar a classificação em diferentes pipelines de avaliação.
O LHC é o maior acelerador de partículas em funcionamento e é constituído de um conjunto de sete experimentos distribuídos ao longo de seu perímetro de aproximadamente 27 Km, sendo o ATLAS o maior deles. A fim de registrar os eventos ocorridos durante as colisões, o ATLAS foi projetado com elevada segmentação de mais de 100 milhões de canais. Dentre os subdetectores constituintes do ATLAS estão os calorímetros eletromagnético e hadrônico, com quase 190 mil canais. Tal estrutura, com alta densidade de canais sensores dos calorímetros possibilita o aparecimento de crosstalk (XT) (cruzamento de informação) entre os canais vizinhos, que produz um sinal espúrio e que passa a ser somado ao verdadeiro nível de energia. Como resultado, o nível de energia que é reconstruído pode estar incorreto, mascarando a natureza da partícula que foi registrada e prejudicando a determinação do tempo de voo da partícula vinda da colisão. O sistema de amostragem do ATLAS utiliza quatro amostras do sinal de calibração, tomadas a cada 25ns, as quais são processadas pelo algoritmo de filtro ótimo que determina o valor da energia depositada e o tempo da partícula incidente. Porém, o filtro ótimo não consegue mitigar o efeito do XT presente nas amostras do sinal reconstruindo. Neste trabalho, foi desenvolvido um simulador de chuveiro de partículas eletromagnéticas (elétrons, pósitrons e fótons) baseado nos perfis de deposição de energia e em parâmetros físicos do calorímetro eletromagnético, em Argônio Líquido (LAr) do ATLAS. O objetivo do desenvolvimento do simulador é a produção de eventos com diferentes condições de XT e permitir uma rápida reconfiguração e execução, sem a necessidade de utilização de uma grande infraestrutura, e de elevado conhecimento especialista do detector, como ocorre nos modelos do GEANT4. Utilizando como referência um cluster definido na segunda camada (S2) do calorímetro eletromagnético de tamanho (5$\times$0,025) $\times$ (5$\times\frac{\pi}{128}$) ($\eta$, $\phi$), 745 mill eventos foram produzidos. Como método de processamento de sinais adotado, redes neurais, do tipo Multilayer Perceptron, contendo uma, duas e três camadas escondidas foram avaliadas no processo de reconstrução da energia sem a interferência do sinal XT. Como entrada, 9 células são selecionadas, a mais energética e sua primeira vizinhanças, cada uma com 4 amostras. O critério de avaliação utilizado é o menor erro médio quadrático (MSE) avaliado entre a saída da rede e os valores de energia utilizados como referência para o treinamento, obtendo um MSE, global, igual a 9,23$\times10^{-4}$. Os ensaios têm indicado que as redes neurais do tipo MLP podem reconstruir a energia da célula de interesse, reduzindo a interferência causada pelo sinal XT.
O Experimento ATLAS possui cerca de 100 milhões de canais de leitura, tendo sido projetado para observar em torno de 1,7 bilhões de colisões próton-próton por segundo, produzindo um volume de dados bastante elevado, devido à sua fina segmentação (maior do que 60 TB/s). O ATLAS, neste momento, passa por um extenso programa de upgrade, visando sua operação nas condições ainda mais desafiadoras do HL-LHC. A operação e os novos desenvolvimentos do ATLAS são frutos de uma colaboração que reúne mais de 5.000 membros, sendo que mais de 3.000 cientistas assinam os seus artigos científicos.
No ATLAS, ao longo destes anos de desenvolvimento e operação, um enorme volume de informações de alto nível (inventário de equipamentos, componentes, análises científicas, artigos publicados, informação de colaboradores, etc.) foi produzido. Nas fases iniciais do experimento, estas bases de dados ficavam em sistemas distintos que não se comunicavam, gerando grande dificuldade para a colaboração no acesso à informação.
O projeto Glance foi proposto pela COPPE/UFRJ como forma de solucionar este problema de busca e integração de dados, através do desenvolvimento de um framework de busca que integra várias fontes de informação desenvolvidas com tecnologias distintas. O Glance torna fácil a integração de uma nova base e a consequente realização de buscas na mesma, reduzindo o tempo necessário para os colaboradores encontrarem a informação que desejam.
Atualmente, o Glance é largamente utilizado pelo ATLAS e por dois outros experimentos do LHC (LHCb e ALICE), sendo responsável por um total de 16 projetos distintos, atingindo mais de 6.000 usuários de diferentes perfis (pesquisadores, coordenadores, speakers, etc.). Atualmente, sob liderança da UFRJ, o Glance recebe colaborações de outras instituições de pesquisa, tais como o LIP, em Portugal, e a Universidade de Udine, na Itália. O Glance incorpora iniciativas de inovação tecnológica nos sistemas que utilizam o framework, de tal modo que participa como um importante elemento integrador neste esforço de upgrade do ATLAS.
JUNO (Jiangmen Underground Neutrino Observatory) é um detector polivalente de 20 kton de cintilador liquido atualmente em construção no sul da China a uma distancia de cerca de 53 km de usinas nucleares e que começará a coleta de dados em 2022. O objetivo principal é a determinação do ordenamento das massas dos neutrinos, obtendo mais de 3σ após 6 anos de tomada de dados. Para alcançar esse resultado, são essenciais a alta transparência do cintilador liquido, a alta cobertura (75%) de fotomultiplicadores e baixos níveis de ruídos, que permitirão alcançar a resolução em energia necessária de 3% a 1MeV e exatidão na calibração melhor de 1%. O detector possui um enorme potencial para medidas de precisão dos parâmetros de oscilação dos neutrinos e oferece a possibilidade de detectar neutrinos de outras fontes terrestres ou astrofísicas. A precisão e exatidão na medida de energia será alcançada por meio de um sistema de 18000 fotomultiplicadores de 20 polegadas (LPMT, “Large PhotoMultiplier Tubes”) e outro sistema complementar de 25600 fotomultiplicadores de 3 polegadas (SPMT, “Small PhotoMultiplier Tubes”). Os dois sistemas, trabalhando em conjunto permitirão de realizar a técnica de medida chamada “calorimetria dupla”. Nesta apresentação, a contribuição brasileira em JUNO, mais especificamente no sistema SPMT e em relação às medidas de precisão dos parâmetros de oscilação, será discutida.
Um dos programas experimentais mais importantes que abordará algumas das questões abertas em física de neutrinos é o Deep Underground Neutrino Experiment (DUNE). Isto será um grande projeto internacional, de megaciencia, que envolve mais de 1000 físicos. DUNE ira estudar a violação de CP no setor leptônico, a hierarquia de massas de neutrinos, o decaimento do proton e detectará uma eventual explosão de uma supernova na nossa galaxia. DUNE prevê a realização de um feixe de neutrinos e de um detector próximo, ambos localizados no Fermilab (EUA) e de um gigantesco far detector baseado na tecnologia de câmaras de projeção temporal em argônio líquido (Liquid Argon Time Projection Chambers - LArTPC) que será instalado no Sanford Underground Research Facility em South Dakota, a 1300 km de distância. O sistema de detecção de fótons (SPPDS) é um componente fundamental do far detector e será usado como trigger, para timing e para melhorar a resolução de energia para eventos de baixa energia. Seu design se baseia em uma tecnologia desenvolvida no Brasil, a X-ARAPUCA, que é uma combinação de sensores de silício com um coletor passivo. Este último permite aumentar a eficiência de detecção prendendo os fótons dentro de uma caixa altamente reflexiva.
As X-ARAPUCA para o primeiro modulo do far detector serão montadas no Laboratorio
de Leptons da UNICAMP e todas as componentes mecanicas e oticas serão produzidas no Estado de São Paulo. Um teste extenso de todos os componentes do primeiro far detector do DUNE será realizado em 2022, no CERN com o segundo Run do protoDUNE.
Iremos descrever os avanços do sistema de detecção de fótons para o primeiro far
detector do DUNE e os planos para o test em protoDUNE.
O Experimento Short Baseline Neutrino Detector (SBND) faz parte do programa de experimentos do Fermilab dedicados a física da oscilação de neutrinos a curto alcance. O projeto inicial do sistema de fóton detecção do SBND era desenhado para acomodar foto multiplicadores e barras guias de luz, com a performance e os excelentes resultados do dispositivo X-ARAPUCA este foi incorporado ao sistema de fóton detecção substituindo as barras guias de luz. A proposta desse novo sistema foi feita em colaboração com o Fermilab e as Universidade de Michigan e Tufts, o desenho os testes de validação ate a montagem e controle de qualidade desse sistema estão sendo feitas no Brasil. Será mostrado os trabalhos realizados ate então pelo grupo brasileiro, o estado atual da montagem dos módulos e o programa para a instalação do detector.
Desde 2015 o Centro de Pesquisas Renato Archer (CTI) trabalha em colaboração estreita com a UNICAMP - Laboratório de Léptons - no âmbito das colaborações DUNE e SBND.
O primeiro teste usando argônio gasoso do dispositivo arapuca foi realizado nos laboratórios desse centro. Desde então foram realizados testes de resistência a baixas temperaturas dos componentes óticos do dispositivo (Filtros dicroicos, barras guias de luz e deslocadores de comprimento de onda), e dos componentes mecânicos feitos em fibra de vidro (G10).
Os resultados desses testes produziram protocolos de limpeza, montagem e controle de qualidade seguidos pela colaboração.
Será apresentado os resultados dos testes e o atual estado da pesquisa e desenvolvimento que temos feito.
Este projeto que busca superar os desafios científicos e tecnológicos associados com a produção, purificação e condensação e regeneração massiva de Argônio Líquido (LAr) e componentes criogênicos relacionados em plantas criogênicas de larga escala.
Criogenia de LAr em larga escala possui um papel fundamental no projeto International Long-Baseline Neutrino Facility (LBNF), o qual irá proporcionar a infre-estrutura central para o desenvolvimento to Deep Underground Neutrino Experiment (DUNE).
Com um papel fundamental dentro do projeto de Criogenia de LAr do LBNF /DUNE, o Instituto de Física “Gleb Wataghin” (IFGW) da Unicamp e o grupo empresarial Equatorial Sistemas Ltda. se unem com a colaboração do Fermilab para celebrar um acordo de cooperação científica e tecnológica para pesquisa e desenvolvimento (P&D), testes e modelagem e prototipagem de menor escala para superar os desafios
científicos e tecnológicos associados com a produção, purificação e regeneração de Argônio Líquido (LAr) e componentes criogênicos relacionados para plantas criogênicas de larga escala, especialmente, quando estas ser instaladas em cavernas subterrâneas.
In this talk, we will discuss the advances of the ASTRI MINI-ARRAY with 9 telescopes, the Cherenkov Telescope Array (CTA) Precursor, that will be installed in Tenerife, Canarian Islands, staring in September 2021. I will also show the advances on the construction of the 40 small-size-telescopes (SSTs) for CTA. The ASTRI telescope has been chosen (out of two other prototypes) to be the structure of the SSTs, putting the ASTRI team and Brazil as one of the protagonists of the next steps of the CTA development. The ASTRI MINI-ARRAY will start operation well before the CTA, allowing the Brazilian High Energy Astrophysics and Particle Physics Community to partake in obtaining unprecedented quality data at extreme gamma-ray energies. CTA and the ASTRI MINI-ARRAY are among the largest projects of the SPANet.
The Cherenkov Telescope Array (CTA) will be the next world leader astroparticle physics facility. Three sizes of telescopes will be installed in two sites. We have been involved with development of instrumentation to the Middle-Sized Telescope (MST) since 2010. The structure of the telescope has very tight and demanding constrains. We are developed and test part of the telescope structure together with national companies. A patent of a positioning device was deposited in 2019 and we becase resposible to provide this part to the construction of the Observatory. In this presentation, we will show the importance of the MST and the succesfull history of development of the instrumentation.
O Southern Wide-field Gamma-ray Observatory (SWGO) é uma colaboração internacional formada em 2019 para planejar e projetar um novo observatório de raios-gama na América do Sul. O SWGO será um instrumento complementar ao Cherenkov Telescope Array (CTA), e aos grandes observatórios gama baseados na detecção das partículas secundárias dos chuveiros atmosféricos, tais como HAWC (México/EUA) e LHAASO (China). Ele será o único observatório de seu tipo no hemisfério sul, operacional na faixa dos 0.1 TeV - 10 PeV, com um amplo campo de visão para varredura de todo o céu Austral, incluindo o plano e centro Galácticos, na busca por fontes PeVatrons de raios-cósmicos. Além disso, ele terá um duty-cycle contínuo para monitorar o céu por transientes extremos, tais como gamma-ray bursts e fontes associados a eventos multi-mensageiros, como neutrinos e ondas gravitacionais. Nesta palestra eu apresentarei detalhadamente a proposta e os planos atualmente em desenvolvimento para a construção deste futuro observatório, a ser instalado a 4.5 km de altitude nos Andes, e que conta com liderança brasileira, além do envolvimento de outros 12 países, dos quais 5 são Latino-Americanos.
Num envolvimento de 20 anos, primeiro na colaboração ATHENA e depois ALPHA no CERN, aprendemos a fabricar antihidrogênio (antiH) frio, aprisioná-lo magneticamente e realizar medidas de nulidade de carga e da estrutura hiperfina com microondas. Em desenvolvimentos recentes, realizamos a espectroscopia a laser na transição 1S-2S com 12 algarismos significativos. É a medida mais precisa e acurada (baseada no relógio atômico padrão) já realizada sobre antimatéria e mostra compatibilidade com o esperado em Hidrogênio (H), num teste da Simetria de CPT. Essa medida, também publicada na Nature, dependeu da cavidade ótica criogênica desenvolvida na UFRJ. A próxima campanha experimental imediata pretende medir a queda gravitacional de antiH num teste do Princípio de Equivalência Fraco. Nossa última publicação foi capa da Nature de Abril/2021 com a demonstração de resfriamento a laser de antiH. Precisamos agora aprisionar H na mesma armadilha de antiH para atingirmos comparação a nível de partes em 10^15 ou mais. Para isso, estamos desenvolvendo na UFRJ uma técnica para aprisionamento de H, por rotas diferentes. Como a produção de H é similar à produção de tricio (T), pretendemos demonstrar copiosa produção desse átomo para o qual há uma interessante proposta (Project-8) de medição de massa de neutrino pela medida da energia dos mais energéticos betas do decaimento em altos campos magnéticos pela frequência de microondas emitida. Discutimos esses tópicos e a necessidade de uma infraestrutura de medição de frequência ótica (Pente Ótico de Frequências baseado em GPS ou Relógio Atômico) além de uma infraestrutura e disponibilidade de oficina mecânica e eletrônica de alta qualidade para avançarmos localmente no País para esses desenvolvimentos.
The ALICE experiment at the LHC/CERN is being upgraded to further improve its capacity to characterize the Quark-Gluon Plasma (QGP) with improved vertexing resolution and exploitation of the higher luminosity of the upgraded LHC. Besides several instrumental updates, including new electronics and detector systems, the On-line and Off-line computing system of ALICE (ALICE O2) is being commissioned to replace the previous software stacks. The O2 framework is designed to provide high throughput data acquisition and real-time reconstruction with high compression to reduce the 3 TB/s of data foreseen to be generated by the ALICE detector during the 50 kHz PbPb collisions period down to 90 GB/s of physics-analysis objects for storage. Other responsibilities of the ALICE O2 computing system includes detector simulation, generation of Monte Carlo datasets and data analysis.
GEFAE-IF/UFRGS from Porto Alegre/RS/Brazil is an experimental group with recent experience in the development, testing and assembly of the MFT detector (Muon Forward Tracker). The MFT was recently installed in the ALICE experiment at the LHC/CERN and is currently under commissioning in view of the next running period of the LHC. The group is committed to the operation of the MFT and to the development of the related components of the ALICE O2 computing system. This includes the development and implementation of a forward tracking model for reconstruction and analysis of forward tracks. The group has also conceived a machine learning interface for track-reconstruction.
The ALICE O2 framework and its forward tracking code is being put into practice in performance studies and layout optimization of the post-LS4 (Long Shutdown 4) heavy ion experiment at the LHC, which is expected to replace the upgraded ALICE detector by 2032. The group is interested into further advance its experience in simulation, machine learning and forward tracking by contributing to the understanding of detector and physics performances and explore the limits of forward tracking in the next generation heavy-ion experiment at the LHC.
The LHCb experiment will use a triggerless readout system starting in 2022. Data will be collected at an event rate of 30 MHz using a software-only High Level Trigger that will enable unprecedented flexibility for trigger selections. The first stage (HLT1) will reduce the event rate by at least a factor 30 while the second stage (HLT2) will perform full analysis selection. Both the computing and physics performance of the two stages will be presented.
O LHC prevê um aumento crescente da sua luminosidade, o que irá gerar uma maior ocupação nos sistemas de leitura dos seus experimentos. Muitos dos processos físicos de interesse resultam em decaimentos em elétrons, fótons e múons, que são medidos pelos diversos subsistemas. Atualmente, o Experimento ATLAS passa por um extenso programa de upgrade, envolvendo os calorímetro e o espectrômetro de múons, que são essenciais para uma alta eficiência dos sistemas de trigger para estas partículas. Este trabalho descreve as contribuições do Cluster ATLAS/Brazil no contexto dos dois primeiros níveis de filtragem. Em 2017, o NeuralRinger (sinais descritos por anéis concêntricos e usando uma rede neural para a tomada de decisão) passou a ser o algoritmo de referência na etapa rápida do sistema de trigger de alto nível (HLT - High-Level Trigger) para elétrons com $E_T > 15$ GeV, dentro da região do barril ($|\eta| < 2,5$), reduzindo em 3 vezes a taxa de falso alarme. Esta técnica está sendo estendida para toda a faixa de energia, com ganhos de até 50\% na rejeição do ruído de fundo, em baixa energia, e novos resultados com modelos de aprendizagem profunda indicam uma redução de até 4 vezes na eficiência de rejeição do ruído de fundo. Paralelamente, o NeuralRinger foi adaptado para a detecção rápida de fótons com $E_T > 15$ GeV, mostrando bons resultados com dados simulados, reduzindo a aceitação de jatos hadônicos em aproximadamente 45\%. Por outro lado, um estudo para elétrons que atinjam o detector em $|\eta| > 2,5$ está em andamento. Com isso, espera-se que o NeuralRinger seja a responsável pela detecção online da etapa rápida do sistema de trigger para elétrons e fótons nestas regiões. Um aprimoramento adicional do NeuralRinger está em andamento, visando incorporar a medida da largura dos chuveiros desenvolvidos nos calorímetros do ATLAS. No que tange o trigger de primeiro nível para múons, desenvolveu-se uma decisão combinada, em que a calorimetria hadrônica (calorímetro Tilecal) provê uma informação de coincidência com a resposta do espectrômetro de múons, de modo a rejeitar eventos gerados pelas interações de baixo momento, provenientes da blindagem do feixe do LHC. O sistema Tilemuon passou a operar em 2018 e foi responsável por reduzir em 6\% a taxa de ocupação da banda-passante do trigger de múons para estes eventos indesejáveis. Atualizações no sistema Tilemuon para a operação no Run 3 também estão em andamento, de modo a aumentar a taxa de comunicação do sistema de trigger.
Importantes processos físicos de interesse que se espera observar no LHC produzem decaimentos com fótons e elétrons. O amplo programa de física do experimento ATLAS depende de um sistema eficiente de filtragem online (trigger) para detectar tais assinaturas. No período de tomada de dados agendado para 2021-2024 (Run3), o LHC irá operar em elevada luminosidade, com uma taxa de colisão em 40 MHz, podendo alcançar uma taxa total de até 52 TBytes/s (sem trigger). No entanto, a maior parte desta informação diz respeito a eventos físicos já conhecidos. Espera-se, ainda, um aumento no número médio de interações por cruzamento de feixes, que pode dificultar a detecção da física de interesse com o possível empilhamento de sinais medidos no sistema de calorimetria (pile-up). Neste contexto, os eventos de interesse são raros e sua detecção torna-se uma tarefa desafiadora, devido ao intenso ruído de fundo produzido nas colisões. O sistema de filtragem online do ATLAS foi projetado com duas etapas sequenciais, para rejeitar o ruído de fundo e preservar a física de interesse, reduzindo a taxa de saída para aproximadamente 1,5 kHz. Monitorar o funcionamento dos algoritmos de trigger, bem como a qualidade dos dados coletados tem destacada importância, pois permite que sejam realizadas correções e ajustes nos algoritmos e subsistemas de detecção. Neste trabalho, serão apresentadas as principais implementações e melhorias recentes do software para monitoramento online e offline de assinaturas candidatas a elétrons e fótons, que será utilizado no experimento ATLAS na Run3. Um framework foi desenvolvido pela colaboração ATLAS-Brasil, para o monitoramento de variáveis de calorimetria que descrevem o perfil de deposição de energia, os pontos de interação das partículas no calorímetro e variáveis de decisão dos algoritmos de hipóteses nos diferentes estágios do segundo nível de trigger HLT (High-Level Trigger). O framework contempla algoritmos de monitoração para diferentes cadeias de processamento em colisões próton-próton e íons pesados. O monitoramento online disponibiliza os histogramas das variáveis que descrevem o chuveiro de partículas na sala de controle do experimento, durante a tomada de dados. Um fluxo expresso contendo uma fração dos dados de processos físicos de interesse é coletado para monitoramento offline. O framework desenvolvido está em funcionamento no software de análise principal do experimento e, atualmente, tem sido melhorado com propriedades adicionais para atendimento das exigências da Run3.
Atualmente, o LHC está em processo de upgrade, devendo aumentar vertiginosamente a sua luminosidade (HL-LHC) e, assim, o número de eventos físicos para análise em cada colisão. Com isso, as condições de operação do ATLAS se tornam muito mais inóspitas e exigentes, pois haverá empilhamento de sinais nos seus sub-detectores e, assim, maior dificuldade em identificar os canais físicos de interesse.
De modo a se adequar aos novos desafios, o ATLAS também desenvolve um extenso programa de upgrade, com particular destaque para o seu sistema de calorimetria. O principal calorímetro hadrônico do ATLAS (TileCal) vem desenvolvendo novos algoritmos de estimação de energia (tanto online, como offline) para se adequar a essas novas demandas.
Neste trabalho, serão apresentados os atuais desenvolvimentos em estimação de energia para o Tilecal, no contexto do HL-LHC. Foram propostas a deconvolução de sinais, baseada em filtros digitais FIR (Finite Impulse Response), e técnicas baseadas em Redes Neurais Artificiais com modelos de Aprendizagem Profunda,
visando otimizar a estimação de energia na presença de ruído não-Gaussiano, que resulta do elevado empilhamento de sinais no calorímetro. Detalhes do projeto em tecnologia embarcada para operação online também serão discutidos.
Apresentaremos a contribuição para o grupo de física além do modelo padrão de oscilação de neutrinos no experimento DUNE. Tivemos até aqui três frentes de trabalho: Interações não-padrão de neutrinos, não-unitariedade da matriz (PMNS) de mistura e violação das simetrias de Lorentz e CPT. Com base nesses trabalhos espera-se atingir configurações experimentais ótimas para a detecção de nova física no DUNE, em particular as propriedades dos modelos acima citados. Usamos para tanto uma ferramenta de simulação da propagação e cálculo do número de eventos gerados por neutrinos, o General Long Baseline Experiment Simulator (GLoBES). Este simulador utiliza o fluxo de neutrinos esperado no feixe do DUNE, simulado e fornecido pela colaboração, calcula a probabilidade de oscilação de sabor dos neutrinos no trajeto do feixe e, finalmente, usa resultados previamente calculados da seção de choque dos processos esperados nas interações dos neutrinos com o material alvo, no caso argônio líquido. Com o número de eventos calculado para diferentes modelos de oscilação, utilizamos um método de mínimos quadrados para estimar a sensitividade do experimento aos parâmetros de cada modelo. O cálculo da sensitividade envolve um método de Monte Carlo conhecido como Cadeias de Markov (Markov Chain Monte Carlo - MCMC), dado que o número de parâmetros em geral é muito grande, o que aumenta o tempo computacional de forma que é preciso limitar o número de iterações numéricas. Além deste ponto, pretendemos desenvolver ferramentas de inteligência artificial para melhorar a previsão das curvas de sensitividade, dado que o MCMC fornece um número limitado e às vezes insuficiente de pontos para a obtenção das curvas de sensitividade dos parâmetros.
Despite the many gravitational pieces of evidence about the existence of Dark Matter, its microscopic nature remains unknown. During the last decades, a considerable effort was deposited in this subject. Although many constraints have been made, no single Dark Matter particle event was detected in experiments across the globe. As new approaches were demanded, a well-motivated class of models was proposed in the last decade, the Boosted Dark Matter. The main feature of these models is the capacity to combine the most attractive characteristics of the WIMP models with new perspectives to particle detection.
Boosted DM models consist of postulating a multi-component Dark Sector in which a new type of DM particle is produced in later times of the Universe by annihilation or semi-annihilation of the cold and dominant dark matter component. Due to the mass hierarchy, this new particle receives a boost. In this context, the Deep Underground Neutrino Experiment (DUNE), currently under construction in the Sanford Underground Research Facility in the US, is an excellent opportunity to study these models and will be able to make a possible discovery. This work presents the DUNE’s sensitivity for Boosted DM from the Sun with a complete simulation and reconstruction of the detector capabilities.
O experimento DUNE é um experimento de long baseline dedicado ao estudo dos parâmetros de oscilação dos neutrinos, decaimento do próton e neutrinos de supernovas. Seu detector distante empregará a tecnologia de câmara de projeção temporal preenchida com argônio líquido, sendo composto por 4 módulos, sendo que o segundo módulo, Vertical Drift, teve sua proposta inicial aprovada em dezembro de 2020 e uma grande quantidade tanto de pesquisa e desenvolvimento tecnológico, quanto de ferramentas computacionais, têm sido requeridas para desenvolver o cronograma do experimento. Este módulo será composto por dois volumes de 13,5 m x 6,5 m x 60 m, cada um com um plano anódico horizontal, separados por um catodo, também horizontal. Um sistema de detecção de fótons (PDS) composto por X-Arapucas distribuídas em três planos (sobre o catodo, com cobertura de 14,8% e sobre as duas laterais mais longas, com cobertura de 7,4%) deve ser implementado, o que permitirá a ampliação do escopo da física realizada no experimento, em particular no que diz respeito à detecção de neutrinos de supernovas. Apresentamos a caracterização inicial do sistema de detecção de fótons proposto para o Vertical Drift, a partir de simulações de Monte Carlo, e estudos preliminares das capacidades de reconstrução deste sistema na escala de MeV. Os resultados são utilizados nos trabalhos de planejamento deste módulo do DUNE, hoje em fase de delineamento, e visam otimizar seu projeto, além de permitir o desenvolvimento de algoritmos de reconstrução específicos, abrindo possibilidades de melhora na reconstrução temporal e de posição, o que deve ser utilizado em veto de eventos de fundo.
O DUNE (Deep Underground Neutrino Experiment) é um experimento que busca estudar interações de neutrinos e é desenvolvido por uma grande colaboração internacional. Uma parte importante do experimento consiste em lançar um poderoso feixe de neutrinos produzido no LBNF (Long-Baseline Neutrino Facility), que passa pelo ND (Near Detector), próximo do LBNF, e vai em direção ao FD (Far Detector), que está a 1300km de distância. O feixe é então detectado no FD por câmaras de projeção temporal de argônio líquido.
O sistema de foto detecção do FD é baseado na tecnologia ARAPUCA, criada por pesquisadores da Unicamp e desenvolvida por pesquisadores de várias instituições. Os formatos, tamanhos, posicionamento dos SiPMs e outras características da ARAPUCA precisam ser otimizadas para satisfazer os requerimentos do experimento de forma a obter a melhor eficiência possível. Isso cria a necessidade de simulações focadas em cada um desses aspectos.
Nosso grupo desenvolveu um módulo de Python que cria a geometria para as simulações baseada em diversos parâmetros como o tamanho do detector, o numero de SiPMs e outros. O caminho dos fótons é simulado por um ray-tracer escrito em C++ que utiliza uma grade uniforme como estrutura de aceleração. Essas simulações auxiliam na determinação de parâmetros adequados para a construção das ARAPUCAs para o experimento.
Nossas simulações estão focadas nos aspectos geométricos e seguem sendo desenvolvidas incorporando dados experimentais e mais processos físicos em busca de resultados mais próximos do funcionamento real das ARAPUCAs. Esses simulações podem auxiliar a determinar o tipo de informação física que pode-se obter do sistema de foto detecção e a determinar os limites da física que podem ser investigados através desse sistema.
Simulações da ARAPUCA, contemplando suas múltiplas iterações, são peças essenciais no processo de P&D, contribuindo desde a otimização da eficiência até a escolha de materiais junto à indústria. Como parte dos esforços para o desenvolvimento da ARAPUCA no Brasil, apresentamos aqui o software ArapucaSim, que não somente utiliza a biblioteca Geant4, para simulações de Monte Carlo, como expande para além de suas capacidades com a implementação de novos modelos para a descrição dos elementos ópticos centrais para o funcionamento da Arapuca, o filtro dicroico e os deslocadores de comprimento-de-onda. Além de novos modelos, o ArapucaSim contém uma biblioteca de materiais validados com medidas dedicadas. Atualmente simulando os modelos de X-ARAPUCA utilizados em SBND (Short-baseline Neutrino Detector) e no módulo HD do DUNE (Deep Underground Neutrino Experiment - Horizontal Drift Module), esta simulação pode ser utilizada tanto de forma isolada quanto como auxiliar nos algoritmos de otimização.