DeepHep-ino. AI computing technologies for HEP

La versione in italiano segue. 

deephep ino logo

 

DeepHep-ino is an INFN initiative aiming at the investigation of the software technologies developed in the area of Deep Learning and Artificial Intelligence to the problems that the community of High-Energy Physics is facing.

The novel computing technologies developed to effectively exploit the High Performance Computing resources will play a crucial role in the future of High Energy Physics. In order to increase the statistical precision of the measurements performed with the large experiments of the LHC, more and more complicated algorithms are executed in real-time in order to obtain extremely pure samples. Both the real-time reconstruction of the collision events and the physical interpretation of the huge and pure selected samples require huge computing power that can benefit of the High Performance Computing resources such as GPU and other hardware accelerators.

The LHCb experiment at the LHC is a golden example of the paradigmatic change in the computing for High-Energy Physics. With the major upgrade of its detector and data-processing strategy that is being commissioned, LHCb will acquire and reconstruct in real-time 30 million collision events per second storing on disk only the reconstructed object needed for the statistical interpretation of the datasets and the achievement of the physics measurements.

DeepHep-ino focusses on LHCb as case of study to investigate the application of software libraries such as TensorFlow and Torch to High-Energy Physics.

To enhance the contributions from the Data Science and Artificial Intelligence communities, INFN funds brief internships at CERN for undergraduate students in Physics, Informatics and Software Engineering to develop and deploy algorithms with modern computing technologies to open problems in High Energy Physics.

Further readings

 

 

DeepHep-ino è un’iniziativa INFN che ha l’obiettivo di investigare le tecnologie software sviluppate nell’ambito dell’Intelligenza Artificiale e del Deep Learning per risolvere i problemi che i fisici delle alte energie stanno affrontando nella preparazione dei futuri esperimenti.

 

Le nuove tecnologie computazionali sviluppate per sfruttare in modo efficace le risorse the calcolo ad alte prestazioni giocherà un ruolo cruciale nel future della fisica delle alte energie. Al fine di accrescere la precision statistica delle misure effettuate con i grandi esperimenti di LHC, algoritmi sempre più complessi sono eseguiti in tempo-reale per ottenere campioni purissimi. Sia la ricostruzione in tempo reale che l’interpretazione statistica e fisica dei campioni sempre più grandi e puri richiede un’enorme potenza di calcolo che potrebbe beneficiare delle risorse di calcolo ad alte prestazioni quali GPU ed altri acceleratori hardware.

L’esperimento LHCb ad LHC è un ottimo esempio del cambio di paradigma in atto nel calcolo per gli esperimenti di fisica delle alte energie. Con l’upgrade del suo rivelatore della strategia di processamento dei dati che sono in corso d’installazione, LHCb acquisirà e ricostruirà in tempo-reale 30 millioni di collisioni protone-protone ogni secondo, salvado su disco solo gli elementi ricostruiti essenziali all’interpretazione statistica ed al successo delle misure fisiche.

DeepHep-ino è focalizzato su LHCb come caso di studio per per l’applicazione di librerie software quali TensorFlow e Torch alla fisica delle alte energie.

Al fine di aumentare il contatto della comunità della fisica delle alte energie con quelle della scienza dei dati e dell’intelligenza artificiale, l’Istituto Nazionale di Fisica Nucleare finanzia brevi tirocini al CERN di student in Fisica, Informatica ed Ingegneria Informatica per sviluppare ed applicare algoritmi con tecnologie computazionali moderne a problemi aperti nella comunità della fisica delle alte energie.

Approfondimenti

 Presentazioni a conferenze

Altri documenti