Autori Progetto S.Co.P.E. – WP4 Fisica Subnucleare – Esperimento ATLAS M. Biglietti Università di Napoli Federico II

Download Autori Progetto S.Co.P.E. – WP4 Fisica Subnucleare – Esperimento ATLAS M. Biglietti Università di Napoli Federico II

Post on 01-May-2015

212 views

Category:

Documents

0 download

Embed Size (px)

TRANSCRIPT

<ul><li> Slide 1 </li> <li> Autori Progetto S.Co.P.E. WP4 Fisica Subnucleare Esperimento ATLAS M. Biglietti Universit di Napoli Federico II </li> <li> Slide 2 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Large Hadron Collider (LHC) Collisionatore protone - protone Energia nel centro di massa di 14 TeV Circonferenza di 27 km Programma di fisica Studio della fisica delle particelle nel range del TeV Ricerca del bosone di Higgs di Modello Standard Ricerca di particelle supersimmetriche Misure di precisione Partenza prevista nel 2008 ATLAS ALICE CMS LHCb </li> <li> Slide 3 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 L'Apparato Sperimentale ATLAS Muon chambers Hadronic calorimeter Electromagnetic calorimeter Inner detector e K 0,n,p 22 m 46 m Apparato sperimentale in grado di investigare un ampio spettro di misure fisiche Lunghezza di 46 m, diametro di 22 m Struttura a strati concentrici, 2 endcaps, barrel Inner Tracker, calorimetri, spettrometro per muoni Inner Tracker contenuto in un solenoide (max 2 T), spettrometro per m integrato in un toroide (air core, max 3.9 T nel barrel, 4.1 T negli endcaps) 10 8 canali di elettronica </li> <li> Slide 4 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Evento di LHC Incrocio dei fasci ogni 25 ns rate 10 9 Hz 25 interazioni per incrocio Sono necessari rivelatori con un'alta granularita' 10 8 canali di elettronica event size ~1 MB Rate di input 1PB/s ! Siamo in grado di scrivere su disco ~100 MB/s Sistema di trigger che selezione eventi con particelle con alta energia reiezione 10 7 Eventi scritti file da max 2 GB, 16k file al giorno 10 TB/giorno ! p p p p </li> <li> Slide 5 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Esigenze nell'uso di HPC Complessit del software di esperimento Esigenza di un framework (ATHENA) comune per tutti i task di un esperimento di High Energy Physics (HEP) Problemi di storage efficiente dei dati (e di spazio disco) Esigenza di distribuire efficientemente i dati (Distributed Data Management tools) Ottimizzazione del formato dati (Event Data Model) Esigenza di rendere semplice l'accesso alle risorse ed ai dati Tools di analisi distribuita (GANGA) </li> <li> Slide 6 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 ATHENA Monte Carlo Ricostruzione eventi Analisi Identificazione eventi Simulazione Rivelatore Il Software di ATLAS: ATHENA Richieste Flessibilit e Mantenibilit ( 20 anni) Modellizzazione dei dati e algoritmi comune Separazione concettuale tra dati e algoritmi Algoritmi guidati dal framework attraverso esecuzione di sequenze Sviluppato con tecniche OO/C++ Configurazione via linguaggio di scripting (Python) Varie distribuzioni (releases) prodotte dall'esperimento Sviluppo Produzione nigthlies (DEV, VAL, BUGFIX) Dimensione di una release ~10 GB Diviso in ~20 sotto-progetti O(10 3 ) sviluppatori Piattaforma Linux (RedHat SCL4) </li> <li> Slide 7 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Esempi di Task del Software ATLAS Framework conversione dei dati nei vari formati passaggio informazioni tra gli algoritmi configurazione delle condizioni e parametri servizi (misura di CPU time, memory usage) Simulazione Monte Carlo (Generatori HEP &amp; Geant4) generazione eventi Trasporto delle tracce Simulazione delle interazioni tra le particelle e la materia Descrizione dettagliata della geometria del rivelatore e materiali inerti (DB) Descrizione del Campo Magnetico Ricostruzione pattern recognition (globali, locali, Kalman Filter) clustering extrapolazione delle tracce ( straight line, parametrizzazione elicoidale,metodi numerici) combinazione delle tracce risoluzione delle ambiguit track fit calibrazione Analisi Navigazione semplice degli oggetti strumenti per calcoli cinematica associazione oggetti ricostruiti oggetti MC istogrammi, fit, procedure di minizzazione, visualizzazione (ROOT) Event Display necessit di algoritmi ad alte prestazioni CPU: Simulazione 800kSI2K/evento Ricostruzione 25kSI2k/evento Memoria La ricostruzione usa 2GB RAM per la mappa del campo magnetico </li> <li> Slide 8 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Esempio Ricostruzione di Tracce Traiettorie curve in campo magnetico misura dell'impulso Posizione misurata in un certo numero di stazioni (hits) Pattern recognition : assegnazione degli hits a una traccia Kalman Filter (Inner Detector) Metodi globali, Hough Trasform (Spettrometro a muoni) Fondo derivante da tracce di basso impulso (ID) e da interazioni delle tracce con strutture di supporto (MS) algoritmi per il ricoscimento dei fakes tempi di digitizzazione Holes on tracks Track fit : determinazione dei parametri (geometrici) di una traccia e calcolo dellimpulso Algoritmi di minimizzazione In piu Scattering multiplo (Coulomb), ionizzazione, Bremsstrahlung. CSC MDT RPC TGC Caso dello spettrometro a muoni MDT mutilayer </li> <li> Slide 9 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Nelle varie fasi di ricostruzione e analisi ATLAS utilizza diversi formati di dati: 1.6 MB 100 kB RAW ESDAOD DPD 10% di AOD 500 KB Raw Datadati in output dal sistema di trigger Raw Data: dati in output dal sistema di trigger Event Summary Dataoutput della ricostruzione (tracce e hit, celle e cluster nei calorimetri). Event Summary Data: output della ricostruzione (tracce e hit, celle e cluster nei calorimetri). Analysis Object Data rappresentazione ridotta degli eventi per lanalisi: oggetti fisici ricostruiti (elettroni, muoni, jet) Analysis Object Data: rappresentazione ridotta degli eventi per lanalisi: oggetti fisici ricostruiti (elettroni, muoni, jet) Derived Physics Datainformazioni ridotte per analisi specifiche in ROOT. Derived Physics Data: informazioni ridotte per analisi specifiche in ROOT. Event Data Model Raw Data Object SpacePoint Prepared RawData Track Segment Measure- mentBase Track Track- Particle Clustering DriftCircle- Formation (local) Pattern Recognition Track extension and fit Combined Reconstruction ESD AOD </li> <li> Slide 10 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Computing Model 320 MBps. 120 MBps20/30 MBps Tier0 </li> <li> Slide 11 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Il Tier2 di Napoli Risorse ATLAS per Simulazioni Monte Carlo Analisi Distribuita Potenza di Calcolo: 26 Worker Nodes 16 Biprocessori e 10 Biprocessori Dual Core 72 cores in totale 100 kSI2k Storage 40+30 TB di disco 4 Rack installati attualmente: 2 Tier-2 ATLAS e 2 PON SCoPE 2 Tier-2 ATLAS e 2 PON SCoPE Espansione fino a 10 Rack </li> <li> Slide 12 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Blocchi Funzionali: un job puo' essere configurato da un insieme di blocchi funzionali, ognuno dei quali si occupa di un aspetto diverso Applicazioni (basate su ATHENA) Applicazioni (basate su ATHENA) Produzione, Simulazione, Riconstruzione, Analisi Scelta della release Sottomissione sorgente o librerie per l'analisi Backend Backend LCG e NorduGrid Possibilit di specificare i siti Possibilit di ottenere informazioni sulla completezza dei dataset nei siti Input Dataset Input Dataset Local file system DQ2 Possibilit di usare dataset incompleti specificare il numero minimo di files per dataset Output Dataset Output Dataset File system locale, retrieve alla fine del job DQ2 Scelta Storage Element Splitter Merger Splitter Merger Definizione di subjobs, numero eventi per subjob Possibilit di unire i file ROOT di output Strumento per sottomettere-gestire-monitorare i job in GRID Analisi Distribuita - GANGA </li> <li> Slide 13 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Creazione dei Jobs di Analisi </li> <li> Slide 14 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Configurazione e Sottomissione dei Job GANGA stato opportunamente modificato per poter usare il CE e l'RB del prototipo S.Co.PE I job ATHENA sono stati lanciati e testati sul prototipo </li> <li> Slide 15 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Installazione delle Release in GRID L'installazione delle release nei siti GRID/ATLAS gestita da un autorit centrale Procedura automatica tramite job di installazione Le release obsolete possono essere rimosse quando non sono piu' usate per la produzione (o su richiesta) Il sistema di installazione capace di gestire richieste di singoli utenti (gruppi) Procedura automatica di validazione delle installazioni Stiamo lavorando per applicare la stessa procedura automatica di installazione in S.Co.PE e negli altri PON in vista dell'interoperabilit Per ora esiste una installazione manuale di una delle release di produzione usate per le analisi </li> <li> Slide 16 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Applicazione del Software I test sono stati effettuati nell'ambito di "Data Challenge" di ATLAS (Computing System Commissioning) Analisi di campioni di eventi simulati al fine di mettere a punto il sistema di analisi distribuita dell'esperimento di ottimizzare gli algoritmi di selezione online (trigger) in vista dell'imminente presa dati. I risultati di queste analisi sono in via di pubblicazione Radiografia dello spettrometro a muoni con dati simulati Event Display di un evento reale (cosmici) selezionato dal trigger dei muoni </li> <li> Slide 17 </li> <li> Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte SantAngelo 21-2-2008 Conclusioni Complessit del sw ATLAS molti task Molti sviluppatori Vita lunga necessit di flessibilit e mantenibilit Utenti distribuiti geograficamente Grossa quantit di dati prodotti che devono essere distribuiti e processati world wide Il sw ATLAS concepito per utilizzare un computing model basato sui paradigmi GRID Sistema per la gestione distribuita dei dati event data model tools per l'analisi distribuita Sistemi adottati ri-adattati per funzionare su S.Co.Pe e gli altri PON estende la sua esportabilit su grid diverse (interoperabilit) consente di studiare meglio ed ottimizzare il computing model, sistema di analisi distribuita, algoritmi </li> </ul>