Infrastructure de grille LHC en France et ressources

  • Slides: 22
Download presentation
Infrastructure de grille LHC en France et ressources associées http: //lcg. in 2 p

Infrastructure de grille LHC en France et ressources associées http: //lcg. in 2 p 3. fr Fairouz Malek Responsable Scientifique du projet LCG-France fmalek@in 2 p 3. fr 2ème Colloque LCG-France Clermont-Ferrand, 14 -15 Mars, 2007

Contenu • LCG en bref • LCG-France § Infrastructure § Ressources de calcul §

Contenu • LCG en bref • LCG-France § Infrastructure § Ressources de calcul § Budget • Conclusions F. Malek 2

Données LHC • 40 millions collisions par seconde • ~100 collisions d’intérêt scientifique par

Données LHC • 40 millions collisions par seconde • ~100 collisions d’intérêt scientifique par seconde • Jusqu’à 10 MBytes de données digitisées par collision § Taux jusqu’à 1 GBytes/sec • 1010 collisions enregistrées par an § Jusqu’à 15 Peta. Bytes/an F. Malek 3

Collaboration W-LCG • But § Développer, construire et maintenir une infrastructure de calcul distribué

Collaboration W-LCG • But § Développer, construire et maintenir une infrastructure de calcul distribué pour le stockage et l’analyse des 4 expériences LHC • Phases § Phase I: 2002 -2005 développement et planning § Phase II: 2006 -2008 déploiement et mise en route (commissioning) • Collaboration § >100 centres de calcul dans le monde entier § 11 grands centres et ~40 fédérationsde petits centres § Memorandum of Understanding: accord en 2005 et signé par les partenaires du projet • Ressources de calcul § Planning sur 5 ans § Engagement par les partenaires en octobre de l’année pour l’année à venir. F. Malek 4

LCG System Architecture • Set of services and applications running on the grid infrastructures

LCG System Architecture • Set of services and applications running on the grid infrastructures provided by EGEE (Europe and Asia Pacific) and Open Science Grid (USA) F. Malek 5

LCG System Architecture (suite) Tier 0 Trigger and Data Acquisition System Tier 1 10

LCG System Architecture (suite) Tier 0 Trigger and Data Acquisition System Tier 1 10 Gbps links Optical Private Network (to almost all sites) Tier 2 General Purpose/Academic/ Research Network F. Malek 6

Centres Tier 1 Country Experiments served with priority ALICE ATLAS CMS LHCb TRIUMF Canada

Centres Tier 1 Country Experiments served with priority ALICE ATLAS CMS LHCb TRIUMF Canada CC-IN 2 P 3 France FZK-Grid. KA Germany CNAF Italy NIKHEF/SARA Netherlands Nordic Data Grid Facility DK/FI/NO/SE PIC Spain ASGC Taiwan RAL United Kingdom BNL USA FNAL USA Total F. Malek 6 10 7 8 6 Source: CRRB – WLCG Memorandum of Understanding – 2006/06/01 Institution

LCG System Architecture (suite) • Ressources de calcul requises Pour les 4 expériences pour

LCG System Architecture (suite) • Ressources de calcul requises Pour les 4 expériences pour l’année 2008 CPU [Spec. Int 2000] Disk [PB] Mass Storage [PB] CERN (T 0 + AF) All Tier 1 s All Tier 2 s Total 25 M 56 M 61 M 142 M 7 31 19 57 18 35 53 • More than 53. 000 today’s dual-core AMD Opteron Around 355 TFLOPS F. Malek 8

LCG-France • But § Mise en place, développement et maintenance d’un Tier 1 et

LCG-France • But § Mise en place, développement et maintenance d’un Tier 1 et d’un centre d’analyse au CC-IN 2 P 3 § Promouvoir la création de Tier 2/Tier 3 et les coordonner et les intégrer dans la collaboration LCG • Echelle de temps § Début Juillet 2004 § Deux phases w 2004 -2008: développement et accroissement des capacités w 2009 -…: phase de croisière • Budget requis pour le Tier 1 et le centre d’analyse § 2005 -2010: ~ 24 M€ • Budget requis pour les Tier 2 s § 2003 -2009: > 6 M€ F. Malek 9

Structure du projet LCG-France Comité de Pilotage • • Directeur de l’IN 2 P

Structure du projet LCG-France Comité de Pilotage • • Directeur de l’IN 2 P 3 Directeur Adjoint Technique de l’IN 2 P 3 Représentant de la direction du DAPNIA Représentant IN 2 P 3/DAPNIA de chacune des expériences LHC • Responsable du projet LCG Instances W-LCG GDB, MB, OB, CB, … Autres Tier 1 s Tier 2 s associés F. Malek Equipe de Direction • Responsable Scientifique • Responsable Technique • Coordinateur Technique Tier-2 s/Tier-3 s • Directeur Adjoint Scienfique IN 2 P 3 Chargé de l’Informatique • Chargé de Mission à l’Informatique IN 2 P 3 • Chargé de Mission à l’Informatique DSM/CEA • Directeur du Centre de Calcul de l’IN 2 P 3 • Responsable calcul de chacune des expériences LHC • Responsable scientifique de chacun des Tier-2 s/Tier-3 s 10

Sites LCG-France Tier 2: GRIF • CEA/DAPNIA • LAL • LLR • LPNHE •

Sites LCG-France Tier 2: GRIF • CEA/DAPNIA • LAL • LLR • LPNHE • IPNO Tier 3: IPHC Strasbourg Nantes Tier 2: Subatech Ile de France Tier 3: LAPP Clermont-Ferrand Tier 2: LPC Lyon Annecy AF: CC-IN 2 P 3 Tier 1: CCIN 2 P 3 F. Malek Tier 3: IPNL Marseille 11 Tier 3: CPPM

Sites LCG-France(suite) • Supported LHC experiments § All sites also support other virtual organizations

Sites LCG-France(suite) • Supported LHC experiments § All sites also support other virtual organizations F. Malek 12

Tier-1 s et Tier-2 associés à ce jour Tier 1 s § FZK: Tier

Tier-1 s et Tier-2 associés à ce jour Tier 1 s § FZK: Tier 1 ATLAS backup du Tier 1 ATLAS français liaison 10 Gbps § BNL: Tier 1 ATLAS associé FNAL: Tier 1 CMS avec réseau dédié 2 x 1 Gbps Tier 2 s § Europe w Belgique – 2 Tier 2 s CMS w Fédération Roumaine - Tier 2 ATLAS § Asie w IHEP Chine – Tier 2 s ATLAS et CMS w ICEPP Japon - Tier 2 ATLAS F. Malek 13

Ressources humaines pour le Tier 1 • RH au CC: 60 ETP • 30

Ressources humaines pour le Tier 1 • RH au CC: 60 ETP • 30 ETP fortement impliqués dans LCG § dont 11 personnes financées par EGEE • Embauches ITA: stabiliser les connaissances § 1 en 2005, 3 en 200 - et 4 en 2007 • Participation Physiciens et User-Support § ATLAS: w bonne participation des physiciens et disponibilité 1 User. Support au CC § Les 3 autres expériences: w Manque de participation des physiciens et Pb d’embauche User-Support. F. Malek 14

Evolution des ressources du Tier 1 Increase rate over the period 2006 -2010: CPU:

Evolution des ressources du Tier 1 Increase rate over the period 2006 -2010: CPU: x 17 DISK: x 16 MSS: x 18 F. Malek 15

Budget Tier 1 requis: 2008 -2010 Contributions 2005 2006 2007 2008 2009 2010 CNRS

Budget Tier 1 requis: 2008 -2010 Contributions 2005 2006 2007 2008 2009 2010 CNRS 1, 35 M€ 2 M€ 4 M€ 5 M€ 4 M€ CEA* 0 0, 6 M€ 0, 4 M€ 0, 8 M€ 0, 6 M€ 1, 35 M€ 2, 6 M€ 4, 4 M€ 5, 8 M€ 5, 6 M€ 4, 6 M€ Total *1, 8 M € sont en principe prévus pour la période 2006 -2008 * 0, 6 M€ sont attendus pour 2009 et 2010 – encore en discussion Total requis Tier 1 + AF: 2005 -2010: ~24 M€ F. Malek 16

Evolution des ressources dans les Tier 2 s Roughly equivalent to the planned Tier-1

Evolution des ressources dans les Tier 2 s Roughly equivalent to the planned Tier-1 CPU capacity the same year F. Malek 43% of the planned Tier-1 disk capacity the same year 17

Budget requis Tier 2: 2007 -2009 Tier-2 s 2003 2004 GRIF LPC Clermont 500

Budget requis Tier 2: 2007 -2009 Tier-2 s 2003 2004 GRIF LPC Clermont 500 k€ 80 k€ SUBATECH CNRS(4 Tier 2 s) Total 2005 2006 2007 2008 2009 226 k€ 335 k€ 517 k€ 1, 18 M€ 1, 04 M€ 300 k€ 200 k€ CPER* CPER 10 k€ 176 k€ 170 k€ 150 k€ 0 0 1 M€ 0 0, 5 M€ 0, 08 M€ 0, 54 M€ 0, 71 M€ > 0, 7 M€ > 1, 33 M€ * CPER 2007 -2013: 1 M€ pour Auvergrid dont 600 k€ CNRS; Part pour le LPC inconnue, en cours de discussions Total requis Tier 2 s 2003 -2009: > 6 M€ F. Malek 18 > 2, 04 M€

Détails du Budget Tier 1+AF 2007 2008 2009 2010 2007 -2010 CPU 1, 26

Détails du Budget Tier 1+AF 2007 2008 2009 2010 2007 -2010 CPU 1, 26 M€ 1, 11 M€ 0, 98 M€ 1, 53 M€ 4, 88 M€ Disk 1, 09 M€ 1, 15 M€ 1, 09 M€ 1, 58 M€ 4, 91 M€ MSS 0, 80 M€ 0, 88 M€ 1, 23 M€ 1, 54 M€ 4, 45 M€ Total Equipement Cost 3, 15 M€ 3, 14 M€ 3, 30 M€ 4, 65 M€ 14, 23 M€ Maintenance, Operation and Infrastructure 0, 79 M€ 0, 82 M€ 0, 96 M€ 1, 40 M€ 3, 97 M€ Contingency 0, 59 M€ 0, 64 M€ 0, 91 M€ 2, 73 M€ Previous Plan 4, 57 M€ 6, 16 M€ 4, 14 M€ 4, 75 M€ 19, 62 M€ Revised Plan 4, 52 M€ 4, 56 M€ 4, 90 M€ 6, 96 M€ 20, 93 M€ Variation wrt Previous Plan -1% -26% +18% +46% +7% CNRS planned to be pledged 4 M€ 5 M€ 4 M€ 18 M€ CEA Planned to be pledged 0, 4 M€ 0, 8 M€? 0, 6 M€? 2, 4 M€? Total planned to be pledged 4, 4 M€ 5, 8 M€ 5, 6 M€ 4, 6 M€ 20, 4 M€ -3% 27% 14% -3% Variation wrt Revised Plan F. Malek 19

Conclusions Complexité du projet: Gestion de projet au CNRS/IN 2 P 3 Vis-à-vis des

Conclusions Complexité du projet: Gestion de projet au CNRS/IN 2 P 3 Vis-à-vis des Interlocuteurs Relations avec l’extérieur Réactivité avec les Pbs Difficulté de la vision long terme sur le budget § Coordination avec les 4 expériences tests/validations besoins § Suivi des analyses de risque next § § § F. Malek 20

Risques et leur analyse § Planification budgétaire quinquennale mais considération annuelle surprise + peu

Risques et leur analyse § Planification budgétaire quinquennale mais considération annuelle surprise + peu de flexibilité et de liberté d’utilisation § Ressources humaines non suffisantes + risque de pertes CDD EGEE service grille et service général perturbés + perte d’expertise § Pb Engagements Physiciens + manque User. Support. § Risque de non extension du bâtiment du CC. Actuellement apport électrique jusqu’à 1 MW et jusqu’à 2008. Au-delà, risque d’interruption du service grille, arrêts machines fréquents perte de données § Fiabilité et stabilité logiciels LCG + soft expériences interactions Physiciens F. Malek 21

Conclusions § § § Challenge Visibilité Animation scientifique importante Mutualisation des ressources françaises La

Conclusions § § § Challenge Visibilité Animation scientifique importante Mutualisation des ressources françaises La création d’une communauté Impact technologique et scientifique dans les laboratoires Service aux expériences le plus efficace possible F. Malek 22