Provozní statistiky centra CERIT-SC

Podobné dokumenty
METACENTRUM. Miroslav Ruda CESNET. Seminář MetaCentra, Praha

MetaCentrum. Miroslav Ruda. březen 2017, Brno CESNET

MetaCentrum. Tomáš Rebok MetaCentrum NGI, CESNET z.s.p.o. CERIT-SC, Masarykova Univerzita Olomouc,

MetaCentrum. Miroslav Ruda. listopad 2013 CESNET

CERIT SCIENTIFIC CLOUD. Centrum CERIT-SC. Luděk Matyska. Praha, Seminář MetaCentra,

CERIT-SC reloaded. už se všichni těšíme. Seminář gridového počítání,

METACentrum Český národní gridovýprojekt. Projekt METACentrum. Jan Kmuníček ÚVT MU & CESNET. meta.cesnet.cz

Cloudy a gridy v národní einfrastruktuře

MetaCentrum. Martin Kuba CESNET

CERIT-SC. Luděk Matyska, David Antoš, Aleš Křenek

Aktuální stav. Martin Kuba CESNET a ÚVT MU

MetaCentrum a náro (nejen matematické) výpočty

CEITEC a jeho IT požadavky. RNDr. Radka Svobodová Vařeková, Ph.D.

METACENTRUM. Miroslav Ruda CESNET. Konference CESNET, Praha

Gridy v České republice. Luděk Matyska Masarykova univerzita v Brně CESNET, z.s.p.o.

METACentrum zastřešení českých gridových aktivit

MetaCentrum. Martin Kuba CESNET

Datová úložiště v MetaCentru a okolí. David Antoš

CESNET - Datová úložiště

Výpočetní zdroje v MetaCentru a jejich využití

SUPERPOČÍTAČOVÉ CENTRUM. Luděk Matyska

Služby ÚVT pro VaV & IT pro CEITEC. David Antoš

Datová úložiště v MetaCentru a okolí II. David Antoš Oddělení datových úložišť

Výběr zdrojů, zadávání a správa úloh v MetaCentru

Výběr zdrojů, zadávání a správa úloh

MetaCentrum. Miroslav Ruda. Skalský Dvůr, Miroslav Ruda (MetaCentrum) MetaCentrum Skalský Dvůr, / 11

Historie, současnost a budoucnost sdružení CESNET. Ing. Jan Gruntorád, CSc. ředitel CESNET, z.s.p.o Praha

CESNET. Národní e-infrastruktura. Ing. Jan Gruntorád, CSc. ředitel CESNET, z.s.p.o.

Aktuální stav MetaCentra, novinky

Novinky z vývoje v MetaCentru

VirtualizaceKlatovské nemocnice a.s.

Výpočetní clustery v METACentru

Czech National e-infrastructure. Projekt MetaCentrum. Jan Kmuníček CESNET. meta.cesnet.cz

OPS Paralelní systémy, seznam pojmů, klasifikace

Projekt EGEE / EGI. Jan Kmuníček CESNET. Enabling Grids for E-sciencE. EGEE-III INFSO-RI

Aktuality a plány virtuální organizace

Přehled paralelních architektur. Dělení paralelních architektur Flynnova taxonomie Komunikační modely paralelních architektur

CESNET, GRIDy a přenosy dat

Služby e-infrastruktury CESNET

MetaCentrum. Aktuální stav anové služby

aktivita CESNETu společně MU, UK a ZČU sdružuje výpočetní prostředky

1. SYSTÉMOVÉ POŽADAVKY / DOPORUČENÁ KONFIGURACE HW A SW Databázový server Webový server Stanice pro servisní modul...

Datová úložiště CESNET

Czech National e-infrastructure. Projekt MetaCentrum. Jan Kmuníček CESNET. meta.cesnet.cz

DATOVÁ ÚLOŽIŠTĚ. David Antoš CESNET

Hardware - minulý rok

Dagmar Adamová, Jiří Chudoba Jednalo se o Monte Carlo simulace případů srážek p+p a Pb+Pb. Fungování

SUPERPOČÍTAČE DANIEL LANGR ČVUT FIT / VZLÚ

4. Úvod do paralelismu, metody paralelizace

DATOVÁ ÚLOŽIŠTĚ CESNET

Realizace datového centra kraje Vysočina Regionální SAN kraje Vysočina

C2115 Praktický úvod do superpočítání

Datová úložiště CESNET

Souborové systémy a práce s daty David Antoš

Příloha č. 1 zadávací dokumentace. Technická dokumentace, specifikace požadovaného plnění a popis hodnocení

Odůvodnění účelnosti veřejné zakázky podle 2 vyhlášky. 2. Popis předmětu veřejné zakázky Oproti skutečnostem uvedeným v předběžném oznámení

Forenzní analytická jednotka - technická specifikace (9 ks)

České Budějovice. 2. dubna 2014

Národní gridová infrastruktura MetaCentrum & související služby pro akademickou obec

Přechod na virtuální infrastrukturu

Zadávací dokumentace na veřejnou zakázku malého rozsahu s názvem Obměna informačních technologií

MetaCentrum. datové služby. Miroslav Ruda, Zdeněk Šustr

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Praha, Martin Beran

Martin Kuba, Daniel Kouřil seminář řešitelů, Žďár n.s. 1

VÝUKOVÝ MATERIÁL. 3. ročník učebního oboru Elektrikář Přílohy. bez příloh. Identifikační údaje školy

NLP zpracování přirozeného jazyka

Hlavní využití počítačů

Datová úložiště CESNET. David Antoš

EGI a česká NGI aktuální informace o stavu a plánech. Luděk Matyska CESNET, z.s.p.o. Masarykova universita

Studenti vysokých škol v ČR 1

1x server pro distanční vzdělávání (výpočtový server)

Osobní počítač. Zpracoval: ict Aktualizace:

NÁKUP SERVEROVÝCH TECHNOLOGIÍ NA PLATFORMĚ x86

Centrum CERIT-SC Tomáš Rebok

MetaCentrum - Virtualizace a její použití

Národní centrum pro výzkum biomolekul & MetaCentrum

MetaCentrum. Miroslav Ruda CESNET

zadávaná v otevřeném řízení v souladu s ust. 27 zákona č. 137/2006 Sb., o veřejných zakázkách, ve znění pozdějších předpisů

Virtualizace MetaCentra

Portfolio úložišť WD pro datová centra Kapacitní úložiště prošlo vývojem

Integrace datových služeb vědecko-výukové skupiny

IT4Innovations centrum excelence. Vít Vondrák & Filip Staněk VŠB-Technická univerzita v Ostravě

Výpočetní klastr pro molekulové modelování

Konsolidace zálohování a archivace dat

Způsoby využití datových úložišť CESNET

Datové centrum a Regionální SAN kraje Vysočina. Projekt digitalizace a. Petr Pavlinec, KrÚ kraje Vysočina. Září 2009

Grid jako superpočítač

Registr živnostenského podnikání předchůdce cloudových řešení

Způsoby využití datových úložišť CESNET

Management procesu I Mgr. Josef Horálek

Představení e-infrastruktury CESNET Ing. Jan Gruntorád, CSc. ředitel CESNET, z.s.p.o.

Způsoby využití datových úložišť CESNET. David Antoš

IBM Informix 11.7 Edice

Servery Incad, stav k

Martin Lísal. Úvod do MPI

Služby datového centra

INFORMAČNÍ A KOMUNIKAČNÍ TECHNOLOGIE

Nimbus Data All Flash Systems

Způsoby využití datových úložišť CESNET

Transkript:

Provozní statistiky centra CERIT-SC Statistiky provozu centra CERIT-SC obsahují přehledy propočítaného času a počtu propočítaných úloh na strojích, informace o tom, z jakých institucí uživatelé přicházejí a jak intenzivně centrum využívají ve 4. roce udržitelnosti OP VaVpI projektu, tj. od května 2017 do konce dubna 2018. Vybavení centra Výpočetní kapacity centra jsou postaveny na clusterovém řešení, a to ve dvou variantách, SMP a HD clustery. Oba typu clusterů jsou tvořeny v podstatě samostatnými počítači (uzly), které se ale u obou variant liší zejména v počtu procesorů a velikosti operační paměti. HD-clustery (High Density) mají menší počet jader (zpravidla 16-20) ve sdílené paměti a disponují vnitřní pamětí kolem 16-32 GB. HD-clustery pokrývají potřebu velkého množství procesorů pro aplikace, které nejsou vnitřně vysoce paralelní a využívají spíše větší množství souběžně běžících instancí. SMP-clustery (Symmetric MultiProcessing) mají alespoň 64 (a spíše i více) jader a disponují vnitřní pamětí alespoň 256 GB. Jsou orientované na aplikace s velkými paměťovými nároky nebo na aplikace vyžadující větší počet procesorů komunikujících pomocí sdílené paměti. Speciální SMP stroje (SGI UV2) s extrémně velkou sdílenou pamětí (6TB) a až 348 CPU jádry, které jsou vhodné pro extrémně náročné aplikace vyžadující hodně jader nebo obzvláště velikou paměť. Typicky se hodí pro výpočty ve kvantové chemii, fluidní dynamice nebo bioinformatice. Cluster s architekturou Xeon Phi - Xeon Phi je masivně paralelní architektura složená z velkého množství x86 jader (256 HT jader). Xeon Phi procesory mají oproti konvenčním procesorům velmi malý výkon na jádro, přínos Xeon Phi se objeví až při využití ve vysoce paralelních úlohách. Výpočetní uzly jednotlivých clusterů jsou propojeny vysokorychlostní nízkolatenční sítí Infiniband, která u novějších instalací dosahuje propustnosti až 40 Gbps současně v obou směrech komunikace. Současně jsou uzly napojeny na Gigabitovou Ethernetovou infrastrukturu, přes kterou jsou zapojeny do Internetu. Přes obě komunikační infrastruktury jsou clustery rovněž napojeny na úložné kapacity. Centrum dále zajišťuje návrh a provoz datových úložišť dvou typů: Velkokapacitní datové úložiště (Hierarchical Storage Management, HSM), propojené s gridovou a cloud infrastrukturou na národní i mezinárodní úrovni, slouží ke spolehlivému uchovávání a sdílení semipermanentních až permanentních vědeckých dat, jak z výpočtů, tak i dat přímo s výpočty nesouvisejících (např. data z přístrojů a měření). Sdílený síťový úložný prostor pro pracovní data aktuálně zpracovávaná na clusterech zajišťuje /home adresáře uživatelů a slouží pro práci s daty zpracovávanými na clusterech. Všechna disková pole jsou integrována do MetaCentra. Obrázek 1 ukazuje disponibilní výpočetní kapacitu centra v jednotlivých letech. V lednu 2017 byly z rozpočtu MU pořízeny nové clustery zelda a glados. Zároveň stále běží, až na drobné výjimky, nejstarší HW, který se z důvodu končící životnosti v průběhu roku bude pravděpodobně vypínat. Dočasně je proto k dispozici výrazně vyšší výpočetní kapacita než v předchozích letech. 1

Obrázek 1: Nárůst výpočetní kapacity centra CERIT-SC Statistiky využití zdrojů Terminologie CPU čas úloh počítán je čas úlohy během sledovaného období. Tj. u úloh započatých před začátkem sledovaného období je počítána jen část od začátku sledovaného období, a naopak u úloh běžících v okamžiku konce sledovaného období je započítána jen část před koncem sledovaného období. Nejvýstižnějšími metrikami dokládajícími interakci uživatelů s e-infrastrukturou CERIT-SC jsou počet uživatelů, počet zadaných výpočetních úloh a zejména propočítaný CPU čas úloh. V období od 1. 5. 2017 do 30. 4. 2018 se zvýšil počet uživatelů z 1418 (ve srovnání s předchozím obdobím 1. 5. 2016 až 30. 4. 2017) na 1542, počet CPU jader se zvýšil z 5512 na 6868, počet provedených úloh z 647 tisíc na 795 tisíc a množství propočítaných CPU let z 3463 CPU let na 3218 v dávkovém systému a téměř 1200 CPU let v cloudovém prostředí. Obrázek 2 zachycuje nárůst zájmu o výpočetní výkon centra CERIT-SC v období sledované udržitelnosti projektu. 2

Obrázek 2: Počet úloh a propočítaný CPU čas v dávkových úlohách. Propočítaný strojový čas na výpočetních strojích CERIT-SC dlouhodobě roste. Stejně tak adekvátně roste počet spuštěných úloh ve sledovaném období. Fyzická infrastruktura centra CERIT-SC je v podstatě plně saturována, výše uvedená čísla znamenají více než 75% využití zdrojů centra, zbývajících 25% představuje rezervaci zdrojů pro cloud, prealokaci zdrojů pro vysoce paralelní úlohy a údržbu. Tato míra využití je považována, ve srovnání s obdobnými centry, za velmi dobrou, a je silným potvrzením, že investice do infrastruktury jsou přiměřené, jelikož existuje odpovídající poptávka uživatelů (ve skutečnosti je poptávka uživatelů ještě vyšší, část uživatelů od intenzivnějšího využívání odrazuje dlouhá doba čekání úloh na spuštění. V praxi se ukazuje, že po navýšení výpočetní kapacity centra se poptávka okamžitě zvýší). Stroje ve vlastnictví centra CERIT-SC běží, díky důsledné virtualizaci, v obojetném režimu (cloud i PBS Pro), počty jader se cloudu přidělují podle aktuální poptávky v obou prostředích. Následující graf (Obrázek 3) zobrazuje vývoj využití výpočetních zdrojů centra v roce 2017. Z grafu je patrné, že postupně ubývá zdrojů alokovaných pro dávkové zpracování úloh modrá plocha) ve prospěch zdrojů zapojeným v MetaCloudu červená plocha). 3

Obrázek 3: Využití zdrojů centra CERIT-SC v roce 2017 v prostředí PBS Pro a MetaCloud Obrázek 4 ukazuje průměrné vytížení typických zastupitelů jednotlivých druhů výpočetních zdrojů: největšího HD-clusteru centra CERIT-SC, který se skládá aktuálně ze 108 uzlů, každý s 16 CPU a 128 GB paměti (celkem 1728 CPU jader). Byl uveden do provozu na začátku května 2013. Druhý graf ilustruje vytížení speciálního stroje SGI UV2000 s velkou sdílenou pamětí (384 CPU jader, 6 TB RAM), které centrum zapojilo na začátku roku 2015. A do třetice je uvedeno vytížení nejstaršího SMP clusteru zewura, jehož první část (aktuálně 7 uzlů, 560 CPU) byla pořízena a uvedena do provozu v prosinci 2011. Čtvrtý graf ukazuje využití nejnovějších strojů s architekturou XeonPhi (6 uzlů, 384 CPU) pořízených v únoru 2017. A poslední graf znázorňuje vytížení letos pořízeného clusteru zelda (10 uzlů, 720 CPU jader, 768 GB paměti v každém uzlu), který byl uveden do provozu v polovině února 2018. Základem pro výpočet průměrného vytížení (100%) je celkový počet dostupných CPU-core-seconds mínus počet CPU-core-seconds strojů, které nebyly v provozu. 4

5

Obrázek 4: Vytížení HD clusteru (hdc), SGI UV2000 (urga) a SMP clusteru (zewura) V CERIT-SC jsou dva typy systémů pro ukládání dat, krátkodobé až střednědobé úložiště určené pro zpracování dat na clusterech (tzv. "home") a archivní úložiště ve formě hierarchického úložného systému. Struktura a využití "home úložiště obecně odráží využití výpočetních zdrojů. Centrum disponuje dvěma úložišti typu "home, jejichž celková dostupná kapacita byla v roce 2014 640 TB, využívaná na úrovni 56%. Jeho využití se postupně zvyšovalo a dosáhlo nasycení počátkem roku 2016, proto se starší systém modernizoval a získal tak celkovou současnou kapacitu 1306 TB. V roce 2018 je obsazeno 798 TB (61%). Archivní hierarchické úložiště je v současné době zaplněno přibližně ze 67%, tj. obsazeno je 2150 TB z 210 TB. Využívá se zejména pro zálohu "home" úložiště a jako sekundární archiv méně často používaných uživatelských dat (Obrázek 5). 6

Obrázek 5: Zaplnění diskových polí a hierarchického archivního úložiště Uživatelé Počet uživatelů centra od roku 2012 stabilně roste. V roce 2012 centrum využívalo 613 uživatelů, koncem dubna 2017 už 1418 uživatelů. Na konci dubna 2018 bylo aktivních 1542 uživatelů. Koncem roku 2017 mělo aktivní účet 1908 uživatelů. Na přelomu kalendářního roku dochází k expiraci účtů uživatelů. Část z nich si účet neobnovuje, protože ukončili studium nebo přestali být zaměstnání v akademické instituci. Na druhou stranu, každoročně na podzim, se začátkem nového semestru, se do MetaCentra hlásí mnoho nových studentů. 7

Obrázek 6: Nárůst počtu uživatelů Obrázek 7 ukazuje využití centra institucemi. Uživatelé pocházejí z vice než 50 organizací, vysokých škol, spolupracujících soukromých výzkumných organizací a z průmyslu. Významná část uživatelů pochází z univerzit, a veřejných výzkumných institucí (např. ústavy Akademie věd ČR, v.v.i.). 32 % procesorového času je spotřebováno MU, 24 % UK, dále následuje AV ČR (13 %), VŠCHT (11 %) a ČVUT (8 %). Ostatní instituce se pohybují pod hranicí 5%, nicméně v součtu stále představují cca 12% z celkového objemu, což jednoznačně dokazuje, že centrum také zajišťuje významnou podporu i pro tzv. long tail vědu. Hlavními obory jsou strukturální biologie, věda o materiálech, fyzika a geologie. Obrázek 7: Propočítaný CPU čas v centru CERIT-SC institucemi Uživatelské publikace s poděkováním CERIT-SC za poskytnuté zdroje CERIT-SC zvýhodňuje uživatele v přístupu k výpočetním a úložným kapacitám na základě doložených publikací s poděkováním centru CERIT-SC. Následující graf (Obrázek 8) ukazuje rostoucí počty publikací jsou zde zahrnuty pouze kvalitní publikace s poděkováním centru uveřejněné ve Web of Science Core Collection. Kromě toho evidujeme další uživatelské publikace s poděkováním centru, těch je přes 200 (konferenční příspěvky, záverečné studentské práce, neimpaktované publikace, apod.). 8

Obrázek 8: Počet publikací s poděkování Národní gridové infrastruktuře 9