1
EMC VPLEX Architektura pro mobilitu a vysokou dostupnost v EMC hybridním cloudu Vaclav.Sindelar@EMC.com 2
Cíl prezentace Na konci této prezentace porozumíme interní architektuře VPLEX Local, VPLEX Metro a VPLEX Geo, poznáme co je AccessAnywhere, porozumíme jak VPLEX Local a VPLEX Metro využívá RecoverPoint, porozumíme jak VPLEX a RecoverPoint zajišťují vysokou dostupnost a ochranu dat aplikací. 3
VPLEX Metro mezi Data Centry Synchronní vzdálenost RecoverPoint Záloha do 3. Lokality Novinka! VPLEX Local V rámci jednoho Data Centra Mobility. Availability. Collaboration. GeoSynchrony Operating Environment VPLEX Geo mezi Data Centry Asynchronní vzdálenost 4
VPLEX Cluster Hardware 1, 2 nebo 4 VPLEX Enginy pro škálování výkonu Redundantní napájení Redundantní bateriová záloha Redundantní backend VPLEX Enginy, management server a kabeláž v EMC racku nebo racku uživatele Non-disruptivní upgrady a provoz forever single quad dual 6
Architektura VPLEX - VS2 Engine/Director Arrays Hosts Standardní EMC Hardware Snadno vyměnitelné hot-swap komponenty WAN COM CPU Cores Cache Director A/B Cluster COM Engine COM dva Directory v Engine, každý má: Front-End Host (8Gb/s FC) Back-End Array (8Gb/s FC) Intel Multi-Core CPU SSD 28GB Large User Data Cache - 26GB z 36GB RAM Inter-Cluster WAN COM (8Gb/s FC nebo 10GigE) Intra-Cluster COM (8Gb/s FC) Intra-Engine COM (Gen2 PCIe) 7
Nový FW: GeoSynchrony 5.1 VPLEX RecoverPoint Splitter Podpora scénářů se třemi lokalitami HA + DR pro poruchy HW i pro logické chyby Unisphere pro VPLEX VASA Provider pro VMware Performance Monitoring přímo v GUI Performance And Connectivity 30+% nárůst výkonnosti Možnost IP WAN i pro VPLEX Metro VAAI pro VMware 8
Architektura VPLEX - GeoSynchrony C O M Front End (FE) Cache Device Virtualization Back End (BE) Virtual Volumy jsou prezentovány serverům (HBA) přes vybrané frontendové porty ve Storage View. Data Virtual Volumů jsou cachována a udržována konsistentní a koherentní přes všechny directory VPLEX systému. Virtual Volumy jsou konstruovány ze Storage Volumů. Zde je tvořen i lokální a distribuovaný mirroring nebo striping. Storage Volumy jsou reprezentací diskových volume na backendových polích. Zde je zajišťován Multi-Pathing. 9
Distribuovaný Mirroring a Mobilita BE Dev Virt Cache FE Cluster A Cluster B FE Cache Dev Virt BE 1. Vytvořit Local Device na Clusteru B. 2. Vytvořit Distribuovaný Mirror pro Virtual Volume na Clusteru A, přidat Device z Clusteru B. Začne se synchronizace. 3. Zpřístupnit Virtual Volume na portech Clusteru B. 4. Synchronizace se dokončí. 5. Aplikaci lze migrovat na Cluster B, data jsou přístupná na obou. 6. Data na Clusteru A lze uvolnit. 10
Vysoká dostupnost ve VPLEX Metro Cluster A (preferovaný) VPLEX Witness Cluster B Chyba Serveru - Virt. Volumy jsou přístupné na severech v B. Chyba VPLEX Clusteru B - Virt. Volumy jsou přístupné na Clusteru A. Chyba v propojení VPLEX Metro Clusteru - Virt. Volumy jsou přístupné na preferovaném Clusteru A. Chyba VPLEX Clusteru A (preferovaný) -Manuální zásah by měl být potřebný. -VPLEX Witness detekuje chybu a Cluster B pokračuje v činnosti. Chyba backendového pole -VPLEX pokračuje na mirrorované kopii na druhém poli. Po obnově se pole automaticky dosynchronizují. Chyba VPLEX Witness -nemá vliv na I/O. 11
BE Dev Virt Cache FE VPLEX Metro: Pád preferovaného Clusteru Oracle RAC nebo jiný Cluster Cluster A (pref.) Cluster B Witness FE Cache Dev Virt BE 1. I/O mohou jít přes oba Clustery. 2. Chyba Clusteru A. Witness vidí Cluster B ale ne Cluster A. 3. Witness přikáže Clusteru B převzít provoz. Aplikace pokračují na B a změny se ukládají v DRL. 4. Cluster A je zpět on-line. Cluster A o tom informuje Cluster B. 5. B dosynchronizuje A podle DRL. 6. Resynchronizace je hotova. 12
AccessAnywhere co to je? Prezentační vrstva dat VPLEXu: Pomocí Storage View umožňuje přístup k Virtual Volume Pomocí Distributed Cache Coherence garantuje konzistenci dat ve Storage View přes všechny Enginy ve VPLEX Clusteru i ve VPLEX Metro Clusteru. Servery vidí Stejná Data ve Stejném Čase všude, kde je to definováno ve Storage View. 13
Příklad AccessAnywhere: Read Miss BE Dev Virt Cache FE Cluster A 1. Požadavek na čtení bloku 53. 2. Je v Cache? Ne. 3. Je v jiné Cache? Ne. 4. Čtení z BE Device do Cache. 5. Čtení z Cache do serveru. 14
Příklad AccessAnywhere : Write BE Dev Virt Cache FE Cluster A 1. Požadavek na zápis do bloku 53. 2. Zápis do Cache. 3. Zneplatnění dat v jiných Cache. 4. Zápis na BE Devices. 5. Potvrzení zápisu serveru. 15
AccessAnywhere + ProtectEverywhere Data Mobility Collaboration Application Mobility Availability VPLEX And RecoverPoint Disaster Avoidance Operation Operational Recovery al Recovery CDP Disaster Recovery CRR 16
EMC RecoverPoint RecoverPoint CDP Continuous Data Protection RecoverPoint CLR Concurrent Local And Remote Replication RecoverPoint CRR CDP Continuous Continuous Remote Data Replication Protection VNX VMAX 10K VMAX 20K VMAX 40K VPLEX 17
VPLEX Splitter Front End (FE) Cache Splitter Device Virtualization Back End (BE) RecoverPoint Appliances (RPA) Splitter zaznamenává všechny změny Virtual Volumů Local a Metro Volumy Splitter je na všech Directorech jednoho VPLEX Clusteru Konfigurovatelný každý Volume Minimalní vliv na chráněný Volume Splitter se konfiguruje z RPA 18
Příklad činnosti Splitteru při Zápisu BE Dev Virt Cache FE Cluster A 1. Požadavek na zápis 2. Splitter zaznamená I/O, posílá data do RPA 3. Po potvrzení I/O pokračuje na backendove volume 4. Potvrzení serveru 19
VPLEX Local + RecoverPoint CDP a CRR Site A RecoverPoint CDP Replicas Site A Site B RecoverPoint CRR 20
VPLEX Metro + RecoverPoint CDP a CRR Site A VPLEX Metro Site B RecoverPoint CDP Replicas Site A VPLEX Metro Site B RecoverPoint CRR Site C 21
Závěr Souhrn agendy VPLEX Hardware & GeoSynchrony - přehled Distribuovaný Mirroring a Mobilita Vysoká dostupnost s VPLEX Metro AccessAnywhere + ProtectEverywhere: RecoverPoint a VPLEX 22
Dotazy? 24