Data Replicatie met Open-E Data Storage Software DSS V6 Geavanceerde Data Protectie Er bestaan talrijke storage producten die disaster backup en recovery, failover, replicatie en virtualisatie hardwarematig ondersteunen. Een product dat al deze voorzieningen vanuit de software biedt, is Open-E Data Storage Software (DSS) V6 van de gelijknamige firma Open-E. In dit artikel geven we een overzicht van alle backup en restore features van DSS en kijken we met name hoe de replicatie voorziening in de praktijk werkt. DSS is een op Unix gebaseerd unified file en block-, operating system voor storage management. Het ondersteunt vanuit een enkele applicatie meerdere 1GbE, 10GbE en Fibre Channel gebaseerde storage platforms (zowel target als initiator). DSS is een kosteneffectief, betrouwbaar, storage platform dat vele gebruikstoepassingen kent, waaronder: file sharing, backup en recovery, storage consolidatie en disaster recovery. Eenvoud en gebruiksvriendelijkheid waren de basisgedachte bij het ontwerp van DSS. DSS biedt de geavanceerde storage features die een moderne enterprise omgeving vereist. Dat zijn een automatische failover voor high availability clusters, remote replicatie voor disaster recovery en meerdere scheduled snapshots voor data protectie. De implementatie en de lage beheerkosten maken dat DSS een aantrekkelijk data protectie product voor elke onderneming is, met name die voor kleine ondernemingen. In dit artikel zien we op welke wijze DSS synchrone volume replicatie met failover en failback en asynchrone data replicatie ondersteunt. Asynchrone data en synchrone volume replicatie DSS biedt zowel asynchrone data replicatie als synchrone volume replicatie en automatische failover. Asynchrone file en folder replicatie kan data als onderdeel van een backup strategie van disk-naar-disk repliceren. Remote replicatie is mogelijk via een LAN of WAN, als onderdeel van een disaster recovery plan. Voor de creatie van meerdere redundante data points voor backup of disaster recovery doeleinden kunnen data naar verschillende andere systemen worden gerepliceerd. Voor een maximum aan flexibiliteit kunnen data replicatie taken in beide richting plaatsvinden waarbij elk type systeem zowel als source als destination kan dienen. Met DDS wordt fault tolerance via iSCSI volume replicatie ondersteund. Het biedt een zero-data-loss bescherming voor kritische data. Bijvoorbeeld, de beheerder ontvangt het signaal dat er een automatische failover heeft plaatsgevonden. Hij kan dan onmiddellijk de opgeslagen incrementele veranderingen doorvoeren om daarmee de secondaire data site op het niveau te brengen, zoals die bestond ten tijde van voor de uitval. De combinatie van beide features biedt de mogelijkheid om meerdere complete data kopieën op remote servers te bewaren. Synchrone Volume Replicatie met Failover via een LAN De meer geavanceerde data protectie producten bieden naast asynchroon ook synchrone replicatie. Ook Open-E DSS ondersteunt synchrone volume replicatie (maximaal 16TB volume) met failover voorziening. Het is een fault tolerant proces en gebaseerd op iSCSI volume replicatie met gespiegelde data volumes. De data blocken worden in real-time gekopieerd. Elke veranderde data op de primaire storage wordt naar de storage op de secondaire server gekopieerd. Wanneer de primaire server uitvalt, tijdens onderhoud of © Copyright 2012 Bram Dons IT-TrendWatch
bij verlies van de primaire data bron, dan zal automatisch een failover plaatsvinden naar de secondaire server. Processen kunnen daarna normaal weer worden gecontinueerd. Als hardware-omgeving voor replicatie beveelt Open-E een tweetal x86/x64-compatibele servers aan met een RAID controller die is voorzien van een battery backup unit, diverse hard disk drives, een of meerdere 1/10GbE netwerkkaarten en een aparte ‘ping’ node; de ping node bewaakt de beschikbaarheid van beide servers. Open-E DSS software DSS is een schaalbaar platform voor IP-storage en combineert NAS en iSCSI in een enkel operating system. Met DSS is storage capaciteit snel aan een bestaand netwerk toe te voegen. Dure hardware is daarvoor niet nodig, want zowel een nieuwe rack server als een oude desktop PC met een USB 2.0.1.1 (in- of extern) is bruikbaar. Het OS kan met zowel de oude IDE (ATA) als de nieuwste SATA en SAS drives overweg. De drives kunnen direct gekoppeld zijn aan het moederbord, via een hardware RAID controller of door middel van de in DDS geïntegreerde RAID software. De installatie van het OS (32 of 64 bit) is mogelijk via een USB flash drive of met de ISO-file op een CD. Na de installatie kan via een browser, via het versleutelde SSL protocol (https), worden ingelogd. In onze test lukte dat niet met de Microsoft Internet Explorer maar wel met een Mozilla browser; de Explorer bleef al steken in het allereerste setup menu. Setup volume replicatie en failover De setup voor volume replicatie bestaat uit de volgende stappen: hardware configuratie; configuratie van de secondaire en primaire node; creatie storage target op de secondaire en primaire node; configuratie iSCSI Failover, Virtual en Auxiliary netwerkverbinding, starten, testen Failover Server en uitvoering van de Failback Functie. Als eerste beginnen we met de hardware configuratie van beide replicatie nodes. Voor onze synchrone en failover replicatietesten maken we gebruik van een tweetal serversystemen die via een 1GbE en 10GbE lokaal netwerk zijn gekoppeld (zie figuur 1). Als leidraad volgen we de testprocedure zoals beschreven in de ‘Synchronous Volume Replication with Failover over a LAN’, de pdf is te downloaden vanaf de Open-E website. Onze beide Intel Quad Xeon 2.27GHz S5500HCV Servers bezitten 8GB RAM, een 3Ware 9690A SAS/SATA disk interface en een viertal Intel netwerkkaarten (3x Intel Pro/1000 en 1x Intel 82598 10GbE netwerkkaart). Als replicatie storage disks worden op beide servers van een Kingston HyperX high-speed Solid State Disk (SSD) SATA 6Gbs 240 GB gebruik gemaakt. Beide servers hebben een aparte 1GbE verbinding voor Web Gui beheer. Via een tweetal gekoppelde (bonded) NIC-kaarten wordt clients toegang geboden tot de storage omgeving. Een aparte 10GbE verbinding dient voor data replicatie. De 10GbE kaarten zijn voor 9000 bytes grootte Jumbo frames geconfigureerd en ook de netwerkswitch moet hierop worden ingesteld. Zowel de 1GbE bonded als de 10GbE verbinding worden voor de ‘heartbeat’ controle gebruikt.
© Copyright 2012 Bram Dons IT-TrendWatch
Figuur 1: Testopstelling Synchrone Volume Replicatie en Failover (bron Open-E)
Netwerk configuratie Als eerste worden de drie IP-netwerken geconfigureerd. Zoals gezegd, de 1GbE netwerk interface eth0 wordt op de servers voor het web gui beheer gebruikt. Beide eth2 en eth3 interfaces zijn gekoppeld en biedt clients via iSCSI toegang tot het storage platform. De volume replicatie vindt via het eth1 10GbE netwerk plaats. In het algemeen worden de prestaties van 1Gb NICs bij toepassing van jumbo frames niet verhoogd maar voor bepaalde applicaties kan het zinvol zijn om de jumbo frames te gebruiken. De op servers aanwezige 10GbE eth1 netwerkkaarten en de vier Netgear GSM7328S 10GbE switchpoorten stellen we in voor Jumbo frames op een waarde van 9000 MTU. Om de snelheid van de 10GbE verbinding te testen maken we gebruik van een speciaal add-on netwerk testtool ‘Sysctl’; deze is vanaf de Open-E website te downloaden en moet daarna binnen de server worden geïmporteerd. We voeren de snelheidstest met Sysctl uit op het 10GbE netwerk en constateren een ruime 600MBps data transfersnelheid. Om te zien met welke snelheid de disken in staat zijn om te lezen en schrijven voeren we via het Add-on menu een read/write test uit. We zien gemiddeld een ruime 228 MBs doorvoersnelheid voor de SSDs. Hoewel we een 600 MBps synchrone verbinding hebben tussen beide servers zal, gezien de snelheid van beide SSDs, de replicatiesnelheid nooit boven de 228 MBs kunnen komen; in een Open-E webinar wordt aangetoond dat via een 10GbE netwerk met een snelle diskarray er disksnelheden boven de 800 MBs kunnen worden gehaald. Verder kunnen met DRBD tuning nog een aantal instellingen worden aangepast; zie daarvoor http://www.drbd.org/users-guide/s-throughput-tuning.html. De volgende DRBD tuning waarden kunnen vanuit de DSS console worden aangepast: max-buffers 8000, max-epoch-size 8000, unplug-watermark 8000, no-disk-flushes en no-disk-barriers.
© Copyright 2012 Bram Dons IT-TrendWatch
Creatie volume en iSCSI replicatie volume Na de netwerk configuratie starten we de Open-E Gui op. Voor beide servers wordt vanuit het ‘Configuration’ tabblad een vrije fysieke SSD unit geselecteerd. Deze SSD dient als basis van waaruit een nieuwe 24GB Volume Group wordt gecreëerd. In de Volume Group wordt vervolgens een iSCSI volume aangemaakt. Omdat we data op block-niveau willen repliceren, vinken we in de box ‘Vol. Replication’ de ‘Block I/O’ box aan. Tenslotte specificeren we de hoeveelheid voor replicatie benodigde storage capaciteit. Wanneer het replicatieproces voor de eerste keer wordt gestart, dan moet eerst de metadata worden gewist. Dit geldt ook wanneer de source volume inconsistent is geraakt en men wil data vanaf het destination- naar het source volume restoren. In de volgende stap wordt een mirrortask gecreëerd. We stellen daartoe de bandbreedte ‘for SyncSource (MB)’ in op de maximale (hiervoor) gemeten beschikbare netwerksnelheid van 600MBps (zie figuur 2). Vervolgens starten we via de ‘Replication tasks manager’ box de MirrorTask op. Omdat beide SSDs nog dezelfde inhoud bevatten en er nog weinig te repliceren valt, neemt de replicatietaak slechts enkele tientallen seconden in beslag. In de ‘Running tasks’ box zien we tenslotte dat de source en destination volumes de status ‘Consistent’ hebben gekregen.
Figuur 2: Creatie Volume Replication Task
Creatie iSCSI target Vanuit het ‘Create new target’ menu is een iSCSI target te creëren. In het ‘Target volume manager’ menu kan men zowel een vrije als een reeds toegewezen target en snapshot volumes configureren. Men kan ‘read only’ instellen waarbij de LUN door een iSCSI initiator als een write protected disk wordt gezien; target volumes en snapshots zijn default read only. Een andere instelling is ‘write-back cache’ die de prestaties verbetert © Copyright 2012 Bram Dons IT-TrendWatch
bij een data write. Een write wordt dan ‘acknowledged’ zodra de data op disk is opgeslagen en pas op een later tijdstip ‘commits’ het disk cache systeem de writes naar disk. Het verdient aanbeveling om ook de write-back cache te activeren op de server RAID controllers. Vaak wordt vanuit de firmware (terecht) gewaarschuwd dat daarvoor een battery backup vereist is. Maar wordt de server beschermd door een UPS systeem dan kan men zonder al te veel risico toch wel write-back activeren. Naast de target naam moeten ook het LUN nummer en de SCSI IDs van beide targets op de primaire en secondaire server gelijk zijn. Via de iSCSI initiator op een Windows systeem maken we vervolgens een verbinding met de zojuist gecreëerde iSCSI target en formatteren de LUN met het standaard Windows NTFS file system. Met Intel’s Iometer benchmark testen we vervolgens de prestaties van de disk op basis van 4 workers waarbij sequentiële read/writes met 1MB diskblocken worden uitgevoerd. We zien een ietwat teleurstellende 187MB read en een 127MB write snelheid. Kennelijk vragen de diverse softwarelagen toch enkele tientallen procenten overhead die de prestaties van het replicatieproces drukken. Manual Failover en Failback Nu de replicatie voorziening werkt, is de volgende stap de configuratie van de failover en failback functie. In het ‘Failover configuration’ menu wordt daartoe de iSCSI failover functionaliteit aangevinkt en de netwerk IP-adressen van de primaire en secondaire server ingevuld. Met de bond0 interface wordt een Virtual IP adres ingesteld; dit adres wordt voor de communicatie tussen de nodes gebruikt. Tenslotte wordt een iSCSI Failover Task gecreëerd en via de ‘Failover manager’ gestart. In het Failover status tabblad zien we of de Failover Service draait en de failover task is gestart (zie figuur 3). In de ‘Failover manager’ tabblad kan de failover gestart of gestopt worden of een handmatig failover uitgevoerd. Teneinde de active server staat naar de passive server over te zetten klikt men op de ‘Manual failover button’. Dit initieert een failover die de primary server naar ‘suspend’ mode overschakelt. De secondary server wordt gepromoveerd naar de ‘active’ mode status. Daarbij stopt wel tijdelijk het replicatie proces. Bij de omgekeerde situatie, de Failback functie, moet eerst de data van de secondaire/active server gesynchroniseerd worden met de primary server. Daartoe klikt men op de ‘Sync volumes’ knop. Het aanklikken van de Fallback functieknop brengt de active server staat weer terug naar de primary server, waarbij de secondary server weer in passive mode teruggaat. Let wel, dit is alleen mogelijk wanneer beide bij het failover proces betrokken volumes weer gesynchroniseerd zijn. Wanneer de failover functie actief is, dan is geen enkele veranderingen aan de configuratie mogelijk.
© Copyright 2012 Bram Dons IT-TrendWatch
Figuur 3: Status Volume Replication Task
Asynchrone Data Replicatie over een LAN en WAN Daar waar synchrone replicatie niet mogelijk is, bijvoorbeeld te lange afstand en/of slechte response tijd, kan asynchrone replicatie een alternatief bieden (zie figuur 4). Asynchrone data (file) replicatie over een LAN/WAN biedt een asynchrone file en folder kopieer voorziening van het ene storage systeem naar het andere. Met asynchrone replicatie wordt een point-in-time snapshot van de data gemaakt en naar het target storage systeem gekopieerd. In een viertal stappen wordt data replicatie geconfigureerd: hardware, destination en source node, schedule replicatie en check status. Voor de LAN-verbinding maken we gebruik van de 10GbE poort op eth1. Als de replicatie over een WAN plaatsvindt dan moet poort 873 op de router/firewall worden ingesteld op ‘forwarding’ zodat IP-packets bij het data replicatie transport niet worden geblokkeerd. Als eerste creëren we op de destination node weer een volume vanaf een fysiek volume en van daaruit een NAS volume. Onder de ‘Configuratie -> NAS’ settings wordt de ‘Data (file) replication agent geactiveerd en creëren we een nieuwe share op het zojuist gecreëerde NAS volume. Na creatie van het nieuwe shared volume klikken we de box ‘Agent Settings’ aan waarin de gebruiker en wachtwoord kan specificeren. Dit wordt sterk aanbevolen ter bescherming van het replicatieprotocol, dit om te voorkomen dat andere replicatie taken toegang krijgen tot dezelfde share. Daarmee is de configuratie op de destination node (storage server) voltooid en gaan we verder met de source node. Daar wordt ook eerst weer een NAS volume gecreëerd die als bron dient voor het replicatieproces. Voor het draaien van het replicatieproces moet eerst een nieuwe snapshot van het te repliceren volume worden genomen. De grootte van de snapshot moeten groot genoeg zijn om alle veranderde data, die sinds de laatste snapshot zijn © Copyright 2012 Bram Dons IT-TrendWatch
genomen, in op te slaan (meestal wordt 10 tot 15% van het logical volume aangehouden). Na creatie van de snapshot wordt deze aan het logische volume toegewezen. Ook op de source node wordt weer de replication agent geactiveerd en een share gecreëerd. Als laatste wordt een nieuwe data (file) replicatie taak gecreëerd. Na het invoeren van de taaknaam, source share, snapshot, destination IP-adres en share wordt een replicatie schedule opgemaakt. Daar wordt de replicatie Interval tijd ingesteld (de kleinste interval is 10 minuten). Als laatste wordt de replicatietaak opgestart en zien we dat de data met een snelheid van slechts 11.3MBs tussen beide shares via het LAN worden gerepliceerd.
Figuur 4: Asynchrone Replicatie over LAN (bron Open-E)
Conclusie De moderne backup en restore utilities als volume en data replicatie bieden ondernemingen bescherming tegen verlies van opgeslagen data. De traditionele proprietary, meestal Fibre Channel, array-gebaseerde synchrone data replicatie is voor veel kleine ondernemingen vaak te kostbaar in aanschaf en onderhoud. Naast de dure hardware zijn nog vaak grote bedragen gemoeid met de software licenties voor synchrone replicatie tussen de storage arrays. Een betaalbaar alternatief kan dan een op iSCSI of NFS gebaseerde replicatie zijn waarvoor alleen een Ethernet infrastructuur en standaard ‘off-the-shelf’ servers nodig zijn. Het product Open-E DSS nu, ondersteunt naast vele andere features, beide replicatiemethoden. Het voordeel van de DSS architectuur is onder meer dat de klant niet gebonden is aan een bepaald type of merk SAN storage systeem, want het een Fibre Channel, Ethernet of InfiniBand zijn; voor een volledige comptabiliteitslijst zie: http://www.open-e.com/service-and-support/hardwarecompatibility-list/ Naast natuurlijk de minimaal twee benodigde fysieke servers zijn nog Open-E software licenties nodig. Voor een ongelimiteerde hoeveelheid TB is dat $2716, een basis licentie voor 4TB kost slechts $895 en de jaarlijkse basis support bedraagt $199. Voor een redelijk bedrag (hard- en software) haalt men daarmee dan een kwalitatief hoge backup en restore oplossing in huis. Informatie op internet: © Copyright 2012 Bram Dons IT-TrendWatch
www.open-e.com
© Copyright 2012 Bram Dons IT-TrendWatch