De Converged Infrastructure In de proprietary dagen van de zeventiger jaren schafte de gebruiker alles bij dezelfde computerleverancier aan: computer, network, opslag en applicaties. De gebruiker werd daarmee voor onbepaalde tijd aan een enkele leverancier gekoppeld, de zogenoemde ‘vendor lock-in’. De komst destijds van de open systemen heeft daar verandering in aangebracht. Want, gebruikers kregen voor het eerst de mogelijkheid om een computerarchitectuur samen te stellen op basis van producten van verschillende leveranciers. Het gevolg was dat de afgelopen decades het merendeel van de computersystemen op die manier zijn samengesteld. Bij grote organisaties heeft dit geleid tot een mix van verschillende computerarchitecturen waarvan de kosten voor onderhoud en beheer de laatste jaren enorm zijn gestegen.
Figuur 1: Traditionele Data Center architectuur Beperkingen huidige architecturen Capaciteitsplanning vormt thans een van de grootste uitdagingen voor data center architecten. Een doorsnee data center ontwerper probeert in te schatten wat de capaciteitsgroei de komende drie tot vijf jaar zullen zijn. Deze moet de voor de komende jaren benodigde hoeveelheid storage capaciteit inschatten, voor virtuele omgevingen het aantal VMs en de vereiste prestaties (waaronder processing, IOPs, bandbreedte). Naast de technische vereisten moet de architect een inschatting maken van daarvoor benodigde budget. De rigide architectuur van de traditionele storage systemen maakt het lastig om de juiste systeemcapaciteit in te kopen. Vaak moeten vooraf onnodig grote investeringen te worden gedaan voor capaciteit die op dat moment nog niet allemaal nodig is. Dit probleem wordt nog eens verergerd door de snelle groei van het aantal VMs. De komst van virtualisatie Om de hoeveelheid computersystemen terug te dringen en efficiënter te gebruiken, heeft men ook het virtualisatiemodel bij de open systemen geïntroduceerd. Niet alleen konden daarmee systemen efficiënter worden benut, maar ook bood het de mogelijkheid om van © Copyright 2013 Bram Dons IT-TrendWatch
de bestaande verschillende type hardware systemen gebruik te kunnen blijven maken. Maar virtualisatie introduceerde twee belangrijke problemen: de toegenomen complexiteit van de virtuele architectuur en de vaak onvoorspelbare vraag naar IOPs (IOs per second). Het bleek dat de meeste traditionele storage systemen slecht met het onvoorspelbare gedrag van VMs konden omgaan. Het is een van de redenen waarom SSD-gebaseerde storage nu hun intrede doen in de virtuele wereld als oplossing van het IO-probleem. Het bleek ook dat de introductie van VDI in eerste instantie niet bijdroeg aan de verlaging van de TCO-kosten, pas na ongeveer drie jaar blijkt meestal dat er kostenbesparingen worden bereikt. Virtualisatie, en nu cloud computing, hebben data centers uiterst dynamisch gemaakt. VMs worden ‘on the fly’ aangemaakt, verplaatsen zich van server naar server en zijn in hoge mate afhankelijk van gedeelde storage op het SAN. Data volumes groeien snel in de data center door het gemak waarop gebruikers zelf VMs kunnen aanmaken. Nieuwe technieken, zoals desktop virtualisatie, versterken nog deze trend. De komst van virtualisatie (specifiek VDI) maakt het beheer van VMs en de onderliggende fysieke infrastructuur extreem complex. VM sprawl maakt het voor beheerders lastig om de virtuele architectuur efficiënt te beheren. De komst van de Converged Infrastructure Om gebruikers snel de nodige systeemcapaciteit te kunnen bieden hebben de bekende grote leveranciers van computersystemen hun bestaande computers, storage en netwerk modellen geïntegreerd in een kant-en-klaar systeem. Dergelijke ‘converged infrastructure’ gebaseerde systemen vereenvoudigen het aanschafproces en verbeteren de ‘time to value’. Het maakte ook het beheer eenvoudiger via een ‘single-pane-of-glass’ management console. Toch blijkt ook dit model te star om als basis te kunnen dienen voor een moderne dynamische data center. Het blijven op zichzelf staande geïsoleerde monolithische systemen Ze zijn niet of beperkt schaalbaar en laten prestatiedaling bij hogere VM belastingen zien. Dynamische configuratie is lastig en ze maken gebruik van dure over-provisioned hardware. Waar de virtualisatiemarkt meer behoefte aan heeft, is een hoog schaalbaar systeem dat via kleine standaard blokken, bestaande uit storage, netwerk en computing, eenvoudig is uit te breiden. Een architectuur die zich daartoe uitstekend toe leent is het gedistribueerde computing model. Destijds realiseerden Google, Facebook, Yahoo en Amazone zich dat een dergelijk standaardmodel niet tegen betaalbare prijzen op de markt beschikbaar was. Ze ontwikkelden daarom zelf hun eigen hoog schaalbare clustermodel op basis van commodity Linux-gebaseerde servers met lokale storage. Dit was de aanzet voor een aantal nieuwe firma’s, waaronder Nutanix, SimpliVity en Scale Computing, om kant-enklare clustersystemen te ontwikkelen. Sommige onderzoekbureaus hebben dit als ‘infrastructure in a box’ of ‘hyperconvergence’ getypeerd. Hyperconvergence, om die term maar even aan te houden, vervaagd de lijnen tussen de computer, netwerk, storage en data protectie en biedt een systeeminfrastructuur in een box. Het is een compleet turn-key systeem dat alle benodigde hardware- en systeemsoftware en beheertools bevat. Sommige daarvan zijn al © Copyright 2013 Bram Dons IT-TrendWatch
geconfigureerd voor VMware. Voor kleine en middelgrootte bedrijven met betrekkelijk weinig IT-ervaring is dit de ideale oplossing voor het gebruik van virtualisatie. We geven hierna een korte beschrijving van de hiervoor genoemde box-gebaseerde converged architectuur producten. Nutanix cluster architectuur De Nutanix architectuur is te vergelijken met de Google architectuur. Het is een schaleout compute en storage architectuur waarvoor geen netwerk-gebaseerde storage meer nodig is. Google’s File system is een custom made oplossing die alleen geschikt is voor Google’s eigengemaakt applicaties (search engine, Gmail, en zo voort). Nutanix daarentegen is een enterprise-class systeem dat een general-purpose oplossing biedt voor gevirtualiseerde omgevingen (VMware). De Nutanix Complete Cluster is een horizontale scale-out cluster die bestaat uit high-performance nodes. De nodes bevatten processoren, geheugen en lokale storage (waaronder SSDs). Op elk van de nodes draait een standaard hypervisor die de VMs besturen, op dezelfde manier als een standaard VM host. Daarnaast wordt alle lokale storage gevirtualiseerd en door Nutanix Scale-out Converged Storage (SOCS) in een unified storage pool opgenomen. SOCS fungeert als een soort geavanceerde SAN die van lokale SSDs en disks op alle nodes gebruik maakt om VMs op te slaan. SOCS is ‘VM-aware’ en ondersteunt geavanceerde management voorzieningen. Traditionele SAN-oplossingen bezitten doorgaans 1, 2, 4 of 8 controllers, een n-node Nutanix Complete Cluster bestaat uit n controllers. Op elke node van de cluster draait een speciale VM. Deze speciale VM, Controller genaamd, fungeert als een virtuele controller voor SOCS. Alle Controllers binnen de cluster communiceren met elkaar en vormen aldus een enkelvoudig gedistribueerd systeem. In tegenstelling tot de traditionele SAN/NAS oplossingen (die beperkt zijn in het aantal toe te passen controllers) kan indien nodig met deze architectuur continue worden opgeschaald.
figuur 2: Nutanix Converged Storage architectuur Het Nutanix Virtual Computing Platform is een converged infrastructure oplossing in de vorm van een 2U geïntegreerde appliance. Een platform bestaat uit vier individuele server nodes. Op de nodes is een hypervisor pre-installed (VMware vSphere 5.x of KVM) en is voorbereid voor de snelle configuratie van VMs. Er zijn twee type © Copyright 2013 Bram Dons IT-TrendWatch
appliances leverbaar, de NX-2000 en NX-3000 Series. De NX-2000 ondersteunt maximaal 300 virtuele desktops (VDIs), de NX-3000 maximaal 400. De appliances ondersteunen PCI-e SSD, SATA, SSDs en HDDs met een maximum storage capaciteit van respectievelijk 1,6TB, 1,2TB en 20TB. Netwerken worden ondersteund met 4x 10GbE, 8x 1GbE en 4x 10/100 BASE-T RJ45. De maximale geheugencapaciteit bedraagt maximaal 768GB voor de NX-2000 en voor de NX-3000 1TB. SimpliVity Virtualized Data Center Architecture De firma SimpliVity biedt ook een voor VM geoptimaliseerde (VMware alleen in het begin) 2U hoge appliance. De appliance, OmniCube genaamd, bevat zowel storage, server en de benodigde data management functionaliteit. De appliance wordt in een netwerk met twee of meer worden appliances toegepast: ‘SimpliVity Open Federation’ genaamd. De appliance kan niet aan een bestaande SAN worden geknoopt en ook niet aan bestaande servers waarop VMs draaien. De datastore zelf draait op basis van NFS waarbij een global namespace de basis vormt voor de scale-out functionaliteit. Alle setup en beheer gebeurt met VMs als basis. Dat betekent dat er geen LUNs of RAID-groepen hoeven te worden gecreëerd of beheert. De SimpliVity CN-3000 appliance ondersteunt 4x 200GB SSD en 8x 3TB HDD, 48-768GB intern RAM, 2x 10GbE (SFP+) en 1x 1GbE (RJ45). Replicatie, de-duplicatie en disaster recovery Replicatie hoeft niet meer op een complete datastore plaats te vinden. De OmniCube data architectuur bezit een geavanceerde real-time de-duplicatie en compressie engine. Gededupliceerde en gecomprimeerde data verblijven tijdens hun livecycle binnen de node, tussen nodes in de data center of binnen de cloud. OmniCube bezit een krachtige disaster recovery oplossing. Replicatie is mogelijk tussen elke twee data centers. Omdat de data is ge-dedupliceerd en gecomprimeerd wordt het netwerk minder belast. Scale Computing De firma Scale Computing biedt een turn-key datacenter-in-box, HC3 systeem genaamd. Het is een hyper-converged compute cluster systeem waarin storage, networking, computing en virtualization ook zijn geïntegreerd in een appliance. Het Scale Computing HC3 systeem biedt de voordelen van virtualisatie zonder dat daar een NAS of SAN storage voor nodig is. Elke clusternode bevat virtualisatie software die toegang geeft tot de storage pool. De pool is opgebouwd met de storage van meerdere HC3 nodes, maar de hypervisor op elke node ziet de pool als lokale storage. Het HC3 systeem brengt ook de overige computerbronnen, zoals CPUs en geheugen, in een pool onder en start automatisch de werkbelasting op de node met de meest beschikbare bronnen. Deze clusterarchitectuur biedt zowel fault tolerance en schaalbaarheid die beide vereist zijn voor een high availability omgeving. De ICOS architectuur Scale Computing’s HC3 en de ICOS architectuur bestaan uit een aantal lagen. De clustered storage volume management laag brengt alle block storage devices van alle nodes in een gemeenschappelijke storage pool onder. Alle naar de pool geschreven data is daardoor voor alle nodes in de cluster onmiddellijk beschikbaar voor lezen en © Copyright 2013 Bram Dons IT-TrendWatch
schrijven. VMs die op een HC3 systeem draaien hebben rechtstreeks toegang tot de clustered storage pool. De HC3 Compute layer bestaat uit een 64-bit ‘hardened’ OS kernel waarin een lightweight type 1 (bare metal) op componenten van de KVM hypervisor gebaseerde hypervisor is geïntegreerd.
Figuur 3: Architectuur stack HC3 systeem Voor de toegang van remote systemen tot de storage pool biedt de ICOS Storage Protocol Abstraction Layer block- en file storage protocollen, waaronder iSCSI, CIFS en NFS. Vanwege de clustereigenschappen van ICOS zijn deze protocollen geoptimaliseerd om de I/O werkbelasting over alle nodes te verdelen. Omdat alle HC3 nodes toegang hebben tot de gehele storage pool is ook elke VM te starten op elke node (voorwaarde is wel dat de beschikbare node de vereiste capaciteit heeft). VMs kunnen live migrated naar andere nodes. Wanneer een node uitvalt, dan worden automatisch de VMs overgezet naar een andere node. Dit is mogelijk omdat de overgebleven nodes allemaal toegang hebben tot dezelfde redundante storage pool. Komt de uitgevallen node weer beschikbaar, dan worden automatisch de VMs weer teruggezet. Cluster mirroring, wide striping en caching De Storage Protocol Abstraction Layer verpakt, wanneer mogelijk, alle file block I/O requests in 256KB chunks. Vanaf dat moment zorgt de Layer ervoor dat er twee kopieën van elke chunk naar de storage pool wordt geschreven (vergelijkbaar met RAID 10). Naast redundantie verhoogd het ook de I/O en throughput van alle individuele disks in de cluster (algemeen bekend als ‘wide striping’). Een additionele optimalisatie van de ICOS architectuur is de toepassing van RAM caching per node, pagepool genaamd, die bij de toevoeging van extra nodes automatisch wordt uitgebreid. ICOS is ontworpen om de tijdelijke uitval van een node op te vangen zodat de overgebleven nodes doorgaan met de processing van data. VMs kunnen blijven draaien omdat ze toegang hebben tot de redundante storage bronnen. Failover, cluster en VM replicatie ICOS ondersteunt automatische failover van VMs en ook de mogelijkheid tot het maken van snapshots ontbreken niet. De snapshot technologie is gebaseerd op de ruimte besparende ‘copy-on-write’ methodologie. Verder ondersteunt ICOS cluster-naar-cluster replicatie. Het maakt gebruikt van de snapshot functionaliteit waarmee om de vijftien minuten replicatie plaatsvindt. © Copyright 2013 Bram Dons IT-TrendWatch
Figure 4: Converged Computing Resources Voordelen hyperconverged systemen De hier besproken hyperconverged systemen bevatten zowel storage, computing en networking. De drie componenten zijn voorgeconfigureerd en geïntegreerd zodat gebruiker zelf niets meer hoeft te installeren of configureren. De systemen zijn meestal binnen een half uur geïnstalleerd en geconfigureerd. Voor storage hoeven er geen RAID sets, iSCSI LUNs, multi-pathing, security, zoning of fabrics meer te worden geconfigureerd. Op de server geen iSCSI-initiators, hosting file systems, server cluster configuratie en policies. Voor wat betreft het netwerk: geen instelling van IP-adressen, QoS, vLANS, security, en zo voort. De hiervoor besproken Nutanix en SimpliVity hyperconverged appliances gaan van de aanwezigheid van VMware uit. Het HC3 systeem echter maakt gebruik van KVM virtualisatie, waarvoor geen licenties nodig zijn. De hier beschreven hyperconverged systemen zijn bedoeld voor de MKB markt. Voor grote data centers bieden ze echter te weinig capaciteit, daar is men voorlopig nog aangewezen op de traditionele converged systemen van de grote storage leveranciers. Informatie op Internet: www.nutanix.com www.scalecomputing.com www.simplivity.com
© Copyright 2013 Bram Dons IT-TrendWatch