Napojení virtualizační platformy VMware ESX na fyzickou síť. Volně dostupné platformy, požadavky na HW. Distribuovaný virtuální přepínač. CDP, LLDP, LACP Marek Waśniowski (was0004), Filip Zatloukal (zat108) Abstrakt: Práce si klade za cíl seznámit čtenáře s možnostmi a metodami nasazení virtualizační platformy VMware vSphere ve verzi 5.5 s hypervisorem vSphere ESXi. Hlavní zaměření se týká instalace této platformy, jejího zprovoznění společně s produktem VMware vCenter a zavedení distribuovaného přepínače Nexus 1000v 4.2.1.SV2.2.1a od společnosti Cisco. Rozebírá i chování tohoto virtualizovaného přepínače vzhledem k fyzické síti (protokoly CDP, LLDP a LACP). Na závěr se pokusíme rozebrat i jiné dostupné alternativy k této platformě. Klíčová slova: VMware ESX, Hyper-V, Nexus 1000v, DVS 1 Úvod..............................................................................................................................3 2 Virtualizační platforma VMware vSphere 5.5...............................................................3 2.1.1 Výhody VMware vSphere..............................................................................3 2.1.2 Struktura VMware vSphere............................................................................4 2.2 Hypervisor vSphere ESXi......................................................................................4 2.3 VMware vCenter server.........................................................................................6 3 Přepínač Cisco Nexus 1000v.........................................................................................7 4 Instalace virtualizační platformy vSphere 5.5...............................................................8 4.1 Testovací topologie................................................................................................8 4.1.1 Použité zařízení..............................................................................................8 4.1.2 IP adresy.........................................................................................................8 4.2 Konfigurace fyzického spojovacího L3 přepínače................................................9 4.3 Instalace hypervisoru vSphere ESXi...................................................................10 4.4 Instalace VMware vCenter Server Appliance......................................................10 4.5 Instalace Cisco Nexus 1000v...............................................................................11 4.5.1 Konfigurace..................................................................................................12 4.6 Instalace testovacích VM.....................................................................................13 4.7 Protokoly..............................................................................................................14 4.7.1 CDP..............................................................................................................14 4.7.2 LLDP............................................................................................................14 4.7.3 LACP............................................................................................................14 5 Alternativní platformy.................................................................................................15 5.1 Virtualizace pod systémy Microsoft.........................................................................15 5.1.1 Hyper-V.................................................................................................................15 5.2 Požadavky na HW................................................................................................16 5.2.1.1 Zvolená HW a SW konfigurace.....................................................................16 5.2.1.2 Instalace hostitele...........................................................................................16 prosinec 2013
1/25
5.2.1.3 Microsoft System Center Virtual Machine Manager.....................................16 5.3 Instalace MSCVMM............................................................................................16 5.3.1.1 Konfigurace MSCVMM, příprava na instalaci směrovače Nexus................17 5.4 Instalace směrovače Cisco Nexus 1000V............................................................17 5.4.1.1 Napojení virtuálního přepínače na virtuální hosty.........................................18 5.4.1.2 Hodnocení......................................................................................................19 5.5 Virtualizace pod Linuxovými systémy................................................................20 5.5.1 KVM (Kernel-based Virtual Machine).............................................................20 5.5.1.1 Požadavky na HW..........................................................................................20 5.5.1.2 Zvolená HW a SW konfigurace.....................................................................20 5.5.1.3 Instalace hostitele...........................................................................................20 5.5.1.4 Instalace KVM...............................................................................................20 5.5.1.5 Vytváříme hosta.............................................................................................21 5.5.1.6 Instalace přepínače Nexus 1000V..................................................................21 5.5.1.7 Hodnocení......................................................................................................22 5.5.2 Xen....................................................................................................................23 5.5.2.1 Požadavky na HW..........................................................................................23 5.5.2.2 Zvolená HW a SW konfigurace.....................................................................23 5.5.2.3 Instalace hostitele...........................................................................................23 5.5.2.4 Instalace Xen..................................................................................................23 5.5.2.5 Vytváříme hosta.............................................................................................23 5.5.2.6 Instalace přepínače Nexus 1000V..................................................................23 5.5.2.7 Hodnocení......................................................................................................23 6 Závěr............................................................................................................................24 7 Použitá literatura..........................................................................................................25
prosinec 2013
2/25
1 Úvod V tomto projektu se budeme snažit seznámit s vlastnostmi a metodami nasazení virtualizační platformy VMware vSphere 5.5 s hypervisorem vSphere ESXi. Dle vzorové topologie se nejdříve pokusíme nainstalovat na dvou počítačích hypervisor vSphere ESXi. Na jednom z těchto počítačů následovně zprovozníme aplikaci VMware vCenter Appliance, která slouží pro hromadnou správu všech hypervisorů v námi vytvořeném datacentru (v našem případě pouze pro dva ESXi hosti). V dalším kroku se seznámíme s distribuovaným přepínačem Cisco Nexus 1000v 4.2.1.SV2.2.1a, který na topologii s pomocí VMware vCenter nainstalujeme a nakonfigurujeme. Tento přepínač bude zpracovávat komunikaci mezi všemi virtuálním počí tači datacentra a fyzickou sítí představovanou třetím počítačem připojeném ke spojovacímu fyzickému přepí nači Catalyst 3560 od společnosti Cisco. V rámci tohoto testování se pokusíme otestovat i protokoly CDP, LACP a LLDP. Na závěr budeme rozebírat i volně dostupné alternativy pro tuto platformu.
Obrázek 1: VMware [1]
2 Virtualizační platforma VMware vSphere 5.5 Virtualizační platforma VMware vSphere představuje integrované řešení virtualizace, jehož účelem je plnění potřeb malých a rostoucích organizací. Po pořízení sady VMware vSphere mohou zákazníci využívat prostředky serverů, sítí a úložného prostoru dynamicky a efektivněji jako jediný fond či „privátní cloud“, který chrání aplikace a data klíčová pro podnikání. Výsledkem je neustále aktivní prostředí IT s přijatelnějšími náklady, vysokou odolností a schopností reagovat na měnící se obchodní potřeby. VMware vSphere je základním stavebním kamenem pro realizaci cloudové infrastruktury. Produkty a řešení VMware snižují náklady a složitost poskytování podnikových služeb. Kompletní nabídka produktů se zaměřuje na skutečné potřeby zákazníků: flexibilitu, rychlost, odolnost, výkonnost a hospodárnost. Při společném nasazení garantují produkty VMware výbornou úroveň dostupnosti, bezpečnosti a škálovatelnosti pro všechny aplikace nezávisle na hardwaru či umístění. vSphere 5 je v oblasti cloud computingu prvním operačním systémem, který využívá sílu virtualizace k transformaci datových center do výrazně zjednodušených cloud computing infrastruktur. Transformace datových center s využitím interních a externích zdrojů umožňuje zákazníkům získat novou generaci spolehlivých a flexibilních IT služeb bezpečně a s minimálním rizikem. [2]
2.1.1 Výhody VMware vSphere [2] snížení kapitálových a provozních nákladů na minimum ○ nutno méně fyzických serverů ○ větší energetická efektivita ● zvýšení produktivity zaměstnanců a urychlení podnikových procesů (zjednodušení řízení) ● bezpečná ochrana aplikací a dat ○ zajišťuje business continuity ○ vysoká dostupnosti aplikací ○ ochrana dat a disaster recovery při poškození hardware, pádu operačního systému, zastavení chodu kritické firemní aplikace či problémech s hardwarem ●
prosinec 2013
3/25
2.1.2 Struktura VMware vSphere
Obrázek 2: Struktura hypervisoru VMware ESXi [5]
2.2 Hypervisor vSphere ESXi VSphere ESXi Server tvoří základ virtualizační technologie VMware vSphere 5.5. Oproti Hyper-V od Microsoftu nabízí především heterogenní systémový provoz v síti. Oba produkty (a i další v podobě XenServeru od Citrixu) jsou si víceméně rovny na všech frotnách, ESXi však má oproti Hyper-V jednu ohrom nou výhodu: je otevřený drtivé většině známých platforem. To umožňuje zejména nasazovat zdarma dostupná systémová řešení tam, kde je zbytečné licencovat komerční řešení. VMware ESXi Server je v základu, stejně jako jeho konkurenti, především tenkým klientem s vlastním jádrem, který běží přímo nad hardwarovou vrstvou. V praxi tedy nasadíte přímo nad svou hardwarovou konfiguraci kernel ESXi, jenž zde funguje jako hostitelský operační systém pro vrstvení dalších služeb. Samotný kernel je postaven na platformě Linuxu, což do značné míry otevírá právě onu otevřenost vůči různým systémovým řešením. Toto linuxové jádro na sebe pak nabaluje další platformu vmkernel s obslužnými funkcemi a jako takový je základním stavebním kamenem. Jeho provoz tudíž nelze pozastavit bez toho, aniž by nad ním neběžely další služby. Toto vše je dostupné v 64 bitech. Výhodou takovéhoto řešení je samozřejmě dostupnost co největšího množství hardwarových prostředků pro ostatní systémy. Tzv. tenký klient totiž pracuje pouze se základními prostředky a zbytečně si pro sebe nealokuje tolik chybějící výkon samotného hostujícího počítače. To už je ostatně základní myšlenka všech serverových virtualizačních platforem po dlouhou dobu. Pro následnou práci s jádry je zprovozněna servisní konzola a díky zabudovaným ovladačům ve vmkernelu je možné k základnímu klientovi přistupovat z různých míst. Zároveň si okamžitě můžete namapovat různá umístění, spravovat hardwarové komponenty atd. [3] prosinec 2013
4/25
Obrázek 3: Struktura vSphere ESXi
Hardware
Požadavky
Procesor
Intel nebo AMD x64 s dvěma nebo více logickými jádry. Každé z jader musí mít alespoň 2GHz. Procesor Intel Itanium (IA64) není podporován.
RAM
8GB RAM. ESXi host musí mít dostatek RAM pro souběžný provoz provozovaných virtuálních počítačů.
Disk
Závisí na požadavcích plánovaných virtuálních počítačů. ESXi vyžaduje minimálně 1GB velký bootovací disk. Pokud bootujeme z lokálního disku nebo SAN/iSCSI LUN, je pro tvorbu VMFS svazku a 4GB scratch oddílu třeba minimálně 5,2GB.
Síť
1Gbps
Tabulka 1: VMware ESXi 5.5 - Hardwarové požadavky (doporučené) [6]
prosinec 2013
5/25
2.3 VMware vCenter server VMware vCenter Server centrálně spravuje prostředí VMware vSphere. Jedná se o škálovatelnou platformu s možností rozšíření, která představuje základ pro virtualizační management. Představuje nejjednodušší a nejefektivnější způsob jak spravovat VMware vSphere – bez ohledu na to, zda máte virtuálních strojů deset nebo desítky tisíc. Poskytuje jednotnou správu všech hostitelů a virtuálních strojů v datacentru z jediného ovládacího panelu se souhrnným monitoringem výkonu clusterů, hostitelů a virtuálních strojů. VMware vCenter Server dává administrátorům hluboký vhled do stavu a nastavení cluste rů, hostitelů, virtuálních strojů, úložiště, hostovaného operačního systému a dalších kritických prvků virtuální infrastruktury – vše z jednoho místa. VMware vCenter Server usnadňuje správu virtualizovaných prostředí – jediný administrátor může spravovat 100 i více systémů, čímž se více než zdvojnásobuje typická produktivita při správě fyzické infrastruktury. Aplikace VMware Center Server je dostupný ve dvou edicích: Standard a Foundation. Kromě toho je VMware vCenter Server také součástí balíčku vSphere Essentials pro nasazení v malých podnicích. [4]
Obrázek 4: VMware vCenter [6] Hardware
Požadavky
Procesor
Intel nebo AMD x64 s dvěma nebo více logickými jádry. Každé z jader musí mít alespoň 2GHz. Procesor Intel Itanium (IA64) není podporován. Požadavky mohou být větší, pokud databáze běží na stejném počítači.
RAM
12GB RAM. Pokud běží vCenter Server databáze na stejném zařízení jako vCenter Server, můžou být požadavky na RAM větší. vCenter se skládá z několika služeb napsaných v Javě: vCenter Single Sign-On, vSphere Web Client, vCenter Inventory Service a vCenter Server – proto je doporučováno takovéto množství RAM.
Disk
40-60GB. Požadované volné místo závisí na zvolené velikosti inventáře. Je doporučeno poskytovat více místa pro jeho budoucí rozšíření. Pokud běží vCenter Server databáze na stejném zařízení jako vCenter Server, můžou být požadavky na volné místo větší.
Síť
1Gbps
Tabulka 2: vSphere vCenter 5.5 - Hardwarové požadavky (doporučené) [6] prosinec 2013
6/25
3 Přepínač Cisco Nexus 1000v Dále zkráceně „Nexus“. Jedná se o čistě softwarové řešení, kterým nahrazujeme původní virtuální distribuovaný přepínač uvnitř zvolené platformy. Přepínač se stará o propojování virtuálních hostů mezi sebou a dále mezi fyzickým rozhraním. U tohoto přepínače můžeme využít většinu standardních vlastností jako je Spanning Tree, Netflow, MAC address filtering a další. Topologie Nexusu se skládá ze dvou hlavních částí: VSM a VEM: •
VEM - Virtual Ethernet Module – poskytuje vlastní síťové služby pro každého virtuálního hosta – slouží tedy jako virtuální přepínač instalovaný na každý požadovaný server
•
VSM - Virtual Supervisor Module – řídí všechny připojené moduly VEM. Samotná konfigurace virtuální struktury se provádí přes VSM a je automaticky distribuována všem VEM.
Obrázek 5: Ukázka možné architektury s využitím Nexus 1000V
prosinec 2013
7/25
4 Instalace virtualizační platformy vSphere 5.5 4.1 Testovací topologie RS1 (L3 switch)
eth1
Trunk
.1
.3
Trunk
Trunk
.2
.4
Trunk
ESX1
ESX2
.15
eth0 (VLAN 100): 192.168.0.3/24 (esx2) 192.168.0.10/24 (nexus secondary)
eth0 (VLAN 100): 192.168.0.2/24 (esx1) 192.168.0.10/24 (nexus primary)
VLAN: 50 (VlanA) 192.168.50.4
eth1
PC
VLAN 50 (VlanA): 192.168.50.1/24 VLAN 100 (Management): 192.168.0.1/24
Obrázek 6: Vzorová topologie
4.1.1 Použité zařízení 3x PC DELL Optiplex ○ 12 GB RAM ○ 2x síťová karta ■ Realtek PCIe GBE (integrovaná): eth1 ■ Broadcom NetXtreme Gigabit Ethernet (externí): eth0 ● přepínač Cisco Catalyst 3560 ●
4.1.2 IP adresy Vzorová topologie využívá celkem 4 VLANy. Tři z nich jsou potřeba pro práci distribuovaného přepínače Nexus 1000v → VLAN 100 (Management), VLAN 110 (Control) a VLAN 120 (Packet). VLAN
IP adresa sítě
100 (Management) 192.168.0.0/24
IP adresa výchozí brány na přepínači 192.168.0.1/24
110 (Control)
192.168.110.0/24 192.168.110.1/24
120 (Packet)
192.168.120.0/24 192.168.120.1/24
50 (VlanA)
192.168.50.0/24
192.168.50.1/24
Tabulka 3: VLANy a jejich IP adresy
prosinec 2013
8/25
Nexus 1000v je v této verzi nainstalován duplicitně (tj. s redundancí) s tím, že pokud primární instalace na ESX1 selže, je její práce převzata sekundární instalací na ESX2. Nexus 1000v lze instalovat i v režimu standalone nebo lze obě instalace umístit pouze na jednom počítači, ale to není doporučováno, neboť je re dundance ztracena. VLANy 100, 110, 120 jsou užívány pro komunikaci mezi těmito dvěma instalacemi. Gateway (na přepínači)
192.168.0.1
ESX1
192.168.0.2
ESX2
192.168.0.3
vCenter
192.168.0.4
Nexus 1000v
192.168.0.10
Tabulka 4: Důležité IP adresy (Management VLAN)
Zbylý VLAN 50 (VlanA) je pro testovací provozu mezi virtuálním PC a fyzickou sítí. Výchozí brány pro všechny VLANy jsou nakonfigurovány na přepínači RS1 (viz. Tabulka č.3).
4.2 Konfigurace fyzického spojovacího L3 přepínače Jako spojovací přepínač mezi ESX1 a ESX2 používáme Cisco Catalyst 3560 s 24 ethernetovými porty. První si vytvoříme VLANy (dle Tabulky č.3) pomocí: vlan
name interface vlan ip address 255.255.255.0
Povolíme na přepínači směrování: ip routing Nastavíme spojení mezi ESX hosty. Porty 1-12 nastavíme jako Trunk, ať lze přenášet všechny VLANy: Interface range FastEthernet0/1-12 switchport trunk encapsulation dot1q switchport mode trunk spanning-tree portfast trunk
Porty 13-24 nastavíme jako přístupové pro jednotlivé VLANy. Portu 13-14 přiřadíme VLAN 100 (pro počítače, skrz které topologii konfigurujeme) a portu 15-16 přiřadíme VLAN 50 (pro test komunikace s VM). interface FastEthernet switchport access vlan switchport mode access spanning-tree portfast
prosinec 2013
9/25
4.3 Instalace hypervisoru vSphere ESXi Hypervisora vSphere ESXi budeme instalovat na 2 počítače, které jsou v testovací topologii označeny jako ESX1 a ESX2. Tyto počítače jsou mezi sebou propojeny skrze fyzický L3 přepínač. Pro instalaci je potřeba mít alespoň 8GB RAM (doporučeno 12GB) a vyhrazený prázdný disk pro instalaci (vyhrazení oddílu na stávajícím disku nestačí).
Obrázek 7: vSphere ESXi po instalaci (vzorový obrázek) Na obou ESX nastavíme statické IP adresy a výchozí bránu dle tabulky č.3 a č.4. Jako Management VLAN nastavíme číslo naší VLAN pro správu – 100.
4.4 Instalace VMware vCenter Server Appliance VMware vCenter Server Appliance je instalace vCenter Serveru, která běží přímo jako virtuální počítač na jednom z ESX datacentra. Pro instalaci budeme potřebovat pouze instalační balík (OVF image) z webové stránky WMware a aplika ci vSphere Client, kterou lze stáhnout ze stejného webu. Po přihlášení se touto aplikací na ESX1 zvolíme File → Deploy OVF. Zvolíme stáhnutý obraz OVF, nakonfigurujeme všechny potřebné parametry (úložiště, heslo, IP adresu 192.168.0.4, DNS, výchozí bránu atd.) a po dokončení instalace počkáme, než VM nastartuje. Detailnější nastavení se provádí v prohlížeči na stránce http://192.168.0.4 (IP adresa vCenter Serveru). Detailnější konfiguraci vCenter Serveru provedeme na webové stránce http://192.168.0.4. V našem případě pouze na této stránce pouze spustíme Utilities → Setup wizard s výchozími hodnotami. vCenter Server je po tomto kroku již připraven k chodu. Nyní se přihlásíme pomocí vSphere Clientu přímo na vCenter Server (192.168.0.4). Zde si vytvoříme nové Datacentrum (popř. Cluster), do kterého přidáme naše ESX hosty ESX1 a ESX2. Následující obrázek ukazuje strukturu Datacentra na konci této práce (tj. v tomto okamžiku ještě neuvidíme položky nexus1000v-X a UbuntuDesktop13.10_x64_X).
Obrázek 8: Struktura Datacentra ve VMware vCenter prosinec 2013
10/25
V posledním kroku této části je ještě třeba na obou ESXi nakonfigurovat VLANy, které budeme používat pro budoucí komunikaci mezi primární a sekundární instalací Nexus 1000v tj. VLANy 100, 110, 120 (viz. Obrázek č.9). Nesmíme zapomenout přesunout VM vCenter do Management VLAN 100.
Obrázek 9: Konfigurace VLANů na ESX1
4.5 Instalace Cisco Nexus 1000v S Nexusem 1000v je poskytován vlastní instalátor, který lze spustit na jakémkoliv počítači připojeném do Management VLANu (100). Jako instalační metodu zvolíme Custom installation a vyplníme informace vyžadované pro běh distribuovaného přepínače. V této naší testovací topologii platí tyto parametry: Host 1 (Primary VSM): esx1 Host 2 (Secondary VSM): esx2 Switch name: nexus1000v OVA Image name: Layer Connectivity: L3 VSM IP address: 192.168.0.10 Subnet Mask: 255.255.255.0 Gateway IP Address: 192.168.0.1 Domain ID: 100 <XX> Port Group: Choose Existing → zvolíme námi předem vytvořené VLANy Management VLAN: 100 Migrate Hosts to DVS: No
Obrázek 10: Instalace Cisco Nexus 1000v prosinec 2013
11/25
Dále je třeba na jednotlivých ESXi hostech nainstalovat tzv. VEM (Virtual Ethernet Module), což jsou moduly běžící na ESXi, které nahrazují standardní vSwitch přepínače. Verzi VEM, kterou potřebujeme nainstalovat jednoduše zjistíme tím, že v prohlížeči zadáme adresu http://192.168.0.10 tj. adresu nainstalovaného Nexus 1000v. Zde bude uvedena verze VEM potřebná pro verzi instalovaného ESXi včetně hypertextového odkazu na její offline umístění na počítači ESX1. Adresu tohoto odkazu si zkopírujeme, otevřeme si SSH konzoli s připojením na ESX1 (příp. ESX2) a provedeme v ní následující příkazy (do kterých dosadíme námi zkopírovaný odkaz). cd /tmp wget http://esx1/cisco/cisco-vem-v152-4.2.1.2.2.1a.0-3.2.1.zip esxcli software vib install -d /tmp/cisco-vem-v152-4.2.1.2.2.1a.0-3.2.1.zip
Kontrolu, že se VEM nainstaloval správně můžeme provést přes SSH konzoli na ESXi tímto příkazem. ~ # vem status VEM modules are loaded Switch Name Num Ports Used Ports vSwitch0 1536 8 DVS Name Num Ports Used Ports nexus1000v 1024 13 VEM Agent (vemdpa) is running
Configured Ports 128 Configured Ports 1024
MTU 1500 MTU 1500
Uplinks vmnic0 Uplinks vmnic1
4.5.1 Konfigurace Konfigurace Nexus 1000v se provádí stejně jako na jiných Cisco přepínačích přes příkazovou řádku. K Nexus 1000v se připojíme přes SSH pomocí libovolné konzolové aplikace. Nejdříve si na přepínači stejně jako na RS1 nakonfigurujeme používané VLANy. Poté je nutno nastavit tzv. port-profile pro jednotlivé VLANy. První nastavíme port-profile pro Uplink, což je Trunk spoj, který jednotlivé VLANy přivádí ze síťové karty k distribuovanému přepínači a zpět. port-profile type ethernet Uplink vmware port-group switchport mode trunk switchport trunk allowed vlan all channel-group auto mode on mac-pinning no shutdown system vlan 1,50,100 state enabled Následovně nakonfigurujeme port-profile pro Management (100) a pro každý VLAN vedoucí k jednotlivým virtuálním PC. U nás se bude jednat o VLAN 50. Jména volím ve formátu Network_JmenoVLAN. port-profile type vethernet Network_ vmware port-group switchport mode access switchport access vlan description " vlan" vmware max-ports 32 no shutdown system vlan state enabled
prosinec 2013
12/25
Takto vytvořené profily si můžeme prohlédnout na přepínači příkazem show port-profile nebo přímo pomocí vCenter Clienta. Výsledná struktura by měla vypadat přibližně tak, jako na následujícím obrázku.
Obrázek 11: Nexus 1000v Port Groups Nyní stačí jen na testovacích virtuálních PC přenastavit aktuální VLAN na Network_VlanA.
4.6 Instalace testovacích VM Instalace testovacích virtuálních PC je ve vCenter jednoduchá záležitost. Je třeba přihlásit se pomocí vSphere Clienta ke vCenter Serveru a v námi vytvořenému datacentru zvolit Add host. Při volbě hardware nesmíme zapomenout u CD mechaniky nastavit instalační obraz instalovaného OS (u nás Ubuntu Desktop 13.10) a u volby síťové karty nastavit testovací VLAN 50 (Network_VlanA). Po instalaci se nastaví IP adresy z IP rozsahu VLAN 50 tj. 192.168.50.2 pro ESX1 a 192.168.50.3 pro ESX2. Jelikož netestujeme jen komunikaci mezi VM, ale i s počítači na fyzické síti, připravili jsme v topologii i fyzický počítač připojený ke spojovacímu přepínači RS1 (viz. Obrázek 6). Tento PC je také připojen do VLAN 50 s IP adresou 192.168.50.4. Komunikaci mezi virtuálními PC a fyzickým PC otestujeme pomocí příkazu ping (viz. Obrázek 12).
Obrázek 12: Ověření funkčnosti (z VM UbuntuDesktop13.10_x64_A na ESX1)
prosinec 2013
13/25
4.7 Protokoly 4.7.1 CDP Cisco Discovery Protocol (CDP) je Cisco proprietární L2 protokol, který nahrazuje protokol LLDP. Je používán síťovými zařízeními pro propagaci jejich identity na síti. Tento protokol na přepínači Nexus 1000v bezproblémově funguje stejně jako na jakémkoliv fyzickém Cisco přepínači. Příkazem show cdp neighbors můžeme vypsat zařízení připojená k přepínači. Níže je uveden výpis tohoto příkazu na fyzickém spojovacím přepínači RS1. RS1# show cdp neighbors Capability Codes: R - Router, T - Trans Bridge, B - Source Route Bridge S - Switch, H - Host, I - IGMP, r - Repeater, P - Phone, D - Remote, C - CVTA, M - Two-port Mac Relay Device ID Local Intrfce nexus1000v(4119800511385721057) Fas 0/3 nexus1000v(4119800511385721057) Fas 0/3
Holdtme
Capability
Platform
Port ID
137
S I C
Nexus1000 control0
137
S I C
Nexus1000 mgmt0
4.7.2 LLDP Link Layer Discovery Protocol (LLDP) určený standardem 802.1ab je na výrobci nezávislý L2 protokol nacházející se v tzv. Internet Protocol Suite (TCP/IP), používaný síťovými zařízeními pro propagaci jejich identit. Tento protokol bohužel dle webu výrobce Nexus 1000v v testované verzi nepodporuje [7]. Místo něj používá protokol Ciscu proprietární – tzv. CDP protokol (Cisco Discovery Protocol).
4.7.3 LACP Link Aggregation Control Protocol (LACP) je protokol pro dynamické vyjednávání agregace linek (EtherChannel). Tento protokol není dostupný v základní free licenci Essentials, která je použita ve výchozím stavu. Je proto nutné zakoupit placenou licenci Advanced. Nyní stačí na přepínači přepnout na tuto edici a aktivovat tento protokol. svs switch edition advanced feature lacp
Po aktivaci protokolu provádíme konfiguraci stejně jako na jakémkoliv zařízení Cisco Nexus. LACP pro tokol umožňuje zkonfigurovat až 16 rozhraní přepínače do jednoho tzv. port channelu. Maximálně 8 z nich může být v aktivním režimu (aktivní vyjednávání agregace) a zbylých 8 režimu standby (redundance). Port channely mohou být ve třech režimech – aktivní (aktivně vyjednává agregaci), pasivní (sám nevyjednává, ale jiný aktivní s ním vyjednávat může) a režim on (LACP vypnuto; výchozí režim). Režimy se u jednotlivých port-profile nastavují následujícím příkazem. channel-group auto[mode {on | active |passive}] mac-pinning
V aktivním režimu Nexus 1000v bez problému spolupracuje s testovaným fyzickým přepínačem Catalyst 3560. Více informací lze nalézt v [8].
prosinec 2013
14/25
5 Alternativní platformy 5.1 Virtualizace pod systémy Microsoft Společnost Cisco oficiálně podporuje běh produktu Nexus1000V ve virtualizačním prostředí Microsoft Hyper-V. Instalaci Hyper-V technologie můžeme rozdělit do dvou variant: • Hyper-V Server – samostatný produkt zaměřující se na virtualizaci. Velkou výhodou je, že tato varianta je poskytována zdarma. • Serverové edici Windows – zde Hyper-V doinstalujeme jako roli. Bavíme-li se o verzi Windows Server 2012, je součástí pouze edice Standard a Datacenter.
5.1.1 Hyper-V Je virtualizační server využívající nativního dispečera, který funguje v podobě mikrojádra – obsahuje tedy jen nejnutnější funkce a neobsahuje ovladače zařízení. Hyper-V oficiálně podporuje běh těchto hostů: Windows pracovní stanice: Windows XP x32/x64, Windows Vista, Windows 7 Windows servery: Windows 2000 Server, Windows Server 2003, Windows Server 2008, Windows Home Server 2011, Windows Small Business Server 2011 Linux: SUSE Linux Enterprise Server 10 SP3 nebo verzi 11, Red Hat Enterprise Linux 5.2-6.1, CentOS 5.2-6.2 Unix: FreeBSD 9 Samozřejmě se podaří zprovoznit i jiné, než výše vyjmenované, systémy. Toto je pouze seznam aktuálně oficiálně podporovaných.
Obrázek 13: Architektura Hyper-V prosinec 2013
15/25
5.2 Požadavky na HW •
•
•
Procesor ◦ Architektura x86-64 ◦ Podpora Intel VT ne AMD-V Paměť ◦ Minimálně 1GB v případě Hyper-V Serveru ◦ Minimálně 2GB v případě Windows Serveru Disk ◦ Minimální velikost 32 GB
5.2.1.1 Zvolená HW a SW konfigurace • • • • •
Byly využity dva stolní počítače Cisco učebny, viz výše Jako systém pro hypervisora byl zvolen Windows Server 2012 R2 Datacenter x64 Jako systém pro doménový řadič zvolen Windows Server 2008 R2 a to z důvodu vyčerpání školní li cence Windows Server 2012 na předešlý stroj Microsoft System Center Virtual Machine Manager 2012 Instalace Nexusu 1000V pro Hyper-V verze 5.2(1)SM1(5.1)
5.2.1.2 Instalace hostitele Naše testovací architektura bude obsahovat (mimo jiné) dva počítače. Jeden bude využit jako primární doménový řadič a druhý zastávat roli hypervisora. Jelikož instalace Nexusu vyžaduje instalaci Microsoft System Center Virtual Machine Manageru [9], dále zkráceně SCVMM, budeme jej instalovat ve zkušebním prostředí na stejný stroj, jako roli Hyper-V. Další požadavek ze strany Nexusu i SCVMM je zařazení do Active Directory ([10]). Proto využijeme druhý fyzický stroj, který propojíme s původním přes přepínač. Začneme tedy s instalací doménového řadiče. Nainstalujeme server 2008 standardním způsobem a po dokončení přidáme roli Active Directory Domain Service. Nesmíme zapomenout spustit program „dcpromo“ a dokončit instalaci domény. V našem prostředí jsme vytvořili doménu „cisco.local“. Po restartování se přihlásíme jako administrátor domény, vytvoříme další účet (CISCO\hyperv) a přiřadíme mu práva doménového administrátora. Nyní můžeme nainstalovat druhý stroj. Standardním způsobem nainstalujeme Windows Server 2012. Po instalaci jej přiřadíme do domény a nainstalujeme roli Hyper-V.
5.2.1.3 Microsoft System Center Virtual Machine Manager Microsoft System Center je skupina nástrojů zaměřujících se na usnadnění správy IT infrastruktur od malých po rozsáhlé. Nástroje slouží především ke vzdálenému správcování různých serverových služeb z centrálního místa. MSVMM se zaměřuje na práci s Hyper-V servery a jejich virtuálními hosty. Umožňuje vytváření a kompletní správu hostů, migrace, vytváření šablon, obrazů, clusterů a v neposlední řadě i správu síťování a tvorbu virtuálních síťových prostředků. Možnosti jsou bohaté.
5.3 Instalace MSCVMM V případě, že nemáme nainstalovanou Microsoft SQL databázi, nainstalovaný balík „Deployment Tools“ a nebo „Windows Preinstallation Environment“, stáhneme si ze stránek Microsoftu balíček „Assessment and Deployment Kit“ ([11]). Nainstalujeme chybějící položky (bude nám stačit Microsoft SQL Express). Dále musíme ověřit, že se můžeme připojit na Microsoft SQL a máme práva vytvářet databáze. V případě nově nainstalované Microsoft SQL Express z našeho balíčku musíme nejdříve povolit připojení na tuto databázi. Otevřeme SQL Server Configuration Manager, zvolíme naši instanci serveru, kde ve výběru najdeme položku Protocol for ADK. Uvidíme různé protokoly a my zvolíme TCP/IP a povolíme jej. Dále ve vlastnostech tohoto protokolu nastavíme TCP port, na kterém bude SQL Server naslouchat. Zvolíme například 1433. prosinec 2013
16/25
Nyní si stáhneme instalační obraz SCVMM 2012 a spustíme instalaci. Vybereme možnost serverové instalace. Dostaneme se do bodu konfigurace databáze. Zadáme parametry a můžeme nechat vytvořit novou databázi. V dalším kroku nastavíme účet služby. Zadáme náš účet z domény. Dále v průvodci nalezneme konfiguraci portů. Nezapomeneme si poznačit především port pro komunikaci s konzolou VMM. Základní je 8100. Dále necháme vytvořit novou knihovnu pro naše budoucí zdroje a instalaci dokončíme.
5.3.1.1 Konfigurace MSCVMM, příprava na instalaci směrovače Nexus Nejdříve se vyzkoušíme pomocí konzole připojit na náš MSCVMM server a přidáme hostitele Hyper-V. To provedeme v pohledu „Virtuální počítače a služby“. Dále registrujeme do MSCVMM server knihoven. To provedeme v pohledu „Knihovna“ a vybereme položku „Přidat server knihovny“. Vybereme tedy náš stroj s aktuální instalací VMM serveru. A dále přidáme sdílenou složku knihovny. Nyní přejdeme k přípravě instalace hosta pro Nexus. Po stažení instalačního balíku Nexus1000V začneme přípravou VEM. Instalátor VEM ovšem neinstalujeme na náš fyzický stroj. Pouze jej zkopírujeme do skryté složky „C:\ProgramData\Switch Extension Drivers“. Jako další krok nainstalujeme „Poskytovatele konfigurace“ (VSEMProvider). Ověříme, že se nainstaloval správně do VMM a to v pohledu „Nastavení“ → „Poskytovatelé konfigurace“. Ve složce VMM najdeme i VSM_Template, kterou pomocí skriptu uvnitř registrujeme do MSCVMM. Je možné, že nastane chyba v oprávnění spuštění neověřeného skriptu. Proto musíme nastavit politiku ExecutionPolicy na Unrestricted. Kdyby se i přes to skript nerozjel, můžeme zdroje importovat do VMM ručně: V pohledu VMM „Knihovna“ vybereme „Importovat fyzické prostředky“ a zvolíme disk ze složky Nexusu VMM\VSM_Template\Nexus1000V-VSM. Dále importujeme v pohledu „Knihovna“ šablonu, která se nachází ve stejné složce jako zvolený disk. To je vše ohledně ručního importu. Nyní v pohledu VMM „Knihovna“ vybereme „Importovat fyzické prostředky“ a zvolíme instalační disk Nexusu 1000V. Můžeme začít vytvářet VSM hosta. Před provedením operace chci upozornit, že hosta nepůjde přidat, jsme-li přihlášeni pod stejným účtem na stroji i v administraci služby VMM. Nemusíte se ovšem odhlašovat, stačí po dokončení průvodce restartovat úlohu pod jiným účtem. V aktuálním pohledu vybereme hostitele a v prvním kroku průvodce zvolíme naši šablonu (Nexus1000V-VSM-Template). Nezapomeňme v konfiguraci hardware přiřadit dostatek síťových adaptérů a dále v položce zařízení IDE připojit ISO obraz Nexus1000V. Po dokončení průvodce můžeme spustit hosta a připojit se na něj.
5.4 Instalace směrovače Cisco Nexus 1000V Po spuštění hosta nám naběhl GRUB instalátoru Nexus. V GRUBu zvolíme první položku (bring up the new image) a potvrdíme naformátování disku. Vytvoříme heslo, zvolíme domain id a potvrdíme, že chceme vstoupit do basic configuration dialogu. Zamítneme vytvoření dalšího účtu, zvolíme jméno přepínače, povolíme konfiguraci rozhraní mgmt0 a provedeme nastavení adres. Dále zamítneme pokročilou konfiguraci a uložíme. Vše máme nainstalované. Můžeme odpojit obraz disku a nastavit bootování z pevného disku. Následuje tvorba „port-profile“: 1. Vstoupíme do konfigurace směrovače 2. Vytvoříme logickou síť nsm logical network 3. Vytvoříme segment pool nsm network segment pool 4. Přiřadíme jej do vytvořené sítě member-of logical-network <SÍŤ> 5. Vytvoříme šablonu IP pool nsm ip pool template prosinec 2013
17/25
6. Vložíme rozsah adres 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21.
ip address <počáteční IP> network <maska> <maska> Vytvoříme síťový segment nsm network segment A spojíme se segment poolem member-of network segment pool <SEGMENT POOL> Importujeme šablonu IP pool ip pool import template <pool IP> Přiřadíme VLAN switchport access vlan <ČÍSLO> Zveřejníme segment pool publish network segment Vytvoříme virtuální port-profile port-profile type vethernet Zapneme no shutdown Zveřejníme publish port-profile Vytvoříme zásady port-profile type ethernet eth-pp-policy Zapneme no shutdown Vytvoříme Uplink (viz vmware) nsm network uplink Spojíme se segment poolem allow network segment pool <SEGMENT POOL> Importujeme port-profile import port-profile eth-pp-policy Zveřejníme publish network uplink Uložíme startovací konfiguraci copy running-config startup-config
5.4.1.1 Napojení virtuálního přepínače na virtuální hosty Nejprve přidáme náš Nexus 1000V do správce rozšíření virtuálních přepínačů Hyper-V. To uděláme na kartě „Topologie Fabric“, kde budeme přidávat prostředek „Správce rozšíření virtuálních přepínačů“. Zde bude podstatné vložit připojovací řetězec - jedná se o adresu HTTP serveru běžící na našem Nexusu. Následuje vytvoření samotného logického přepínače. V průvodci vybereme rozšíření, které jsme vložili v minulém kroku (tedy náš VSM) a dále specifikujeme Uplink – i v případě jediného uplinku zde volíme týmový mód. Na konec nastavíme náš port-profile a dokončíme průvodce. Nyní je na čase vytvořit virtuální síť a hosty. Na kartě „virtuální počítače a služby“ můžeme nejdříve vy tvořit virtuální síť a pak hosty, kde na každého nainstalujeme operační systém. Můžeme připojit náš hostující počítač na virtuální přepínač Nexus 1000V. Zvolíme kartu „Topologie Fabric“ a ve stromové struktuře „Servery“ vybereme požadovaného hostitele a zobrazíme vlastnosti. Na záložce „Virtuální přepínače“ zvolíme tvorbu nového přepínače a přiřadíme Nexus 1000V. Posledním krokem je konfigurace sítě u jednotlivých hostů. Začneme nastavením „Hardwarové konfigurace“ a pokračujeme nastavením jednotlivých OS u každého z virtuálních hostů. Na závěr vyzkoušíme, stejným způsobem, jakým jsme testovali VMware, zda vše funguje,. V naší konfiguraci je vše v pořádku a hosté spolupracují s fyzickou sítí.
Obrázek 14: Příkaz „show cdp neighbors“ - spojení fyzické a virtuální infrastruktury
prosinec 2013
18/25
5.4.1.2 Hodnocení Nexus 1000V na Hyper-V je oficiálně podporován a otestovali jsme, že funguje bez problémů. Způsob in stalace a požadavky přepínače ukazují, že se počítá s nasazením spíše na větší infrastrukturu, ale vyzkoušeli jsme, že není problém jej použít i pro strukturu menší a pro výuku. Po zaplacení licence Windows Serveru 2012 je již samotný Hyper-V poskytován zdarma. Velkou výhodou je, že existuje i samostatný produkt Hyper-V Server a i ten je zdarma – toho by se dalo využít při budování architektury pro výukové účely. Jediný problém vidím v MSCVMM. Je pravděpodobné, že zde nepůjde udělat alternativa. Výhodou je, že licence vyprší až za 180 dní po nainstalování. Další výhodu vidím, že po první instalaci můžeme správu virtuálních hostů přenechat i na integrovaném řešení zahrnutém v Hyper-V. Co se týče druhého serveru (Active Directory): ve škole existuje doména, takže by teoreticky bylo možné se domluvit s IT správou a vyzkoušet se napojit na školní síť. Z naší struktury by se tak mohl vyřadit druhý fyzický stroj a tím i potřebná licence. Další variantu bych viděl v použití Linuxové Samby. Myslím, že jako doménový řadič by mohlo řešení na Sambě bohatě vystačit. DC se dá také postavit na virtuální stroj a nemusí být pro něj vyhrazen samostatný fyzický. Tuto platformou tedy doporučujeme jako alternativní k VMware.
prosinec 2013
19/25
5.5 Virtualizace pod Linuxovými systémy V rámci TPS projektu byly testovány dva Linuxové virtualizační systémy: KVM a Xen. Nad nimi pak běh virtuálního přepínače Nexus 1000V. Hned v úvodu bych chtěl zmínit, že v době testování ještě společnost Cisco nevydala instalační soubory Nexusu pro KVM ani Xen a proto bylo v rámci testování zkoušenou zprovoznit přepínač z instalací pro VMware a Hyper-V.
5.5.1 KVM (Kernel-based Virtual Machine) Je virtualizační systém na úrovni Linuxového jádra umožňující využít dva přístupy k hardware – emulace HW (využívá projekt Qemu) a paravirtualizace.
5.5.1.1 Požadavky na HW • •
CPU podpora technologie Intel VT nebo AMD-V. Další požadavky jsou závislé na konkrétní vybrané distribuci.
5.5.1.2 Zvolená HW a SW konfigurace • • •
Byl využit stolní počítač Cisco učebny, viz výše Jako systém domény0 byl zvolen Linux Debian Wheezy, stable vydání Instalace Nexusu 1000V byla zkoušena jak z balíku pro VMware, tak Hyper-V
5.5.1.3 Instalace hostitele Nejdříve je zapotřebí nainstalovat základní systém, který bude spravovat dispečera, obsluhovat jádro a hosty. K instalaci nepotřebujeme žádnou speciální distribuci - stačí zvolit základní Linuxovou distribuci a doinstalovat potřebné balíčky, či si celý projekt zkompilovat. Při instalaci je velmi vhodné a doporučené využít ke správě disků technologii LVM - umožní nám v bu doucnu snáze manipulovat s rozdělením disků pro hosty. V rámci testovacího prostředí byl vytvořen pouze jeden svazek (VG) a z něj logická jednotka (LV) pro základní OS. Logické jednotky pro jednotlivé virtuální hosty budeme vytvářet později, proto si na svazku nechejme dostatek místa i pro tyto pozdější logické jednotky. Všechny ostatní kroky proveďme standardně, jako bychom instalovali Linuxový server. V naší instalaci tedy nebylo zvoleno žádné grafické rozhraní.
5.5.1.4 Instalace KVM Před instalací samotného KVM je doporučené vytvořit most pro síťová spojení mezi fyzickým rozhraním a hosty. 1. Nainstalujeme program ke správě mostů: aptitude install bridge-utils 2. Vytvoříme rozhraní pro most: brctl addbr br0 3. Přemostíme fyzický interface: brctl addif br0 eth0 4. Do konfigurace „/etc/network/interfaces“ můžeme vložit statickou adresu: auto eth0 iface eth0 inet manual # rozhranní nastavíme na ruční spouštění auto br0 iface br0 inet static bridge_ports eth0 # ROZHRANNÍ, KTERÁ CHCEME PŘIŘADIT
... zbytek konfigurace (adresa, maska, brána) 5. Nainstalujeme KVM a nástroje pro správu hostů: aptitude install qemu-kvm libvirt-bin virtinst
prosinec 2013
20/25
5.5.1.5 Vytváříme hosta K vytvoření hosta nám poslouží program „virt-install“ a ke správě domén využijeme „virsh“. Již při instalaci můžeme načíst ISO obraz disku, ze kterého chceme provést instalaci Nexusu 1000V. 1. Na vhodné místo zkopírujeme ISO obraz instalátoru Nexusu 1000V. 2. Vytvořme disk pro hosta: lvcreate -l xxG -n NazevLV PouzitaVG # za xx dosaďme velikost disku
3. Pomocí příkazu registrujeme a spustíme doménuU – vše se děje příkazem „virt-install“, do kterého můžeme napsat spousty argumentů, které nám nakonfigurují virtuální stroj. V použité literatuře naleznete výborný přehled možných argumentů a příklady [13]. Příklad vytvoření může být následující: virt-install --name Nexus --hvm --cpuset 1 --ram 4096 --disk path=/dev/vg/lv --network=bridge:br0 --vnc --cdrom /home/user/Nexus.iso
4. Nyní se můžeme napojit na hosta pomocí VNC klienta. Port, na který se připojujeme jsme mohli zvolit v minulém kroku. V případě, že jste tak neučinili bude VNC server naslouchat na portu 59xx, kde za xx dosadíme číslo spuštěné domény od nuly. První spuštěná doména bude mít tedy číslo 5900, druhá 5901, atd. 5. Máme-li vše dobře nakonfigurované, otevře se nám VNC konzole, kde host načítá instalaci ze zvoleného média. Doporučení Pro správu a zobrazení virtuálních hostů můžete využít program „virt-manager“. Pomocí něj můžete hosty v grafickém rozhraní vytvářet, spravovat a připojit si jejich obrazovku. Můžete dokonce měnit jednotlivá HW zařízení a provádět jejich konfiguraci.
5.5.1.6 Instalace přepínače Nexus 1000V Dle informací uvedených v [15] zatím společnost Cisco nevydala verzi přepínače Nexus 1000V pro KVM. Následující postup shrnuje provedené kroky v rámci našeho testování. K instalaci nebudeme využívat grafický instalátor. 1. V archivu Nexusu najdeme ISO obraz, který se nachází ve složce VSM/Install a necháme jej načíst. 2. Zvolíme „Install Nexus1000V and bring up the new image“. 3. Naběhne nám příkazový řádek – ovšem už nyní jde vidět, že něco není v pořádku. Systém nabíhá v režimu pro nastavení bootování „switch(boot)#“. Správně by měl systém naběhnout do průvodce instalací a zažádat o vytvoření nového hesla, dále by nás měl provést zbytkem instalace. Vyzkoušel jsem tedy několik konfigurací a změn virtuálního HW, ale vždy se dostavil stejný výsle dek. 4. Zkusíme i přes to systém nainstalovat: configure terminal 5. Naformátujeme připojený disk a nahrajeme systém: do init system 6. Na všechny otázky odpovíme „y“ a systém se nahraje na náš připojený disk, restartujeme. 7. Při nahrávání systému dochází k chybě. Systém zamrzne při pokusu o načtení – viz obrázek.
prosinec 2013
21/25
Obrázek 15: Nexus 1000v na KVM Vyzkoušel jsem změnit virtuální HW, ale chyba stále přetrvává. I po dlouhé časové rezervě (více než půl hodiny) se nepodaří dostat dále.
5.5.1.7 Hodnocení Jelikož instalační obraz Nexusu 1000V ještě není pro tuto platformu vydán, bylo testování provedeno z obrazů pro jiné platformy. Bylo vyzkoušeno několik konfigurací virtuálního HW, několik postupů, ale i přes to jsme se dostali nejdále k nainstalování systému, ale ten při načítání pokaždé zamrznul. Na internetu jsme hledali různé návody, jak Nexus 1000V zprovoznit, ale naprostá většina materiálů byla pouze pro VMware a pro Hyper-V. Výsledek testu neznamená, že pod touto platformou nejde v žádném případě Nexus 1000V aktuálně zprovoznit. Je možné, že konfigurace může fungovat například na jiném fyzickém HW, ale nepodařilo se nám narazit na žádný zdroj, který by toto potvrdil. Existují pouze materiály od společnosti Cisco, kde je demon strováno fungování na této platformě, ale to je ukazováno na interní verzi společnosti Cisco, protože in stalační obrazy ještě nejsou přístupné. Doporučuji tedy počkat na oficiální vydání instalačního obrazu pro tuto platformu.
prosinec 2013
22/25
5.5.2 Xen 5.5.2.1 Požadavky na HW Požadavky se shodují s těmi uvedenými u virtualizační platformy KVM (viz. kapitola 5.5.1.1).
5.5.2.2 Zvolená HW a SW konfigurace Konfigurace se shoduje s tou uvedenou u virtualizační platformy KVM (viz. kapitola 5.5.1.2).
5.5.2.3 Instalace hostitele Instalace hostitele se provádí stejně jako u virtualizační platformy KVM (viz. kapitola 5.5.1.3).
5.5.2.4 Instalace Xen Před instalací Xenu taktéž vytvoříme most, jako u KVM. Kroky instalace 1-4 tedy použijeme stejné. 5. Nainstalujeme podporu pro Xen (programy ke správě jsou instalovány též): aptitude install xen-linux-system-amd64
6. Restartujeme systém a nyní v zavaděči musíme vybrat správné jádro!
5.5.2.5 Vytváříme hosta Ke správě Xenu můžeme využít jeden z více možných nástrojů, tzv. „toolstack“. Nástroj, který chceme využít se registruje v soubor „/etc/default/xen“. Nám postačí základní nástroj „xm“ a nemusíme tedy soubor upravovat. 1. Zkopírujeme obraz Nexusu 1000V na přístupné místo v hostitelském systému. 2. Vytvoříme disk pro hosta (viz. KVM). 3. Vytvoříme konfigurační soubor, který budou obsahovat všechny potřebné parametry hostovaného systému. Soubor uložíme například do /etc/xen/Nexus.cfg Obsah souboru může vypadat například takto: name = 'nexus' kernel = "/usr/lib/xen-4.1/boot/hvmloader" builder = 'hvm' memory = 4096 vcpus = 1 disk = [ 'phy:/dev/vg1/nexus,sda6,w', 'file:/home/user/Nexus.iso,hdc:cdrom,r' ] boot = "d" sdl = 0 vif = [ 'mac=00:16:3e:11:22:33,bridge=br0' ] vnc = 1 vnclisten = "0.0.0.0" vncpasswd = "MojeHeslo" vncdisplay = 1 4. Spustíme hosta s určenou konfigurací: xm create /etc/xen/Nexus.cfg
5. Připojíme se na VNC displej stejným způsobem jako u KVM (krok 4)
5.5.2.6 Instalace přepínače Nexus 1000V Instalace přepínače Nexus se provádí stejně jako u virtualizační platformy KVM (viz. kapitola 5.5.1.6).
5.5.2.7 Hodnocení U Xenu nastává stejná situace jako u KVM. Společnost Cisco k této platformě také zatím nevydala instalační obraz a nebylo možné najít materiály, jak zprovoznit funkční konfiguraci oficiálním či neoficiálním způsobem. Při načítání dochází ke stejnému problému jako u KVM – načítání nainstalovaného systému zamrzne a systém se nespustí i po velmi dlouhé době. Opět doporučuji počkat, až bude Nexus 1000V vydán společností Cisco pro tuto platformu. Budoucí vydání instalačních obrazů je oficiálně potvrzeno. prosinec 2013
23/25
6 Závěr Virtualizační platforma VMware vSphere a distribuovaný přepínač Nexus 1000v jsou velmi zajímavé technologie s rozsáhlým použitím. Právě kvůli této rozsáhlosti a kvůli omezenému času k realizaci projektu je nebylo možno rozebrat přímo dopodrobna. Během realizace projektu se stávalo, že jsme se zasekli na různých problémech, s čímž příliš nepomohla relativně zbytečně komplikovaná a někdy zase nedostačující dokumentace od společností VMware a Cisco. Zpočátku jsme měli problém s nedostačujícím hardware v učebně, dále následoval problém s konfigurací vCenter Serveru, který jsme vyřešili instalací vCenter Server Appliance tj. vCenter Server virtualizovaný přímo na ESXi. Další se týkaly především přepínače Nexus 1000V – nastaly během instalace, během konfigurace (problém s instalací VEM) i během migrace virtuálních PC na tento přepínač. Jednalo se většinou o problémy, které nebyly ojedinělé a byly řešeny v různých internetových diskuzích. Nakonec se nám ale všechny podařilo úspěšně překonat (na oficiálně podporovaných platformách) a provést požadované testy. Z testů jsme zjistili, že Nexus 1000V bez problému dokáže komunikovat s fyzickou sítí, že bez problému podporuje jak protokol CDP tak i LACP. Zjistili jsme, že nepodporuje protokol LLDP, jehož funkčnost nahrazuje proprietární protokol CDP. Co se týče alternativ k platformě vSphere, pokoušeli jsme se Nexus 1000V zprovoznit nad každou z ostatních platforem uvedených na webu Cisca. Jako adekvátní náhradu za VMware jsme úspěšně zprovoznili Hyper-V od Microsoftu. Tato platforma je na rozdíl od KVM a Xen již oficiálně dostupná a podporovaná. Testu jsme podrobili i zmíněné Linuxové platformy, a to z různých instalátorů a s různou konfigurací virtu álních strojů, ale vždy se vyskytla neřešitelná chyba, takže nebylo možné v aktuálním testu pokračovat. Nej dále jsme se dostali do bodu, kdy byl přepínač Nexus 1000V nainstalován z ISO obrazu na disk a snažil se nastartovat. Vždy se ale načítání v určitém bodě zastavilo a i po dlouhé časové rezervě načítání nepokračovalo dále. Postupem času by se ale kompatibilita Nexusu 1000V s Linuxovými platformami měla vyřešit, jelikož Cisco plánuje oficiální verze přepínače právě pro tyto dvě platformy. Po té doporučujeme testování těchto platforem provést znova. Bez pochybu je jak vSpehere (a Hyper-V) tak i Nexus 1000V velmi univerzální produkt, jenž nám značně přibližuje oblast virtualizace a přináší některé možnosti známé z fyzického světa do světa virtuálního. Správ ci sítí hlavně ocení možnost virtualizace datacenter a detailnější správu virtuální sítě.
prosinec 2013
24/25
7 Použitá literatura [1] VMWARE, Inc. VMware Virtualization for Desktop & Server, Application, Public & Hybrid Clouds [online]. 2013 [cit. 2013-12-15]. Dostupné z: http://www.vmware.com [2] VMware vSphere | OldanyGroup [online]. 2013 [cit. 2013-12-15]. Dostupné z: http://www.oldanygroup.cz/vmware-vsphere-127 [3] VMware vSphere Hypervisor ESXi | OldanyGroup [online]. 2013 [cit. 2013-12-15]. Dostupné z: http://www.oldanygroup.cz/vmware-vsphere-hypervisor-esxi-114 [4] VMware vCenter Server | OldanyGroup [online]. 2013 [cit. 2013-12-15]. Dostupné z: http://www.oldanygroup.cz/vmware-vcenter-server-138 [5] Server Virtualization & Cloud Infrastructure: VMware vSphere. VMWARE, Inc. VMware Virtualization for Desktop & Server, Application, Public & Hybrid Clouds [online]. 2013 [cit. 2013-1215]. Dostupné z: http://www.vmware.com/products/vsphere/ [6] VSphere Installation and Setup: vSphere 5.5. [online]. 2013, s. 276 [cit. 2013-12-15]. Dostupné z: http://pubs.vmware.com/vsphere-55/topic/com.vmware.ICbase/PDF/vsphere-esxi-vcenter-server55-installation-setup-guide.pdf [7] Cisco Nexus 1000V Series Switches for VMware vSphere. [online]. 2013, s. 22 [cit. 2013-12-15]. Dostupné z: http://www.cisco.com/c/en/us/products/collateral/switches/nexus-7000-series-switches/data_sheet_c78-492971.pdf [8] Cisco Nexus 1000V Interface Configuration Guide: Configuring Port Channels. [online]. 2013 [cit. 2013-12-15]. Dostupné z: http://www.cisco.com/en/US/docs/switches/datacenter/nexus1000/sw/ 4_2_1_s_v_1_4/interface/configuration/guide/n1000v_if_5portchannel.html#wp1270509 [9] Nexus 1000v Quickstart with Hyper-V Server Configuration Example. [online]. 2013 [cit. 201312-15]. Dostupné z: http://www.cisco.com/en/US/products/ps13056/products_configuration_ example09186a0080c175b2.shtml#anc1 [10] MICROSOFT CORPORATION. VMM Management Server: System Requirements [online]. 2013 [cit. 2013-12-15]. Dostupné z: http://technet.microsoft.com/en-us/library/gg610562.aspx [11] Download Windows Assessment and Deployment Kit (ADK): Windows® 8 from Official Microsoft Download Center. MICROSOFT CORPORATION. Microsoft US | Devices and Services [online]. 2013 [cit. 2013-12-15]. Dostupné z: http://www.microsoft.com/en-us/download/details.aspx?id=30652 [12] Cisco Nexus 1000V for Microsoft Hyper-V Installation Guide. [online]. 2013 [cit. 2013-12-15]. Dostupné z: www.cisco.com/en/US/docs/switches/datacenter/nexus1000/hyperv/sw/5_2_1_s_m_ 1_5_1/install_upgrade/vsm_vem/guide/n1000v_gsg.pdf [13] Creating CentOS 6 Hosted KVM Virtual Machines with virt-install and virsh. [online]. [cit. 201312-15]. Dostupné z: http://www.techotopia.com/index.php/Creating_CentOS_6_Hosted_KVM _ Virtual_Machines_with_virt-install_and_virsh [14] Installing KVM Guests With virt-install On Ubuntu 12.04 LTS Server. [online]. 2012 [cit. 201312-15]. Dostupné z: http://www.howtoforge.com/installing-kvm-guests-with-virt-install-on-ubuntu-12.04-lts-server [15] Install Nexus 1000v on KVM?. In: CISCO SYSTEMS, Inc. Cisco Support Community [online]. 2013. vyd. [cit. 2013-12-15]. Dostupné z: https://supportforums.cisco.com/thread/2247068 [16] Xen. [online]. 2013 [cit. 2013-12-15]. Dostupné z: https://wiki.debian.org/Xen [17] Xen On Debian Wheezy With LVM. [online]. 2012 [cit. 2013-12-15]. Dostupné z: http://www.howtoforge.com/xen-on-debian-wheezy-with-lvm
prosinec 2013
25/25