Mai előadóink
Szekeres Viktor Gloster telekom
Lovas Balázs Arrow ECS
Új vizeken
Virtualizált szerver megoldások a Cisco-tól
Szekeres Viktor Gloster telekom Kft. +36/20/222-5702
Kérdés?
Körülbelül hány db szerver működik a földön ?
~35 000 000 szerver Gartner
Kérdés?
Mennyi egy szerver gép átlagos kihasználtsága??
egy szerver átlagos kihasználtsága Gartner
Növekvő igények
Egyre kevesebb forrás….
Mi nyomasztja a rendszergazdát?
Komplexebb feladatok
Kevesebb pénzből
Milyen megoldásra van szükség?
Korszerű
Költséghatékony
Kik vagyunk és mit csinálunk? IP telefóniás és hálózati megoldásokra specializálódott Szekeres Viktor
10 éve a piacon
Küldetésünk…
Professzionálissá alakítani ügyfeleink kommunikációs rendszerét
Kikel dolgozunk?
Cisco learning partner of the year
UC Partner of the year
IT képzések – előadói felkészítés
Itt találkozhattak velünk…
Miről lesz ma szó? Data Center trendek, újdonságok A Cisco szerver kínálatából
Fiber Chanel Over Ethernet
Szavazás
Virtualizáció: ki hol tart jelenleg?
Data Center trendek
1990-es évek szervertermei 2000-res évek szervertermei Napjainkban… Többmagos processzorok SAN hálózatok kialakulása
1990-es években…
• Monolit szerverek • Extra magas ár • Nagy kapacitás • Saját OP rendszer
2000-es években…
• Klaszterezési • 1 alkalmazás / lehetőség szerver •X86 standard • magas energia és Half duplex működés miatt platform hűtési igény
Napjainkban…
Blade szerverek: Multi-core CPUs X86 platform Egységesített operating system Virtualizáció
Management, skálázhatóság?
Többmagos processzorok App OS
Single Single-Core Core CPU CPU
• Egymagos processzor.
App
App
App
OS
Core Core Core Core Core
• Virtualizáció nélkül a több mag kihasználatlan
App
App
OS
OS
Core Core App OS
App Core Core
• Több mag, több virtuális gép = jobb kihasználtság
OS
SAN hálózatok kialakulása Today LAN
SAN A
SAN B
• Fiber Channel a szerver és storage között • Bonyolultabb management • Adatvesztés nélkül (HA) Ethernet
Fibre Channel
Cisco szerver kínálatából
Választható megoldások Unified Computing C series CICM server management Fiber Channel Over Ethernet
Választható megoldások
Cisco Unified Computing B series • max. 8 balde / ház • max. 512 GB memória • 2-4 processzor / blade
Cisco Unified Computing C series • max. 4 U magas • max. 4 processzor • 12 TB belső HDD
Unified Computing C series C200 C210
C250
2 processzor, 192 GB memória, 8xHDD 2x 10/100/100 NIC, 10 GB SAN 2 processzor, 192 GB memória, 16xHDD 2x 10/100/100 NIC, 10 GB SAN
2 processzor, 384 GB memória, 8xHDD 4x 10/100/100 NIC, 10 GB SAN
C260 2 processzor, 1 Tb memória, 16xHDD 2x 10/100/100 NIC, 2x10 GB SAN
CIMC - Server Management
Power management Fw upgrade Network settings
Fiber Chanel Over Ethernet
FCoE Traffic 10-GB Ethernet Link Other Networking Traffic
Fiber Channel Over Ethernet topológia Today LAN
SAN A
I/O Consolidation with FCoE SAN B
LAN
Ethernet
SAN A
Fibre Channel
SAN B
Fiber Channel Over Ethernet
Konvergált hálózat a szerver szempontjából
Fiber Channel Over Ethernet 10-Gbps Ethernet Veszetség nélküli Ethernet: Jumbo Ethernet keretek
FCoE Traffic 10-GB Ethernet Link Other Networking Traffic
Normal Ethernet frame, ethertype = FCoE (0x8906)
Control information: version, ordered sets (SOF, EOF)
FCS
EOF
Fibre Channel Payload (max 2112 bytes)
CRC
FC Header
FCoE Header
Ethernet Header
Same as a physical Fibre Channel frame
Nexus széria…
Ethernet és FCoE ugyan azon a fizikai swith-en
UCS kábelezés Átalagosan 40%-al kevesebb kábelezés szükséges mint korábban.
Maximum 8x 10GE kábel / szekrény
Például…
CUCM 8.5
UCCX 8.5
Hangrögzítő
VMvare ESXi 4.1
Összefoglalás
Korszerű
Költséghatékony
Összefoglalás • Virtulalizáció segítségével sokat javíthatunk szervereink átlag 15%-os kihasználtságán Core
Core
Core
Core
• 1 szerver / 1 alkalmazás helyett 1 szerver több virtuális gép, több magos procik FCoE Traffic
10-GB Ethernet Link
Other Networking Traffic
• FCOE használatával jelentős hálózatj költségek takaríthatóak meg
Hasznos források Cisco Blade severs http://www.cisco.com/en/US/products/ps10280/index.html Cisco C servers http://www.cisco.com/en/US/products/ps10493/index.html Fiber Channel Over Ethernet http://en.wikipedia.org/wiki/Fibre_Channel_over_Ethernet Vmware ESXi 4.1 http://www.vmware.com/support/vsphere4/doc/vsp_esxi41_vc41_rel_notes.h tml Cisco Unified Call Manager http://www.cisco.com/en/US/products/sw/voicesw/ps556/index.html
JÖN! JÖN! JÖN! Tombol a nyár
Kipróbált és bevált távmunka megoldások Témáinkból:
• Távolról de biztonságosan: VPN Előadó: Szekeres Viktor Gloster telekom Kft Regisztráció: https://gloster.we bex.com/gloster/ onstage/g.php?t= a&d=846365962
megoldások • A céges Wifi otthon is meg: hogy is van ez? • Romaming nélkül telefonálok külföldről, de hogyan? 2011 júnus 9. (csütörtök) 10:00
Köszönöm a figyelmet!
További információk: Gloster telekom Kft. +36/1/456-8010 +36/20/222-5702 www.gloser.hu www.alkozpont.net
VMware vSphere - Rövid áttekintés
Lovas Balázs VMware oktató
Agenda • VMware rövid története • VMware vSphere alapfunkciók • Kompetitív összehasonlítás
Arrow ECS Intro • Valamikori neve DNS Hungária • Számos kereskedelmi ITtermék hazai disztribútora • Oracle – Symantec – RSA – Netapp - VMware • Hivatalos VMware oktatóközpont
Presentation Title
3
VMware - számokban
Presentation Title
VMware - by the numbers Magyarországon • 25+ Enterprise Partner viszonteladó • 300+ vállalati ügyfél
VMware vSphere funkciók
Presentation Title
A vSphere 4.1 legfőbb üzenete Core Message
Egyszerűbb és olcsóbb üzemeltetés- A virtualizációs piac legmagasabb
konszolidációs arányával a vSphere a lehető legkevesebb fizikai eszköz felhasználásával képes a legtöbb virtuális gép kiszolgálására.
Hatékonyabb működés- vSphere-t használva ugyanazon a fizikai vason a
hardver ára az akár 8-10-szeresre nőtt kihasználtsági hatékonyság miatt jóval gyorsabban megtérül.
Megbízhatóság – a vSphere az üzelfolytonossági funkciók optimális
kombinációját tartalmazza, ezáltal akár a 99.999%-os rendelkezésre állás is biztosítható bármilyan operációs rendszer és alkalmazás számára
A választás szabadsága - vSphere egyedülálló módon, több mint 80
operációs rendszert támogat, illetve szinte az összes megvásárolható hardveren képes működni, akár a legmodernebb processzorokat is ideértve.
VMware előtt All require same power All emit same heat All require physical space Setup, (re-)configuration Maintenance, support…
VMware után Flexibility Rapid provisioning High Availability Disaster Recovery Automation Systems Management integration Adaptive Datacenter
The New Datacenter File/PrintVPN Exchange
Exchange
File/Print
Operating System
Operating System
Operating System Operating System Operating System Operating System
Virtual Infrastructure
CPU Pool Memory Pool
VPN
CRM
Operating System
Operating System
CRM
Storage Pool
Interconnect Pool
Referencia: EPAM Systems •Multinacionális cég, szoftverfejlesztési outsourcing szolgáltatásokat nyújt a világ minden pontján
• VMware konszolidáció • • • •
130 helyett csak 13 szerver Bérköltség csökkenés: ~ 1 M HUF / hó Áramfogyasztás csökkenés: 1.2 M HUF / hó (2007-es árakon) Terület: 3 szerverszoba helyett 1 db rack
• És akkor még nem is beszéltünk olyan dolgokról, mint: – Biztonságtechnika (beléptető rendszerek, tűz és víz) – UPS, Karbantartás, Audit •
Új projekthez infrastruktúra kialakítás ideje: 27 perc • Teljes háttér infrával (db, web, app, client)
ESX: The Only Production Proven Hypervisor
Large financial services customer: 1255 days continuous uptime and counting
Single VM Performance: Well-Known Database OLTP Workload† Next Generation Intel® Xeon® based 8-pCPU server RHEL 5.1 Oracle 11gR1
< 15% overhead for 8 vCPU VM Transaction Rate (Ratio to 1-way VM)
In-house ESX Server
8,900 total DB transactions per second Near-perfect scalability from 1 to 8 vCPUs 60,000 I/O operations/second
A fair-use implementation of the TPC-C workload; results are not TPC-C compliant †
;)
= Sun Fire 15k (ca. 2002)
vSphere 4.1 Delivers “Cloud Scale” 320 VMs / ESXi 3,000 VMs / cluster 500 hosts / vCenter 10,000 VMs / vCenter 99% of VMware’s 170K Customers Can Run Their Entire Datacenter in a Single VMware Cluster.
Központi felügyelet: VMware vCenter 4 • Virtuális
gépek szupergyors létrehozása sablonokból
• Rendszerfelügyelet,
teljesítmény monitorozás
• Enterprise
szintű funkciók biztosítása
• AD
integrált hozzáférésszabályozás
• A VI
környezet leállás nélküli patch menedzsmentje
Transparent Memory Page Sharing • VMkernel detects identical pages in VMs’ memory and maps them to the same underlying physical page • No changes to guest OS required • VMkernel treats the shared pages as copy-on-write • Read-only when shared •178x512Mb=89Gb Private copies after write • Page sharing is always active administratively disabled 1:4unless overcommitment rate
vMotion • Online migration of virtual machines • Zero downtime maintenance
VMware DRS - Capacity on Demand
APP
OS
APP
OS
APP
OS
APP
OS
VMware vSphere™
APP
OS
APP
OS
• A HW erőforrások felhasználásának dinamikus kezelése • Optimális terhelés kialakítása
Zero Downtime Maintenance with VMware DRS Dynamically move Virtual Machines to alternative host servers
Resource Pool
Maintenance Enter Perform Complete Maintenance Mode
No application outage
No user impact
No server configuration changes
Eliminate planned downtime!
Green IT – VMware DPM
APP
APP
APP
APP
APP
APP
APP
APP
APP
OS
OS
OS
OS
OS
OS
OS
OS
OS
VMware vSphere™
DPM DPMbrings powers off servers back server when online when requirements load increases are lower
DPM consolidates workloads onto fewer servers when the cluster needs fewer resources Places unneeded servers in standby mode Brings servers back online as workload needs increase ESX supports Intel Speed Step/AMD Power now for individual host power optimization Minimizes power consumption while guaranteeing service levels No disruption or downtime to virtual machines
Additional 20% Reduction in Power Costs with DPM…
Assumptions: 50 out of 100 servers can be powered down for 8 hrs/day on weekdays and 16 hrs/day on weekends. Total power consumption per server ( operating power + cooling power) = 1130.625 watts/hr Cost of energy = $ 0.0813 per kWH (source: Energy Information Administration)
Storage Abstraction with VMFS APP OS
APP OS
Hot Virtual Disk Extend
APP OS
Expand virtual disks online
ESX
Extend 8G of virtual disk Add new virtual disk
Virtual Disks
Datastore
LUN
20GB
20GB
Extend 10G of virtual disk No change to datastore VMFS Volume Grow
to grow the datastore VMFS Volume Grow to grow the datastore
40GB
100GB
Respond quickly to growing requirements without downtime
VMFS Volume Grow Expand VMFS Volume on the same LUN it was created Facilitate adding more virtual machines to an existing volume Facilitate data growth for the virtual machines Increase flexibility to simplify capacity planning
Thin Provisioning APP OS
APP OS
APP OS
ESX
Thick 20GB
Virtual Disks
Thin 40GB
Thin 100GB
20GB 20GB 40GB
100GB
Datastore
Virtual machine disks consume only the amount of physical space in use Virtual machine sees full logical disk size at all times Full reporting and alerting on allocation and consumption
Significantly improve storage utilization Eliminate need to overprovision virtual disks
60GB 20GB
Reduce storage costs by up to 50%
Storage vMotion – Supports NFS, Fibre Channel, and iSCSI – Supports moving VMDKs from thick to thin formats – Can migrate RDMs to RDMs and RDMs to VMDKs (non-passthrough) – Leverages new vSphere 4 features to speed migration
vNetwork Distributed Switch Aggregated datacenter level virtual networking APP
APP
APP
APP
APP
APP
APP
APP
APP
OS
OS
OS
OS
OS
OS
OS
OS
OS
vSwitch
vSwitch CiscoDistributed Nexus 1000V vNetwork Switch VMware vSphere™
vSwitch
Simplified setup and change
Easy troubleshooting, monitoring and debugging Enables transparent third party management of virtual environments
Host Profiles Host Profile – – – – – – – – –
2
Memory Reservation Storage Networking Date and Time Firewall Security Services Users and User Groups Security
4 3
5 1
Cluster
Reference Host 27
Performance monitoring
Thumbnail Views
Performance overview charts help to quickly identify bottlenecks and isolate root causes of issues.
VMware HA Magas Rendelkezésreállás - Minden VM esetében HA node-ok egymást figyelik VM-ekben futó OS figyelése
Testreszabható újraindítási sorrend
VMware Fault Tolerance Single identical VMs running in lockstep on separate hosts
APP
APP
APP
OS
OS
OS
Zero downtime, zero data loss failover for all virtual machines in case of hardware failures No complex clustering or specialized hardware required
VMware vSphere™
Single common mechanism for all applications and OSs
29
VMware Data Recovery
•VMware’s Backup/Recovery Solution based on APIs for Data Protection – Agentless disk-based backup and recovery – De-duplication and incremental backups to save disk space
31
Memory Compression Description
Benefits
A new hierarchy for VMware’s memory overcommit technology (a VMware key differentiator)
• Optimized use of memory • Safeguard for using memory overcommit feature with confidence • Performance
OS
1,000x faster than swap-in! Hypervisor
vShield Zones
Capabilities Bridge, firewall, or isolate VM zones based on familiar VI containers Monitor allowed and disallowed activity by application-based protocols One-click flow-to-firewall blocks precise network traffic Benefits Well-defined security posture within virtual environment Monitoring and assured policies, even through Vmotion and VM lifecycle events Simple zone-based rules reduces policy errors
Update Manager
Central automated, actionable VI patch compliance management solution Define, track, and enforce software update compliance for ESX hosts/clusters, 3rd party ESX extensions, Virtual Appliances, VMTools/VM Hardware, online*/offline VMs, templates Patch notification and recall Cluster level pre-remediation check analysis and report Framework to support 3rd party IHV/ISV updates, customizations: mass install, /update of EMC’s PowerPath module Enhanced compatibility with DPM for cluster level patch operations Performance and scalability enhancements to match vCenter
Disaster recovery: SRM Production Data Center
Recover to any hardware Recovery Site or • No need for identical duplicate DR Hosting Site hardware •
Can waterfall hardware to recovery site
Eliminate idle hardware •
•
Run other workloads on standby hardware Easily and quickly repurpose hardware
Easily copy system and data to recovery site •
• •
Backup and restore for full images Host-based replication Array-based replication
Competitive Comparison vSphere 4.1 U1 vs Microsoft Windows Server 2008 R2 SP1 Citrix XenServer 5.6 FP1
March 1, 2011
Hypervisor Architecture’s Impact on Scalability
VMware ESXi 4.0 70 MB
Size does matter! Apart from impact to performance it also has impact on security!
Windows Server 2008 R2 RC Server CoreXenServer with Hyper-V Citrix v5
3.6 GB GB 1.8
Hyper-V Server 2008 R2 RC is even bigger at…
4.4 GB
Most Comprehensive OS Support VMware vSphere™ Windows NT 4.0 Windows 2000 Windows Server 2003 Windows Server 2008 Windows Vista Windows XP RHEL5 RHEL4 RHEL3 RHEL2.1 SLES10 SLES9
SLES8 Ubuntu 7.04 Solaris 10 for x86 NetWare 6.5 NetWare 6.0 NetWare 6.1 Debian CentOS FreeBSD Asianux SCO OpenServer SCO Unixware …
MS Hyper-V Win Server 2008 (up to 4P vSMP) Win Server 2003 SP2 (up to 2P vSMP) Win Server 2000 SP4 (1P only) SLES10 (1P only) Windows Vista SP1 Windows XP Pro SP2/SP3
vSphere = 4x Guest OS-es + 8vCPU for any OS
VMware vSphere Delivers: Efficiency thru Utilization & Automation
vSphere 4.1
Hardware Scale Out CPU Efficiency Memory Efficiency Virtual Hardware (VM) Scale Out Hot-add/remove Virtual Resources Power Efficiency Storage Usage Efficiency Network Management Efficiency Automated Patching Efficiency
XenServer 5.6 FP1
Hyper-V R2 SP1
64 logical cores 1 TB RAM
~
64 logical cores 512 GB RAM
Supports HW-assist Virt-specific scheduler
x
Requires HW-assist Reuse gen-OS schdler
x
Req. HW-assist for Win Reuse gen-OS schdler
Ballooning Transparent page sharing Memory compression
~
Ballooning only
~
Very static ballooning, no sharing
8-way vCPU 255 GB vRAM
x
4-way vCPU only on limited number of OSs 64 GB vRAM
~
8-way vCPU 32 GB vRAM
Add: vCPU, vMem Add: virtual disk, vNIC
x
No hot-add CPU Add: virtual disk, vMem
x
No hot-add CPU, vMem Add: virtual disk, vNIC
DPM: Cluster-level power management
x
No cluster-level power mgmt
~
Lack of affinity rules minimizes its usefulness
Thin provisioning Storage Management
x
Thin disks are not recommended. No storage monitoring tools
~
Thin disk with only select SAN vendors
Distributed switch 3rd party virtual switch
x
None
~
vSwitch req separate mgmt and CLI; single point of failure
Transparent host patch Auto guest patching
~
In-depth setup required in Config Mgr
x
Host patching, but no auto guest patching
160 logical cores 1 TB RAM
VMware vSphere Delivers: Agility With Control Hyper-V R2 SP1
vSphere 4.1
XenServer 5.6 FP1
VMware vMotion with Maintenance Mode
(up to 8 VMs at a time per host )
~
Only one VM at a time per host
~
Only one VM at a time per host
VMware Enhanced Storage vMotion
x
Quick Storage Migrate has downtime
x
Nothing comparable
Control of Server Resources Allocation
VMware DRS Logical Resource Pool
x
No logical pools
~
WLB is complex; separate mgmt req’d; No logical pools
Control of I/O Resource Allocation for guaranteed quality of service
VMware Network I/O and Storage I/O control
x
PRO lacks quality of service guarantee
~
WLB is complex; separate mgmt req’d
VMware Fault Tolerance
x
No VM-level protection
x
Requires 3rd-party
Integrated NIC teaming with dynamic load balancing
x
Relies on network vendor to provide
~
NIC teaming but no load balancing
Control for Server Maintenance Control for Storage Maintenance
Fault Tolerance for VMs Control during NIC Failure Control during Host or VM Failure Better Security than Physical Thin Hypervisor to Reduce Attack Surface
VMware HA Up to 32 nodes
~
Only for host failure Up to 16 nodes
~
Only for host failure Up to 16 nodes
VMware VMsafe API 3rd party support
x
Nothing comparable
x
Nothing comparable
VMware ESXi 70-100MB disk footprint
x
Hyper-V w/ Server Core >3GB disk footprint
x
XenServer 1.8GB disk footprint
VMware vSphere Delivers: Freedom of Choice vSphere 4.1
Choice thru Guest OS Support Choice thru Hardware Support Enhanced VMotion Compatibility Choice thru Application Support Integrating with Existing Mgmt Tools Choice in “Cloud” Service Provider
Interoperability between Internal & External Cloud Choice in Using Existing Apps in the Cloud
XenServer 5.6 FP1
Over 70 OSs supported, More Windows than MS
x
14 OSs supported, Windows biased
x
24 OSs supported
Large HCL: >850 HBAs,
~
Uses Windows drivers Potential driver issues
x
Limited HCL: ~100 storage, ~100 NICs, ~200 Servers
~
Downgrade processor functionality to Pentium 4
Only available in paid versions
Leader category (according to analysts)
Leader category (according to analysts)
~
Next-tier category (according to analysts)
Hundreds of integrations to vCenter API via SDK
~
Can integrate, but SC competes w/ existing
~
Citrix Essentials API not widely adopted
vCloud program for service providers
x
Building a MS-only offering, lock-in
x
vCloud ensures interoperability
x
Apps in MS cloud don’t come back out
x
Run existing apps w/o rewriting code
x
Existing apps don’t move easily to MS cloud
x
>400 NICs,>1600 Servers vMotion across generations of CPU of same family
Hyper-V R2 SP1
Citrix OpenCloud lacks clarity & enterprise support Citrix OpenCloud lacks clarity & enterprise support Citrix OpenCloud lacks clarity & enterprise support
Összegzés
Elérhetőségeink • Termékek és tanfolyamok
www.arrowecs.hu
VMware - VMware partner-ek, sales, licensing:
[email protected] - technical sales, training:
[email protected]
VMware tanfolyam akció – A június 6-10 és június 20-25 között induló VMware vSphere: Automation Fast Track alapozó kurzusainkra csak a Webex hallgatói részére most 25%-os kedvezményt adunk a listaárból! (360.000.- helyett 280.000.- ft) Jelentkezés: www.arrowecs.hu A jelentkezés során hivatkozzon a WEBEX jelszóra.
Kérdések? Köszönöm a figyelmet!