Vychází 19. března 2009, ročník XV, cena ČR: 79 Kč, SR: 4,32 €
3 2010
CLOUD COMPUTING VEŘEJNÝ, PRIVÁTNÍ, NEBO HYBRIDNÍ CLOUD?
KERIO CONNECT POVEDENÝ MAIL SERVER
POUHÉ VIRTUÁLNÍ BEZPEČÍ RIZIKA VIRTUALIZACE
STRUKTUROVANÁ KABELÁŽ KRITICKÉ HODNOCENÍ TRHU
POSTUPNÁ EVOLUCE PROGRAMOVÁNÍ KAM MÍŘÍ VÝVOJOVÉ PLATFORMY?
Úvahy o chytřejší planetě. Kapitola 7.
Planeta a její chytřejší města Ve městech žilo v roce 1900 pouze 13 % světové populace. V roce 2050 už to bude 70 %. Na povrchu Země každý rok „přibude“ sedm měst velkých jako New York. Tato bezprecedentní urbanizace je sice projevem našeho hospodářského a společenského pokroku, obzvláště v rozvojových zemích, ale zároveň výrazně zatěžuje infrastrukturu planety. Výzvu k řešení situace naléhavě pociťují především starostové, ekonomové, správci škol, policisté a další představitelé občanských institucí. A jsou to opravdu náročné výzvy. Týkají se vzdělávání mládeže, zachování bezpečnosti a zdraví občanů, investičních pobídek, usnadnění podnikání, ale též hladkého pohybu letadel, vlaků, automobilů a chodců. Navíc je umocňuje hospodářský pokles. Naštěstí je pomoc nablízku: stačí zajistit, aby města fungovala chytřeji. Inteligentní systémy snižují dopravní zácpy a stupeň znečištění životního prostředí v Singapuru, Brisbane a Stockholmu. Ve velkých městech, jako je například New York, policisté nejenže řeší zločiny a nouzové situace, ale dokonce jsou schopni jim zabránit. Radní v Albuquerque zvýšili efektivitu sdílení informací mezi jednotlivými orgány města o 2 000 %. Zajistili tak informovanost občanů a zlepšili systém komunálních služeb – od výstavby obytných a komerčních objektů přes vodu až po bezpečnost veřejnosti. Itálie, Malta a Texas používají inteligentní měřiče a přístroje k tomu, aby byly elektrické rozvodné sítě v jejich městech stabilnější, efektivnější a připraveny pro koordinaci s obnovitelnými zdroji energie a elektrickými vozidly. Výsledky výše popsaných, ale i dalších řešení můžeme
zaznamenat již dnes. Jsou prvním krokem ke skutečně chytrému městu. Město Plzeň využívá nejmodernějších informačních technologií ke zlepšení efektivity interních procesů městského úřadu a 170 000 občanům města umožní jednodušší přístup k informacím a veřejným službám. Právě informační technologie mohou napomoci rozvoji chytrých městských systémů i infrastruktury a přispět s relativně nízkými náklady ke zkvalitnění života všech jeho obyvatel. Zajímá vás, jak může chytré město vypadat? Seznamte se s Masdarem: Vzniká „na zelené louce“ ve Spojených arabských emirátech, nedaleko Abú Dhabi. Plánovači spolupracují se špičkovými vědci, inženýry a inovátory na vytvoření propojených systémů, které budou řízeny pomocí integrovaného ovládacího panelu. Masdarští radní chtějí město průběžně zdokonalovat a vytvořit tak sídlo hospodářsky a ekologicky trvale udržitelné (první na světě!) s nulovými uhlíkovými emisemi. Masdarských poznatků o technice i řízení koordinace města může využít celá planeta. Kdyby někdo pozoroval Zemi z vesmíru před dvěma staletími, spatřil by světlo pouze na dvou místech – z aglomerací s počtem obyvatel převyšujícím jeden milion. Tehdy to byl jen Londýn a Peking. Dnes je takových zářících měst na 450. Jsou zároveň motorem „éry měst“ v hospodářství, státní správě, kultuře i technice. Naše budoucnost závisí na tom, zda budou i nadále chytře fungovat – a především chytře růst. Budujme chytřejší planetu, budujme chytřejší města. Přidejte se k nám na www.ibm.com/planeta/cz/city
IBM, logo IBM a ibm.com jsou ochranné známky nebo registrované ochranné známky společnosti International Business Machines Corporation v USA a dalších zemích. Aktuální seznam ochranných známek IBM k dispozici na internetu na www.ibm.com/legal/copytrade.shtml, v sekci „Copyright and trademark information“.
CONNECT_210x297_CITIES.indd 1
27.1.2010 15:56:37
15:56:37
úvodník
Už jste dnes zálohovali? V minulém vydání jste si mohli přečíst recenzi R-Studia, což je nástroj na záchranu poškozených dat. Právě tu jsem inicioval vzhledem k tomu, že jsem po letech udělal opět zkušenost s vlastními sklony k hazardu. Do jednoho NAS serveru jsem vložil disk i s daty, byť jsem si nebyl jist, zda bude či nebude naformátován. Bohužel byl, a to dříve, než jsem tomu dokázal zabránit. Tak nějak jsem čekal, že budu důrazněji varován. Ale měl jsem to, o co jsem si říkal. Na disku nebylo nic mimořádně důležitého, byť něco bych býval přece jen rád zachránil. Vyzkoušel jsem proto několik nástrojů, které měly v popisu práce obnovení ztracených dat na disku. A zmiňované R-Studio dopadlo nejlépe a vše, co jsem chtěl, jsem zachránil.
Chyba obsluhy a softwaru se dá napravit většinou snadno. Horší je to s hardwarem. Shodou okolností se mi v průběhu jednoho týdne ozvali dva známí, že mají problém s harddiskem a jestli jim mohu pomoci. Jenže poškozená elektronika nebo mechanická závada disku není nic, co by se dalo řešit doma. Od toho jsou tu specializované firmy, které velmi dobře vědí, jak cenná jsou data, a tomu odpovídají i ceny servisních prací. Obecně se buďto opravuje nebo nahrazuje poškozená elektronika disku, nebo se pracuje s datovými plotnami. Ty se v bezprašném prostředí vyjmou z nefunkčního disku a vloží se do funkčního, na kterém se potom přečtou a zazálohují. V jednom zmiňovaném případě již záchrana proběhla. Postižený známý otočil
napájení 2,5˝ disku. Většinou je to nemožné učinit, ale s levnou čínskou redukcí a trochou síly se to může podařit. Tipoval jsem to na spálenou elektroniku, nicméně se utrhly i čtecí hlavy. Záchrana dat z tohoto disku vyšla na 8 tisíc korun. Ideální je, pokud máte doma dva stejné pevné disky. Díky tomu lze případnou záchranu usnadnit. I když toto činí asi málokdo, a když už, tak disky použije v RAIDu. Doslechl jsem se ale i o takových hardcore nadšencích, kteří se do přesunu ploten do jiného (stejného) disku pustili sami doma, prý ideálně v koupelně, kde je nejméně prachu… Takže, kdy jste naposledy zálohovali svá data?
Lukáš Honek, šéfredaktor
[email protected]
inzerce ▼
Zvýhodněné
předplatné Connect!u
S předplatným získáte 10× časopis Connect! až do schránky, členství v Klubu předplatitelů s přístupem do elektronického archivu časopisu Connect!
Chcete ještě víc ušetřit? Zvolte elektronické předplatné! Connect! v elektronické podobě PDF za 299 Kč
S předplatným získáte 10× časopis Connect! v PDF, členství v Klubu předplatitelů s přístupem do elektronického archivu časopisu Connect!
Jak předplatné objednat a využít akce? Telefonicky: zavolejte na naši bezplatnou telefonní linku 800 11 55 88 E-mailem: pošlete e-mail s vybranou variantou a kontaktními údaji na adresu
[email protected] Nabídka platí pouze pro ČR, pro nové i obnovující předplatitele, od 19. 3. 2010 do 15. 4. 2010.
na 1 rok za pouhých
444 Kč běžná cena p ředplatn na stánku 79 ého 680 Kč 0 Kč
obsah 6 Aktuality
14 SaaS je tu pro uživatele, pro byznys
přijde Online systémy a aplikace dneška
8 Cloud computing
Nákup, poskytování a využití IT se změní 17 Tržiště pro údaje v oblacích 10 Ten pravý cloud pro firmy?
Co umí Microsoft AppFabric a Dallas
Cesta k privátnímu cloudu 18 Cloud computing podle Microsoftu
TÉMA
12 Být „in“ je o strach
Windows Azure vstupuje do komerční sféry
Online aplikace a klíčová data fimy
20
Kabely včera a dnes Vývoj strukturovaných kabeláží a kritické hodnocení trhu
31 Nekompromisně a s nasazením
Recenze NAS serveru Qnap TS-459 32 Co umí zařízení Signamax
SÍTĚ A KOMUNIKACE
24
Schválen a připraven pro firmy Standard 802.11n, neboli Wireless N, je tu
26
Tukwila konečně venku Procesory Itanium opět ožívají
34 Otevřete oči, pan PON se vrací
29
Evoluce malých enterprise disků Enterprise SAS 2,5˝ disky s 10 000 ot/min
36 Internet 37 Normalizační okénko
30
Zralé víno Recenze Notebooku Lenovo G560
38
Nastupte prosím, dveře se otvírají Evoluce v IT aneb vývojové platformy
40
Připraveno na Windows 7 48 Preview nového IDE Microsoft Visual Studio 2010
Více než jen mailserver Recenze e-mailového serveru Kerio Connect
43
Život s SharePointem Funkce webu (features), SP solution, integrace aplikací
50
Zaregistrované partnerství Úvod do registru domény .cz
52
Utility pro administrátory
44
Hromadné nasazení Windows 7 RIS je mrtvý, ať žije WDS
52
Promovaní sociální inženýři Jaké techniky sociálního inženýrství známe?
Systémy McAfee Network Security Platform IDS/IPS
54
Nebezpečná virtualizace 58 Jaká rizika hrozí u serverové a VDI vizualizace
Když viry vládnou IT světu Komentáře ze světa bezpečnosti
56
Prevence narušení v roce 2010
60
Stručně z oblasti bezpečnosti
64
Servis
65
Přehled školení
SYSTÉMY
BEZPEČNOST
SERVIS
Advanced Security Router 065-1530 a L3 switch 065-7434
Co nabízí Passive Optical Network
46
Virtualizace s osobností Virtualizace desktopů s XenDesktop 4
Michal
Manažer bezpečnosti
Jakub
Správce sítě
Lepší dostupnost, spolehlivost, škálovatelnost. Lepší ve všech směrech. Upgradovat nyní? Samozřejmě. Chcete integrovanou virtualizaci, významně nižší spotřebu elektřiny a možnost transparentně přesouvat virtuální počítače bez omezení služeb a bez výpadků? Windows Server 2008 R2 to umí. Chcete jednodušší správu prostřednictvím ucelené sady nástrojů a vyšší ochranu neomezeného vzdáleného přístupu? Pořiďte si nejnovější verzi nástrojů System Center a integrované řešení zabezpečení Forefront a tohle všechno můžete mít také. To je slušný nárůst efektivity na jednu malou reklamu. Další informace, jak může upgrade serveru zvýšit efektivitu, naleznete na www.naitzalezi.cz.
aktuality Nový OpenManage od Dellu pro System Center Společnost Dell představila novou sadu komplexních nástrojů OpenManage Integration Suite pro Microsoft System Center, která umožňuje IT administrátorům efektivně spravovat výpočetní infrastrukturu založenou na serverových Windows. Nový softwarový balíček je určen jak stávajícím, tak i novým zákazníkům, a to zcela bezplatně. OpenManage Integration Suite pro Microsoft System Center je sada softwarových nástrojů, které zjednodušují běžné úkoly při správě IT infrastruktury. Zákazníci tak ocení úsporu času při fyzickém umisťování serverů a jejich následném monitoringu nebo při aktualizaci BIOS a firmwaru. Software OpenManage Integration Suite dále umí tyto a další pokročilé možnosti automatizovat ve vestavěném plánovači úloh.
Nové DDR 3 čipy od Samsungu přinesou úspory Samsung oznámil začátek masové výroby 4Gb DDR3 čipů, které vzniknou 40nm procesem. To umožní dodávat až 32 GB moduly. Spotřeba má být o 35 % nižší oproti předchozí generaci. Pracovní napětí má být 1,35-1,5 voltu. Samsung demonstroval
úspornost na následujícím příkladu: 6 Registered DIMM modulů o kapacitě 96 GB (1Gb čipy na 60nm) spotřebuje 210 W. Stejný počet modulů o stejné kapacitě s novými čipy spotřebuje údajně jen 36 W.
Revoluční zdroj energie? Z bájného Silicon Valley přichází další revoluční vynález. Tentokrát se netýká přímo počítačů, ale elektrické energie. Společnost Bloom představila nový typ palivových článků, které dokážou zemní plyn, bioplyn či jiná plynná paliva přímo přeměnit na elektrickou energii s nevídanou efektivitou. Článek využívá elektrochemické reakce, na jejímž počátku je vzduch, palivo (zemní plyn, bioplyn), teplo a voda, na konci pak kýžená elektrická energie, malé množství čistého CO2 a teplo s vodou, které se zužitkují pro opakovaný proces. Voda se během procesu rozkládá, a tak už se počítá s tím, že se v budoucnu využije uvolněného vodíku ke skladování a pozdějšímu upotřebení
například pro napájení vodíkových automobilů. Bloom své články nabízí zatím pouze formou průmyslových stanic zvaných Bloom Box. První, kdo Bloom Box vyzkoušel, byl Google. Už několik měsíců napájí jedno z jeho datacenter právě Bloom Box. Později se přidal i eBay a zákazníků přibývá. Bloom Box má výkon 100 kW, a jak už to bývá, jeho jedinou největší nevýhodou je cena – 800 000 dolarů. Výrobce však slibuje návratnost investice do tří až pěti let, protože náklady na elektrickou energii poklesnou až o 40 %.
Acronis nabízí vlastní antivirový balík Acronis a jeho produkt True Image byl až doposud synonymem pro domácí zálohování dat a „imaging“. To se ale nyní mění. Acronis totiž vstupuje do pro něj zatím nepříliš probádaných vod – vedle zálohy nabídne i firewall a antivirový program. Nový balík pro domácnost Acronis Backup and Security 2010 tak v sobě bude spojovat klasický True Image Home 2010, firewall, komplexní antivirový program včetně kontroly instantních komunikátorů (Live Messenger, Yahoo), antispamové řešení atd. Tento nejvyšší balík budou doplňovat ještě Acronis Internet Security Suite 2010 a samostatný Acronis Antivirus 2010. Samozřejmě se nabízí otázka, zdali Acronis v posledních letech tajně vyvíjel zcela nový antivirus. Pravda je ovšem taková, že v tomto případě použil již časem ověřený komplexní BitDefender, který programátoři zakomponovali do uživatelského rozhraní Acronisu.
Jaká Windows letos Microsoft přestane podporovat Letošní rok přestane Microsoft podporovat hned několik svých produktů. To v praxi znamená, že je sice budete moci i nadále používat, zapomeňte ale na bezpečnostní balíčky a další důležité aktualizace. Vedle desktopových Windows s nižšími verzemi nainstalovaných servisních balíčků definitivně končí i podpora Windows Server 2000. K ukončení podpory jednotlivých verzí Windows dojde podle tohoto harmonogramu: Podpora systému Windows Vista RTM bez aktualizace Service Pack 1 nebo Service Pack 2 bude ukončena k datu 13. dubna 2010. Podpora systému Windows XP s aktualizací Service Pack 2 skončí 13. července 2010. Nejpopulárnější
V USA je první BlackBerry, Nokia téměř neexistuje Trh ve Spojených státech amerických se velmi liší od Evropy a zbytku světa. Podle průzkumu společnosti ComScore v oblasti chytrých telefonů vede RIM se svým
6
Connect! březen 2010
operační systém současnosti sice slaví devět let existence, díky třem servisním balíčkům a množství záplat nefunguje i v roce 2010. Pokud nechcete přijít o podporu, musíte mít na Windows XP nainstalovaný SP3. Podpora systému Windows 2000 bude ukončena dne 13. července 2010. Kupodivu i tento historický systém se stále těší určité popularitě, jeho podpora ze strany Microsoftu ale definitivně končí. Podpora serverového operačního systému Windows Server 2000 skončí robněž 13. července 2010. Windows Server od Microsoftu je k dispozici ve verzi 2008 R2, ukončení podpory tedy odpovídá plánu.
BlackBerry, následuje Apple a Microsoft. Ostatní chytré platformy jsou výrazně menší a Nokia se Symbianem v první pětce úplně chybí.
V Evropské unii budou chybět IT odborníci Podle analýzy, kterou za finanční podpory Evropské komise zrealizovala německá společnost Empirica, se může rozdíl mezi poptávkou a nabídkou po IT odbornících vyvíjet pěti různými směry v závislosti na vývoji ekonomiky a inovací. I v případě pesimistické varianty předpokládající stagnaci by však podle analýzy mohlo v roce 2015 chybět více než 86 tisíc ICT odborníků. V případě optimistické varianty vycházející z možnosti rychlého růstu ekonomiky v EU
by však tento rozdíl mohl činit až 670 tisíc ICT specialistů.
Chcete používat ODF nebo OpenXML? Už brzy se uživatelům operačního systému Windows 7 začne objevovat tzv. ballot screenhttp://www.zive.cz/clanky/ vyber-prohlizecu-ve-windows-schvalenco-bude-dal/sc-3-a-150205/default. aspx?textart=1 – obrazovka, která dá na výběr jeden z 12 internetových prohlížečů. Tento krok by měl vyrovnat konkurenční prostředí a zbavit Microsoft určitého monopolního postavení. Jak nyní vyšlo najevo, podobný krok se chystá i v rámci připravovaných Office 2010, které se na trh dostanou už v červnu tohoto roku. Microsoft do RC verze Office 2010, která je k dispozici vybraným testerům, začlenil obrazovku, jež uživatelům umožní nastavit, jaký formát dokumentů chtějí v základu používat. Buď to bude Microsoftem
vyvíjený a podporovaný formát Open XML, nebo formát ODF, se kterým pracuje open-source alternativa OpenOffice.org. Podle vyjádření zástupců Microsoftu má být tento systém dalším krokem pro zlepšení interoperability. Ballot screen bude dostupný ve všech verzích nových Office, včetně OEM instalací. I když Microsoft hlásá, že jde o krok, který by měl anulovat základní rozdíly mezi Office a OpenOffice. org, mnozí zlí jazykové tvrdí, že jde pouze o prozíravý krok. Precedens v podobě ballot screenu u internetových vyhledávačů totiž dává tušit, že by případné žaloby mohly výběr formátů do Office stejně dostat. Microsoft si tak ušetří soudní výlohy a náklady spojené s výměnou produktů na trhu.
Cloud computing pro odborné aplikace
Až dosud byla cloudová řešení primárně zaměřena na běh důležitých firemních aplikací typu CRM, ERP, e-mailové či jiné databázové programy. SGI však oznámila okamžitou dostupnost služby Cyclone, která se zaměřuje na rostoucí odborné trhy v oblasti vědy a inženýringu, které spoléhají na velmi vyspělý hardware, software a síťové
vybavení pro dosažení rychlých výsledků. Cyclone bude zpočátku podporovat pět odborných oblastí a mnoho předních aplikací. Tyto oblasti zahrnují dynamiku proudění kapalin, analýzy konečných prvků, počítačovou chemii a materiály, počítačovou biologii a ontologii. Cyclone je dostupný ve dvou modelech: software jako služba (Software as a Service – SaaS) a infrastruktura jako služba (Infrastructure as a Service – IaaS). V modelu SaaS služby Cyclone mohou zákazníci významně snížit čas potřebný k dosažení výsledků prostřednictvím přístupu a plného využití předdefinovaných a precertifikovaných odborných aplikací na zakázku. V modelu IaaS si mohou zákazníci nainstalovat a provozovat jejich vlastní aplikace.
Jak si vedly počítače v Česku v roce 2009 Analytická společnost Gartner zveřejnila výsledky prodejů osobních počítačů v Česku za rok 2009. Velmi zajímavá čísla meziročního srovnání prodejů počítačů vám předkládáme formou grafu. Jistě neunikne vaší pozornosti, že na první místo se dostala společnost Acer. V celkových objemech potom průzkum zaznamenal 5% pokles prodejů počítačů. I nadále klesají prodeje desktopů na úkor notebooků – zatímco v roce 2008 se prodalo 61 % notebooků, v roce 2009 to bylo již 70 %.
Prodeje počítačů v ČR Acer
HP
Asus
Dell
Lenovo
Ostatní
100 000 200 000 300 000 400 000 500 000 rok 2008
rok 2009
Google chce budovat infrastrukturu Nejprve měl Google vyhledávač. Po několika letech získal trh s internetovou reklamou, ovládl svět webových map a nakonec vstoupil i na mobilní telefony a do světa desktopových operačních systémů. Začátkem roku představil svůj vlastní Nexus One vyrobený HTC a o pár dnů později se na webu Chromium.org objevily první nákresy uživatelského rozhraní Chromium OS pro hypotetický tablet. Co vlastně Google ještě nemá? Internetovou síť, vážně rychlou internetovou síť. Google je mocná firma. I když mají USA vlastní národní strategii budování rychlého internetu, Google se rozhodl, že začne budovat vlastní gigabitovou síť na území Spojených států. Zatím je to jen myšlenka na papíře a oficiálním blogu, v rámci pilotního projektu však chce superrychlým internetem Google skutečně propojit určité části Ameriky.
Connect! březen 2010
7
téma
Nákup, poskytování a využití IT se změní V době stoupajících nákladů, složité ekonomické situace a exploze webových dat očekávají IT odborníci další velký rozvoj cloud computingu. Cloud computing šetří provozní náklady a náklady na energii sdružováním IT prostředků a jejich elastickým škálováním podle potřeby, takže se počítačový výkon skutečně využívá a snižují se energetické nároky.
N
AUTOR
a základě údajů Info-Tech Research Group běží sice většina počítačových serverů nepřetržitě, ale jsou využívány jen na 10 až 20 % kapacity. Podle výzkumné agentury IDC změní cloud computing v následujícím desetiletí způsob nákupu, poskytování i využití informačních technologií. Firmy využívají vyspělé technologie, které cloud computing nabízí, k výměně informací po celém světě a napříč nejrůznějšími zařízeními. Mohou rychle zavádět nové aplikace a zvládat vytížení ve špičce, aniž by musely rozšiřovat stávající infrastrukturu. Díky vlastnostem cloud computingu lze předvídat události, jako je přehřívání nebo nevyvážené vytížení a následně podniknout nápravná opatření. Tyto výhody cloud computingu umožňují firmám šetřit čas i finanční prostředky a udržovat komplexní IT infrastrukturu, a zároveň se věnovat svému primárnímu podnikatelskému zaměření.
8
Jan Bělík Autor je Global Services Consultant v IBM.
Connect! březen 2010
Co je to cloud computing? Veřejné nebo externí služby cloudu, jimž se dostává největšího zájmu médií, jsou k dispozici od nezávislých poskytovatelů služeb prostřednictvím internetu. Pojem „veřejné“ ovšem neznamená, že jsou zdarma. Používání některých z nich je poměrně levné a firmy obvykle platí dodavatelům podle skutečného využívání. Platformy cloud computingu však mohou být také privátní, hybridní architektury pak integrují privátní a veřejné platformy. V úplném základu je cloud computing především nový obchodní model a nová uživatelská zkušenost. Je to pojetí sdílené infrastruktury, v němž jsou rozsáhlé zdroje počítačových systémů propojeny a společně poskytují služby IT. To vyhovuje vysokým výkonovým nárokům dynamického webu, kde jsou obrovské objemy informací zpracovávány ve zlomcích sekund. Uživatelům IT nabízí cloud computing rychlý přístup k rozličným typům informací bez ohledu na typ používaného zařízení včetně laptopů, chytrých telefonů a kapesních počítačů. Pracovníci, partneři a zákazníci požadují přístup k sofistikova-
ným aplikacím a důraz kladou zejména na jednoduchost jejich použití.
Záruky rozhodují Společnosti se zdráhají přenechat nezávislému poskytovateli příliš velkou kontrolu a chtějí záruky nepřetržité provozuschopnosti a dostupnosti služeb cloudu. Otázky zabezpečení a řízení, jež v těchto souvislostech vyvstávají, jsou obvykle řešeny dohodami o úrovni služby (SLA) s poskytovateli. Agentura Gartner Research očekává, že do roku 2013 budou záruky kvality a úrovně služby rozhodujícími kritérii pro 90 % společností využívajících služby cloudu. Samostatnou oblastí je otázka zabezpečení dat. Některá data nesmí opustit podnik nebo určitou geografickou lokalitu. Posouzení, které pracovní úlohy lze provozovat ve veřejném cloudu a které musí být zachovány na interní infrastruktuře, má proto zásadní význam. Právě s ohledem na zachování ochrany a zabezpečení dat přistoupila řada společností k vybudování „privátní“ cloud infrastruktury, která je provozována za firewallem. Tímto způsobem mohou společnosti udržet náležitou bezpečnostní úroveň včetně monitoringu a řízení přístupu k informacím. Přístup může být omezen na interní sítě, například zaměstnance, a potom vyhodnocen před rozšířením na další omezené sítě, například obchodních partnerů. Privátní cloudy mohou být provozovány, aniž by bylo třeba řešit omezení přenosového pásma sítě, bezpečnostní rizika, případně legislativní překážky, jež je většinou třeba řešit při využití služeb veřejných cloudů.
téma
Odkud začít Některé firmy mohou být „v pokušení“ začít využívat cloud v oblasti uživatelského rozhraní, avšak lepší strategií je začít podpůrnou infrastrukturou. Základem je důvěryhodná, bezpečná základna, na které lze postavit maximálně bezpečné, efektivní a odolné služby cloudu. Zvlášť když může v budoucnu vyvstat potřeba integrovat veřejný a privátní cloud.
úlohy nevyžadující dlouhodobou kapacitu, například vývoj a testování aplikací; pracovní úlohy vyžadující specializovanou kapacitu pro izolované úlohy, například náročné výpočetní úlohy. Obecně cloud computing přináší užitek jak malým, tak i velkým firmám. Malé firmy se díky cloud computingu mohou vyhnout dalším investicím do infrastruktury. Začínající firmy platí pouze za služby IT, které
Cloud computing přináší finančně efektivnější infrastrukturu, budovanou na základě vyspělejší technologie Oborové standardy, které se stále vyvíjejí, se ustálí, jakmile se technologie zdokonalí a více podniků bude využívat služby cloudu. Právě teď mají společnosti možnost ověřit si, že nejlepší strategií jsou služby cloudu, které jsou interoperabilní a založené na otevřených technologiích. Využití výhod cloud computingu znamená naučit se, jak nejlépe využívat platformy cloudu pro individuální obchodní potřeby. Pro cloud se výborně hodí například následující úlohy: datově náročné pracovní úlohy, zvlášť v případě internetových dat a dat podobného formátu, tedy vyhledávání;
využívají, a nakupují jen takovou kapacitu, jakou potřebují. Velké podniky mohou využít veřejné cloudy k hostování částí svého IT, ale stále potřebují vlastní infrastrukturu kvůli bezpečnosti, odolnosti a legislativním požadavkům, jimž standardizovaná řešení nemohou vyhovět. Těm privátní cloud computing umožňuje plnit jejich vlastní požadavky. Spojením elementů privátního a veřejného cloudu v hybridním řešení získá firma výhody větší kontroly, lepšího zabezpečení a odolnosti privátního cloudu v kombinaci s flexibilitou veřejného cloudu. Gartner Research očekává, že v dlouhodobé perspektivě
bude hybridní cloud computing představovat většinu implementací cloud computingu.
Hybrid jako řešení Privátní cloud v hybridním uspořádání umožňuje bezpečně využívat veřejné služby cloudu – například zaměstnanci přistupují ke službám veřejného cloudu prostřednictvím privátního cloudu, a ne přímo. Mezi typické hybridní scénáře patří alokace kapacity pro zvládání nadměrné zátěže ve špičkách. V normálních případech slouží kapacita serverů ke zvládání zátěže aplikací, nicméně v obdobích špičky zvládá nadměrnou zátěž přidaná serverová kapacita veřejného cloudu. Organizace mohou v mnoha případech zjistit, že z pohledu finanční úspory dává smysl zajistit standardizované moduly podnikového procesu z veřejných cloudů a interní infrastrukturu udržovat pro klíčové části procesu, které pracují se zabezpečenými daty. Bez ohledu na to, jestli se jedná o veřejný, privátní nebo hybridní cloud, hlavním „motorem“ cloud computingu je trvalý a zvyšující se konkurenční tlak. Aby mohly společnosti čelit tomuto tlaku, potřebují zrychlit cestu od nápadu k uvedení produktu na trh, a to při přijatelných nákladech. Cloud computing přináší finančně efektivnější infrastrukturu, budovanou na základě vyspělejší technologie. ❑ inzerce ▼
4U/miditower workstation až 4 VGA/GPU karty dvojnásobné výšky
2U Twin2 – nejlepší volba pro datová centra i-2422Q-M4 čtyři 2P Xeon 5500 uzly v 2U, hotswap, 12 DDR3, redundantní zdroj
2U virtualizační server i-2420Q-M3
Storage servery
2P Xeon 5500,18 DDR3, 8x HDD
1U (4HDD/8SFF)
hotswap+DVD, redundantní zdroj
až 4U (24HDD) iSCSI/GbE/10GbE/FC/IB
Procesor Intel® Xeon® série 5500 (Tylersburg/Nehalem), 375 GFLOPS/kW nejlepší poměr výkon/cena/spotřeba. Jedinečné platformy pro CPU-GPU výpočty či další speciální aplikace.
1U UIO server i-1420F-M4 - 2P Xeon 5500, 12DDR3, 8x SFF hotswap+DVD,
Největší šířka I/O pásma Dual IOH pro 72 linek PCI-E Gen 2.
PCI-E sloty, redundantní zdroj
Nejuniverzálnější I/O – široká nabídka cenově zvýhodněných UIO adapterů (GbE, 10GbE, IB, SAS). Nejpokročilejší ukládání dat s integrovaným SAS 2 (6 Gbps). Nejflexibilnější připojení k síti přes integrovaný IPMI modul, včetně KVM-over-Ethernet
1U univerzální i-1420F-M4
Nejúčinnější napájecí zdroje z kategorie GOLD (93%+).
Nejvíce procesorů v jednom chassi Datacenter Blade 714
nejlepší webový konfigurátor serverů na
konfiguruj.to
až 14 2P žiletek v 7U
2P Xeon 5500, 12DDR3, 4x HDD hotswap+DVD, 3 PCI-E sloty, redundantní zdroj
téma
TEN PRAVÝ CLOUD PRO FIRMY? Cesta k privátnímu cloudu Masivní využití cloud computingu v praxi naráží dosud na řadu překážek i jistou zdrženlivost zákazníků. A to navzdory skutečnosti, že přístup k IT infrastruktuře, vývojovým platformám i konkrétním aplikacím přes internet ve formě služby přináší firmám řadu výhod.
V
ýhodami jsou mj. snížení investic do hardwarového vybavení i plateb za softwarové licence, optimalizace správa a plánování podnikových IT zdrojů či úsporu spotřeby energie i prostředků za pronájem prostor. Zákazníci se však nezřídka obávají o bezpečnost a argumentují tím, že jejich data jsou vyčleněna mimo brány organizace a oni se externímu subjektu poskytujícímu služby v prostředí cloudu vydávají „všanc“. Možnou cestu, jak přizpůsobit konkrétní podobu cloud computingu určité firmě, jejím obchodním potřebám i požadavku plné kontroly nad vlastními podnikovými daty, představuje koncept tzv. privátního cloudu (private cloud). Ten může využívat buď interní, nebo externí zdroje, případně jejich vhodnou kombinaci. Stále více společností, respektive jejich IT oddělení, v současnosti objevuje výhody privátního cloudu a přechází na něj. Skutečnost, že tento způsob bude v následujících letech využíván ve větší míře než veřejný cloud (public cloud), předpovídá i analytická společnost Gartner.
Co je privátní cloud
AUTOR
Začněme však stručným rozborem samotného pojmu. Co vůbec dělá cloud cloudem? Zmiňme alespoň to hlavní: jde zejména o dynamické pooly virtualizovaných zdrojů, vysoce automatizované modely nevyžadující zásahy zvenčí (či jen minimum) a míru využití cloudu vycházející z momentálních potřeb organizace, která obvykle platí jen za to, co reálně spotřebuje (pay-as-you-go). A proč privátní? Virtuální IT infrastruktura je řízena a provozována výhradně
10
David Čapek Autor je nezávislý publicista.
Connect! březen 2010
pro jedinou organizaci. Může být spravována samotnou organizací, nebo externím dodavatelem, a může být provozována v prostředí organizace, mimo něj nebo jako kombinace obou přístupů. Organizace má komplexní přehled a kontrolu nad tím, jak řešení celkově funguje, jak je řízeno, zabezpečeno apod. To umožňuje snižovat náklady a zajistit takovou dynamiku IT prostředí, jež je nezbytná pro zajišťování obchodních inovací v rychle se měnícím a vysoce konkurenčním tržním prostředí. V zásadě lze rozeznat tři modely přechodu na privátní cloud.
Model 1 – postupná změna Existuje řada podnikových IT oddělení preferujících evoluci před revolucí. Uvědomují si, že se uskutečnilo již mnoho podobných technologických změn a progrese byla v nejednom případě pomalá, postupná a promyšlená. Uvažují v dlouhodobém horizontu, koncepčně a každodenní rozhodnutí týkající se technologií se snaží vhodně začlenit do širšího kontextu. Pracovní týmy dávají různá doporučení, následovaná postupným slaďováním v rámci organizace a zajištěním zdrojů (interních
i externích) pro dosažení požadované úrovně odbornosti. Modely týkající se spotřeby vznikají trpělivým vyjednáváním s obchodními uživateli a finančním oddělením, ale nejčastěji komunikací s dodavateli technologií. Součástí tohoto přístupu je lineární rozšíření stávajících iniciativ, např. virtualizace serverů. Snadno je tak možné vidět model privátního cloudu v postupné virtualizaci dalších a dalších částí podnikového IT prostředí. Změny se uskutečňují v jednotlivých krocích, jsou predikovatelné – jejich tempo je určeno úrovní komfortu vyplývajícího z nasazení nových technologií a provozními modely, které s nimi souvisejí. Rizika jsou obvykle minimální a i ta lze poměrně snadno zmírnit – jednoduše proto, že je na vše dost času. A to je zároveň hlavní stinná stránka uvedeného přístupu – čas! Rozvoj podobných strategií trvá mnoho let a byznys těžko může být tempem změn uspokojen. Navíc berme v potaz argument kritického množství – na jednom místě a v tutéž dobu musí být k dispozici dostatek jednotlivých částí, aby kompaktní podoba privátního cloudu vůbec mohla být spuštěna. Na druhou stranu je třeba přiznat, že ne každá organizace potřebuje dostat své IT na výrazně vyšší úroveň, např. pokud se jedná o infrastrukturu nové generace. Existuje mnoho podnikových IT oddělení, kde klíčovým požadavkem je bezpečné, stabilní prostředí a nebylo by čestné tvrdit opak.
Strategie pro implementaci tzv. private cloudu 1. testování IT: ověření jeho fungování virtualizované datové centrum zabezpečení federace 2. případy použití: spojení obchodních potřeb s vhodným cloudem čas potřebný k uvedení na trh předvídatelnost poptávky pružnost integrace požadavky na dostupnost rychlost sítě | latence zabezpečení rizika a zajištění shody s předpisy důležitost aplikací pro obchodní činnost | pro chod firmy | pro podporu podnikání 3. zásady a řízení: vytváření robustních mechanismů zabezpečení rychlost sítě integrace reakce na incidenty monitorování a správa
V cloudu je paradoxně bezpečněji RSA, bezpečnostní divize společnosti EMC, v závěru roku 2009 publikovala studii nazvanou „Identity and Data Protection in the Cloud: Best Practices for Establishing Environments of Trust“ (Ochrana identit a dat v prostředí cloudu: osvědčené postupy pro vytváření důvěryhodných prostředí). Autoři dokumentu se shodují na tom, že v prostředí cloudu je možné zabudovat bezpečnostní protokoly do virtualizační vrstvy, zatímco nyní se typicky zavádějí pouze na aplikační úrovni. Pokud se podniky budou řídit doporučeními, zásady zabezpečení zabudují hlouběji do technologické vrstvy a rozprostřou napříč celou virtuální infrastrukturou, mohou vytvořit silnější a inteligentnější ochranu uživatelů i jejich dat. Tak lze výrazně překonat v současnosti běžnou úroveň informační bezpečnosti.
Model 3 – spolupráce s poskytovateli služeb Řada podnikových IT oddělení si uvědomuje, že v dlouhodobém horizontu nepotřebují vlastnit mnoho interní IT infrastruktury. Proto hledají důvěryhodné poskytovatele služeb a většina z nich spolupracuje s technologickými dodavateli. Podrobně hodnotí služby, jež jim jsou poskytovány, dávají přímou zpětnou vazbu ohledně své spokojenosti či nespokojenosti. Mají poměrně jasno v tom, co jsou ochotni utratit, pokud dodavatel splňuje jejich požadavky. Mnohé z těchto organizací disponují modelem správy cloudu (cloud governance model). Ten představuje podrobné shrnutí toho, co je ze strany poskytovatele služeb potřeba zajistit pro různá provozní zatížení a migraci mimo datové centrum. V každém případě jsou dodavatelé technologií a poskytovatelé služeb nuceni ve své nabídce i postoji k zákazníkům skloubit dva základní přístupy: poskytnout organizacím okamžité přínosy tváří v tvář problémům dneška a současně vytvořit strategický rámec pro budoucnost.
Kombinovaný přístup velkých firem Rozsáhlé IT útvary v rámci velkých organizací nezřídka uplatňují všechny tři nastíněné postupy. Vytvořily dlouhodobou vizi týkající se architektury a organizace, a snaží se skloubit jednotlivé dílčí, taktické kroky s naplňováním komplexní strategie (postupná změna). Typicky se rovněž do hloubky zajímají o vybudování privátního cloudu. To vyplývá z často nenaplněné potřeby získat dostatečný komfort a zkušenosti prostřednictvím nových modelů souvisejících s prostředím cloudu: technologického, provozního i modelu spotřeby. A konečně intenzivně spolupracují s relevantními provozovateli služeb, kteří jim pomohou vytvořit alternativy k tradiční podobě vlastněných a nákladně spravovaných technologií. Kupříkladu IT oddělení společnosti EMC všechny tři postupy skutečně využívá. A řada dalších významných hráčů na trhu je na tom podobně. ❑
Nevýhody cloud computingu Podrobněji o možných úskalích cloud computingu pojednával článek na straně 40 v Connectu 11/2009. Předplatitelé jej najdou i na adrese zive.cz/archivcasopisu.
×××
Někteří lidé zastávající řídicí funkce v IT žijí v neustálém spěchu. Chtějí realizovat rychlé změny ve velkém měřítku. Uvědomují si, že řadu věcí je třeba změnit najednou a učinit to takovým způsobem, aby se středobodem „myšlení“ celé organizace staly právě inovace, a nikoli dědictví minulosti. Zde vstupují do hry řešení řady VBlock, které nedávno společně představily firmy VMware, Cisco a EMC, a jejich joint-venture společnost Acadia, poskytující služby v oblasti privátního cloudu. V podstatě nejde o nic jiného než o nástroj pro urychlení změn. Jednotlivé technologie v rámci portfolia VBlock mohou obstát i odděleně, ale jejich hlavním smyslem je, jak fungují dohromady a poskytují důležitou službu – automatizaci fungování virtuálních strojů. Klady uvedeného modelu jsou prosté a týkají se především urychleného přechodu na infrastrukturu nové generace. Jde o přínos typu „time-to-value“, spočívající jak v řešení samém, tak zejména v akceleraci komplexních změn v organizaci a způsobu využití IT. Ignorovat pochopitelně nelze problémy, jež se na této cestě mohou vyskytnout. Na to, aby vynikly přínosy, je třeba vyčlenit značnou část aktiv – s pouhými několika desítkami virtuálních strojů nejsou patrné úspory z rozsahu, ať už z pohledu finančních prostředků, nebo provozního modelu. Nezbytným faktorem je podpora ze strany vedoucích pracovníků napříč celou organizací, aby bylo možné vzdálit se tomu, co bylo vykonáno dříve. To může být mnohem složitější, než je na první pohled patrné. Máme-li danou problematiku přirovnat k automobilu, odpovědní lidé se musí oprostit
od uvažování o motoru, zapalovacích svíčkách, převodovce a dalších jednotlivých součástkách a směřovat k přemýšlení v komplexnějším měřítku, jež bychom mohli označit pojmem „výjimečné auto“.
inzerce ▼
Model 2 – rychlá a komplexní změna
téma
BÝT „IN“ JE O STRACH Online aplikace a klíčová data firmy Snížení nákladů, zvýšení efektivity práce a nekompromisní dostupnost; to jsou argumenty nejčastěji podporující zavádění online aplikací do firem. Jak si ale tyto aplikace „rozumí“ s nejdůležitějšími daty firmy? Existují pro jejich zpracování i jiné faktory než míra zabezpečení? Měli bychom se o svá klíčová data v online aplikacích bát?
P
oslední doba se v oblasti informačních technologií, a pochopitelně nejenom zde, nese ve znamení všeobecného snižování nákladů. I když pod pojmem „snižování nákladů“ si různí lidé představují různé věci, jednou z cest k dosažení tohoto cíle je převod části podnikových aplikací do vzdálené hostované
mají jeden zajímavý vedlejší důsledek. Do cloudů a do online hostovaného prostředí se totiž začínají přesouvat i ty aplikace, které byly ještě poměrně nedávno výsadou vnitřní infrastruktury každé firmy. Argumentem proti jejich přesunutí do externího virtuálního prostředí, a neprůstřelnou stěnou ve snahách dodavatelů technologií
nejprve definovat, co to klíčová data jsou. Není pravdou, že ve většině firem jsou klíčové všechny dokumenty a všechna data například v databázích. Stejně tak byl již všemi firmami a institucemi snad dávno opuštěn blud, že klíčová data neexistují. Co tedy za ně můžeme považovat? V prvé řadě jsou to dokumenty popisující know-how společnosti. Obvykle mají formu klasických textových objektů, tabulek, prezentací, výkresů pro CAD nástroje a podobných souborů. Bývají uskladněny v DMS systémech a zálohovány na běžné datové nosiče. Dále mezi klíčová data můžeme zařadit základní informace z účetních a ekonomických systémů; ty jsou nejčastěji v podobě
Problém při likvidaci klíčových dat je markantní tam, kde se používají cloudy pro synchronizaci offline dat na různých místech a online dostupné podoby, a širší využívání nástrojů cloud computingu. Je to logické; obojí spolehlivě řeší problém, který byl donedávna samostatným a palčivým tématem. Otázku mobility uživatelů. Obojí také snižuje náklady na vlastnictví aplikací, protože odpadají některé dříve nezbytné investiční položky. A co více, cesta směrem k online aplikacím přesouvá značnou část zodpovědnosti za provoz a bezchybnost informačních technologií z interních správců na externí dodavatele. Tím dochází k externalizaci rizika, které dříve neslo výhradně vnitřní oddělení správy IT.
Když ledy tají
AUTOR
Výše popsané výhody integrace online aplikací společně s trendem cloud computingu, který jako jeden z mála slibuje skutečnou (a ne pouze virtuální) úsporu prostředků,
12
Vojtěch Bednář Autor je odborný publicista, sociolog a konzultant v oblasti informačních technologií a jejich humánní interakce.
Connect! březen 2010
na tom vydělat, bylo, že některá data jsou prostě příliš citlivá, než aby mohla opustit firmu. I ty organizace, které jinak outsourcovaly část svých systémů, tak provozovaly vlastní informační, finanční a databázové systémy a například dokumentové servery. Snaha po snižování vnitřních nákladů však společně se zvyšujícími se výlohami na údržbu technologií v mnoha případech způsobila malé roztátí doposud pevné masy ledu. Do online prostředí se začala přesouvat i ta data, která byla ještě poměrně nedávno tak říkajíc pod pokličkou. Online aplikace slibují spolehlivost, a management začíná přicházet na to, že klíčové informace jsou vlastně informace jako každé jiné; tak proč si ve jménu úspor nedopřát i s nimi pohodlí mobility? Varovná slova jsou zatím přehlížena.
Klíčová data Cílem tohoto textu není pouze varovat před riziky přesunutí klíčových dat do online aplikací a do cloudů, ale spíše zhodnotit tento trend z hlediska jeho užitečnosti pro firmu. Abychom to mohli udělat, musíme
databázových tabulek. Konečně sem patří například adresáře zákazníku, nebo báze obchodních případů. Nenechejme se zmást, že tento typ informací přeci musí být taktéž databázovými tabulkami CRM systému; mnoho organizací specifický CRM systém nepoužívá. A tak překvapivě často platí, že skutečně klíčové údaje o partnerech a o obchodech s nimi ve skutečnosti mají formu utříděných složek, v nichž se nachází různé typy dokumentů. Klíčová data firmy se od všech ostatních liší dvěma faktory. Za prvé: je nezbytně nutné je chránit – nejen před konkurencí, ale třeba i před neúmyslným poškozením uživateli. Za druhé, měly by být neustále k dispozici. Kombinace obou těchto faktorů je obtížně rozlousknutelný oříšek; a může se změnit i ve smrtelný koktejl. Zvláště ve spojení s online aplikacemi, do nichž se tato data pozvolna, ale zato soustavně přesouvají.
Rizika a benefity O kladných vlastnostech stěhování klíčových dat do online aplikací jsme již hovoři-
téma
li, pojďme si je však ještě jednou zopakovat. Snadná dostupnost, prakticky vyřešený problém s mobilitou uživatelů a synchronizací z různých míst, výrazná úspora nákladů na správu a údržbu informací, při (nejlépe smluvně) garantované dostupnosti a zajištění bezpečnosti. K tomu se přidává úspora zejména vzhledem k nákladům, které jsou běžně spojeny s udržováním hardwarové i softwarové infrastruktury. Jaké jsou však nedostatky? Tím hlavním a vůbec nejdůležitějším je ztráta kontroly nad vlastními daty. Klíčová data, jako je elementární know-how firmy, jsou u hostovaných aplikací přesouvána mimo firmu a do prostředí, kde se teoreticky mohou „potkat“ jak s daty jiných organizací, tak s „nesprávnými“ lidmi. To může potenciálně představovat vážný problém. Umístění klíčových dat do online prostředí znemožňuje managementu za ně ručit. Vzniká tak nové riziko (ztráty, nechtěné alternace, nebo kompromitace dat). Toto riziko je provozovateli online aplikací minimalizováno, ale přesto existuje, a jeho hodnota jde na vrub úsporám. Aby bylo riziko minimalizováno, používá se u online aplikací a cloudů komplexní systém kódování a ochrany spojení a přenosu dat. Toto zajištění však není a nemůže být stoprocentní. Faktorem,
který bývá často opomíjen, ale který se na bezpečnosti rovněž podílí, je, že samotná zabezpečení (a to jak jeho autentizační, tak i šifrovací část) se mohou sama stát zdrojem poškození dat, například vlivem ztráty klíče. Obětí, kterou je potřeba složit na oltář mobility, je problém s integritou. Cloudy sice mají pokročilé nástroje pro synchronizaci a řízení verzí, ale je-li do klíčových dat zasahováno současně z více míst, hrozí riziko jejich poškození souběžnou modifikací. V současnosti již tento problém obvykle nevede k zničení informací, ale jejich oprava stojí čas a nezřídkakdy ji nelze provést automaticky. Umisťování klíčových dat do cloudu zvyšuje nároky na uživatele, kteří s nimi pracují. Vzhledem k tomu, že se často jedná o uživatele mobilní, a ti nemusí využívat jen autorizovaná zařízení, „hrozí“, že tato data budou přistupována z cizích koncových bodů. To samo o sobě není problém, ale v těchto bodech nelze vytvořit kontrolované prostředí a zabránit tak úniku, nebo kontaminaci. Používání cizích zařízení navíc nejčastěji ústí do toho, že data jsou zpřístupněna i jejich dalším uživatelům. A pokud samotná data ne, pak alespoň stopy indikující, že na zařízeních bylo s takovými daty pracováno.
Kromě výše uvedených existují i další rizika přechodu na online aplikace. Klíčová data je čas od času potřeba také likvidovat. Jejich úplné zvirtuálnění tento proces značným způsobem komplikuje. Data (byť v zakódované podobě) mohou dlouho po odstranění z úložiště zůstávat v jeho záložních kopiích, zrcadlech nebo po trase ke svým uživatelům. Tento problém je obzvláště palčivý tam, kde se cloudy používají k vzájemné synchronizaci offline uložených informací z různých míst. A tak bychom mohli pokračovat, přičemž platí, největší že komplikace vznikají tam, kde je nejenom že nejméně čekáme, ale kde si je umíme nejméně představit.
Váhy Převod klíčových dat firmy do online aplikací je možný. Benefitů tohoto řešení je hodně, ale ignorovat jeho nedostatky by bylo zdrojem obrovského problému. Cestou, jak tento problém umenšit, je promýšlet všechna možná rizika dříve, než se k něčemu podobnému rozhodneme, a ne až poté, co tak učiníme v praxi. Je otázkou, nakolik zmíněná rizika vyvažují nedostatky (s tím si musí poradit každý sám), ale bylo by velmi pošetilé svěřit svá klíčová data online prostředí „jen tak“. ❑
inzerce ▼
System Center – spravuje IT efektivně Vzhledem k množství technologií a aplikací hostovaných v současných datových centrech a pokračující virtualizaci serverů i aplikací jsou organizace nuceny nasazovat pro správu několik nástrojů. Zásadní problémy současného používání různých technologií pro správu spočívají v nejednotném uživatelském rozhraní a pracovních postupech, malé nebo žádné integraci mezi produkty a praktické nemožnosti automatizace různých akcí v rámci více než jednoho z těchto produktů pro správu. To má za následek vysoké náklady na nasazení, přizpůsobení a údržbu těchto nástrojů. Microsoft® System Center poskytuje vysoce flexibilní, automatizovanou sadu nástrojů, které zjednodušují nasazení a udržování serverů napříč celým integrovaným systémem správy, jenž pokrývá fyzickou i virtuální infrastrukturu. • Možností nasadit a konfigurovat servery z libovolného předchozího prostředí, včetně fyzického i virtuálního, System Center značně snížil úsilí, jež je nutné věnovat nasazování a aktualizacím serverů. • Rozšíření funkcí pro správu aplikací nasazených v systému Windows Server i na operační systémy UNIX a Linux umožňuje lépe zajistit maximální dostupnost všech systémů a aplikací v datacentru. • Díky širokým možnostem distribuce softwaru a komplexní správě jeho aktualizací poskytuje System Center nejkomplexnější sadu možností ve své třídě. Otestujte si bezplatně produkty z rodiny System Center. Jednotlivé testovací verze jsou dostupné z našeho webu www.microsoft.com/cze/windowsserversystem/systemcenter/try-it.mspx. Pokud máte zájem dozvědět se více, navštivte některý z odborných seminářů pořádaných společností Microsoft nebo jeho partnery. Aktuální kalendář plánovaných akcí naleznete na adrese www.microsoft.com/cze/events/seminare-partneru.
téma
SAAS JE TU PRO UŽIVATELE, PRO BYZNYS PŘIJDE Online systémy a aplikace dneška Tajemstvím IT znalých profesionálů, drobných podnikatelů a určitě i mnoha živnostníků je, že v rámci chodu jejich firmy je koncept pronájmu online aplikací již několik let naprostou realitou, bez které si nedokážou představit vlastní fungování. Bohužel, ve světě středních a větších firem je situace trochu komplikovanější.
I
ntuit je americká softwarová společnost, sídlící (tradičně jako mnoho jiných IT firem) v Palo Alto, v Kalifornii. Předmětem činnosti je vývoj účetních programů pro malé a střední firmy a v celých Spojených státech je mimořádně úspěšná. Pohledem na účetní data se velmi rychle přesvědčíme, že nejde o žádný startup. Založena byla roku 1983 a v současnosti má 8 200 zaměstnanců a celkovou hodnotu, měřeno akciemi na NASDAQu, přes tři miliardy dolarů. Čtenář asi uzná, že více než osm tisíc lidí vyvíjející, sadu pro jakkoliv dobré, ale stále jen účetnictví – to je dosti silný hráč. A právě tato firma se dostala do hledáčku médií v září minulého roku. Jak možná čtenář tuší, důvodem byla akvizice. Za 170 milionů dolarů Intuit koupil jinou účetní firmu. Firmu, která dělá totéž tak trochu jinak. Mint.com sídlí pro změnu v Mountain View (nedaleko Googlu), ale o to pochopitelně nejde. Mint byl založen v roce 2006 a dnes zaměstnává pouhých 35 zaměstnanců. Již z tohoto krátkého přehledu je patrné, že čísla jsou možná tak trochu v nerovnováze. Nejsou. Mint.com je totiž účetní software, který funguje jako služba. A při tomto fungování jako služba skutečně funguje. Čtenáři si možná právě teď vybaví ty všechny roky, kdy se o SaaS mluvilo, nicméně do podnikového světa se koncept dostává dosti pomalu. Vedle toho Mint byl magazínem TIME vyhlášen v žebříčku 50 best websites of 2009. PC Word vyhlásil Mint nejlepším online softwarem na správu financí a Top Innovation of 2007. Doporučují jej i editoři amerického PC Magazinu.
mají. Dovolujeme si upozornit, že nejde o nikterak triviální trh, tedy žádný „todo list“ – jedná se o účetní software. Na výše uvedeném příběhu by šlo dobře ukázat pointu. S tou ale ještě chvilku vyčkejme. Jason Fried, zakladatel známé společnosti 37signals, která patří k minimálně myšlenkovým leaderům na poli online softwaru a SaaS (o firmě jsme před několika měsíci přinesli podrobný článek), píše o nákupu Mintu Intuitem na firemním blogu Signal vs. Noise. Jeho názor je více než dobré si vyslechnout. „Prodej Mintu Intuitu mě opravdu naštval. Vsadím se, že slovo měl investor Mintu. Máme zde novou společnost [Mint], která míří na starého funkcionáře [Intuit]. A nejen že míří, ale i roste na jeho úkor. Měli skvělý produkt, skvělý design a velký potenciál. Rostli rychle a zjistili, jak na zisk. Měli na to změnit odvětví – které bylo mrtvé a opuštěné současnými vládci. Byli všechno, co jejich konkurent, Intuit, nebyl. Zatímco Mint inovoval, Intuit se nehnul z místa. Lidé používali Quickbooks a Quicken [produkty Intuitu] jenom ze zvyku. Mint lidé používali, protože ho milovali. Intuit byl nabubřelý, Mint pobuřující.
A co se stalo teď: Intuit, leader minulé dekády, se právě stal leaderem budoucí dekády v osobních financích. Měl to být Mint, ale prodali to za 170 milionů dolarů. Nemůžu uvěřit, že jim šlo o to. Mint byl modla pro celou řadu podobných leaderů nové generace. A teď patří Intuitu – odcházejícímu symbolu minulé generace. Jaká to škoda. Je nejlepší cesta pro novou generaci stát se součástí staré generace? Co takhle jim to místo toho pořádně nandat?“ (Zkrácená citace z www.37signals.com/svn/ posts/1927-the-next-generation-bends-over)
Účetnictví 2.0 Už jsme chtěli uzavírat pointu, nicméně výše uvedený příspěvek známého podnikatele vrhá na srovnání úplně nové světlo. Klíčové pozorování je především v tom, že Intuit, který má více zaměstnanců než ledajaká korporace, se nebyl schopen v aktuálním dění na internetu zorientovat, správně ohodnotit trendy a pustit se do poskytování svého produktu moderní cestou. Přijmeme-li tezi, že správně udělaná SaaS je skutečně klíčem k následujícímu desetiletí, pak je Mint pro Intuit doslova záchranným kruhem. Při druhém zvážení je skutečně pak patrné, že zakladatel Mintu by mohl za pár let koupit naopak Intuit, vždyť Mint existoval v té době 3 roky, zatímco Intuit 26 let. Dá se říci, že si manažeři Intuitu oddechli. Tomuto příběhu jsme věnovali relativně velký prostor. Nikoliv ale proto, že bychom chtěli vyprávět o „success stories“ amerických podnikatelů. Cílem bylo přesvědčit jak výrobce softwaru, tak mana-
Výhra nebo prohra?
AUTOR
Je tedy evidentní, že existují alespoň nějaké příklady, kdy online aplikace slouží tak, jak
14
Michal Till Autor je stálým spolupracovníkem redakce. O internetu, marketingu a podnikání píše magazín DotProfit.cz.
Connect! březen 2010
Připravovaný Chrome OS se jeví jako „made for“ cloud computing. Většina dat a aplikací nebude lokálních, nýbrž online.
téma
žery zodpovědné právě za výběr aplikací o tom, že úplně stejný příběh se odehrává takřka denně ve všech odvětvích, kde lze o migraci aplikací na web alespoň trochu přemýšlet. Diskuse, zda již tentokrát SaaS pronikne do širšího povědomí, je již minulostí a troufáme si tvrdit, že již pronikla. Stalo se ovšem něco zvláštního: podnikový svět si toho nevšiml. Chybou bylo, že podniky si představovaly nástup SaaS jinak, konkrétně v rámci jejich složité domény. Tím máme na mysli fakt, že většina podnikového softwaru je
boomu ajaxu uplynulo již několik let a za tu dobu se z jednoduché techniky stalo samostatné odvětví programování. Došlo také k plné rehabilitaci jazyka JavaScript, který je dnes co do počtu instalací programů jednoznačně nejpoužívanějším na světě. Posun k profesionalitě je nesmírně zajímavý: ukázalo se, že máme-li k dispozici špatně navržený a chybový jazyk, stačí ho používat způsobem, jako kdyby byl ve skutečnosti navržený dobře, a zbylé rysy ignorovat. Javascriptový programátor je náhle na pracovním trhu hledaným odborníkem. Můžeme bez nad-
Je nejlepší cesta pro novou generaci stát se součástí staré generace? dosti komplexní. Co se stalo místo toho, je, že SaaS již dávno funguje, jenže v rámci jednoduché domény, pro jednotlivé uživatele, živnostníky či malé firmy. Přestože přechod komplexních podnikových systémů na web vidět můžeme, o skutečně rozjetý vlak se zatím nejedná. Přesný opak platí o softwaru, který neřídí mnoho, ale co řídí, tak řídí dobře. Obraťme ale list a pojďme se podívat, jak fungují online aplikace z technologické stránky a co nám současné trendy ve vývoji softwaru nabízí. Speciálně poslední dva roky již nutně neplatí, že pokud mluvíme o online aplikacích, máme na mysli software webový, tedy běžící v prohlížeči. Tento již starší obor bývá totiž stále častěji spojován s mobilními platformami, speciálně iPhonem. Prakticky každá ve své kategorii známá webová aplikace má doplněk běžící na iPhonu, který poskytuje tytéž, či podobné možnosti jaksi „v malém“. Mac OS vede i integraci webových aplikací s desktopovými, tj nativními MAC OSovými. Zde mají vývojáři na Windows ledacos k dohnání. Je až s podivem, kolik produktů raději obsadí malý trh applovských produktů, který ovšem detailně propojí trojicí verzí stejného softwaru pro Web, MAC OS a iPhone, než aby se zajímali o velký trh Windows.
Otázka technologií Vývoj webových aplikací se vyznačuje především existencí až desítek dobrých a ověřených platforem, pomocí kterých lze výsledku dosáhnout. Nikdo zde nemá monopol, a to ani na technologii, ale především ne na know-how. Klasická, osvědčená a nejpoužívanější cesta vede pokrytím a protkáním klasických webovek ajaxovými funkcemi, které dokážou přiblížit prostředí prohlížeče uživatelskému prožitku na desktopu. Od dob
sázky říci, že JavaScript na webu doslova drtí veškerou konkurenci v efektivitě, tedy v poměru výkon programátora za nějaký čas a napsaného množství funkcionalit v aplikaci. Chceme-li technologicky výše, nabízí se nám dva konkurenti v podobě Silverlightu od Microsoftu a dvojice Flash/Flex od
Adobe. Obě platformy, ať jinak konkurenti, se liší především svojí historií, která určuje jejich současnou pozici.
Lepší neznamená úspěšnější Microsoft navrhl Silverlight jako moderní přenositelnou platformu, nicméně s verzí 1.0 přišel na tehdejší dobu pozdě. Dnešní verze 4.0 Beta je o mnoho řádů výše, nicméně Microsoftu chybí to, čemu Američané říkají momentum, tedy aktuální preference pro nějakého politického kandidáta prostě proto, že je právě nyní populární, bez ohledu na nějaké podrobnější zkoumání. V Silverlightu jdou napsat skvělé věci, které vypadají dobře, běží rychle a fungují bez problémů, nicméně právě ten buzz kolem lehce chybí, pro drobné kodéry je věc složitá a profesionálové se tak nemají z čeho rekrutovat. Stejně tak Silvelight plugin do prohlížečů pravda umožnil skvěle sledovat v HD rozlišení zimní olympiádu, ale uživatelům je tak nějak volný a nějakým „must-have“ statusem neoplývá. Tak či tak si Silverlight vede podstatně lépe než konkurenční JavaFX. Tato RIA technologie se u uživatelů i programátorů
Spousta menších firem již ví, že využívat online aplikace je výhodné. Při malých nákladech se zbaví značné technické zátěže na své straně. Nejvíce patrné je to u e-mailových služeb. inzerce ▼
Kompletní VOIP řešení www.ipex.cz
Connect! březen 2010
15
téma
takřka neprosadila, přestože penetrace Javy jí hraje do karet. Černým koněm trhu je dvojice Flash a Flex. Dá se říci, že pro Adobe může být rok 2010 rozhodující. Pokud se podaří dostat Flash na mobilní zařízení, bude mít Adobe obsazeny všechny mety a první skutečně přenositelná platforma bude nejen existovat, ale půjde reálně použít. Vývojáři netrpělivě očekávají balík Adobe Flash CS5, který by měl umět kompilovat flashové aplikace do iPhonových, kde budou běžet bez (!) Flash Playeru. Důvod pro kompilaci je ten, aby si Apple udržel kontrolu právě nad aplikacemi z CS5ky totiž půjdou rovnou do schvalovacího procesu obdchodu AppStore. Pokud se výše uvedená věc povede, budou najednou miliony programátorů na PC krůček od programování pro iPhone bez toho, aniž by se museli učit zvláštní jazyk Objective-C či kupovat Maca. Technologickou lahůdkou jsou platformy pro běh stejného kódu na webu i na desktopu a zde opět exceluje Adobe se svojí platformou AIR, o které jsme psali zhruba před rokem. De facto se nejedná o nic jiného než o prohlížeč zabalený jako nativní program pro daný operační systém. Uvnitř něj běží buďto javascriptová nebo flashová aplikace. Nic více. Oproti konkurenci je tak možné vyvíjet na desktop úplně přesně stejně jako na web, což každý webový programátor více než uvítá. Konkurencí pro AIR není nikdo jiný než Microsoft s aktuální čtvrtou verzí Silverlightu, která podporuje tzv. out-of-browser běh, což je MS název pro totéž. Opět ale vidíme, že technologie od Microsoftu je sice technicky dokonalejší (integrace COM komponent, oznámení aplikací – tzv. notifikace, drag-n-drop), nicméně MS přichází jako druhý a pro výhody jejich řešení se nedaří nadchnout skutečné masy drobných programátorů. Právě svět jednotlivých kodérů vždy určoval vývoj na webu. Nebyly to korporace, ale drobní fanoušci, kdo prosadil webové standardy, kdo vybudoval odvětví ajaxového programování (ačkoliv vlastní nápad pochází od Microsoftu), kdo se vrátil k JavaScriptu a podobně. U této skupiny lidí nikdy robustní technologie neuspěly. Právě naopak. Bloggeři objevili tagy
a celý webový svět opustil tabulkové layouty. Bloggeři objevili ActiveX, co umí vytvářet HTTP dotazy, a do roka byla zbrusu nová IT platforma na světě. Jeden programátor objevil formát zápisu dat v JS (tzv. JSON) a oslavované XML kvapem opouštělo web. Dalším pádným argumentem pro „malé“ technologie je současná popularita smartphonů a opět musíme říci především
16
Connect! březen 2010
iPhonu. Autor tohoto článku zrovna před pár dny proklínal rezervační systém na webu jednoho pražského multikina, který byl napsán v Javě… Mnozí odborníci říkají, že ještě jeden hráč neřekl svoje a právě tato obrovská skupina lidí mu bude armádou. Tímto hráčem je dvojice standardů HTML5 a CANVAS (plátno). Canvas tag/element v HTML umožňuje vytvořit vektorový obraz, který lze opět složit z jiných objektů. Co s tím? Jistý programátor si řekl, že to je vlastně dostatečné prostředí na vykreslování jakékoliv 2D grafiky a tím pádem pro
nějaké animace není třeba Flash. A napsal interpret Flashe v JavaScriptu pomocí canvasu (canvas objekty jdou skriptovat a časovat obdobně jako jakékoliv elementy na stránce). Kompatibilita je více než omezená, ale fungovalo to. Tak se také podařilo dostat první Flash do iPhonu, a to bez Flash Playeru, pouze s mobilním Safari, které canvas podporuje. Takže je na stole otázka, kdy programátoři opět udělají ten svůj „kousek“ a malou technologií vytěsní větší a robustnější. Tedy, kdy budeme animace tvořit bez Flashe, pouze pomocí canvasu s JavaScriptem. ❑
Nejznámější webové aplikace pro malé a střední podniky Google Apps a Microsoft Live Admin Center Obě firmy poskytují svoje řešení e-mailu, kalendáře a mnohé další služby k firemnímu využití na vlastní doméně. Zaměstnanci tak mohou vzdáleně přistupovat z webu do schránky, která pak vypadá jako GMail či Live Mail. Řešení Microsoftu je vhodné pro lepší integraci mailu s Outlookem, Google nabízí větší spektrum jiných služeb. domains.live.com www.google.com/apps/intl/cs/business/
Basecamp Patrně nejznámější online nástroj na řízení projektů a spolupráci týmu. Basecamp nenabízí mnoho klasických nástrojů teoretického project managementu a na nemožnost kreslení Ganttových diagramů jsou autoři dokonce pyšní. Místo toho vede perfektní komunikace v týmu. U Basecampu překvapí mimo jiné velká škála externích programů na všechny možné platformy, které využívají API softwaru. www.basecamphq.com
GetSatisfaction Komplexní systém na správu podpory uživatelů. Umožňuje kompletně vyřešit komunikaci s uživateli, helpdesk, jistý druh CRM, hlášení o chybách, dotazy uživatelů atd. Vše lze integrovat do vlastní domény či upravit vlastními styly do korporátních barev. Mezi klienty patří velké nadnárodní společnosti a dlužno říci, že za nejvyšší verze GetSatisfaction si firma řádně připlatí. Provozovatelé ale vědí, že náklady na vývoj a provoz vlastního systému jsou ještě ještě vyšší. www.getsatisfaction.com
CampaignMonitor Neocenitelný nástroj každého marketéra. CampaignMonitor umožňuje kompletní
řešení e-mailingu a e-mailového marketingu. CM spravuje newslettery, kampaně, statistiky, zkrátka vše kolem e-mailové komunikace se zákazníky. Standardně nabízí mnoho služeb, které si firmy buďto zajišťují samy, nebo pomocí drahých specializovaných programů. Jednou z nejdůležitějších služeb je automatická kontrola odesílaného mailu na možné vyhodnocení jako spam u takřka dvaceti antispamových služeb, včetě těch webových jako třeba GMail. www.campaignmonitor.com
SurveyMonkey Nejznámější nástroj na online průzkumy je sice již staršího data, nicméně funguje dobře a jeho možnosti jsou obrovské, zvláště když si připlatíme. Do průzkumů lze dát mnoho typů otázek, ke každé otázce si můžeme zobrazit různé grafy, tvorba dotazníků je navíc velmi jednoduchá. SurveyMonkey dokáže zařídit marketingový průzkum na internetu během minut. www.surveymonkey.com
Google Analytics a Google Webmaster Central Tyto dvě služby by mohly mít motto „pro všechny firmy s webem“. Obě dvě jsou naprosto neocenitelné. Analytics přináší podrobné statistiky webu, jako třeba nejčastější vstupní stránky, průměrná doba setrvání na webu atd. V Analytics lze vytvářet tzv. cíle, což může být např. (nejlépe) nákup, ale i třeba odebírání RSS. Měření cílů je pak nasnadě. Webmaster Central je ale možná ještě důležitější. V této aplikaci lze totiž nastavovat parametry webu přímo pro roboty Googlu. Zjistíme tak detaily o jeho návštěvě, on nám zase oznámí případné nalezené chyby na webu. www.google.com/webmasters
téma
TRŽIŠTĚ PRO ÚDAJE V OBLACÍCH Co umí Microsoft AppFabric a Dallas Po „revolučním“ ročníku PDC 2008, kde byl ohlášen Windows Azure jako platforma pro cloud computing, se na různých blozích a fórech předvídalo, jaké novinky budou ohlášeny na PDC 2009. Objasněny zde byly dva kódové názvy „App Fabric“ a „Dallas“.
A
pp Fabric slouží k bezpečnému propojení mezi službami, tedy nasazení aplikace a definování její konektivity. Kromě toho zahrnuje i caching pro zvýšení výkonu, workflow hosting a sledování konektivity. Jedná se pravděpodobně o skloubení technologie s kódovým označením „Dublin“ pro hostování a monitorování Windows Communication Foundation na IIS společně s technologií distribuované cache pro. NET framework s kódovým označením „Velocity“. AppFabric bude k dispozici nejen pro cloud, ale i pro Windows Server.
Třetí webová vrstva pro partnery, dodavatele, zákazníky aj.
AUTOR
Rozvoj internetových služeb může Microsoft nejlépe sledovat na vlastních velkých webových projektech, především MSN a MSDN. Každý z nich se rozvíjí po své vlastní linii a na vlastní infrastruktuře. Není a ani nemůže být světem uzavřeným sám do sebe, musí naopak masivně interagovat a komunikovat s okolím. Proto vedle dvou hlavních architektonických vrstev, kde první vrstvu tvoří klientské zařízení včetně mobilních platforem a druhou vrstvou je back-endová infrastruktura pro podporu byznysu, vybíhá stále více do popředí třetí webová vrstva. Na ni jsou napojeni partneři, dodavatelé, zákazníci, marketingové kanály a bankovní a jiné služby. Tato vrstva vyžaduje nejen výpočetní výkon serverů, storage nebo komunikační možnosti, ale hlavně širokou paletu škálovatelných služeb s dostatečnou kapacitou pro pokrytí požadavků globálního byznysu a zpřístupnění informací.
Ľuboslav Lacko Je předním slovenským odborníkem na databázové technologie a programování s dvacetiletou praxi ve vývoji databázových aplikací.
Může se totiž stát, že IT prostředí firmy obsahuje obrovské množství nejen dat, ale i informací. Na první, povrchní pohled by se mohlo zdát, že mezi pojmy data a informace je možné postavit rovnítko. Ale skutečně jen na první pohled.
Údaje se stávají informacemi tehdy pokud: máte údaje, víte, že máte údaje, víte, kde máte tyto údaje uloženy, máte k údajům přístup, zdroji dat můžete důvěřovat. Podobně jako gigabyty dat na lokálních discích jsou užitečné, pouze pokud jsou nějakým způsobem katalogizované a je možné je poskytovat, údaje v datových centrech mohou být také výhodným obchodním artiklem. Míra úspěšnosti každého artiklu závisí do značné míry na jeho marketingové komunikaci, zjednodušeně řečeno, aby se dostal do podvědomí potenciálních zájemců. Informace jsou totiž zbožím, po kterém je stále větší hlad. Tím, že je můžete poskytnout i potenciálním zákazníkům, případně obchodním partnerům, se vám může postupně část vynaložených nákladů na provoz IT v prostředí cloudu vrátit.
Prodejte data z cloudu Marketingová komunikace pro údaje v datových centrech je primární parketou pro nový produkt s kódovým označením Dallas. Prostřednictvím této katalogové služby budou provozovatelé moci prodávat informace, nebo je i poskytovat zdarma. Podle neověřených informací ze zákulisí bude billing nejspíše realizován Microsoftem, jako vlastníkem a správcem služby Windows Azure. Údaje se budou moci prohlížet buď v prohlížeči webového obsahu, nebo jako ATOM feed. Takto přístupné budou údaje i přes aplikace z kancelářského balíku Office
2010, například přes Excel 2010 s doplňkem PowerPivot. Dallas je nová služba, jejíž API umožňuje vývojářům a IT specialistům vytvářet katalogy pro zprostředkování dat, ať již formou jednorázové obchodní transakce, nebo formou subskripce. Tvůrci Dallasu se při vizích budoucích projektů realizovaných na technologické bázi této katalogové služby možná nechali trochu ovlivnit komerčně velmi úspěšným produktem Apple Store od konkurence. Předmětem obchodu na tomto datovém tržišti mohou být údaje nebo webové služby dostupné v reálném čase, které tyto údaje poskytnou. Pojem datová tržiště (data marts) je známý také z oblasti Business Intelligence. Je to prostředí vybudované na principu datových skladů a vytvořené pro skladování a poskytování údajů, buď v rámci organizační struktury globalizované firmy, nebo na ukládání a zpracování údajů pouze z některých vybraných oblastí podnikání.
Komu přijde vhod? Katalogovou službu Dallas budou ve virtuálním prostředí cloudu využívat především komerční poskytovatelé dat nebo autoritativní státní a veřejnoprávní organizace, které spravují data, jako například katastr nemovitostí a obchodní rejstřík. Použitím služeb poskytovaných na bázi Dallasu bude možné najít potenciální zdroj dat, pomocí kterého bude možné rozšířit možnosti stávajících aplikací, jejichž úkolem je tyto údaje spravovat a reportovat, například pro podporu rozhodování. Při poskytování údajů se samozřejmě plně akceptují licenční úmluvy a výkon práv s tím souvisejících. Vývojáři budou moci na bázi API Dallasu vytvářet aplikace umožňující vizuálně posoudit údaje, které jsou potenciálním předmětem zájmu, a následné transakce, nebo také údaje obchodního vztahu, jehož předmětem je pravidelné odebírání dat. K tomu přispívá i jednoduchý a plně škálovatelný transakční a subskripční model. Vývoj aplikací je velmi efektivní, hlavně díky automatickému generování proxy tříd v programovacím jazyce C #. Dallas umožní „spotřebu“ dat na databázových platformách SQL Server, SQL Azure Database a jiných úložištích v datových centrech Microsoftu. Pokud tato katalogová služba najde širší uplatnění, mohla by pomoci snížit redundanci dat v datových centrech, protože nebude nutné, aby stejné údaje byly uloženy u každého, kdo je využívá. A to je další krok ke „Green IT“. ❑
Connect! březen 2010
17
téma
CLOUD COMPUTING PODLE MICROSOFTU Windows Azure vstupuje do komerční sféry Název článku by mohl znít i „Komerční sféra vstupuje do Windows Azure“, přičemž promícháním slov se vůbec nevytratí význam, spíše se ještě více zpřesní. Pokud se očekávání Microsoftu ohledně tohoto operačního systému pro cloud computing naplní, může komerční sféra skutečně vstoupit do éry Cloud, a to v masovém měřítku.
M
ohla by to být analogie toho, jak domácí a podnikoví uživatelé vstoupili přes operační systémy Microsoftu do počítačové sféry. Microsoft jako nejvýznamnější dodavatel operačních systémů nemohl zareagovat jinak na nastupující a dynamicky se rozvíjející trend cloud computingu než ohlášením nového operačního systému pro tuto sféru pod názvem Windows Azure.
Cloud nabízí IT infrastrukturu jako službu
AUTOR
Cloud, neboli česky oblak, je určitou metaforou pro komplexní síťové prostředí. Tento termín se vžil pro informační technologie založené na globálních datových centrech v prostředí internetu. Velmi zjednodušeně by se dalo říci, že cloud computing znamená použití výpočetních technologií za hranicemi podnikové sítě. Tedy tam, kde je to pro uživatele „v oblacích“. Cloud je již pátou generací architektury a brzy by měl doplnit v současnosti nejskloňovanější pojem SOA, tedy architekturu orientovanou na služby. Začalo to první generací izolovaných PC a mainframe. Kolem 1980 se začala masivně využívat architektura klient-server. Pak v roce 1990 přišel web, podnikové WAN sítě a téměř o 15 let později SOA (Services Oriented Architecture). Cloud je jakýmsi ideovým následovníkem takzvaného Utility computingu. Základním pilířem nového typu architektury a filozofie je poskytování IT jako služby. Nejprve si
18
Ľuboslav Lacko Je předním slovenským odborníkem na databázové technologie a programování s dvacetiletou praxi ve vývoji databázových aplikací.
Connect! březen 2010
představte jednoduchou a názornou analogii s vozidly taxislužby, tedy využívání auta jako služby. Tak jako u taxíku nezáleží na značce vozidla nebo pneumatik a ani na tom, kde sídlí dispečink, nebude u spolehlivě fungující služby nikoho zajímat, kolik serverů a procesorů je na pozadí. Podobně to funguje v telekomunikačních a utilitních společnostech poskytujících elektrickou energii, plyn nebo vodu. Uživatel ale platí pouze za to, co spotřebuje, a nemusí mít přehled o infrastruktuře a vnitřních procesech „cloud-u“. Na rozdíl od konceptu SaaS (software jako služba), cloud computing nabízí koncepci IaaS, tedy infrastrukturu jako službu. Platforma Windows Azure ve verzi CTP (Community Technology preview) byla ohlášena koncem roku 2008 na konferenci PDC (Professional Developers Conference). O rok později byly na PDC představeny některé doplňky. Od ledna 2010 vstupuje tato platforma do komerčního stadia a o měsíc později bude zpoplatněna.
Koncepce a architektura Platforma Windows Azure je koncipovaná jako operační prostředí pro globální infrastrukturu serverů a datových center založených na službách situovaných na nejnižší úrovni a jako základní podpůrný pilíř architektury, služby jakéhosi jádra Cloud pro virtualizaci, škálovatelné služby a úložný prostor. Pod pojmem „globální infrastruktura“ si můžete představit vše od procesorů až po datová centra. To vše je distribuováno po celém světě. Windows Azure přináší abstrakci od toho všeho, podobně jako vrstva ovladačů abstrahuje operační systém od konkrétního hardwaru. Zákazníci pracující s klientskými počítači připojenými k internetu budou moci spouštět své aplikace a ukládat data v datových centrech Microsoftu.
Platforma Azure sestává ze tří základních pilířů Windows Azure – operační prostředí umožňující flexibilní hostování aplikací, řízení služeb a správu úložných prostor včetně jejich dynamického masivního škálování. SQL Azure – koncepčně se jedná o relační databázi poskytovanou formou služby. Technologicky se jedná o rozšíření funkcionality databázové platformy SQL Server. Toto databázové prostředí se vyznačuje vysokou dostupností a schopností
Základní součásti architektury Filozofie Windows Azure jako operační systém pro cloud computing
téma
automatické správy. Je přístupné nejen z .NETu, ale také z jiných technologických platforem (Java, PHP ...). Databáze jsou virtuální, takže uživatelé se nemusejí starat o administraci, zabezpečení, zálohování ani replikace. AppFabric je nejnovější součástí, která byla představena teprve nedávno na konferenci PDC 2009. Jejím primárním úkolem je bezpečné propojení mezi službami, tedy nasazení aplikace a definování její konektivity. Kromě toho zahrnuje i caching pro zvýšení výkonu, workflow hosting a sledování konektivity. Technicky zdatní čtenáři si určitě se zájmem prohlédnou principiální schéma. Vrstva datových center Microsoftu poskytuje virtuální stroje, na kterých běží aplikace. Uživatelské rozhraní pro tyto aplikace je realizováno přes klientské desktopy. Datovému centru na schématu dominuje byznysový portál, který je z pohledu Microsoftu samozřejmě nejzajímavější komponenta architektury zabezpečující tarifování služeb. Portál zároveň slouží
i pro objednávání služeb a jejich konfiguraci. Stejně důležitý je i vývojářský portál, umožňující vývoj a zavedení aplikace do datového centra včetně aktualizací. Správa služeb výpočetních a úložných kapacit je realizována tak, že navenek vystupuje jako služba, přičemž se tyto kapacity přidělují ve formě klastrů. Neodmyslitelnou součástí fungování multiserverové cloud platformy je přerozdělování zátěže. Instalace role zabuduje kód, konfigurační parametry a lokální údaje. Role je zavedena na dedikovaný virtuální stroj. K dispozici jsou dva typy rolí. Webové role mohou přes služby IIS (Information Server) přímo komunikovat s klientem a reagovat na jeho požadavky. Worker role nemají přímý kontakt s okolním světem, takže nedokáží reagovat na žádné vnější podněty, ale mohou generovat vlastní požadavky na vstup. Dokáží pouze přijímat zprávy z fronty, takže fungují jako batch job nebo Windows služba. Pokud například webová role
Základní princip fungování platformy Windows Azure
Přerozdělování zátěže pomocí rolí
přijme „zvenku“ požadavek, jehož splnění je výpočetně náročné, přidělí tyto úkony pro worker role.
Komerční dostupnost Windows Azure je v současnosti provozován na třech párech mezi sebou replikovatelných datových center. Jeden pár je v Severní Americe, druhý v Evropě, konkrétně v Dublinu a Amsterodamu, a třetí pár v Asii. S rozvojem provozu bude počet datových center narůstat. Na PDC 09 byly poprvé zveřejněny také ceny za poskytování služeb. Ceny jsou postavené na množství použitých výpočetních zdrojů, jako např. výkon, počet procesorů, disková kapacita, pásková kapacita, využitý čas…
Hodinová sazba za pronájem virtuálního stroje Small (VM 1,6 GHZ, 1.75GB)
0,12 USD
Medium (VM 2 × 1,6 GHZ, 3.5GB)
0,24 USD
Large (VM 4 × 1,6 GHZ, 7 GB)
0,48 USD
XLarge (VM × 1,6 GHZ, 14 GB)
0,96 USD
Poplatek za měsíční pronájem úložného prostoru o velikosti 1 gigabyte je 0,15 USD, poplatek za úložnou transakci je 0,01 USD / 10K a datový přenos je zpoplatněn 0,10 USD in / 0,15 USD out / za gigabyte. Posuďte sami, zda jsou tyto ceny vysoké nebo nízké. Při posuzování berte v úvahu svou současnou úroveň nákladů na IT, samozřejmě po přepočtu na srovnatelnou metriku. Proměňte na čísla potenciální úspory tím, že se řídí služby, a ne servery, jako tomu bylo dosud. Rovněž se řídí údaje, a ne databáze, snižují se také náklady na vývoj a údržbu. Podíl na optimalizaci nákladů má i možnost sdílení resource a fakt, že veškeré obchodní aktivity a z nich vyplývající požadavky na objednávání, přizpůsobení a úhrady za služby vůči poskytovateli jsou soustředěny na jedno místo. Z marketingového hlediska se tedy realizují pro zákazníka pohodlnou a výhodnou formou „one stop shop“.
Naplní se vize tří obrazovek a obláček v pozadí? Ray Ozzie, hlavní softwarový architekt Microsoftu představil na PDC09 svou vizi „three screens and a cloud“. Její naplněním budou miliony mobilů, počítačů a televizorů, tedy mainstreamových klientských zařízení připojených ke cloudu. Je to koncepce tří pohledů na data a aplikační rozhraní. Harmonizovanými faktory jsou webový prohlížeč Internet Explorer, prezentační platforma Silverlight a společný programový model využívající vývojové prostředí Visual Studio 2010. ❑
Connect! březen 2010
19
sítě a komunikace
KABELY VČERA A DNES Vývoj strukturovaných kabeláží a kritické hodnocení trhu Jak se vyvíjely technologie strukturované kabeláže v posledních 10 letech a jaké další trendy nás čekají? Vzhledem ke složitosti problematiky jsou znalosti velmi cenné, jelikož na trhu existuje množství nástrah a riziko fatální chyby projektu je vysoké.
M
ezinárodní norma ISO/IEC 11801 z roku 2002 rozdělila strukturované kabeláže do tří výkonnostních kategorií Cat.5E, Cat.6 a Cat.7. Kategorie Cat.5E byla navrhnuta tak, aby splňovala požadavky pro všechny tehdy existující standardizované protokoly včetně Gigabit Ethernetu. Cat.6 a Cat.7 byly připraveny pro nové vysokorychlostní protokoly budoucnosti. Vyšší přenosová rychlost vyžaduje větší šířku přenosového pásma, proto za základ kategorizace kabeláží byla zvolena právě šířka přenosového pásma, a to následovně: 100 MHz pro Cat.5E, 250 MHz pro Cat.6, 600 MHz pro Cat.7.
Crosstalk. Jakmile kabeláž nesplní požadavky i pro tento nový parametr, přenos dat při vysokých přenosových rychlostech selhává, a to i při dostatečné šířce přenosového pásma. Proto pro 10 Gigabit Ethernet a rychlosti nad 1 Gbit/s musela být roku 2006 zavedena úplně nová kategorie Cat.6A se šířkou pásma 500 MHz a s definovanou maximální hodnotou Alien Crosstalk. Od této chvíle se Cat.6 a Cat.7 ocitly ve slepé uličce a staly se v praxi nepoužitelnými, protože chybějící kritérium pro Alien Crosstalk je výkonnostně postavilo na úroveň Cat.5E. Kromě nové Cat.6A je tedy z původně zavedených
Schéma vývoje strukturované kabeláže
Rok 2006 – přenosová rychlost jako nové kritérium výkonnosti kabeláží
AUTOR
Výzkumné práce na novém protokolu 10 Gigabit Ethernet zanedlouho ukázaly, že šířka pásma jako kritérium výkonnosti kabeláže nepostačuje. Objevil se tedy nový, do té doby nepoznaný fenomén ve formě přeslechů mezi sousedícími datovými kabely ve svazku, blízkými porty v patch panelech a zásuvkách, který byl nově nazván Alien
20
Kolektiv autorů společnosti Krugel Exim D. Vanek (SK), M. Sobolič (SK), P. Neveselý (CZ), P. Vacek (CZ), L. Döbrössy (HU), C. E. Mangiaterra (AR), L. Fuhr (AR)
Connect! březen 2010
kategorií využitelná jen kategorie Cat.5E, jelikož přeslechy mezi sousedními přenosovými prvky se při rychlostech do 1 Gbit/s ještě neprojevují. Na základě výše uvedených skutečností, kritériem výkonnosti kabeláže přestala být šířka přenosového pásma a nahradila ji přenosová rychlost.
Systémy Cat.6A V normě pro 10 Gigabit Ethernet byly předdefinovány základní požadavky na přenosový kanál, což stačilo výrobcům strukturovaných kabeláží k tomu, aby mohli na trh přinést systémy Cat.6A s následujícími vlastnostmi, resp. omezeními:
Výkonnostní kategorie Cat.6A je garantována jen pro systém jako celek. V systému musí být použité jedině ty komponenty, z kterých výrobce sestavil přenosový kanál a dal ho certifikovat ve zkušebních laboratořích. Jakmile jsou komponenty použité v jiné konfiguraci, než je uvedeno v certifikátu, nebo jsou zkombinovány s komponenty z jiného systému Cat.6A, neexistují žádné záruky pro přenosové vlastnosti ani výkonnostní kategorii kabeláže, která tímto vznikne. Jednotlivé instalační kabely, patch panely, zásuvky a patch kabely, ze kterých jsou systémy Cat.6A sestaveny, nemají vlastnosti, na základě kterých by mohly být označovány jako komponenty Cat.6A. Proto renomovaní výrobci systémů Cat.6A pro jednotlivé stavební prvky používají jen názvy odvozené od obchodního jména systému, který naznačuje přenosovou rychlost jako např. 10GPlus, Real10, 10Giga apod. Na druhé straně je mnoho takových dodavatelů, kteří tyto stavební prvky označují jako komponenty Cat.6A, čímž vytvářejí chaos na trhu a uvádí zákazníky v omyl. Pro všechny výrobce nestíněných kabeláží znamenalo zavedení kategorie Cat.6A nutnost vyvinutí nových a dokonalejších systémů. Jen těm nejlepším se podařilo najít technicky elegantní a jednoduše instalovatelné řešení. Naopak, výrobci kvalitních stíněných kabeláží vůbec nemuseli vyvíjet nové portfolio produktů. Měření totiž prokázala nečekané skryté rezervy existujících produktů v šířce frekvenčního pásma a v odolnosti vůči vlivu Alien Crosstalk. Takto vznikly a byly certifikovány kabelážní systémy Cat.6A, které byly sestaveny z už do té doby vyráběných stíněných komponentů Cat.6, resp. Cat.7. Šlo o nezpochybnitelný důkaz významu a důležitosti stínění pro eliminaci elektromagnetických vlivů jakéhokoliv druhu, včetně Alien Crosstalk. Takto byla v praxi demonstrována nadčasovost skutečně kvalitních produktů, které mají „zabudovány“ potřebné vlastnosti dříve, než je odhalí a definuje mezinárodní normalizace.
Komponenty Cat.6A v roce 2010 Jak jsme již uvedli, mezinárodní norma z roku 2006 umožnila vznik systému Cat.6A i přesto, že vlastnostmi jednotlivých komponentů se v tomto stádiu ještě nezabývala. Trvalo další 3 roky, než normalizační komise našly kritéria pro přenosové parametry jednotlivých komponentů Cat.6A a než stanovily zkušební metody pro jejich
A ll - in - O ne inzerce ▼
testování a certifikaci. Tento proces byl ukončen v září 2009 odsouhlasením druhého dodatku k normě ISO/IEC 11801. Publikování nové normy se očekává v dubnu 2010. Pro komponenty Cat.6A je nejdůležitější charakteristikou interoperabilita. Znamená to, že každý přenosový kanál vytvořený z komponentů Cat.6A od různých výrobců a značek je zaručeně kabeláží výkonnostní kategorie Cat.6A.
VÝKONNÉ
VYSOCE SPOLEHLIVÉ
Dvě cesty pro realizaci strukturovaných kabeláží Cat.6A Stojíme na prahu nové etapy, kdy kabeláže výkonnostní kategorie Cat.6A bude možné realizovat dvěma způsoby: instalováním uceleného systému Cat.6A, instalováním interoperabilních komponentů Cat.6A. Obě možnosti jsou rovnocenné a obě mají oporu v mezinárodních normách.
800MHz CPU 80 800
TS-110/TS-210 10/TS 210
Úloha certifikátů v systémech Cat.6A a komponentech Cat.6A Výkonnostní kategorie Cat.6A je garantována jak systémy Cat.6A, tak pro komponenty Cat.6A jen v případě, že tyto odpovídají normám, o kterých jsme se již zmiňovali. Soulad s normami není možné potvrdit jinak než testy a měřeními, které se dají realizovat jen ve specializovaných zkušebních laboratořích. Odlišit falzifikáty od skutečných systémů a komponentů Cat.6A je zákazník schopen jen na základě certifikátů z nezávislých zkušebních laboratoří. Proto jejich striktní vyžadování od dodavatele musí být samozřejmostí. V případě systému Cat.6A jde o jeden certifikát na celý přenosový kanál a v případě komponent Cat.6A je každý z nich certifikovaný samostatně (případně ve skupinách stejné produktové řady). Pro zjištění, zda jde o systém Cat.6A, stavební prvek systému Cat.6A nebo skutečný komponent Cat.6A jsou důležité i texty uvedené v certifikátech. Proto v tabulce 1 uvádíme potřebné základní informace, které mají této identifikaci napomoci.
Potřebná nastavení pro certifikační měření instalované kabeláže testery vyhovujícími výše uvedeným kritériím Typ kabeláže Ucelený systém Cat.6A
Instalace na komponentech Cat.6A
Typ testu
Certifikace podle mezinárodní normy
Americká norma (informativně)
Channel
ISO Ea 500 STP Chann nebo*) ISO ClassEa Ch AMD1
Cat 6a 500 STP Chann nebo*) TIA Cat.6A Channel
Channel
ISO Ea 500 STP Chann nebo*) ISO ClassEa Ch AMD1
Cat 6a 500 STP Chann nebo*) TIA Cat.6A Channel
Permanent link
ISO Ea 500 STP Perm nebo*) ISO ClassEa PL AMD2
Cat 6a 500 STP Perm nebo*) TIA Cat.6A Perm. Link
Komponenty a systémy Cat.6A certifikované jen podle americké národní normy (poslední sloupec tabulky) nevyhovují mezinárodní normě z důvodu nižších požadavků. Např. NEXT při 500 MHz zaostává za mezinárodní normou u systémových řešení o 1,8 dB a u komponentů dokonce o 3 dB.
Úloha certifikačních měření instalované kabeláže Cat.6A Certifikační měření instalované kabeláže přenosnými měřicími přístroji (testery) je určené jen pro ověření kvality instalačních prací a odhalení případných chyb. V žádném případě však nenahrazuje certifikát systému Cat.6A, resp. certifikáty komponentů Cat.6A z nezávislých zkušebních laboratoří (viz předchozí kapitola). Pro certifikační měření instalované kabeláže Cat.6A je nutné použít testery třídy přesnosti IIIe nebo IV s generátory frekvencí minimálně 500 MHz.
ÚSPORNÉ
TS-410 TS 410
české rozhraní
1.2GHz CPU
TS-119 TS 119
TS-219 TS 219 P
TS-419 TS 419 P
Intel Int t ® Atom 1.66GHz CPU
1GB DDRII
1GB DDRII
TS-239 TS S 239 Pro Pro II TS-259 Pro
1GB DDRII
TS 439 Pro II TS-439 TS-459 Pro
TS-509 T TS S -509 509 P Pro TS-419U TS 419U 419 U TS-439U-RP
české rozhraní
1GB DDRII TS-659 TS 659 Pro
1GB DDRII TS-859 Pro
File Server • FTP Server • iTunes Server Remote Replication • RAID Server • Backup Server Web Server • MySQL Server • Multimedia Station Printer Server • Media Server • Download Station Online RAID Capacity Expansion • Online RAID Level Migration • iSCSI target servis
Full-HD síĨový multimediální pĢehrávaĀ NMP-1000 MKV/H264, DTS, AAC 1Gbit LAN, HDMI 1.3 SMB, NFS, FTP, uPnP max. 2TB SATA disk funkce NAS serveru
www.umax.cz
info: 800 118 629
sítě a komunikace
Jakmile jde o ucelený systém Cat.6A, musí se vždy měřit jako kanál („Channel“) při použití patch kabelů z daného systému. V případě kabeláží realizovaných na interoperabilních komponentech Cat.6A máme na výběr ze dvou možností, a to: měřit jako kanál (postup jako v případě systému Cat.6A) nebo měřit jako pevnou linku (Permanent Link). Druhá možnost má hlavní výhodu v tom, že v čase realizace rozvodů nemusí být definován konkrétní typ patch kabelů, ani jejich dodavatel (což se ve většině případů nedá vůbec zabezpečit). Výkonnostní kategorie Cat.6A je totiž garantována pro všechny patch kabely Cat.6A, a to bez potřeby jakéhokoliv dodatečného ověřování nebo měření. Všechny měřicí přístroje uvádějí kromě mezinárodní normy i národní normu TIA/ EIA platnou pro USA. Ta v principu vychází z nestíněných řešení, a proto jsou požadavky na přenosové charakteristiky komponentů a systémů nižší. Při certifikačním měření instalované kabeláže je potřebné na testerech zvolit vždy mezinárodní normu ISO/IEC 11801 (jak je uvedeno v tabulce). Výjimku tvoří: instalace realizované v USA, instalace realizované v krajině, ve které národní norma vychází z TIA/EIA-568, instalace v sídle, pobočce nebo dceřiné společnosti US firmy na území jiného státu.
Analýza produktů s označením Cat.6A Slovenská republika
Česká republika
5%
8%
28 %
29 %
67 %
Falzifikáty
Stavební prvky systémů vydávané za Cat.6A komponenty
Z dalších zjištěných faktorů, které brání rychlejšímu prosazování Cat.6A kabeláží, vzpomeneme: Početná převaha a agresivnější marketing výrobců, kteří doposud nedisponují řešením Cat.6A (tzv. “followers“ bez vlastní vývojové základny, snažící se o kopírování a napodobování originálních produktů). Komerční zájem i předních výrobců, co nejdéle profitovat z prodeje Cat.6 portfolia, a tak lépe zhodnotit technologické zařízení a investice z minulosti.
Předmět certifikace
Povinné odkazy na mezinárodní normy
Povinné texty uváděné v certifikátu
Informativně citované americké normy
Systém Cat.6A
ISO/IEC 11801 yyyy amendment 1yyyy – rok vydání normy 2002 a později
“Two Connector Channel“, nebo “Four Connector Channel“ + seznam všech komponentů tvořících přenosový kanál včetně P/N
ANSI/TIA/EIA 568-B.2-10 nebo ANSI/TIA 568-C.2
Komponent Cat.6A
ISO/IEC 11801 yyyy amendment 2yyyy – rok vydání normy 2002 a později
samostatný komponent, Category 6A s P/N
ANSI/TIA/EIA 568-B.2-10 nebo ANSI/TIA 568-C.2
*) v závislosti na použitém testeru
I když už téměř tři roky je zřejmé, že Cat.6 skončila v slepé uličce, na mnoha trzích je tato kabeláž stále bestsellerem. Argumenty o vyšší spolehlivosti přenosu Gigabit Ethernet při použití Cat.6 místo Cat.5E jsou zavádějící, jelikož přenosová rychlost 1Gbit/s je pro Cat.5E garantována normou a šířka pásma 100MHz byla zvolena s rezervou 20 %. Méně náročnému zákazníkovi má smysl nabídnout řešení Cat.5E a uživateli s potřebou nadčasové a vysoce výkonné kabeláže instalovat Cat.6A. Proč se na mnoha trzích děje něco úplně jiného, jsme zjišťovali analýzou situace ve čtyřech zemích: Argentina, Česko, Slovensko, Maďarsko. Zaostávání v nasazování kabeláží kategorie Cat.6A je úměrné podílu nestíněných kabeláží na trhu. Můžeme to vnímat i jako záměrné brzdění rozvoje ze strany některých zastánců nestíněných řešení.
22
Connect! březen 2010
Komponenty Cat.6A
Detailní analýza všech produktů s označením Cat.6A nabízených na slovenském a českém trhu z listopadu 2009.
Základní informace pro identifikaci stupně certifikace
Analýza a kritické zhodnocení trhu
63 %
Absence kvalifikovaných informací o produktu při prodeji přes moderní distribuční kanály (internetový obchod, velkosklady, obchodní řetězce). Velké tendry a centralizované nákupy pro státní správu a nadnárodní korporace vypisované ze setrvačnosti na základě zastaralých interních předpisů pro budování kabelážní infrastruktury organizace. Nezájem, resp. nepochopení, potřeby častější aktualizace vědomostí ze strany projektantů strukturovaných kabelážních systémů. Zištný a krátkozraký přístup některých instalačních firem k zákazníkovi: “Dnes nainstalovat kabeláž Cat. 6 je šancí za několik let dělat reinstalaci znovu na Cat.6A.“ Z analyzovaných trhů kromě Slovenska s výraznou dominancí stíněných kabeláží došlo k největšímu posunu směrem ke Cat.6A řešením v České republice, a to hlavně zásluhou zapojení konzultantských firem do výběru budov pro vlastní klienty s důrazem na kvalitní a nadčasovou IT infrastrukturu ob-
sazovaných prostor. Spojenci se stali i mnozí systémoví integrátoři a IT firmy. Uvědomili si, že setrváním na platformě Cat.5E a Cat.6 se dávají postupně vytačovat z bussinesu silnoproudými instalačními firmami, které bez problémů zvládají tuto jednoduchou montáž i bez jejich pomoci. Šance být podveden je vyšší než 92 %! ❑
Komponenty systému Cat.6A nejsou komponenty Cat.6A Změny v poznání a mezinárodní normalizaci za poslední roky je možné shrnout do následujících bodů: Pro stanovení požadavků na přenosovou cestu (kabeláž) z hlediska normalizace se stal rozhodujícím přenosový protokol. Ethernet dominuje a určuje směr dalšího vývoje v LAN komunikacích. Kritériem výkonnosti kabeláží přestala být šířka přenosového pásma a byla nahrazena maximální přenosovou rychlostí . V reálném životě mají opodstatnění jen Cat.5E (pro přenosy do 1 Gbit/s) a Cat.6A (pro přenosy do 10 Gbit/s). Cat.6 a Cat.7 jsou „zombie“ kategoriemi a výkonnostně jsou na stejné úrovni jako Cat.5E (přenosy garantované jen do 1 Gbit/s). Od roku 2006 je možné realizovat kabeláže výkonnostní kategorie Cat.6A formou ucelených systémů Cat.6A. Některé kvalitní stíněné komponenty Cat.6 a Cat.7 našly využití jako stavební prvky systémů Cat.6A. Od roku 2009 mohou existovat komponenty Cat.6A a jejich základní vlastností je interoperabilita. Řešení realizovaná jako ucelený systém Cat.6A a řešení postavená na komponentech Cat.6A jsou rovnocenná a obě mají oporu v mezinárodních normách.
Nová řešení, nové produkty, nová
SOFT-TRONIK je nyní Arrow ECS
školení – na to všechno se můžete těšit s Arrow ECS value added distributorem a poskytovatelem profesionálních služeb a školení. Nabízíme ucelený soubor služeb zaměřených na Vás a Vaše podnikání. Ať chcete vstoupit na nové trhy, vybudovat svou pipeline nebo si „jen“ nechat odprezentovat správná řešení, poskytneme vám potřebné nástroje, podporu a zdroje. Změna jména ze SOFT-TRONIK na Arrow ECS pro Vás, jako našeho partnera, znamená zachování kontinuity vysoce kompetentních služeb v IT. Tato změna je zároveň příslibem nového intenzivního zaměření na podporu Vašeho
růstu. Náš slogan „Před Vámi je růst“ bereme vážně a uděláme maximum, aby s námi Vaše podnikání skutečně rostlo.
www.arrowecs.cz
sítě a komunikace
SCHVÁLEN A PŘIPRAVEN PRO FIRMY Standard 802.11n neboli Wireless N je tu Po sedmi letech dohadování a upřesňování byl standard IEEE 802.11n konečně schválen a vysokorychlostní bezdrátová technologie, obecně označovaná jako Wireless N, se stala průmyslovým standardem.
P
rodukty, které se řídí tímto standardem, jsou běžně dostupné od všech předních výrobců spolu s mnoha implementacemi podle předběžného návrhu tohoto standardu, u nichž lze většinou dosáhnout splnění oficiální specifikace 802.11n pomocí upgradu firmwaru. Jaké jsou však praktické provozní výhody této nedávno schválené bezdrátové technologie? Jaké aplikace je možné zlepšit tím, co tato technologie nabízí, a stojí potenciální výhody za to, abyste usilovali o její brzké nasazení?
Wireless N, technické výhody
AUTOR
Wireless N staví na technologiích použitých pro podporu předchozích implementací Wi-Fi a přináší vylepšení ve dvou hlavních oblastech – šířce pásma a dosahu.
24
Aleš Pícl Pracuje jako Country Sales Manager ve společnosti D-Link.
Connect! březen 2010
Laicky řečeno to znamená, že je podle nezávislých testů rychlejší (dokáže například přenášet data až pětkrát rychleji než technologie Wireless G) a navíc podporuje lepší a spolehlivější bezdrátové spojení na delší vzdálenosti. Výkon vypovídá samozřejmě o přednostech nové technologie nejvíce, v praxi dosažené zlepšení však závisí na způsobu jejího použití. Pro dosažení maximálního přínosu budou muset uživatelé přejít kompletně na infrastrukturu Wireless N. Méně znatelné zlepšení rychlosti se projeví tam, kde je nová technologie použita spolu s dosavadními produkty Wireless G nebo s ještě staršími standardy. Je možné říci, že i ve smíšeném prostředí pocítí uživatelé zvýšení dostupné šířky pásma a v konečném důsledku také skutečné zvýšení výkonu hned po zavedení novější technologie. Podobné je to i s dosahem. Výsledek bude záviset na tom, co si uživatelé koupí a jakým způsobem budou produkty určené pro Wireless N využívány. Obecně však
platí, že uživatelé Wireless N budou moci dosáhnout dobrého spojení s bezdrátovým přístupovým bodem na 2 až 3krát větší vzdálenost než se staršími technologiemi. Vylepšený je také roaming a je podporována technologie MIMO (multiple-input multiple-output) pro příjem a vysílání signálu pomocí několika antén současně, která zvýší spolehlivost bezdrátového spojení a umožní firmám poskytovat lépe předvídatelné pokrytí jak uživatelům Wireless N, tak uživatelům starších zařízení. Existují i další technické výhody. Jednou z nich je podpora přenosu ve frekvenčním pásmu 2,4 GHz i 5 GHz a dále používání širších kanálů a agregace paketů, což vše pomáhá vytvořit rychlejší a spolehlivější bezdrátovou síť. Nic z toho však obvykle nebude průměrného firemního nákupčího příliš zajímat. Většina z nich chce prostě jen vědět, jestli se jim to vyplatí. Pro tyto nákupčí zde tedy několik příkladů, jaký přínos mohou firmy všech velikostí očekávat.
Škálovatelné a robustní řešení Když byly bezdrátové sítě poprvé představeny, používaly se spíše výjimečně a byly obvykle vyhrazené jen pro pracovníky, kteří nutně potřebovali mobilitu. Během několika málo posledních let se však velmi
sítě a komunikace
rozšířily, protože se po všech typech pracovníků požaduje, aby pracovali mnohem flexibilněji a využívali rozmanité stolní počítače, notebooky a mobilní zařízení, z nichž je mnoho dodáváno s již vestavěným Wi-Fi. To vede zpětně k většímu náporu na kapacitu bezdrátového přenosu a nutí zaměstnavatele, aby zajistili spolehlivou vysokorychlostní bezdrátovou konektivitu každému uživateli, který to potřebuje. Wireless N zde pomáhá tím, že nabízí mnohem větší propustnost ve srovnání se staršími bezdrátovými technologiemi, a umožňuje zlepšení kvality Wi-Fi připojení a podporu více bezdrátových uživatelů než kdykoli předtím. Přínosem je také zlepšení dosahu a spolehlivosti, což znamená lépe předvídatelné a konzistentnější pokrytí mnohem větších oblastí. To vše se může projevit zvýšením rychlosti přenosu, který může dosahovat rychlostí blížících se kabelovému připojení, nebo možností implementovat Wi-Fi mnohem levněji, pomocí méně přístupových bodů, a obsluhovat více uživatelů bez postřehnutelného snížení výkonu nebo dostupnosti služeb. Shrnuto – Cena za Wireless N je srovnatelná s cenou předchozí generace Wi-Fi, avšak nová technologie je významně rychlejší a spolehlivější, zlepšuje celkovou kvalitu bezdrátového přenosu a umožňuje připojení přes bezdrátovou LAN více uživatelům.
Rozšiřitelné a flexibilní řešení Bezdrátová technologie se využívá ve stále náročnějších podmínkách, například na univerzitách, v nemocnicích, továrnách atd., kde může být prostorové pokrytí nebo rušení přenosu opravdovým problémem. Tyto problémy jsou s Wireless N mnohem lépe řešitelné než se staršími technologiemi, takže je mnohem snadnější rozšiřovat bezdrátový přístup v rámci celé organizace. Podobně lze Wireless N použít také pro rozšíření sítí do dalších budov bez nákladů spojených s tradičními kabelovými řešeními. Je pravda, že podobná bezdrátová přemostění, založená na předchozích Wi-Fi standardech, již nějaký čas existují, ale Wireless N výrazně zvyšuje jejich možnosti bez nějakého zvláštního dopadu na náklady s tím spojené. Shrnuto – Wireless N umožňuje připojit k firemní LAN více uživatelů a poskytovat aplikace i v náročném prostředí za minimální cenu.
Bezpečnější infrastruktura Standard Wireless N zahrnuje nejmodernější bezpečnostní technologie, například Wi-Fi Protected Access (WPA a WPA2). Tyto funkce využívají velmi bezpečné šifrovací a autentizační metody, které
představují značné vylepšení dřívějších technologií, používaných u bezdrátových a/b/g produktů. Certifikace WPA2 je přitom povinná pro všechna nová zařízení, aby mohla obdržet ochrannou známku Wi-Fi. Navíc je zde plná podpora pro personální i firemní implementace, aby bylo možné vyhovět potřebám organizací všech velikostí. Všechna tato Wireless N zařízení jsou již sama o sobě bezpečnější a podporují příslušné technologie, dostupné v nejrozšířenějších operačních systémech, jako jsou Windows XP, Vista a Windows 7. Shrnuto – Wireless N poskytuje uživatelům nejmodernější zabezpečovací funkce, zahrnující WPA a WPA2, což znamená, že je bezdrátová síť neustále plně chráněna.
Podpora pro vyvíjené aplikace Aplikace a prostředky, jakými jsou doručovány, se změnily k nepoznání – od programů spouštěných na lokálních počítačích přes architekturu klient-server až po dnešní SaaS (Software as a Service), Web 2.0 a cloud computing. V důsledku toho je kladen stále větší důraz na to, aby měli firemní uživatelé v libovolném místě přístup nejen k e-mailům a datům, ale také k provozně důležitým aplikacím, což vyvolává poptávku po takovém druhu spolehlivého vysokorychlostního připojení, jaké poskytuje právě Wireless N. Zatím to sice není absolutní nezbytnost – většinu aplikací je možné podporovat pomocí dřívějších bezdrátových řešení – ale požadavky na potřebnou šířku pásma neustále rostou a starší Wi-Fi instalace to přestávají zvládat. To se pak promítá do frustrace uživatelů a zvýšeného počtu volání na technickou podporu. Wireless N může pomoci tyto problémy zmírnit. Jde navíc o ověřenou a stále se vylepšující technologii, která pokud je implementována nyní, nabízí prakticky bezproblémový základ pro zavádění ještě náročnějších aplikací, které budou v budoucnu nepochybně vyvinuty. Shrnuto – Wireless N přináší šířku pásma a předvídatelné pokrytí, které jsou potřebné pro podporu bezdrátového přístupu k moderním firemním aplikacím, a zároveň poskytuje pevný základ pro budoucí vývoj.
Konvergence hlasu, videa a dat Nějakou chvíli to trvalo, ale nyní již firmy sklízejí odměnu za využívání datových sítí i pro přenos hlasu a později také obrazu. Možnost dělat to bezdrátově k tomu přidává ještě další rozměr, je však třeba počítat s tím, že IP telefonie a streamování videa potřebují velkou šířku pásma a jsou velmi citlivé na zpoždění přenosu.
Wireless N není kompletní odpovědí na všechny tyto požadavky, je však velkým přínosem pro řešení základních technologických záležitostí. Zpřístupňuje technologie pro více mobilních zařízení a zároveň poskytuje trvalou konektivitu a mnohem větší dosah. Shrnuto – Wireless N může pomoci rozšířit výhody IP telefonie a videokonferencí pro více mobilních uživatelů.
Maximalizace užitku investic Jedním z posledních důvodů je doba, kterou zabralo schválení standardu Wireless N, během které dodavatelé nezaháleli. Místo toho se většina snažila prosadit implementace podle předběžného návrhu Wireless N ve všech typech zařízení, od bezdrátových směrovačů a přístupových bodů až po notebooky a další mobilní zařízení. Proto můžete více méně počítat s tím, že většina firem již bude mít alespoň nějaký Wireless N hardware, i když většinou zapojený do starších 802.11a/b/g sítí. Upgradování infrastruktury na úplnou podporu Wireless N může být v takových firmách provedeno rychle a levně. V mnoha případech skutečně stačí pouze aktivovat podporu Wireless N, abyste mohli získat okamžitě výhody a maximalizovat užitek z dosavadních investic s minimálními náklady. Shrnuto – Je pravděpodobné, že již nějaké Wireless N zařízení máte – když je dobře využijete, bude to cenově výhodné a snadno maximálně zhodnotíte stávající investice.
Proč váhat? Ať už instalujete bezdrátovou síť poprvé, nebo chcete upgradovat existující Wi-Fi infrastrukturu, je rozhodnutí jít do Wireless N prakticky předem dané. Nejenže přinese firmě okamžité výhody, vyplývající z větší šířky pásma, zvýšeného dosahu a lepší spolehlivosti, jak bylo uvedeno výše, ale je také zpětně kompatibilní a schopná spolupracovat s předchozími Wi-Fi technologiemi. K tomu můžete přidat fakt, že technologie Wireless N byla po několik let rozsáhle a pečlivě testována již ve stadiu předběžného návrhu a její funkčnost je nyní zaručena schválením standardu IEEE. Je proto prozíravé začít již teď plánovat její nasazení a přejít na Wireless N raději dříve než později. Má výjimečný výkon a kromě toho poskytuje již nyní základ pro budoucí zlepšení šířky pásma, dosahu a spolehlivosti. Je to budoucnost Wi-Fi, která je dostupná již dnes. ❑
Connect! březen 2010
25
sítě a komunikace
TUKWILA KONEČNĚ VENKU Procesory Itanium opět ožívají Po více než dvou letech se opět na světlo světa dostala další generace procesorů IA-64 nebo Intel IPF (Itanium Processor Family). Tukwila, jak se doposud říkalo procesoru Itanium 9300 série, je první model zcela nové řady Itanií s novým pojetím počítače jako celku.
P
ůvodní procesory nebyly nijak kategorizovány kromě výrobních technologií. Populární se stal vznik procesorů RISC, hlavně po masivním nástupu v polovině 80. let. Předchozí procesory byly nazvány CISC, protože měly bohatou sadu instrukcí. RISC s omezenou příkazovou sadou měly spasit svět menší plochou čipu, vyšší frekvencí a čistším návrhem. Po pětileté euforii nastalo vystřízlivění. Ukázalo se, že CISC i RISC mají zajímavé vlastnosti. CISC nabral dech a začal zrychlovat díky tomu, že se velké instrukce daly hardwarově snadno posílit. To se na již ořezaných příkazech RISC nedalo, protože byly příliš malé. Projekt IA-64 odstartovala roku 1989 firma Hewlett Packard. Rozšířením CISC architektury vznikla VLIW s velmi dlouhým instrukčním slovem. Je to přesně opačný směr, než nabraly RISC procesory. HP si z VLIW vzala motivaci a vytvořila EPIC, kde jedno dlouhé instrukční slovo obsahuje tři standardní. Pět let po vývoji EPIC Hewlett Packard poznala, že musí spolupracovat s dalšími výrobci, pokud možno neutrálními. To byli ti, kteří nevyráběli procesory pro vlastní servery s vlastním operačním systémem, nýbrž procesory poskytovali všem. Roku 1994 padla volba na Intel, poprvé se také objevilo označení IA-64 (Intel Architecture 64).
V rozbouřených vodách
AUTOR
V první polovině 90. let nastalo velké vymírání starších rodin procesorů CISC či slabších RISC (jako Motorola 68K, Motorola 88K, Intergraph Clipper, Zilog Z8000/ Z80000 atd.). Nahradily je nové rodiny DEC Alpha AXP či PowerPC. Těsně poté nastalo
26
Patrik Veselík Je externím členem redakce časopisu Connect!. Pracuje na Střední škole aplikované kybernetiky v Hradci Králové.
Connect! březen 2010
umírání řady operačních systémů a přechod jinam (např. z DOSu, Novell Netware či OS/2 do řady Windows NT či Linuxu). Také svou roli sehrály Java aplikace, později doplněné i nativními Java procesory (picoJava, MAJC 5200). Milénium bylo spíš bodem, kdy se svět měl uklidňovat, a ne aby přišla ještě další rodina procesorů. Vytvořit tak pozdě zcela novou rodinu procesorů, to byl odvážný počin. Události odstartoval hlad obří firmy Digital Equipment po dalších patentech. To bylo v době, kdy se jejich procesory
Intelu do klína jeho patenty, obohacené o patenty Cray. Řada operačních systémů byla na IA-64 přenesena. Microsoft původně použil IA-64 jako svou druhou hlavní platformu pro pracovní stanice a servery; do dneška přežily jen serverové verze, viz Windows Server 2008 R2 for Itanium-Based Systems. Mezi další portované patří HP-UX (dříve pro HP FOCUS, pak MC68k a nakonec PA-RISC), nebo OpenVMS (původně VAX či Alpha AXP). Také se objevily a dodnes spokojeně žijí distribuce Red Hat RHEL, nebo SuSE / Novell SLES.
IA-64 Projekt byl vyvíjen rovnou v 64bitové verzi. Na podzim 1999 byl zveřejněn název procesoru s IA-64 architekturou, Intel Itanium. Procesory se začaly vyrábět pro zkušební
Rodina IA-64 se stala hrobníkem většiny legendárních RISC procesorů Alpha AXP staly horkým kandidátem pro procesory v nových pécéčkách. Dokonce i na českém trhu se prodávaly samostatně procesory i základní desky, a tak si kdekdo mohl Alpha počítač poskládat. Microsoft připravoval Windows NT 5.0 pro procesory x86 a právě Alpha AXP (NT 5.0 byly později přejmenovány na Windows 2000). Firma DEC dostala chuť i na legendární Cray. Ale když jedna špička pohltí druhou, obvykle je výsledkem silný vzestup, nebo silný pád. Tady šlo bohužel o druhý případ. A začaly se dít věci. Microsoft okamžitě zastavil tvorbu Windows pro Alpha systémy, což prakticky znamenalo signál o smrti i pro další firmy. Padlý Digital byl pohlcen firmou Compaq, která o procesory nestála, a tak se domluvila právě s Intelem, který v té době připravoval procesory IA-64. Smlouva zavazovala Intel časem vytvořit procesor, na kterém by programy pro Alpha AXP měly stejný či vyšší výkon při porovnání s nejrychlejším Alpha procesorem. A tím má být právě teď uvedená Tukwila. Jeden z největších konkurentů pro IA-64 odpadl a ještě jako bonus spadly
a vývojové účely. A nešlo zdaleka jen o procesor – musely se vyrobit procesory, pak počítače, na kterých se následně vyvíjel operační systém, aby se na něm tvořily aplikace. Celek se pak dodával klíčovým zákazníkům, kteří s aplikacemi pokusně pracovali. Celý proces byl během na velmi dlouhou trať. Konečně se svět dočkal, když byl 29. května 2001 uveden první procesor Intel Itanium „Merced“ na 733 nebo 800 MHz. Přímo na čipu byla L1 a malinká L2 cache, na dalších obvodech byla cache L3. Rok poté následoval procesor Intel Itanium 2 „McKinley“, který měl vše na jediném čipu. Přinesl novou patici PAC611, kterou řada IA-64 používala až doteď. Čtyři roky poté, tedy v červenci 2006, bylo uvedeno první dvoujádro.
Pohřebnictví IA-64 s.r.o. Ať se to zdá jakkoli morbidní, stala se rodina IA-64 hrobníkem většiny legendárních RISC procesorů. Ještě než se prodal jediný kus, již měl dokonce dvě oběti. Budoucí přechod z HP PA-RISC do IA-64 byl zamýšlen už firmou Hewlett Packard, nešlo tedy o nic
Kompatibilita Začněme možností provozovat programy pro x86 procesory. Nesmíme totiž zapomenout na fakt, že IA-64 je projekt Intelu. Původně měly Itania v sobě ještě jeden procesor, a to IA-32. Po příchodu dvoujádra se místo hardwarové cesty zvolila od té chvíle výhodnější emulace pod názvem IA-32 Execution Layer. Díky tomu lze na procesorech IA-64 spouštět i klasické programy pro počítače PC, jako účetnictví či kancelářské aplikace. Jde vždy o 32bitové programy; kdo vyžaduje 64bitový výkon, musí využít nativní programy pro IA-64. Využívá se jako pro aplikace pro MS Windows, tak Linux.
Další jsou programy pro PA-RISC, potažmo operační systém HP-UX. S tím se počítalo od začátku, a tak je v HP-UX pro IA-64 vložena emulační vrstva, která umožní chod aplikací pro HP-UX, původně určených pro PA-RISC. Pro další systémy existuje podobný způsob, a to od firmy QuickTransit (dnes součástí IBM). Už v říjnu 2004 s touto možností přišla firma SGI, která umožnila na Linuxu pro IA-64 provozovat programy určené pro Irix na MIPSech. Možnost spustit na procesorech IA-64 programy pro úplně jiné procesory se netýká jen padlých, ale i žijící konkurence. Umožňuje to například program QuickTransit for Solaris/SPARCto-Linux/Itanium.
inzerce ▼
překvapivého. Rodina Alpha AXP byla spíš náhodnou obětí, která se zlikvidovala sama. Velké vymírání rodin RISC procesorů se konalo zhruba kolem roku 2005, přibližně dvacet let po jejich slavném příchodu. Patří sem procesory MIPS, které používaly ve svých serverech a pracovních stanicích firmy Silicon Graphics (operační systém Irix), Siemens (SINIX / Reliant UNIX), nebo Tandem Computers / Compaq / HP Integrity NonStop (NonStop OS). Posledně jmenovaný operační systém přešel na IA-64, firma Silicon Graphics také, ale zároveň opustila vlastní Irix ve prospěch Linuxu. Podobně to provedl HP s operačním systémem DEC / Compaq Tru64 UNIX (pro Alpha AXP), kde aplikace byly přeneseny na HP-UX na PA-RISC či IA-64. Proč si o tom tak sáhodlouze – ale snad zajímavě – vyprávíme? Každá z těch mrtvých rodin procesorů znamená nejen kousek křemíku, ale také operační systém, aplikace a hromady zákazníků s touhou provozovat své systémy i nadále.
Jaro na zahradě s radami z CPressu
Itanium 9300 série Procesory Itanium 2 měly shodnou patici PAC611 od června 2002 do ledna 2010. Nový model Itanium 9300 série má novou patici LGA1248. Tu si vyžádaly zásadní změny v blokovém schématu počítače. Řadič RAM paměti se přesunul přímo do procesoru, navíc se přešlo od dosavadní paralelní sběrnice na sériovou QPI. Tu jsme již poznali s procesory Nehalem (např. Core i7, v serverech Xeon 5500 série). Ze stejných procesorů Intel převzal technologii Turbo Boost, což je automatické přetaktování procesoru. Podle využití jader a aktuální teploty se frekvence jader automaticky zvyšuje o 133 MHz. To je ve světě velkých procesorů stále unikátní. Opět se používá HyperThreading, kdy je každé jádro využíváno dvěma vlákny. Itanium 9300 série tak předstírá osm jader, protože zpracuje až 8 vláken najednou. Nový procesor je čtyřjádrový s podporou HyperThreading technologie pro všechny
Zapojení osmi procesorů
SLEVA 20% na knihy z oboru Příroda a zahrada
1.3. - 31.3.2010 knihy.cpress.cz více než 2 000 titulŢ v kompletní nabídce e-shopu
sítě a komunikace
modely, včetně jediného dvoujádra v nabídce (Itanium 9310). Procesor podporuje nově také virtualizaci VT-d a vylepšuje dosavadní VT-i na VT-i2. Cache L1 je stále stejná, má 16 + 16 KB v každém jádru. Cache L2 je stále dělená na instrukční a datovou, stále nesymetricky. L2I se ale zmenšila na polovinu (512 KB). Latence L1D je jeden takt, L2D je 5 až 7 taktů. Až cache L3 je společná pro data a instrukce. Je tvořena pamětí 6T SRAM. Podle verze procesoru má 8 až 24 MB, je ovšem mezi jádra rozdělena. Každé má tak k dispozici 4 až 6 MB podle verze. Procesor komunikuje s okolím přes QPI s výkonem 4,8 GT/s. Čtyři QPI mají standardní datovou šířku 16 + 16 bitů, dvě mají šířku poloviční. Celková přenosová rychlost je (9,6 GB/s × 4) + (4,8 GB/s × 2) = 48 GB/s jedním směrem. Protože jde o plně duplexní komunikaci, jde celkem o 96 GB/s. To je téměř 10× více než u předchozích Itanií 9100 série. Čtyři stejné komunikační kanály umožní poskládat i mnohorozměrné schéma. Tento systém již v polovině 80. let použila firma Inmos například v procesorech IMS T414 či T800, kterým říkal „transputer“. Pro procesory Itanium 9300 série je určen Intel 7500 chipset „Boxboro-MC“.
Je z rodiny určené také pro procesory Intel64 (konkrétně Xeon 7500 série). Tamní varianta má kódové jméno Intel „Boxboro-EX“. Jeho součástí je také Intel 7500 Scalable Memory Buffer, což je předsunutý řadič RAM. K němu se připojují standardizované moduly DDR3 RDIMM. Základ řadiče RAM paměti je přímo v procesoru. Nově je možné využít Hot Plug, takže lze za chodu procesor vyjmout, vyměnit, případně vložit. Doposud to bylo možné, jen když chtěl výrobce počítače (procesor to přímo nepodporoval). Použití 65nm výrobní technologie není pro rok 2010 zrovna nejšťastnější; důvodem je velký skluz, který při uvádění Tukwily vznikl. Důsledkem je také mimořádná produkce tepla ve srovnání s předchůdci. Tam vždy postačilo maximálně 130 W, poté dokonce jen 104 W. Čtyřjádro se pohybuje od 130 do 185 W. Na jádro to je ale jen 46 W, což je nejméně v historii IA-64. Díky 65nm technologii má procesor 698,75 mm2. Což výrazně předčilo i doposud největší mikroprocesory, jakými byly dvoujádrová Itania 9000 / 9100 série a IBM POWER7. Mimochodem to není jediný 65nm v kategorii, podívejme se například na Fujitsu
Poslední čtyři generace rodiny IA-64 Intel Itanium 2 kódový název
„Dual-core Intel Itanium 9100“
„Intel Itanium 9300“
Montecito
Montvale
Tukwila
1/1
2 / 4 (kromě 9010)
2 / 4 (kromě 9110N)
4 / 8 (kromě 9310)
1,30 až 1,66 GHz
1,40 až 1,60 GHz
1,42 až 1,67 GHz
1,33 až 1,73 GHz (1,46 až 1,86 GHz)
400 / 667 MHz
400 / 533 MHz
400 / 533 / 667 MHz
2,4 GHz (4,8 GT/s)
128 bitů
128 bitů
128 bitů
4× (16 + 16) bitů 2× (8 + 8) bitů
až 10,6 GB/s
až 8,53 GB/s
až 10,6 GB/s
4× (9,6 + 9,6) GB/s 2× (4,8 + 4,8) GB/s
50 bitů
50 bitů
50 bitů
50 bitů
počet jader / vláken vnitřní frekvence (Turbo Boost)
„Dual-core Intel Itanium 2 9000“
Madison 9M / 667
externí sběrnice takt datová šířka přenosová rychlost adresová šířka cache cache L1 (D + I)
16 + 16 KB
2× (16 + 16) KB
2× (16 + 16) KB
4× (16 + 16) KB
cache L2 (D + I)
256 KB
2× (256 + 1024) KB
2× (256 + 1024) KB
4× (256 + 512) KB
3, 4, 6 nebo 9 MB
6, 8, 12, 18, 24 MB
8, 12, 18, 24 MB
8, 16, 20, 24 MB
9 MB / 9 MB
12 MB / 6 MB
12 MB / 6 MB
6 MB / 3 MB
takt jádra
asynchronní
asynchronní
?
IA-32 H/W nebo IA-32 EL
jen softwarově (IA-32 EL)
jen softwarově (IA-32 EL)
jen softwarově (IA-32 EL)
Socket-Level
Socket-Level Core-Level
Socket-Level Core-Level
„ano (kromě modelů 9030 a 9010)“
ano (kromě modelů 9110N, 9130M a 9150N)
ano (všechny modely)
VT-i, DBS (kromě modelů 9110N, 9120N a 9130M)
VT-i2, Enhanced DBS, xD bit, Turbo Boost
cache L3 (celkově) L3 na jádro / vlákno takt cache L3 technologie kompatibilita s IA-32 Lockstep (= zrcadlení) Hyper-Threading ostatní patice rozměry [mm]
PAC611
PAC611
PAC611
LGA1248
90 × 48,26
113 × 48,26
113 × 48,26
66 × 66
ostatní celkový počet čipů teplo (TDP) TDP na jádro / vlákno uvedení na trh
1
1
1
1
122 W
104 W
75 až 104 W
130 až 185 W
122 W / 122 W
52 W / 26 W
52 W / 26 W
46 W / 23 W
18. červenec 2005
18. červenec 2006
31. říjen 2007
9. únor 2010
výrobní technologie
130 nm
90 nm
90 nm
65 nm
plocha čipu
432 mm2
596 mm2
596 mm2
699 mm2
počet tranzistorů cena *
592 milionů
1 720 milionů
1 720 milionů
2 046 milionů
530 až 4 655 USD
696 až 3 693 USD
696 až 3 692 USD
946 až 3 838 USD
tučně jsou rozdíly oproti předchozí generaci * za jeden kus při odběru 1000 kusů
28
Connect! březen 2010
SPARC64 VII. Následným krokem by býval byl přechod na 45 nm, kdyby se Intel nerozhodl jej přeskočit a přejít rovnou na 32 nm. S tou má přijít zcela nová „ultra paralelní mikroarchitektura“. Cenová politika se nijak neodchyluje od dosavadní praxe. Nejdražší model Itanium 9 350 za 3 838 dolarů sice vypadá draze, ale nejdražší Itanium v historii to není. Tím bylo jednojádrové Itanium 1,67 GHz „Madison“ za 4227 USD.
Kdo bude vyrábět stroje? Jen zřídka se vyskytne situace, kdy se objeví procesory, ale počítače s nimi ještě ne. Dokonce ani čipset ještě není uveden. Spolu s prvními počítači s procesory Itanium 9300 by se měly objevit také nové verze operačních systémů s jejich podporou. A králem bude jednoznačně Hewlett Packard. Půjde o HP-UX 11i v3 Update 6, nebo OpenVMS 8.4. Další očekávanou novinkou je Red Hat Enterprise Linux 5.5. Do uzávěrky časopisu žádná firma neuvedla ani počítač, ani základní desku pro nová Itania. Na CeBITu však byl vystaven server SuperMicro SuperServer 4146B-3R, do kterého je možné umístit až čtyři čtyřjádrová Itania 9300, dokonce i za chodu. Právě vstup firmy SuperMicro je důležitý, protože nyní si bude moci vytvořit počítač s Itaniem i malá firma. Přesněji řečeno, je to návrat, protože před sedmi lety Itanium 2 podporovala (viz deska i2DML-iG2). Mezi velké hráče patří Bull, hodlající použít Itanium 9300 série pro své mainframe počítače NovaScale GCOS. Dalším je samozřejmě Hewlett Packard pro řadu Integrity. Mezi další firmy patří japonská Hitachi, která procesory IA-64 použila pro blade servery BladeSymphony 1000, dokonce s vlastním čipsetem Hitachi Node Controller. Další Japonec, NEC, použil Itania 9100 série pro enterprise servery Express5800/1320Xf a Express5800/1080Rf. Opět si výrobce počítačů vytvořil vlastní čipset, zde s názvem NEC A3. Vrcholem nabídky NEC je mainframe i-PX9000 s operačním systémem ACOS/VX. Dalším gigantem s příslibem výroby počítačů s novými Itanii je pro nás zcela neznámá čínská společnost Inspur.
Licenční politika Jak jsou nové procesory hodnoceny při výpočtu ceny licence softwaru? Firma IBM pro své produkty používá PVU (Processor Value Unit) pro smazání rozdílů mezi architekturami. Pro Itanium 9300 série doposud PVU nebylo stanoveno; lze očekávat, že půjde opět o PVU = 100 po vzoru předchůdců. Konkurenční Oracle hodnotí jádro procesoru Intel Itanium 9300 stejně jako u předchůdců, tj. faktorem 0,5. ❑
sítě a komunikace
EVOLUCE MALÝCH ENTERPRISE DISKŮ Enterprise SAS 2,5˝ disky s 10 000 ot/min Opět nastal čas zdvojnásobit kapacitu pevných disků. Tentokrát byly na řadě serverové SFF disky s otáčkami 10 000 ot/min, kdy se maximální hodnota posunula na 600 GB. Tradiční firmě Seagate ale nekonkuruje Hitachi GST ani Western Digital, nýbrž nový hráč, firma Toshiba. A obě přinesly zajímavé novinky. Co je Seagate PI a jak Toshiba mění otáčky za provozu?
C
o mají disky konkurenčních firem společného? Mají 10 000 otáček za minutu, 2,5˝ při tloušťce 15 mm a rozhraní SAS 2.0 s rychlostí 6 Gb/s. Kombinace otáček a fyzických rozměrů poskytuje ideální kompromis mezi nimi. Seagate i Toshiba nabízejí disky s kapacitou až 600 GB při kapacitě plotny 200 GB, takže obě používají až tři plotny (doposud byly maximálně dvě).
Fibre Channel a PI
AUTOR
Společnost Seagate je na poli pevných disků stálicí. Kombinaci 2,5˝ a otáček 10 000 ot/min nazývá Savvio 10K. Pátá generace se jmenuje Savio 10K.4 (Seagate používal označení Savvio 10K pro první a Savvio 10K.1 pro druhou, proto ten skluz). Kapacita se oproti předchozí 10K.3 zvětšila na dvojnásobek. Docílilo se toho jak zvýšením kapacity plotny, tak zvýšením počtu ploten ze 2 na 3. Fyzické tloušťky disku se tato změna naštěstí nedotkla, má stále 15 mm. Přenosová rychlost se zvýšila ze 129 na 141 MB/s. Opticky je zvýšení poměrně velké, ale jde jen o 12 MB/s. Seagate po výpadku jedné generace opět podporuje rozhraní Fibre Channel. Naposledy, pravda, šlo o Savvio 10K.2, ale nyní se opět FC verze vrací. Výrobce zřejmě posílal FC do důchodu rychleji než výrobci serverů a zákazníci. Stále se jedná o verzi s rychlostí 4 Gb/s. Zajímavou novinkou je PI (Protection Information). Jedná se o průběžné sledování dat, přičemž se zaměřuje na poškození dat při přenosu. Vyžaduje však podporu řadiče. Objevují se také další názvy jako oficiální PIM (Protection Information Model) nebo Patrik Veselík Je externím členem redakce časopisu Connect!. Pracuje na Střední škole aplikované kybernetiky v Hradci Králové.
alternativní DIX (Data Integrity Extensions), DIF (Data Integrity Field), případně BlockGuard. Jedná se o společnou iniciativu firem Seagate, Emulex, Oracle a LSI. Podporu má například v kernelu Linuxu 2.6.27. Výsledkem je oficiální podpora ANSI T10, zodpovědné také za SCSI blokové příkazy. Podpora PI vyžaduje zvětšení bloku z klasických 512 B na 520. Výsledkem je další zvýšení bezpečnosti dat od řadiče až po plotny disků. To se využije například v SAN úložištích. Mimochodem – jedná se o součást standardu SAS 2.0; je tedy otázka, zda tuto funkci nemá i konkurence (jen o tom nemluví).
Sbohem, Fujitsu… Společnost Fujitsu se zbavila od 1. října 2009 divize pevných disků, která přešla pod křídla firmy Toshiba. Ta již předtím pevné disky vyráběla, a pěkně dlouhou dobu. Zaměřovala se na notebookový segment, posléze také na kapesní záležitosti a disky do aut. Po akvizici firmy Fujitsu vstoupila Toshiba poprvé také do světa enterprise, což znamená například servery či pracovní stanice. Ale vyplatilo se, dokonce i pro minulost. Například pro starší disk MBB2147RC se přesunem pod křídla Toshiby zlepšila situace, když neopravitelnou chybu sektoru za 1015 přenesených bitů si zlepšil na 1016.
Proměnné otáčky Fujitsu již jako součást Toshiby představila nové disky MBF2-RC série. Také mají 2,5˝ a 10 000 ot/min, rovněž podporují rozhraní SAS 2.0 s rychlostí 6 Gb/s. Také Toshiba nabízí možnost šifrování disku (SED). Má ale jinou filozofii kapacity. Nabízí tři varianty kapacity – vedle obvyklých možností 600 či 450 GB umožňuje také 300 GB. Pro poslední dvě kapacity vychází kapacita na plotnu jen 150 GB. Toshiba svou další novinku poměrně dobře ukrývá. Jen v některých materiá-
Pevný disk Seagate Savvio 10K.4.
lech se zmiňuje o nové technologii pro snížení spotřeby. Ta spočívá v nižších otáčkách disku ve chvílích jeho nečinnosti, což má snížit spotřebu o 28 %. Mimochodem spotřeba ve stavu idle je zřejmě uváděna právě při snížených otáčkách (výrobce použil frázi „Low Power Idle“). Jen je škoda, že výrobce uvádí odlišnou spotřebu v PDF dokumentech a odlišnou na webu, navíc se ještě liší japonské, americké i evropské stránky. Jak je u snižování otáček obecně zvykem, jsou bližší detaily i konkrétní otáčky výrobním tajemstvím. Záhadou je u Toshiby přenosová rychlost. Většinou není uvedená, a když, tak se jedná o překvapivě vysoká čísla (až 216 MB/s). Konkurenční Seagate uvádí o poznání menší (až 141 MB/s, v některých materiálech i nižší). Pokud by na tom byla alespoň špetka pravdy, měla by Toshiba opravdu ďábelsky rychlé disky.
Protiútok jistý Prozatím nepostoupily o schůdek výš dvě firmy. Western Digital má svou rodinu S25, Hitachi GST má Ultrastar C10K. Obě mají SAS 2.0 s rychlostí 6 Gb/s, obě pokročily po kapacitu 300 GB. Western Digital nabízí naprosto standardní model odpovídající modelům Seagatu a Fujitsu/Toshibě, oproti tomu Hitachi notně posílila cache disků na 64 MB. Od ní se další krok velmi očekává, WDC je na poli profesionálních disků nováčkem (už podruhé – nezapomeňme na krátkou éru SCSI modelů). Může rozhodnout letošní CeBIT. Jediný, od koho se neočekává v profi světě nic, je Samsung; ten se soustředí na konzumní produkty. ❑
Connect! březen 2010
29
sítě a komunikace
ZRALÉ VÍNO Recenze Notebooku Lenovo G560 Řada notebooků Lenovo určená jak pro domácí použití, tak pro SoHo dostala nový přírůstek Lenovo G560. Ten oproti předchůdci G550 doslova uzrál – ubylo lesklých částí, naopak přibyl kov pod klávesnicí či eSATA. To vše pohání moderní procesor Core i3.
T
ělo G560 zůstalo plastové, žádné Roll Cage jako u (bohužel už jen některých) ThinkPadů zde nenajdete, nicméně zpracování zasluhuje pochvalu. Oproti G550 se lekne pouze víko včetně LCD. Tělo tvoří matné plasty, což hodnotím kladně včetně černého kovu pod klávesnicí, což eliminuje otírání barvy na této namáhané části.
ní filmů, pro práci již méně. Ale pokrok nezastavíš. Moderně působí i touchpad tvořený jedinou částí, což působí efektně, ale při práci, když chcete používat touchpad samotný spolu s tlačítky (např. při kopírování), to ne vždy funguje na 100 %. Ani kurzor nereagoval pokaždé dle mých představ na pokyn prstu jezdícího po touchpadu. Líbily se mi však reproduktory s dobrým zvukem a dotekové ovládání hlasitosti podsvícenými ovladači.
Výkon nejen pro hráče
Propracovaná je správa napájení, opět upravená pro nezkušené uživatele. Ti nemusí nijak manipulovat s nepřehlednými nastaveními ve Windows 7, ale pouze v programu Energy Management nastaví, zda požadují výkon či výdrž. Program zobrazuje kapacitu baterie a zbývající dobu provozu. ❑
HP Pavilion dm1-1010ec LCD
15,6 palců (lesklé, LED), 1366 × 768
Procesor Parametry CPU
Intel Core i3 350M 2,27 GHz, cache L2 512 kB a L3 3 MB, TDP 35 W, 32 nm
RAM
2× 2 GB DDR3-1066
Čipset
Intel MH55
Grafická karta
nVidia GeForce 310M
Parametry GPU
625 MHz / 16 shaderů
Vlastní grafická paměť
512 MB / 64 bitů / 790 MHz
Pevný disk
Western Digital Scorpio Blue
Specifikace
320 GB, 5 400 ot., 8 MB
DVD vypalovačka
Matshita UJ890AS
Čtečka paměťových karet
SD / MMC / MS (Pro) / xD
Wi-Fi / Bluetooth / 3G
Uživatelé ocení dobrou klávesnici s numerickou částí (bohužel s tradičně prohozeným Fn a Ctrl), která se stává běžnou součástí 15,6palcových notebooků spolu s displejem 16:9 vhodným na sledová-
Hodí se do firmy?
AUTOR
Lenovo G560 oproti předchozímu modelu G550 dozrálo ku prospěchu věci – má moderní procesor, více výkonu, více rozhraní a méně lesklých částí. Malým firmám nabídne snadnou obnovu a zálohu systému či snadnou správu napájení pro méně zkušené uživatele. Potřebujete-li 3D výkon, GeForce 310M nabízí alespoň základní.
30
Igor Viduna Autor je externím spolupracovníkem redakce.
Connect! březen 2010
Výkonný procesor Core i3 „inside“ na rozdíl od Core 2 Duo disponuje pamětí L3 cache a technologií Hyper Threading (reinkarnovanou z Pentia 4). Postrádá však schopnost automatického přetaktování Turbo Boost, jakou má Core i5. Pokud hledáte výkon pro 3D či třeba pro výpočty s využitím technologie CUDA, uvítáte GeForce 310M. Sice je pouze přetaktovanou a přejmenovanou GeForce 210M a základem v nabídce nVidia, avšak ve srovnání s Intel HD Graphics integrovanou na procesoru nabídne znatelně více síly. Pro firemní nasazení jinak spíše domáckého notebooku hovoří například program OneKey Recovery, který zálohuje systém na pevný či USB disk, obnoví jej ze zálohy i kompletně přeinstaluje. V neposlední řadě vypálí instalační DVD. Nicméně nedosahuje kvalit aplikace ThinkVantage, i když vedle zmíněných funkcí umí otestovat i pevný disk antivirem. Vše se spustí po zmáčknutí tlačítka. Chybějící čtečku otisků prstů nahrazuje program Veriface, který za pomoci webové kamery rozpozná obličej a přihlásí vás do Windows (později i na webové stránky) bez nutnosti psaní hesla. Zde jsem upřímně poprvé zažil, že funkce fungovala. Pokrok prostě nezastavíme, ale na TPM zapomeňte. Jde o čistě softwarové řešení. + solidní výkon + kvalita zpracování + softwarová výbava s přívětivým ovládáním
Broadcom 802.11n / ano / ne
LAN
Broadcom 10/100
HD Audio
Conexant Cx20585
Porty
2× USB, 1× eSATA/USB, VGA, HDMI, RJ45, 2× audio
ExpressCard
34 mm
Možnost přídavné baterie
-
Dokovací konektor
-
Čtečka otisků prstů Speciální výbava
Webová kamera, mikrofon, numerická klávesnice, Lenovo OneKey Recovery, Veriface a Energy Management
Akumulátor
11,1 V, 4300 mAh (48 Wh)
Hmotnost OS
2,6 kg Windows 7 Home Premium (64bitová)
Cena koncová (bez DPH)
16 490 Kč
Záruka
2 roky „carry in“
Rozšíření záruky
připravuje se
Výsledky testů PC Mark Vantage (32/64 bit)
4662/4937
TV a filmy
3261/3246
3D výkon
3638/4089
Pevný disk
2243/2422
3D Mark 06*
4129
3D Mark 05*
7163
Cinebench 10 (32/64 bit) Single CPU
2431/3068
Multi CPU
5765/6978
Open GL
3031/3041
Výdrž Kancelář s Wi-Fi**
3 hodiny 51 minut
Přehrávání videa**
2 hodiny 50 minut
* Testy probíhají v rozlišení 1024 × 768 ** Počítač hýbe kurzorem myši a zapisuje na pevný disk.
- lesklé LCD - nepřesný touchpad
sítě a komunikace
NEKOMPROMISNĚ A S NASAZENÍM Recenze NAS serveru Qnap TS-459 Myslet a udržovat data přístupná dnem i nocí v jistotě, že o ně navíc nepřijdete, tak přesně tohle mají v popisu práce NAS servery. Ty od taiwanského QNAPu lze bez váhání označit za špičku, model TS-459 Pro TurboNAS se nezdá být výjimkou. Právě naopak, je napěchován špičkovým hardwarem a funkcemi co to jen jde.
P
rvní, čeho si hned v konfiguraci 459ky všimnete, je přítomnost dvoujádrového procesoru Intel Atom D510 s taktem 1,66 GHz. Ten má na starosti jediné – zabezpečit co největší výkon a přenosové rychlosti při co nejmenší spotřebě. Sekundanty mu jsou rovný gigabit DDR2 operační paměti a 512 MB flash paměti, na které je duálně uložen operační systém. Selže-li při náběhu NASu jeden, nastartuje systém z druhého, přičemž ten úspěšný je pak základem pro zotavení toho poškozeného.
Skvěle a rychlé konfigurovatelné TS-459 umí pracovat až se čtyřmi 3,5˝ disky, z nichž každý může mít maximální kapacitu až 2 TB. V případě, že zamýšlíte provozovat 2,5˝ disky, je to rovněž možné. Disky jsou uloženy v uzamykatelných šachtách a o jejich chlazení se stará v zadní části umístěný 9cm ventilátor. Druhý 4 cm ventilátor pak chladí elektronickou část s LCD displejem v horní části NASu. Server umí s disky pracovat v režimech Single Disk, JBOD, RAID 0/1/5/6/5 + hot spare (záložní). Příjemné je, že konfiguraci disků lze provádět bez připojení k jakémukoliv počítači přímo přes displej. Stejně tak lze provádět nastavení TCP/IP protokolu nebo případně využít 256b AES šifrování k zabezpečení citlivých dat. K NASu kromě primárních disků připojíte ještě další zařízení, jako jsou tiskárny (max. 3), IP kamery (max. 4) nebo flashdisky a externí pevné disky. Zkrátka vše z toho, dokud nevyčerpáte pět USB 2.0 a dva eSATA porty. V případě potřeby dokáže TS-459 komunikovat i s jednotkou záložního napájení a ochránit se i proti případnému výpadku proudu. Jeden z pětice USB portů, který najdete na čele, navíc lze obsluhovat tlačítkem, po
jehož stisku se provede buď záloha obsahu např. flashdisku do adresáře, nebo se zkopírují data z NASu na flashdisk. Parametry funkce – co, odkud a kam – lze podrobně nastavit v administraci.
Když jedna nestačí Skutečností, která předurčuje NAS k nonstop nasazení, je i to, že výrobce přidal do výbavy rovnou dvě gigabitové síťové karty a vyhrazený VGA výstup, na kterém lze sledovat procesy a logy při startu a běhu NAS serveru. Dvojice síťových karet podporuje několik režimů a jejich módů, k dispozici jsou režimy Load Balancing, kdy je přenos dat rovnoměrně rozložen mezi obě, Failover – při výpadku jedné sítě ji nahradí druhá nebo třeba Multi-IP, jejž využijete při sdílení dat dvou podsítí. O nižší účty za elektřinu se zase postará podpora Wake on LAN, kdy spotřeba ve vypnutém stavu činí příjemných 1,5 W, ale v případě potřeby je úložiště během pár minut v provozu. NAS v podstatě nemusíte vypínat, ani kdybyste chtěli nahradit disk po jeho selhání nebo naopak chtěli jeho kapacitu rozšířit či změnit RAID konfiguraci směrem k vyšší – vše lze provést za chodu, online.
Funkcí dost a dost Přes možnost nastavit základní věci v menu displeje však pro většinu funkcí musíte do administrace. Zde vás čeká milé překvapení v podobě české lokalizace prostředí. V administraci si pohodlně a rychle nastavujete a ovládáte funkce, jež chcete využívat, ať již jde o iSCSI úložiště, NAS sdílení, FTP server a další nebo o správu uživatelských účtů, zasí-
AUTOR
QNAP TS-459 Pro TurboNAS počet pozic procesor
4× 2 TB Intel Atom D510 1,66 GHz
paměť
1 024 MB DDR II
režimy
single, JBOD, RAID 0/1/5/6/5 + hot spare
konektivita
2× 1 Gbit/s LAN, 2× eSATA, 5× USB, 1× VGA (vyhrazeno pro monitoring)
síťové protokoly a služby
TCP/IP, DHCP Client, DHCP Server, CIFS/SMB, AFP, NFS, HTTP, HTTPS, FTP, Telnet/SSH, SNMP, Web Server, DDNS, NTP, iSCSI
souborový systém interní/externí HDD
EXT3, EXT4/EXT3, EXT4,NTFS,FAT32
podporované systémy
Microsoft Windows 2000/XP/2003/ Vista/Windows 7 (32bit & 64bit), Server 2003/2008, Mac OS X, Linux a UNIX
rozměry (š × v × h) hmotnost ostatní příslušenství
180 × 177 × 235 mm 3,65 kg (bez disků) Copy USB tlačítko, 256b AES šifrování, online RAID migrace, Wake on LAN, česká administrace, připojení IP kamer (4×), podpora VMWare 1× síťový kabel, 1× UTP kabel 1,5 m
web
www.umax.cz
cena
20 490 Kč
Naměřili jsme přístup přes FTP (Total Commander 7.50) Přístup přes SMB (sdílení Windows)
Dušan Kos Autor je redaktorem časopisu Computer.
lání chybových stavů přes SMS či e-mail nebo zálohování (synchronizaci) dat z kompatibilních NAS serverů kdekoliv v internetu. Mezi výčtem další výbavy nesmí chybět ani podpora Active Directory pro komplexní správu účtů či stále populárnější podpora virtualizačních platforem (459ka má certifikaci pro vSphere4), díky nimž ušetříte za samostatné File, FTP, Mail a podobné servery. Pokud se vám zdá výčet výbavy chudý, pak vězte, že tento NAS server toho zvládne ještě mnohem víc. Navíc jej lze kdykoliv funkčně rozšířit pomocí mnoha volně stažitelných pluginů. ❑
spotřeba
čtení
50,9 MB/s
zápis
8,8 MB/s
čtení
39,0 MB/s
zápis
30,9 MB/s
v zátěži (3× 1 TB HDD)
34,5 W
s uspanými disky
24,2 W
ve vypnutém stavu
1,4 W
Connect! březen 2010
31
sítě a komunikace
CO UMÍ ZAŘÍZENÍ SIGNAMAX Advanced Security Router 065-1530 a L3 switch 065-7434 Produkty Signamax pracují na bázi operačního systému Signamax Operating System Software. Zařízení Signamax se vyznačují jednotným konfiguračním systémem, jako je tomu u konkurenčních výrobců. Nabízí se možnost konfigurace pomocí příkazové řádky (CLI) přes konzoli, vzdáleně pomocí protokolů Telnet a SSH nebo pomocí webového rozhraní.
AUTOR 32
Matěj Rohlík Působí na katedře telekomunikační techniky na ČVUT FEL v Praze, zabývá se síťovými technologiemi a specializuje se na bezpečnost a aplikovanou kryptografii.
Connect! březen 2010
DRAM – operační prostor pro aplikační programy směrovače. FLASH – obsahuje aplikační programy směrovače, konfigurační soubory a BootROM programy. EEPROM – obsahuje uživatelské informace a proměnné systémové konfigurační soubory. Existují čtyři typy souborů spravovaných směrovačem Signamax: Soubory aplikačních programů směrovače – používané pro směrování, správu souborů a správu systému.
Graf datové propustnosti přepínače v závislosti na velikosti rámce 100
95
90
85
%
S
ystém příkazů, hierarchie a princip konfigurace CLI jsou dosti obdobné jako u konkurenčních produktů jiných výrobců (Cisco Systems apod.). To může být velmi přínosné pro správce znalé syntaxe Cisco zařízení, kteří se budou cítit v tomto prostředí tak říkajíc jako ryba ve vodě. Systém poskytuje obdobnou hierarchii uživatelských režimů, jako je tomu na zařízeních Cisco. Každý režim tedy umožňuje zadat pouze omezenou množinu konfiguračních příkazů operačního systému, čímž je zajištěna ochrana systému proti neautorizovanému přístupu. Hierarchie je následující: Common user mode (user EXEC), Privileged user mode (privileged EXEC), Global configuration mode (global configuration). Dokumentace k zařízení rozlišuje několik dalších konfiguračních režimů, ale to jsou vše konfigurační režimy globální, které konfigurují konkrétní část daného zařízení, tedy např. síťové rozhraní, směrovací protokol, šifrování, hlasové rozhraní, služby DHCP, ACL apod. Rozdíl oproti konfiguraci Cisco je v přístupu k systému souborů. K tomu slouží konfigurační režim File system configuration mode (file system configuration), který se spustí příkazem filesystem. Paměťová média a typy souborů jsou od konkurence trochu odlišné. Směrovač Signamax obsahuje tři typy paměťových médií.
Konfigurační soubory – uchovávající systémové parametry nastavené uživateli. BootROM soubory – uchovávající systémem inicializovaná data. Ostatní soubory. Směrovač vytváří v systémové paměti flash systém souborů založený na systému DOS pro ukládání informací, které jsou zřídkakdy měněny, jako např. aplikační programy směrovače (protocol software, device program, ovladače) a BootROM program. Systém souborů se nazývá True Flash File System (TFFS) a jeho ovládání je přístupné pomocí již zmíněného režimu File system configuration mode. Správa souborového systému je rozdělena do dvou částí: správy souborů a správy adresářů. Protože je TFFS založeno na souborovém systému DOS, nejsou podporovány dlouhé názvy, takže adresáře mohou mít maximálně osm znaků a každý soubor respektuje názvy podle standardu 8.3.
80
75
70
65
60 64
100
150
200
300
Velikost rámce [B] datová propustnost přepínače
450
800
1 200
1 500
sítě a komunikace
Směrovače Signamax rozšiřují bezpečnost pomocí systému správy autentizace včetně AAA. Uživatelé, kteří mají dostatečná práva, se mohou na směrovač přihlásit nebo vstoupit do privilegovaného režimu pomocí příkazu enable. Různé uživatelské úrovně mohou používat odlišné množiny autorizovaných příkazů. Rozsah úrovní je opět nápadně známý: 0 až 15, kde 0 reprezentuje nejnižší úroveň oprávnění, zatímco 15 reprezentuje nejvyšší úroveň. Každý příkaz je přiřazen k dané úrovni, takže uživatel s úrovní oprávnění 9 nemůže používat příkazy úrovně 10 a vyšší. Zařazení daného příkazu do jiné než výchozí úrovně je možné pomocí příkazu privilege s omezením, že uživatel může měnit pouze příkazy v rámci úrovní nižších nebo stejných, než jaké je on sám. Zajímavým nástrojem je zobrazení zatížení procesoru (CPU) a další možnosti nastavení prahových teplotních hodnot apod. Práce s příkazovou řádkou je tedy dostatečně komfortní. Správa přes webové rozhraní je intuitivní a velmi příjemná pro ty správce, kteří nemají příkazovou řádku příliš v oblibě, nebo si dosud strukturu a systém příkazů neosvojili. Nastavení přístupu je triviální a je obdobné např. konfiguraci přístupu pro Cisco Secure Device Manager (SDM). V globálním konfiguračním režimu je potřeba nastavit administrátorský účet s privilegovanou úrovní 15, popř. lze nastavit i účet pro hosta (privilege level 0):
a dvěma sloty pro připojení rozšiřujících modulů, z nichž jeden je určen pro VoIP a druhý je MIM slot. Správa zařízení je možná pomocí HTTP, SNMP (v1 až v3), Telnetu a konzole. Zařízení umožňuje nastavit firewall pomocí IP paketového filtru, podporuje protokoly PAP/CHAP, MD5, umožňuje nastavit klasický NAT/ PAT, podporuje autentizační/autorizační protokoly RADIUS a TACACS, poskytuje šifrování pomocí protokolu IPsec, Standard network management (kompatibilní s CISCO). Dále podporuje protokoly PPP (včetně komprese), a historické SLIP, CSLIP protokol, Frame relay, Frame relay switch, HDLC, LAPB, ISDN, X.25 a X.25 switch. Směrovač lze umístit na pobočku jako hraniční firewall, lze jej použít pro IPsec Site-to-Site VPN tunely při propojování poboček s centrálou apod.
gigabitovými porty. Samozřejmostí je podpora multicastu a protokolu Spanningtree. Tento přepínač je možné přimontovat do rozváděče, neboť součástí balení je
+ výborný poměr výkon/cena + příkazy CLI obdobné Cisco zařízení + rackmount kit v ceně
- chybí podpora POE - pouze 4 SFP sloty
i rackmount kit.
Test zařízení
Tento přepínač disponuje čtyřiadvaceti 10/100BaseT/Tx a čtyřmi gigabitovými SFP porty. Zároveň podporuje kompletní L3 funkcionalitu. Přepínač je připraven
Byl proveden test propustnosti Enterprise L3 management přepínače v závislosti na velikosti rámce. Byly testovány velikosti rámců v intervalu 64 B až 1500 B. Naměřené hodnoty jsou uvedeny v tabulce a přehledně zobrazeny v grafu. Testování bylo provedeno testovacím zařízením JDSU SmartClass Ethernet (generátor provozu) a Accedian Networks
pro nasazení v prostředí IPTV a VoD, takže jej lze umístit do METRO sítí. Tento Enterprise switch nedisponuje žádným portem s podporou POE (IEEE 802.3af), a tudíž jej nelze použít pro napájení VoIP telefonů ani bezdrátových přístupových bodů. Protože je to přepínač z nižší řady, disponuje pouze čtyřmi
AEN-1000-GE (EtherNID Demarcation Device). Zařízení se při generovaném provozním zatížení chovalo stabilně. Nebyly pozorovány žádné zvýšené odezvy příkazové řádky. Bylo patrné, že zařízení si s plným provozem snadno poradilo. Lze tedy potvrdit, že výrobcem deklarované vlastnosti odpovídají skutečnosti, a tudíž je možné očekávat zvýšený zájem ze strany menších a středně velkých společností. Tato zařízení sice v našich končinách nejsou příliš známá, ale svoje zákazníky si jistě brzy najdou. Jednoduchost a snadnost instalace, obdobný systém příkazů, hierarchie a princip konfigurace příkazové řádky jako zařízení Cisco, intuitivní webová správa a především nadprůměrně příznivá a výhodná cena je v poměru k výkonu, to vše může být pro menší a středně velké společnosti (SMB a Enterprise), zvláště v době hospodářské krize, velmi oslovující a zajímavé. ❑
Signamax enterprise L3 management switch 065-7434
Router(config)#user admin privilege 15 password 0 OtevrenaPodobaHesla
Signamax Advanced Security Router 065-1530 Tento směrovač disponuje jednou konzolí, dvěma Fast Ethernet porty (10/100BaseT)
+ výborný poměr výkon/cena + příkazy CLI obdobné Cisco zařízení
- LAN i WAN pouze 10/100BaseT
Connect! březen 2010
33
sítě a komunikace
OTEVŘETE OČI, PAN PON SE VRACÍ Co nabízí Passive Optical Network Provoz na sítích roste, proto přichází ke slovu optická vlákna. A zároveň vyvstává otázka, cože na ně nasadíme za technologii. Typickou volbou dnešní doby je ethernet – ale možná by stálo za úvahu poohlédnout se po technologii modernější a vhodnější. Jmenuje se PON (Passive Optical Network) a kromě technologické jednoduchosti přináší velké úspory v provozních nákladech.
B
AUTOR
ez nadsázky se dá říci, že PON je návratem k technologickým kořenům: ke sdíleným médiím. Jedná se o vlastnost, která v optických sítích před nějakými deseti lety zahynula – abychom ji nyní pro její jednoduchost a výhodnost mohli resuscitovat. Pokud hovoříme o PONových sítích, pak dnes zažívají obrození ve formě technologií GPON (Gigabit PON) a GEPON (Gigabit Etherner PON). Architektonicky jsou úplně stejné, liší se pouze v detailech: zatímco GPON je více orientovaný na kvalitu služby, GEPON více připomíná ethernet. Bez zajímavosti není fakt, že třeba asijské země vyžadují GEPON, zatímco v Evropě a Spojených státech jednoznačně vítězí GPON (kterému se proto budeme primárně věnovat). Architektonicky využívá GPON stromovou strukturu. Skládá se z centrálního zařízení OLT (Optical Line Terminator) a z koncových jednotek ONT (Optical Network Terminal). S tím, že síť se rozděluje do stromové struktury pomocí pasivních děličů (splitterů). Na frekvenci 1 490 nm je downlink, na frekvenci 1 310 nm je uplink (a to nehovoříme o skutečnosti, že díky RF je možné na vlně 1 550 nm přenášet analogovou televizi). OLT a ONU přitom mohou být od sebe vzdálené až dvacet kilometrů,
34
Jiří Jakeš Pracuje na pozici business development manažera společnosti VUMS DataCom. Prošel řadou technických funkcí u telekomunikačních mezinárodních operátorů, provozovatelů optických sítí a ISP.
Connect! březen 2010
což mj. znamená, že se zbavíme spousty bodů POP (Point of Presence). Existuje několik typů děličů: dnešní umožňují připojit až 64 uživatelů na jeden segment, v blízké budoucnosti se počítá se zdvojnásobením tohoto čísla. Což při celkové kapacitě 2,5 GB (GEPON jen 1 GB) znamená řádově 30 až 40 MB na jednoho zákazníka (šířku pásma je přitom možné přidělovat): to je více než dost na přenos dat, ale i náročnějších aplikací jako VoIP, DTV či HDTV. Nad celou infrastrukturou běží protokol, který řídí šířku pásma pro koncové stanice – a uvnitř je klon TDM (E1). Proto mají tuto technologii rády velké telekomunikační společnosti. Systém je velmi dobře škálovatelný, takže pokud je v centrále šasi s patnácti až sedmnácti sloty, může bez problémů obsluhovat 3 500 koncových zákazníků. Platforma přitom – na rozdíl od ethernetu – implicitně využívá šifrování.
Díky děličům má GPON jen jedno optické vlákno, které nese veškerý provoz (na ethernetu sice něco podobného také jde, ale je to velmi komplikované). Tím dochází k plnému využité kapacity vlákna a úsporám v laserech. Častým argumentem proti PONovým sítím obecně je absence záložní cesty, tedy protekce. Otázkou ale je, zdali je při kvalitě dnešních technologií záložní cesta vůbec potřeba. Navíc právě stromová struktura je oproti jiným výrazně levnější: ostatně, pokud k datovému toku přistoupíme podobně jako k jakékoliv jiné komoditě, tak se bez záložních cest docela dobře obejdeme, neb výpadky jsou spíše výjimkou než pravidlem. A optika sama o sobě je nejspolehlivější přenosové médium. Na druhé straně: i v GPONu lze nasadit záložní cestu. Dělič může mít i dva vstupy. Stejně tak OLT může stát na kraji dvou samostatných a nezávislých „stromů“. Stačí jen říct.
Dělič: tajemství úspěchu Základním stavebním kamenem technologie GPON jsou pasivní děliče. Právě díky nim je přitom stromová topologie – možná trochu paradoxně – velmi flexibilní a odlišuje se od P2P okruhů. Dělič má velikost tužky, přičemž pasivně rozděluje vstupní signál. Poměr dělení může být nesymetrický, což znamená, že hlavní větev sítě nese i po průchodu děličem největší zátěž a „odbočka“ jen tak silný provoz, jaký potřebuje (dělit se dá v libovolném poměru, klidně i 99 ku jednomu procentu).
Hi-FOCuS backplane pro GPON.
sítě a komunikace
Starý dobrý, ale přežitý Výhody technologie GPON nejlépe pochopíme při přímém srovnání s dosud nejrozšířenějším ethernetem. Máme ethernetovou síť s řekněme tisíci přípojkami, což obnáší průměrně padesát POPů. A tedy i padesátkrát všechno, co s tím souvisí: krabice, napájení, smlouvy s vlastníkem
Právě v tuto chvíli přichází ke slovu pasivní děliče, které jsou pouze „válečkem“ v kabelové spojce. Žádné konektory, žádné aktivní prvky, žádná spotřeba elektrické energie. Obejdeme se tedy bez aktivních POPů. Takže ač pořizovací náklady na GPON vycházejí na počátku stejně jako v případě ethernetu (mohou být dokonce vyšší, i když
Zatímco klasický ethernet zřejmě již dosáhl vrcholu, GPONová technologie raší několika různými směry objektu, elektroměry, měsíční nájemné… To nemluvíme o nutnosti čištění filtrů, výměny porouchaných nebo vandaly poškozených zařízení. V korporátním sektoru pak ještě o záložních zdrojích energie a dalších „podpůrných“ systémech.
Systémová architektura GPON
cena technologie jde rychle dolů), nůžky se začínají dramaticky rozevírat během provozu. A to ať se díváme na náklady provozní (energie), údržby (lidská práce) či indukované (vandalové).
A to nehovoříme o závislosti na dodavateli: každý, kdo někdy alespoň přičichnul k ethernetu, ví, že je radno provozovat celou infrastrukturu na hardwaru od jednoho dodavatele. Jinak to sice „nějak“ funguje, ale opravdu jenom „nějak“. Protože různá normativní doporučení jsou ze strany výrobců vnímána jen a právě jako doporučení. V případě GPONu (pokud udržíme technologickou homogenitu a struktura funguje na L3) problematika nekompatibility zmizí. Takže i malý operátor může využívat dodavatelsky pestré prostředí: což v konečném důsledku posiluje jeho pozici a opět snižuje náklady. Pak je tu ještě jedna – z komerčního hlediska zásadní – vlastnost, kterou je zapotřebí zmínit. U klasických optických sítí může dojít k příkazu ze strany EU či státu (jak už se v různých oblastech několikrát stalo) k otevření kapacity konkurenci. Z tohoto úhlu pohledu je technologie GPON „nepřátelská“: její stromovou architekturu nelze otevřít konkurenci.
Quo vadis? Zatímco klasický ethernet zřejmě již dosáhl svých možností a nic moc nového se kolem něj neděje, GPONová technologie raší několika různými směry. Kdekdo dnes mluví o tom, že právě ona ethernet časem pohltí. Každopádně již dnes existuje GPON s propustností 10 GB (a čím dál hlasitěji se hovoří o desetinásobné kapacitě). V brzké době dojde ke zvýšení počtu zákazníků stromu až na 128 (a později ještě na dvojnásobek). Technologie RFoG umožní šířit televizní signál se zpětnou vazbou. Dojde k rozšíření záběru: dvacetikilometrová vzdálenost mezi OLT a ONU není konečnou hranicí, dnes se běžně hovoří o šedesáti kilometrech. A nejspíše padne hranice mezi GPONem a GEPONem. Bylo by velkou chybou obracet se k technologii PON zády. ❑
inzerce ▼
internet Koupí Apple Adobe? Opět spekulativní, nicméně zajímavý tip plní některé internetová média. Pro nákup Adobe se totiž najde vícero dobrých důvodů. Tržní kapitalizace Applu je 190 miliard dolarů, Adobe 18. Za pár akcií mohou tedy mít danou firmu „lusknutím prstu“. Apple by tak získalo Photoshop a Illustrator, což se přesně hodí do portfolia firmy. Výzvou je Flash. Jde o první skutečně přenositelnou platformu, která navíc s novou sadou Creative Suite 5 půjde kompilovat do nativní iPhonové aplikace.
Facebook bude profitovat z her Hry na Facebooku, tedy postrach takřka každého pokročilého uživatele, se evidentně líbí manažerům této největší sociální sítě. Nebo spíše se jim zamlouvá potenciální zisk z hráčů, neboť Facebook bude nově umožňovat koupi tzv. Facebook Credits, tedy jakousi virtuální měnu, kterou bude následně možné používat v celé síti a jejich aplikacích. Patrně po vzoru Apple si FB bude strhávat za nabití virtuálního účtu 30 % peněžní částky.
Michal Till
Jazyk do HTML5 na YouTube Zavítáme-li na adresu www.youtube.com/ html5 , můžeme si alespoň na chvíli připadat jako v budoucnosti. Peklo zmrzlo a standard HTML se po více než patnácti letech posouvá alespoň o krůček dopředu. Ano, YouTube nedávno spustilo experimentální verzi, ve které jsou videa servírována pomocí