Alles over innovatie in ICT
Jaargang 6, nr. 10 / 2015
Technologie
Google geeft inzicht in datacenter infrastructuur
Eric Evers van DMP:
‘Datamanagement belangrijker dan ooit’
Cloud-security
Hoe garandeer je data-security in de cloud? En verder In zes stappen naar een veilige infrastructuur | Rijnmondse datacenters bundelen krachten | IT Room Infra event van en voor de branche | Bedrijven gaan online omdat de klant dit vraagt | Zes misverstanden over Big Data-as-a-Service | Innovatieve IT komt naar datacenter-management | www.cloudworks.nu
4 & 5 NOV 2015 JAARBEURS UTRECHT
Cloud talk
VAKBEURZEN, SEMINARS EN ONLINE MATCHMAKING VOOR IT-MANAGERS EN IT-PROFESSIONALS
IT SECURITY
STORAGE
IT MANAGEMENT SOLUTIONS
Piramidespel?
THEMA 2015: COMPUTING EVERYWHERE Cloud Computing
Cyber Security
Data Center & Infrastructure Optimisation
Data Growth & Storage Capacity
Enterprise Mobility
ITSM & Control
Privacy Governance & Risk Management
REGISTREER NU VOOR GRATIS TOEGANG: WWW.INFOSECURITY.NL | WWW.STORAGE-EXPO.NL | WWW.THETOOLINGEVENT.NL KEYNOTES | SEMINARS | CASE STUDIES | RUIM 150 EXPOSANTEN Mede mogelijk gemaakt door:
Hoofdmediapartner:
Datacenters zijn opgebouwd als een piramide. Van boven naar bene den zien we dan applicaties, middleware, hardware en helemaal onder aan een infrastructuur. Voor de business draait het uiteraard om die applicaties. De rest zit in hun beleving ‘onder de motorkap’. Dat is een gevaarlijke houding. Want waar veel business managers inmiddels snappen hoe belangrijk applicaties zijn voor hun zakelijk succes, onder schatten zij het belang van die drie lagen daaronder. Met name de fysieke infrastructuur is abracadabra voor hen.
complexer wordende fysieke infrastructuur goed te beheren. Door de enorme hoeveelheid systemen en installaties is lang niet altijd direct duidelijk hoe - bijvoorbeeld - het voor onderhoud uitschakelen van een bepaald apparaat de prestaties en de beschikbaarheid van andere systemen beïnvloedt. Op die manier is dus vaak ook niet goed zicht baar welke risico’s men loopt. Denk aan een van die waardevolle applicaties die problemen gaat vertonen als gevolg van dat onderhoud op die onderste laag.
Natuurlijk is power en koeling een zaak voor gespecialiseerde technici. Maar we moeten ook niet de fout maken dat we die infra-laag als niet belangrijk bestempelen. Want dan maken we een gevaarlijke en kostbare fout. Die onderste laag van de piramide mag dan niet als sexy worden gezien, maar vormt wel het fundament voor al die andere lagen. En een slecht fundament betekent een zwakke IT - hoe geraffineerd de applicaties daarboven ook in elkaar mogen zitten. De facilitaire laag van het datacenter lijdt aan onderinvestering. Misschien niet direct in apparatuur, maar wel als het gaat om profes sionalisering. Tachtig procent van de storingen in een datacenter worden veroorzaakt door menselijke fouten. Nog niet eens zozeer doordat iemand een kabel verkeerd aansluit of zich vergist in een rack en een verkeerde server uitschakelt. Waar het vooral om gaat is het gebrek aan inzicht in het functioneren van de infra-laag. Het ontbreekt aan goede software die veel taken en handelingen kan automatiseren. Ook is vaak geen sprake van procesmatig beheer en werken op basis van formeel vastgelegde procedures. Begrijp mij niet verkeerd, in de meeste datacenters werken zeer goede vakmensen. Het ontbreekt hen echter aan de juiste tools om de almaar
Er is een drastische professionalisering van het beheren van de infralaag nodig. De datacenter-industrie roept dan direct: DCIM kopen! Maar enkel en alleen een pakket voor datacenter infrastructure mana gement aanschaffen is niet voldoende. We moeten inzicht krijgen in de prestaties van het gehele datacenter. Ofwel: alle vier lagen als één geheel. Pas dan kunnen we zien wat de impact zou kunnen zijn van een storing in een pomp of koelsysteem op de hardwarelaag. Waarop weer middleware-programma’s of applicaties draaien. We hebben inzicht nodig in de feitelijke operatie van het datacenter. DCIM en IT asset management aan elkaar knopen is dan een eerste stap. Maar ook niet meer dan dat. We hebben een managementaanpak nodig die vanuit de business naar het datacenter kijkt: welke businessprocessen zijn cruciaal en welke applicaties zijn hiervoor nodig? En dus welke hardware en welke delen van de infra-laag? Maar hoe goed we ook zoeken, dit soort softwarepakketten is niet beschikbaar. En daar moet snel verandering in komen. Robbert Hoeffnagel
Colofon In CloudWorks staat innovatie centraal. Met traditionele ICT-omgevingen is het steeds moeilijker om de business goed te ondersteunen. Innovatieve oplossingen op het gebied van bijvoorbeeld cloud computing, mobility, Big Data, software defined datacenters en open source kunnen echter helpen om de IT-omgeving ingrijpend te moderniseren en klaar te maken voor de toekomst. Vragen over abonnementen:
[email protected]. Uitgever Jos Raaphorst 06 - 34 73 54 24
[email protected] Twitter: https://twitter.com/RaaphorstJos LinkedIn: nl.linkedin.com/pub/dir/Jos/Raaphorst
Hoofdredacteur Robbert Hoeffnagel 06 - 51 28 20 40
[email protected] Twitter: https://twitter.com/rhoeffnagel LinkedIn: nl.linkedin.com/in/robberthoeffnagel Facebook: https://www.facebook.com/robbert. hoeffnagel Advertentie-exploitatie Gerrit Klanderman 06 - 55 33 11 76
[email protected] Eindredactie/traffic Ab Muilwijk
Vormgeving Studio Kees-Jan Smit BNO Druk Control Media Kennnispartners: Data Centre Alliance, EuroCloud Nederland, Green IT Amsterdam, NEN, SaaS4Channel ©2015 CloudWorks is een uitgave van FenceWorks BV. www.fenceworks.nl
CloudWorks - nr. 10 / 2015
3
8 12
In zes stappen naar een veilige infrastructuur De Europese Commissie werkt aan nieuwe databeschermingsregels en in Nederland is onlangs de Wet bescherming persoons gegevens uitgebreid met de Meldplicht Datalekken. De nieuwe regels hebben verregaande consequenties voor organi saties. Zij worden verplicht om hun privacy gevoelige data optimaal te beschermen. Falen zij daarin, dan kunnen ze forse boetes tegemoet zien. Hoe zorgt u ervoor dat uw data zo veilig mogelijk zijn?
Google geeft inzicht in datacenterinfrastructuur Google heeft onlangs vier ‘research papers’ gepubliceerd waarin het een beschrijving geeft van de manier waarop het concern de technische infrastructuur binnen zijn datacenters heeft opgezet. Interessant is dat de papers aangeven hoe de diverse generaties van deze infrastructuur ontstonden als gevolg van de almaar groeiende behoefte aan bandbreedte, inclusief enkele misstappen.
Computing everywhere betekent niet alleen meer flexibiliteit en gemak voor eindgebruikers van IT, maar ook dat er meer data wordt gegenereerd op meer verschillende plekken. Dat zorgt volgens Maurice Pastoor en Eric Evers van DMP in Zeist voor nog grotere uitdagingen op het gebied van datamanagement. Alles over innovatie in ICT
22
Rijnmondse datacenters bundelen krachten
Binnen een straal van 25 kilometer liggen er in GrootRijnmond drie moderne datacenters die - onder de prikkelende naam Tier010 - de handen ineen hebben geslagen om zo de klanten nog beter van dienst te kunnen zijn. Die regionale bundeling van krachten gaat verder dan een samenwerking tijdens een ‘open huis route’ zoals die straks voor de derde maal in successie gaat plaatsvinden. CloudWorks ging in gesprek over het ontstaan van deze alliantie en het perspectief hiervan met Gerben van der Veen, Siemon van den Berg en Cees de Jong, directieleden van respectievelijk Dataplace, The Datacenter Group (TDCG) en Bytesnet.
38 16
‘Datamanagement belangrijker dan ooit’
4
inhoud
En verder
7
Gregor Petri over cloud tactics
11 Cloudian begeleidt bedrijven naar slimme object storage 19
Spice in Finance
20
Arista Networks vereenvoudigt cloud automation
24
IT Room Infra event van en voor de branche
26 Nederlandse internetprovider bouwt virtuele datacenter-infrastructuur 28 Datacenterbeheer hét toepassingsscenario voor big data analytics bij uitstek 30
Hoe garandeer je data-security in de cloud?
32 Master Data Management van cruciaal belang voor digitale transformatie 34
Zes misverstanden over Big Data-as-a-Service
36
Zes fabels over online kassa’s in de cloud
42
‘Big data is een fenomeen, geen technologie’
44
Nieuws van EuroCloudNL
46
Legal Look
Innovatieve IT komt naar datacenter-management
Datacenter Infrastructure Management (DCIM) staat aan de vooravond van flinke veranderingen. Met name innovatieve IT-methoden komen de mogelijkheden van DCIM verder versterken. Waardoor DCIM daadwerkelijk een hoofdrol kan spelen in wat we maar even ‘datacenter management’ of ‘IT operations’ zullen noemen. Zo past softwaregigant SAP inmiddels intern realtime computing toe en kiest een grote bank voor exotische maar innovatieve oplossingen als supergoedkope Raspberry Pi’s voor dataverzameling.
www.cloudworks.nu Go! CloudWorks - nr. 10 / 2015
5
Tune into the Cloud
Simple Plan
Tune into: Cloud Tactics
door Gregor Petri De uitdrukking dat wie ‘Fails to Plan’ eigenlijk ‘Plans to Fail’, is ook in de Cloud van toepassing. Een groot aantal organisaties is dan ook bezig met het opstellen van een Cloud strategie. De vraag is echter of het opstellen van een bedrijfsbrede Cloud strategie wel de juiste weg is. Het gebruik van Cloud is immers geen doel, maar een middel. De IT-manager van een grote retailorganisatie vatte dat onlangs kort en bondig samen: ‘Voor ons is Cloud geen strategie, maar een aantal nuttige tactieken’.
Uw datacenter binnen enkele weken uitbreiden? Dat kan!
De voordelen:
De technologische ontwikkelingen gaan in een razendsnel tempo. Hiervoor is substantieel meer datacentercapaciteit nodig. Hoe realiseert de facilitaire en IT-afdeling deze uitbreiding op zeer korte termijn? En hoe voorkomen zij dat de vooruitgang gepaard gaat met minder kantoorruimte?
> Binnen 12 tot 16 weken in gebruik te nemen.
Het antwoord zit in kant-en-klare datacenters. Deze kunt u zeer snel in gebruik nemen. En buiten de muren van uw onderneming plaatsen. Het resultaat is dat de data in uw eigen beheer blijft – zonder dat u hiervoor ruimte hoeft op te offeren.
> U kunt tot wel 50 procent besparen op energiekosten.
Business-wise, Future-driven.™
Wilt u meer weten over de voordelen van prefab datacenters?
www.schneider-electric.com www.apc.com Lees de white paper en |gebruik de code xxx.| T +31 (0)23 554 00 70 ©2014 Schneider Electric. All Rights Reserved. • 998-1252128_GMA-US
> Uw serverruimte is extreem schaalbaar en groeit alleen mee als u meer capaciteit nodig heeft.
> Forse besparingen op CapEx en OpEx.
Toch krijg ik meerdere keren per week van diverse organisaties de vraag om hun zojuist geformuleerde Cloud strategie te beoor delen. Veel van deze strategieën lezen overigens meer als een Cloud primer (Wat is Cloud, welk soorten van Cloud zijn er, wat zijn de mogelijke voordelen etc.) dan als een Cloud strategie. Daar is op zich niks mis mee, maar de documenten gaan zelden in op wat de specifieke organisatie nu precies wil bereiken door de inzet van Cloud. Het is ook zeer de vraag of je deze voordelen wel bedrijfsbreed kunt beschrijven. De toegevoegde waarde van een pragmatisch playbook (ofwel een simpel plan) dat kort en krachtig beschrijft in welke gevallen Cloud wel of niet ingezet moet worden, en op welke manier, kan dan ook veel groter zijn. Daarnaast zien we nog te vaak dat organisaties proberen een Cloud strategie te formuleren alvorens ze daadwerkelijk ervaring met de inzet van Cloud hebben opgedaan. Mij doet dat vaak denken aan iemand die wil leren fietsen, maar die - in plaats van een oude fiets te lenen en een rustig parkeerterreintje uit te zoeken om eens voorzichtig te oefenen - begint met het lezen van een boek of het raadplegen van een adviseur over fietsen. Dat was wellicht in het verleden de noodzakelijke aanpak bij grote pro jecten zoals de invoering van ERP, daar duurde het immers jaren voor je iets werkbaar had, bovendien kostte het miljoenen en representatieve proefritjes waren niet mogelijk. Het grote voordeel van de Cloud is nu juist dat je er wel direct - tegen geringe kosten en vaak zonder grote investeringen - mee aan de slag kunt. De kwaliteit van de geformuleerde strategie (maar ook van pragmatische plannen) zal bijna lineair toenemen met de mate van ervaring die de organisatie al daadwerkelijk met de inzet van Cloud heeft opgedaan.
Een steeds vaker toegepaste best practice op dit gebied is het hebben van een korte lijst met simpele principes. Zo had een grote speler in de energiemarkt al enige jaren geleden een ‘Cloud-first… tenzij’ policy. Alles wat naar de Cloud toe kon, ging daar ook naartoe ….. tenzij het systeem op de lijst met mission critical systemen stond. Nu is die mission critical lijst in de energiesector vaak zo dik als een telefoonboek. Dus in de praktijk waren de meeste systemen off-limits voor gebruik van de Cloud. Toch heeft deze aanpak de organisatie enorm vooruit geholpen. Men voorkwam ellenlange maatschappelijke discussies over of de Cloud nu wel of niet veilig genoeg was (ja dus, voor alles wat niet op die mission critical lijst stond, en voor de rest (nog) niet). Inmiddels heeft de organisatie dankzij de duidelijkheid die deze principes gaven, veel sneller en veel meer Cloud ervaring opgedaan dan (m)enig concurrent en daar haalt ze nu competitief voordeel uit. Die lijst met simpele principes kan (en moet) overigens - op basis van die opgedane ervaring - regelmatig worden aangepast. Organisaties die, in plaats van met een formele cloud strategie, beginnen met een simpel Cloud playbook, bewegen vaak sneller en kunnen beter formuleren wat ze willen bereiken. Het fenomeen playbook is vooral bekend uit American Footbal en wordt door Merriam-Webster in deze context gedefinieerd als ‘a stock of usual tactics and methods’. In Europese sporten willen we vaak graag meer creativiteit aan de individuele spelers overlaten, maar veel directies vinden dat - in ieder geval met Cloud - niet altijd zo’n goed idee. Vandaar die veel voorkomende vraag om een formele strategie. Een pragmatisch playbook op basis van een kort lijstje simpele principes is echter vaak een betere oplossing. Met 53 miljoen streams is Simple Plan’s grootste hit op Spotify zonder meer het aanstekelijke Summer Paradise (‘My heart is sinking as I am lifting up above the clouds, away from you’) uit 2011, een door de surf hobby van lead singer Piere Bouvier geïnspireerd nummer, dat gaat over het maken van plannen terwijl men op de volgende grote wave wacht.
CloudWorks - nr. 10 / 2015
7
Security Stap 2: Encryptie op de fysieke infrastructuur Om te kunnen voldoen aan de nieuwe Nederlandse en komende Europese wetgeving op het gebied van databescherming is encryptie onontbeerlijk. Encryptie versleutelt data, zodat als het onverhoopt verloren of gestolen wordt, kwaadwillenden er niets aan hebben, omdat ze de data niet kunnen ontcijferen. Encryptie kan op ver schillende lagen in het OSI-model plaatsvinden. De meest logische plaats voor een organisatie om te versleutelen, is afhankelijk van de toepassing van de verbinding. Op de onderste lagen van het OSImodel, de fysieke laag, wordt encryptie hardwarematig toegevoegd door encryptors in de belichtingsapparatuur. Op de hogere lagen van het model zijn de versleutelingsmogelijkheden softwarematig. Een data-encryptor versleutelt data op een dusdanige manier dat het bijna onmogelijk is om ontvreemde data te ontcijferen. Een goede encryptiesleutel die regelmatig wisselt en verschillende bit-lengtes heeft (hoe langer de lengte des te lastiger te kraken), is cruciaal. Daarnaast moet encryptie voldoen aan de meest gangbare standaarden, zoals AES (Advanced Encryption Standard) en het Amerikaanse FIPS (Federal Information Processing Standard).
{
‘Dark fiber meest veilige keuze’
Organisaties worden verplicht privacygevoelige data optimaal te beschermen
In zes stappen naar een veilige infrastructuur De Europese Commissie werkt aan nieuwe data beschermingsregels en in Nederland is onlangs de Wet bescherming persoonsgegevens uitgebreid met de Meldplicht Datalekken. De nieuwe regels hebben verregaande consequenties voor organisaties. Zij worden verplicht om hun privacygevoelige data optimaal te beschermen. Falen zij daarin, dan kunnen ze forse boetes tegemoet zien. Hoe zorgt u ervoor dat uw data zo veilig mogelijk zijn?
Stap 1: Keuze voor de fysieke infrastructuur Met het oog op veiligheid is een managed dark fiber verbinding de beste keuze. Een volledig eigen buis is dan de meest veilige optie, maar dat is voor slechts zeer weinig organisaties haalbaar én betaalbaar. Een belangrijke voorwaarde is dan wel dat kennis en expertise aan wezig zijn in de organisatie voor de belichting van de vezel. Is die
8
Alles over innovatie in ICT
kennis niet voorhanden, dan is een belichte glasvezel een goede keuze. Een telecomleverancier levert in dat geval naast een onbelichte vezel ook de belichtingsapparatuur, maar in beide gevallen (dark fiber en belichte vezel) zorgt de netwerkleverancier voor het beheer en het onderhoud. In zo’n geval maakt het niet uit of er wordt gekozen voor DWDM of Ethernet (zie kader). Die keuze hangt namelijk weer samen met de benodigde bandbreedte. Heeft een organisatie een hoge bandbreedte nodig, vaak in combinatie met een storage-oplossing, dan wordt gekozen voor DWDM. Is er een transportverbinding nodig om gebruikers met het datacenter te verbinden, dan gebeurt dat veelal op basis van Ethernet. Belangrijk is dat privacygevoelige data bij voorkeur niet via het publieke internet worden getransporteerd. Dit omdat het publieke internet hackers vele mogelijkheden biedt om data te onderscheppen. Welke keuze een organisatie het beste kan maken, is dus afhankelijk van de toepassing van de verbinding.
Een nadeel van encryptie hoger in de OSI-lagen is dat er steeds meer latency wordt toegevoegd wat een nadelige invloed kan hebben op de snelheid van de verbinding. Een voordeel van encryptie op laag 3 (Ethernet) is dat het mogelijk is om een selectie te maken tussen data die wel of niet versleuteld moeten worden. Op de onderste laag wordt hardwarematig namelijk alle verkeer versleuteld. De meest logische plek voor encryptie hangt dus af van de toepassing. Als het gaat om bijvoorbeeld een ziekenhuis waarbij hoge eisen worden gesteld aan de maximale latency, zal encryptie op het fysiek niveau de voorkeur hebben. Ook als er veel privacygevoelige en geheime informatie over de verbinding wordt verstuurd, is versleuteling op een laag niveau te prefereren.
Stap 3: Keuzes voor en in het datacenter Een veilige infrastructuur zorgt voor een secure transport van data tussen het datacenter en de organisatie. Dat betekent dat de keuze voor een datacenter nauw samenhangt met de veiligheid van de data. De prestaties van een veilige infrastructuur worden anders volledig teniet gedaan als er te weinig beveiligingsmaatregelen zijn getroffen. Fysieke beveiliging van het pand is belangrijk, zodat er geen ongewilde gasten bij de systemen kunnen komen. De security-standaarden ISO 27001 en NEN 7510 zijn aanwijzingen voor het gewenste beveiligingsbeleid. Ook zijn er in een datacenter verschillende mogelijkheden om kwetsbare data extra te beschermen, zoals het bouwen van een cage of een suite om de apparatuur heen. De keuze voor een solide datacenter kun je eenvoudig maken aan de hand van een aantal stappen (zie kader).
Stap 4: Monitoring van het netwerk Door middel van monitoring kunnen verstoringen in het netwerk worden gedetecteerd. In het geval van een dark fiber verbinding is de klant degene die de actieve apparatuur in het netwerk monitort. Sommige telecomproviders installeren een RFTS (Remote Fiber Test System) om storingen te kunnen detecteren in de glasvezelkabels, met bijkomend voordeel dat ongewenst aftappen kan worden gede tecteerd. Als er een belichte vezel wordt afgenomen, wordt de moni toring zowel door de klant als door de telecomleverancier gedaan.
{
‘Versleutel alles dat buiten het domein van de organisatie komt’
Dark fiber, DWDM en Ethernet Een dark fiber is een onbelichte glasvezel. Dat betekent dat de klant die een dark fiber afneemt, zelf belichtingsapparatuur (Ethernet switch / router of x WDM apparatuur) moet plaatsen op de locaties waar de glasvezel binnenkomt (in het datacenter en op de verschillende locaties van de organisatie). DWDM staat voor Dense Wavelenght Division Multiplexing en is een privékanaal in een glasvezel. De afgenomen glasvezel wordt dan belicht door apparatuur van de leverancier. Glasvezels transporteren data door middel van lichtpulsen. Deze lichtpulsen hebben een bepaalde golflengte. DWDM is een technologie die data van verschillende bronnen tegelijk door een glasvezel kan sturen, waarbij ieder signaal dat tegelijk met andere wordt verstuurd zijn eigen lichtgolflengte krijgt. Daardoor kunnen aparte kanalen worden gecreëerd. Ethernet is een netwerk waarbij het kantoornetwerk of het netwerk waar de gebruikers op werken 1:1 wordt verlengd naar een andere locatie of datacenter. Ethernet is een netwerk waarbij diverse virtuele netwerken kunnen worden gedefinieerd, voor het transporteren van data, internet en IP telefonie.
Zo kies je het juiste datacenter 1. Breng de behoefte in kaart a. Welke diensten wil je afnemen? b. Welke beschikbaarheid is nodig? c. Welke behoeftes zijn er in de toekomst? 2. Bepaal de selectiecriteria 3. Stel een longlist samen 4. Stel een shortlist samen 5. Bezoek de datacenters a. Hoe is de expertise van het datacenterpersoneel? b. Hoe is de beveiliging? c. Wat zijn de uitbreidingsmogelijkheden? 6. Vraag offertes op 7. Maak de keuze en start de migratie [bron: Whitepaper Eurofiber, In zeven stappen naar de juiste keuze voor een datacenter] CloudWorks - nr. 10 / 2015
9
Security
Cloud-storage
{
Cloudian begeleidt bedrijven naar slimme object storage
‘Juiste keuzes voor infrastructuur, encryptie en beleid voorkomt schade door datalekken’
De leverancier heeft zicht op zijn eigen netwerk en de klant heeft overzicht over het gehele stuk, inclusief zijn eigen netwerk en de apparatuur die zich daarin bevindt. Als zich verstoringen voordoen, kan eenvoudig worden nagegaan of het een storing betreft naar aanleiding van (geplande) werkzaamheden of dat er iets anders aan de hand is. Veelal zal een telecomleverancier door middel van een goede registratie vooraf aangeven wanneer en waar werkzaamheden plaatsvinden en welke klanten daar mogelijk iets van kunnen merken. Bij alle netwerkapparatuur worden monitoringtools geleverd waarin onder meer latency, retransmissies en bit errors worden gemeten. Het is aan te bevelen dat klanten actief hun netwerkcomponenten en -poorten beheren waardoor zij bij latency-veranderingen en onderbrekingen van het signaal direct alarmbellen zien afgaan; dat zijn indicaties dat er mogelijk ongewenste apparatuur in het netwerk is geplaatst.
Stap 5: Data-encryptie De vernieuwde Wet bescherming persoonsgegevens bepaalt dat organisaties verplicht zijn hun data optimaal te beschermen. Bedrijven moeten kunnen aantonen dat hun data op het moment van verlies of diefstal was beschermd. Dat kan met behulp van encryptietools. Waar bij versleuteling op fysiek niveau (OSI-model) alleen data worden beschermd die over de verbinding worden gestuurd, worden data bij data-encryptie ook versleuteld op de interne (en externe) opslagsystemen van de organisatie. Mocht een laptop, smartphone of draagbaar opslagmedium verloren of gestolen worden, is de informatie op de harde schijf nog steeds veilig wanneer het versleuteld is. Om volledig zeker te zijn van optimale bescherming van de data, is het raadzaam om zoveel mogelijk te versleutelen. Zeker als de data buiten het eigen domein van de organisatie opgeslagen worden, zoals bij een hosting- of storageprovider of in een extern datacenter. De data passeren daarbij verschillende externe leveranciers, daardoor is zekerheid alleen geborgd bij volledige encryptie. Immers, op de domeinen van leveranciers heeft een organisatie geen invloed.
Stap 6: Niet-technische randvoorwaarden In de praktijk blijkt de mens nog altijd de zwakste schakel als het gaat om de beveiliging van privacygevoelige informatie. Naast alle technische mogelijkheden is het belangrijk om een helder beleid (governance) te formuleren voor het omgaan met gevoelige data. Zo is het van belang om goed in te richten welke medewerker welke data mag en kan inzien en gebruiken (Identity & Access Management). Inlogcodes en accounts van vertrekkende mede werkers moeten direct worden geblokkeerd en er zou een jaarlijkse
10
Alles over innovatie in ICT
{
‘Het is het verschil tussen ‘scale up en scale out’
controle op ‘spookaccounts’ moeten plaatsvinden. Verdergaande maatregelen kunnen het screenen van medewerkers zijn, controles op het verplaatsen van bepaalde hoeveelheden data en het verbieden van het gebruiken van externe opslagbronnen. Awareness is een continu proces in een organisatie waarbij medewerkers er steeds opnieuw bewust van worden gemaakt hoe ze veilig kunnen omgaan met gevoelige en geheime data.
Vertrouw niemand Hoe goed een organisatie zijn beveiliging ook inricht, de praktijk leert dat cybercriminelen altijd een stap verder zijn. Vertrouw niemand anders dan jezelf als het op security aankomt en versleutel zoveel mogelijk op het eigen netwerk van de organisatie. Met het stijgende aantal cyberaanvallen is het geen kwestie of, maar wanneer hackers proberen de systemen binnen te komen. Met de juiste keuzes voor infrastructuur, encryptie en beleid kun je een hack wellicht niet voorkomen, maar wel zorgen voor de juiste maatregelen als die situatie zich voordoet. Rudi de Visser is Sr. Business Consultant bij Eurofiber
Verschillende encryptiestandaarden Advanced Encryption Standard (AES) is de opvolger van de computerversleutelingstechniek Data Encryption Standard (DES). Eind jaren negentig bleek DES niet meer te voldoen en werd er een wereldwijde wedstrijd uitgeschreven voor een nieuwe standaard. Het Rijndael-algoritme won, vanwege de combinatie van veiligheid, prestatie, efficiëntie, eenvoudig en flexibiliteit. RSA (naar de bedenkers Rivest, Shamir en Adleman) is een asymmetrisch encryptiealgoritme dat in 1977 werd ontworpen. De veiligheid van RSA is gebaseerd op het probleem van de ontbinding in factoren (bij heel grote getallen). Het gevaar voor RSA is dat nieuwe ontwikkelingen op dit gebied het algoritme onbruikbaar zouden kunnen maken. De Federal Information Processing Standard (FIPS) is een Amerikaanse standaard voor encryptie. Het zijn normen voor de wijze waarop bepaalde informatie in informatiesystemen moet worden vastgelegd. Ze zijn bedoeld voor gebruik door overheidsinstanties en contractpartners van de overheid.
Cloudian, leverancier van object storage-oplossingen, lanceerde recentelijk haar nieuwe ‘forever live’product en een update van haar Hyperstore-software en daagt daarmee de gevestigde merken uit. Ook andere partijen zoals EMC, NetApp en HP hebben immers omgevingen in de markt die praktisch oneindig geschaald kunnen worden. Toch is er volgens Jacco van Achterberg, EMEA-verant woordelijke bij Cloudian een belangrijk verschil. “In ons geval Jacco van Achterberg kun je grote en kleine nodes mixen, dat kan bij veel van de grotere leveranciers niet. Het is het verschil tussen ‘scale up en scale out’.” De productaankondiging valt samen met de aankondiging van Hyperstore 5.2, een sleutelelement in het aanbod van Cloudian. Van Achterberg: “We hebben een slag gemaakt in de nieuwe soft ware op het gebied van dynamische herkenning, de toevoeging van een nieuwe node wordt automatisch herkend en desgewenst wordt de workload direct herverdeeld. Daarbij maakt het niet uit of de storage-omgeving over verschillende datacenters gedistribueerd is.”
we een migratiepad voor organisaties die naar objectstorage willen, maar het historisch niet kunnen.” HyperStore 5.2 biedt daarnaast policies voor opslag op basis van selfservice. Gebruikers kunnen policies voor hun gegevens definiëren op bucket-niveau. De functionaliteit van HyperStore voor het beheer van policies op gebruikersniveau stelt medewerkers in staat om beleidsregels te specificeren voor hun gegevens en zorgt daarmee voor een aanzienlijke vermindering van de operationele kosten. “Voorheen was het zo dat alle data als ‘even belangrijk’ werd aangemerkt, nu kunnen we bijvoorbeeld voor back-ups aangeven dat bepaalde informatie maar op twee locaties wordt opgeslagen en andere op acht locaties”, aldus Van Achterberg.
Cloudian gebruikt de REST S3-API voor de communicatie van haar systemen. Daarnaast ‘leende’ de storage-leverancier de hierarchische infrastructuur nodes, racks, datacenters, regio’s van Amazon. “Dankzij S3 kunnen we een peer to peer-concept toepassen, zodat de nodes rechtstreeks met elkaar kunnen commu niceren.” Omdat Cloudian met deze RESTful API werkt, kunnen gebruikers hun data naar een publieke cloud brengen en deze weer terugzetten op een lokale omgeving. Dat is momenteel nog alleen Amazon, maar in de planning zitten ook andere leveranciers van public clouds. Om bedrijven die pas aan het begin van hun ‘cloud’leven staan een soepele transitie te bieden, biedt de opslagfabrikant in de nieuwe versie van haar software ook file access. “Zo bieden CloudWorks - nr. 10 / 2015
11
Technologie
Eigen architectuur maakt van datacenter één grote server
Google geeft inzicht in datacenterinfrastructuur
Het is een publiek geheim dat Google in zijn datacenters nauwelijks nog commercieel verkrijgbare hardware en soft ware gebruikt. Vrijwel alles - van besturingssystemen tot net werkmanagementsoftware en van servers tot switches - is intern ontwikkeld. In een blogpost schrijft Google Fellow Amin Vahdat dat in de beginjaren het bedrijf nog ‘off-the-shelf’ hardware kocht bij de bekende fabrikanten van server- en netwerkapparatuur. De enorme vraag naar zoekdiensten maakte echter al gauw duidelijk dat dit een eindig verhaal was. In figuur 1 is een schema weergegeven hoe de diverse architecturen elkaar vervolgens in de loop van de tijd opvolgden. Figuur 1. Chronologische ontwikkeling van de netwerktechnologie die
Misstappen Google heeft onlangs vier ‘research papers’ gepubliceerd waarin het een beschrijving geeft van de manier waarop het concern de technische infrastructuur binnen zijn datacenters heeft opgezet. Interessant is dat de papers aangeven hoe de diverse generaties van deze infrastructuur ontstonden als gevolg van de almaar groeiende behoefte aan bandbreedte, inclusief enkele misstappen.
Inmiddels is men bij een aanpak genaamd ‘Jupiter’ aangekomen. Deze architectuur maakt het mogelijk dat 100.000 servers met een totale bandbreedte (Google noemt dit: ‘biscetion bandwith’) van 1 Petabyte per seconde met elkaar kunnen samenwerken. In de praktijk betekent dit dat iedere server met iedere server kan ‘praten’ en daarvoor een bandbreedte ter beschikking heeft van 10 Gb per seconde. Dat getal van 100.000 is niet willekeurig gekozen. Dat is namelijk het aantal servers dat zich binnen de zeer sterk gestandaardiseerde datacenters van het bedrijf bevindt. Jupiter maakt het voor Google mogelijk deze 100.000 servers per datacenter te gebruiken alsof het om één gigantische computer gaat. Anders gezegd: ieder datacenter wordt binnen het bedrijf gezien als één groot uitgevallen server. Het heeft wel even geduurd voordat Google op deze manier van werken uitkwam, schrijft Amin Vahdat in zijn blogpost. Zoals uit figuur 1 blijkt, heeft men inmiddels al heel wat generaties achter de rug en daar zaten hier en daar ook wel wat misstappen tussen. Zo heeft Google in de beginjaren geprobeerd om de switchingfunctionaliteit van het netwerk te integreren in zijn servers. Op zich lukte dat wel, ware het niet dat de beschikbaarheid van individuele servers hierdoor aanzienlijk omlaag ging.
Eigen hardware In 2005 gebruikte het bedrijf nog standaard server-hardware. Dat was in de tijd dat Gmail al was gelanceerd, maar men YouTube nog niet had gekocht. Intern was men al wel aan het kijken naar mogelijkheden voor optimalisatie van het datacenter, wat de naam Firehose mee kreeg. De bisection bandwith lag in die jaren op 1 Gbps bij een datacenter dat toen al 10.000 servers omvatte. Firehose was ook de architectuur waarin Google probeerde om servers en switches met elkaar te integreren. Zonder succes dus.
Google intern toepast.
Figuur 2. De netwerktopologie binnen de datacenters van Google.
infrastructuur betekende dit een aanpak zoals weergegeven in figuur 2. Alles kan met alles ‘praten’. Dat betekende dat er meer dan tienduizend switches nodig waren. Dat ging niet met de standaard apparatuur van vendoren, dus koos men voor een toen net ontwikkeld concept genaamd: software defined networking. Alles werd hierdoor anders: van switching-hardware tot netwerk protocollen. Traditionele switches leren op dynamische wijze hoe het netwerk is opgebouwd. Op basis van die informatie sturen zij datapakketjes door. Dat gebeurt met standaard protocollen die weliswaar robuust zijn, maar die wel redelijk veel overhead met zich meebrengen. Met andere woorden, een flink gedeelte van de beschikbare capaciteit is voor netwerkadministratie en dergelijke nodig en kan dus niet gebruikt worden voor het transporteren van data zelf. Bovendien werden switches in dergelijke omgevingen nog grotendeels handmatig beheerd en dat kost tijd en maakt de kans op fouten onacceptabel groot - zeker bij de aantallen en de beschikbaarheidseisen waarmee Google werkt.
Broadcast-protocol Met Firehose 1.1 kwam de eerste volledig intern ontwikkelde - wat het bedrijf noemt - ‘datacenter cluster fabric’. Zeg maar: de architectuur van Google’s datacenters. Voor de netwerk
12
Alles over innovatie in ICT
Om een voorbeeld te geven van de problemen waar Google tegenaan liep: als zich wijzigingen in het netwerk binnen het datacenter voordoen - wat bij het bedrijf natuurlijk dagelijks CloudWorks - nr. 10 / 2015
13
Technologie
HEt Meest COMplEtE eveNt vaN COMputerruiMtes eN DataCeNters
{
‘Het is een publiek geheim dat Google in zijn datacenters nauwelijks nog commercieel verkrijgbare hardware en software gebruikt’
gebeurt - worden deze aanpassingen in een traditioneel netwerk via een broadcast-protocol aan alle switches bekend gemaakt. Dit protocol werkt goed, maar is relatief traag. Het kan dus even duren voordat de wijzigingen overal in het netwerk bekend zijn. Dat is te traag voor een bedrijf als Google. Dan kan het gebeuren dat de ene wijziging nog niet overal bekend is, terwijl de volgende wijziging alweer in gang is gezet. Daarom koos Google voor een andere aanpak. Het keek niet meer naar individuele servers en switches maar naar het totale datacenter. Iedere switch speelt hierin een eigen en duidelijk omschreven rol. Men bouwde voor het volledige datacenter een centrale configuratie van het netwerk op en ‘pusht’ deze vervolgens naar alle switches. Iedere switch haalt uit deze configuratie de info die het nodig heeft om de eigen rol binnen het datacenter te kunnen spelen. Dit is schematisch weergegeven in figuur 3.
Met het publiceren van de vier papers geeft Google nu inzage in de huidige stand van zaken binnen zijn datacenters. In het verleden heeft het bedrijf al vaker research papers gepubliceerd. Die hadden steevast tot gevolg dat een serie startups met de ideeën die in de papers werden beschreven aan de slag ging en nieuwe producten ontwikkelde die ook interessant zijn voor andere datacenters die minder grote eisen stellen. Die startups werden niet zelden opgezet door medewerkers die daarvoor nog bij Google in dienst waren en aan deze interne projecten werkten. Analisten gaan er van uit dat we ook ditmaal eenzelfde ontwikkeling zullen gaan zien. De blogpost van Amin Vahda over de vier research papers en de documenten zelf zijn hier te vinden: http://googleresearch. blogspot.nl/2015/08/pulling-back-curtain-on-googles-network.html
iT ROOM iNfRA 2015
Robbert Hoeffnagel Dit is het principe waarmee Google nog altijd binnen zijn data centers werkt. Na Firehose 1.1 volgde een WatchTower geheten aanpak met 10 GB fiber in plaats van klassieke bekabeling. Totale bisection bandbreedte: 87 Tbps. WatchTower werd opgevolgd door Saturn en de bisection bandwith groeide naar 207 Tbps. Saturn heeft het drie jaar volgehouden voordat Google opnieuw in capaciteitsptoblemen kwam. Inmiddels is men met Jupiter naar 40 Gbps en een bisection bandwith van 1 Pbps gegroeid, waardoor het bedrijf ieder datacenter nu inderdaad als één computer kan aansturen.
17 NOveMBer 1931 CONgresCeNtruM DeN BOsCh
• BOuweN & BeveiligeN • MONitOreN & MaNageN • KOeliNg, POwer & CONNECtiviteit • iT/ClOuD TraNsitiE • DataCeNter TEChNOlOgiE
Nieuwe startups Wat erg interessant is om te lezen, is de lans die het bedrijf breekt voor het met elkaar integreren van operations- en research-teams. Engineers die dagelijks bezig zijn met het beheer van de datacenters hebben nauw samengewerkt met R&D-technici én studenten om gezamenlijk nieuwe ideeën uit te werken en te onderzoeken. Dat is een bewuste keuze van het bedrijf geweest om daarmee niet alleen alle betrokken medewerkers bij dit soort trajecten te kunnen betrekken, maar ook om radicale ideeën een kans te geven.
14
Alles over innovatie in ICT
Figuur 3. De routing-structuur die Google toepast.
Registreer u online met naastgenoemde code voor een bezoek aan het event
Registratiecode: ITR8138 Bekijk de deelnamevoorwaarden op de website
www.itrOOMiNfra.Nl
Datamanagement
Maurice Pastoor en Eric Evers van DMP:
‘Datamanagement belangrijker dan ooit’
{
‘Computing everywhere betekent ook data everywhere’
Computing everywhere betekent niet alleen meer flexibiliteit en gemak voor eindgebruikers van IT, maar ook dat er meer data wordt gegenereerd op meer verschillende plekken. Dat zorgt volgens Maurice Pastoor en Eric Evers van DMP in Zeist voor nog grotere uitdagingen op het gebied van datamanagement. DMP - opgericht in 2007 vanuit de storageconsultancy - helpt klanten bij het vinden van oplossingen voor deze en andere uitdagingen. Daarbij profileert DMP zich in de eerste plaats als kennishuis. Dit vertaalt zich tijdens Storage Expo 2015 in de Knowledge Store, een standconcept waarbij beursbezoekers bij DMP terecht kunnen voor maatwerkadvies rond hun datamanagementvraagstukken. “Wij beschikken over veel kennis op het gebied van datamanage ment en die delen we graag met klanten”, zegt Eric Evers, technical director bij DMP. Volgens sales director Maurice Pastoor staat voor DMP de interactie met klanten voorop. “Wij gaan altijd uit van een persoonlijke benadering en beginnen met de vraag wat een klant nodig heeft. Dat kan tijdens de beurs in de Knowledge Store éénop‑één.”
Business en IT
Datamanagement: store, protect en manage je data
16
Alles over innovatie in ICT
Data is de belangrijkste asset van iedere organisatie. Evers en Pastoor zien in dat verband steeds meer alignment tussen business en IT. “Bij datamanagement gaat het uiteindelijk om wat de business nodig heeft”, benadrukt Evers. “Vroeger bepaalde de IT-afdeling wat goed was voor iedereen. Nu kan iedere afdeling die dat wil zelf zijn rekenkracht relatief eenvoudig uit de cloud betrekken, zo nodig zonder tussenkomst van de IT-afdeling. Dat is uiteraard niet wenselijk met het oog op een consistent datamanagementbeleid. IT-afdelingen erkennen dat en zijn steeds meer faciliterend naar de business. Wij zien het als onze rol om hen daar zo goed mogelijk bij te helpen. Om een juist advies te kunnen geven en een goede oplossing te kunnen bieden, kunnen we niet zonder de input van de business. Je moet weten welke kant de business op wil en wat dat betekent voor applicaties en data. Denk aan het aspect van performance. Voor de IT-manager betekent meer performance meer kosten, maar voor de business kan een hogere performance juist zorgen voor extra omzet en groei. Als je dat goed in kaart brengt, kun je beter onderbouwde beslissingen nemen. Wij helpen organisaties daarbij.”
Eric Evers: “Wij beschikken over veel kennis op het gebied van data management en die delen we graag met klanten”
Pijlers DMP richt zich als datamanagementspecialist op drie pijlers: store, protect en manage. “De rode draad bij alle drie pijlers is het zorgen voor een betrouwbare en kosteneffectieve omgeving voor datamanagement”, zegt Pastoor. “Het gaat erom de requirements goed te definiëren, zodat je een omgeving bouwt die past bij je organisatie. Het gaat om de juiste fit. Bij store richten we ons onder meer op het beschermen van de investering van onze klanten. Wij kennen de storage-hardwaremarkt van binnenuit en zorgen op basis daarvan voor een grondige analyse van de technische en de zakelijke processen. Vervolgens adviseren we over de daad werkelijke dataopslag op de oplossingen van onze hardwareen softwarepartners.” CloudWorks - nr. 10 / 2015
17
Spice in Finance
Datamanagement Pastoor: “De cloud is op weg naar wat Gartner het plateau van productiviteit noemt. Daarbij is het interessant dat het aanvankelijke idee dat de cloud vooral tot kostenbesparingen zou leiden, niet is uitgekomen. Gartner merkt op dat de cloud ‘in sommige gevallen’ heeft geleid tot lagere kosten. Daarnaast is ook de gedachte dat we alle infrastructuren volledig naar de public cloud zouden kunnen overzetten achterhaald. Alle analisten zijn het erover eens dat de hybride cloud de norm wordt. Dat ligt in lijn met wat wij bij onze klanten zien. Zij willen profiteren van de flexibiliteit en performance van cloudtechnologie maar ook greep houden op hun applicaties en data. Dat kan met een hybride-cloudbenadering.” Volgens Evers zorgt deze cloudbenadering ervoor dat datamana gement nog hoger op de agenda moet. “Als je je data verspreidt over een on-premise platform en de cloud, wordt het genereren van een totaalbeeld alleen maar belangrijker. Je wilt er immers zeker van kunnen zijn dat alle data goed beschermd is. De afhankelijkheid van data neemt bij iedere organisatie toe. Je kunt niet meer zonder goede controle over je data.”
Analytics en selfservice
Maurice Pastoor: “Organisaties willen meer trends definiëren, maar ook rappor tages kunnen maken over bijvoorbeeld storagegebruik per afdeling of divisie”
Protect Bij protect gaat het om het vinden van de juiste manier van data bescherming. Evers: “Data is uiteraard essentieel voor de bedrijfs voering en continuïteit, maar niet alle data heeft de meest krachtige beveiliging. Daarom is het belangrijk om data te kwalificeren. Wij helpen klanten daarbij, zodat ze de juiste balans vinden tussen bescherming en kosten. Met de derde pijler manage richten we ons op het beheren van een datamanagementomgeving bij een klant. Wij beschikken hiervoor over een eigen Support en Managed Services Center met zeer hooggekwalificeerde medewerkers. Deze activiteit is snel gegroeid, omdat bedrijven steeds vaker bereid zijn hun beheer uit te besteden. Dat is ook begrijpelijk als je bedenkt dat het voor organisaties zelf erg moeilijk is om intern kennis op te bouwen en te behouden. Datamanagementomgevingen worden met de dag complexer en vereisen steeds meer expertise. Doordat wij met onze specialisten honderden klanten bedienen, herkennen we issues veel sneller en bieden we ook veel sneller een oplossing. Bovendien is 24x7-beheer voor ons eenvoudiger te realiseren dan voor een individuele organisatie.”
Trends Met de analisten van Gartner stellen Evers en Pastoor dat de cloud als een van de grootste trends in IT de hypefase wel voorbij is.
18
Alles over innovatie in ICT
Evers en Pastoor zien ook de vraag naar analytics, search en self service groeien. Pastoor: “Organisaties willen meer doen met hun data: trends definiëren, maar ook rapportages kunnen maken over bijvoorbeeld storagegebruik per afdeling of divisie. Daarnaast staat search steeds vaker op de agenda. Als consument ben je gewend om via Google of een andere zoekmachine een zoekterm in te tikken en je krijgt een compleet overzicht van wat op het internet te vinden is over het onderwerp. Het is eigenlijk raar dat dat meestal niet lukt met bedrijfsdata. We zien hier nu een groeiende belangstelling voor en leveren steeds meer klanten een oplossing waarmee ze hun medewerkers een interface bieden die sterk lijkt op die van Google en hetzelfde type zoekmogelijkheden biedt. Dat verhoogt uiteraard de productiviteit. Medewerkers die bepaalde informatie zoeken voor een taak hoeven niet meer in allerlei mappen te zoeken, maar zien meteen waar hun informatie staat.” DMP ziet verder een groeiende belangstelling voor selfservice. Evers: “Wie vroeger per ongeluk een bestand wiste, moest naar de IT-afdeling om het terug te laten zetten. Dat raakt uit de tijd. Je wilt nu dat de gebruiker dat zelf kan doen. Het is gebruiksvriendelijk voor de eindgebruiker en veel efficiënter voor de IT-afdeling.” Vooruitkijkend verwachten Evers en Pastoor dat het beheersbaar houden van data voor organisaties de grootste uitdaging is en voor lopig ook blijft. Dat geldt voor middelgrote bedrijven in dezelfde mate als voor grote bedrijven. “Het enige verschil is de schaal”, aldus Evers. “Maar inhoudelijk levert de explosie van data en het behouden van overzicht dezelfde vragen op. Door toenemende complexiteit daarvan ligt het inschakelen van een trusted advisor voor de hand. Wij nemen die rol graag op ons.”
Geef innovatie de plek die het verdient door Louis van Garderen Het ministerie van Economische Zaken heeft op 5 oktober jl. be kendgemaakt dat zij in 2016 en 2017 ICT-onderzoek en innovatie verder zal aanjagen door gezamenlijk met de partners TNO en NWO een bedrag van 40 miljoen euro te investeren in innovaties op het gebied van big data. Een ruime definitie die ook zorg, veilig heid (waaronder cyber security), energie en smart industry omvat. Reden om eens in te zoomen op de organisatie van innovatie. Innovatie kan erbij worden gedaan en kan leiden tot nieuwe ont dekkingen die de toekomst van uw bedrijf wezenlijk beïnvloeden en misschien zelfs op zijn kop zetten. En toegegeven, die voor beelden zijn er zeker. Toch blijkt uit een rondgang langs mislukte innovaties (autopsy.io) dat het gevaar op de loer ligt om het er een beetje bij te doen. Innovatie moet een grondhouding zijn, die diepgeworteld is in de organisatie.
Lange adem Een tweede aspect dat ik niet onbenoemd wil laten, is de door looptijd die innovatie vraagt. Veel successtories van vandaag zijn al lang geleden gestart. Denk aan de grote successen zoals Facebook, maar kijk ook maar eens naar de bedrijven die plotseling lijken door te steken: niet zelden bestaan deze ‘startups’ al geruime tijd. En daar zit hem wel de kneep: innoveren kost simpelweg heel veel effort. In termen van doorlooptijd en daarmee dus ook van finan cierbaarheid. Meer dan de helft van de eerder genoemde misluk kingen zijn gestrand door cash-burn. En dan bedoel ik dat niet als vertaalslag van alle andere tegenvallers – dat zou te gemakkelijk zijn – maar ik bedoel een financieringstekort om langjarig goeie ideeën die ook wel willen aanslaan echt door te ontwikkelen en markt-klaar te maken.
Markt Bezoek DMP in stand B063 op de Storage Expo 2015
Is er een markt voor je innovatie? Beantwoordt die vraag niet te snel. Niet zelden wordt er ontwikkeld om vervolgens tot de con clusie te komen dat de markt er geen vraag (meer?) naar heeft. En dat kan sluipend binnenkomen. Gesignaleerde behoeften kunnen al snel zijn achterhaald of worden inmiddels aangeboden door concurrentie. Het is dus zaak om bij het organiseren van de innovatie nadrukkelijk een tijdselement mee te nemen: snelheid is een belangrijke succesfactor voor innovaties. Bovendien kan het
zinnig zijn om de markt ook tussentijds te toetsen op eerder ver wachte marktinzichten. Bouw dergelijke analyses op gezette tijden in het innovatieproces in om tijdig te kunnen reageren op marktveranderingen.
Partners Innoveren doe je niet alleen. Juist het met elkaar in verband brengen van technologische uitdagingen vanuit verschillende kennisgebieden leidt tot sterke innovatie. Het is niet voor niets dat de eerder aange haalde investeringen in partnerorganisaties vormgegeven zal worden. ‘Oplossingen vinden we niet als wetenschappers, bedrijven of de overheid elk met de deur dicht gaan bedenken hoe we problemen het hoofd kunnen bieden’, aldus Staatssecretaris Dekker.
Financierbaarheid De financierbaarheid van innovatie is misschien wel een van de moeilijkste aspecten van innovatie: hoe worden fondsen vrijge maakt die pas later en alleen maar misschien zullen bijdragen aan de winst? Denk ruim! Crowdfunding is niet een antwoord op alle financieringsuitdagingen. Soms is scherpe financiële partnering in combinatie met slimme uitnutting van fiscale en subsidiaire moge lijkheden wel een betere oplossing. Pas bovendien op voor com plexiteit: gemaakte afspraken kunnen innovatie ook weer op scherp zetten als later de koers moet worden bijgesteld en individuele partners uiteenlopende belangen hebben in de investeringen.
Organisatie De organisatie van innovatie vanuit een bestaande onderneming vraagt om veel deskundigheid op veel terreinen. Eigenlijk is het wel te vergelijken met een ‘bedrijf in het bedrijf’ met een geheel eigen aansturing. Kies dus ook voor een werkvorm die recht doet aan de plek die de innovatie moet innemen. Misschien in aparte bv’s – niet alleen om het risico te spreiden maar ook uit oogpunt van financier baarheid en bestuurbaarheid. Wellicht ook bewust op andere geo grafische locaties, dicht bij de innovatie-partners? Eén ding is zeker: wat hier nooit mag ontbreken is een gezonde visie en missie, ver taald in een concreet en financieel sluitend business plan. Neem eens contact op met uw bedrijfsadviseur, hij kan vast en zeker spiegelen. Louis van Garderen is oprichter van Joinson & Spice CloudWorks - nr. 10 / 2015
19
Cloud-infrastructuren EOS
Arista Networks vereenvoudigt cloud automation oplossing voor het automatiseren van datacenternetwerken, genaamd CloudVision. Technical Director EMEA John Peach vertelt waarom en hoe. “Wij zien dat klanten steeds grotere datacenternetwerken bouwen, met duizenden tot zelfs meer dan honderdduizend servers, switches en routers. Daarbij willen zij de kosten per aansluiting steeds verder verlagen en alle beheer- en ontwikkeltaken zoveel mogelijk automatiseren.” Arista Networks speelt daarop in met CloudVision en een partnerecosysteem.
Arista Networks
Cloud computing heeft de ICT-wereld onomkeer baar veranderd. Aangejaagd door de behoeften van gebruikers aan meer flexibiliteit, gemak en mogelijke kostenbesparingen. In vergelijking met traditionele netwerken en datacenters zijn cloudinfrastructuren ook minder foutgevoelig geworden, door toevoeging van zelfherstellende functionaliteit en Software Defined Networking oplossingen. Deze trend krijgt een nieuwe impuls door Arista’s EOS CloudVision. Migreren naar cloud-computing is het makkelijkst voor consumenten en kleine organisaties. Zij kunnen namelijk laagdrempelig gebruik gaan maken van alle benodigde ICTtoepassingen, zonder kostbare beheer- en ontwikkelcapaciteit. Voor middelgrote tot grote organisaties brengt het migreren naar de cloud meer uitdagingen met zich mee. Zoals het beschermen van de intellectuele eigendommen en gewenste controle over het gebruik en beheer van alle toepassingen. Arista Networks, pionier en innovator op het gebied van Software Defined Networking (SDN) wil die uitdagingen helpen te overwinnen met een
20
Alles over innovatie in ICT
Hoewel Arista Networks al tien jaar actief is, zijn ze nog niet zo’n bekende speler in de netwerkmarkt. De reden daarvoor is het feit dat het bedrijf jarenlang snelle multi-layer switches heeft ontwikkeld en geleverd aan grote cloud-serviceproviders, financiële dienstverleners met kritische handelsplatformen en grote research instellingen. Oftewel het high-end gedeelte van de netwerkmarkt. Gartner positioneerde het bedrijf onlangs als leader in het 2015 Magic Quadrant voor Data Center Networking, met als toelichting dat ze verreweg de snelste groeier zijn. Arista Networks levert inmiddels een uitgebreid portfolio SDN-switches, die draaien op het Linux-gebaseerde Extensible Operating System (EOS). Daardoor kunnen klanten bekende Linux-tools rechtstreeks op de switches gebruiken en naar behoefte zelf ontwikkelde functionaliteit toevoegen. Net als ze gewend zijn op servergebied. Met CloudVision biedt Arista Networks een netwerkbreed service platform om het programmeren van switches en automatiseren van processen sterk te vereenvoudigen, onder andere voor de integratie met SDN-controllers van ecosysteempartners.
Software Defined Networking Net als werkplekken, servers en opslagsystemen, worden routers en switches in toenemende mate gevirtualiseerd. Omdat alle beschikbare resources daardoor flexibeler inzetbaar worden en de kans op fouten te verkleinen is. Bij SDN-infrastructuren wordt de zogenaamde ‘control plane’ van een netwerk volledig gescheiden van de ‘data plane’, met daartussen een aantal open API’s die het verkeer regelen. Met als belangrijkste voordelen dat alle apparatuur tijdens operationele uren te upgraden of te vervangen is en de afhankelijkheid ervan afneemt. Het modulaire EOS netwerkbesturingssysteem communiceert via open API’s met de SDN-controllers, netwerkservices en cloud orchestrators van partners als A10 Networks, Corvil, Dell, F5, HP, Microsoft, Nuage, Palo Alto, RackSpace, Redhat, Splunk, ServiceNow, en VMware NSX. Met CloudVision voegen zij daar services aan toe voor het automatiseren van netwerkprocessen en een
centrale beheertoegang tot alle controllers en services van derden. “Het is ons doel klanten te helpen flexibeler schaalbare open cloud‑infrastructuren te bouwen, waarmee zij aanzienlijk sneller kunnen inspelen op veranderingen in de businessomgeving”, vat Peach samen.
Automatiseren datacenterprocessen Het implementeren van een continu beschikbare en flexibel schaalbare ICT-infrastructuur blijft altijd een uitdaging. Daarbij staan organisaties voor de keuze om zoveel mogelijk apparatuur bij één leverancier te kopen, uit het oogpunt van gemak en zeker heid, of een zogeheten ‘best-of-breed’ mix te implementeren. Multinationals en grote service providers hebben genoeg kennis en capaciteiten in huis om met de beste producten een innovatieve infrastructuur te ontwerpen, te bouwen, te automatiseren en te onderhouden. Een enorme groep middelgrote tot grote organisaties worstelt echter dagelijks met uitdagingen op het gebied van beschikbaarheid en beveiliging. Zij houden de ICTinfrastructuur met veel handmatig werk in de lucht. Daardoor slagen deze organisaties er amper of niet in om de operationele kosten te verlagen, zoals zij dat bij succesvolle cloud-gebaseerde ondernemingen zien gebeuren. Volgens Arista Networks zijn de belangrijkste sleutels om zowel de ICT-flexibiliteit te vergroten als kosten te verlagen, het vereenvoudigen en automatiseren van routinematige datacenterprocessen en beheerwerkzaamheden.
Samenwerking op basis van open standaarden Bedrijven die dankzij het Internet en cloud-computing succes vol zijn gegroeid, zoals Amazon, Facebook, Google, Netflix en Spotify, hebben dat mede te danken aan een onderscheidende netwerkinfrastructuur. Zij gebruiken daarvoor innovatieve ‘best‑of-breed’ producten, in plaats van ‘all-in-one’ oplossingen van één leverancier. “Bij grote netwerkleveranciers is het net alsof je een huis met een hypotheek koopt, omdat je er voor lange termijn aan vast zit”, legt Peach uit. “Als zij precies leveren wat je als organisatie nodig hebt en blijven doen, is dat uiteraard geen enkel probleem. Wij ervaren echter dat de levenscyclus van netwerkproducten korter wordt, omdat klanten eerder willen vernieuwen. Om sneller in te spelen op marktkansen, nieuwe technologie te benutten, de flexibiliteit en schaalbaarheid te vergroten en kosten te verlagen. Met CloudVision helpen wij hen daarbij door de programmeerbaarheid, integreerbaarheid en het management van cloud-netwerken aanzienlijk te vereenvoudigen. Op basis van open standaarden en in nauwe samenwerking met al onze partners.” CloudWorks - nr. 10 / 2015
21
Evenement
Het effect van regionale samenwerking
Rijnmondse datacenters bundelen krachten Binnen een straal van 25 kilometer liggen er in GrootRijnmond drie moderne datacenters die - onder de prikkelende naam Tier010 - de handen ineen hebben geslagen om zo de klanten nog beter van dienst te kunnen zijn. Die regionale bundeling van krachten gaat verder dan een samenwerking tijdens een ‘open huis route’ zoals die straks voor de derde maal in successie gaat plaatsvinden. CloudWorks ging in gesprek over het ontstaan van deze alliantie en het perspectief hiervan met Gerben van der Veen, Siemon van den Berg en Cees de Jong, directieleden van respectievelijk Dataplace, The Datacenter Group (TDCG) en Bytesnet. Op het eerste oog lijken het drie afzonderlijk van elkaar opererende datacenters die onderling de strijd aangaan om de gunst van de klant. In de dagelijkse praktijk trekken de drie Rijnmondse datacenters, waar het kan, steeds vaker samen op. “In feite is het een logische optelsom van de kenmerken waarin we verschillen van elkaar maar waardoor we elkaar juist aanvullen”, zo zegt Siemon van den Berg van TDCG. “Voor onze klanten is uiteraard van cruciaal belang dat de basis in orde is en dat is bij alle drie prima geregeld.” Cees de Jong vult aan: “Op de website van Tier010 staat dan ook dat onze datacenters worden gekenmerkt door hun kwalitatief hoogstaande dienstverlening maar vooral ook door hun persoonlijke omgang met klanten. Juist die persoonlijke benadering wordt zeer gewaardeerd. Volgens Gerben van der Veen van het Alblasserdamse Dataplace wordt die benadering ook onderstreept door regionale Rotterdamse uitstraling die zich kenmerkt door ‘handen uit de mouwen en doen wat je belooft’.
‘De regio floreert’ Tier010 is een schoolvoorbeeld van wat Pb7 Research onlangs in haar onderzoeksrapport over de Nederlandse datacentermarkt benoemde als ‘de regio floreert’. Zo blijkt uit het onderzoek dat rondom steden als Eindhoven, Groningen en in dit geval dus Rotterdam sterk groeiende hubs ontstaan van commerciële datacenters die een onmisbare backbone vormen voor de lokale en steeds intensiever gedigitaliseerde economie en het maatschappelijk verkeer. “Je merkt aan alles dat het uitbesteden van de bedrijfs
22
Alles over innovatie in ICT
processen steeds verder toeneemt”, zo vervolgt Van den Berg. ”Dit komt enerzijds door de explosieve groei van datacommuni catie en anderzijds doordat bedrijven een professionaliseringsslag willen doormaken.” Zijn collega Van der Veen uit Alblasserdam haakt er op in met de stelling: “Veelal wordt de overweging om wel of niet te gaan, zoals wij dat noemen, outhousen gebaseerd op de mogelijke kostenbesparing. Daarnaast zijn risicoverlagingen, productiviteitverhoging en kwaliteitsverbetering redenen om tot outhousing van het serverpark over te gaan. Hierdoor kunnen bedrijven zich richten op hun kernactiviteiten.”
Strategisch internetknooppunt “Het beschikken over een robuust netwerk dat borg staat voor een optimale connectivity is een niet weg te denken voorwaarde voor steeds meer klanten uit bijvoorbeeld de zorg en het onderwijs die bij ons aankloppen.” Cees de Jong van Bytesnet Rotterdam vertelt enthousiast dat Bytesnet aan die voorwaarde voldoet. “Er zijn bij ons in de Spaanse Kubus (zoals het gebouw van Bytesnet in Rotterdam wordt genoemd) meer dan 25 verschillende glasvezelnetwerken aanwezig, dan mag je rustig spreken over een belangrijk strategisch internetknooppunt. Ik ken niet veel plaatsen in Nederland waar dat ook zo aanwezig is. Tijdens rondleidingen en andere bijeenkomsten met klanten leg ik graag uit dat een dergelijke netwerkinfrastructuur essentieel is voor de continuïteit van de bedrijfsvoering.”
Cees de Jong (Bytesnet)
Gerben van der Veen (Dataplace)
worden van een groter ecosysteem, zonder dat zijzelf grote investeringen in platformen en connectiviteit moeten doen. En dat blijft natuurlijk, ook in deze economisch betere tijden, mooi meegenomen.”
Dataplace Dataplace is een modern TIER III datacenter in Alblasserdam dat van alle gemakken is voorzien. Dataplace is als datacenter volledig redundant ingericht, carrierneutraal, groen en heeft één hoofddoel, namelijk het fysiek huisvesten van 32.000 servers (800 19” racks). Dataplace is ISO9001:2008, ISO14001:2004, ISO27001:2013 en NCP BORG4 gecertificeerd.
Een datacenter om de hoek Dat de regio in de lift zit, bleek wel uit het eerdere onderzoek van het onderzoeksbureau Pb7 Research, in opdracht van De Dutch Datacenter Association. Organisaties in de regio kiezen steeds vaker voor het extern huisvesten van hun ICT-infrastructuur bij een datacenter aanbieder om de hoek. Uit recent onderzoek blijkt dat de vraag naar regionale colocatie diensten sterk toeneemt. “Voor MKB bedrijven maar zeker ook voor enterprise organisaties draait het bij het afnemen van colocatie diensten en het buiten de deur organiseren van ICT-infrastructuren om vertrouwen en nog eens vertrouwen”, zo betoogt Gerben van der Veen. Hij wordt direct bijgevallen door Cees de Jong: “Klanten willen hun data in een veilige omgeving hebben staan waar ze toch snel bij kunnen. Het gevoel grip te blijven houden op hun eigen data en apparatuur, blijft van wezenlijk belang. En dat kunnen we met deze drie datacenters prima aanbieden.”
The Datacenter Group Het datacenter in Delft is een van de twee datacenters van The Datacenter Group. Het andere datacenter bevindt zich in Amsterdam. Door een breed scala aan keurmerken en certificeringen zoals ISO9001:2008, ISO14001:2004, ISO27001:2013 zijn deze datacenters gewaarborgd en is uw ICT-infrastructuur altijd beschikbaar. Zo behaalden beide datacenters sinds de oprichting in 2007 een uptime van 100%. Daarnaast beschikken beide datacenters over een 24/7/365 Remote Hands Service.
Jos Raaphorst is uitgever van CloudWorks
Internet of Things Volgens Siemon van den Berg bewijst zoiets als de opkomst van The Internet of Things en clouddiensten dat het bieden van conventionele datacenterdiensten niet meer voldoende is. “In de nabije toekomst zal het moderne datacenter steeds meer een centrale rol gaan spelen in het distribueren van complexe cloud oplossingen, zowel publieke als private. Tijdens het event op donderdag 29 oktober presenteren wij graag hoe we ons voorbereiden op deze beweging in de markt om zo de klanten te voorzien van een onafhankelijk platform. Vanzelfsprekend zonder interruptie van de positie in de waardeketen waarin onze klanten zich bevinden.” Van den Berg vervolgt: “We kunnen de mogelijkheid bieden aan onze klanten om hun applicaties en diensten naar de cloud te transformeren en onderdeel te
Siemon van den Berg (The Datacenter Group)
{
Bytesnet Bytesnet Rotterdam is een ISO27001: 2013 en NEN7510 gecertificeerd datacenter. Wij zijn gespecialiseerd in het optimaliseren en beschikbaar houden van bedrijfskritische ICT-infrastructuren. In 2012 hebben we een Europese onderscheiding gekregen als een van de meest energie efficiënte datacenters van Europa. www.tier010.nl
‘Handen uit de mouwen en doen wat je belooft’ CloudWorks - nr. 10 / 2015
23
IT Room Infra
Op 17 november vindt IT Room Infra voor de negende keer plaats. Tijdens de eerste editie in 2007 waren er 16 exposanten en 132 bezoekers (waarvan veel bezoekers later exposant werden). Sindsdien wordt het event jaarlijks georganiseerd en is er ie der jaar een groei te zien bij zowel de bezoekers als de exposanten. Komend jaar staan er 62 exposan ten en worden er bijna 500 bezoekers verwacht in 1931 Congrescentrum (Brabanthallen), Den Bosch. De reden van deze groei: IT Room Infra is niet van beursorganisatoren maar van de branche.
Event van en voor de branche De branche heeft belang om bij elkaar te komen, elkaar te ontmoeten en kennis uit te wisselen. Kennis over nieuwe technologieën staat vanaf het begin centraal. Bij IT Room Infra maakt het niet uit hoe groot het bedrijf is, de boodschap van een ieder staat centraal. Deze boodschap proberen we zo goed mogelijk aan te laten sluiten bij de vragen uit de markt. Enquête resultaten staan centraal bij de organisatie van de volgende editie. Met de exposanten en bezoekers wordt ieder jaar uitgebreid geëvalueerd en een plan opgesteld voor de volgende editie. Dit jaar zijn we hier verder in gegaan dan ooit te voren. Met een stuurgroep, een programmacommissie en een externe commissie proberen we het programma zo goed mogelijk te maken.
Gebruikers (verenigingen) Het lezingenprogramma moet interessant zijn voor gebruikers van datacenters/computerruimtes. Kennisoverdracht staat centraal. Dit jaar zijn bij de opzet van het programma TCN en Telecity direct betrokken geweest. Ze hebben aangegeven welke onderwerpen interessant zijn en hebben ook de onderwerpen beoordeeld op nieuwswaarde en relevantie. Een belangrijke opmerking was dat ze ook meer verbouwing willen zien. Het bouwen van een nieuwe omgeving met nieuwe installaties is veel makkelijker dan het integreren van nieuwe installaties in een bestaande omgeving. Ook vanuit Green IT Amsterdam en
24
Alles over innovatie in ICT
Dutch Datacenter Association is er meegekeken en meegedacht bij de invulling van het programma. Op deze manier zijn de eindgebruikers goed vertegenwoordigd in het programma.
Bezoekers De leden en exposanten steken er veel tijd in om van IT Room Infra een succes te maken. Een event waar bezoekers komen om zich te laten informeren over de laatste technologieën en mogelijkheden om goede keuzes te maken. Iedereen die met een ander doel (bijvoorbeeld verkoop) IT Room Infra wil bezoeken is welkom vanaf 15.30 uur. Op deze manier heeft iedereen de mogelijkheid IT Room Infra te bezoeken en met het totale netwerk in contact te komen.
discussie te faciliteren is er bij IT Room Infra 2015 voor het eerst een Datacenter Café. In dit Datacenter Café is er voldoende plaats om te zitten en tijdens de pauzes zal Robbert Hoeffnagel met diverse sprekers de discussie aangaan en het publiek wordt gevraagd in de discussie te participeren.
Locatie Op 17 november vindt IT Room Infra plaats in 1931 Congres centrum (Den Bosch). Dit congrescentrum van de Brabanthallen biedt een grote centrale hal waar de stands staan opgesteld, rond de stands zijn de vijf lezingenzalen. Een locatie die voldoet aan alle eisen van deze tijd. De locatie is op loopafstand van het station en er is voldoende parkeergelegenheid voor alle bezoekers en exposanten.
Programma Het resultaat is een programma waar we als branche trots op kunnen zijn. Met lezingen vanuit datacenters, integratoren en technische leveranciers is er een interessante mix ontstaan. De lezingen zijn verdeeld in 5 tracks: Bouwen & Beveiligen, Monitoren & Managen, Koeling/Power/Connectiviteit, IT/ Cloud Transitie en Datacenter Technologie. Iedere track bestaat uit zes lezingen en bestaat uit nieuwe technologieën en concrete praktijkcases.
Kennismarkt 62 exposanten demonstreren op de kennismarkt de laatste ontwikkelingen aan de bezoekers. Tot en met 2013 waren de stands allemaal van dezelfde afmeting (3 meter bij 2 meter) maar diverse exposanten kregen steeds meer moeite hun demonstraties binnen deze oppervlakte uit te voeren. Het demonstreren van nieuwe technologieën is iets wat gestimuleerd wordt en wat ook door de bezoekers wordt gewaardeerd. Sinds 2014 zijn er ook stands van 5 meter bij 3 meter. Door het invoeren van een extra opbouwdag verandert de kennismarkt langzaam in een uitgebreide beursvloer. UPS systemen, koelsystemen, racks of zelfs koude gangen zijn op de beursvloer te zien.
Discussie Wanneer er veel datacenter engineers, installateurs en zoveel technologie bij elkaar zijn, ontstaan er discussies. Iedereen wil zijn omgeving slimmer inrichten (of uitbesteden) maar wat is wijsheid, welke technologie past het beste in een bepaalde situatie. IT Room Infra is het moment om met vakgenoten van gedachten te wisselen en met nieuwe inzichten en contacten naar huis te gaan. Om de
Partner DatacenterWorks Vanaf het begin is DatacenterWorks bij IT Room Infra betrokken. Ook deze samenwerking groeit ieder jaar. Naast de media-aandacht neemt Robbert Hoeffnagel plaats in de programmacommissie en staat ook het Datacenter Café onder zijn leiding. In samenwerking met DatacenterWorks en PB7 heeft IT Room Infra ook een onderzoek uit laten voeren onder de bezoekers van IT Room Infra en de lezers van DatacenterWorks. De conclusies van dit onderzoek worden tijdens de eerste plenaire lezing gepresenteerd. Het doel van het onderzoek was het in kaart brengen van de beslissers in het datacenter (IT versus Facilitair) en de keuzes die gemaakt worden. Ga voor meer informatie en aanmelden naar www.itroominfra.nl
{
Harm Wijsman, Branchemanager IT Room Infra
‘IT Room Infra is het moment om met vakgenoten van gedachten te wisselen en met nieuwe inzichten en contacten naar huis te gaan’ CloudWorks - nr. 10 / 2015
25
Cloud-techniek Juniper Networks QFX5100 Switches en Juniper Networks EX4300 voor de ontwikkeling van een Virtual Chassis Fabric. De MX, EX, QFX en Virtual Chassis Fabric vormen kernonder delen van MetaFabric, Junipers’ simpele, open en intelligente architectuur voor datacenter-netwerken. De MX104 combineert krachtige capaciteit, redundantie en energie-efficiëntie met een ruimtebesparende vormfactor. De QFX-switches voorzien in 10GbE-connectiviteit, terwijl de switches uit de EX-reeks klanten poortsnelheden tot 1GbE bieden. De Juniper Networks Virtual Chassis Fabric (VCF) omvat een krachtig presterende netwerk architectuur met een lage latency die als één apparaat kan worden beheerd. Operators kunnen daarmee verschillende chassis met elkaar verbinden tot één logisch chassis om de configuratie en het beheer te vereenvoudigen.
Bedrijfsprocessen vereenvoudigen
Nederlandse internetprovider bouwt virtuele datacenterinfrastructuur Interconnect is een Nederlandse internetprovider die een breed scala aan ICT-oplossingen aanbiedt, zoals cloud-hosting, connectiviteit, VoIP (Voice over IP) en datacenter-diensten. Het bedrijf werd in 1995 opgericht door de broers Rob en Jeroen Stevens. Interconnect is sindsdien uitgegroeid tot een organisatie met een kleine 80 werknemers. De bedrijfsomzet en het aantal medewerkers groeit elk kwartaal. Het hoofdkantoor en het primaire datacenter van Interconnect zijn gevestigd in Den Bosch. Het bedrijf beschikt daarnaast over een tweede datacenter in Eindhoven. De cloud-diensten van Interconnect zijn gebaseerd op VMware as-a-service. Klanten kunnen kiezen tussen één VMware-server of een maatoplossing die in rekencapaciteit, opslagruimte en flexibiliteitsopties voorziet. Klanten kunnen hier naar wens load balancing- en firewall-diensten aan toevoegen. De datacenter- en colocatie-diensten van Interconnect voorzien in een groot aantal opties voor Ethernet- of Fibre Channel-verbindingen tussen de datacenters. Interconnect biedt daarnaast verbindingen aan met de locaties van klanten via het eigen glasvezelnetwerk in combinatie met de netwerken van de belangrijkste carriers in de regio. Het aanbod wordt gecompleteerd met oplossingen op het gebied van datacenter en hosted telecom met vast-mobiel. Interconnect levert diensten aan zakelijke klanten van alle omvang, van organisaties in het MKB tot grote ondernemingen met 10.000 werknemers, zoals de sportkledingfabrikant O’Neill en mobiele operator Vodafone.
26
Alles over innovatie in ICT
Uitdaging(en) Het beheer van de switching-infrastructuur van Interconnect was, als gevolg van de sterke groei van de organisatie in omvang, uiterst complex geworden. Met meer dan 200 switches die regelmatig handmatig opnieuw moesten worden geconfigureerd om VLAN’s (virtual local area networks) voor klanten te creëren binnen de datacenters van Interconnect, omvatte het inrichten van diensten een traag, complex en foutgevoelig proces. Daarnaast was er sprake van problemen rond beperkingen van het Spanning Tree Protocol, de QoS (quality of service) en latency. Interconnect had behoefte aan een nieuwe, innovatieve aanpak van de architectuur van het datacenter-netwerk om de concurrentie voor te kunnen blijven en tegemoet te komen aan de nieuwe eisen van klanten. Interconnect ging in gesprek met een groot aantal leveranciers om een oplossing voor dit probleem te vinden. De service provider zocht naar een leverancier met een betrouwbare reputatie die innovatie naar het datacenter kon brengen en over in de praktijk bewezen oplossingen beschikte. Interconnect maakte al jarenlang gebruik van apparatuur van Juniper Networks en had zeer positieve ervaringen met de fabrikant. Jeroen Stevens, chief technology officer (CTO) bij Interconnect: “Onze bedrijfsaanpak is om te zeggen wat we doen en te doen wat we zeggen. Onze klanten verwachten dat van ons, en het is ook wat wij van onze leveranciers verwachten. Het is van groot belang voor ons dat leveranciers een dergelijke integriteit onderschrijven.”
Oplossing Interconnect koos voor Juniper Networks MX104 3D Universal Edge Routers voor de ontwikkeling van een datacenter-core, en
“Ik verwacht dat krachtig presterende apparaten zoals deze vlek keloos werken, onder alle omstandigheden. We hadden ook producten kunnen gebruiken die ‘goed genoeg’ waren maar geen innovaties boden, of oplossingen uit een lager segment die onvoldoende prestaties boden voor de intensieve workloads. Met Juniper Networks kunnen we erop vertrouwen dat ons netwerk precies doet wat we ervan verwachten, elke keer opnieuw”, aldus Jeroen Stevens. Infradata, een Juniper Networks Elite-partner met een uitstekende staat van dienst wat betreft de implementatie van Juniper Networks oplossingen binnen bedrijfskritische omgevingen, adviseerde bij de start van het project. Infradata zette haar diepgaande kennis over Juniper Networks in om te adviseren over de meest optimale oplossing voor Interconnect. Door deze inbreng te combineren met de ondersteuning, expertise en kennis van het Juniper Technical Assistance Center, was Interconnect zeker van een kwalitatief hoogwaardige oplossing.
Resultaten Interconnect beschikt nu over een eenvoudiger en robuuster datacenter-architectuur die bovendien open, makkelijker configureerbaar en flexibeler is. De Virtual Chassis Fabric (VCF) biedt voorspelbaar lage latency door ervoor te zorgen dat elk apparaat niet meer dan twee netwerkpaden is verwijderd van elk willekeurig apparaat binnen de netwerkstructuur, ongeacht de fysieke locatie. De architectuur vergroot daarnaast de veerkracht, omdat er meerdere paden beschikbaar zijn voor het netwerk verkeer. De VCF is aanzienlijk eenvoudiger in het beheer, doordat deze zich gedraagt als één switching-entiteit en mogelijkheden voor automatische provisioning biedt. Dit resulteert in kosten besparingen en maakt een snellere provisionering van diensten mogelijk. Een ander groot voordeel is dat alle netwerkcompo nenten van Juniper gebruikmaken van het Junos Operating System. Dit vereenvoudigt het onderhoud en upgrades.
Interconnect hecht ook veel waarde aan de operationele voordelen die gepaard gaan met de offline configuratie en de mogelijkheid van software upgrades zonder verstoring van de netwerk services. Jeroen Stevens: “Ik weet dat ik upgrades op afstand kan uitvoeren. Dat doen we al meer dan tien jaar met de apparatuur van Juniper Networks, en het werkt altijd. De apparatuur komt altijd weer online, en we weten dat we die kunnen vertrouwen. We zijn ook zeer te spreken over de offline configuratiemodus die voor alle producten van Juniper beschikbaar is. We kunnen nu ook in-service software upgrades uitvoeren. Dit maakt een einde aan downtime van het netwerk. Het is de enige oplossing die ik heb gezien, die alle beloften op dit gebied inlost. Interconnect heeft alle klanten naar de nieuwe infrastructuur van Juniper Networks overgezet. Jeroen Stevens vervolgt: “We zijn zeer verheugd met de betrouwbare apparatuur van en onze relatie met Juniper Networks en de ondersteuning die het Juniper Technical Assistance Center (JTAC) ons biedt. We kunnen nieuwe ideeën en innovaties met beide partijen bespreken, en ze staan altijd klaar om ons van technische ondersteuning te voorzien. Kiezen voor een leverancier als Juniper is geen kwestie van offertes aanvragen. Het gaat om het verkrijgen van eerlijk advies en creatieve ideeën.”
Geleerde lessen en de toekomst Interconnect vervangt alle switches in het netwerk door apparatuur van Juniper. Jeroen Stevens: “Oorspronkelijk waren we dit niet van plan, maar omdat we zeer te spreken waren over de VCF hebben we besloten om alles te vervangen. We beseften ons dat een up grade naar de nieuwe hardware van Juniper Networks niets meer kost dan het verlengen van ons ondersteuningscontract voor onze oude switching-oplossing. De keuze was daarom snel gemaakt!” Interconnect verkent daarnaast mogelijkheden van de SDN (Software Defined Networking)- en vCPE (virtual customer premise equipment)-oplossingen van Juniper om de tijd die nodig is om diensten in te richten, terug te dringen van dagen tot minuten en de noodzaak van fysieke herconfiguratie van het netwerk te voorkomen. “SDN gaat echt enorm belangrijk voor ons worden. Het vormt de sleutel tot een flexibelere en kostenefficiëntere aanpak. We verwachten dat de voortdurende technologische innovaties van Juniper zich zullen vertalen in een nog betere dienstverlening aan onze klanten. We kunnen door blijven gaan met het inlossen van onze beloften in de wetenschap dat Juniper Networks voor ons precies hetzelfde zal doen”, concludeert Jeroen Stevens.
“Ons technische team is bijzonder te spreken over de oplossing. We beschikken in feite over één grote switch die niet eens in één ruimte hoeft te worden opgesteld. We hebben geen capaciteits problemen en kunnen met het grootste gemak opwaarderen naar 40G. En als we een klant naar een andere omgeving verhuizen, hoeven we slechts één configuratiewijziging aan te brengen”, aldus Jeroen Stevens. CloudWorks - nr. 10 / 2015
27
Visie
Datacenterbeheer:
Hét toepassingsscenario voor big data analytics bij uitstek
In de ICT-wereld doen we er soms lang over om onze eigen kracht te beseffen. Neem nu cloud computing. De afgelopen 30 jaar hebben we ons louter gericht op het bijstaan en ondersteunen van onze collega’s. We verbeterden hun bedrijfsprocessen. We auto matiseerden hun activiteiten zodat ze meer en betere resultaten konden afleveren en de consistentie van hun (product)ontwikkelingsprocessen vergroten. Totdat we ons beseften dat het tijd was om onze interne processen te automatiseren en de consistentie van onze provisioning te optimaliseren. Een vergelijkbaar inzicht is nodig op het gebied van big data. Veel organisaties proberen big data te analyseren om verbanden en patronen bloot te leggen, markttrends te signaleren, klanten voorkeuren bloot te leggen en andere bruikbare zakelijke input te verkrijgen. De meesten van ons hebben reeds big datasystemen zoals Hadoop-clusters geïmplementeerd. Ironisch genoeg beïnvloedt dit vaak onze eigen datacenterdiensten. Hierdoor zijn we gedwongen om verborgen patronen te ontwaren en inzicht te krijgen in verbanden tussen de nieuwe workloads en het bronverbruik, de invloed daarvan op de huidige workloads en toekomstige mogelijkheden voor het hosten van nieuwe workloads. Het probleem is dat virtuele datacenters zijn opgebouwd uit een verzameling van ongelijksoortige componenten. Elk systeem, elke host, elke switch en elk storage-systeem logt en presenteert de gegevens die hun producenten belangrijk achten. Verschillen in de fijnmazigheid, tijdsbestekken en outputformaten van data maken het enorm moeilijk om alle gegevens met elkaar in verband te brengen. Een nog groter probleem is dat de focus van de leveranciers op de levering van meetgegevens dateert uit een tijd waarin er nog geen sprake was van x86-virtualisatie. Dit alles maakt het bijzonder lastig om inzicht te krijgen in de dynamiek van het virtuele datacenter en oorzaak en gevolg van pure relaties te onderscheiden. Het interessante van een hypervisor is dat het een uiterst contextrijk systeem is dat uitpuilt van gegevens die je kan verwerken en ana lyseren om een totaalbeeld te krijgen van alle verbruikers en aan bieders van ICT-bronnen. Door deze gegevens op te vragen en te verwerken kan je inzicht verwerven in de huidige workloads. Met een enorme berg aan gegevens in dezelfde taal, met dezelfde structuur en in hetzelfde formaat in handbereik kan je aan de slag gaan met het blootleggen van relaties en verborgen patronen. De enige beperkingen daarbij zijn in feite de grenzen van jouw fantasie. Elke keer dat je meer kennis van de systemen opdoet, kan je weer nieuwe gegevens analyseren, relaties ontwaren en oorzaak en gevolg identificeren. Dit levert ook meteen input op
28
Alles over innovatie in ICT
voor andere processen op het gebied van datacenterbeheer, zoals operationele en ontwerpprocessen. Met deze informatie in handbereik kan je de huidige workloads optimaliseren en nagaan welke systemen het meest geschikt zijn voor het hosten van een nieuwe groep workloads. Ook het operationeel beheer zal veranderen, omdat je nu in staat bent om een ‘vingerafdruk’ van jouw systeem te creëren. In plaats van elke afzonderlijke host of VM te beheren, kan je de vingerafdruk van jouw cluster in de gaten houden. Daarmee kan je nagaan hoe nieuwe workloads de vingerafdruk van de clusters in de loop van tijd hebben gewijzigd. Aan de hand van alle verzamelde gegevens kan je ook trendanalyses uitvoeren, bijvoorbeeld om na te gaan of er sprake is van seizoensgebonden workloads. Hoe ziet de toename van workloads er door de tijd heen uit? Je kan trends in het bronverbruik identificeren en vingerafdrukken van clusters en hosts met elkaar vergelijken om erachter te komen wanneer er horizontale schaalbaarheid is vereist. Dit soort informatie zal je helpen om het datacenter op een andere manier te beheren en het veel effectiever in te richten. Het mooie van het beschikken over een berg gegevens in dezelfde taal, met dezelfde structuur en in hetzelfde formaat is dat men daarmee het datacenter kan overstijgen. De dataset voor elk afzonderlijk datacenter is uiterst waardevol voor het beheer van de ICT-levenscyclus, het verbeteren van implementatieprocessen en het operationeel beheer en het optimaliseren van de bestaande workloads en infrastructuur met het oog op een beter toekomstig ontwerp. Maar waarom zou men daar ophouden? De gegevens die men over alle virtuele datacenters verzamelt, leveren inzichten op die het beheer van de ICT-levenscyclus nog verder kunnen verbeteren. Zo kan je datacenters van dezelfde omvang, of data centers voor dezelfde virtuele markt vergelijken om na te gaan hoe de totale eigendomskosten eruit zien als je dezelfde virtuele machine op een specifiek hostsysteem laat draaien (Cisco versus Dell versus HP) en welk opslagsysteem je moet gebruiken (bijvoorbeeld PernixData FVP). Op een gegeven moment kom je misschien te weten wat voor verschil het maakt voor de totale eigendomskosten als je de virtuele machine in een privaat datacenter of een cloud-gebaseerd datacenter laat draaien. Al dit soort informatie is nodig voor datacenterbeheer anno nu. Het is tijd om aan te slag te gaan met het analyseren van de big data om het beheer van de ICT-levenscyclus van jouw virtuele datacenter te verbeteren. Frank Denneman is Chief Technologist bij PernixData
CloudWorks - nr. 10 / 2015
29
Cloud-security
Figuur 1 Service-modellen in de cloud
Hoe garandeer je data-security in de cloud?
te willen voldoen. Je moet je daarom afvragen: wat zijn nu precies je wensen op beveiligingsgebied en welke certificeringen zijn voor jou relevant? Dat is vanzelfsprekend een lastige vraag, die specifieke expertise vereist. De dienstverlener die je als bedrijf in de arm neemt, zou zich daarom veel meer als een adviserende kennispartner moeten gedragen, dan puur als een on-demand leverancier van cloud-diensten.
Steeds meer IT-oplossingen verhuizen naar de cloud, zowel voor interne bedrijfsprocessen als externe dienstverlening. In welke mate bedrijfsdata in de cloud wordt opgeslagen, is afhankelijk van het ge kozen service-model. Security is echter van cruciaal belang, ook al zijn de uitdagingen hierbij het grootst. Maar hoe garandeer je veilige en verantwoorde infor matieverwerking en dataopslag in de cloud?
Business en IT-allignment
Een lastige paradox bij cloud-gebruik is dat je als organisatie zo min mogelijk wilt omkijken naar je IT, maar wel eindverantwoordelijk bent voor de beveiliging van de data. Om die situatie te verbeteren, zijn er allerlei beveiligingstechnieken, processen en certificeringen ontwikkeld. De bekende ISO 27001 certificering staat daarom bij de meeste bedrijven bovenaan de wensenlijst. De vraag is echter of zij weten wat die certificering inhoudt. Is hij van toepassing op de door hen gekozen oplossing? Zijn er wellicht nog andere certificeringen die noodzakelijk zijn? En wat is de organisatorische impact van die keuzes?
Is een ISO 27001 certificering voldoende? De meest gangbare standaard voor informatiebeveiliging is ISO 27001. Deze internationale norm beschrijft hoe de beveiliging van informatie procesmatig ingericht zou moeten worden. Hij is verplicht voor Nederlandse overheden, maar ook veel bedrijven implementeren de standaard om een basisniveau van
30
Alles over innovatie in ICT
informatiebeveiliging te implementeren. Als zij hun IT naar de cloud outsourcen, kunnen zij bij veel cloud-providers dezelfde ISO 27001 certificering in de SLA laten opnemen. De standaard is echter uiterst breed en van toepassing op alle typen organisaties, van commerciële ondernemingen tot overheidsinstanties en nonprofits. Voor al die bedrijven gelden verschillende wettelijke regels voor informatiebeveiliging, en bovendien hebben ze zelf ook nog specifieke wensen op dit gebied. Bij het afnemen van cloudservices is het daarom van groot belang om met een dienstverlener te kunnen sparren over het gewenste beveiligingsniveau, certificeringen en welke garanties er geboden kunnen worden.
Welke certificeringen zijn relevant? Een beveiligingscertificering zegt lang niet alles. Toch wordt er door bedrijven die cloud-services afnemen, bijvoorbeeld in geval van een ISO-certificaat, zelden gevraagd naar de Verklaring van Toepasselijkheid. In dit document wordt de relevant geachte selectie van doelstellingen vastgelegd en het toepassingsgebied van het certificaat gespecificeerd. Nu gelden er voor overheids organisaties en hun partners nog specifieke aanvullende certifi ceringen waar men niet omheen kan. Voor een organisatie die DigID gebruikt, is bijvoorbeeld een eigen normenset in het leven geroepen. Ook komt er een nieuwe certificering aan voor alle bedrijven rond de meldplicht bij datalekken. Maar buiten die verplichte certificeringen is het bij databeveiliging in de cloud niet realistisch om aan zoveel mogelijk normenkaders en standaarden
In welke mate een organisatie diensten uit de cloud gebruikt, is afhankelijk van diverse factoren. De keuze kan bijvoorbeeld gedreven worden vanuit de business door wensen omtrent ondemand zelf-service, kostenbesparing of innovatie. Maar de keuze is ook grotendeels afhankelijk van de vraag: waar staat mijn data en wie beheert het? Bij traditionele IT is die vraag heel transparant te beantwoorden. Alle systemen en dus alle data staan in een private omgeving en worden door eigen personeel beheerd (zie Figuur 1). IaaS (Infrastructure-as-a-Service) is een service-model waarbij het beheer van de IT-infrastructuur vervalt, maar de data en processen nog onder eigen controle blijven. Bij PaaS (Platformas-a-Service) worden ook de runtime en middleware uit handen gegeven, met enkel nog de applicaties en data onder eigen beheer. Bij SaaS (Software-as-a-Service) wordt ook het beheer van de laatste bedrijfsmiddelen uit handen gegeven. Als bedrijf zou je bij dit service-model de meeste garanties van de dienstverlener verwachten wat betreft databeveiliging. Inherent aan cloud is helaas dat de gewenste transparantie en communicatie van leveranciers op dit gebied niet altijd vanzelfsprekend is.
die bij hun data kunnen, en hoe is dit procedureel en technisch ingeregeld? En wat gebeurt er bijvoorbeeld als er onverhoopt toch sprake is van een informatielek door hackers of andere onvoorziene zaken? Een mooie lijst certificeringen schept wellicht al het nodige vertrouwen, maar er is veel meer openheid en transparantie nodig om als klant de echte risico’s te kunnen inschatten. Cloud-dienst verlening zou daarom een stuk persoonlijker moeten worden. Een continue dialoog tussen de dienstverlener en de klant over zijn business. Alleen dan kan een helder advies gegeven worden over het benodigde beveiligingsniveau. Maar de klant moet op zijn beurt ook inzicht krijgen in de processen en interne controlemechanismen van zijn dienstverlener. Dat is essentieel om het onderlinge vertrouwen te versterken.
Werkt de service provider mee aan een penetratietest? Om de optimale beveiliging van data in de cloud te garanderen, kun je veel eisen van een dienstverlener. Dit moet echter wel goed worden vastgelegd in een SLA. Denk bijvoorbeeld aan het recht om een externe audit op de omgeving te laten doen, of om penetratietests uit te laten voeren door een team van ethische hackers. Dit kost vanzelfsprekend extra inspanning van de dienstverlener, waardoor er regelmatig praktische hindernissen worden opgeworpen, zoals aanvullende kosten of extra voorwaarden. Maar bovenal moet je als klant goed inzicht krijgen in wat precies je eigen verwachtingen zijn op het gebied van databeveiliging en hoeveel je daarin wenst te investeren. Hierbij kun je denken aan de financiële impact, maar ook aan de gevolgen voor de interne organisatie. Veilige processen zijn immers meestal niet de meest gebruiksvriendelijke, los van het feit dat veranderingen in de ITomgeving door werknemers sowieso als lastig worden ervaren. Eén ding is zeker: het is wel degelijk mogelijk om de beveiliging van data in de cloud aantoonbaar te maken. Niemand kan honderd procent veiligheid garanderen, maar als klant en dienstverlener hier als partners aan werken, kan de cloud een uiterst veilige bestemming worden voor zakelijke of privacygevoelige data. Jeroen Renard, Security Officer van Odin Groep en Previder
Transparantie tussen afnemer en service-provider Afnemers van cloud-oplossingen, en in het bijzonder SaaSleveranciers die gebruik maken van hosting partners, hebben terecht veel behoefte aan informatie over de diensten die zij afnemen. Welke garanties hebben zij dat er geen mensen zijn CloudWorks - nr. 10 / 2015
31
Onderzoek
Data moet uit silo’s naar centrale opslag worden gebracht
Master Data Management van cruciaal belang voor digitale transformatie Steeds meer bedrijven doen pogingen om de werkprocessen te digitaliseren. Men streeft naar multichannel communicatie met klanten en wil door het centraal vastleggen van alle gegevens over afnemers, projecten en producten de business drastisch versnellen. In de praktijk blijkt dat makkelijker gezegd dan gedaan. Want met name op het gebied van data gaat het vaak mis. Gegevens blijken niet consistent te zijn, lastig met elkaar te relateren en zijn vaak enkel in niet-compatibele formaten beschikbaar. Oplossingen voor Master Data Management kunnen dan helpen.
Het boek ‘The Go-between’ opent met een inmiddels bekende zin: ‘Het verleden is een vreemd land, ze doen de dingen anders daar’. Het citaat is bekender dan het boek, maar die zin is inmiddels wel uitgegroeid tot een soort universele waarheid. En die is: niets blijft wat het is.
Future-proof Terwijl het in de mode soms wel een paar jaar kan duren voor dat jeans verandert van skinny naar flared of baggy en terug naar skinny, gaan veranderingen in de moderne maatschappij sneller dan ooit. En daarin is voorlopig ook nog geen vertraging zichtbaar. Om future-proof te zijn, investeren bedrijven dan ook in ICToplossingen die zowel voldoen aan de eisen van vandaag als aan de digitale voortgang van morgen. Ook al weet eigenlijk nog niemand wat dit precies inhoudt. Omdat er in korte tijd enorm veel gebeurt, hoef je niet zo ver terug te gaan om een vreemd land te ontdekken in het digitale verleden. E-commerce gigant Amazon startte in 1995, de iPad kwam in 2010 op de markt en de alles veranderende iPhone wordt pas sinds 2007 verkocht. ‘Minority Report’, een film van Steven Spielberg uit 2002, laat het personage van Tom Cruise met schermen spelen alsof het voor hem op maat gemaakte advertentiedisplays zijn. Deze film was gericht op 2054, maar inmiddels gebruiken we soortgelijke technologie dagelijks. We leven dus al in een toekomst die we enkele jaren terug nog als pure sci-fi zagen.
Goed op weg Doordat consumenten en klanten de nieuwste technologie steeds enthousiaster omarmen, worden bedrijven geconfronteerd met de enorme uitdaging van het up-to-date houden ervan. Soms hebben systemen van nog maar een paar jaar oud al weer tal van overbodige functies en ontbreken cruciale nieuwe mogelijkheden. Een recent onderzoek uitgevoerd voor Stibo Systems, een aanbieder van software voor Master Data Management (MDM) geeft aan dat 81% van de ondernemers vindt dat de transformatie naar online een enorme impact heeft op de manier van werken. Terwijl slechts 40% zegt goed op weg te zijn naar een online organisatie. Dit is goed te begrijpen. Tot nu toe was het voor veel bedrijven prima om gegevens op meerdere afdelingen op te slaan. Het is misschien niet ideaal als de marketingafdeling een ander e-mailadres van een klant heeft dan bijvoorbeeld de serviceafdeling, maar dat vormde tot voor kort ook geen groot probleem.
Centraal data vastleggen Dat is nu echter snel aan het veranderen. Recente ontwikkelingen in cloud computing, kunstmatige intelligentie en interactieve marketing hebben ondertussen als gevolg dat klanten hogere eisen stellen. Alle gegevens dienen hierbij centraal vast te liggen.
32
Alles over innovatie in ICT
Zodat een interactie van een klant via de webshop direct gekoppeld kan worden aan een klacht van diezelfde klant over een storing in een eerder aangeschaft apparaat of aan het downloaden van een whitepaper over een nieuwe ontwikkeling. Dan ontstaan commercieel kansen doordat een goed beeld van iedere individuele klant ontstaat, maar diezelfde klant snapt ook niet dat de gegevens die hij via een digitaal formulier in de webshop heeft gestuurd, niet ook bij de serviceafdeling bekend zijn. Dit betekent dat data uit silo’s gehaald moet worden en vastgelegd dient te worden op een centrale plek. En dit is precies waar de problemen zich voordoen. Want dan zien we ineens dat al die gegevens uit verschillende bronnen niet consistent zijn, vaak incompleet en gefragmenteerd en simpelweg niet voldoen aan de moderne eisen.
Internet of Things Elektrische apparaten die via chips gekoppeld zijn met the Internet of Things; de digitale toekomst kan eindeloos veel inhouden, maar zeker is dat de eisen die gesteld worden aan de benodigde technologie verder gaan dan de individuele skills van een organisatie, hoe goed ook. Volgens het onderzoek van Stibo Systems ziet 68% van de respondenten de transformatie naar online als een van de kernactiviteiten in de komende twaalf maanden, maar meldt een derde hierbij meer vertraging dan voorzien. Het is geen gemakkelijke tijd om een business te runnen. Dit is normaal in tijden van enorme verandering. Maar meer nog dan kostenbesparingen en efficiencyverhoging, is de klantverwachting de voornaamste reden voor bedrijven om online te gaan. Door hierbij systemen in te zetten die bij de basis beginnen, kunnen bedrijven zo flexibel mogelijk met nieuwe ‘tech shifts’ omgaan. Anne-Marie Gebbink, Marketing Manager Benelux Stibo Systems CloudWorks - nr. 10 / 2015
33
Big Data
Zes misverstanden over Big Data-as-a-Service
1. BDaaS is een zaak voor de IT-afdeling Big data en dus ook BDaaS wordt vaak gezien als IT-aangelegen heid. Immers is voor het implementeren van een big data-strategie zeer specifieke hardware, software en IT-kennis nodig. Toch zijn die benodigdheden slechts ‘enablers’. De werkelijke waarde van big data zit opgesloten in de strategische business-inzichten die daaruit voortkomen. Big data zou dan ook met name gedreven moeten worden van uit de boardroom. Het management is immers op zoek naar oplossingen voor het verhogen van de omzet, de operationele efficiency of het aanboren van nieuwe markten. Big data volledig in handen geven van de IT-afdeling resulteert waarschijnlijk wel in een werkend systeem, maar het is de vraag of een dergelijk project een antwoord geeft op de juiste businessvragen.
2. BDaaS heeft een ingewikkelde architectuur BDaaS-omgevingen draaien op een cloudgebaseerde infrastructuur. Cloudomgevingen hebben de manier waarop we omgaan met IT-resources grondig veranderd. Het op- of neerschalen van ITresources is een kwestie van muisklikken. De beschikbare resources zijn namelijk losgekoppeld van de fysieke hardwarelaag. Een tera byte meer of minder betekent dus niet dat organisaties schijven hoeven bij te plaatsen. De technische architectuur die daarachter schuilgaat is geheel in handen van de provider, die bovendien de verantwoordelijkheid draagt over goede uptime en prestaties van de BDaaS-oplossing. Bedrijven kunnen zich daardoor geheel focussen op hun business en het gebruik van de oplossing in plaats van op het in de lucht houden van het big-dataplatform zelf.
De toegankelijkheid van moderne technologie heeft gezorgd voor een enorme data-explosie. In die zeeën van data ligt veel waardevolle informatie verborgen. Informatie die voorheen vooral toegankelijk was met een flink IT-budget. BDaaS brengt daar verandering in: het brengt de kracht van big data-analyse naar een breed publiek. Toch bestaan er nog veel misverstanden. De zes belangrijkste op een rij.
3. BDaaS is inflexibel BDaaS is allesbehalve inflexibel. In een cloudomgeving wordt software immers niet fysiek geïnstalleerd, maar als processen opgesplitst. Aan de gebruikerskant betekent dit dat oplossingen direct beschikbaar zijn, zonder moeilijk gedoe en installatieperikelen.
Occo Vreezen
5. BDaaS is alleen geschikt voor grote multinationals Juist omdat bij BDaaS de beheer- en investeringslast niet bij de gebruikende partij ligt, is BdaaS ook toegankelijk voor bedrijven die niet de beschikking hebben over miljoenen euro’s IT-budget. Sterker nog: de ‘instapdrempel’ is bij BDaaS veel lager dan wanneer de organisatie zijn eigen big data-infrastructuur en -oplossingen moet aanschaffen, optuigen en onderhouden. Ook startups en MKB-ondernemingen kunnen veel baat hebben bij de analyse van big data. Of zelfs hun gehele businessmodel op basis van data-analyse stoelen.
6. BDaaS leidt automatisch tot succes BDaaS is geen wondermiddel. De belangrijkste reden dat bij sommige ondernemingen big-dataprojecten nog altijd falen, is dat ze met de informatie en inzichten die ze al wel hadden niet goed wisten wat te doen. In zo’n geval gaat een big-dataoplossing, ook wanneer die technisch gehost wordt door een derde partij, geen oplossing bieden.
4. BDaaS is onveilig
Analytics-tools kunnen uit grote hoeveelheden gegevens verbanden blootleggen en voorspellingen doen, maar het is aan de organisaties zelf om die te vertalen naar hun branche, hun situatie en naar concrete beslissingen en maatregelen. Big data-analyse biedt nooit kant-en-klare antwoorden, een interpretatie en vertaalslag is altijd nodig. De menselijke factor - gezond verstand, strategisch inzicht en kennis van zaken - blijft onmisbaar.
Koudwatervrees is niet nodig, maar het is wel belangrijk de provider zorgvuldig te kiezen, want er rust een grote verant Alles over innovatie in ICT
Ook is het van belang dat de server waarop de cloudomgeving draait zich niet bevindt op Amerikaans, maar op Europees grond gebied. Op die manier vallen de data onder veel strengere wet geving en heeft bijvoorbeeld de beruchte Patriot Act geen invloed.
De verwerkingskracht en capaciteit is dankzij het virtuele karakter gemakkelijk schaalbaar, zowel naar boven als beneden toe. De big-dataomgeving groeit en krimpt dus eenvoudig mee met de organisatie, zonder investeringsrisico’s. De provider zorgt ‘achter de schermen’ voor de technologische voorwaarden voor soepele uitbreiding of inkrimping.
BDaaS wordt geleverd vanuit de cloud, en dat heeft voor sommige organisaties nog altijd een negatieve bijklank: het zou onveilig zijn. Dat is allang niet meer zo. De cloud is inmiddels gemeengoed: Volgens een IDG-onderzoek zet inmiddels 69% van alle ondernemingen deze technologie in.
34
woordelijkheid in hun handen. Zij moeten gevoelige bedrijfsdata een veilig onderkomen bieden. Kies daarom voor een provider die zijn best practices op dit gebied kan onderschrijven met ISOcertificeringen. ISO 27001 is daarbij een belangrijke standaard.
Occo Vreezen is Senior Consultant bij T-Systems CloudWorks - nr. 10 / 2015
35
Blog
Zes fabels over online kassa’s in de cloud door Roemer Mol
In een onderzoek door het CBS geven bedrijven aan steeds meer voordeel te hebben van clouddiensten. Kassasystemen uit de cloud worden echter vaak nog eng gevonden door horeca- en retailondernemers, en helemaal als daarbij ook nog mobiele devices als smartphones en tablets worden gebruikt. Vandaar dat slechts 1 op de 5 horecaondernemingen gebruik maakt van betaalde dienstverlening vanuit de cloud. De volgende fabels worden wel eens genoemd, maar vormen niet de beren op de weg die ze in eerste instantie misschien lijken te zijn. Sterker nog, ze zorgen voor een rem op innovatie in de horeca- en retailbranche, waardoor ondernemers omzet mislopen.
Fabel 2: bij diefstal of brand is alles kwijt Met een online kassa is de ondernemer verzekerd van opslag van alle aangeslagen bedragen. De online kassa uit de cloud biedt meer veiligheid tegen diefstal of brand dan een traditionele kassa of kassa’s die gebruik maken van een server. Alleen in het geval dat een tablet of smartphone gestolen wordt voordat er gesynchroniseerd is, kan enige vorm van dataverlies ervaren worden. Dat verlies blijft echter beperkt, omdat er continu en real-time geschakeld wordt tussen alle gebruikte devices en de cloud. Bij diefstal van een van de smartphones, blijft afrekenen met de klant gewoon mogelijk door een ander device te gebruiken (bijvoorbeeld de hoofdkassa op de balie of een andere smartphone).
Fabel 3: wifi-ontvangst is onbetrouwbaar Fabel 1: cloud is niet veilig Vooral als het om financiële data gaat is het belang van veilig heid groot. De data worden bij cloud computing in data centra opgeslagen en zijn daar veiliger dan op de eigen pc. Bovendien worden de gegevens niet op één maar op twee geografisch verschillende plekken bewaard. De cloud biedt online beschikbaarheid, op elk moment en overal. Zelfs als de onderneming onverhoopt in vlammen op gaat, of bij een aanval van cybercriminelen. Alle omzetten blijven ongeacht dit onheil netjes gearchiveerd en opvraagbaar.
Het aanleggen van een wireless netwerk voor het ontvangen van internet is een basisbehoefte voor een online kassa. Door het wifinetwerk op te delen in een publiek domein (voor bezoekers) en een netwerk waar alleen de online kassa’s gebruik van maken, ontstaat een stabiel, betrouwbaar en altijd beschikbaar netwerk.
Fabel 4: niet kunnen afrekenen bij storing of buiten bereik De online kassa is voortdurend in verbinding met de databank in de cloud. Op het moment dat de verbinding even onderbroken wordt, zal de informatie lokaal worden opgeslagen. Wanneer de verbinding hersteld is, wordt deze data alsnog naar de cloud gebracht. Daar wordt alle data meteen gebackupt. Met een zogeheten native app is het synchroniseren van de kassa’s altijd mogelijk, in tegenstelling tot een webapplicatie waarvoor een internetverbinding vereist is. Dit synchroniseren gebeurt ook in de cloud, met de centrale database. Zo weten alle online kassa’s per tafel of klant wat er besteld is en nog afgerekend moet worden. Mocht zich een storing voordoen, kan men toch met de app blijven werken. Zodra de verbinding weer is hersteld, maakt de app weer contact met de andere devices in het netwerk en worden de gegevens tot de laatste handeling bijgewerkt.
Fabel 5: mobiele devices zoals tablets zijn niet duurzaam Vooropgesteld dat een kassa soms veel te verduren heeft, is een tablet, zoals de iPad, duurzamer dan verwacht. Voor de gemiddelde levensduur wordt 3 tot 5 jaar aangehouden. Waar bij een traditionele kassa van € 5.000,- misschien een langere levensduur beloofd wordt, is de vervangingswaarde van een enkele iPad te verwaarlozen. Bovendien gaat het om modernere hardware
36
Alles over innovatie in ICT
en is de software die erop draait, voortdurend aan verbeteringen onderhevig en kinderlijk eenvoudig te updaten door simpelweg de nieuwe app erop te plaatsen.
Fabel 6: de pin kan niet worden gekoppeld Gebruikers van pinterminal kunnen ervaren dat er tijdelijk geen integratie met een kassasysteem beschikbaar is. Door te kiezen voor de pinterminal die het beste samenwerkt met het online betalingssysteem, is dit probleem verholpen. Pinterminal Worldline Atos Yomani is bijvoorbeeld moeiteloos te koppelen aan Cashr, een online kassa voor smartphones en tablets.
Certificaat Cashr is houder van het certificaat betrouwbaar kassasysteem en bewijst hiermee van tijd tot tijd gecontroleerd te worden op onder andere het onderwerp Veiligheid. Cashr is eveneens houder van het certificaat dat Worldline als leverancier uitreikt aan een organisatie die een betrouwbare en stabiele koppeling heeft ontwikkeld. Daarnaast heeft Cashr een team monteurs ter beschikking. Bij ingebruikname van het online systeem van Cashr komen de monteurs op locatie en als er problemen zijn kunnen zij helpen, ook in het weekend of na kantooruren. Roemer Mol is marketing manager van Cashr en Reeleezee
Tal van voordelen Online kassasystemen uit de cloud bieden horeca- en retail ondernemers dus talrijke voordelen. Het werkt niet alleen veiliger en sneller dan een traditionele kassa, het verhoogt ook het gebruiksgemak voor de ondernemer. Bonnetjes tellen of de voorraad opnemen behoort tot de verleden tijd – beide zijn al verwerkt in de administratie. De ondernemer heeft zo altijd upto-date inzicht in de omzet van alle filialen, plaatsen tijdongebonden en hoeft dus eigenlijk niet meer op de zaak aanwezig te zijn. Opschalen is ook eenvoudiger dan ooit, een extra kassa of mobiel device is eenvoudig aan te sluiten op het online systeem. Reden genoeg om de overstap te maken!
{
‘Online kassasystemen uit de cloud bieden horecaen retailondernemers talrijke voordelen’
advertentie
Altijd de beste deal voor al uw hard- en software
WWW.IT-BIDZ.NL
Gebruik de code FW2015 voor 3% korting
CloudWorks - nr. 10 / 2015
37
Innovatie Realtime computing, Raspberry Pi’s verzamelen massaal data
Innovatieve IT komt naar datacenter-management
Datacenter Infrastructure Management (DCIM) staat aan de vooravond van flinke veranderingen. Met name innovatieve IT-methoden komen de mogelijkheden van DCIM verder versterken. Waardoor DCIM daadwerkelijk een hoofdrol kan spelen in wat we maar even ‘datacenter management’ of ‘IT operations’ zullen noemen. Zo past softwaregigant SAP inmiddels intern realtime computing toe en kiest een grote bank voor exotische maar innovatieve oplossingen als supergoedkope Raspberry Pi’s voor dataverzameling. Het idee achter datacenter infrastructure management laat zich vrij gemakkelijk uitleggen: verzamel alle relevante data over de technische infrastructuur op één plaats, zorg voor analytische tools en een dashboard en we hebben al snel een goed overzicht van de stand van zaken binnen het datacenter. Hoe snel we deze uitleg ook kunnen vertellen, in de praktijk is het invoeren van DCIM vaak een stuk lastiger. Vaak is het een hele uitdaging om alle data uit bestaande monitoringsystemen te exporteren en vervolgens weer te importeren in de DCIM-omgeving. Zeg maar: tot een goede implementatie van het pakket komen.
Wall Street Maar er speelt meer. Neem Goldman Sachs. Deze grote Wall Street-bank is enorm afhankelijk van de prestaties en de beschik baarheid van zijn datacenters. Men behoorde dus tot de eerste groep van bedrijven die voor DCIM kozen. Maar al snel liep men tegen een aantal interessante vragen aan. Is het wel voldoende om alle beschikbare logdata in DCIM te stoppen? Hebben we eigenlijk wel een compleet inzicht in de toestand van het datacenter als we de gebruikelijke monitoringsystemen koppelen en integreren? Of vergeten we dan wellicht dingen? Een voorbeeld. Stel dat er langs een datacenter een spoorlijn of metroverbinding loopt. Dat geeft trillingen in de grond. Hebben die eventueel invloed op de prestaties van het datacenter? En zo ja, wat is die invloed dan? De trillingen zouden bijvoorbeeld negatieve gevolgen kunnen hebben voor de levensduur van IT-systemen. Of tot issues in de energievoorziening kunnen leiden.
Raspberry Pi’s Eerlijk gezegd wisten de technici van Goldman Sachs niet zo precies welke factoren zij nog meer in de gaten zouden willen houden. Mogelijkheden te over. Dus besloot men een zeer uitgebreid sensornetwerk op te zetten. Om de kosten te drukken, koos men daarbij voor een interessante hardware-oplossing: Raspberry Pi’s. Deze spotgoedkope maar redelijk krachtige computer(tjes) kosten maar enkele tientjes per stuk, maar zijn zeer flexibel in te zetten. Ze zijn niet voor niets zeer populair in de sterk in opkomst zijnde wereld van ‘makers’ en hobbyisten. Dankzij de prijs en de makkelijke manier waarop nieuwe functionaliteit kan worden geprogrammeerd, kon men tientallen meetpunten creëren en talloze metingen gaan doen. Door de zeer lage kosten per meetpunt is het ook niet zo belangrijk dat men ongetwijfeld veel metingen doet die geen relevante data opleveren. Het project bevindt zich nog in de opstartfase, dus veel concrete resultaten heeft men nog niet. Dat is echter ook niet zo belangrijk.
38
Alles over innovatie in ICT
CloudWorks - nr. 10 / 2015
39
DATAC GREEN IT
Dat geldt ook voor SAP. Deze grote aanbieder van enterprise software biedt deze bedrijfsoplossingen ook vanuit de cloud aan. Het is dus logisch dat het Duitse bedrijf veel interesse heeft in een maximale performance van zijn eigen datacenters. Daarbij kan men interessant genoeg ook de eigen software toepassen. Wat is het geval? SAP ontwikkelt oplossingen waarmee het zijn klanten in staat stelt om in realtime gegevens te verwerken. Die technologie heet SAP HANA. Doordat alle te verwerken data in het werkgeheugen van de betrokken computersystemen staat, kan men razendsnel grote hoeveelheden data verwerken en analyseren. Voor wie de techniek hier achter wil kennen: bij klassieke software wordt alle data en alle functionaliteit die voor het verwerken van die gegevens nodig is opgeslagen op harde schijf. Is bepaalde data of is een bepaalde softwarefeature nodig, dan wordt deze van schijf in het werkgeheugen geladen. Dat kost tijd. Het gaat weliswaar om milliseconden, maar voor wie razendsnel gegevens wil verwerken is dat te lang. Bedrijven als SAP lossen dit probleem op via een technologie die ook wel in-memory computing of in-memory processing wordt genoemd, waarbij dus alle data en alle functionaliteit in het werkgeheugen van de server(s) aanwezig is. Binnenkomende data kan dus per direct worden verwerkt en geanalyseerd.
40
Alles over innovatie in ICT
Continu actueel inzicht In feite zijn de uitbreidingen die Goldman Sachs en SAP op het fenomeen ‘datacenter management’ hebben ontwikkeld heel goed te combineren. De enorme hoeveelheid meetdata die de Wall Street-bank aan zijn DCIM- en IT asset managementomgevingen toevoegt, kan natuurlijk heel goed in realtime via SAP HANA worden verwerkt. Zeker voor een bank met dealing rooms waar iedere split second het verschil tussen miljoenen winst of juist verlies kan betekenen, is dat natuurlijk een interessante ontwikkeling. Nu is dit wellicht nog een project voor dit soort megabanken. Maar de kans is groot dat over enkele jaren iedere datacenter manager en iedere IT-manager het heel normaal vindt dat hij of zij met een app op een mobiele telefoon continu een volledig actueel beeld heeft van de prestaties van het datacenter. Te beginnen bij de grote webshops, die steeds meer ervaren dat een maximaal presterend datacenter van cruciaal belang is voor hun zakelijk succes. Robbert Hoeffnagel
PRIVATE LAAS
STORAGE
SOLUTIONS
APPS
SECURITY LAAS
GREEN IT
PAAS
SECURITY
PUBLIC
SAAS
PRIVATE
LAAS CONVERSION
HYBRIDE IT MANAGEMENT
PUBLIC
SAP HANA
Dat idee kunnen we natuurlijk ook op het beheren van data centers toepassen. Bij SAP spreekt men hierbij van ‘IT Operations Analytics’. Men kijkt dus heel nadrukkelijk naar de combinatie van de IT-systemen en de onderliggende technische infrastructuur. Alle monitoringssystemen sturen hun logdata continu naar de SAP HANA-server, die deze gegevens in realtime analyseert en presenteert in een dashboard. Het voordeel? Snelheid. Op deze manier weten we immers niet alleen hoe de toestand in het datacenter was - zeg - een kwartier of een uur geleden, maar hebben we continu een volledig inzicht in de vraag hoe het er nu op dit moment voor staat in het datacenter.
VIRTUALISATIE
MIGRATIE PRIVATE APPS CONVERSION HYBRIDE CLOUDCOMPUTING IT MANAGEMENT
IT Operations Analytics
CLOUDSHOPPING
SOLUTIONS
STORAGE
VIRTUALISATIE
MIGRATIE
CLOUDCOMPUTING
PAAS MIGRATIE
Het gaat hier met name om het feit dat grote datacenters kennelijk niet genoeg hebben aan de standaard functionaliteit die zij van leveranciers kunnen betrekken. Wie het maximale uit zijn data center wil halen, wil een volledige grip hebben op de infra-laag én op de IT-systemen. De huidige oplossingen voor DCIM en IT asset management lijken niet voldoende functionaliteit te bieden. Dus gaan datacenters zelf aan de slag om eventueel ontbrekende faciliteiten in eigen beheer te ontwikkelen.
SLA
SECURITY
Innovatie
GREEN IT
cloudworks.nu geheel vernieuwd! Feiten en fictie in kaart gebracht
{
Big data Paul Sonderegger, Oracle:
‘Zoals het financiële kapitaal bij een organisatie onder toezicht staat van de Chief Financial Officer, moet de Chief Data Officer het datakapitaal beheren’
Big data is een fenomeen, geen technologie
Een economische wet zegt dat je zonder kapitaal geen bedrijf kunt runnen. Nu data een steeds prominentere rol speelt, geldt volgens Paul Sonderegger, Big Data Strategist bij Oracle, hetzelfde voor bedrijfsgegevens. “Datakapitaal is nu even belangrijk als financieel kapitaal.” Datamanagement was lange tijd gericht op het eenvoudigweg vastleggen van transacties. Die tijd is volgens Sonderegger voorbij. “De transactie is maar een deel van het verhaal. Het gaat nu ook om wat je vervolgens met de data doet. Een voorbeeld is Uber dat dynamische tarieven - het zogenoemde surge pricing - hanteert. Daarbij stijgt het tarief naarmate de vraag naar ritten stijgt. Dat motiveert andere chauffeurs weer om ritten te maken waarna de prijs zal dalen. Data is voor Uber dus niet alleen een transactie gegeven maar ook de grondstof voor een nieuw bedrijfsproces.”
Combineren Sonderegger wijst op de mogelijkheid om datasets van verschillende bedrijven of organisaties met elkaar te combineren, zodat nieuwe, bruikbare informatie ontstaat. Hij noemt een treffend voorbeeld uit New York waar de overheid de klantgegevens van een ophaal dienst voor het verwerken van frituurolie van restaurants naast data over verstopte afvoersystemen en riolering legde. Dat leverde vol doende informatie op om veel gerichter inspecties uit te voeren. De gecombineerde data gaven een beeld van waar de kans op het illegaal lozen van oude olie het grootst was.
{
‘Datakapitaal is nu even belangrijk als financieel kapitaal’
Paul Sonderegger
42
Alles over innovatie in ICT
Wetten Volgens de big data-specialist van Oracle zijn er drie ‘wetten’ op het gebied van datakapitaal te onderscheiden. “Wet 1 is: data ontstaat uit activiteiten. Data is een vastlegging van een gebeurtenis. Zorg ervoor dat je gebeurtenissen ook echt vastlegt. Je hebt immers maar één kans. Door alles wat er binnen een organisatie gebeurt te digitaliseren, is waarde uit data te creëren. Het kan ook raadzaam zijn om te kijken of er in jouw keten data van derden beschikbaar is die nuttig is om waarde uit te halen. De tweede wet is: data creëert data. Algoritmes die de prijs bepalen, advertentie-targeting, voorraadbeheer en fraudedetectie. Het zijn allemaal processen waarbij data nieuwe data genereert die te gebruiken is om de pres taties van de activiteit te verbeteren of verfijnen. Dit vliegwiel kan zorgen voor concurrentievoordeel. De derde wet zegt dat platforms de toekomst hebben. Platformconcurrentie is in informatie-inten sieve branches zoals software of aandelenhandel al een bekend
verschijnsel. Hier is data het product. Dat zal ook gebeuren in andere branches waar gezondheidszorginstellingen, energie leveranciers of autobouwers alle de strijd aan zullen gaan om met hun platform van algoritmische diensten de markt te domineren.”
Leiderschap Om echt te profiteren van datakapitaal moeten bedrijven volgens Sonderegger niet uitgaan van een technologische benadering, maar een competitieve strategie ontwikkelen die zich richt op wat hij een datavistische cultuur noemt. “Je moet daarvoor als CEO een paar belangrijke stappen nemen. Om te beginnen is het zaak om je als CEO vertrouwd te maken met de basisprincipes van data management. Succesvolle CEO’s zijn bekend met de basis concepten die een bedrijf succesvol maken, zoals branding, product-design, logistiek en engineering - zij hoeven daarin echter geen experts te zijn. Dit geldt ook voor informatie technologie. Zorg ervoor dat je de basisprincipes kent en begrip hebt van zaken als datamanagement, integratie, analytics en apps. Dan is het mogelijk om de juiste beslissingen te nemen.” Sonderegger pleit verder voor een Chief Data Officer. “Deze moet op hetzelfde niveau kunnen opereren als de CFO. Zoals het finan ciële kapitaal bij een organisatie onder toezicht staat van de CFO, moet de CDO het datakapitaal beheren. Verder zien we steeds vaker dat organisaties niet alleen hun financiële prestaties bekend maken en toelichten maar ook hun datakapitaal. Om een voorbeeld te noemen: Oracle geeft tijdens zijn sessies met analisten nu ook cijfers over het datakapitaal dat opgebouwd is, zoals het aantal websessies in de eigen cloudoplossingen of het aantal medewerkers in de HCM-cloud. Het zal niet lang meer duren voordat retailers waardevolle klantgegevens als kapitaal opvoeren of pakketdiensten het aantal verzonden pakketten per maand. Deze trend geeft aan dat datakapitaal nu even belangrijk is als financieel kapitaal.” Paul Sonderegger is Big Data Strategist bij Oracle
CloudWorks - nr. 10 / 2015
43
Nieuws
Nieuws
U bent uitgenodigd:
van EuroCloud
InfoSecurity - 4 en 5 november - Jaarbeurs EuroCloud Nederland is mediapartner van InfoSecurity, de Nederlandse vakbeurs op het gebied van IT-security. Spam, phishing, hackers en steeds geavanceerdere vormen van cybercrime vormen reële bedreigingen voor het bedrijfsleven. De vakbeurs haakt in op actuele vraagstukken over IT-security en is een must voor iedere IT-professional.
Cloud-escrow: doe het goed of doe het niet
Er is escrow en escrow. In tegenstelling tot de ‘traditionele’ software-escrow, bestaat er voor SaaS- of cloud-escrow (nog) geen universele regeling of oplossing. Dat wil zeggen dat iedere escrow-provider daar een eigen invulling aan geeft. Misschien is dat inherent aan cloud waar ook verschillende definities van en opvattingen over bestaan. Zelfs de experts zijn het onderling niet altijd eens. De volgende zes punten zijn sowieso loze kreten:
1. Escrow is niet nodig, er is al een prima SLA Een goede SLA is uiteraard belangrijk. Maar zij heeft niets te maken met escrow. De SLA wordt nagekomen door de SaaSprovider. Maar wat als die in het ongerede raakt of er zelfs niet meer is? Zo ga je van de ene dag van 99,9% uptime naar 100% downtime op de andere dag. Dan schiet de escrow-regeling te hulp.
2. Een goede back-up van de data is voldoende Data zonder de ‘context’ van een werkende applicatie zijn onbruikbaar. Je hebt software nodig om er betekenis aan te geven. Een goede SaaS/cloud-escrow zorgt ervoor dat alles blijft werken, zodat je ook bij je data kunt. Onder het mom van ‘beter dan niks’ kan een databack-up in bepaalde situaties afdoende zijn maar je haalt jezelf veel ellende op de hals als je er iets mee moet doen. Tips: • Zorg er in ieder geval voor dat je onafhankelijk van de SaaSvendor bij de back-up kunt. • Test dat regelmatig. Je zult niet de eerste zijn die onaangenaam verrast wordt als de provider niet thuis geeft.
Bij SaaS- en cloud-escrow is het de focus om de functionaliteit zeker te stellen en daarmee ook de toegang tot en het gebruik van gebruikersdata. Broncode-escrow bij een clouddienst is zonde van het geld en zonde van de tijd want je hebt er niets aan als puntje bij paaltje komt.
5. Escrow is (te) duur Het is een feit dat niet iedere software-investering een escrowregeling rechtvaardigt. Maar deelnemen aan een goede continuïteitsregeling van een SaaS-vendor kan al voor minder dan € 1.000 per jaar. Voor een bedrijfskritische toepassing, waarvan het wegvallen een desastreuze impact kan hebben, is dat een alleszins billijke uitgave.
6. De curator gaat toch tegenwerken Vaak wordt de curator neergezet als een onvoorspelbare, meedo genloze en louter door centen gestuurde saneerder waar niet mee valt te praten. Voor schuldeisers klopt dit beeld doorgaans wel. Maar in het geval van een failliete provider scheelt de naleving van een SaaS-escrow-regeling de curator veel gedoe en telefoontjes. Immers, een derde (lees: escrow-agent) zorgt ‘gratis’ voor continu ering van de dienst waardoor klanten niet gaan klagen bij de curator of direct weglopen. Ik ken louter curatoren die blij met ons zijn. De cloud-escrow-agent is daarom eerder de curator’s best friend dan diens vijand.
4. Een gewone escrow is genoeg Escrow is escrow, nietwaar? Nou nee. Doel van software- of broncode-escrow is het kunnen voortzetten van het onderhoud van de software die op de eigen servers draait en waar licenties voor zijn afgenomen. In het geval van cloud en SaaS draait de software bij de provider en neem je de functionaliteit als dienst af.
EuroCloud Nederland organiseert een serie informele netwerk bijeenkomsten met als thema ‘Show your Cloud’. Op 10 december 2015 zijn we in Amsterdam te gast in het nieuwe kantoor van Servoy, de provider van de cross-platform omgeving voor het ontwikkelen en uitrollen van softwareapplicaties.
Op 4 en 5 november 2015 zullen wederom de deuren van Infosecurity.nl voor u geopend zijn! Ook deze editie vindt u op de beurs de nieuwste producten, oplossingen en diensten binnen de IT-securitybranche. Natuurlijk is er ook dit jaar weer een breed seminarprogramma aan de beurs verbonden met diverse uitstekende keynote sessies. Bezoek is gratis. EuroCloud Nederland is zelf ook present, op het verenigingsplein. Kom daar gerust langs. Meer info op www.infosecurity.nl
Programma 16.00 - 16.30 Registratie 16.30 - 16.45 Welkom door Alexandra Schless van EuroCloud Nederland 16.45 - 17.05 ‘Servoy en Cloud’, door Jan Aleman 17.05 - 17.25 Klant aan het woord 17.25 - 17.50 Klant aan het woord 17.50 - 18.00 Pauze 18.00 - ? Paneldiscussie met aansluitend een netwerkborrel Servoy makes it easy to deliver great business applications. Servoy BV, a Deloitte Fast 50 Technology company, is an international firm that creates an award-winning powerful hybrid development and deployment platform. Servoy is used by independent software vendors (ISVs), organizations and consultants in over 50 countries.
Kortom, voor cloud-escrow geldt het adagium: doe het goed of doe het niet. Deelname is kosteloos. Registreer op http://showyourcloudservoy.eventbrite.nl/
3. We maken wel een mirror van de productieserver Hoewel dit de ultieme oplossing lijkt te zijn, kun je hiermee het financiële plaatje van een SaaS- of cloud-dienst volkomen verknallen. Twee identieke auto’s leasen om altijd over eenzelfde reserve-auto te beschikken, is economisch vrijwel nooit verantwoord. Zeker omdat er betere alternatieven zijn.
Show Your Cloud 10 december - Servoy
Herman Kui is penningmeester van de stichting EuroCloud Nederland. In het dagelijks leven is hij Directeur van Escrow4All Meld u nu aan als partner of sponsor, en blijf op de hoogte! Met een aantal inspirerende bijeenkomsten in Nederland en andere landen, en een groeiende Europese organisatie met een vertegenwoordiging in meer dan 25 landen, is EuroCloud binnen twee jaar een
belangrijk kennisnetwerk geworden op het gebied van Cloud Computing en Software as a Service. Daarnaast biedt EuroCloud een uitstekend platform voor netwerken met zowel leveranciers als gebruikers van Cloud Computing. Naast een actief bestuur hebben inmiddels al meerdere bedrijven zich ingezet voor EuroCloud door
een financiële bijdrage te geven of middelen beschikbaar te stellen. Heeft u vragen of – nog beter – wilt u zich aanmelden als Partner, stuur dan een mail naar
[email protected] +31 87 87 65 65 6
[email protected] www.eurocloudnl.eu
www.eurocloudnl.eu 44
Alles over innovatie in ICT
CloudWorks - nr. 10 / 2015
45
Legal Look
Investeer in Cloud kennis en ga voor gecertificeerde professionals! Cloud Computing Scalable, Always-On en Secure. Bekende kreten, maar wat betekent Cloud Computing nu voor ons als organisatie? Moeten wij nu gaan voor Saas, PaaS en/of IaaS? En wat komt er allemaal kijken bij de implementatie ervan? Vragen die u graag goed en gefundeerd beantwoord ziet voordat u aan Cloud begint. Vanuit onze jarenlange ervaring met IT, Software & Datacenter trainingen, spreken wij met recht over ons nieuwe Cloud Computing aanbod. Krijg inzicht in de mogelijkheden, potentiële baten en mogelijke risico’s. Volg een training, maak kennis met Cloud of ga voor een van de erkende Cloud certificeringen!
Updaten door mr. Victor A. de Pous Betreft updaten van software een juridische plicht? Cloud computing betekent automatisering op afstand, in data centers en via internet. De apparatuur aan gebruikerszijde ge noemd, bestaat uit PC, notebook, tablet en smartphone. Dat ook deze apparaten uit veiligheidsoverwegingen voortdurend moeten worden voorzien van de laatste softwareversies, hoeft nauwelijks uitleg. Denk alleen al aan elektronisch bankieren en betalen een zuivere clouddienst. Zo heeft de Nederlandse Vereniging van Banken eind 2013 samen met de Consumentenbond regels opgesteld voor veilig elektronisch bankieren en betalen. Als con sumenten schade lijden, maar deze veiligheidsregels hebben nage leefd, dan kunnen zij erop rekenen dat zij het bedrag dat zonder toestemming van de rekening is gehaald, vergoed krijgen. Let op: regel 3 gaat over de beveiligingsplicht. De rekeninghouder behoort voor een goede beveiliging van apparatuur te zorgen, die voor online bankieren wordt gebruikt.
Wie is verantwoordelijk voor updaten? Vroeger gold wel als juridische vuistregel dat een computer programma zeven jaar na eerste levering door de leverancier moet worden onderhouden. Dat gebeurde tegen betaling en het sluiten van een onderhoudsovereenkomst. En dan gaat het vooral om correctief onderhoud: de software behoort immers volgens de gepubliceerde specificaties te blijven functioneren. Vaak ontving de licentienemer van zijn leverancier op gezette tijden een update, die hij zelf moest installeren. Een implementatieplicht werd in beginsel niet opgelegd. Mede door de komst van cloud computing zijn gewoonten en gebruiken veranderd. Tegenwoordig zorgen leveranciers voortdurend voor updates: groot en klein; correctief, adaptief en preventief. Meestal hoeft de gebruiker niets te doen, behalve de update te accepteren. Dat kan in veel gevallen mede by default. Ten aanzien van de implementatieplicht kun je zeggen dat wanneer deze niet door de leverancier contractueel wordt voorgeschreven, uit het algemene recht volgt dat een gebruiker er in redelijkheid alles aan behoort te doen, om zijn
46
Alles over innovatie in ICT
IT-OPLEIDINGEN gegevensverwerking veilig te laten plaatsvinden. Updaten is dus noodzakelijk geworden.
Onze trainingen helpen u bij: • Het maken van de juiste keuzes • De selectie van een Cloud leverancier • Een succesvolle Cloud implementatie • Het optimaal benutten van alle Cloud mogelijkheden
100,Nu e en g op e kortin g trainin Cloud euze! naar k
Boek voor 31 oktober 2015 een Cloud training naar keuze en ontvang e 100,– korting op de actieprijs. Vermeld CC1015 bij uw boeking.
Wat gebeurt er als leveranciers niet meewerken? De casus is ronduit actueel; ook op andere wijze. Veel Androidtoestellen die de Consumentenbond tussen 2013 en 2015 testte, worden namelijk niet meer ondersteund met de nieuwste software en een groot deel draait zelfs op een onveilige versie van Android, aldus blijkt uit onderzoek. De bond heeft er inmiddels bij fabrikanten op aangedrongen dat ze smartphones langer ondersteunen. 84% van de 171 toestellen die de Consumentenbond in de laatste twee jaar testte, is niet geüpdatet naar Android 5.0 en de helft daarvan beschikt zelfs over Android 4.3 of ouder, terwijl er bekende veiligheidslekken in deze versie zitten. Kiezen voor een bepaald technisch platform kan gevolgen hebben voor de veiligheid van digitale technologie en gegevensverwerking, soms zelfs verregaand. En voor de keuze voor een individuele smart phone binnen een platform, zoals Android, geldt soms hetzelfde. Fouten in technologie worden kennelijk onvoldoende aangepakt door leveranciers. Dat kunnen we uiteenlopend becommentariëren. Ja, gebruikers hebben recht op veilige technologie. De termijn van twee jaar geldt desgewenst als het absolute minimum. Maar denk ook aan de gevolgen voor zakelijke gebruikers en de verwerking van bedrijfsgegevens, die van overheidsorganisaties incluis. Hier ontbreekt veelal beleid in het kader van het nieuwe werken. Of voorzie de ellende van gammele technologie, wanneer de Wet meldplicht datalekken en bestuurlijke boetebevoegdheid op 1 januari 2016 in werking treedt. Afhankelijk van de overtreding: tot 810.000 euro boete. Wanneer leveranciers niet updaten en hier over niet tijdig de klant informeren, ligt aansprakelijkheid in de rede. Mr.V.A. de Pous is bedrijfsjurist en industrie-analist. Hij houdt zich sinds 1983 bezig met de juridische aspecten van digitale technologie en informatiemaatschappij en is medewerker van uitgeverij FenceWorks.
Cursus
Data
Dagen
Actieprijs
Professional Cloud Solutions Architect
26 t/m 28 oktober
3
e 1.647,–
Professional Cloud Security Manager
11 t/m 13 november
3
e 1.647,–
CompTIA Cloud Essentials
12 t/m 13 november
2
e 1.098,–
Professional Cloud Service Manager
23 t/m 25 november
3
e 1.647,–
Windows Azure for Architects and Designers
7 t/m 9 december
3
e 1.485,–
Professional Cloud Developer
7 t/m 9 december
3
e 1.647,–
Professional Cloud Administrator
9 t/m 11 december
3
e 1.647,–
Cloud Computing Awareness
11 december
1
e
Professional Cloud Solutions Architect
25 t/m 27 januari
3
e 1.647,–
Ga voor meer informatie naar: www.vijfhart.nl
549,–
088-5427848
Bovengenoemde kortingsactie is uitsluitend van toepassing op nieuwe inschrijvingen voor vermelde trainingen en startdata. Alle vermelde prijzen en data zijn onder voorbehoud en exclusief BTW.
Uiteindelijk kies je voor Vijfhart.
29 OKT 2015
WWW.TIER010.NL SCHEMA
9.30 - ontvangst bytesnet rotterdam 10.00 -
introductie
10.30 -
bezoek datacenter delft
12.00 - lunch dataplace albasserdam 13.00 -
bezoek dataplace
14.30 -
bezoek bytesnet rotterdam
15.30 -
afsluiting
15.45 -
netwerkborrel rotterdam
TIER010 Compleet verzorgde dag Ervaar drie datacenters in één dag Vergroot uw kennis met vakgenoten Alleen voor IT-managers en directieleden
MEER INFORMATIE OF AANMELDEN? GA NAAR WWW.TIER010.NL het evenement en vervoer zijn gratis deelname met eigen vervoer is mogelijk