mei 2014 jaargang 7 innovatie – informatie – applicaties
Jos Schreurs over masterdatamanagement bij Office Depot Realtime analytics Analist George Lawrie: ‘Vrijwel alles wordt hardware’
2 BI & analytics
thema BI & analytics
‘Omnichannel – information management is king’
Multidomain MDM lonkt Er zijn in de business-intelligence twee werelden ontstaan. Aan de ene kant de traditionele BI-wereld die de interne organisatie representeert, en aan de andere kant de big analytics voor bijvoorbeeld de marketeers. Beide werelden hebben hun eigen karakteristieken. De klassieke BI-omgeving geeft zekerheid over de juistheid van de data en de manier waarop informatie is ontstaan. De wereld van de analytics is een stuk anarchistischer: hier gaat het om trends, gemiddelden en het ontdekken van betekenis en verbanden. Om beide werelden op hetzelfde professionele niveau te brengen is strikt datamanagement een absolute vereiste.
I
n zijn presentatie benadrukte Schreurs het belang van masterdatamanagement, een aanpak die geheel aansluit op de uitdagingen waarvoor kantoorbehoeftenleverancier Office Depot zich geplaatst ziet. “Office Depot had een jarenlange traditie om productmarketing primair te realiseren via de catalogi, een businessmodel dat zijn tijd inmiddels heeft gehad. Om de focus te verleggen naar online, is het hebben van een systeem om de productdata te managen cruciaal. We beschikten wel al over de basismasterdata die nodig zijn voor de ERP-systemen, maar dat was niet voldoende om de marketing mee te voeden. Die heeft behoefte aan productkenmerken als kleur en afmetingen, foto’s en video’s en gebruikershandleidingen. Die informatie hebben we van de grond af moeten opbouwen. Want we willen ook een keyspeler zijn op onlinegebied”, aldus Schreurs. Er waren in 2009 binnen de organisatie al eerder pogingen gedaan een productmasterdatamanagementsysteem – vaak ook PIM (productinformationmanagement)systeem genoemd, te implementeren. “De focus lag op het inrichten van een goed systeem, zonder daarbij oog te hebben voor de processen en de organisatie. En er was een externe partij bij betrokken die zijn wil oplegde. Beide
10
t i j d s c h r i f t
i t
waren funest voor het draagvlak. Het was mijn taak, samen met goede mensen uit de eigen organisatie, het project opnieuw op te pakken en een echte oplossing te implementeren langs de driehoek systeem-processenorganisational change.”
De reis heeft bedrijfsbreed de awareness opgeleverd dat data cruciaal is Reverse engineering
Bij de start van het PIM-project wilde het team zoveel mogelijk data uit de bestaande systemen van de Europese vestigingen verzamelen. Omdat er echter nooit aandacht voor data was geweest vielen de resultaten erg tegen. “Data zat niet alleen in ERP-systemen, maar ook in spreadsheets en in Worddocumenten. Ook was het onduidelijk wie de eigenaar van de data was. Dat hebben we opgelost door een nieuwe functie binnen de organisatie te creëren, die zich bezighoudt met het
m a n a g e m e n t
verzamelen en verrijken van informatie.” Om te vervolgen: “Men produceerde een nieuwe catalogus niet door het systeem te raadplegen, maar door op de pagina’s van de vorige catalogus met de pen wijzigingen aan te brengen en dat te laten vormgeven en drukken. Bovendien staan er in de catalogus door gebrek aan ruimte maar enkele productkenmerken, terwijl dat er in werkelijkheid wel vijftig kunnen zijn – van een laptop soms wel meer dan honderd. Die zie je nu wel allemaal terug op het web.” Dat werd dus Schreurs’ businesscase achter het project: het verzamelen van alle productgegevens, deze verrijken en gemakkelijk ontsluitbaar maken voor verschillende kanalen. Als basis voor het opbouwen van de database gebruikte hij de laatste catalogus waarop hij een soort reverse engineering toepaste, door de gegevens te ontmantelen, te normaliseren en vervolgens dat fundament te verrijken. Op het moment dat Schreurs aantrad, was de productie van de catalogus – en daarmee dus ook het informatiebeheer – belegd bij de afdeling Merchandising, die buiten IT om naar een ondersteunend PIM-systeem gekeken had. Een gemiste kans, vindt hij. “Ik hecht eraan dat een dergelijk selectietraject een samenspel is van business
➼
van onze redactie | Foto’s: Roelof Pot
Jos Schreurs, Office Depot:
‘Het is dus cruciaal te denken vanuit de waardeketen: informationmanagement in the value chain.’
MEI
2 0 1 4
11
thema BI & analytics
en IT. Dat de business daarin de lead neemt, is overigens uitstekend; dan is het draagvlak in ieder geval geborgd. Het business ownership van dit soort projecten ligt heel bewust bij de VP eCommerce and Marketing Operations, de executive verantwoordelijke voor omnichannel marketing. IT is ook betrokken, want de businesstransformatie is ook van invloed op data en systemen, stelt Schreurs: “Om een succesvolle omnichannelmarketing- en commerce-speler te zijn is data, meer dan ooit, van belang. Datanormalisatie en -kwaliteit is van direct belang voor de vindbaarheid door zoekmachines en verhoogt de beleving van gebruikers op het web. Data-analyses bieden inzicht in klantgedrag en -profielen wat de basis is voor segmentatie en persoonlijke aanbiedingen.”
12 t i j d s c h r i f t
i t
Informationmanagement value chain
Wat heeft het PIM-project nu concreet opgeleverd? In fase één lag dat vooral aan de besparingenkant, zowel bij merchandising als bij creative services, dat de catalogus bouwt, en e-commerce. Daarnaast werd men zich bewust dat met deze data de vindbaarheid en doorzoekbaarheid op het web kon worden verhoogd, wat leidt tot hogere sales en afname van het aantal retourzendingen. Door in toenemende mate gebruik te maken van externe datapools is de verantwoordelijkheid van de contentdeveloper (Gartner noemt het datastewards) verschoven van het intikken van data naar wat hij noemt completeness checking en daar waar nodig een stukje customization. Om MDM verder te optimaliseren zag Schreurs de nodige kansen.
m a n a g e m e n t
“Hoe zorg je ervoor dat de data direct op de goede manier binnenkomt? Er schortte veel aan de data die door de leveranciers werd aangeleverd. In de contracten stonden wel clausules over levertijden en voorraden, maar er stond niets over het tijdig aanleveren van complete en correcte productinformatie. Dat viel eigenlijk buiten de scope van het project; maar we zijn met de leveranciers gaan praten en hebben hen ervan overtuigd dat het ook in hun eigen voordeel was. En dat ze wellicht zelf ook MDM zouden moeten gaan toepassen om ons, maar ook andere afnemers, beter in staat te stellen hun producten te verkopen. Het is dus cruciaal te denken vanuit de waardeketen: informationmanagement in the value chain.”
Schreurs noemt ook de opkomst van het 3D printen. In de nabije toekomst zal het niet meer gaan over de levering van fysieke producten, maar van tekeningen en ingrediënten. “Een informatieproduct pur sang, waarbij het product op of nabij de klantlocatie geprint wordt.” De CMS-projecten zijn enablers geweest voor de transitie naar een omnichannel organisatie. “In tegenstelling tot een gedrukte catalogus is het assortiment dat je via een website in de markt kunt zetten in principe oneindig groot. Dan ga je snel naden-
Over Office Depot Office Depot, een van oorsprong Amerikaanse onderneming, is een wereldwijde leverancier voor kantoorinrichting en -behoeften. In 2013 verkocht het bedrijf voor ruim 12,5 miljard euro aan producten en diensten aan consumenten en bedrijven in ongeveer zestig landen. Het hoofdkantoor Europa en Midden-Oosten staat in Venlo. Jos Schreurs is sinds 2009 partner op het gebied van omnichannel-dienstverlening en productmasterdatamanagement bij Qhuba. Sinds 2009 is hij tevens actief als interim-marketing- en merchandisingprogrammamanager bij Office Depot in Venlo. De programma’s waarvoor hij verantwoordelijk was en is, betreffen de transformatie naar een omnichannel-marketingorganisatie, waarbij de focus ligt op de driehoek organisatie, processen en systeem met speciale aandacht voor data.
ken over long tail. Daarvoor moet je niet alleen je systeem, maar ook de PIM-processen en de organisatie op orde hebben. We zijn momenteel bezig met het inzetten van aanvullende tools om het on-boarding van producten verder te optimaliseren, integraal data-qualitymanagement in te voeren en ook het print-publishingproces verder te automatiseren (het generen in plaats van het bouwen van catalogi). We hebben enorme ambities.” Kan Schreurs richtlijnen geven over het aanpakken van een MDM-project? Hij vindt het van groot belang dat de business en IT op één lijn zitten en beide het belang van data begrijpen. “En snappen waarom data-qualitymanagement cruciaal is. Ik heb een steekproef genomen in het veldje ‘merk’ – een van de meest voorkomende merken destijds
was ‘unknown’. Daar kom je niet ver mee. Kleine spelfoutjes kunnen grote gevolgen hebben: Hewlett-Packard zonder koppelstreepje resulteert in twee verschillende leveranciers, wat – als je niet in staat bent om de twee te koppelen – niet de maximale korting oplevert. In het klantdomein is het belangrijk dat marketing weet dat Jan Klaassen en J. Klaassen dezelfde persoon is; anders gaan er twee mailings de deur uit en dat is geldverspilling. Aan de hand van dit soort voorbeelden zet je data-issues om in waarde. En dan begrijpt de business het.”
Multidomain MDM
Zo komen we vanzelf bij een onderwerp wat op toenemende belangstelling mag rekenen: multidomain MDM, het blenden van data uit meerdere domeinen. Door productkenmerken en klantprofielen aan elkaar te koppelen en te analyseren kun je data omzetten in informatie. Koppel je daar ook het leve-
3D printen maakt van fysieke producten informatieproducten pur sang
ranciersdomein aan, dan kun je bepalen welke leveranciers producten van welke leveranciers kopen om daar met targeted campaigns op in te spelen. Hij voorspelt een toenemende vraag naar ondersteunende tooling daarvoor. “Een PIM of multidomain MDM-systeem is niet vergelijkbaar met ERP; dat zijn meer transactionele systemen. Bij MDM praten we eerder over referentiesystemen. Stel, we komen in contact met een leverancier die meer dan 30.000 producten kan leveren. Om de merchandisingsafdeling een goede keuze te laten maken, wordt het gehele assortiment in een MDMdatabase geladen, waaruit de afdeling zeg vierduizend producten selecteert. Pas dan wordt het relevant voor ERP. Dat assortiment zet je niet in z’n geheel in een ERP-systeem, want dat zou anders al snel uit zijn voegen barsten.
Qua systeemarchitectuur zijn er dus wel enkele vraagstukken. In generieke zin is de keuze duidelijk: een product kan opgeladen worden in een MDM/PIMsysteem en wordt na selectie opgevoerd in het ERP-systeem ter ondersteuning van de order en factuurstroom, terwijl voor de geselecteerde producten de rijke productinformatie, tot en met foto’s, video’s en 3D-design toe, worden toegevoegd in het PIM-systeem.” De MDM-organisatie is nu vooral aan het dooroptimaliseren, zoals Schreurs dat zelf noemt. De processen worden verder verfijnd, continuous improvement. “Door de ingebruikname van het PIM-systeem en een nieuw e-commerceplatform komen we tevens tot een vereenvoudiging van ons ITlandschap. De transitie naar een klantgericht omnichannel-businessmodel is een reis, waarbij aandacht moet zijn voor processen, organisatie en systemen, en geen systeemimplementatieproject met een harde einddatum.” Schreurs geeft aan dat hij in zijn rol als partner Omnichannel en Masterdatamanagement binnen netwerkorganisatie Qhuba, constateert dat vele organisaties met de omslag naar omnichannel-marketing bezig zijn en de cruciale rol die masterdatamanagement hierbij speelt. “Dit geldt niet alleen voor de meer traditionele partijen in bijvoorbeeld retailend Nederland. Ook de online pureplayers zien dat ‘online-only’ onvoldoende is en kijken hoe ze met winkels en folders een wisselwerking krijgen tussen de verschillende verkoop- en marketingkanalen.” Qhuba organiseert regelmatig themasessies met senior businessen IT-management waarin in een open sfeer met elkaar van gedachten wordt gewisseld over dit onderwerp. “Keer op keer blijkt dat business en IT elkaar op dit gebied meer dan ooit nodig hebben. Marketing, merchandising en IT dienen geen losse afdelingen met een eigen agenda te zijn, maar dienen zij aan zij de wedstrijd in de markt aan te gaan; er staat immers veel op het spel. Wat Jos Schreurs eigenlijk nog het meeste goed doet, is dat mensen op VP- en senior managementniveau in toenemende mate beseffen hoe belangrijk data is. “Data is geen sexy onderwerp, maar de reis heeft bedrijfsbreed de awareness opgeleverd dat data cruciaal is. Dat is een mooie ontwikkeling waar ik ontzettend blij mee ben.”
MEI
❉
2 0 1 4
13
thema BI & analytics
Als het snel kan, moet het dan ook snel?
Op weg naar een realtime organisatie Onderzoek van Forrester uit juni 2013 laat zien dat 72 procent van de ondervraagde organisaties die nog geen realtime datamanagement hebben, van plan zijn om dat in de komende twee jaar te implementeren. Volgens Gartner beschikt 70 procent van de best presterende organisaties (de zogenaamde ‘high-performance-organisaties’) in 2016 over realtime analytics en besluitvorming. Dat lijkt een duidelijke boodschap: alle organisaties moeten naar realtime – of ligt het toch wat genuanceerder?
14
t i j d s c h r i f t
i t
m a n a g e m e n t
Tekst: Paul van der Linden
D
e realiteit in de meeste organisaties anno 2014 is er vaak een van veel data die versnipperd aanwezig is. Dikwijls ontbreekt ook het overzicht van alle data die er is (denk aan alle Excel-spreadsheets die in gebruik zijn), bestaat er onduidelijkheid en onenigheid over wat de data betekent en is het bijzonder moeilijk om data afkomstig uit verschillende functionele gebieden te combineren; om nog maar te zwijgen over de kwaliteit van de data. En dan wordt besloten dat data in ‘realtime’ beschikbaar moet zijn om klanten beter te kunnen bedienen, kosten drastisch te kunnen verlagen of kansen in de markt te kunnen spotten en grijpen. Wat betekent dit en is het inderdaad noodzakelijk om de organisatie in hoog tempo realtime te maken?
processen die in batchmode worden uitgevoerd. Voorbeelden daarvan zijn salarisverwerking, facturering maar ook het overzetten van operationele gegevens naar het datawarehouse ten behoeve van rapportage, analyse en besluitvorming. Met name voor deze laatste categorie wordt steeds luider geroepen dat batchmode verlaten moet worden en (near) realtime gewenst is.
Is snel de toekomst?
Er zijn twee oorzaken te noemen waarom data voor besluitvorming nu realtime zou moeten zijn. Allereerst is de beschikbare technologie hiervoor nu ook betaalbaar geworden. Dat betekent dat in wezen nu iedereen deze technologie kan inzetten, ofwel door deze aan te kopen ofwel in een ‘as a service’-
Realtime
Het klinkt natuurlijk geweldig om ‘realtime’ over data te kunnen beschikken. Realtime betekent dat er geen vertraging zit tussen het vastleggen van gegevens en de beschikbaarheid van die gegevens voor gebruikers. Nou zit er meestal wel een kleinere of grotere vertraging tussen vastlegging en beschikbaarheid, waardoor ook wel wordt gesproken van ‘near realtime’. Belangrijker is dat (near) realtime een andere manier van informatie verstrekken is dan het batchgewijs verstrekken van data. In dat geval wordt data opgespaard en met een bepaalde frequentie beschikbaar gesteld. Er zijn toepassingen die uit hun aard realtime moeten zijn. Transactionele (operationele) toepassingen hebben uit hun aard vaak al een realtime karakter. Voor analytics en besluitvorming geldt dat veel minder. De ontwikkeling is dat nu ook steeds meer analyticstoepassingen in realtime worden uitgevoerd. Doe je een banktransactie (ATM), dan wil je dat dat realtime is. Een banktransactie bestaat uit een hele serie handelingen (waaronder controles die worden uitgevoerd, bijvoorbeeld: heb je voldoende saldo?) maar is (near) realtime. Het is niet zo dat alle aanvragen om geld op te vragen eerst worden opgespaard en dan op een bepaald moment pas worden verwerkt. Het plaatsen van een bestelling via internet en socialemediaplatforms, zoals Twitter en Facebook, zijn andere voorbeelden van realtime. Naast realtime toepassingen zijn er ook genoeg
Realtime toepassingen vereisen een andere manier van omgaan met data constructie. De tweede reden is dat door bepaalde toepassingen in realtime te doen er nieuwe toepassingen en kansen ontstaan, die er voorheen niet waren. Voorbeelden hiervan zijn: • De politie in New York maakt gebruik van camera’s om stromen mensen in de straat te observeren. Op basis van analyse van historische gegevens is bekend wat aanwijzingen zijn voor het ontstaan van een opstootje. Door in realtime situaties te observeren waar veel mensen bijeenkomen, kan de politie die ter plekke is vooraf worden gewaarschuwd en kan – waar nodig – preventief worden ingegrepen (voordat een opstootje ontstaat). • Een variant hiervan is het slim omleiden van verkeersstromen. Hierbij wordt eveneens gebruikgemaakt van camera’s die in straten zijn opgehangen. Informatie over waar en wanneer opstoppingen gaan ontstaan, wordt verkregen door de analyse van historische gegevens over eerder geregistreerde verkeersstromen en opstoppingen. Wanneer de kenmerken van op handen zijnde opstoppingen worden gesignaleerd, worden verkeerslichten ingezet om verkeersstromen om te leiden om ervoor te zorgen dat er geen opstoppingen ontstaan.
• Wallmart weet op elk moment precies welke artikelen worden verkocht – en welke niet. Artikelen die niet worden verkocht worden samen aangeboden met artikelen die wel courant zijn. Ook kunnen niet-lopende artikelen met korting worden aangeboden. Hierbij wordt onder andere rekening gehouden met weerdata. Als paraplu’s niet worden verkocht maar het gaat binnen een uur regenen in de omgeving van de betreffende Wallmart wordt de prijs niet aangepast. • Energiebedrijven leveren hun energie aan grootzakelijke klanten en particulieren via hun netwerken. De toelevering van energie aan het net door windturbines is erg afhankelijk van het weer – en kan dus erg wisselen. Daarnaast kunnen klanten ook energie terugleveren aan het net. Kortom, de energie die aan het net wordt geleverd kan per tijdsperiode erg verschillen. Het net dient hierop voorbereid te zijn om dit ook te kunnen absorberen. Klanten die behoefte hebben aan energie, hebben in principe de mogelijkheid om die energie af te nemen van hun energieleverancier of van andere klanten die terugleveren aan het net, waarbij andere prijzen kunnen gelden. Deze toepassingen laten zien dat door data sneller ter beschikking te hebben nieuwe werkwijzen en oplossingen mogelijk worden. Dat betekent overigens niet dat alle data nu realtime moet zijn. Bij predictive asset maintenance wordt onderhoud gepleegd wanneer het nodig is en niet op basis van een vooraf bepaalde frequentie (bijvoorbeeld eens per jaar). Lokale verschillen in weersomstandigheden kunnen ertoe leiden dat niet elk transformatorhuisje met dezelfde regelmaat onderhoud nodig heeft. Hetzelfde geldt voor treinmaterieel dat met andere frequenties wordt ingezet, een andere belasting kent en op andere routes rijdt. Predictive asset maintenance maakt het mogelijk om te besparen op onderhoudskosten door het slim analyseren van data. Daarvoor hoeft de betreffende data echter niet in realtime beschikbaar te zijn. De Climate Corporation biedt landbouwers een verzekering die gebaseerd is op de historische opbrengsten van precies hun stukje land (dat weer heel anders kan zijn dan dat van hun buurman). Het bedrijf gebruikt actuele weerdata om snel inzicht te
MEI
➼
2 0 1 4
15
thema BI & analytics
Toepassingen
Nieuwe toepassingen ontstaan door realtime
Analytics & besluitvorming
Transactioneel
Traditionele datawarehousing
Verkeersstromen Energieleveranties
Facturering Salarisverwerking
ATM Website
Batch
Realtime Snelheid
Figuur 1. Realtime toepassingen.
krijgen waar en wanneer oogsten worden bedreigd (veel neerslag, lange droge periodes) waardoor ze snel kunnen uitkeren en landbouwers in hetzelfde oogstseizoen opnieuw aan de slag kunnen. Ook hier is sprake van minder kosten en potentieel meer opbrengsten en wordt gebruikgemaakt van realtime data. Dat deze data in realtime beschikbaar is, is niet cruciaal voor de afhandeling. Niet alle organisaties en niet alle data hoeven realtime te zijn. Organisaties die vooruit willen, denken continu na over de toepassingen die daarvoor nodig zijn. Hoe kunnen activiteiten optimaal worden uitgevoerd? Hoe kan de concurrentie op achterstand worden gezet of kan zelfs een nieuwe markt worden gedefinieerd? Het antwoord op die vragen bepaalt welke data in scope is – en ook waaraan die data moet voldoen in termen van datakwaliteit (wat is goed genoeg – fit for purpose?) en hoe snel men over de data moet kunnen beschikken. Vervolgens kan er worden geanalyseerd en kunnen inzichten worden opgevolgd die leiden tot businessresultaten en weer nieuwe – en betere vragen.
16 t i j d s c h r i f t
i t
Implicaties
Realtime toepassingen vereisen een andere manier van omgaan met data. De meeste organisaties beschikken over een datawarehouse dat periodiek wordt gevoed met data afkomstig uit verschillende transactionele systemen, zoals een ERP- of SCM-systeem. Relevante data wordt eerst opgespaard en vervolgens als batch overgezet naar het datawarehouse. Voordat dat gebeurt, wordt die data gecontroleerd en waar nodig aangepast (ETL). Realtime toepassingen maken gebruik van services, waarbij transactionele data direct wordt overgezet naar het datawarehouse. Hierbij kan gebruik worden gemaakt van een enterprise service bus (ESB). De ESB verbindt alle aangesloten systeem en de data ‘reist’ van het bronsysteem (transactionele systeem) naar het datawarehouse. Tijdens die reis kan desgewenst allerlei functionaliteit worden toegepast, zoals bijvoorbeeld ETL-functionaliteit. Er zijn verschillende technologische oplossingen (componenten) beschikbaar die ingezet kunnen worden om de organisatie sneller (in realtime) beslissingen te laten nemen. Speciale vermelding verdienen nog de big-data-
m a n a g e m e n t
toepassingen. Bronnen van big data hebben een (near) realtime karakter, of het nu gaat om sensoren, slimme meters (elke vijf of vijftien minuten) of tweets en Facebook-meldingen (continu). Tot op heden is de aandacht met name uitgegaan naar het snel kunnen opslaan en verwerken van deze data. De vraag die nu steeds meer naar voren komt is het ook snel kunnen analyseren van al deze data. Dit is zonder meer een nieuwe uitdaging waar de huidige big-datatechnologie (nog) geen goed antwoord op heeft. Voorbeeld next best offer Organisaties die besluiten om in realtime de bezoekers van hun website passende aanbiedingen te doen, zullen over de data, logica en technologie moeten beschikken om te kunnen beslissen of iemand kredietwaardig is en wanneer producten geleverd kunnen worden. Maar ook de onderliggende processen dienen zodanig ingericht te zijn dat volgens afgesproken termijnen geleverd kan worden. Medewerkers die in contact komen met de klant dienen voldoende opgeleid te zijn om effectief en efficiënt op te kunnen treden. Kortom: omschakelen naar realtime toepassingen betekent meer dan alleen de data en technologie op orde hebben.
C
M
Y
CM
MY
CY
CMY
Conclusie
Of realtime datamanagement nodig is, hangt af van de toepassing. Transactionele toepassingen zullen door hun aard vaak al een realtime karakter hebben. Andere toepassingen, zoals analytics en besluitvorming, hebben dat vaak nog niet. Vaak ontstaan wel nieuwe toepassingen en bedrijfsmodellen op het moment dat aan realtime analytics wordt gedaan. Inmiddels zijn er verschillende technologieën beschikbaar om realtime datamanagement en analytics te realiseren, waaronder parallelle en in-memory gegevensverwerking. De verwachting is dat een steeds groter deel van de toepassingen een realtime karakter zal krijgen dan voorheen. Maar ook hier geldt dat een goede businesscase nodig is. Dat het realtime kan, betekent nog niet dat het ook realtime moet. Paul van der Linden (Paul.van.der.
[email protected]) is principal manager Business Intelligence en Analytics bij Accenture Digital – Data & Analytics Delivery.
K
❉
thema BI & analytics
George Lawrie van Forrester over data, hypes en software
‘Vrijwel alles wordt hardware’ Na afloop van het Jaarcongres Information Management sprak de Brit George Lawrie, VP en Principal Analyst bij Forrester Research, met TITM over gestructureerde, ongestructureerde en ruwe data, datawarehouses en databases. Kernpunt is de nogal autoritaire rol die de IT-wereld zich in de afgelopen jaren heeft aangemeten. “Dat zal moeten veranderen; en als ze dat niet uit zichzelf doen, moeten we ze daarbij helpen.”
D
e definitie van big data vormt al een probleem vanaf de eerste keer dat de term werd gebruikt. De meesten doelen op grote volumes, anderen spreken over 500 GB aan uiterst diverse data. Uit onderzoek van Forrester onder enkele honderden grote bedrijven, blijkt dat deze gemiddeld beschikken over 125 TB aan data, maar daar slechts 5 procent actief van gebruiken. De oorzaak daarvan ligt vooral in het moeilijk toegankelijk zijn van de meeste data, zegt George Lawrie van Forrester. “Daarom gebruiken we liefst gestructureerde data, zelfs als het om heel veel data gaat. Maar de ongestructureerde data herbergt nog vele verborgen schatten – daar kunnen waarschijnlijk de nieuwe kansen in gevonden worden. We worden langzaam beter met tekst- en sentimentanalyse. Maar er liggen nog terabytes aan beeld en geluid. Wat gaan we daarmee doen?”
perking: het is slechts mogelijk van tevoren bedachte vragen te stellen. Andere vragen zijn bij voorbaat uitgesloten. De bouwers zijn trots op hun zelfgebouwde datawarehouse, maar goed beschouwd is het een datagevangenis.” Hij vervolgt: “Een ander probleem met BI is dat IT vooral erg goed is in standaardiseren. Naar mijn idee zou IT moeten zeggen: iedereen krijgt eenzelfde tool, en wij zorgen dat jullie bij alle beschikbare data kunnen. Ruwe data kan bijvoorbeeld
Datagevangenis
uitstekend worden toegepast, als de gebruiker maar weet dat hij met ruwe data bezig is. Hij kan dan bijvoorbeeld een analyse doen op een dataverzameling van schone en ruwe data, en de analyse separaat herhalen op de beide
Lawrie stelt vast dat organisaties vooral vertrouwen op hun datawarehouse. “In de BI-wereld is alles immers onder controle. Maar het ontwerp en de structuur van een datawarehouse vormen een be-
20 t i j d s c h r i f t
i t
datasets. Maar IT heeft het niet zo op een dergelijke aanpak. IT heeft autoritaire trekjes, terwijl vreemd genoeg de meeste IT’ers uit de anti-autoritaire jaren zestig en zeventig komen…” En dan nog een overdenking van de Forrester-analist: “IT’ers spreken graag over de integriteit van data. Maar wat betekent dat als iedereen overal in de organisatie data produceert? Het inzicht dat de data geeft, is dus niet door IT gecreëerd maar eigenlijk door de werkvloer.”
Self-identifying data
‘Een datawarehouse is goed beschouwd een datagevangenis’
m a n a g e m e n t
Gaat BI volgens Lawrie dan verdwijnen? Er zijn immers heel wat ideeën over een ‘semantic web’ en rond ‘data-diving’. “Het is altijd weer hetzelfde liedje met de industry associations: zij willen bepalen wat iets betekent. Dat bevreemdt me. Je zou verwachten dat het veel meer zelforganiserend zou zijn, net als internet. Mensen blijven echter denken dat alles beter gaat als het maar gemanaged wordt. Dat baart me grote zorgen. Want zo wordt de creativiteit van miljoenen mensen verstikt.” Lawrie oppert dat het misschien beter is data zichzelf te laten identificeren. Hij noemt als voorbeeld XML en ziet voorbeelden op nog meer terreinen. Het
➼
van onze redactie | Foto’s: Roelof Pot
George Lawrie, VP en Principal Analyst bij Forrester Research:
“De meeste organisaties zullen niet snel hun enterprise-datawarehouse opgeven als het om gestructureerde data gaat. Ik vermoed dat er dan heel wat accountants overstuur zullen raken.”
MEI
2 0 1 4
21
thema BI & analytics werken met self-identifying data impliceert dat de applicaties slimmer moeten worden, in plaats van de slimheid in te bouwen in de database of het datawarehouse. Hij denkt aan een stukje software dat verschillende datastructuren kan herkennen en weet wat ermee gedaan moet worden. “Dat komt vooral goed van pas in realtime omgevingen. Geen Extract, Transform en Load (ETL) dus, maar Extract, Load en Translateals-het-nodig-is (ELT). Zo gaat het er uitzien, anders zouden we immers het realtime karakter aantasten.”
dat het mogelijk zou worden beeld te digitaliseren en bouwde daarvoor de mogelijkheden in.” Een populair studieobject is de all-inonedatabase, waarin de data wordt gemanaged door een systeem van pointers en tags. Tot nu toe overigens zonder erg veel succes, weet Lawrie. “Ik ben er ook niet zo’n fan van. De meeste organisaties zullen niet snel hun enterprise-datawarehouse opgeven als het om gestructureerde data gaat. Ik vermoed dat er dan heel wat accountants overstuur zullen raken.
Dataraffinaderij
Lawrie ontwikkelde op basis van ELT het concept van een dataraffinaderij. Het idee erachter is dat je niet alle data tegelijk hoeft te gebruiken. Een IT-afdeling biedt bijvoorbeeld de door haar beheerde data aan, maar ‘raffineert’ alleen de data die nodig is voordat het naar een centrale plaats wordt overgezet waar het beschikbaar wordt gesteld. Dat raffineren van geselecteerde data gebeurt door een filter. “Zo’n filter zal door een datascientist gebouwd moeten worden. Daarmee kan de IT-afdeling ruwe data of ongestructureerde data geschikt maken voor gebruik. Het lastige daarvan is dat het een hybride vorm is van het uiterst gestructureerde datawarehouse en ruwe data. Het doel is om het allemaal wat gemakkelijker te maken voor de gebruiker door de door hem gewenste data iets aan zijn wensen aan te passen. De gebruiker geeft aan welke data hij wil gebruiken en welke waarde hij aan de data toekent, de IT-afdeling stelt de dataset gebruiksklaar ter beschikking. Dan zal de business ook grote toegevoegde waarde erkennen. Het is een goede manier om met ongestructureerde en ruwe data om te gaan.”
Einde van de relationele database
Uit laboratoria over de gehele wereld komen nieuwe typen databases. Lawrie ziet dan ook het einde van de relationele database naderen. “Niet overal, want een RDBMS is geoptimaliseerd voor de verwerking van transacties. Maar we zien multidimensionele databases zoals Hadoop snel aan populariteit winnen. Het concept is overigens niet zo nieuw als iedereen denkt. In eerdere projecten lang geleden was het al nodig gestructureerde en ongestructureerde data te vermengen. Ik ging er toen al vanuit
22 t i j d s c h r i f t
i t
‘Is het wel zo erg dat afdelingen zelf ITprojecten doen?’ Het datawarehouse zal dus worden voorzien van aanvullende mogelijkheden voor ongestructureerde data.” Hij ziet voorlopig nog een scherpe grens tussen gestructureerde en ongestructureerde data, opgeslagen in eigen silo’s die echter wel steeds vaker met elkaar verbonden zullen zijn.
Schaduw-IT
IT heeft zijn roots in de administratieve, financiële kant van een organisatie. Bij veel bedrijven rapporteert de IT-manager nog steeds aan de CFO. Daardoor is verzuimd de mogelijkheden van IT in marketing te benutten. “Ik zie marketingmanagers die meer tijd besteden aan IT-projecten dan de IT-manager”, vertelt Lawrie. Hij herinnert zich een voorval waarbij de marketingmanager met de IT-manager overleg wilde voeren over een aantal plannen. Op de vraag hoe IT marketing kon ondersteunen, begon de IT-manager uit te leggen dat hij een vijfjarenplan had voor het SAP-systeem. Prompt pakte de marketingmanager zijn spullen en verliet de kamer. Hij weigerde nog langer met de IT-manager te overleggen. “En dan bouwt marketing dus gewoon zelf een soort IT-organisatie, soms zelfs een volledig parallelle IT-infrastructuur. Volkomen ongewenst vinden we dat soort schaduw-IT – met IT voorop. Maar het ontstaan ervan is niet zozeer
m a n a g e m e n t
marketing aan te rekenen, maar de rol die de IT-afdeling van oudsher speelt, de denkbeelden die men heeft. Dat zal dus moeten veranderen. En als ze dat niet uit zichzelf doen, moeten we ze helpen te veranderen.” Is dat nou eigenlijk wel zo erg dat afdelingen zelf IT-projecten doen, is de retorische vraag die Lawrie stelt: “Het is al mooi dat ze daar blijkbaar allemaal geld voor hebben. Maar er moet natuurlijk enig verband blijven met de bestaande IT-omgeving. Daarom helpen mijn mensen organisaties om dat zo effectief mogelijk te doen.” Lawrie was recent betrokken bij een project waarbij een bedrijf alle marketing- en brandmanagers in verschillende landen klantdata liet verzamelen. Ze gaven daar geld aan uit, maar de bedrijfsleiding wist eigenlijk niet precies wat de toegevoegde waarde ervan was. Aan Lawrie werd gevraagd een methode te ontwerpen, waardoor de data niet alleen waarde kreeg voor de marketingmanager maar voor het gehele bedrijf. Lawrie en zijn mensen deden dat op basis van een soort business-rules die marketing niet beperkte in zijn activiteiten, maar wel binnen een bepaalde bandbreedte liet opereren. Vandaar de term ‘vangrails’, die bovendien minder beperkend klinkt. Deze aanpak bleek te werken. “De meeste IT-afdelingen, -managers en CIO’s zullen een dergelijke aanpak tegenhouden met een keihard veto. Ik vermoed omdat ze weten dat de IT-afdeling in zijn huidige vorm zal gaan verdwijnen.” Die houding zal dat echter zeker niet veranderen, eerder bespoedigen.
Alles wordt hardware
Lawrie is van mening dat alle zaken die nu binnen IT in beweging zijn, op een zeker moment tot stilstand zullen komen. En dat veel software hardware zal worden. “Ik noemde al het feit dat de relationele database aan het eind van zijn houdbaarheidsdatum is gekomen. Waarschijnlijk geldt datzelfde voor Windows en ERP. Het is allemaal veel te veel softwarematig, het is kwetsbaar, uiterst complex, volumineus en bovenal: het is veel te veel. Ik verwacht dat er mobiele devices zullen komen die dienst doen als operating-system. Alles, vrijwel alles zal hardware worden. En zó goedkoop dat het gewoon kan worden weggegooid als het stuk is.”
❉
thema BI & analytics
24 t i j d s c h r i f t
i t
m a n a g e m e n t
Tekst: Martin ter Horst en Antoine Stelma
Vraag- en aanbodmodel beste benadering van business-intelligence
Datamanagement tilt big data en analytics naar hoger plan Er zijn in de business-intelligence twee werelden ontstaan. Aan de ene kant de traditionele BI-wereld die de interne organisatie representeert, en aan de andere kant de big analytics voor bijvoorbeeld de marketeers. Beide werelden hebben hun eigen karakteristieken. De klassieke BI-omgeving geeft zekerheid over de juistheid van de data en de manier waarop informatie is ontstaan. De wereld van de analytics is een stuk anarchistischer: hier gaat het om trends, gemiddelden en het ontdekken van betekenis en verbanden. Om beide werelden op hetzelfde professionele niveau te brengen, is strikt datamanagement een absolute vereiste.
D
e klassieke BI-omgeving heeft er jaren over gedaan te worden wat het nu is: een betrouwbare bron van informatie over de gang van zaken binnen de organisatie, in rapportvorm, als dashboard, als performancemanagementtool. Gebruikers kunnen de herkomst van de data tot aan de bron herleiden en weten dat elke tabel auditable is. Het datawarehouse representeert de organisatie. Daarnaast is echter een grote behoefte ontstaan om klant en markt beter te leren kennen. Om dergelijke vragen te kunnen beantwoorden is de bestaande BI-omgeving niet gebouwd. Op zoek naar nieuwe marktkansen zijn marketeers en salesafdelingen op eigen houtje aan de slag gegaan met analytics. Data uit interne systemen wordt gecombineerd met extern verkregen dataverzamelingen (uit bijvoorbeeld sociale media, open data, et cetera) en met een variëteit aan innovatieve tools aan allerhande analyses onderworpen. De hoeveelheid data binnen de organisaties groeit daardoor enorm, terwijl de controle over die data afneemt. Bovendien is de data vaak het stadium van ruwe grondstof nog niet gepasseerd. Er is dus een tussenfase, een halffabrikaat,
nodig voordat de berg data zinvol kan worden gebruikt. Alleen al dat feit maakt enige vorm van datamanagement nodig. Effectief datamanagement helpt bij het controleren en vastleggen van zaken als de herkomst, betrouwbaarheid en betekenis van data en dat alles in de juiste context plaatsen. De grootste benefit van datamanagement is dus het creëren van datasets met directe, toegevoegde waarde voor de business. Er is de afgelopen tijd heel veel geïnvesteerd in de klassieke BI, gedreven vanuit de behoefte en de noodzaak om over correct en auditeerbaar cijfermateriaal te kunnen beschikken. Wat in experimentele vorm aan de analytische kant is gedaan, moet nu geprofessionaliseerd worden. Analytics is, zeker met de opkomst van big data, té complex en vooral té belangrijk geworden.
het mogelijk is enkele terabytes aan data in een database te zetten en vervolgens software te laten draaien die dan de verborgen schat vindt. Dat werkt zelfs niet op kleine datasets. Het analyseren heeft altijd enige sturing nodig; software kan niet zomaar uit bijvoorbeeld een dataset met alle verkrijgbare types auto de best passende kiezen. Er is technisch nauwelijks een beletsel om grote hoeveelheden externe data binnen te halen, te beoordelen en samen te voegen met interne data. Deze volledige verzameling kan gevisualiseerd worden met de nieuwe generatie tools die vooral geschikt zijn om in de breedte te zoeken. Op die manier kan de marketeer zien wat de samenstelling van de dataverzameling is. Maar hij zal minstens op hoofdlijnen moeten weten waar hij naar op zoek is, zodat de informatie gefilterd kan worden.
Antwoordmachine
Er is dus een flinke dosis creativiteit en vindingrijkheid nodig, al is het maar puur vanwege het volume en de variëteit. Er moeten keuzes gemaakt worden en interpretaties. Het feit dat bijvoorbeeld een bepaald extern databestand wordt gebruikt, is op zich al een vorm van segmentatie en filtering. Ter vergelijking: sensordata aan de ene kant is ‘koude’ data. Een
In het in 2005 verschenen boek Freakonomics van de auteurs Stephen Dubner en Steven Levitt, wordt het vakgebied economics omschreven als ‘zeer geschikt om antwoorden te geven, maar het gaat gebukt onder een schrijnend tekort aan goede vragen.’ Bijna tien jaar later zou je van analytics hetzelfde kunnen zeggen. Het is een misverstand te denken dat
MEI
➼
2 0 1 4
25
thema BI & analytics
sensor meet en geeft zijn bevinding door aan de analytische thuisbasis. Het is neutraal, het is constant, het is compleet – grote pluspunten als het om kwaliteit gaat. Daartegenover staat data van sociale media; deze is alles behalve neutraal. Het heeft vaak een hoge ‘zuurgraad’ terwijl Twitter door zijn vluchtigheid weer veel impulsievere informatie bevat. Elke externe dataset heeft zo zijn eigen karakteristieken die voor gebruik meegewogen moeten worden.
Outsourcen
Ook aan de leverancierskant vindt een verschuiving naar datamanagement plaats. Er zijn van oudsher partijen die een variëteit aan dataverzamelingen leveren. Tot voor kort werd de data verzameld, enigszins gestructureerd en ‘koud’ beschikbaar gesteld. Het datalogistieke deel van datamanagement. Dit type organisaties realiseert zich dat hun dienstverlening zal moeten verbeteren om hun marktpositie veilig te stellen. Ook zij voeren nu modern datamanagement in, waardoor ze de data niet alleen verzamelen, maar ook interpreteren, waarde toekennen, en verbanden en correlaties analyseren. De dataleverancier stelt zo de data ‘warm’ beschikbaar, klaar voor verdere analyse en te combineren met de eigen, interne data, en speelt op deze manier in toenemende mate de rol van added value databroker. In de praktijk betekent dit dat de afnemer feitelijk zowel het verzamelen van de data als het data-assessment – inclusief de creativiteit – heeft uitbesteed aan de dataleverancier. Zover is het bij veel organisaties nog niet. De traditionele BI-omgeving, het bedrijfsgeheugen, is voor veel organisaties te gevoelig om te outsourcen. Dat zal de eerstkomende jaren nog binnen de muren van de organisatie gehouden worden. De intelligentie die nodig is voor analytics op grote hoeveelheden complexe data, vraagt veel rekenkracht. Het ligt voor hand om investeringen in hardware te ontlopen en dergelijke analyses uit te besteden. Ook het afhandelen van metadata kan zonder bezwaren in de cloud plaatsvinden – maar de brondata blijft daarbij vrijwel altijd on-premise. Organisaties zijn
26 t i j d s c h r i f t
i t
bereid veel data die is binnengehaald en verrijkt te delen met anderen – maar dat geldt niet voor klant- en financiële gegevens. Het wordt dus steeds belangrijker om ook die data goed te managen.
Vraag en aanbod
Waar outsourcing afnemers en leveranciers dwingt om expliciet in termen van vraag en aanbod te denken, blijft dat bij interne invulling vaak onder de oppervlakte. Toch is diezelfde benadering daar ook zeer effectief toepasbaar. Een BI-omgeving is een distributeur van zinvolle informatie. De gebruikers hoeven die niet te komen halen, het wordt actief gebracht. BI is van een technisch IT-domein een domein van de gehele organisatie geworden. Steeds meer organisaties hebben een separaat BI-team, een gemengde business/ITgroep die de informatiestromen binnen de organisatie onder controle houden. De samenwerking in dergelijke teams is veel beter. Het modelleren van data en modern datamanagement zit veel meer aan de functionele kant, en niet meer aan de technische. Aan de andere kant blijft IT de facilitator, die door het automatiseren van bepaalde informatieprocessen en het efficiënt afhandelen van datalogistiek toegevoegde waarde levert aan de business – een rol die steeds meer IT-afdelingen op zich nemen. Zij zijn het die de technische data beheren en zorgen dat die beschik-
Vraag en aanbod verbinden is effectiever dan de oude BICCmodellen baar komt, of dat nu gaat om lopende processen of nieuwe. De gebruikers ontwerpen de stroom, het proces. In het hele BI-vakgebied kan een model worden toegepast dat vraag en aanbod verbindt. Aan de vraagzijde is de laatste tijd nogal veel veranderd: vroeg men voorheen naar een maandelijks rapport, nu wil men per direct
m a n a g e m e n t
inzicht in de situatie van morgen. IT zal zich – net als andere organisaties – moeten aanpassen aan de gewijzigde vraag. Die benadering is effectiever dan de oude BICC-modellen die meer focusten op rollen, bevoegdheden en verantwoordelijkheden. Het geschetste model reduceert het aantal rollen tot twee spelers. Om het spel te kunnen spelen moeten beide spelers een aantal skills ontwikkelen. Het is aan de vraagsteller om zijn vraag te formuleren en aan de IT-afdeling om te zorgen dat er antwoord op de vraag komt. Daarvoor is het van groot belang de data op orde te hebben, een belangrijke taak voor de IT-afdeling. Het geschetste BI-team, of de afdeling Informatiemanagement, bevindt zich min of meer tussen vraag en aanbod in. Deze beoordeelt de vraag op helderheid en haalbaarheid. Aan de andere kant ondersteunen ze de vrager bij het vinden van antwoorden door het gebruik van nieuwe analytische toepassingen met goede visualisatietechnieken. In dat proces is de laatste jaren veel ontwikkeld, hoewel veel organisaties nog steeds een grote mate van legacy meeslepen. De nieuwe generatie tools is breder inzetbaar en intuïtief in het gebruik.
Tot slot
Het aloude credo ‘garbage in, garbage out’ blijft onverminderd van kracht. Dat geldt ook voor big data en analytics. Data waarvan de herkomst onduidelijk is, verkeerd geïnterpreteerde datasets en data die niet semantisch verenigbaar zijn, leiden tot merkwaardige uitkomsten en foutieve beslissingen. Data is niet alleen de belangrijkste ruwe grondstof, het is het fundament van alle informatiestromen. Om stappen te kunnen zetten op het gebied van big data en analytics is het nodig een professionaliseringsslag uit te voeren, die analytics op hetzelfde niveau brengt als de traditionele BI. Goed datamanagement, dat niet alleen focust op de logistiek maar ook op het beoordelen van betekenis, waarde en verbanden, is daartoe de sleutel. Martin ter Horst en Antoine Stelma zijn consultants bij Centennium BI Expertisehuis.
❉
Geinteresseerd in een van onze magazines? Via deze link kunt u een proef abonnement aanvragen. CIO MAGAZINE CIO Magazine is met afstand het hoogst gepositioneerde ITblad van Nederland. Geen tijdschrift over bits, bytes, nullen, maar een lezenswaardige glossy, die met pakkende artikelen, een sfeervolle lay-out en hoge kwaliteit fotografie informatietechnologie naar het hoogste bestuursniveau brengt. CIO Magazine is een echt community-blad. Het biedt CIO’s en IT-directeuren een klankbord, een platform en het verschaft hun inspiratie en inzicht. Het tijdschrift informeert, faciliteert discussies, deelt best practices en entertaint. Daarbij brengt CIO Magazine vraag (de doelgroep) en aanbod (marktpartijen) regelmatig samen.
TIJDSCHRIFT IT MANAGEMENT Tijdschrift IT Management (TITM) biedt IT executives alle informatie over de relatie tussen IT en business: van innovatie met IT, architectuur en informatiemanagement tot business alignment & fusion. Er is ook veel aandacht voor performance management, project & portfolio management, innovatieve applicaties (mobility, SaaS) en de laatste IT-trends en -technologieën waarmee IT de business kan versterken. Tijdschrift IT Management informeert, faciliteert discussies, deelt best practices en entertaint. De combinatie van de diverse congressen en de informatie in TITM zorgt ervoor dat de IT executives het hele jaar op de hoogte blijven van hun vakgebied.
OUTSOURCE MAGAZINE Outsource Magazine is een autoriteit op het gebied van sourcing: van nearshoring, (far) offshoring, it outsourcing, outsource advies, BPO, HRM, klantcontact outsourcing, marketing outsourcing, administratie outsourcing, telecom outsourcing, KPO, RPO, learning outsourcing tot en met training outsourcing. Outsource Magazine informeert, faciliteert discussies, deelt best practices en entertaint. CIO’s, IT executives, demand-en supplymanagers, CFO’s, financieel managers en procurement officers zien Outsource Magazine als de belangrijkste bron van informatie voor een van de meest actuele topics op het gebied van Business en IT: Strategic Sourcing.