Toptaken en de Long Tail Waarom je de staart niet moet afknippen
1
TopTaken en de 'Long Tail' Versie 1.0 Auteur: A.C. van Slooten © 2015 Cidadis.nl
2
Voor alle websites geldt 'Content is King'. Maar wat is goede content? En hoe zorg je dat je content goed is, en goed blijft? Hoe houd je overzicht over alle pagina's van een website, hun kwaliteit en actualiteit, ook voor de soms ver weg gestopte inhoud.
Een mogelijke oplossing is om simpelweg minder inhoud op je website te zetten. Daarmee behoud je inderdaad het overzicht, voor zowel de redactie als voor de bezoeker. Veel gemeenten kiezen voor deze aanpak voor hun nieuwe website en noemen het 'Toptaken'. Helaas gooi je daarmee het kind met het badwater weg.
"Een beperkter aantal pagina's reduceert de werkdruk (fte's) en de kosten van het beheer van de website." http://goedopgelost.overheid.nl/gemeentelijke-websites-focussen-op-toptaken/
"Van 2500 pagina's naar slechts 200; de website van de gemeente Tilburg is vorige maand flink kleiner geworden. De zogeheten toptaken-aanpak van www.tilburg.nl heeft als het goed is een site opgeleverd die eenvoudig en snel de eenvoudige functies biedt voor verreweg het grootste deel van de bezoekers, zodat die in één keer kunnen worden geholpen. Voor de rest van de informatie zijn andere kanalen beter." http://www.binnenlandsbestuur.nl/digitaal/nieuws/tilburg-schrapt-90-procent-vangemeentewebsite.9176228.lynkx
3
Waarom een TopTaken website? Het idee van TopTaken is terug te traceren naar het Engelstalige boek The Stranger's Long Neck van Gerry McGovern (2010) . De bevinding dat de meeste bezoekers van een website geholpen wordt met maar een beperkt aantal pagina's leid tot de aanbeveling om deze pagina's, de zogenaamde top taken, makkelijker vindbaar te maken en meer aandacht te geven. Veel gemeentes hebben dit principe omarmd en gebruiken dit als verdediging om de gemeentelijke website uit te kleden. De gemeente Tilburg is zeker niet de enige die het mes flink in de eigen website gezet heeft. De aanleiding is ook duidelijk. Gemeentes moeten meer en meer bezuinigen, terwijl het takenpakket alleen maar toeneemt. De gemeentelijke websites moeten ondertussen aan steeds meer normen en kwaliteitseisen voldoen. Dit betekent dat er geïnvesteerd moet worden in verbeterde systemen, hulpmiddelen en vooral ook kennisopbouw bij de redacteuren en ICT-afdelingen. Door de website te beperken tot alleen de meest gevraagde functionaliteit en informatie is het mogelijk om met relatief beperkte middelen en tijd een website te maken die aan al deze eisen voldoet. Daarnaast wordt het mogelijk om met een klein aantal mensen de website bij te houden. Win-win, zou je zeggen. De nieuwe website is voor bijna iedereen beter, er staat geen verouderde informatie op en wat er op staat is makkelijk te vinden. Daar is toch niets mis mee?
In de volgende hoofdstukken noem ik een aantal pijnpunten die bij een dergelijke aanpak makkelijk vergeten worden. Daarna geef ik een mogelijke oplossingsrichting aan die toch beheersbaar blijft.
4
Wat is er mis met een TopTaken website? Het principe achter de TopTaken website is gebaseerd op de Long Neck / Long Tail verhouding.
De meeste bezoekers zijn geholpen met een relatief klein aantal webpagina's. Gerry McGovern gebruikt dit als argument om je vooral te richten op die top pagina's, of generieker 'Top Taken'.
Dit betekent echter niet dat de overige pagina's dus niet nuttig of belangrijk zijn. Door deze pagina's te verwijderen wordt het online aanbod van een website enorm verschraald. Een gemeente is geen commerciële instelling die het zich kan veroorloven om een deel van haar klanten niet te bedienen. Voor veel informatie en taken zijn er geen andere alternatieven voor de 'klant' dan de gemeente. Natuurlijk kun je mensen doorsturen naar andere kanalen, door bijvoorbeeld een contactformulier, telefoonnummer of online afspraaksysteem aan te bieden. Hoewel dit de druk op de ambtenaren belast met het afhandelen hiervan verhoogt, zal dit voor deze taken, die immers niet onder de Toptaken wel meevallen. Toch kan dit alles bij elkaar een onverwacht grote druk zijn, die in de snelle rekensom van de TopTaken website niet meegenomen is.
5
Maar een belangrijker probleem is dat deze alternatieve kanalen niet gebruikt kunnen worden door andere onderdelen van het web. Google indexeert je website, maar zal niet bellen voor een afspraak over aanvullende informatie. Overheid.nl indexeert geen papieren archieven. De gemeentelijke website is onderdeel van het internet. Alles wat daarop staat en goed bijgehouden met o.a. OWMS ( Overheid Web Metadata Standaard ) kan opgenomen worden in andere automatische hulpmiddelen. En andersom: alles wat er niet op staat is niet te gebruiken. Het is onmogelijk om aan te geven welke kansen we hierdoor mislopen omdat er elke dag nieuwe hulpmiddelen ontwikkeld worden op het internet.
Kijk bijvoorbeeld naar de nieuwe inzichten die beschikbaar komen door het gebruik van OpenData. Zonder dat deze online beschikbaar was, zouden allerlei mooie initiatieven nooit ontstaan zijn. De gemeente en de gemeentelijke website kan hier een belangrijke rol in spelen, mits de 'data' op het internet staat.
En tenslotte is de keuze voor de TopTaken een keuze op basis van popula-riteit. Maar is dat de belangrijkste maatstaf? Is het ook niet belangrijk om ondersteuning voor kwetsbare groepen te bieden? Hoe passen sociaal zwakkeren, ouderen, mensen met financiële problemen in dit plaatje. Deze groepen gebruiken allemaal het internet relatief minder vaak en zijn so-wieso al een minderheid. Door de website alleen te richten op de meest populaire taken loop je een grote kans juist die groepen die er het meest baat bij hebben te vergeten. En ook juist daar ligt een belangrijke taak voor de overheid. Juist voor de overheid.
Relevante link: http://www.frankwatching.com/archive/2015/06/03/ waarom-toptaken-meestal-niets-oplossen/
6
Een gemeente is uiteindelijk geen commerciele instelling en zou niet alleen op populariteit moeten meten. Maar hoe kun je een 'grote' website dan onderhoudbaar en vooral ook bruikbaar houden? In de volgende hoofdstukken suggereer ik een aantal opties.
7
Knowledge Bases of Kennisbanken Het onderhouden van websites met veel data is geen nieuw probleem en ook niet beperkt tot de overheid. Kranten, media, software bedrijven en andere kennis intensieve bedrijven zijn hier al jaren mee bezig. Hoewel iedere sector een andere aanpak kiest zijn er wel een aantal treffende overeenkomsten. De belangrijkste hiervan zijn:
Een flexibele onderverdeling van content Maak een flexibele onderverdeling van de content. In plaats van een strikt hiërarchische classificatie wordt gekozen voor een oplossing met tags en andere metadata. De artikelen en informatie worden afzonderlijk van de juiste gegevens voorzien en de website wordt vervolgens automatisch gevuld met de resultaten van zoekopdrachten naar bepaalde tags of metadata. Het voordeel hiervan is dat de indeling van de website onafhankelijk is geworden van een specifieke categorisatie. Door nieuwe tags te gebruiken bij een nieuwe manier van de website indelen is het mogelijk om de oude data te bewaren zonder dat alles opnieuw bekeken moet worden of dat paden en URL's aangepast hoeven te worden. Deze organisatievorm staat vaak bekend als 'Kennisbank' of 'Knowledge base'. Je kan het het best vergelijken met hoe Wikipedia alle informatie ordent. In plaats van een boomstructuur is het een wirwar van interne links. Zo'n flexibele organisatie betekent wel dat het makkelijk is om oude content uit het oog te verliezen en dat bezoekers makkelijker kunnen verdwalen. Deze problemen zijn goed op te lossen door veel kruisverbanden te leggen, bijv. naar andere pagina's met vergelijkbare metadata of tags en een goede zoekmachine te gebruiken.
8
"Content Lifecycle Management" Het probleem om al deze content te beheren blijft bestaan, ook met een flexibele onderverdeling en een goede zoekmachine. Maar ook voor dit probleem zijn oplossingen bedacht. Dit zijn niet per se technische oplossingen, maar organisatorische processen. Wel worden deze technisch ondersteund. De meest gebruikte term is 'Content Lifecycle Management'. Deze processen zijn vaak maatwerk en wisselen van hele simpele no-nonsense stappen tot zeer uitgebreide workflows. Het verschil in type content en de bijbehorende eisen en wensen zorgen voor een diversiteit in workflows.
"content lifecycle management" komt in allerlei vormen en kleuren.
9
Het belangrijkste onderdeel van Content Lifecycle Management is dat het plannen, maken of verzamelen, controleren en aanpassen of verwijderen van content gevangen wordt in beheersbare processen. De techniek speelt hier een ondersteunende rol in en moet eenvoudig aan te passen zijn aan het proces, in plaats van andersom.
Plannen Bij het plannen van content gaat het vooral om een overzicht van welke informatie wanneer beschikbaar moet zijn. Het maken van content wordt vaak onderschat, wat helaast tot gevolg heeft dat redacteuren snel overwerkt en ondergewaardeerd worden. Het is verstandig een planning te maken voor de komende periode, met betrekking tot de inhoud. Wanneer moet welke inhoud gemaakt en gepubliceerd worden. Zorg voor een actueel overzicht. In dit overzicht moet je kunnen zien in hoeverre je op schema loopt en waar eventuele problemen zijn. Zo kun je sneller bijsturen. In het overzicht moet je bijvoorbeeld kunnen signaleren of bepaalde onderwerpen meer tijd kosten dan verwacht, qua inspanning of looptijd. Je kunt ook signaleren of bepaalde redacteuren meer moeite met de materie hebben dan anderen.
Maken en aanpassen Bij het maken van de content moet de techniek goede ondersteuning bieden voor het hergebruiken van bestaande content. Dit kan zijn door bij de creatie hints te geven over gerelateerde of vergelijkbare informatie. Hierbij is het belangrijk dat metadata goed ingevuld wordt.
Daarnaast moet je zo min mogelijk belemmeringen opwerpen om content te maken of te verbeteren. De eerste versie hoeft niet perfect te zijn en niet alles hoeft in de eerste versie volledig ingevuld te staan. Zolang maar duidelijk is wat er nog
10
toegevoegd of verbeterd moet worden. Zo kunnen meerdere redacteuren aan dezelfde content werken, maar elk een eigen toevoeging geven. Iemand kan goed in de materie thuis zijn en een eerste opzet van de tekst maken, terwijl iemand anders deze tekst leesbaarder kan verwoorden en taal en spellingcontrole kan doen. Een derde redacteur richt zich op het correct invullen van metadata zoals de OWMSgegevens (Overheid Web Metadata Standaard) of de beste 'tags' en categorieën. Tenslotte dienen nog extra kruisverbanden naar gerelateerde content toegevoegd te worden door een redacteur.
Controleren Dit klinkt als chaos, maar toch werkt dit op sommige van de grootste websites ter wereld prima. Maar dit gaat alleen met voldoende overzicht en controle op kwaliteit en relevantie. Afhankelijk van het soort content kunnen verschillende harde en zachte eisen gesteld worden. Is de content actueel, correct, compleet, toegankelijk, vindbaar, etc. Als je al deze eisen elk afzonderlijk in de gaten moet houden over alle honderden of duizenden pagina's, dan wordt de beheerslast snel ondraaglijk. Gelukkig zijn hier ook oplossingen voor.
In de software development gelden vergelijkbare problemen, vaak over nog veel meer content dan bij websites. Daarnaast zijn de gevolgen van tekortkomingen vaak ernstig en soms catastrofaal. Als programmeurs hebben we dit probleem natuurlijk geautomatiseerd. Er zijn hulpmiddelen die volledig automatisch alle broncode van een project door lopen op zoek naar indicaties van problemen. Hiervoor zijn allerlei complexe kwaliteitscontroles bedacht en indicatoren dat er iets mis is. Het is vrijwel onmogelijk om zo'n scan bij een softwareontwikkeltraject zonder enkel (mogelijk) gebrek te doorstaan. Dat is ook niet het doel. De resultaten van alle controles
11
worden gecombineerd tot een heel kort en helder overzicht en een enkel 'kwaliteits' cijfer gevormd.
Voorbeeld van een kwaliteitsrapport voor software
Bij elke wijziging in de broncode wordt deze controle opnieuw gedaan en komt er een nieuw cijfer uit. Als dit omhoog gaat is de wijziging goed, als het omlaag gaat minder goed. Deze cijfers worden in een trend bijgehouden en kunnen zelfs gekoppeld worden aan specifieke programmeurs. Programmeurs wiens wijzigingen gemiddeld gezien een beter cijfer opleveren kun je zo belonen. En andersom kunnen programmeurs die het cijfer gemiddeld naar beneden halen kijken waar ze meer aandacht of scholing nodig hebben.
Dit zelfde concept is goed in te zetten voor het bewaken van de kwaliteit en actualiteit van content. De enige wijziging hierin is de invulling van de kwaliteitseisen en het soort controles daarop. Sommige van de controles zullen alsnog door mensen
12
gedaan moeten worden, maar het automatische proces kan daarin wel sturen welke content nog handmatig gecontroleerd moet worden en zelfs wanneer.
Alles bij elkaar kan deze controle juist zorgen voor een lagere werkdruk door gebruik te maken van geautomatiseerde werklijsten. Een overzichtelijk dashboard waarin een samenvatting van de huidige staat van de content staat met de mogelijkheid om snel naar content gewezen te worden die verbetering behoeft, maakt het voor een redactie duidelijk waar aan gewerkt moet worden. Na elke verbetering geeft een stijgend kwaliteitscijfer een gevoel van voldoening en motiveert het om ook de 'vervelende' klusjes te gaan doen. Dit psychologische effect kan nog verder worden 'uitgebuit' door per redacteur bij te houden wat diens 'score' is. Hierbij moet een afweging gemaakt worden tussen de waarde van nieuwe, maar nog onvolledige content en het verbeteren van bestaande content.
In het kort kun je de beheerslast van veel content verminderen door: •
te focussen op content creatie en metadata in plaats van classificatie;
•
inzicht te geven in de algehele kwaliteit en aandachtspunten;
•
overzichtelijke werklijsten te maken die duidelijke en directe verbeteringen in kwaliteit bewerkstelligen;
•
positieve feedback te geven en competitie ('gamification') te ondersteunen.
13
Google als index voor de Long Tail Nu heb je een website met veel content en deze is kwalitatief ook nog in orde. Maar hoe zorg je ervoor dat bezoekers daar hun weg in kunnen vinden? Het goede nieuws is dat dit tegenwoordig niet zo'n groot probleem meer is. Zolang je ervoor zorgt dat alle content voorzien is van de juiste metadata en de juiste woorden gebruikt, kun je het zoeken en vooral vinden ervan overlaten aan externe zoekmachines zoals Google.
Zoekmachines zijn tegenwoordig zo geïntegreerd met web-browsers dat het vaak makkelijker is om in de adresbalk een aantal woorden in te vullen dan eerst naar een specifieke website te gaan en daar te zoeken naar het zoek-formulier. Mensen zijn gewend aan de werking van hun favoriete zoekmachine en deze worden steeds intelligenter in het uitkammen van websites en presenteren van de zoekresultaten. Het is vrijwel onmogelijk om een betere zoekoptie in de eigen website te bouwen, uitgezonderd voor heel specialistische informatie.
Niet alleen zijn moderne zoekmachines goed in het classificeren van tekstuele content, ditzelfde doen ze ook met afbeeldingen en bestanden van allerlei formaten. Daarnaast is er ondersteuning voor allerlei metadata die je in de eigen content kunt opnemen om de zoekresultaten verder te verbeteren. Dingen als adressen, datum en tijd voor evenementen, telefoonnummers, etc. Deze zijn allemaal op te nemen in de eigen content op zo'n manier dat zoekmachines hiermee een beter resultaat kunnen tonen.
Als laatste is het belangrijk om aan te geven welke pagina's belangrijk zijn en welke niet (meer). Met technische oplossingen als het maken en bijhouden van een sitemap.xml kun je zoekmachines vertellen welke pagina's je belangrijk vindt. En met
14
speciale meta-velden kun je bovendien aangeven welke pagina's een zoekmachine helemaal moet negeren.
Relevant, maar niet actueel Het wordt wat lastiger voor pagina's die nog wel relevant zijn, maar misschien niet meer actueel. Deze pagina's verwijderen lijkt een simpele oplossing, maar daarmee zorg je ervoor dat er 'gaten' in het world-wide web vallen. Andere websites kunnen daar immers een link naartoe hebben. Door de pagina te verwijderen is de link verbroken. Een betere oplossing is om deze pagina's zelf te markeren als verouderd of gearchiveerd. Als een bezoeker toch op deze pagina uitkomt kun je deze dan duidelijk melden dat de informatie op de pagina verouderd is. Maar nog beter, als je de metadata van de pagina goed ingevuld hebt kun je de bezoeker waarschijnlijk ook een lijst tonen met pagina's die wel actueel zijn en over hetzelfde onderwerp gaan. Daarmee zorg je ervoor dat andere websites geen dode links meer hebben en bezoekers toch naar de juiste pagina's gestuurd worden.
Dus samengevat: •
Zoekmachines vormen al een oplossing voor de vindbaarheid van de informatie.
•
Door pagina's niet weg te gooien en URL's niet te veranderen blijven links van andere websites werken.
•
Door verouderde pagina's te markeren als 'gearchiveerd' en bezoekers automatisch naar actuele pagina's te sturen vormen archief pagina's geen extra beheerslast meer.
15
Conclusie Hoewel de uitgangspunten van TopTaken websites in de basis goed zijn, worden deze vaak uitgebreid met het beperken van de omvang van en informatie op de gemeentelijke websites. De beoogde vermindering van beheerslast en daarbij behorende bezuinigingen kunnen ook opgelost worden met het verbeteren van de technische hulpmiddelen en indeling van de informatie. Bijkomende voordelen zijn dat meer informatie beschikbaar is om door externe websites gelinkt te worden of zelfs om als Open Data gebruikt te worden.
Websites staan nooit alleen, maar vormen een onderdeel van een online gemeenschap. Het is belangrijk dat uitwisseling en vindbaarheid van informatie zoveel mogelijk ondersteunt wordt. Dit stelt ons allen in staat om steeds betere hulpmiddelen en diensten aan te bieden.
Nieuwsgierig naar meer? Ga naar onze website op http://www.cidadis.nl/
16