Informatiesystemen in organisaties: Wat weet ik nu meer?
Afstudeerscriptie Filosofie in Bedrijf Vrije Universiteit te Amsterdam
Begeleiders: Prof.Dr. B. Kee, Filosofie in Bedrijf, VU Dr. F. Schipper, Filosofie in Bedrijf, VU Dr. Ir. S. Strijbos, Cultuurfilosofie, VU Prof. Ir. H.M.J. Mevissen, Bestuurlijke Informatiekunde, VU
Amsterdam 1997 André Hollants
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
1 Inleiding..........................................................................................................................................................1
2 Definities ........................................................................................................................................................4
3 Kennis en de waarde ervan. Hoe kom je er aan? ....................................................................................6 3.1 Inleiding.................................................................................................................................................6 3.2 Wat is kennis en hoe verwerven we die?.........................................................................................6 3.3 Hoe komt de mens tot kennis en in hoeverre is dat de waarheid?..............................................8 3.4 Wat is 'kennis' in een computer en hoe komt deze tot stand? ...................................................12
4 Het probleem van de aspecten van data.................................................................................................14 4.1 Inleiding...............................................................................................................................................14 4.2 De omzetting van 'gegeven' naar 'datum' ......................................................................................14 4.3 Wat stelt de data uit een informatiesysteem voor? ......................................................................15 4.4 De rol van het begrip 'presentatie' bij data ....................................................................................16
5 Het probleem van aggregatie....................................................................................................................18 5.1 Inleiding...............................................................................................................................................18 5.2 Is het resultaat van geaggregeerde data geldig? .........................................................................18 5.3 Het doel van geaggregeerde data ...................................................................................................18
6 De constructie van datamodellen en de werking van computers.......................................................20 6.1 Inleiding...............................................................................................................................................20 6.2 Het modelleren van een informatiesysteem ..................................................................................20 6.3 Traditionele computers en informatie technologie (IT)................................................................20 6.4 Decision supporting systems (DSS)...............................................................................................21 6.5 Expert systemen (ES)........................................................................................................................22 6.6 Artificiële neurale netwerken (ANN) ...............................................................................................23 6.7 conclusie.............................................................................................................................................24
7 Een confrontatie tussen menselijke kennis en computerkennis........................................................25 7.1 Inleiding...............................................................................................................................................25 7.2 Automatiseren en informatiseren van bedrijfsprocessen...........................................................25 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
7.3 Het gebruik van kennis .....................................................................................................................26 7.4 Het ontbrekende component bij verwerking van (computer) data ............................................26
8 Conclusie .....................................................................................................................................................29
9 Gebruikte literatuur ....................................................................................................................................31
10 Voetnoten ..................................................................................................................................................32
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
1 Inleiding Tegenwoordig zien wij dat computers een zeer grote rol spelen in het bedrijfsleven. Waar vroeger alleen grootschalige en eenvoudige processen voor automatisering in aanmerking kwamen heeft de computer nu op vrijwel ieder terrein zijn invloed. In het laatste decennium heeft vooral de informatisering en grote rol gespeeld. Hierbij ontstaat er een zeer grote afhankelijkheid van computers bij het verwerken en verzorgen van de informatievoorziening. Deze informatievoorziening heeft niet alleen betrekking op diverse rapportages, maar heeft ook steeds vaker betrekking op beleidsbeslissingen. Indirect worden strategische beslissingen dan ook bepaald door de inzet en uitkomst van computers. In tegenstelling tot andere hulpmiddelen heeft de computer een extra dimensie. Computers worden gezien als hulpmiddelen voor het brein. Vooral door de enorme verwerkingscapaciteit en de 'foutloze' verwerking van data heeft de computer iets magisch gekregen en worden zij gezien als 'waarheid' producenten. Hoewel ik niet wil beweren dat een computer niet in staat is om data foutloos te verwerken (afgezien van bijvoorbeeld programmeerfouten) zijn er wel een aantal aspecten waar men rekening mee moet houden. Zo is er bijvoorbeeld de vraag welke status men aan de data kan geven. Is data te zien als iets objectiefs (wijzend naar een realiteit) of wordt de data geconstrueerd? Verwijst de data ook altijd naar iets dat eenduidig bepaald is (het zogenaamde aspect)? Men kan zich bijvoorbeeld afvragen of men tot juiste kennis komt door een systematische manipulatie van data tot nieuwe re-presentaties, iets wat zeer goed gedaan kan worden door computers. De nieuwe re-presentatie wordt via een computer geconstrueerd op grond van formele regels, maar de vraag is of deze uitkomst nog steeds wijst naar een realiteit. De aanname dat, indien men de data van computers op een logische (formele) wijze manipuleert, men tot de juiste kennis kan komen hoeft niet waar te zijn. Een formele regel kan ik namelijk niet zomaar los van de betekenis van de data toepassen. Zo kan ik de formele regel toepassen van het getal 'drie' delen door het getal 'twee'. Heb ik het over het bepalen van een afstand die ik halveer dan kan ik het antwoord gebruiken. Heb ik het echter over personen heb die ik over twee plaatsen wil verdelen dan is het antwoord niet direct een praktisch te gebruiken antwoord. De vooronderstelling dat men tot juiste kennis komt door een systematische manipulatie van data is een product van de rationalistische traditie. Deze traditie is zeer sterk en berust voor een groot deel op de scheiding van het denkende subject en het gekende object. Volgens deze traditie kan men dus 1
het object los zien van zijn context. De rationele oriëntatie werkt als volgt :
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
1 van 36
1
Beschrijf de situatie in termen van objecten met goed beschreven eigenschappen.
2
Zoek algemene regels die geldig zijn voor de gekozen objecten en eigenschappen.
3
Pas de regels op een logische wijze toe op de gegeven situatie en trek conclusies over wat er gedaan moet worden.
Het hele ontwerp van een informatiesysteem berust op de aanname dat er gewerkt wordt met een eenduidige representatie van de objecten. Bovendien kan manipulatie van data in een computer uitsluitend plaatsvinden volgens de logica die aan een computer eigen is. In computerbestanden wordt een datum beschouwd als een object representatie die tot zijn essentie is teruggebracht. Deze datum is opgeslagen en zal over het algemeen slechts één aspect in zich herbergen, maar welke dat is, is meestal niet meer zichtbaar. Daar waar bijvoorbeeld een tekst nog de mogelijkheid heeft om tot een vorm van een dialoog te komen (het object kan beschreven worden in een bepaalde context zodat het bedoelde aspect duidelijk is), is dit bij data uit een computersysteem nooit het geval. Dit probleem zal behandeld worden in het derde hoofdstuk. Het tweede probleem betreft een praktisch probleem. De vraag is of de data die vanuit de computer komt in dezelfde context geïnterpreteerd wordt als toen de data werd gevormd. Met de context wordt hier bedoeld het zogenaamde aspect van het gegeven. Zo kan ik met het woord 'water' de chemische samenstelling H2O bedoelen zoals in de zin 'voor het oplossen van deze stof wordt water gebruikt'. Maar men kan ook water bedoelen waarbij gedoeld wordt op het aspect van dorstlessend zoals in de zin 'ik wil graag water drinken'. Deze aspecten kan je niet zomaar onderling uitwisselen. Bij de vraag 'Is er water in de koelkast?' kan ik bedoelen of er waterdruppels zijn, bijvoorbeeld omdat ik op zoek ben naar een lek. In dat geval bedoel ik dan geen fles met water. Bij deze wisseling van wat ik bedoel en wat iets kan zijn kunnen dan ook praktische problemen ontstaan. Dit probleem zal in hoofdstuk vier besproken worden. Een derde probleem wordt gevormd door het aggregatieprobleem. Bij het gebruik van computersystemen bij management vraagstukken wordt veelal gebruik gemaakt van geaggregeerde gegevens. Wat gaat er bij een aggregatie verloren en welke status kunnen wij geven aan het eindresultaat? Dit probleem zal aan de hand van de begrippen 'data' en 'gegeven' verder uitgewerkt worden in het vijfde hoofdstuk. Een laatste probleem dat wordt behandeld is de vraag naar de verantwoordelijkheden van de ontwerper van een informatiesysteem en de verantwoordelijkheden van de gebruiker van dit systeem. Hoe worden datamodellen gemaakt en hoe werken computers? Dit probleem zal verder uitgewerkt worden in het zesde hoofdstuk. Wat bij al deze problemen een belangrijke rol speelt, is de vraag hoe gegevens, data, informatie en 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
2 van 36
kennis zich tot elkaar verhouden en welke rol dit speelt bij het sturen van organisaties, met name indien men gebruik maakt van computers die deze sturing ondersteunen. De begrippen / termen 'gegevens', 'data', 'informatie' en 'kennis' zullen in het tweede hoofdstuk nader toegelicht worden. In hoofdstuk zeven zal de menselijke kennis en kennisverwerving vergeleken worden met de kennis en kennisverwerving bij een computer. Hierbij zal ook duidelijk worden op welke gebieden de kracht van informatiesystemen ligt. Het laatste hoofdstuk zal bestaan uit een samenvatting en conclusie met betrekking tot de behandelde onderwerpen. Het doel van deze scriptie is om de risico's van de ogenschijnlijke probleemloze inzet van informatiesystemen in organisaties en het klakkeloos aanvaarden van de data die men hieruit kan halen te verduidelijken.
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
3 van 36
2 Definities In dit werkstuk spelen een aantal begrippen een centrale rol. Dit is de rede om hier een apart hoofdstuk aan te wijden. Het gaat om de begrippen gegevens, data, informatie en kennis. In dit hoofdstuk zullen de begrippen gedefinieerd worden en op hun onderlinge samenhang worden getoetst. In de rest van de scriptie zal men altijd de hier geformuleerde definities moeten gebruiken. Dit kan soms wat verwarrend zijn omdat vooral het verschil tussen 'data' en 'gegeven' in de normale spreektaal door elkaar gebruikt of meestal alleen met de term 'gegeven' wordt gebruikt. Toch is er een verschil tussen die twee, en ondanks het feit dat de tekst hierdoor wat lastiger te lezen is heb ik er toch voor gekozen om deze scheiding strikt aan te blijven houden. Gegeven: Een verschijnsel dat via een of meerdere zintuigen bewust kan worden waargenomen. Als voorbeeld wil ik nemen de zonsopgang. Zowel voor iemand die de aarde als middelpunt ziet, als voor iemand die de zon als middelpunt ziet, zien beide dezelfde verschijnselen (zelfde gegevens) maar kunnen tot verschillende informatie komen. Datum (data): gegeven dat via een of meerdere symbolen gerepresenteerd en overgedragen wordt. Deze definitie is opgenomen omdat, volgens de definitie van 'gegeven', wij niet kunnen spreken van gegevens in bijvoorbeeld een computersysteem of meetsysteem, of bij het gebruik van taal. Het meetsysteem, computersysteem of de taal is ooit ontworpen vanuit een bepaalde theorie. Datum (data) is dan ook van een iets andere orde dan een 'gegeven'. Bij gegevens hebben wij te maken met een waargenomen verschijnsel, terwijl wij bij data moeten denken aan de poging om gegevens over te dragen. Bij deze overdracht van data is er dus geen directe eigen waarneming van het gegeven. We kunnen hier bijvoorbeeld denken aan een temperatuurmeter. Als de wijzer de 18 aanwijst dan zeggen wij dat de temperatuur 18 graden is. Dat wat wij waarnemen is 'kou' of 'warmte'. Door het meetinstrument hebben wij de temperatuur een symbool (getal) gegeven. Hoe wij dit waarnemen ligt echter allerminst vast. Als wij van iemand horen dat het op een ander plaats 18 graden is dan kunnen wij hooguit voorstellen of het dan warm of koud is. Er is dan ook een verschil tussen de beleving en de meting (het aantal graden). Wat wij doorgaans doen is onze ideeën toetsen door middel van vragen en gesprekken voeren met degene die ons de data geeft. Wij proberen de aangereikte data te interpreteren en maken er op die manier informatie van. Informatie: data of gegevens die geïnterpreteerd worden met het oog op het kunnen wegnemen van onzekerheid. Uit deze definitie blijkt dat informatie niet voor iedere persoon hetzelfde hoeft te zijn. Personen kunnen op grond van dezelfde gegevens tot verschillende informatie komen. Informatie is ten diepste subjectief. Als men informatie wil overdragen dan doet men dit om het eigen denkbeeld over te dragen op de ander. Informatie kan men dan ook beschouwen als een soort van beeldbeïnvloeding. Deze 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
4 van 36
beïnvloeding kan alleen plaatsvinden door gebruik te maken van data die redelijk herkenbaar is voor de ontvanger. Afhankelijk van mijn intentie kan ik de ander alleen die data aanbieden met een voor mij gunstig resultaat. Dit wordt onder andere veelvuldig toegepast in de politiek. Als men echter teveel afwijkt van het beeld dat de ander heeft, dan zal deze de bedoelde informatie niet kunnen of willen begrijpen. De data zal dan namelijk niet de onzekerheid wegnemen, maar juist doen toenemen. Hierbij zal de data niet omgezet worden tot informatie. Kennis: (oude) informatie die via een geheugen herinnerd en op betrouwbaarheid getoetst wordt in een nieuwe situatie. Deze definitie heeft ook tot gevolg dat er geen waarde-oordeel aan kennis zit. Kennis is niet waar of onwaar in zijn algemeenheid, maar waar of onwaar voor het individu. Kennis kan men wel beschouwen als betrouwbaar gebleken informatie. Vanwege dit feit hoeft 'kennis' dus niet gelijk te zijn aan 'informatie'. Informatie op zich heeft nog niet de status dat het ook betrouwbaar is. Dit is wel het geval bij kennis. (Kennisverwerving heeft wel met 'informatie' te maken).
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
5 van 36
3 Kennis en de waarde ervan. Hoe kom je er aan? 3.1 Inleiding In dit hoofdstuk wordt dieper ingaan op de manier waarop wij tot kennis komen, de kennisverwerving. Kennis wordt hier gedefinieerd als informatie die via een geheugen herinnerd en op betrouwbaarheid getoetst wordt in een nieuwe situatie. De kennisverwerving vindt echter plaats door middel van het interpreteren van gegevens en het combineren hiervan met bestaande kennis. Dit combineren met bestaande kennis is vooral een activiteit in ons streven om een consistent wereldbeeld te vormen. Wij proberen de wereld om ons heen te begrijpen en wij zullen dan ook proberen om ons een beeld te vormen van de wereld om ons heen. In de filosofie is 'kennis' en 'kennisverwerving' al eeuwenlang een gebied van onderzoek. Er zijn dan ook verschillende ideeën over het verkrijgen van kennis. Computers gebruiken ook een soort van 'kennis', meestal in de vorm van programma's in combinatie met databestanden en/of geheugen. Deze kennisrepresentatie in computers vindt op een aantal manieren plaats. In dit hoofdstuk wil ik duidelijk maken dat de kennis (representatie) die computers hebben van een andere orde is dan de kennis (en vooral het komen tot kennis) die door mensen wordt gebruikt. Bij een computer zal geen toetsing op betrouwbaarheid plaatsvinden. Bij een computer ligt de kennis vast en is die onveranderlijk. Om dit toe te lichten zal er eerst gekeken worden naar de vormen van kennis die er zijn. Hierna zal er gekeken worden hoe deze kennis verkregen wordt bij de mens en bij computers.
3.2 Wat is kennis en hoe verwerven we die? Voordat we kunnen komen tot de vraag hoe men tot kennis kan komen, is het belangrijk om te weten wat kennis nu eigenlijk is. Kennis is overigens iets anders dan intelligentie. Bij intelligentie ligt de nadruk vooral op de vaardigheid om problemen op te kunnen lossen en het kunnen toepassen van dat wat men geleerd heeft. Bij kennisverwerving ligt de nadruk echter op waarneming, bewustzijn, herinneringen en oordeelsvorming. Zoals in de inleiding reeds vermeld wordt onder kennis verstaan: Kennis: (oude) informatie die via een geheugen herinnerd en op betrouwbaarheid getoetst wordt in een nieuwe situatie. De waarde van kennis (de waarheid die men aan zijn eigen kennis geeft) moet men kunnen verifiëren. Dit zoeken naar waarde vindt meestal plaats doordat men zijn kennis aan anderen toetst, of dat men iets leest van iemand waarvan de schrijver als autoriteit geldt. Zo zal men aan een artikel van Einstein meer waarde toeschrijven dan aan een artikel van een onbekende. Zoals eerder opgemerkt, streeft de 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
6 van 36
mens naar een consistent wereldbeeld. Kennis die betrouwbaar is gebleken speelt echter geen passieve rol. Zij zorgt ervoor dat er een fixatie gaat optreden. Beelden die tegen deze fixatie in gaan 2
worden niet of nauwelijks meer 'waargenomen' tenzij men hier de aandacht op vestigt. Deze beeldconsistentie kan zelfs reconstructie tot gevolg hebben. Hierbij worden niet complete beelden opgevuld met voorstellingen die aan andere situaties zijn ontleend. Hieruit volgt dat de wereld om ons heen niet zozeer een objectief gegeven is, maar door ons wordt geconstrueerd. Een gevolg hiervan is dat onze kennis niet statisch is, maar dynamisch. Dit beeld is relatief nieuw en gaat ook tegen onze natuurlijke houding in. Onze natuurlijke houding is dat de wereld gegeven is en wij de objecten waarnemen met onze zintuigen. Dat de objecten zijn zoals wij ze waarnemen is echter zeer de vraag. Voordat ik hier verder op in wordt gegaan zal eerst gekeken 3
worden naar de drie vormen van kennis die ons bekend zijn . Deze vormen van kennis zijn: -
Empirische kennis: Deze kennis heeft betrekking op ervaringsgegevens van zintuiglijke aard en op de voorwaarden en veronderstellingen van die kennis. Empirische kennis is dus niet alleen de pure waarneming, maar ook factoren als culturele normen en waarden spelen mee. In dit verband zou ik als voorbeeld willen noemen hoe een vliegtuig waargenomen wordt. Voor iemand die bekend is met vliegtuigen zal een vliegtuig gewoon als vliegtuig worden waargenomen. Iemand die echter nog nooit een vliegtuig heeft gezien en er ook nog nooit van gehoord heeft zal een vliegtuig op een totaal andere manier waarnemen. Hij zal proberen het verschijnsel te verklaren in termen die hem wel bekend voorkomen. Zo zal er waarschijnlijk gedacht worden aan een glimmende vogel die zeer groot is en veel lawaai maakt. Een ander voorbeeld dat meer verband houdt met dit werkstuk wordt gevormd door de informatietechnologie. Een programmeur zal heel anders naar een computer kijken dan een gebruiker. De programmeur zal bijvoorbeeld eerder geneigd zijn om een computer te zien in termen van programma instructies en logische eenheden daar deze hem bekend zijn. Een gebruiker die deze kennis niet bezit zal veel meer geneigd zal zijn om een computer te zien als verlengstuk van zijn kennis. De werking ervan zal verklaard worden in termen die hem bekend zijn. Bovendien leeft vaak de gedachte dat wat in de computer staat 'de waarheid' is omdat er uit ervaring is gebleken dat de computer het blijkbaar altijd bij het rechte eind heeft. Dit idee wordt nog versterkt door de waarde die het management hecht aan de output (rapportage) uit een computer.
-
Formele kennis: Deze vorm van kennis is niet rechtstreeks aan de zintuiglijke ervaring gekoppeld. Je kan hier vooral denken aan de logica en de wiskunde. Zo kan men prima berekenen op wat voor hoogte men zich bevindt indien men de luchtdruk kent. Dit is dus kennis die uitgaat van wetmatigheden. Doordat deze wetmatigheden vaak situaties kunnen verklaren is deze vorm van kennis voor ons betrouwbaar gebleken en passen wij deze wetmatigheden toe om zo een
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
7 van 36
consistent wereldbeeld te verkrijgen. Deze vorm van kennis speelt een zeer belangrijke rol in de wetenschappen en heeft sinds het einde van de middeleeuwen ook een grote vlucht genomen. Het zal ons niet verbazen dat deze wetmatigheden een zeer grote rol hebben gespeeld bij de ontwikkeling van computers. De eerste computers waren machines waarin een aantal rekenregels van de wiskunde zaten en, ondanks alle ontwikkelingen die er zijn geweest, zijn deze basisprincipes ook in de huidige computer niet veranderd. Deze basisregels vormen nog steeds de kern van de meest complexe zaken die men met behulp van computers uitwerkt. -
Waardekennis: Deze vorm van kennis heeft betrekking op het gevoelsmatige aspect. Hier vallen ook normen en waarden onder. Hierbij spelen dan ook factoren zoals onder andere de culturele achtergrond een belangrijke rol. Met betrekking tot dit werkstuk zal deze vorm van kennis niet verder worden uitgewerkt. Zoals reeds eerder is opgemerkt zal het waardeoordeel dat men geeft aan computers wel een rol spelen in dit werkstuk.
3.3 Hoe komt de mens tot kennis en in hoeverre is dat de waarheid? In deze paragraaf zal er dieper ingegaan worden op het verkrijgen van kennis bij de mens. Zoals uit de definitie is gebleken is bij kennis vooral het toetsingskarakter van belang. De vraag hoe we tot kennis komen heeft dan ook sterk te maken met hoe wij informatie en data toetsen. De premisse hierbij is dat getoetste informatie (kennis) die herhaaldelijk juist is gebleken ook ware kennis is. We zullen zien dat bij de ontwikkeling van kennis juist dit element ons constant noopt tot andere richtingen. Indien de 'verklaarde' kennis in twijfel wordt gebracht door verschijnselen die hiermee niet te verklaren vallen zien wij dat er een nieuwe vorm van kennis ontstaat. We beginnen hierbij met de empirische kennis. Zoals hierboven genoemd is, speelt de zintuiglijke ervaring een zeer belangrijke rol. Een vraag die hierbij direct om de hoek komt kijken is het subjectieve karakter van de waarneming. In de filosofie is Descartes de eerste die grote vraagtekens zet bij de empirische kennis. Zijn twijfel heeft niet alleen betrekking op de zintuiglijke waarneming, maar ook op de traditie (alles wat is aangeleerd en overgeleverd is). Na deze twijfel komt hij tot zijn beroemde cogito, ergo sum (ik denk 4
dus ik ben) . Wat hier ontstaat zijn intuïtieve zekerheden. Wat hierbij belangrijk is, is de splitsing die ontstaat tussen een ken-object en een denk-subject. Een groot probleem hierbij vormt de verhouding tussen het 'vrije' subject (het denk-subject, de mens) en het (beheerste) ken-object. Hoe kan men nou toetsen op grond van intuïtieve zekerheden, waar komen die vandaan? Het antwoord was dat de mens anders was dan al het andere daar hij over de rede beschikt. Deze rede maakt het ook mogelijk om kennis te hebben zonder een directe ervaring, kortom, de kennis is aangeboren. Voorbeelden hiervan zijn de logica en de wiskunde (de formele kennis). Toch blijft het vreemd hoe de verhouding mogelijk is van het subject (de mens) en het ken-object. De oplossing werd door de 17de eeuwse filosofen vooral gezocht door het inroepen van de hulp van God 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
8 van 36
om de ontstane leemte op te vullen. Bij Leibniz is een oplossing gevonden door het invoeren van een 'monaden' theorie. Een monade is het in zichzelf besloten, doelgerichte kracht en belevingscentrum 5
dat in elk der dingen werkzaam is . Om tot kennis te komen is het belangrijk om het doel te kennen (teleologische verklaring). Hierbij laten alle bewegingsprocessen zich verklaren vanuit een innerlijk nagestreefd doel. Het probleem hierbij is dat deze individuele bewegingsprocessen toch schijnbaar op elkaar inwerken. Leibniz verklaart dit op grond van de harmonia praestabilita (=tevoren vastgestelde harmonie) die is ingebouwd door God. Onze kennis kunnen we dan ook toetsen aan het doel. Kent men het doel, dan heeft men 'ware' kennis. Een tegenbeweging op deze exacte werkelijkheid verklaring wordt gevormd door de 'Aufklärung' of 'Verlichting'. Hierbij is de kennisverklaring door de bemoeienissen van een God niet meer geloofwaardig. In deze tijd is het Locke die de volgende vraag stelt: Hoe ontstaat kennis eigenlijk in de menselijke geest? Voor hem zijn er geen aangeboren voorstellingen zoals bij Descartes. De kennis ontstaat aan de ervaring van objecten die een afdruk in het bewustzijn achterlaten. Het gaat hierbij om de empirische kennis. Bij Locke zijn er wel twee kwaliteiten van kennis: De primaire kwaliteit is objectief waar te nemen. Zij kunnen gemeten worden en door iedereen worden geconstateerd. De primaire kwaliteiten worden getoetst door middel van meting. De secundaire kwaliteiten zijn subjectief. Te denken valt hierbij aan bijvoorbeeld smaak. Deze is subjectief, hoewel er ook primaire kwaliteiten in te onderscheiden moeten zijn die er voor zorgt dat de indruk van bijvoorbeeld de smaak wordt opgeroepen. De zekerheid van de kennis wordt ook hier, evenals bij Descartes, gelegd in de subject-object relatie. Hoewel de mens geen aangeboren kennis heeft, bezit hij in ieder geval het vermogen om tot kennis te komen. Kennis wordt hierbij dan gelijk gesteld aan ervaring. Dat wat wij herhaaldelijk waarnemen wordt kennis. Deze afzwakking van het empirisme wordt bekritiseerd door Hume. Volgens hem dient er een onderscheid te zijn in de indrukken en voorstellingen in het proces van kennisvorming. Alle redeneringen met betrekking tot standen van zaken lijken gebaseerd te zijn op de relatie oorzaak en 6
gevolg . Deze kennis is nooit verkregen door middel van redeneringen a priori, maar enkel en uitsluitend ontspringt aan de ervaring wanneer we opmerken dat specifieke objecten altijd gezamenlijk voorkomen. Zonder ervaring is het niet mogelijk om enige conclusie te trekken omtrent een stand van zaken. In de voorstelling van Hume heeft kennis dus te maken met geheugen en met het herkennen van situaties. De kennis ontstaat dan ook door het herhaaldelijke karakter dat ons opvalt. Dit scepticisme geeft ons niet het vertrouwen waarnaar wij op zoek zijn zodat er naar andere verklaringen wordt gezocht. In de jaren daarop komt Kant met een nog wezenlijker vraag: wat is de structuur van de kennis eigenlijk ? Hoe is kennis überhaupt mogelijk? Het sceptische van Hume is voor Kant slechts een doorgangsfase naar de 'kritische' filosofie (hiermee bedoelt hij zelfkritiek). Kants kritische filosofie keert zich tegen dogmatisme (de filosofie die zonder nader onderzoek ervan uitgaat dat de theoretische rede in staat is zich boven de ervaring uit te heffen) en tegen het scepticisme ( de filosofie die 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
9 van 36
alle dogmatische en metafysische denkconstructies afbreekt en de theoretische rede onderuit haalt maar in het negatieve blijft steken). Voor Kant is de kritische filosofie die filosofie die nagaat waartoe de rede wel en niet in staat is. Ook bij Kant vangt alle kennis aan bij de zintuiglijke waarneming. In tegenstelling tot andere empiristen is bij hem het bewustzijn geen 'white paper' maar is er een tweeledige structuur. Het bewustzijn bestaat uit vorm en materie. Met vorm wordt bedoeld: de ordening van deze indrukken in bepaalde bewustzijnskaders. Deze bewustzijnskaders gaan de ervaring vooraf en noemt hij a-priorische vormen. Met materie wordt bedoeld: de chaotische hoeveelheid indrukken die de mens via zijn zintuigen binnen krijgt. Hiermee is Kant het scepticisme van Hume te boven gekomen. Een voorbeeld hiervan is de wiskunde. De stellingen van de wiskunde zijn bij Hume nooit met zekerheid uit de indrukken van de ervaring af te leiden. Bij Kant is het antwoord hierop dat je dat ook niet moet doen. De geldigheid van stellingen berust op de a-priorische structuur van het bewustzijn zelf. De algemene geldigheid en strikte noodzakelijkheid van de stellingen in de wiskunde berusten volgens Kant op de aanschouwingsvormen van ruimte en tijd, die van de natuurkunde op de verstandsvormen van causaliteit e.d. 'Ware' kennis is dan ook deze aanschouwingskennis van de bewustzijnskaders. Een volgende claim van kennis wordt gemaakt door het neopositivisme of, ook wel genoemd, het logisch positivisme. In deze stroming wordt sterk de nadruk gelegd op het baseren van kennis op de positief gegeven verschijnselen van de ervaring die vervolgens nauwkeurig in taal omgezet dienen te worden. Uitspraken zijn pas empirisch indien zij objectief-wetenschappelijk geverifieerd kunnen worden. Een gevolg van deze houding is: -
Alleen empirische (natuurwetenschappelijke) uitspraken verschaffen informatie en zijn dus zinvol.
-
Logische of analytische uitspraken herhalen zichzelf en zijn derhalve zinloos. Deze uitspraken leren ons niets nieuws en verschaffen dus geen informatie. Zo is de uitspraak dat een cirkel rond is zinloos.
-
Metafysische uitspraken verschaffen ons geen informatie daar zij geen betrekking hebben op de feitelijke waarneming. Ook verhelderen zij geen informatie, maar bieden slechts schijn-informatie. Deze uitspraken zijn voor het neopositivisme dan ook onzinnig.
In de twintigste eeuw is er een tweede sterke stroming, die van het irrationele. Kenmerken van deze stroming is dat men niet meer gelooft in de onbevooroordeelde, objectieve berekeningen van de (natuur-) wetenschappelijke rede. Indien het menselijke bewustzijn inderdaad wordt bepaald door het tijdsbestek, het sociaal milieu, of de instinctieve dieptelaag van de betrokken denker (zoals een aantal filosofen ons doen geloven), kan er dan nog sprake zijn van een autonome zelfbepaling van de rede? 7
Een filosoof als Kuhn heeft aan willen tonen dat kennis afhankelijk is van het paradigma waarin men kijkt. Een paradigma is een fundamentele theorie waaraan het hele in een vakgebied gebruikelijke begrippenapparaat is ontleend, zodat problemen slechts in die termen van die theorie geformuleerd kunnen worden. De context bepaalt in grote mate de waarneming. Deze theorie van geladenheid is al geopperd door Popper. Volgens Popper is er als eerste de theorie. Uit deze theorie wordt een 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
10 van 36
hypothese geformuleerd en vervolgens worden de feiten gezocht die deze hypothese verifiëren of falsificeren. Voor hem is er echter nog steeds wel een objectiviteit die gezocht kan worden. Kuhn gaat echter een stapje verder. Volgens hem is het maar de vraag of er sprake kan zijn van echte objectiviteit die wij volledig kunnen kennen. Vele waarnemingen kunnen pas plaatsvinden op het moment dat deze waarnemingen 'gestuurd' worden door een paradigma. Waarnemingen die niet in het paradigma passen worden dan ook niet waargenomen. Het komt er op neer dat men geen apparaten kan bouwen om iets te meten of waar te nemen als men niet weet waar naar men zoekt. De waarneming of gegeven hangt dus af van de context waarin het wordt 'gezien'. Ik wil mij zelf hierbij aansluiten. Het lijkt er sterk op dat er weliswaar objecten buiten ons zijn, maar dat de kennis die wij van die objecten hebben toch voornamelijk een constructie van onszelf zijn. Een zeer groot deel van onze kennis over de objecten wordt ons aangeleerd door middel van onderwijs, het lezen van boeken, het praten en discussiëren met anderen enz. Dat wat wij waarnemen wordt in grote mate gestuurd door wat wij al weten. Hierbij wil ik echter opmerken dat er, ondanks een geconstrueerdheid van kennis, er ook een aspect is dat niet geconstrueerd is. Door middel van dialoog, experimenten, navragen enz. toetsen wij onze kennis aan kennis van anderen. Blijkbaar is er een 'werkelijkheid' die weliswaar verschillend geïnterpreteerd wordt en van daaruit geconstrueerd wordt, maar er is nog iets. Onze kennis wordt niet alleen bepaald door (eigen) constructie maar ook door toetsing aan kennis of uitleg van anderen. In deze toetsing komt ook de geborgenheid. Niet alleen ik neem het zo waar, maar ook anderen zodat de betrouwbaarheid en zekerheid voor mij toeneemt. Een goed voorbeeld hiervan is bijvoorbeeld de kunst. Vooral bij moderne kunst geldt dat men deze zonder enige voorkennis eigenlijk niet kan begrijpen. Een groot doek met diverse strepen zal pas 'herkend' worden na uitleg of bestudering van andere kunstwerken die in dezelfde stijl zijn gemaakt. Dit geldt evenzeer voor het kind dat gezichten ziet in de wolken. Het leert om wolken als wolken te zien en zal er dan ook geen gezichten meer in zien op de manier zoals die vroeger werden gezien. In de filosofie is ook een grote twijfel ontstaan over de 'objectiviteit' van de 'werkelijkheid'. We kunnen hier filosofen als Heidegger, Gadamar en de latere Wittgenstein als voorbeeld noemen. Deze leggen de nadruk op een geconstrueerde wereld waarbij taal een belangrijke rol speelt. Wij kunnen geen objectieve kennis hebben daar wijzelf onderdeel uitmaken van het object in de vorm van de interpretatie van dit object. Het object en het subject bestaan gelijktijdig. Aangezien wij altijd van zo'n interpretatie uit moeten gaan is er geen neutraal uitgangspunt. Door middel van communicatie met anderen toetsen wij onze interpretaties met die van anderen. Op deze manier komt men tot kennis en zal er een steeds consistenter wereldbeeld ontstaan.
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
11 van 36
3.4 Wat is 'kennis' in een computer en hoe komt deze tot stand? Als we kijken naar de ontwikkeling van computersystemen dan zien we dat daarbij gebruik wordt gemaakt van een datamodel. Bij het maken van een datamodel wordt uitgegaan van een objectieve werkelijkheid die eenduidig is vast te leggen. In de vorige paragraaf is echter aangetoond dat dit uitgangspunt behoorlijk onder druk staat en een geconstrueerde werkelijkheid meer voor de hand ligt. Als we voor het modelleren uitgaan van een geconstrueerde werkelijkheid dan ontstaat hier een probleem: Wat zijn we eigenlijk aan het modelleren? We kunnen hier dan ook spreken van een 8
ontologisch probleem . Bij het ontwikkelen van informatiesystemen gaat men er vanuit dat de wereld er is, en bestaat uit concrete objecten met natuurlijke eigenschappen. Deze objecten hebben relaties tot andere objecten. De wereld bestaat dus ook zonder dat deze geïnterpreteerd wordt door mensen. De wereld wordt dus niet geconstrueerd en bestaat zonder aannames of sociale context van de mens. Als we echter rekening houden met het feit dat de interpretatie wel een rol spelen, en dat wij de objecten representeren op grond van eigen interpretatie dan heeft dit ook gevolgen voor de 'kennis' die in een computer zit. Vanuit het datamodelleren kiest men ervoor dat de wereld gegeven is en bestaat uit objecten met attributen en relaties. Symbolische interactie suggereert echter dat de wereld sociaal geconstrueerd is en dat de 'objecten' alleen maar toegankelijk zijn via een interpretatieproces. Voor datamodelling houdt dit in dat de taal van het datamodelleren moet aansluiten op de taal van zijn gebruikers. Bij datamodellering gebruikt men echter een formele taal en maakt men keuzes in de te modelleren objecten met zijn gekozen attributen en relaties. Zelfs als men in staat zou zijn om deze goed weer te geven dan zal er, na de bouw van een informatiesysteem, sprake zijn van statische kennis. De component van de (ongestructureerde) interactie met anderen om zo de eigen kennis te toetsen is na bouw niet meer mogelijk. De gestructureerde kennis in een computer is op deze manier statisch geworden. Door het datamodelleren heeft er een verstarring plaatsgevonden. De data kan alleen nog via deze statische kennis 'getoetst' worden en zal bij gebruik van het model dan ook altijd tot eenzelfde antwoord leiden. De vraag wordt dan ook wat er eigenlijk getoetst wordt. Wederzijdse toetsing door middel van dialoog is bij een computersysteem niet mogelijk. Hierbij is er een groot verschil tussen menselijke kennis en computer kennis. De menselijke geconstrueerde kennis is constant aan verandering onderhevig door middel van ongestructureerde overwegingen in de vorm van gesprekken met anderen, experimenten ter toetsing van huidige inzichten enz. Bij computerkennis is de geconstrueerde kennis niet meer aan verandering onderhevig. Toetsingen zijn een monoloog geworden waarbij de menselijke kennis zich onvoorwaardelijk moet aanpassen aan de computer kennis. Pas als de nieuwe situaties zo moeilijk te toetsen en te verklaren zijn aan de hand van de bestaande datamodellen, zal er opnieuw gemodelleerd worden en de programmatuur aangepast worden aan de dan geldige menselijke kennis. Overigens is dit ook te zien 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
12 van 36
aan de technieken waarmee databestanden worden opgeslagen. Dit waren eerst hiërarchische databases, waarbij de data in hiërarchische lagen werden gerangschikt, toen kwamen er relationele databases waarbij toegankelijkheden werden gerangschikt in de vorm van relaties en tegenwoordig zijn er object gerelateerde databases waarbij eigenschappen en relaties in een object worden vastgelegd. Omdat computersystemen het mogelijk gemaakt hebben om enorme hoeveelheden data te bewerken op steeds complexere terreinen, wordt het gevaar steeds groter dat de kennis van de computer, door de complexiteit, niet meer getoetst zal worden en zo tot kritiekloze aanvaarding zal leiden. Om met de 9
woorden van Dreyfus te spreken: 'our risk is not the advent of superintelligent computers, but of subintelligent human beings'.
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
13 van 36
4 Het probleem van de aspecten van data
4.1 Inleiding Uit de definitie van datum (data) blijkt dat hiermee een gegeven als symbool gerepresenteerd wordt. Zo is taal een voorbeeld waarmee met behulp van vele symbolen (letters, woorden en zinnen) een gegeven beschreven kan worden. Het goed representeren van een of meerdere gegevens lukt ons meestal slechts ten dele.
4.2 De omzetting van 'gegeven' naar 'datum' Indien wij een verschijnsel bewust waarnemen, dan is deze ervaring direct. Als wij bijvoorbeeld in een citroen bijten dat ervaren wij direct een aantal aspecten zoals de geur, de zure smaak, het effect op de klieren enz. Als wij vervolgens taal bezigen dan maken wij gebruik van intonatie en mimiek (de non-verbale communicatie) waarbij wij trachten het gegeven over te brengen op een ander. Zo zullen wij vertellen hoe zuur de citroen is op grond van mimiek en intonatie (zuur gezicht trekken, op een bepaalde manier 'bah' uitspreken enz). Als we vervolgens deze bevinding in schriftelijke taal moeten onderbrengen dan kunnen wij geen gebruik meer maken van de mimiek en intonatie. We zullen ons in ieder geval moeten afvragen wie het 'publiek' is aan wie we het 'gegeven' willen overbrengen. Spreekt deze dezelfde taal? Kan je gebruik maken van vakjargon? Zo kunnen wij bijvoorbeeld de smaak in een pH waarde vastleggen. Met behulp van vakjargon is de beleving die wij hebben ondergaan al nauwelijks meer te verwoorden, iets waarvoor in de gewone spreektaal nog wel mogelijkheden oor zijn door het bijvoorbeeld te beschrijven. Moeten we een gegeven via een informatiesysteem overbrengen dan hebben we nog minder mogelijkheden. Willen we goed gebruik maken van het informatiesysteem dan moeten we weten wat we geacht worden als data in te vullen en deze data dient eenduidig te zijn. Wij kunnen bijvoorbeeld de pH waarde vastleggen. Dit datum zegt dan bijna niets meer over hoe wij het gegeven hebben ervaren. Als we toch de pH waarde (een scheikundige waarde) relateren aan het belevingsaspect dan 10
is er sprake van een 'category mistake' . (Een citroen en een sinaasappel hebben bijna een gelijke pH waarde, maar dit zegt niets over hoe zuur wij de smaak vinden). 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
14 van 36
category mistake: een representatie van een mentale toestand alsof deze behoort tot een logisch type of categorie terwijl die eigenlijk tot een andere behoort. Een ander voorbeeld hiervan is 'het huis van de groenteboer', 'het huis van de familie Jansen', 'het huis van afgevaardigden'. Bij het laatste 'huis' wordt iets anders bedoeld dan bij de andere huizen. Als we proberen het huis van afgevaardigden te zoeken met behulp van kenmerken die gelden voor het huis van de groenteman en het huis van de familie Jansen, dan zullen we dat niet vinden. Als wij dan ook gebruik maken van een informatiesysteem dan moeten we niet alleen bij de invoer weten welk aspect wordt bedoeld, maar zeker ook indien wij de data van computers willen gaan gebruiken. Wat aan een computer eigen is, is dat er alleen maar met 'meetbare' eenheden wiskundige bewerkingen uitgevoerd kunnen worden. De relatie die men tot de objecten heeft, of de relaties tussen objecten kunnen alleen maar bewerkt worden indien zij 'tot formele relaties' zijn of worden gemaakt. Een voorbeeld is: Als ik via mijn computer systeem zie dat er 8 personen werken op afdeling A en dat er 9 personen werken op afdeling B. Als ik vervolgens iets met deze data iets wil doen, dan moet ik weten wat er, volgens het informatiesysteem, precies onder 'persoon' wordt verstaan. Het kan zijn dat 'persoon' een individu is met een arbeidscontract van het bedrijf. In dit geval zullen b.v. uitzendkrachten niet mee geteld zijn. Ook kan een individu op beide afdelingen werkzaam zijn zodat je de getallen niet zomaar mag optellen. Het kan ook zijn dat er bedoeld is dat met persoon 1 FTE (full time equivalent) wordt bedoeld. In dit geval kunnen er best veel meer individuen werken omdat bijvoorbeeld een aantal individuen een part-time contract heeft. Blijkbaar houdt de formele kennis geen rekening met hetgeen waarnaar het getal verwijst. Zowel het juist toepassen van een formele regel als de juistheid van de uitkomst of, beter gezegd, de interpretatie ervan, is dan ook een verantwoordelijkheid van de persoon die deze data gebruikt en interpreteert. Met dit voorbeeld is in ieder geval duidelijk gemaakt dat men moet oppassen met het kritiekloos interpreteren van data.
4.3 Wat stelt de data uit een informatiesysteem voor? Naar aanleiding van het voorgaande kunnen wij ons afvragen hoe goed het resultaat van het informatiesysteem eigenlijk is. Dit wordt door Klein en Lyytinen
11
het linguïstisch probleem genoemd.
Datamodellen moeten compleet zijn, consistent en volledig geformaliseerd om eenduidigheid te waarborgen. Het ideale datamodel geeft een formele calculus die alle vragen kan beantwoorden waarop het model betrekking heeft. Antwoorden komen vanuit de axioma's en gevolgtrekkingregels. 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
15 van 36
Datamodellen moeten ook makkelijk in het gebruik zijn, maar hier zijn echter geen procedures voor. Als realisme is voorondersteld dan worden datamodellen gebruikt voor het representeren van de werkelijkheid. Hierbij kunnen datamodellen vergeleken worden op grond van accuraatheid en compleetheid. In de praktijk blijkt echter dat onze informatie altijd gekleurd en situatiegebonden is, gebaseerd op 12
onze eigen perceptie van de werkelijkheid . Bij deze geconstrueerde werkelijkheid kan de vergelijking van datamodellen dan ook niet vergeleken worden op grond van accuraatheid en compleetheid. Bij een geconstrueerde werkelijkheid bepalen de datamodellen ook wat de realiteit is en dus kan er in dat geval geen onderliggende realiteit zijn. Het gevolg hiervan is dat het datamodel een realiteit is die gecreëerd is door de bouwer. Het is zijn idee van werkelijkheid dat gemodelleerd is. Als hierbij ook nog bedacht wordt dat de aspecten van data hier impliciet in aanwezig zijn (zie voorbeeld met personen per afdeling), dan is het voor het gebruik van het systeem noodzakelijk om in ieder geval de bedoelde aspecten voor het gebruikte model expliciet te maken. Kennis hiervan is dan ook een vereiste voor iedere gebruiker van het systeem. Deze onzichtbare impliciteit van aspecten van data speelt vooral bij computers een rol. Bij een computer is er namelijk geen dialoog mogelijk. Daar waar men bij gesprekken nog de mogelijkheid heeft om het begrepene te toetsen door middel van vragen, bij teksten door middel van de context zoals in de tekst verwoordt, is dit bij een computer niet mogelijk. Het bedoelde aspect zit impliciet verborgen in de structuur (een regel) van het datamodel. Daar waar bij de mens de context bepaald welke 'regel' wordt toegepast voor de interpretatie, wordt 13
de context door een computer bepaald door de regel (het programma) die het bezit .
4.4 De rol van het begrip 'presentatie' bij data Kijken we naar de 'presentatie' van data dan bedoelen we daarmee dat de data 'kenbaar' wordt gemaakt (weer getoond wordt). Hier is een groot verschil tussen computers en mensen. Bij een computer wordt hiermee bedoeld dat een datum weer oproepbaar is, en op een of andere manier is vastgelegd. Als men bijvoorbeeld de naam adres en woonplaats gegevens in een bestand verwerkt, dan doet men dat zodat men op een later tijdstip deze data weer kan ophalen om bijvoorbeeld etiketten te printen. Kijkt men naar de mens dan wordt er met 'presentatie' niet alleen het 'kenbare' bedoeld maar hierbij wordt ook het begrijpen van de gegevens bedoeld. Om het voorbeeld van de naam, adres en woonplaats gegevens te nemen: Men wordt geacht te begrijpen wat men met een 'naam' een 'adres' en een 'woonplaats' bedoeld. Daar waar het bij een computer om een attribuut (kenmerk) gaat, gaat het bij de mens ook om een concept (algemeen begrip van wat het is). In het algemeen wordt data niet los van zijn context gezien. Om er iets mee te kunnen doen moeten wij de data 'begrijpen'. Wij verbinden er dan ook een aspect aan. Het aspect kunnen wij echter vaak niet toetsen. Daar waar wij 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
16 van 36
in het normale leven de aspecten kunnen herkennen door de context die wordt gebruikt, of eventueel door het te toetsen d.m.v. vragen of wij het juist begrepen hebben, is dit bij data die wij krijgen uit een computer meestal niet mogelijk. Bij een computer kan de verwerking van data tot een hogere vorm alleen maar door inductieregels gedaan worden. Welke inductie regel toegepast moet worden is weer afhankelijk van het bedoelde aspect. Een computer heeft echter alleen zijn vaste programma tot zijn beschikking. Bij het gebruik van een computer werken we vaak met een bewerking van data om tot nieuwe data te komen. Wat wij te zien krijgen is alleen maar het resultaat van deze bewerking zodat toetsen, zeker bij complexe bewerkingen, er niet eenvoudiger op wordt. Een ander aspect wat hier zeer veel mee te maken heeft is het begrip 'informatie'. Bij een computer is er eigenlijk nooit sprake van 'informatie'. Het is de mens die het begrip 'informatie' inhoud geeft op het moment dat hij data uit een computer (systeem) haalt. Bij de mens is er eigenlijk altijd een koppeling tussen data enerzijds en 'informatie' anderzijds. Op het moment dat er data ontvangen wordt, is men al bezig om dit te beschouwen als gegeven en wordt geprobeerd om dit te toetsen aan de eigen kennis. Indien de data niet 'past' dan wordt de data meestal niet bewust waargenomen. Het is zeer moeilijk voor een mens om 'zinloze' data over te kunnen dragen. Denk hierbij aan bijvoorbeeld een chinees teken voor iemand die deze tekens niet kent. Het kost dan zeer veel moeite om deze data (het symbool) over te dragen. Pas als hij kennis van de chinese tekens heeft is deze overdracht mogelijk. Voor een computer is een chinees teken data, net als een romeinse letter. Blijkbaar is de mens niet of nauwelijks in staat om iets met 'losse' data (data zonder context) te kunnen doen. De context kan hij echter wel leren. Voor een computer wordt de context bepaald door het programma, en dus indirect door de datamodellering.
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
17 van 36
5 Het probleem van aggregatie.
5.1 Inleiding Kijken we naar het gebruik van computers op het hogere management niveau, dan zien we dat gebruik wordt gemaakt van geaggregeerde data. De enorme hoeveelheid data die verwerkt wordt tot geaggregeerde data zou nooit mogelijk zijn geweest zonder de inzet van computers. Deze massale vorm van data aggregatie biedt naast alle voordelen, ook nadelen. In de aggregatie gaat namelijk detail informatie verloren. Als men het heeft over hoe goed 'Jan Modaal' het wel niet heeft, dan zegt dit niets over individuen. Als het gemiddelde inkomen omhoog gaat, dan wil dat nog niet zeggen dat voor alle individuen het inkomen omhoog gaat.
5.2 Is het resultaat van geaggregeerde data geldig? Bij datamodellering gaat men er vanuit dat geldige modellen gemaakt kunnen worden door juiste observatie en data collectie methoden. De rol van de gebruiker is die van aanleveraar van de juiste data voor de input, en het testen van het opgeleverde model. Aanname is dat het model dan correspondeert met de waarheid. Houden wij rekening met het geconstrueerd zijn van kennis, dan zijn 14
er vanuit hermeneutisch inzicht drie limitaties . -
alle datamodellen zijn vooroordelen;
-
datamodellering betrekt tenminste twee horizonten van opvattingen (die van de gebruiker en die van de datamodelleerder);
-
aantal opvattingen kan niet worden bepaald in complexe organisaties.
Vanuit een hermeneutisch perspectief is er geen verschil tussen vooroordeel en inzicht. Aangezien ieder model tenminste twee horizonten verbind is er geen totale consistentie mogelijk. Kijkt men naar het gebruik van geaggregeerde data dan komt hier ten minste nog een derde horizon bij, namelijk die van de manager. Om de geaggregeerde data zinvol te kunnen interpreteren zou dan ook kennis aanwezig moeten zijn over hoe deze data tot stand is gekomen en waarop deze data betrekking heeft. De interpretatie die men aan geaggregeerde data geeft zouden nooit als enige waarheid mogen gelden, en zal getoetst moeten worden. Dit is een verantwoordelijkheid van de gebruiker die deze data interpreteert.
5.3 Het doel van geaggregeerde data
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
18 van 36
Binnen organisaties vormen de geaggregeerde data de benodigde rapportages en moeten zij voldoen aan de informatiebehoefte. In de management literatuur wordt een grote nadruk gelegd op de rapportages en informatiebehoefte van een organisatie. Data speelt, zover mij bekend, in de (management) literatuur een passieve rol. Wat ik hiermee bedoel is dat data een eenduidige voorstelling van zaken weergeven. Als men in de literatuur spreekt over de toegankelijkheid van gegevens (data), dan gaat men er vanuit dat deze gegevens (data) voor iedereen die dit opvraagt eenzelfde betekenis heeft en er wordt zelden of nooit gekeken naar de context. Wij hebben reeds in voorgaande hoofdstukken gezien dat hier een groot probleem is. Zeker bij het gebruik van geaggregeerde data is, door het verlies van detaillering en de vertaling van diverse aspecten naar meestal geldwaarden of kengetallen, een eenduidige interpretatie uitgesloten. Met behulp van computersystemen vindt aggregatie van dusdanig omvangrijke hoeveelheden brondata plaats dat bij de geaggregeerde data geen concrete verwijzing naar de werkelijkheid meer is. Een voorbeeld hiervan zijn de scenario's van het broeikas effect op het klimaat. Er bestaan vele wetenschappelijke rapporten die soms met behulp van dezelfde brondata tot totaal verschillende conclusies komen. De materie is zo complex dat er alleen nog discussies plaats kunnen vinden over hoe men tot de conclusie is gekomen. Deze communicatie brengt ons weer terug bij het probleem dat reeds in 3.1 is geconstateerd: Bij computersystemen vindt geen communicatie plaats. Er wordt een model geconstrueerd, en na die tijd is de kennis statisch vastgelegd. Het is hierbij dan ook een geluk dat er verschillende onderzoeksgroepen zijn die gebruik maken van verschillende modellen. Op deze manier vindt er weer een dialoog plaats op grond van de verschillende uitkomsten. Kijkt men naar organisaties dan zou een oplossing zijn dat managers verschillende modellen kunnen uitproberen op dezelfde datasets zodat daaruit weer een toetsing kan plaatsvinden. Gezien het feit dat de mens zelf 'feiten' produceert zijn deze 'feiten' ook afhankelijk van het conceptuele kader waarin men denkt. Het systeem zou dan ook niet alleen in staat moeten zijn om met verschillende modellen te werken, maar ook met verschillende conceptuele kaders. Vanuit de huidige technieken is dit onmogelijk daar het datamodel zelf vanuit een conceptueel kader is ontworpen en bij de gratie van dit kader bestaat. De gebruiker moet zich dan ook kunnen verantwoorden op grond waarvan bepaalde conclusies zijn getrokken en kan zich niet verschuilen onder het mom dat 'de computer' dit aangeeft.
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
19 van 36
6 De constructie van datamodellen en de werking van computers
6.1 Inleiding In dit hoofdstuk zal nader ingegaan worden hoe datamodellen tot stand komen, en de manier waarop een computersysteem gegevens verwerkt/bewerkt. De bewerking en verwerking van gegevens worden gedaan op grond van een datamodel wat er aan vooraf gaat. Eerst zal er dieper op ingegaan worden hoe datamodellen tot stand komen en wat zij tot gevolgen hebben voor het informatiesysteem als geheel. We zullen zien dat de ontwikkeling van datamodellen niet zo onproblematisch is als doorgaans wordt aangenomen. Hierna zullen we naar een aantal verschillende computersystemen kijken en hoe in deze systemen de datamodellen en de 'kennis' gebruikt worden.
6.2 Het modelleren van een informatiesysteem Voordat een computer iets kan doen zal er een programma geschreven moeten worden om de computer te laten werken. Alvorens men een programma gaat schrijven wordt eerst een model gemaakt van de omgeving die men in het informatiesysteem wil opnemen. Dat dit modelleren niet zonder problemen gaat is reeds voor een groot deel in de voorgaande hoofdstukken duidelijk 15
geworden. Naast de reeds genoemde problemen is er bij Klein en Lyytinen ook nog het sociologische probleem: Wat is de sociale context van datamodelleren? Deze vraag wordt als onproblematisch beschouwt. Er worden echter drie aannames gedaan: -
organisatie processen zijn georiënteerd op de stabiliteit en de orde die er is in een organisatie.
-
datamodellen helpen de doelstellingen van een organisatie d.m.v. effectiviteit en efficiency.
-
politiek in een organisatie is consistent en goed gedefinieerd.
De sociale context bij datamodelleren is dat data wordt opgeslagen voor actie en het geven van een bedoeling. Hierbij zorgt het voor politieke ondersteuning. Datamodellering definieert en herdefinieert het institutionele kader waarbinnen politiek wordt bedreven. Het is dan ook een politieke activiteit die betrekking heeft op verschillende groepen. Bij iedere uitwisseling van informatie met behulp van data zal dan ook altijd de eigen perceptie van de werkelijkheid een rol spelen. Dit is dan ook de rede dat er geen enkele organisatie er ooit in is 16
geslaagd om een corporate data model te maken . Dit model zou een volledig objectieve beschrijving van de werkelijkheid weer moeten geven.
6.3 Traditionele computers en informatie technologie (IT) 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
20 van 36
Bij traditioneel gebruik van computers stond altijd de efficiëntie van (productie)processen centraal. Wat later vond er ook automatisering plaats van eenvoudige grootschalige processen. We kunnen hierbij bijvoorbeeld denken aan het geautomatiseerd laten verwerken van bankoverschrijvingen, een eenvoudig en voortdurend herhalend proces. Eind jaren 60, begin jaren 70 ontstond er een ontwikkeling van meer universele toepassingen. De komst van de microcomputer (PC) in 1980 had een grote invloed op de inzet van computers en informatie technologie. Vanaf deze tijd konden computers ook ingezet worden op andere terreinen dan het automatiseren van eenvoudige grootschalige processen. Uit deze tijd stammen ook de eerste tekstverwerkers, spreadsheet programma's (rekenbladen) en database programma's (voor het beheren van data). Kijken we naar de datamodellering dan is deze in het begin recht toe recht aan. Er is duidelijk wat het proces is dat geautomatiseerd moet worden, en wat dit proces moet opleveren, de zogenaamde output. Wat hierbij voorop staat is het doel van het proces. Een reflexie op de wijze waarop het proces tot stand kan komen speelt hierbij slechts een kleine rol. Met de komst van spreadsheet programma's en met name databases komen er meer mogelijkheden om te kijken naar het hoe van de processen. Vanaf dit moment komen er ook politieke overweging, immers hoe men de organisatie wil sturen raakt meerdere belangen van het management. Vanaf die tijd is het mogelijk geworden om bijvoorbeeld modellen te maken en zo te kijken hoe processen uitgevoerd kunnen worden. Naarmate de databases ingewikkelder worden neemt het belang van datamodelleren toe en de eenduidige inzichtelijkheid af. Een andere verschuiving die gaat plaatsvinden is dat men gaat werken met gegevens waarbij men nog niet, of nog niet precies, weet wat men er mee gaat doen. Daar waar het eerst om gegevensvastlegging ging met betrekking tot het proces zelf, gaat men nu deze gegevens ook op andere gebieden gebruiken. Gegevens worden omgezet in data en worden volgens een bepaalde manier opgeslagen die door het datamodelleren tot stand is gekomen. In tegenstelling tot de automatisering van processen is het uiteindelijke gebruik van de data niet meer eenduidig bepaald. Daar waar eerst de data direct van toepassing was op het proces, daar gaat men nu de data gebruiken op andere terreinen. Zo gaat men de data bijvoorbeeld aggregeren en omzetten naar financiële cijfers. Vervolgens worden deze data gebruikt om de besluitvorming te ondersteunen. Hoe en welke data men gaat gebruiken staat niet altijd meer bij voorbaat vast en bij het datamodelleren kan men hier dan ook niet of nauwelijks rekening mee houden.
6.4 Decision supporting systems (DSS) 17
Definitie van een DSS volgens Keen en Scott-Morton : DSS koppelen intelligentie van individu aan de capaciteiten van een computer om de kwaliteit van de besluitvorming te verbeteren. 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
21 van 36
Een gevolg van deze definitie is overigens wel dat er geen 'waarheid' in besloten ligt. Dat wat er met een DSS wordt gedaan hangt af van het individu dat het systeem gebruikt. De kwaliteit van het model bepaald hier de betrouwbaarheid van de uitkomst. Zoals we reeds eerder hebben gezien berust de datamodellering op een aantal aannames. Bij het ontwikkelen van modellen gebruikt men de volgende (logische) benadering: -
Classificeren van probleem om te structureren
-
Analyse van de karakteristieken van delen van het probleem
-
Regels voor het kiezen van elementen uit een categorie om efficiënte zoekstrategie te ontwikkelen
-
Regels voor juiste selecties
-
Objectieve functie om bij iedere stap de oplossing te testen.
Een andere veel gebruikte methode is de methode van simulaties. Simulaties imiteren en beschrijven het probleem. Men hoeft dus niet naar bestaande oplossingen te zoeken maar men experimenteert er mee. Overigens gebruikt men simulaties meestal alleen in complexe situaties vanwege de hoge kosten. Voor zowel het gebruik van modellen als het maken van simulaties is het vereist dat men een zeer goed inzicht heeft in het probleem. Wat men in beide gevallen gebruikt zijn data die wordt verzameld. De keuze van data speelt een zeer belangrijke rol want ze bepalen voor een groot deel de kwaliteit van de uitkomst. Het probleem met data is dat deze data, zeker in de huidige tijd, ook weer uit systemen komt die meestal een heel ander doel ondersteunen. Een probleem hierbij is dat de beslisser meestal niet weet op grond van welke definities de data is vastgelegd en wat de datamodellen zijn die hier achter liggen. Hierdoor is het mogelijk dat men tot een verkeerde besluitvorming komt. Het toetsen en achterhalen van de achterliggende datamodellen is dan ook een gezamenlijke taak voor zowel de ontwikkelaar als de persoon voor wie deze modellen en simulaties worden ontwikkeld.
6.5 Expert systemen (ES) Expert systemen (ES) zijn systemen die in staat zijn een expert te vervangen. In het systeem zit kennis van een expert met als doel om problemen op te kunnen lossen daar waar normaal een menselijke expert nodig is. Deze systemen zijn ontwikkeld vanaf het midden van de zestiger jaren. De kracht van een ES komt uit de specifieke kennis die aanwezig is in het systeem. Deze specifieke kennis wordt in het systeem gebracht in wat men noemt een 'knowledge base'. Er zijn twee typen van kennis: feiten en procedures (of regels). De meeste expert systemen werken op grond van regels: ALS x en y DAN z. Deze formele regels vallen binnen het domein van computers die hier dan ook zeer goed mee om kan gaan. Wat voor alle expert systemen geldt is dat zij redeneren volgens regels die zijn geprogrammeerd en dat de kennis zich niet uitbreidt zonder hulp van buitenaf. Het systeem is dan ook niet in staat om zich 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
22 van 36
aan te passen aan een nieuwe omgeving en een ES is ook niet in staat om te leren. Een ES is niet in staat om een context anders te zien dan in het eigen (beperkte) gebied. Bovendien kan niemand garanderen dat alle relevante data in de knowledge base van het ES aanwezig is. Dit vereist dan ook dat de gebruiker van een ES hiervan goed op de hoogte is en zodoende de beperkingen van het ES kan inschatten.
6.6 Artificiële neurale netwerken (ANN) De neurale netwerken zijn ontstaan vanuit de theorie van de werking van het brein. De technologie die hierbij gebruikt wordt heet neural computing, oftewel een neuraal netwerk. Met name de kennis die wij hebben over de werking van neuronen en hun connecties en interactie met andere neuronen vormen de basis van neurale netwerken. Voor computers die volgens dit model werken houdt dit het volgende in: 1
een gelijktijdige verwerking (parallel processing) van verschillende data.
2
het snel kunnen ophalen van grote hoeveelheden informatie.
3 patroon herkenning. Vanuit een technisch oogpunt bestaat een neuraal netwerk uit verschillende lagen. Alle lagen bestaan uit een verzameling van verwerkingseenheden (nodes). Minimaal zijn dit: -
De input laag: hierin komt (verschillende) input van 'buiten af'. Dit is altijd een numerieke waarde die een bepaald kenmerk voorstelt. Deze input wordt verwerkt door deze laag en geeft een output naar een of meerdere nodes in de volgende laag.
-
De 'hidden' layer: Deze laag krijgt indirecte input. De input is namelijk de output van de vorige laag en wordt niet verkregen vanuit de 'omgeving'. Ook deze laag verwerkt de input en geeft een output naar een of meerder nodes in de volgende laag.
-
De output laag: Deze laag geeft een oplossing voor het probleem. Deze laag berekent de input van de voorgaande laag en komt met een eindwaarde als output. Deze eindwaarde geeft de oplossing (bijvoorbeeld 'Ja' of 'Nee').
Het doel van het netwerk is dus het berekenen van de oplossing. Om deze berekening mogelijk te maken wordt voor iedere input een 'gewicht' berekend. Dit 'gewicht' bepaalt hoe zwaar de input mee wordt gerekend voor de output. Tijdens het leerproces van een neuraal netwerk worden deze 'gewichten' voortdurend bijgesteld door het netwerk zelf om tot een juiste output te komen. Tijdens het leerproces wordt ook een output berekend. Deze output wordt vergeleken met de gewenste output. Hierna worden de 'gewichten' bijgesteld en vindt er opnieuw een berekening plaats. In de periode dat het neurale netwerk in zijn 'leerperiode' zit is dus bekend wat de output moet zijn. In tegenstelling tot de voorgaande systemen maken neurale netwerken geen gebruik van een 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
23 van 36
datamodel. Het datamodel wordt min of meer gevormd tijdens een leerperiode. Met name voor patroonherkenning is met neurale netwerken veel succes geboekt. De werking van een neuraal netwerk berust ook hier op toepassing van de wiskundige wetten en is werkzaam binnen een bepaald gebied. Tijdens de leerperiode zijn de patronen die herkend moeten worden eindig in aantal. De keuze van de patronen en de juiste interpretatie worden in eerste instantie door de mens bepaald. Ook hier geldt dus dat de kennis als statisch beschouwd wordt, en na de leertijd zal er dus niet vanzelf meer een verandering komen.
6.7 conclusie We kunnen concluderen dat in de AI enorme vooruitgang is geboekt op het gebied van 'intelligente' software. Toch zien we dat deze systemen alleen gebruikt kunnen worden op een klein terrein. De context van de data en de daarmee ingebrachte kennis is altijd gegeven in de programma's waarmee de systemen werken. Kent men de opgeslagen 'kennis' waaraan getoetst gaat worden dan kent men de mogelijke antwoorden. Het kenmerk van deze kennis is dat die, in tegenstelling tot kennis bij de mens, een statisch karakter heeft. De gebruiker zal zich dan ook ten alle tijden moeten kunnen verantwoorden waarom hij of zij tot een bepaalde conclusie is gekomen. Het computersysteem kan hierbij als 'ondersteunend' dienen, maar nooit 'leidend'.
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
24 van 36
7 Een confrontatie tussen menselijke kennis en computerkennis
7.1 Inleiding
In het derde hoofdstuk hebben we uitvoerig gekeken naar wat kennis nu eigenlijk is. Zoals we gezien hadden bestonden er drie te onderscheiden vormen van kennis. Na lezing van het hoofdstuk kunnen we constateren dat een computer eigenlijk maar één component van kennis bezit, en dat is de formele kennis. Hiermee hebben we dan een verschil te pakken tussen de menselijke kennis en de zogenaamde computerkennis. Deze ene vorm van kennis wordt echter wel veel beter door een computer gedaan, dan door de mens. Een tweede verschil hebben we gezien in het karakter van de kennis. Bij een computer is deze kennis statisch en onveranderlijk, terwijl de kennis bij de mens dynamisch is en onder invloed van zijn omgeving kan veranderen. Als we kijken naar de inzet van computers in bedrijven dan zien we, grofweg gezien, twee gebieden. Het eerste gebied is de inzet van computers bij de automatisering van processen. Het tweede gebied is pas later ontstaan en heeft betrekking op de informatisering van processen. Daar dit van wezenlijk belang is voor beantwoording van de vraagstelling zal hier eerst nog nader op ingegaan worden.
7.2 Automatiseren en informatiseren van bedrijfsprocessen In de begintijd van de computer wordt deze vooral ingezet om eenvoudige processen te automatiseren. De nadruk ligt hierbij op het sneller en efficiënter maken van arbeidsintensieve processen. Het eentonige en eenvoudige werk wordt geautomatiseerd. Aangezien de computer sterk in formele kennis is zien we dan ook veel succes op dit terrein. Processen worden in kaart gebracht en opgedeeld in kleine en eenduidige taken die door een computer zijn uit te voeren. Naarmate de computers krachtiger en goedkoper worden kunnen er steeds meer processen volgens deze methode geautomatiseerd worden. Het resultaat hiervan is, dat computers op steeds bredere schaal worden ingezet en dat de simpele en arbeidsintensieve processen steeds efficiënter worden en de productie enorm toeneemt tegen steeds lagere prijzen. Na verloop van tijd gaat men ook geproduceerde gegevens opslaan in de vorm van data om deze op een later tijdstip te kunnen gaan gebruiken, en vormt zo de eerste stappen naar de informatisering. De kern van de informatisering is niet meer het 'doen van de processen' maar juist het gebruik maken van gegevens om de processen 'bij te sturen'. Bij de informatisering gaat het dus om het vastleggen van 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
25 van 36
gegevens in de vorm van data zodat dit op een later tijdstip tot informatie kan leiden. Ikzelf geef dan ook de voorkeur aan de omschrijving dat 'informatisering' de 'automatisering van databewerking' is. De informatisering is hier minder succesvol dan de automatisering. Een van de redenen hiervoor is dat er een verschil is tussen formele kennis en kennis zoals de mens die kent en gebruikt bij het komen tot informatie. Zoals we in het vijfde hoofdstuk hebben gezien speelt bij informatie de interpretatie van data een belangrijke rol. Met name bij het maken van beslissingen maken wij ook gebruik van gegevens uit onze omgeving, en niet alleen van data die ons via 'informatiesystemen' bereiken. Een punt waarop wij duidelijk verschillen van een computersysteem is de mogelijkheid om tegenstrijdige informatie te verwerken en bepaalde gegevens gewoon te negeren indien die niet van belang zijn. Voor een mens is dit allemaal zeer natuurlijk, maar voor een computer zijn hier enorme problemen.
7.3 Het gebruik van kennis Kijken we naar de manier waarop de mens met kennis omgaat en de manier waarop de computer hiermee omgaat dan zien we een tweede verschil. De mens heeft namelijk de mogelijkheid om na te kunnen denken over de 'formele kennis'. Zoals eerder vermeld kennen wij meerdere vormen van kennis terwijl een computer uitsluitend de 'formele' kenniscomponent heeft. De mens is blijkbaar in staat om zijn kennis te toetsen en eventueel te verwerpen op grond van andere typen van kennis zoals bijvoorbeeld zijn ervaringen. Hoe heeft deze ervaring echter ooit tot kennis kunnen leiden? Een van de mogelijkheden hiervoor is het hebben van een paradigma van waaruit men de dingen bekijkt. Ik wil zelfs beweren dat kennis (en de waarheid ervan) juist zijn bestaansrecht vindt in het paradigma. Dit heeft tot gevolg dat de waarheid van kennis niet absoluut is, maar afhankelijk van dit paradigma. De mens is in staat om zijn huidige kennis te verwerpen door nieuwe inzichten. Hiertegenover staat de 'kennis' van een computer. Deze is vaststaand en geldig binnen zijn eigen grenzen. Slechts door het opnieuw ontwerpen of programmeren van een computer is het mogelijk om deze 'kennis' te veranderen. Als men gebruik maakt van computersystemen dan moet men de data van computers niet beschouwen als enig juiste. Door de genoemde risico's is het niet uitgesloten dat men tot een verkeerde conclusie komt indien men zich uitsluitend op de door het computersysteem opgeleverde informatie (data) baseerd. Deze is immers tot stand gekomen na bepaalde formele bewerkingen die na de bouw van het systeem niet meer (uit zichzelf) getoetst wordt.
7.4 Het ontbrekende component bij verwerking van (computer) data Zoals we gezien hebben zijn managers afhankelijk van data. In grote organisaties wordt deze data 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
26 van 36
voor een groot deel gehaald uit een of ander informatiesysteem. Zoals we gezien hebben ontbreekt er iets aan de data die uit deze systemen komen. De manager moet zijn gegevens verkrijgen uit door anderen ontworpen, gemaakte en beheerde informatiesystemen en krijgt alleen data. Het informatiesysteem moet formele data opslaan, bewaren en ter beschikking stellen. De eigenaar van het systeem weet echter zelden wie zijn systeem gaat gebruiken, net zoals de manager vaak niet weet waar en hoe hij iets zoeken moet. Probleem kan zijn dat de gewenste data niet beschikbaar zijn of dat men ze niet kan vinden. Een ander probleem is dat data in oorsprong een relatie heeft tot het object waarop de data betrekking heeft, het aspect of context van de data (zie ook hoofdstuk 3). Indien de gebruiker van de data (de manager) geen weet heeft van welke relatie (context) de data met het object heeft dan zal hij de data eigenlijk niet kunnen gebruiken, of verkeerd kunnen interpreteren. Nielen geeft aan dat 18
gegevens uit verschillende lagen bestaan : -
Concepten: kern van de gegevens, verwijzen naar de realiteit. Standaardisatie van concepten is van fundamenteel belang voor communicatie. (als de een het heeft over 'elektrische apparaten' en de ander over 'huishoudelijke apparaten' dan is er geen onderling begrip mogelijk).
-
Termen: geeft relatie tussen de waarnemer en het door hem bedoelde concept. De keuze van termen verraad vaak het gehanteerde semantische model bijv. longontsteking en pneumonie zijn synoniemen, maar de eerste suggereert een leek, de ander een professional. Er zijn ook termen die op meerdere concepten slaan. Deze moeten bij computers vermeden worden. Bijv. 'lang' kan zowel tijd als lengte zijn.
-
Vormen: fysiek aspect van een gegeven. De vorm die we aan een term geven, moet de brug slaan tussen de term en de techniek van het gegeven. Bijv. in computers is de vorm '0' of '1' dat zeer efficiënt is voor verwerking en transport maar daarbuiten is het onhandig.
-
signalen: zijn gegevens naar hun techniek beschouwd, bijv. letters voor teksten.
Hoewel ik het niet helemaal eens ben met de suggestie dat er een conceptlaag zit in gegevens, ligt hier wel de kern van het probleem. Bij de overgang van 'gegeven' naar 'datum' is er sprake van interpretatie van het gegeven (het concept) en vervolgens weergave in een datum als symbool. Het concept leggen wij dus zelf in het gegeven, en dit wordt dan weergegeven in het symbool. Dat wat wij zelf als concept beschouwen krijgt de vorm van datum en het is dus niet zo dat het concept in het gegeven zelf zit. Kuhn heeft al aangetoond dat twee mensen in een verschillend paradigma ook verschillende dingen zien terwijl zij naar hetzelfde gegeven(e) kijken. Een voorbeeld hiervan is dat men licht eerst als golven beschouwden, en later als deeltjes. Vanuit de theorie 'zag' men bepaalde 'eigenschappen' van het licht, terwijl men vanuit de andere theorie 'andere eigenschappen zag'. In beide theorieën was 'licht' het gegeven, maar in de ene theorie werd licht als 'golf' (het symbool) gerepresenteerd en in de andere theorie kreeg het als symbool een stroom van deeltjes. 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
27 van 36
Ook uit de psychologie zijn er diverse voorbeelden te vinden waarbij soms zelf eenzelfde persoon twee dingen kan zien in hetzelfde gegeven(e), echter nooit tegelijkertijd. In de overgang van 'gegeven' naar 'datum' speelt de interpretatie een rol en hierbij verliest het 'gegeven' mijns inziens zijn neutraliteit (volledigheid). Aangezien de manager een eigen interpretatie geeft aan de data die hij uit het informatiesysteem haalt, kan dit wat anders zijn dan als hij met de persoon praat die uitleg geeft aan de data die deze persoon zelf heeft ingevoerd, zeker indien de manager doorvraagt naar het waarom dat de data zo is weergegeven (het kader). Dit is wat Nielen de laag van de 'termen' heeft genoemd. Dit dwingt mij dan ook tot de conclusie dat een manager (een besluitvormer) pas een goede beslissing kan nemen nadat hij heeft gecommuniceerd of weet heeft van de 'termen' die ten grondslag liggen aan de gebruikte data. Wat aan informatiesystemen vooraf bepaald zou moeten worden zijn goede definities over hoe men de gegevens moet vastleggen. Er dient dan ook een goede afstemming te zijn tussen de makers van het informatie systeem, de gebruikers ervan en het management zodat zij allen 'dezelfde taal spreken'. Dit omdat de 'concept component' zo eenduidig mogelijk moet zijn. Toch hebben wij in voorgaande hoofdstukken moeten constateren dat dit niet altijd voldoende is. Als wij echter in staat zijn om de 'termen' goed te verwoorden dan zal de 'concept-laag' ook duidelijker worden. Kijkt men naar organisaties dan blijkt dat taken met betrekking tot productie en coördinatie wel goede resultaten zijn te behalen, maar dat beleidsbeslissingen aanzienlijk moeilijker liggen. Dit komt daar men bij beleidsbeslissingen door de enorme hoeveelheden gebruik moet maken van geaggregeerde data. Bij geaggregeerde data zijn wel afwijkingen te constateren, maar als men het beleid wil afstemmen om de afwijkingen te minimaliseren is deze rapportage van geaggregeerde data zelden voldoende. Dit heeft veelal ook te maken met de omvorming van diverse eenheden (bijv. volumes, tijd, gewichten enz.) naar geldwaarden. Dit is wel bevorderlijk voor de coördinatie, maar niet voor de kwaliteit van het te volgen beleid. Het is dan ook beter om geconstateerde normafwijkingen niet als sturing te gebruiken, maar als trikker voor reflexie op het ontstaan van deze afwijking.
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
28 van 36
8 Conclusie In deze scriptie is geprobeerd om de risico's van de ogenschijnlijke probleemloze inzet van informatiesystemen in organisaties en het klakkeloos aanvaarden van de data die men hieruit kan halen te verduidelijken. Dit is vooral gedaan op het terrein van de rol van computers bij het kennisproces bij organisaties. Als we kijken naar de rol die computers hebben in het kennisproces en de daarmee samenhangende besluitvorming van organisaties dan zien we dat die zeer groot is. De gegevens die als data opgeslagen zijn in computersystemen vormen vaak het 'geheugen' van de organisatie. Op grond van deze data vindt evaluatie plaats over verleden, heden en toekomst. Waar echter weinig aandacht aan wordt besteed is de beperkingen die deze data hebben. Bij het gebruik van computers door het management staat data los van de context waarin zij is 'geproduceerd'. Data (het gegeven als symbool) en gegevens (de waargenomen realiteit) worden als hetzelfde beschouwd. Dat dit niet zo is, is een gevolg van de volgende oorzaken: -
Bij het ontwikkelen van informatiesystemen gaat men er vanuit dat de wereld er is, en bestaat uit concrete objecten met natuurlijke eigenschappen. Er is echter gebleken dat we te maken hebben met een geconstrueerde werkelijkheid. Hierbij bepalen de datamodellen de realiteit en dus kan er in dat geval geen onderliggende realiteit zijn.
-
De component van de (ongestructureerde) interactie met anderen om zo elkaars kennis te toetsen en bespreekbaar te maken is bij een computersysteem niet mogelijk. De context van de data is altijd gegeven in de programma's en de ingebrachte kennis waarmee de systemen werken. Hierbij heeft dan ook verstarring plaatsgevonden van de toen aanwezige kennis. Wederzijdse toetsing is dan ook niet meer mogelijk.
-
Daar waar de mens de context bepaald en vervolgens welke 'regel' wordt toegepast voor de interpretatie, wordt de context door een computer bepaald door de regel (het programma) die het bezit, en dus indirect door de datamodellering.
-
Vanuit een hermeneutisch perspectief is er geen verschil tussen vooroordeel en inzicht. Aangezien ieder model tenminste twee horizonten verbindt is er geen totale consistentie mogelijk.
-
De sociale context bij datamodelleren is dat data wordt opgeslagen voor actie en het geven van een bedoeling. Hierbij zorgt het voor politieke ondersteuning. Datamodellering verstart, definieert en herdefinieert aldus het institutionele kader waarbinnen de politiek zich afspeelt ten tijde van de modellering.
-
In de overgang van 'gegeven' naar 'datum' speelt interpretatie een rol en hierbij verliest het 'gegeven' zijn volledigheid.
Rekening houdend met het bovenstaande ligt er een verantwoordelijkheid bij de gebruiker die de data uit een computersysteem interpreteert. De verantwoordelijkheid van de datamodelleerder en 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
29 van 36
programmeur is de vooronderstellingen van het datamodel en de onderliggende relaties te verwoorden. Dit kan door een goede beschrijving van de 'termen' en de 'concepten te beschrijven waarbinnen het datamodel tot stand is gekomen. De verantwoordelijkheden van de gebruiker is om hier kennis van te hebben voordat gebruik gemaakt gaat worden van het computersysteem. Computers zijn wel zeer geschikt voor het transporteren van data, en doen dit ook veel beter dan menig persoon. De 'kenniscomponent' is echter zeer laag. Alleen formele bewerkingen op de data zijn zeer geschikt om uitgevoerd te worden door een computer. Voor het kennisproces is echter meer nodig dan alleen formele bewerkingen op data. Het computersysteem kan hierbij als 'ondersteunend' dienen, maar nooit 'leidend'. Houden we hier geen rekening mee, dan zijn er weliswaar rationele beslissingen te maken, maar de gevolgen zijn dan onbekend. Ik wil deze scriptie dan ook besluiten met een citaat van Maurice de Hond
19
die stelt dat door
automatisering de functie tot zijn essentie wordt teruggebracht. De software schakelt de mens pas in als hij nodig is. We moeten dus weten waar de software moet ophouden en de verdere verwerking door de mens moet worden gedaan.
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
30 van 36
9 Gebruikte literatuur R.L. Atkinson, R.C. Atkinson, E.E. Smith, D.J. Bem: Introduction to psychology; Harcourt Brace Jovanovich College Publishers, 11th edition, 1993 H.M. Collins: Artificial Experts, social knowledge and intelligent machines; MIT press, 1990 T.H. Davenport, J.E. Short: The new industrial engineering: Information technology and business process redesign; Sloan management review, Summer 1990 p11-25 D.C. Dennett: Aspecten van bewustzijn (Kinds of minds); Uitgeverij Contact 1996 Dreyfus, Hubert L.: What computers can't do; Harper & Row publishers 1972 M.S.H. Heng, I.S.Y. Koh: Widening the scope of the concept information in information systems (1995 unpublished?) Maurice de Hond: Dankzij de snelheid van het licht; Het Spectrum 1995 Prof.dr.drs. T Huppe (red.): Informatievoorziening in dienst van effectiviteitsverbetering; Stenfert Kroese 1990 D. Hume: an enquiry concerning human knowledge; Internet Wiretap online edition Harvard Classics Volume 37 1910 W. Jansen, H.P.M. Jägers, R. Stil: (Her)ontwerpen met informatietechnologie; Lemma 1995 William Kent: Data and reality; North Holland publishing company, 1978 J. Klapwijk: Oriëntatie in de nieuwe filosofie; van Gorcum 1987 Thomas S. Kuhn: The structure of Scientific revolutions, second edition, enlarged; Chicago Press 1970 H.M.J. Mevissen: Reader "Computer- en datacommunicatiesystemen" VU Amsterdam, September 1994 Drs. Sj. Muller: Kennisleer en computers: een kritische verhandeling over informatie; Stenfert Kroese 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
31 van 36
B.V. 1982 Prof.dr.ir. G.C. Nielen: Van informatie tot informatiebeleid; 1993 Samson BedrijfsInformatie BV , Alphen a.d. Rijn Carsten Peterson and Thornstein Rögnvaldsson: An introduction to Artificial Neural Networks, 1991 H. van Praag: Verandering; PANDATA 1986 H. van Praag, H. de Hartog en H.L. Resnikoff: Kunstmatige intelligentie; PANDATA 1988 John F. Rochart & James E. Short: IT in the 1990's: Managing Organizational Interdependence; Sloan management review, winter 1989 B. Russell: De menselijke kennis; derde druk Servire b.v. Katwijk 1978 Gilbert Ryle: The concept of mind; University paperbacks, Barnes & Noble 4th printing 1962 E. Turban: Decision support and expert systems; Macmillan third edition 1993 Terry Wingrad and Fernando Flores: Understaning computers and cognition; 7th printing AddisonWesley publ.comp. 1993 R.W.I. Zuijderhoudt: Principes van synergie en zelfordening; Berenschot 1993
10 Voetnoten
1. Windgrad and Flores: Understanding computers and cognition 2. Drs. Sj. Muller: Kennisleer en computers; een kritische verhandeling over informatie. blz 56 e.v. 3. Prisma van de filosofie, uitgeverij het Spectrum 4. R. Descartes: Discours de la methode (Vertoog over de methode), vierde gedeelte. 5. J. Klapwijk: oriëntatie in de nieuwe filosofie 6. David Hume: An enquiry of concerning human understanding (section 3, part 1) 1997 HobbitSoft Consultancy
www.hobbitsoft.nl
32 van 36
7. Thomas S. Kuhn: The structure of scientific revolutions; Chicago press, second edition, enlarged, 1970. 8. Heinz K. Klein and Kalle Lyytinen: Towards a new understanding of data modelling 9. Dreyfus: What computers can't do 10. Gilbert Ryle: The concept of mind 11. Heinz K. Klein and Kalle Lyytinen: Towards a new understanding of data modelling 12. W. Jansen, H.P.M. Jägers, R. Stil: (her)ontwerpen met informatietechnologie, Lemma 1995 13. Dreyfus: What computers can't do. 14. Heinz K. Klein and Kalle Lyytinen: Towards a new understanding of data modelling 15. Heinz K. Klein and Kalle Lyytinen: Towards a new understanding of data modelling 16. Jansen, Jägers en Stil: (her)ontwerpen met informatietechnologie 17. P.G.W Keen and M.S. Scott-Morton: Decision support systems, An organizational perspective, Reading, MA: Addison-Wesley, 1978. 18. Prof.dr.ir. G.C. Nielen: Van informatie tot informatiebeleid; 1993 Samson BedrijfsInformatie BV , Alphen a.d. Rijn 19. Marica de Hond: Dankzij de snelheid van het licht; Het Spectrum 1995
1997 HobbitSoft Consultancy
www.hobbitsoft.nl
33 van 36