Tom Mahy Master Wijsbegeerte Studentennummer: 20054046
Het menselijk geheugen: Metaforen doorheen de geschiedenis. Een vergelijking tussen de computermetafoor en connectionistische modellen.
Universiteit Gent Academiejaar 2008-2009
Promotor: Prof. Dr. Tom Verguts
“Mais, quand d’un passé ancien rien ne subsiste, après la mort des êtres, après la destruction des choses, seules, plus frêles mais plus vivaces, plus immatérielles, plus persistantes, plus fidèles, l’odeur et la saveur restent encore longtemps, comme des âmes, à se rappeler, à attendre, à espérer, sur la ruine de tout le reste, à porter sans fléchir, sur leur gouttelette presque impalpable, l’édifice immense du souvenir. Et dès que j’eus reconnu le goût du morceau de madeleine trempé dans le tilleul que me donnait ma tante (quoique je ne susse pas encore et dusse remettre à bien plus tard de découvrir pourquoi ce souvenir me rendait si heureux), aussitôt la vieille maison grise sur la rue, où était sa chambre, vint comme un décor de théâtre.” Marcel Proust
1|Page
Dankwoord Volgende personen wil ik hartelijk danken voor hun bijdrage aan mijn masterproef.
Mijn promotor Prof. Dr. Tom Verguts die me veel vrijheid gaf en tegelijk altijd klaar stond om me te helpen met het oplossen van problemen. Mijn lezers, Prof. Dr. Erik Weber en Prof. Dr. Joke Meheus, die me geholpen hebben bij het formeel in orde brengen van het geheel. Mijn ouders voor hun uitgebreid verbeterwerk. Emilie Vanmeerhaeghe die veel praktische vragen beantwoordde en altijd bereid was hulp te bieden. Willem De Greve, voor het citaat van Marcel Proust, dat heel mooi het fascinerende karakter van het geheugen weergeeft. Mijn vrienden die nooit zomaar aannemen wat ik hen vertel, zodat ik gedwongen word na te denken over mijn eigen standpunten.
2|Page
Inhoudsopgave Dankwoord .......................................................................................................................................... 2 I.
Inleiding ........................................................................................................................................... 5 1)
Motivatie ..................................................................................................................................... 5
2)
Vraagstelling ................................................................................................................................ 6
3)
Literatuurstudie ........................................................................................................................... 7
4)
Structuur ...................................................................................................................................... 8
II.
Metaforen voor het geheugen doorheen de tijd ............................................................................ 9 1)
Het nut van de metafoor ............................................................................................................. 9
2)
De Oudheid................................................................................................................................ 11
3)
De eerste mechanische modellen van het geheugen ............................................................... 17
4)
De romantiek ............................................................................................................................. 22
5) Nieuwe geheugenmetaforen onder invloed van de technologische revolutie. The Fysiological Turn. .................................................................................................................................................. 23 6)
Ebbinghaus en de kwantitatieve benadering ............................................................................ 26
7)
William James ............................................................................................................................ 27 20ste eeuwse ontwikkelingen ..................................................................................................... 31
III. 1)
Behaviorisme ............................................................................................................................. 31
2)
Cognitivieve wetenschappen .................................................................................................... 33
3)
De computer .............................................................................................................................. 35 a)
Alan Turing, het ontstaan van de moderne computer .......................................................... 36
b)
Jerry Fodor’s antwoord op Descartes’ dualisme ................................................................... 39
c)
Het model van Atkinson en Shiffrin (1968) ........................................................................... 39
d)
Het werkgeheugen ................................................................................................................ 44
e)
Psychologische experimenten ............................................................................................... 47
f)
Het evolueren van de modellen ............................................................................................ 49
4)
IV. 1)
Een nieuwe benadering: het connectionisme ........................................................................... 51 a)
Het hologram......................................................................................................................... 52
b)
Neurale netwerken................................................................................................................ 53
c)
De Connectionistische revolutie............................................................................................ 56 Een connectionistisch model: Tracelink .................................................................................... 62 Amnesie en de biologie van het brein ....................................................................................... 62
3|Page
2) V.
Een voorbeeld van een connectionistisch model voor het geheugen ...................................... 68 Conclusie ....................................................................................................................................... 73
Bibliografie ........................................................................................................................................... 74
4|Page
I.
Inleiding
1) Motivatie Ik ben aan mijn studie filosofie begonnen van uit een nogal wetenschappelijke achtergrond. Ik studeerde wetenschappen wiskunde in de middelbare school en het lag dan ook voor de hand dat ik een wetenschappelijke universitaire richting zou volgen. De wetenschap boeide me echter zeer weinig. Hoewel ik nu van mening ben dat fascinatie onvermijdelijk volgt uit het begrijpen van wetenschap, moet ik toen door andere dingen gefascineerd geweest zijn. Ik zag niet veel meer dan het hersenloos van buiten leren van theorieën die ergens ver boven de wereld zweefden. Toen ik filosofie ging studeren ging een nieuwe wereld voor mij open. We haalden de wetenschap uit haar ivoren toren en plaatsten ze in de wereld en in de geschiedenis. Na het lezen van Thomas Kuhn en het bestuderen van mislukte en gelukte wetenschappelijke theorieën doorheen de tijd, begon mijn fascinatie gradueel toe te nemen. Ik voelde me namelijk wel al filosoof, maar om kritiek te leveren moet men iets afweten van datgene dat men bekritiseert. Ik koos dus een minor wetenschappen, die vervolgens voortvloeide in een minor biologie. Dat bracht me bij de menselijke hersenen. Het hele menselijke lichaam werkt op een enorm ingenieuze manier. Op het niveau van de fysiologie weten we al behoorlijk veel. De hersenen vormen hierop een uitzondering. Door de combinatie van biologische teksten over de anatomie en fysiologie van het brein en filosofische teksten over de mind en het bewustzijn groeide mijn interesse nog meer. Het leek me het ultieme vraagstuk in een voor de rest relatief voorspelbare wereld. Ik denk nogal deterministisch en het leek me vanzelfsprekend dat de mens, en dus ook zijn geest, werkt zoals een machine. Evolutie heeft ons stukje per stukje gevormd tot wat we nu zijn. Daar kwam niets mysterieus aan te pas. Laagje per laagje breidden onze hersenen uit met evolutionair nuttige gevolgen van toevallige mutaties. Het is alsof je een computer bouwt maar dan over een heel lange tijd en op een heel onefficiënte manier. Het grote vraagstuk is dan natuurlijk hoe dat bewustzijn zijn intrede heeft gedaan. Het is dit vraagstuk dat me meer richting psychologie gestuwd heeft. Ik ontdekte dat men in de psychologie meer onderwees dan enkel Freud (een of ander vooroordeel dat ik ergens opgedaan moet hebben) en begon enkele vakken te volgen. Ik kwam erg toevallig terecht in het vak ‘modellering van cognitieve processen’. De naam van het vak sprak mij aan. Het leek me logisch, gezien het voorgaande, dat onze cognitieve processen gemodelleerd kunnen worden. Dit vak had echter veel minder weg van het schrijven van computerprogramma’s dan ik gedacht had. Ik maakte kennis met het connectionisme. Deze stroming beweert dat intelligent gedrag kan voortvloeien uit netwerken van eenvoudige units die een 5|Page
variabele invloed op elkaar uitoefenen. Het deed me denken op wat Daniel Dennett een ‘army of idiots’ noemde. Een onderdeeltje van dat netwerk is niets op zichzelf, maar het samenspel van al die onderdeeltjes heeft een van de indrukwekkendste verschijnselen in dit universum tot gevolg. Gezien de gelijkaardige, chaotische anatomie van ons brein en de eenvoud waarmee deze simpele netwerken tot spectaculaire resultaten leiden, was mijn interesse onmiddellijk gewekt. In het vak bestudeerden we enkele papers. Elke paper handelde over de simulatie van een cognitief proces: taalverwerving, cognitieve controle, geheugen, ... Wie even doordenkt over het fenomeen geheugen is vrijwel meteen gefascineerd. Er is een hele reeks merkwaardige verschijnselen die we allemaal kennen, maar waarvoor zich niet meteen een verklaring aandient. Zo is er bijvoorbeeld het gevoel dat er iets op het puntje van onze tong ligt. We weten dat we het weten of geweten hebben, maar het juiste antwoord komt maar niet. Vaak denken we de hele tijd aan een ander woord en elke poging het juiste woord te recuperen wordt door dit ander woord gesaboteerd. Later kan het dan opduiken wanneer we aan iets helemaal anders aan het denken waren. Een andere interessante vaststelling is hoe feilbaar ons geheugen kan zijn. We kunnen ons levendig iets voor de geest halen uit onze kindertijd, terwijl onze ouders ontkennen dat deze gebeurtenis ooit heeft plaatsgevonden. Deze en meer mysteries van het geheugen hebben me aangezet me specifiek met dit domein van de menselijke cognitie bezig te houden. Tot mijn grote vreugde heb ik zelfs enkele antwoorden weten te bemachtigen op bovenstaande vragen.
2) Vraagstelling De vragen die hier beantwoord zullen worden zijn niet nieuw. We bekijken als het ware een vraagstuk en de mogelijke oplossing daarvan door de eeuwen heen. De mooiste manier waarop ik het vraagstuk geformuleerd heb gezien was in een paper van Jack Marr, getiteld Memory – Models and Metaphors. Marr vergelijkt het probleem van het geheugen met het action at a distance probleem waarmee Newton geconfronteerd werd. Newton’s theorie impliceerde dat alle objecten een kracht op elkaar uitoefenen, ook wanneer ze elkaar niet raken. Er moet dus een kracht uitgeoefend worden over een bepaalde afstand met zo’n onmiddellijkheid dat een materiële mediëring onmogelijk lijkt. Het is als een soort bovenaardse communicatie. Newton gaf deze functie aan de alomtegenwoordige ether. Marr beschrijft het probleem van het geheugen nu als action at a temporal distance en de geschiedenis van geheugentheorieën ziet hij als de zoektocht naar een ‘mentale ether’ (Marr, 1983, p. 13). We moeten immers proberen verklaren hoe bepaalde 6|Page
gebeurtenissen invloed kunnen uitoefenen op gebeurtenissen die er temporeel totaal van gescheiden zijn. Als ik vandaag te weten kom dat Jan gelogen heeft tegen mij, dan kan dat morgen mijn gedrag tegenover hem beïnvloeden. Wat is het dat deze afstand overbrugt? Welk deel van mijn eerste ervaring is blijvend aanwezig zodat ze mijn tweede ervaring kan beïnvloeden? En vooral, welke materiële equivalenten van deze gebeurtenissen zorgen juist voor de mediëring? Of gebeurt dit niet op een materiële manier? Het zijn vragen die men zich gedurende de hele westerse filosofieen wetenschapsgeschiedenis heeft gesteld. Deze paper bespreekt een greep uit de verschillende antwoorden die erop geformuleerd zijn.
3) Literatuurstudie Voor het eerste deel van deze masterpaper heb ik dankbaar gebruik gemaakt van een boek van de Nederlandse geheugenpsycholoog Douwe Draaisma. Het boek is getiteld ‘De Metaforenmachine’ en het is een onderzoek naar de verschillende theorieën die over het menselijk geheugen bestaan hebben doorheen de tijd. Draaisma doet dit aan de hand van metaforen. Reeds in de oudheid had men door dat het gebruik van een metafoor een erg handig hulpmiddel was bij het overbrengen van ingewikkelde theorieën. De hele geschiedenis door is men de metafoor blijven gebruiken. Draaisma begint zijn boek dan ook met een studie van dit hulpmiddel om het dan voor de rest van het boek zelf te gebruiken. Maar hij is uiteraard niet de enige die oude geheugentheorieën bestudeert. Een erg interessant boek was ‘Philosophy and memory traces: Descartes to connectionism’ van de filosoof John Sutton. Op een erg overtuigende manier brengt hij een interpretatie van Descartes’ werk die allesbehalve algemeen aanvaard is. Onderdeel II.3 over de mechanische modellen van het geheugen heb ik dan ook voor het grootste deel aan dit boek te danken. Verder heb ik gebruik gemaakt van een hele reeks boeken, papers en overzichtswerken, waarvan vooral de volgende belangrijk waren:
‘Human Memory – An Introduction to Research, Data and Theory’ van Ian Neath
‘De Mens van Turing’ van David Bolter
‘Connectionism and the mind’ van Bechtel en Abrahamsen
‘Memory and the hippocampus’ van Larry Squire
‘Tracelink: a model of consolidation and amnesia’ van Meeter en Murre
Voor meer informatie over deze en andere bronnen verwijs ik naar de bibliografie op pagina 74. 7|Page
4) Structuur Deze paper is in grote lijnen chronologisch opgebouwd. Na deze inleiding volgt een groot deel dat begint met een korte uiteenzetting over de metafoor. Vervolgens worden de geheugentheorieën, vanaf de oudheid tot vlak voor de 20ste eeuw, behandeld. William James en Hermann Ebbinghaus worden besproken als kritische figuren op de grens tussen 19de en 20ste eeuw, tussen deel II en deel III. Deel III handelt over de 20ste eeuw en het ontstaan van het modern geheugenonderzoek. In onderdeel III.3 wordt het chronologisch pad verlaten. Eerst bespreken we het ontstaan van de moderne computer en vervolgens de invloed die deze gebeurtenis heeft uitgeoefend op de geheugenpsychologie. Onderdeel III.4 loopt in de tijd ongeveer parallel met III.3, maar hier bespreken we een alternatieve benadering, namelijk het connectionisme. In deel IV gaan we iets dieper in op een specifiek geheugenmodel binnen het connectionistische paradigma. De biologie van het brein zal hier een belangrijke rol spelen. Ook daar wordt dieper op ingegaan in deel IV. Deel V bevat mijn conclusie.
8|Page
II.
Metaforen voor het geheugen doorheen de tijd
1) Het nut van de metafoor Douwe Draaisma (1995) gaat in zijn boek ‘De Metaforenmachine’ op reis doorheen de tijd. Het is een onderzoek naar de verschillende theorieën die bestaan hebben over het geheugen. Draaisma maakt hiervoor gebruik van de metafoor. Van bij Plato tot op de dag van vandaag werden immers voortdurend metaforen gehanteerd om ons geheugen te beschrijven. Voorbeelden zijn wasborden, duivenhokken, boeken, kamers, wouden, labyrinthen, fotografische platen, computers, … Het gebruik van zulke analogieën is, volgens Draaisma, erg nuttig om verschillende redenen. Ten eerste is het een retorisch en heuristisch hulpmiddel (Draaisma, 1995, p. 19). Ingewikkelde theorieën kunnen via metaforen en vergelijkingen op een erg heldere manier worden weergegeven. Het is als het ware een vertaling. Dat wat ons onvatbaar of mysterieus voorkomt wordt uitgelegd in termen van wat ons bekend is. Draaisma neemt Freud als voorbeeld. Freud maakte in zijn teksten voortdurende gebruik van zo’n beeldspraak die de complexe samenstelling van de menselijke geest moest verduidelijken. Hij is dan ook een fervent verdediger van dit hulpmiddel (Draaisma, 1995, p. 19). Een technische uitleg, vertelt Draaisma, is te vinden in The Philosophy of Rhetoric van Richards (Draaisma, 1995, p. 22). Deze onderscheidt in elke metafoor twee elementen: een topic term en een vehicle term. De topic term is het te verduidelijken fenomeen, waarop de betekenis van de vehicle term wordt overgedragen. Een voorbeeld dat we zelf kunnen bedenken is: ‘Liefde is als een bloem die langzaam openbloeit en weer verwelkt’. Hier is ‘liefde’ de topic term, nl. het onderwerp van de metafoor. ‘Een bloem die langzaam openbloeit en weer verwelkt’ is de vehicle term. Het is een voor ons herkenbaar beeld. De familiaire betekenis van dat concrete beeld kunnen we nu overdragen op het abstracte begrip ‘liefde’. Dit verbetert ons begrip. Vervolgens vermeldt Draaisma Black, die in navolging van Richards metaforen als een interactie zag tussen topic en vehicle term (Draaisma, 1995, p. 24). In een modernere formulering spreekt men van semantische velden. Elke term heeft zijn eigen semantisch veld. De metafoor creëert een wisselwerking tussen deze velden, waarbij de aandacht wordt gevestigd op relevante associaties en onbelangrijke associaties worden genegeerd. Opnieuw een eigen voorbeeld: in ‘Het geheugen is een labyrinth’ zitten twee termen met elk hun semantisch veld. Het veld van ‘geheugen’ bevat: herinneren, zoeken, vergeten, quiz, puntje van de tong, alzheimer, kindertijd, … Het veld van ‘labyrinth’ bevat: doolhof, ingewikkeld, verdwalen, zoeken, Ariadne, Alice in Wonderland, … De 9|Page
metafoor filtert alle onbelangrijke informatie eruit en legt de aandacht op wat gemeenschappelijk is tussen de twee termen, nl. de complexiteit, het vaak tevergeefs zoeken, de uitgestrektheid, … Een gevolg van de heuristische en retorische waarde van metaforen is wat Draaisma de ‘Commeniusfunctie’ of de educatieve functie van de metafoor noemt. Literatuurstudies tonen aan dat metaforen vandaag en doorheen de geschiedenis wijd verspreid zijn, zowel in populaire als in wetenschappelijke literatuur. Een experiment van Reynolds en Schwartz, dat door Draaisma besproken wordt, waarbij proefpersonen korte tekstjes moesten van buiten leren wijst erop dat verhaaltjes die eindigen met een samenvattende metaforische zin beter worden onthouden dan dezelfde verhaaltjes die eindigen met een gewone samenvattende zin (Draaisma, 1995, pp. 29-30). Zoals eerder vermeld houdt het gebruik van metaforen vaak een vertaling in naar een begrijpelijkere en ‘meer zichtbare’ taal. Van abstract naar concreet. Aangenomen dat het menselijk geheugen beter werkt voor concrete beelden, wordt de Commeniusfunctie duidelijk. Die aanname is overigens erg plausibel. Verschillende experimenten tonen aan dat beelden beter herinnerd worden. Er kan als het ware meer informatie aan gekoppeld worden dan aan verbale stimuli (infra). Problemen met het gebruik van de metafoor: Problemen ontstaan bij wat Draaisma, zoals Black, substitutie-metaforen noemt (Draaisma, 1995, p. 22). De analogie tussen de metafoor en de te verduidelijken term is nooit een gelijkheid. Het is steeds intuïtief vatbaar welk deel van de betekenis van de vehicle term toegepast kan worden op de topic term. Bij ‘de zon is een tomaat’ is duidelijk dat de vergelijking gaat over de kleur van de tomaat en niet over het vruchtvlees. Soms is een metafoor echter zo handig dat het niet duidelijk is of we nog van een metafoor mogen spreken. Een verklaring van de topic term komt dan overeen met een substitutie door de vehicle term. Bepaalde aspecten van de vehicle term worden zo automatisch toegepast op de topic term. We kunnen hier natuurlijk niet spreken van een echte verklaring. Draaisma vermeldt bijvoorbeeld cellen van het immuunsysteem die ziekteverwekkers zouden ‘herkennen’. Dat is een metafoor die intuïtief klopt maar tot op vandaag geen verklaring biedt voor de mechanismen die achter dit ‘herkennen’ schuilen. Een ander, voor ons erg belangrijk voorbeeld, is de computermetafoor. De computer werd eerst als metafoor gebruikt voor de menselijke geest, maar langzaam werden de twee met elkaar geïdentificeerd. Draaisma geeft enkele voorbeelden van processen die door die identificatie verklaard lijken, maar dat natuurlijk helemaal niet zijn: zoekprocessen in het geheugen, het opslaan van informatie, filteren, … “Het probleem bij veel te figuurlijk taalgebruik in de psychologie is dat een letterlijk alternatief niet voorhanden is" (Draaisma, 1995, p. 23).
10 | P a g e
Een deel van deze problemen volgt uit de technische definitie die hierboven is gegeven. Bij het filteren van het semantisch veld van de topic term gaat een boel informatie verloren die relevant zou kunnen zijn. Zo kan een invloedrijke metafoor ervoor zorgen dat “theoretische noties niet worden opgemerkt, hypothesen worden veronachtzaamd, relaties aan het oog worden onttrokken, onderzoeksvragen over het hoofd worden gezien” (Draaisma, 1995, pp. 33-34). Filteren en selecteren verkleurt en vertekent theorieën, waardoor deze hun objectiviteit verliezen ten bate van hun helderheid. Bij gevolg kende de geschiedenis ook tegenstanders van de metafoor. Zo voerde de Royal Society in de tijd van de wetenschappelijke revolutie zelfs een expliciet verbod in op het gebruik van beeldspraak in wetenschappelijke publicaties (Draaisma, 1995, p. 34).
2) De Oudheid Draaisma (1995) komt steeds terug op twee erg algemene metaforen waarvan de geschiedenis der geheugentheorieën doorspekt is. De eerste vergelijkt het geheugen met een opbergruimte. Een plaats waar je vanalles in kan stoppen, al dan niet gearchiveerd, om het later terug te gaan zoeken. Instanties van deze algemene metafoor zijn kamers, hokken, bibliotheken en paleizen. Deze legt vooral de nadruk op de enorme opslagcapaciteit en de zoekmethoden en selecteert hierdoor, zoals hier boven vermeld, een deel van het semantisch veld dat wij met het geheugen associëren. De tweede terugkerende metafoor focust zich op een ander gedeelte van dat semantisch veld. Het is de zegelmetafoor. Een herinnering komt overeen met een afdruk in een blok was, zoals een zegel. Deze afdruk laat een ‘geheugenspoor’ na. We vinden deze twee metaforen reeds terug bij Plato. De Theaetetus is een dialoog tussen Socrates en de jonge Theaetetus. We bespreken een deel van deze dialoog aan de hand van Chappell (2004). Het gesprek gaat over kennis. Wat is kennis, hoe kunnen we het definiëren. Een eerste voorstel van Theaetetus, kennis is perceptie, wordt door Socrates weerlegd. De objecten van perceptie kunnen niet overeen komen met de objecten van het denken. De eerste hebben geen duur, geen blijvendheid, en van zodra we ze niet meer percipiëren, impliceert die definitie dat ze ook uit ons denken zouden verdwenen zijn. De voortdurend veranderende impressies die we hebben moeten op één of andere manier een blijvend spoor nalaten, zodat we er ook wanneer ze er niet meer zijn over kunnen nadenken. Een volgend voorstel van Theaetetus is dan ook: kennis is true belief. Om dit te weerleggen splitst Socrates zijn argument op in 5 puzzels. Hij geeft vijf empirische mogelijkheden
11 | P a g e
voor het bestaan van false belief en weerlegt ze één voor één (Chappell, 2004, p. 152). In de vierde puzzel voert Plato, via Socrates, de metafoor van het wastablet in: “SOCR. Doe me dan het genoegen, omwille van de discussie, aan te nemen dat wij in onze ziel een blok was hebben. Bij de ene zal die groter, bij de andere kleiner zijn. Bij de ene zal de was zuiverder zijn, bij de andere minder zuiver, harder bij sommigen, bij sommigen vloeibaarder, bij enkelen juist van pas. THEAET. Inderdaad SOCR. Wel, laten we dan zeggen dat het een geschenk is van Mnemosyne, de moeder van de Muzen. Alles wat wij ons wensen te herinneren van wat we zagen of hoorden of zelf bedachten, drukken we daarin af, door dat blok onder onze waarnemingen en gedachten te houden: ongeveer zoals we een zegel van een ring in de was drukken. Wat we er nu in afgedrukt hebben, herinneren we ons en kennen we zolang het beeld in de was bewaard blijft. Wat echter uitgewist wordt of wat onmogelijk kon ingedrukt worden, raakt vergeten of blijft ongekend.” (Plato, 1999, p. 423)
Deze wastabletmetafoor kan verschillende eigenschappen van het geheugen verklaren. Het is niet zo, zoals bij de opbergruimte, dat datgene wat herinnerd wordt zelf in het geheugen wordt opgeslagen. Hier gaat het over een representatie, een afdruk van datgene dat we waargenomen hebben. Deze representatie kan foutief zijn. Dit verklaart waarom we verkeerde herinneringen hebben. Als het geheugen een opbergplaats was waarin we al onze percepties onmiddellijk kwijt konden, dan zou het onfeilbaar zijn, een beetje zoals dat van een computer. Hoe graag we ook zouden willen dat we sommige dingen, zoals boeken, objectief en integraal zouden kunnen opslaan, dat is niet wat in de realiteit gebeurt. Opslaan van informatie gaat steeds gepaard met persoonlijke interpretatie ervan. Plato brengt dit in rekening door te stellen dat de blok was die hij in de geest van elke mens situeert verschilt van persoon tot persoon. Iemand met een grotere blok heeft een grotere geheugencapaciteit. Iemand die over een te harde wasblok beschikt kan amper informatie opslaan omdat ze geen afdruk nalaat. En op die manier kunnen we de verschillende geheugencapaciteiten van verschillende personen uitleggen. Aristoteles nam deze metafoor van Plato over in zijn ‘De memoria et reminiscentia’. Hij gebruikte ze om het slechtere geheugen van oud en jong te verklaren:
“… for the movement produced stamps almost a sort of impression of the sense-impression, similar to what is done by people using their seals. This is also the reason why those who are in much movement because of an affection or because of age do not come to have memory, as though the movement produced by sensation and the seal were impinged on running water, while others do not receive the impression because of damage in that which is receiving the affection – similar to the damage of old walls in buildings – and because of the hardness in it. Therefore, both the very young and old people have weak memories: for the former are fluctuating because of growth, the latter because of decay. Similarly neither those people that are too quick-witted nor those that are too slow-witted seem to possess a good memory: the former are moister than what is needed, the latter are harder; thus the image does not remain in the soul of the former, while it does not make real contact with the latter.” (Aristoteles, zoals geciteerd in Bloch, 2007, p. 31)
Later in de Theaetetus weerlegt Plato echter zijn eigen theorie (Chappell, 2004, pp. 178-179). De wastablet theorie werd ingevoerd om aan te tonen dat mensen valse meningen (false belief) kunnen 12 | P a g e
hebben. De metafoor werkt voor fouten die we maken tussen wat we waarnemen en wat we denken. De afdruk die ik van Pieter in mijn blok was heb kan onbetrouwbaar zijn zodat ik op straat Jan verwar voor Pieter. Problemen ontstaan echter bij fouten tussen objecten van het denken, bijvoorbeeld wiskundige fouten. Volgens Plato heeft wiskunde niets met waarneming te maken. Wiskundige objecten komen eerder overeen met afdrukken die reeds van bij onze geboorte in het wastablet stonden. In de realiteit maken mensen voortdurend fouten in de wiskunde. Hierdoor blijkt dit model te kort te schieten (Chappell, 2004, p. 179).
Het wastablet toont aan hoe populair het gebruik van externe geheugens geweest is als metafoor voor het geheugen. Draaisma bevestigt dit: “Vanaf het begin – dat wil zeggen: vanaf het wastablet – is het menselijk herinneren en vergeten beschreven in termen die ontleend werden aan prothetische geheugens” (Draaisma, 1995, p. 39). Met extern of prothetisch geheugen wordt bedoeld alle technieken en uitvindingen die gediend hebben om ons geheugen te ondersteunen: boeken, fonografen, computers, herinneringen in onze gsm, … Het grootste deel van de metaforen die ik hier bespreek zijn dan ook externe geheugens. Het is verleidelijk om hier een wetenschappelijke vooruitgang in te zien. Dat er een sterke vooruitgang bestaat in technologie valt niet te betwijfelen. Externe geheugens worden dus steeds complexer en zo ook de beschikbare metaforen voor ons geheugen. We zijn dus in staat complexe geheugentheorieën intuïtief te vatten omdat er een analogie bestaat met een alledaags voorwerp, bijvoorbeeld de computer. Bepaalde theorieën werden dan ook slechts populair toen er een duidelijke metafoor ingevoerd werd. Maar eerst terug naar de oudheid, waar men nog nooit van computers had gehoord en het moest doen met een wastablet. Na zijn weerlegging van die metafoor, gaat Plato, door middel van een vijfde puzzel, in op die andere algemene metafoor waarover we het reeds hadden: de opbergruimte. Hier heeft ze de vorm van een duivenhok: “SOCR. Zie dan ook of het mogelijk is op dezelfde wijze kennis te bezitten zonder ze te hebben. Het zou dan lijken op iemand die wilde vogels, duiven bijvoorbeeld of andere, zou hebben gevangen, en die thuis een duivenhok in elkaar zou hebben geknutseld waarin hij die dieren houdt. Van hem kunnen we zeggen, denk ik, dat hij ze in zekere zin altijd ‘heeft’, omdat hij ze ‘bezit’. Is het niet? THEAET. Ja. SOCR. In een andere zin echter kunnen we zeggen dat hij er geen enkele ‘heeft’, maar dat hem enkel een vermogen ten opzichte van die vogels te beurt is gevallen, omdat hij ze in een eigen omheining in het bereik van zijn handen heeft gebracht. Hij is immers bij machte hen te grijpen en te ‘hebben’ telkens als hij het wil: hij vangt telkens de vogel die hij verlangt, laat hem weer los, en dit kan hij doen zo dikwijls hij het goed vindt. THEAET. Dat is zo. SOCR. Dan moeten we nogmaals aan het werk. Vroeger boetseerden we in de ziel ik weet niet welk wassen model; nu gaan we in elke ziel een soort van duivenhok maken met vogels van diverse
13 | P a g e
pluimage: sommige soorten leven in grote troepen, afgezonderd van de andere; andere in kleine groepen; enige leven op hun eentje en vliegen door alle andere heen, op goed geluk. THEAET. Goed. Laten we aannemen dat er mee klaar zijn. En dan? SOCR. Zolang we nog kleine kinderen zijn, moeten we zeggen, die kooi is leeg, en daarbij moeten we, in plaats van aan vogels, aan kennissen denken. Als iemand nu een kennis opdoet en in de afsluiting onderbrengt, zullen we zeggen dat hij iets geleerd heeft
of iets ontdekt heeft: namelijk het ding waarop die kennis betrekking heeft. En dat is kennis.” (Plato, 1999, p. 432)
Hier wordt dus een onderscheid gemaakt tussen kennis bezitten en kennis hebben. Met dat laatste wordt bedoeld dat ze actief aanwezig is, alsof ik de duif in mijn handen heb. Kennis bezitten wil zeggen dat de duif ergens in mijn mentaal duivenhok aanwezig is, maar dat ik ze momenteel niet gebruik. Zo is het probleem van foutief herinneren niet meer te wijten aan foutieve afdrukken, maar wel aan een fout in ophaling. We halen de verkeerde duif uit het hok. Plato wou hiermee de mogelijkheid tot wiskundige fouten invoeren waarmee het wastabletmodel te kampen had (Chappell, 2004, p. 184). Als iemand antwoordt dat 6+9 gelijk is aan 14 dan wil dat niet zeggen dat die som verkeerd is opgeslagen (wiskundige afdrukken zijn immers aangeboren), maar dat de som verkeerdelijk 14 activeert en niet 15. De fout wordt dus verlegd van de opslag naar de ophaling. Deze problemen zijn niet enkel eigen aan Plato’s werk. Aangezien vele latere metaforen instanties zijn van de zegel- of de opbergruimtemetafoor hebben ze te kampen met dezelfde problemen. En ook vandaag nog is er discussie over de oorzaak van vergeten of foutief herinneren. In Chappell’s interpretatie van de Theaetetus is het invoeren van deze metafoor echter een onderdeel van een vijfde puzzel over false belief. Deze interpretatie wordt uiteindelijk, net als de andere door Plato weerlegd (Chappell, 2004, p. 189).
De opslagplaatsmetafoor kwam pas echt tot zijn recht in de Belijdenissen van Augustinus. Hij wil vooral de onmetelijkheid en het mysterie van het geheugen benadrukken en hij doet dat op een heel lyrische manier: “I will therefore rise above the natural capacity in a step by step ascent to him who made me. I come to the fields and vast palaces of memory, where are the treasuries of innumerable images of all kinds of objects brought in by sense-perception. Hidden there is whatever we think about, a process which may increase or diminish or in some way alter the deliverance of the senses under whatever else has been deposited and placed on reserve and had not been swallowed up and buried in oblivion. When I am in this storehouse, I ask that it produce what I want to recall, and immediately certain things come out; some things require a longer search, and have to be drawn out as it were from more recondite receptacles. Some memories pour out to crowd the mind and, when one is searching and asking for something quite different, leap forward into the centre as if saying 'Surely we are what you want?' With the hand of my heart I chase them away from the face of my memory until what I want is freed of mist and emerges from its hiding places. Other memories come before me on demand with ease and without any confusion in their order. Memories of earlier events give way to those which followed, and as they pass are stored away available for retrieval when I want them. All that is what happens when I recount a narrative from memory.” (Augustinus, 1998, p. 185)
14 | P a g e
Roland Teske, die in The Camebridge Companion to Augustine een hoofdstuk over het geheugen schrijft, vertelt ons dat het hele boek Belijdenissen een uitgebreide zoektocht naar God is (Teske, 2001). Wanneer Augustinus deze niet vindt in de externe wereld of via de zintuigen richt hij zich op het geheugen. Augustinus ziet het geheugen niet alleen als de opslagruimte voor ervaringen uit het verleden. Ook het plannen van toekomstige activiteiten en het in gedachten houden van het heden vereisen geheugen (Teske, 2001, p. 148). Naast wat we waargenomen hebben met onze zintuigen bevat ons geheugen ook logica en wiskunde, vaardigheden en de ‘affecties van de ziel’ (Teske, 2001, pp. 151-152). Deze emoties zijn bij herinnering op een andere manier in ons aanwezig dan bij de ervaring ervan zelf. We kunnen ons de emotie verdriet herinneren zonder zelf verdriet te voelen. Hier vergelijkt Augustinus het geheugen aan deze emoties met “the mind’s stomach” (Teske, 2001, p. 152). Een plaats waar ze wel opgeslagen, maar niet ‘gesmaakt’ worden, om dan later eventueel opgehaald te worden indien nodig. Het beeld van de ‘velden en paleizen’ van het geheugen spreekt erg tot de verbeelding. Augustinus heeft geen enkel probleem met plaatsgebrek aangezien de geest voor hem geen ruimtelijke uitgestrektheid heeft (Draaisma, 1995, p. 79). Teske toont via een citaat uit de Belijdenissen hoe die uitgestrektheid noodzakelijk is voor het waarnemen in ons geheugen van uitgebreide taferelen, zoals landschappen en oceanen. Deze gigantische beelden moeten in even grote ruimten waargenomen kunnen worden in ons geheugen als in de realiteit (Teske, 2001, p. 151). De metafoor die Augustinus gebruikt slaat dus niet meteen op de materiële omvang van ons geheugen, het herinneren van een oceaan maakt ons hoofd niet groter. Hij heeft het over een faculteit van de ziel en kan deze zo groot en complex maken als hij wil zonder, zoals gezegd, te kampen met het probleem van het plaatsgebrek. Hij kan herinneringen wegstoppen in grote kamers, in geheime gangen, in spelonken van grotten die zich in gigantische landschappen bevinden, dat alles afhankelijk van hoe moeilijk het is een herinnering op te halen. Foutieve herinneringen zijn te wijten aan problemen bij het ophalen, we verdwalen in dat gigantische paleis tijdens onze zoektocht naar een goed verborgen gang. Die hele tijd liggen de objecten van onze zoektocht wel ergens in dat paleis, ze zitten in ons geheugen, maar we vinden ze niet. Maar Augustinus verwijst ook voortdurend naar het geheugen als een zintuigelijk afdruk zoals bij Aristoteles (Draaisma, 1995, p. 45). De zintuigen brengen informatie binnen en laten afdrukken na die opgeslagen worden in alle uithoeken van het paleis van ons geheugen. De verschillende zintuigelijke modaliteiten blijven ook gescheiden in het geheugen, “beelden bij beelden, geluiden bij geluiden, geuren bij geuren” (Draaisma, 1995, p. 44).
15 | P a g e
Bij Augustinus zien we in feite de vereniging van de twee metaforen die we in het begin van dit onderdeel introduceerden. Zintuigelijke waarneming laat een afdruk na en die afdruk wordt vervolgens opgeborgen. Het helderste voorbeeld hiervan is een bibliotheek. Draaisma vermeldt ook de saculi. Dat zijn geldbuidels waarin de verschillende munten per soort gerangschikt werden. Ook dit werd ooit als metafoor voor het geheugen gebruikt, door Hugo van St. Victor in de twaalfde eeuw. De munten komen overeen met een afdruk van een waarneming, een herinnering, en zij worden soort bij soort bewaard in de buidel, ofte de opbergplaats van ons geheugen (Draaisma, 1995, p. 47). Augustinus sluit uiteindelijk zijn zoektocht naar God in zijn enorme geheugen tevergeefs af (Teske, 2001, p. 154). Wel besluit hij dat alle mensen streven naar een gelukkig leven en dat streven identificeert hij met de zoektocht naar God. Allen hebben dus een beeld in hun geheugen van wat een gelukkig leven is en moeten dat leven dus ooit geleefd hebben, opdat het deel van hun geheugen zou kunnen uitmaken. Plato en Aristoteles, met in hun voetsporen Augustinus, waren de stichters van wat later het associationisme genoemd zou worden. Dat is een theorie die zegt dat herinneringen, of meer algemeen, ideeën elkaar via associatie opvolgen in het bewustzijn. Aristoteles formuleerde drie wetten van associatie. De wet van nabijheid zegt dat gebeurtenissen die dicht bij elkaar liggen in ruimte of tijd met elkaar geassocieerd zullen worden. De wet van gelijkenis zegt hetzelfde over gebeurtenissen die op elkaar lijken en de wet van contrast verbindt contrasterende gebeurtenissen. Het associationisme zou pas tot zijn volledige ontwikkeling komen bij de Britse empiristen Thomas Hobbes, John Locke en David Hume. Bovendien hebben deze ideeën invloed uitgeoefend tot in de 20ste eeuw en hebben ze aanleiding gegeven tot het connectionisme, een stroming die de dag van vandaag alomtegenwoordig is.
16 | P a g e
3) De eerste mechanische modellen van het geheugen Het intellectuele establishment in de Middeleeuwen was natuurlijk de kerk. Maar de meeste theorieën waren niet meer dan een voetnoot bij de filosofen van de oudheid. De dominante fysiologische theorie over het geheugen was er één die reeds in de 2de eeuw was opgesteld door Galenus. Herinneringen lagen opgeslagen in het 4de ventrikel in de hersenen, waardoor een vluchtige stof, spiritus animales, stroomt (Draaisma, 1995, p. 41). Er werd erg veel aandacht besteed aan het ontwikkelen van mnemonische technieken, een traditie die in de oudheid ontstond met de Griek Simonides van Keos en later in Cicero’s De Oratore werd uitgewerkt (Draaisma, 1995, p. 57). De grote denkers zoals Thomas van Aquino werden dan ook geprezen omwille van hun eindeloos geheugen. Zo zou Thomas in staat geweest zijn 3 tot 4 boeken tegelijk te dicteren. Het was een tijd waarin het boek als metafoor gebruikt werd voor het geheugen. Boeken hadden toen nog niet de status van extern geheugen die ze de dag van vandaag hebben. Het waren zeldzame objecten, ze werden dus eerder van buiten geleerd en wie belangrijke boeken uit het hoofd kon opzeggen stond hoog in aanzien. Alles veranderde met de uitvinding, of meer bepaald de heruitvinding, van de boekdrukkunst rond 1500. Volgens Draaisma draagde dit bij tot een een evolutie die zorgde dat “het boek veranderde in een serieproduct” (Draaisma, 1995, p. 55). Boeken werden alomtegenwoordig en wie iets niet meer wist kon zijn eigen exemplaren naar believen raadplegen. De mnemotechnische kunst moest aan populariteit inboeten en de mensheid ging een nieuw tijdperk in met een geheugen dat steeds beperkter zou worden. De Middeleeuwen introduceerden tevens meer mysterie. In de plaats van het reduceren van complexe verschijnselen tot eenvoudigere processen kende het holisme een grote populariteit. Niet de som van de delen, maar wel het geheel was belangrijk. Dit kwam vooral naar voren in het hermetisme, een 15de eeuwse stroming die elementen uit alchemie, astrologie, waarzeggerij en andere magische stromingen samenbracht (Draaisma, 1995, p. 59). De microkosmos in ons hoofd is een afspiegeling van de macrokosmos. De wereld is doordrongen van mysterieuze tekens en getallensymboliek. Een belangrijke vertegenwoordiger van deze mystieke stroming, althans in sommige interpretaties van zijn werk, was Giordano Bruno. In een een tekst van Stephen Clucas kunnen we de meest invloedrijke interpretatie van Bruno’s geheugentheorie lezen, uitgewerkt door Frances Yates (Clucas, 2002). Yates ziet Bruno’s mnemotechniek als een magische opvolger van de door Cicero uitgewerkte kunst. De afbeeldingen die in ons hoofd geprint staan en de rangschikking ervan zijn een afspiegeling van het hele universum, waardoor we dat universum van binnen uit kunnen kennen (Clucas, 2002, p. 252). Draaisma beschrijft iets plastischer, ook aan de hand van 17 | P a g e
Yates, hoe dit geheugensysteem in elkaar zat. Het zou bestaan uit cirkelende wielen waarop alles wat bestaat afgebeeld staat (Draaisma, 1995, p. 60). Deze “Lullist wheels” werken volgens Yates als talisman, dat wil zeggen dat ze onder astrale invloed staan. De wielen worden beïnvloed door de stand van sterren en planeten en zijn op hun beurt ook “transmitters of astral forces” (Clucas, 2002, p. 254). Clucas heeft het vervolgens over een belangrijke tegenstander van Yates werk, namelijk Rita Sturlese. Zij ontkent dat de cirkelende wielen iets te maken hebben met hogere astrale krachten, maar ziet ze gewoon als technisch hulpmiddel voor het van buiten leren van lijsten met woorden. Dat wil zeggen dat er ook geen afspiegeling meer is van buitenwereld op binnenwereld en dat de enige link tussen afbeeldingen en hetgene ze denoteren van puur functionele aard is (Clucas, 2002, p. 257). In zijn conclusie wil Clucas vooral wijzen op de verscheidenheid van stromingen in Bruno’s werk, en de uiteenlopende manieren waarop zijn mysterieuze oeuvre geïnterpreteerd kan worden. De 17de eeuw veranderde veel op alle vlakken. Een combinatie van factoren leidde tot een nieuw klimaat in Europa. Teksten uit de oudheid werden herontdekt, de eerste wetenschappelijke experimenten werden uitgevoerd door Galileo Galilei, het verzet tegen de vastgeroeste ideeën van de dominante orde werd groter en onderdrukking van nieuw gedachtengoed was niet langer effectief. Renée Descartes (1596-1650) was één van de eerste verdedigers van een (gedeeltelijk) mechanische theorie van het geheugen. We kennen Descartes als de grondlegger van het rationalisme. Zijn cogito drukt uit dat de enige zekerheid die we hebben vertrekt van uit onze rede en niet uit wat we empirisch kunnen waarnemen. Hierop bouwde hij zijn dualistische theorie. Langs de ene kant is er de res cogitans, het denken, datgene dat de mens zijn unieke cognitieve capaciteiten geeft. Langs de andere kant hebben we de res extensa, de uitgebreidheid of de materie, datgene wat volledig ondergeschikt is aan de fysische wetten van het universum. Volgens Descartes zijn dieren niet meer dan automata, hun gedrag is volledig te wijten aan de gedetermineerde bewegingen van hun onderdelen. De mens is natuurlijk anders. Wij beschikken, naast ons lichaam, dat mechanisch werkt, ook over een geest die tot het domein van de res cogitans behoort. Menselijke capaciteiten zijn in Descartes’ theorie het resultaat van wisselwerking tussen lichaam en geest. De twee interageren met elkaar via de pijnappelklier in het centrum van ons brein. Eén van die menselijke capaciteiten is natuurlijk het geheugen. Ook dat heeft twee componenten, een puur mechanische en een intellectuele. De laatste ligt buiten ons bereik, maar de eerste is erg interessant voor ons onderzoek. John Sutton herinterpreteert Descartes op een erg onconventionele manier in zijn boek Philosophy and memory traces: Descartes to connectionism:
18 | P a g e
“Rather than taking the defining feature of Cartesianism to be the stress on rationality, linguistic generativity, and innate ideas, I point underneath to Descartes’ (much more extensive) work on the many capacities which we share with other animals.” (Sutton, 1998, p. 53)
Deze andere blik op Descartes doet hem veel meer eer aan. De nadruk wordt hier niet gelegd op de dingen die toe te schrijven zijn aan onze geest en die we dus niet (mechanisch) kunnen verklaren, maar wel op de eigenschappen die volgen uit de compositie van de onderdelen van ons lichaam. Descartes’ mechanische theorie van het geheugen wordt uit de doeken gedaan, vertelt Sutton, in zijn L’Homme, een onderdeel van Le Monde. In dit boek vraagt hij zijn lezer zich een wereld voor te stellen waarin zielloze machines onze gedragingen imiteren. Hij onderzoekt niet enkel bewegen, eten, slapen en reproduceren maar ook mentale capaciteiten die doorgaans aan de ziel toegeschreven worden zoals sensatie, verbeelding, emotie en geheugen. Dit is de fabel van Descartes, een handig trucje om op zoek te gaan naar mechanische verklaringen zonder veroordeeld te worden (zoals Galileo) voor ketterij (Sutton, 1998, p. 56). Laten we nu eens ingaan, aan de hand van Sutton’s boek, op de geheugentheorie van Descartes. Sutton ziet in hem een voorloper van het connectionisme (infra). Herinneren is veleer het reconstrueren van een geheugenpatroon dan het ophalen van een spoor uit de opslagruimte van ons geheugen. Concreet kwam herinneren voor Descartes overeen met het reconstrueren van een stroom van animale geesten door de poriën in het centrum van het brein (Sutton, 1998, p. 59). Bepaalde poriën zijn minder of meer geopend dan andere en door het herhaaldelijk herinneren van hetzelfde patroon ontstaan fysische disposities in de poriën. Dit is het materiële equivalent van het geheugen. Datgene wat blijvend is in het brein. Omdat respresentaties van herinneringen gedistribueerd zijn (een patroon over vele poriën) kan in eenzelfde set van poriën een grote hoeveelheid herinneringen opgeslagen worden. Hier wordt duidelijk waarom Sutton van reconstructie spreekt en niet van reproductie. Wanneer een deel van een patroon door toeval of door een cue geactiveerd wordt helpen de disposities om het hele patroon terug te activeren en dus te herinneren. Hoe vaker het patroon geactiveerd wordt, hoe sterker de disposities en hoe sterker dus ook de herinnering. Sutton vertelt vervolgens hoe Descartes zelf een metafoor invoerde om het systeem zichtbaar te maken. Hij sprak van een linnen doek waardoor verschillende naalden herhaaldelijk passeren (Sutton, 1998, p. 59). Hoe vaker een naald door een bepaalde opening gestoken wordt, hoe groter de opening wordt. En zelfs openingen die weer sloten na eenmalig geopend te worden zullen de tweede keer makkelijker openen. Openingen die altijd samen geopend werden zullen elkaar beïnvloeden wanneer slechts een van de twee geopend wordt. Dat laatste komt bij het herinneren overeen met 19 | P a g e
een cue. Wanneer ik een deel van de eifeltoren zie zal dat het gehele patroon oproepen. Een andere vergelijking waarvan Descartes spreekt is de vouw in een blad papier (Sutton, 1998, pp. 63-64). Hoe meer we het blad vouwen hoe groter de ‘dispositie’ in het blad. Hoe meer vouwen hoe groter de kans dat ze gaan overlappen, en uiteindelijk zal een blad papier slechts een beperkt aantal vouwen kunnen hebben, zoals het brein een beperkt aantal herinneringen kan bevatten. Toch is er een drastische stijging in het aantal mogelijke herinneringen in vergelijking met oudere theorieën. In het wasbord van Plato heeft elke herinnering zijn eigen plaats. Het wasbord zal veel sneller volgeklad zijn dan Descartes’ geheugen. Dat is te danken aan de superpositionele opslag en de gedistribueerde representaties (Sutton, 1998, pp. 63-64). Ook verbeelding kan uitgelegd worden aan de hand van deze geheugentheorie. Descartes beschrijft een model waarin we bepaalde ideeën kunnen hebben zonder tussenkomst van de rationele ziel. Ideeën worden dan niet enkel geactiveerd door de realiteit die onze zintuigen activeert. Patronen kunnen ook toevallig geactiveerd worden, door ruis als het ware, en aangezien verschillende patronen opgeslagen kunnen worden in een grote hoeveelheid poriën, zullen ideeën zich ook met elkaar gaan vermengen. Op die manier ontstaan fictieve ideeën, bijvoorbeeld de eenhoorn, als vermenging van andere ideeën. (Sutton, 1998, p. 62) Afgezien van het materiaal waarmee dit systeem werkt zijn er, zoals Sutton beweert, erg veel gelijkenissen met hedendaagse connectionistische netwerken. Erg belangrijk is dat dit systeem een complete ontkenning is van het geheugen als statische opbergruimte. Er is geen enkel stukje materie dat aangeduid kan worden als het substraat van een bepaalde herinnering. Herinneringen zijn geen ‘dingen’ die ergens opgestapeld zijn in één of ander archief. Descartes’ theorie maakt van herinneren een actief proces, een constructie. Dat impliceert dat het zien van een oude vriend, mijn herinnering ervan de dag erna en mijn herinnering een week later geen gemeenschappelijke component hebben. Elke keer wordt een patroon gereconstrueerd in een substraat dat beïnvloed werd door de vorige gebeurtenissen. Er is echter niets aanwezig in elk van deze 3 processen dat we een statische, onveranderlijke herinnering kunnen noemen. Deze interpretatie van het cartesianisme is, zoals eerder vermeld, nogal onconventioneel. In elk inleidend filosofisch werk wordt Descartes voorgesteld als de rationalist bij uitstek, bijvoorbeeld in Neath (1998, p. 12). Hij wordt loodrecht tegenover de Britse empiristen geplaatst. Deze laatsten claimen dat al onze kennis afstamt van de waarneming. John Locke beweert dat de mens bij de geboorte een tabula rasa, een onbeschreven blad is, dat door ervaring beschreven wordt . Thomas Hobbes heeft het over ‘simpele ideeën’, afkomstig van sensatie, die gecombineerd worden tot 20 | P a g e
‘complexe ideeën’. Het denken is volgens deze school niet meer dan een opeenvolging van ideeën die we via de empirie verkregen hebben. Hoe die opeenvolging juist verloopt hangt af van de wetten van associatie. We hebben het reeds gehad over de drie wetten die al bij Aristoteles te vinden zijn. We associëren ideeën die dicht bij elkaar staan, die op elkaar lijken of die contrasteren. Volgens David Hume worden ook oorzaken en gevolgen met elkaar geassocieerd. Volgens de algemeen aanvaarde geschiedenis van filosofie en psychologie zijn deze associationistische ideeën de voorlopers van het connectionisme. In deze laatste stroming is er sprake van activatie van patronen. Het ene patroon kan, wanneer het voldoende geactiveerd is, aanleiding geven tot de activatie van een ander patroon. Dat is een meer ingewikkelde verklaring voor associatie. Descartes, met zijn aangeboren, vastgeroeste ideeën en zijn beroep op een immateriële ziel, had het in deze interpretatie bij het verkeerde eind, maar zoals we gezien hebben kunnen we hem ook lezen als een visionair. Douwe Draaisma bespreekt een andere vertegenwoordiger van de mechanische traditie. Een volgens hem erg onderschatte figuur die op de grens tussen middeleeuwen en nieuwe tijden een geheugentheorie heeft uitgewerkt, met name Robert Hooke, een zeventiende eeuwse homo universalis. Hij was fysicus, uitvinder, architect, sterrenkundige en hij introduceerde de naam ‘cel’ na zijn microscopische waarnemingen (Draaisma, 1995, p. 77). Hooke wou, in navolging van Descartes, een volledig mechanische verklaring geven voor het geheugen. De perfecte metafoor vond hij in zogenaamde fosforenscerende stoffen (Draaisma, 1995, p. 70). Dat waren stoffen die licht konden vasthouden en afgeven in het donker. Een fysisch substraat voor het visuele geheugen was niet langer iets mysterieus en ontoegankelijk. Een simpele analogie met een aardse stof volstond. We zien hier opnieuw het gevaar van de substitutie-metafoor (supra). Hoe fosforescerende stoffen het licht konden vasthouden was niet geweten. Hoe ons brein lichtindrukken opslaat was even onbekend. Maar het feit dat een eenvoudige steentje het kon moest wel betekenen dat ook wij geen transcendentale ziel nodig hebben om te herinneren. Hoewel de ziel wel nog een rol speelt bij Hooke, worden toch veel van haar aspecten vervangen door mechanismen in de hersenen. Net als Descartes moest Hooke namelijk ook een middel vinden om veroordeling te vermijden. De ziel mechaniseren was dus zeker geen optie, maar Hooke onttrok meer en meer functies van de ziel om die vervolgens te mechaniseren. Het geheugen was één van die functies (Draaisma, 1995, p. 84). Hooke maakte niet enkel gebruik van de fosformetafoor. Hoewel de Royal Society niet erg gesteld was op beeldspraak (om redenen die ik in het eerste onderdeel van dit deel heb aangehaald) waren Hooke’s teksten ervan doordrongen. Ook hij heeft het over de opslagplaats van het geheugen waarbij de zintuigen “carriers” zijn die de indrukken stapelen (Draaisma, 1995, p. 78). De 21 | P a g e
opslagplaats komt overeen met onze hersensubstantie. Misschien is het beter te spreken van verschillende opslagplaatsen, één voor elke zintuiglijke modaliteit, zoals bij Augustinus. Ook voor het opslaan van geluid had Hooke een metafoor, nl. glazen waarin je het geluid hoort nagalmen (Draaisma, 1995, p. 78). Centraal in de hersensubstantie bevindt zich de ziel die in alle richtingen schijnt zoals de zon. Rond de ziel op verschillende afstanden bevinden zich de opgeslagen indrukken. Hun afstand tot het centrum is een functie van hun ouderdom, hoe ouder de herinnering, hoe verder ze van de ziel verwijderd is. Dat vergroot de kans dat het licht van de ziel de herinnering niet kan bereiken omdat ze te ver is of omdat er een andere herinnering tussenstaat. Deze twee verklaringen van vergeten komen overeen met de verval- en de interferentietheorie van vandaag en afstand in functie van ouderdom doet denken aan de vergeetcurve van Ebbinghaus (infra). Opvallend is hoe Hooke fysische wetten gebruikt om een psychologisch verschijnsel te verklaren (Draaisma, 1995, p. 82). Draaisma verbindt de metafoor van de microkosmos met de ziel als zon met de invloed van het hermetisme. Hooke groeide namelijk op binnen deze traditie. Een belangrijke opmerking bij bovenstaande theorie is echter dat Hooke dit alles beschouwde als iets materieel, iets dat uitgebreidheid heeft en dus werkelijk in ons hoofd aanwezig is. In tegenstelling tot Augustinus moest Hooke dus wel een antwoord bieden op de vraag van het plaatsgebrek. Een eindige massa in onze hersenen betekende een eindige opslagcapaciteit voor herinneringen. Dat was echter geen probleem voor Hooke. Gezien zijn werk met de microscoop was hij gewend aan het idee dat het heel kleine heel veel informatie kan bevatten (Draaisma, 1995, p. 80).
4) De romantiek Descartes en Hooke waren slechts de eerste vertegenwoordigers van de mechanicistische traditie. Zij hadden nog trucjes, fabels, achterpoortjes en verbloemd taalgebruik nodig om hun ideeën te kunnen verdedigen. Het succes van de wetenschappelijke revolutie deed het geloof groeien dat heel de wereld reduceerbaar was tot fysische interacties tussen haar onderdelen. De ziel bestond nog, maar ging meer en meer op een leeg reservoir gaan lijken tot uiteindelijk het onvermijdelijke gebeurde en de mens als machine tussen de rest van de dieren werd geplaatst. Dat gebeurde in het jaar 1749 en onder de vorm van een pamflet getiteld L’homme machine van de franse artst Julien de Lamettrie (Draaisma, 1995, p. 95). Hij was één van de philosophes van de Franse Verlichting. Het is een staaltje van bescheidenheid dat we slechts zelden tegenkomen in de geschiedenis. Het doet natuurlijk 22 | P a g e
denken op Darwin, die op zijn beurt de mens van zijn geprivilegieerde positie in the chain of being weghaalde en hem een nieuw plaatsje gaf op een takje van de evolutionaire boom, een takje dat voor hetzelfde geld nooit had bestaan. Darwin publiceerde zijn Origin of Species echter pas in 1859, dat is 110 jaar na Lamettrie’s pamflet. In tussentijd, tussen 1790 en 1840 was een tegenbeweging ontstaan, de romantiek (Draaisma, 1995, p. 97). Haar aanhangers konden geen vrede nemen met het idee dat de mens niet meer is dan een machine. Machines zijn eenvoudig, de mens is complex. Die complexiteit werd voortdurend benadrukt aan de hand van organische metaforen (Draaisma, 1995, p. 98). Het gebruik van de metafoor had dus voor één keer niet als doel een complex proces vatbaar te maken. Het was net het onvatbare dat benadrukt moest worden. De microkosmos van onze geest werd opnieuw gezien als een afspiegeling van de macrokosmos rondom ons, zoals bij Hooke, maar met geheel andere bedoelingen. Onze ziel is als een landschap, gigantisch uitgestrekt, zonder regelmatigheid, met verborgen holen en grotten, met voorbijvliegende wolken die storm brengen of net niet. Ons geheugen is als een labyrint met verborgen kamers waarin de bron van onze creativiteit schuilt. Ons bewustzijn is als de zon die het landschap verlicht, maar het licht dringt niet in alle spelonken van het landschap of niet in alle gangen van het labyrint door. Het onderbewuste sluimert onder de oppervlakte en zal door ons nooit gevat kunnen worden. De enige mechanische metafoor die gebruikt wordt is die van het weefgetouw, maar juist om aan te tonen hoe complex en onvoorspelbaar ons geheugen werkt (Draaisma, 1995, p. 101). Zoals we vandaag nog steeds niet met zekerheid het weer kunnen voorspellen, zo zullen we ook nooit kunnen doordringen tot in de diepste gangen en grotten van ons geheugen.
5) Nieuwe geheugenmetaforen onder invloed van de technologische revolutie. The Fysiological Turn. De ideeën van de romantiek moesten het opnemen tegen de eeuwige nieuwsgierigheid en verklaringsdrang van de mens. Het verzet was gedoemd te mislukken. De 19de eeuw bracht een nieuwe golf van speculatie over het geheugen. Men ging zich voor het eerst ook met hersenanatomie bezig houden. Dat lijkt erg laat in de geschiedenis, maar het is te begrijpen wanneer we bedenken dat de mysterieuze eigenschappen van onze hersenen voor het grootste gedeelte van de geschiedenis werden toegeschreven aan een immateriële ziel. Het is pas wanneer de kerk aan invloed inboet en wanneer het materialisme ontstaat dat er voor het eerst werd gepraat over lokalisatie van psychologische functies in de materie van ons brein. Een voorbeeld is de frenologie, een 19de eeuwse stroming binnen de geneeskunde, die aan de hand van de vorm van de schedel de 23 | P a g e
grootte van hersenorganen probeerde te achterhalen (Draaisma, 1995, p. 105). Die grootte correspondeerde met de mate van ontwikkeling van dat orgaan, waardoor psychische eigenschappen van mensen voorspeld werden aan de hand van uitstulpingen en deuken in hun schedel. De frenologie heeft de 19de eeuw niet overleefd, maar het heeft wel het idee van lokalisatie geïntroduceerd. Het idee kwam in de neurowetenschap zelf terecht via Broca, een franse arts die merkte dat schade aan een bepaald stukje neocortex in verschillende patiënten leidde tot dezelfde symptomen, een probleem met taal dat later Broca-afasie werd gedoopt (Draaisma, 1995, p. 109). Dankzij deze gebeurtenissen ontstond het idee dat elke cognitieve capaciteit zijn eigen neurologisch substraat heeft. Deze beweging noemt zichzelf de ‘mental physiology’. Wat het geheugen betreft is het een voortzetting van de zoektocht naar Hooke’s fosforescerende stof, of naar een substraat dat onze herinneringen compleet conform de natuurwetten kan vasthouden. Draaisma legt de nadruk op één erg belangrijke publicatie binnen deze traditie, en dan voornamelijk op een stelling in die publicatie. In 1870 beweerde de fysioloog Ewald Hering dat geheugen een algemeen kenmerk is van organische materie (Draaisma, 1995, p. 112). Bij het waarnemen wordt een elektrisch spoor getrokken door onze hersensubstantie. Een geëxciteerd neuron activeert op zijn beurt het volgende neuron. De cellen onthouden deze beweging aan de hand van disposities, wat herhaling faciliteert. Het ontstaan van deze disposities is geen ingewikkeld proces maar juist een natuurlijke, universele eigenschap van organische cellen. Op deze manier wou men op een geheel fysiologische manier een verklaring geven voor het geheugen. Dit doet denken aan de Hebb-regel, die leren toelaat door het ontstaan van disposities op het niveau van de cel. Maar daarover later meer. Nog steeds kwamen metaforen goed van pas in de zoektocht naar het fysisch substraat van het geheugen. De 19de eeuw was een unieke gelegenheid door het ontstaan van de fotografie en van de fonograaf. Deze twee apparaten maakten het idee van de fysische retentie van visuele en auditieve informatie veel aannemelijker. Er werd dan ook dankbaar gebruik van gemaakt in geheugentheorieën. (Draaisma, 1995) De geschiedenis van de fotografie, vertelt Draaisma ons, begint bij de camera obscura (Draaisma, 1995, p. 137). Dat is een duistere kamer met een gat in één van de wanden. Het licht dat door het gat de kamer binnenschijnt projecteert een beeld op de overliggende wand. Het is meer een natuurlijk fenomeen dan een uitvinding en er is al sprake van in de geschriften van Aristoteles en in Euclides’ Optica. De camera obscura werd bovendien al vrij vroeg gebruikt als analogie voor het oog. Het licht dat het oog binnenvalt wordt omgekeerd geprojecteerd op het netvlies. Descartes werkte deze analogie verder uit in zijn Dioptrique (Draaisma, 1995, p. 137). Hier is echter nog geen sprake van fotografie en geheugen. Daarvoor waren verdere ontwikkelingen nodig. Het geprojecteerde beeld in 24 | P a g e
een camera obscura is namelijk vluchtig, de projectie verdwijnt van zodra het geprojecteerde verdwijnt en een geheugen is net een projectie van iets dat niet meer aanwezig is. De tweede stap in de geschiedenis van de fotografie werd maar gezet na de ontdekking van de mysterieuze fosforescerende stoffen waarover Hooke het had. Douwe Draaisma noemt de fotografie een “huwelijk tussen optica en chemie” (Draaisma, 1995, p. 143). Men trachtte de beelden die het licht van nature creëerde, zoals het beeld in de camera obscura, te conserveren met chemische stoffen die licht konden vasthouden, zoals zilvernitraat. Gedurende de eerste helft van de 19de eeuw werd het procedé uitgewerkt en verbeterd door mensen als Jospeh Niépce, Louis Daguerre, William Fox Talbot en Samuel F.B. Morse (Draaisma, 1995). Het werd nu mogelijk om een momentopname te maken van een gebeurtenis die voor altijd objectief zal weergeven hoe het echt gegaan is. Het was een wereldschokkende uitvinding. Iets wat men zich niet kon voorstellen tot het bestond. Analogieën met het geheugen lagen nu dan ook voor de hand. De filosofische discussie over hoe mechanisch onze ziel is, in combinatie met het ontstaan van een compleet mechanisch procedé voor de opslag van beeldmateriaal, moest wel leiden tot geheugentheorieën gebaseerd op fotografische platen. Licht dat via de pupil op het netvlies geprojecteerd wordt, wordt vervolgens chemisch gefixeerd en de sporen van het beeld blijven eeuwig sluimeren in ons geheugen. Draaisma bespreekt John William Draper als vertegenwoordiger van deze metafoor. Volgens Draper laat licht een permanente impressie na op dat waarop het schijnt. De ganglions in onze hersenen zijn bovendien gespecialiseerd in het fixeren van dat licht, wat hen optimaal maakt als substraat van het geheugen (Draaisma, 1995, p. 156). Draper maakt gretig gebruik van de fotografiemetafoor. Hij spreekt over foto’s die in Mexico genomen worden en vervolgens pas in New York terug worden ontwikkeld. In tussentijd en over de vele kilometers die deze twee plaatsen scheiden werden de impressies bewaard op het fotografisch papier. Draper merkte op dat de foto niets vergeten was (Draaisma, 1995, p. 157). Een mooie illustraties van een metafoor die in twee richtingen werkt. Wat de fotografie deed voor het visuele geheugen deed de fonograaf voor het auditieve geheugen. Het apparaat werd in 1877 gefinaliseerd door Edison (Draaisma, 1995, p. 116). Het principe bestaat uit een naald die groeven maakt in een schijf onder invloed van geluid. Hierdoor ontstaat een golfpatroon dat achteraf weer in geluid omgezet kan worden. Het werd nu dus ook mogelijk om geluid, misschien nog vluchtiger dan het beeld, te conserveren. Niet veel later, zoals ondertussen wel te verwachten valt, sprak men van ons brein als een fonograaf (Draaisma, 1995, p. 120).
25 | P a g e
6) Ebbinghaus en de kwantitatieve benadering Veel van de tot nu toe besproken geheugentheorieën ontstonden via introspectie. De grote denkers van de geschiedenis bestudeerden zichzelf en hun eigen herinneringen. Bij introspectie worden we geconfronteerd met de vele mysteries van het geheugen. Soms vergeten we, soms weten we dat we iets weten maar kunnen we er net niet opkomen, we weten altijd onmiddellijk dat we iets niet weten, soms antwoorden we intuïtief iets op een vraag en blijkt dat juist te zijn. Al deze verschijnselen doen ons beseffen hoe ingewikkeld we in elkaar zitten. Dit verklaart waarom het geheugen zo vaak vergeleken is met eindeloze complexe fenomenen en waarom een mechanische beschrijving van het geheugen, of van het denken in het algemeen, absurd leek. Maar ook Descartes ging te werk aan de hand van introspectie. Hij verantwoordde deze methode echter als de enige legitieme manier om tot ware kennis te komen. Een eigenschap van introspectie is haar subjectiviteit. Elkeen ervaart hetzelfde fenomeen op een verschillende wijze. De één kan bij het bestuderen van zijn eigen geheugen vooral gegrepen worden door de enorme opslagcapaciteit, terwijl de ander zich kan ergeren aan hoe vluchtig informatie is en hoe rap hij vergeet. Als beide personen nu ook een theorie opstellen van het geheugen en eventueel een metafoor invoeren dan zullen deze enorm van elkaar verschillen. En verder is er binnen deze methode geen manier om uit te maken wie gelijk heeft. De verwezenlijking van de wetenschappelijke revolutie was net dat de objectiviteit in theorievorming werd geïntroduceerd aan de hand van experimenteel onderzoek. De valwetten van Galileo Galilei hadden niets te maken met hoe hij zelf het vallen ervoer, maar hij formuleerde een experiment met objectieve meetmethoden, waarover iedereen het dus eens kon zijn. Hoewel deze revolutie voor de fysica reeds plaatsvond in de 17de eeuw, moest de psychologie wachten tot in de 19de eeuw op Wilhelm Wundt, en voor experimenteel geheugenonderzoek op Hermann Ebbinghaus. Ebbinghaus is vooral bekend voor zijn onderzoek naar vergeten. Nogal ironisch, gezien het voorgaande, is dat hij zelf zijn eigen en enige testsubject was. Zijn methode heeft echter niets te maken met introspectie, en herhalingen van het onderzoek met andere proefpersonen hebben aangetoond dat de resultaten extrapoleerbaar zijn. We beschrijven zijn bekende experiment aan de hand van Neath (1998). Hij stelde lijsten samen van nonsensicale lettergrepen zoals VAC of YAT. Hij leerde een lijst tot hij ze volledig in de juiste volgorde kon opzeggen. Vervolgens wachtte hij een bepaalde tijd, om dan opnieuw de lijst te leren. Het verschil tussen de tijd die origineel nodig was om de lijst van buiten te leren en de tijd die de tweede maal nodig was noemde hij de winst. Wanneer 26 | P a g e
we nu het percentage winst uitzetten tegenover de tijd tussen eerste en tweede leerfase bekomen we de vergeetcurve van Ebbinghaus, of de eerste objectieve weergave van vergeten ooit (zie figuur 1). Zoals te verwachten valt wordt het percentage winst met de tijd kleiner, maar wordt de curve ook platter. De eerste minuten maken een groot verschil, na enkele uren is er nog een geleidelijke afname en na een dag is de afname bijna vlak geworden. (Neath, 1998, pp. 16-18) Maar Ebbinghaus ‘mathematiseerde’ veel meer dan enkel het vergeten. Hij onderzocht het verband tussen de lengte van de lijst en de tijd die nodig was ze te leren. Hij leerde gedichten van buiten om te zien of betekenis en rijm invloed hadden op het leerproces (Draaisma, 1995, p. 126). De noodzakelijke stap die hij zette was, zoals ondertussen duidelijk is, een objectieve maat vinden voor geheugen. Hij vond die maat in de tijd die nodig was om iets van buiten te leren.
Vergeetcurve van Ebbinghaus 100 90
Percentage winst
80 70 60 50 40 30 20 10 0 0
1
2
3
4
5
6
7
8
Tijd
Figuur 1: De vergeetcurve van Hermann Ebbinghaus. De precieze waarden zijn fictief, maar de vorm van de curve komt kwalitatief overeen met wat typisch in de literatuur beschreven wordt, bv. (Neath, 1998). Op de horizontale as zien we de tijd die voorbij gegaan is sinds het voor het eerst leren van de lijst (t=0). Op de verticale as zien we het percentage winst. Dat is de tijd die nodig is om de lijst van buiten te leren op een gegeven moment gedeeld door de originele tijd die nodig was.
7) William James Bij het ingaan van de 20ste eeuw was de psychologie een volwaardige wetenschap. Een werk dat hiertoe bijgedragen heeft is de Principles of Psychology van William James, een 900 pagina’s lang 27 | P a g e
boek dat alle aspecten van de menselijke geest bespreekt, zo ook het geheugen in hoofdstuk 16. James’ opvatting over het geheugen is tegelijk een samenvatting van oude theorieën en een mooie inleiding tot de 20ste eeuw. James past in de associationistische traditie. Hij maakt dankbaar gebruik van de introspectieve methode, maar bouwt ook verder op experimenteel onderzoek dat door Wundt, Fechner en Ebbinghaus werd uitgevoerd. Bovendien benadrukt hij herhaaldelijk dat een geheugentheorie pas waarde heeft wanneer er naast de mentale component ook een lichamelijke component beschreven wordt. Het hoofdstuk over het geheugen begint met een onderscheid tussen primair en secundair geheugen. Het eerste is niet meer dan het nasluimeren in het bewustzijn van iets dat seconden geleden ervaren werd. Er is niet echt tijd voorbij gegaan. Het secundaire geheugen, datgene wat James echt wil bespreken, is het herbeleven van iets dat lange tijd niet in het bewustzijn aanwezig geweest is (James, 1952, p. 423). Het is een onderscheid dat is blijven bestaan in de cognitieve wetenschappen en ook vandaag nog belangrijk is. Vandaag wordt met het primaire geheugen het werkgeheugen of kortetermijngeheugen bedoeld, bijvoorbeeld het onthouden van een telefoonnummer voor enkele seconden. We maken voortdurend gebruik van dit geheugen bij het uitvoeren van onze dagdagelijkse taken, en het is een belangrijke, als niet de belangrijkste component van het bewustzijn. Het secundaire geheugen noemen we vandaag het langetermijngeheugen. Dat komt overeen met de dingen die voor langere tijd opgeslagen worden. Er bestaan theorieën over beide geheugens die we in deel 3 verder zullen bespreken. Nadat James deze distinctie invoert volgt een filosofische uiteenzetting over het fenomeen herinneren. Herinneren is niet louter het herervaren van iets. De ervaring van ontbijten vandaag is niet voldoende om je het ontbijt van gisteren te herinneren. Er is meer nodig. Volgens James is een herinnering een complexe representatie bestaande uit het originele beeld of gevoel plus een verzameling geassocieerde elementen. Zo is bijvoorbeeld een conceptie van het zelf nodig, gesitueerd in tijd, zowel nu als bij het ervaren van wat nu herinnerd wordt. Het object dat bestaat uit al deze elementen en hun verbindingen noemt James een herinnering (James, 1952, p. 426). De verbindingen spelen hierin een belangrijke rol. Hier wordt duidelijk dat James een aanhanger is van het associationisme van de Briste empiristen. Hij maakt het onderscheid tussen opslag (retention) en ophaling (recall). Ophaling gebeurt aan de hand van associatie. James beschrijft een zoektocht in het geheugen met een voorbeeld: het ontmoeten van een oude kennis wiens naam we ons niet herinneren (James, 1952, p. 427). We associëren zijn gezicht met enkele namen, plaatsen hem in situaties waar we hem ontmoet hebben in de hoop dat een van die contextuele cues zijn naam zal activeren, we denken aan gemeenschappelijke kennissen, dingen die hij gedaan heeft, gesprekken die we met hem gehad hebben, enzovoort. We cirkelen rond de naam van herinnering naar geassocieerde herinnering om
28 | P a g e
zo uiteindelijk (als we geluk hebben) op de juiste herinnering uit te komen. James maakt zelfs even gebruik van de opbergruimtemetafoor: “In short, we make search in our memory for a forgotten idea, just as we rummage our house for a lost object. In both cases we visit what seems to us the probable neighborhood of that which we miss. We turn over the things under which, or within which, or alongside of which, it may possibly be; and if it lies near them, it soon comes to view. But these matters, in the case of a mental object sought, are nothing but its associates. The machinery of recall is thus the same as the machinery of association, and the machinery of association, as we know, is nothing but the elementary law of habit in the nerve-centres.” (James, 1952, p. 428)
Vervolgens stelt James dat opslag of retentie niet meer is dan de mogelijkheid tot ophaling. Wat opgehaald wordt is logischerwijs bewaard. Herinneringen activeren elkaar via neurologische verbindingen. De neiging tot het activeren van verbonden herinneringen zal dus vergroten naarmate de verbinding sterker wordt. Opslag komt dus overeen met het maken en versterken van paden in het breinweefsel, een puur fysiologisch fenomeen. Het ophalen van herinneringen is een psychofysisch fenomeen, het heeft een lichamelijke kant, het activeren van de neurologische paden, en een mentale kant, de bewuste herinnering (James, 1952, p. 429). De paden waarvan hier sprake is komen overeen met wat door Descartes predisposities en door anderen sporen genoemd werden. Vervolgens moet James een link leggen tussen een herinnering als complexe respresentatie en een herinnering als het heractiveren van een pad. Anders weerlegt zijn eerste uiteenzetting zijn tweede. Een herinnering is meer dan een reactivatie van de ervaring. Of zoals James het zelf uitdrukt: “The gutter is worn deeper by each successive shower, but not for that reason brought into contact with previous showers” (James, 1952, p. 430). Wat reactivatie doet is niet meer dan het sterker en vlotter maken van verbindingen. Het zorgt er niet voor dat een ervaring een bepaald label krijgt met de tekst ‘dit is een herinnering’. Wat wel gebeurt is dat er paden gelegd worden tussen datgene wat herinnerd wordt en de andere noodzakelijke elementen voor de herinnering, nl. situering in de tijd, contextuele factoren, opvatting van het zelf nu en toen, .... Die paden worden vervolgens bij elke ophaling versterkt (James, 1952, p. 430). Na de uitwerking van zijn algemene opvatting over het geheugen bespreekt hij de eigenschappen van ‘het goede geheugen’. Hij spreekt vol lof over de groten in de geschiedenis en over hoe ze hun grootheid te danken hadden aan wat hij ‘amazing retentiveness’ noemt. Deze eigenschap is er één van puur fysiologische aard. Sommige mensen zijn gewoon beter dan anderen in het opslaan van informatie omdat hun breinweefsel geschikter is. James drukt het zelf uit op een manier die Plato en Aristoteles trots gemaakt zou hebben: “This tenacity [retentiveness] differs enormously from infancy to old age, and from one person to another. Some minds are like wax under a seal -- no impression, 29 | P a g e
however disconnected with others, is wiped out. Others, like a jelly, vibrate to every touch, but under usual conditions retain no permanent mark.” (James, 1952, p. 432) Maar deze aangeboren capaciteit om goed of minder goed te onthouden is niet de enige factor die bijdraagt tot ‘het goede geheugen’. Uit het associationisme volgt dat een herinnering een grotere kans heeft opgehaald te worden wanneer ze gelinkt is met een groter aantal andere herinneringen en wanneer ze dus via meer paden geactiveerd kan worden. Twee mensen met dezelfde aangeboren ‘retentiveness’ kunnen dus een verschillend geheugen hebben indien de ene tijd besteedt aan het trainen van zijn geheugen, namelijk het samenweven van ervaringen door ze te overdenken en door het leggen van linken, en de andere niet. Dat verklaart ook waarom specialisten in een bepaald domein een beter dan gemiddeld geheugen hebben voor gebeurtenissen binnen dat domein. James geeft als voorbeeld een studerende atleet die niets onthoudt uit zijn cursussen maar probleemloos de sportstatistieken van de laatste 20 jaar kan reciteren. Dat komt omdat die laatste gegevens voortdurend in zijn hoofd ronddwalen, waardoor ze de gelegenheid krijgen een netwerk van verbindende paden te vormen (James, 1952, p. 433).
30 | P a g e
III. 20ste eeuwse ontwikkelingen De 20ste eeuw betekende, wat vele wetenschappelijke takken betreft, een enorme vooruitgang. De wetenschap begon aan zelfdefiniëring en introspectie te doen, wat leidde tot het ontstaan van de wetenschapsfilosofie. Deze eeuw wordt dan ook gekenmerkt door duidelijkere paradigmawissels. Ook de geheugenpsychologie matureerde in deze periode. In het begin van de eeuw was de stroming van het behaviorisme dominant binnen de gehele psychologie. Haar tekortkomingen werden aangewezen en opgevuld door de cognitieve wetenschappen. Het is binnen dit paradigma dat we het ontstaan en de duidelijk invloed van de computermetafoor kunnen waarnemen, zowel voor het geheugen als voor de menselijke geest in het algemeen. Geheugentheorieën werden ontwikkeld aan de hand van wiskundige modellen. Deze modellen evolueerden om steeds beter de empirische waarnemingen van psychologische experimenten te kunnen verklaren. Het zou tot de jaren 80 duren voor een ernstig alternatief op het toneel verscheen. Het connectionisme verzette zich tegen de computermetafoor en introduceerde eenvoudige neurale netwerken die onze cognitie moesten verklaren. Andere metaforen, zoals die van het hologram, werden naar voren geschoven. Het criteria van neurologische plausibiliteit deed zijn intrede. De modellen vertoonden nu ook een anatomische overeenkomst met onze hersenen.
1) Behaviorisme Het behaviorisme is een psychologisch en filosofisch paradigma dat erg dominant was in het begin van de 20ste eeuw, tot zelfs even na de Tweede Wereldoorlog. Er bestaan verschillende benaderingen van dit paradigma. Methodologisch behaviorisme stelt dat psychologie als doel heeft het gedrag van de mens te bestuderen en niet zijn interne ‘mentale’ wereld. In die zin is deze stroming een duidelijke voortzetting van de experimentele traditie. We zullen nooit elkanders interne toestand objectief kunnen observeren en dus zijn experimenten onmogelijk. Gedrag is wel objectief meetbaar. De wetenschap, waar de psychologie nu ook deel van moest uitmaken, hoort zich dus enkel met de studie van het gedrag bezig te houden. J.B. Watson stelde het als volgt: “Psychology as the behaviorist views it is a purely objective natural science. Its theoretical goal is the prediction and control of behavior. Introspection forms no essential part of its method nor is the scientific value of its data dependent upon the readiness with which they lend themselves to interpretation in terms of consciousness.” (Watson, zoals geciteerd in Johnson-Laird, 1998, p. 16)
31 | P a g e
Een ietwat extremere vorm is het psychologisch behaviorisme, dat stelt dat de bron van al het menselijk en dierlijk gedrag in de buitenwereld ligt. We hebben dus geen mentale wereld nodig om gedragingen te verklaren en aan psychologie te doen. Ivan Pavlov, een bekend behaviorist, liet zijn hond elke dag het geluid van een belletje horen terwijl hij hem eten voorschotelde. De hond begon logischerwijs speeksel te produceren bij het zien van dat eten. Maar na een tijdje was het belgeluid alleen voldoende om te zorgen voor speekselproductie. Dit is het prototypische experiment van de klassieke conditionering. Psychologische behavioristen stellen dat alle gedragingen, ook bij de mens, te herleiden zijn tot deze simpele conditionering. Externe stimuli veroozaken gedragingen, zonder dat een psychische mediëring nodig is. Deze stroming stamt rechtstreeks af van het associationisme dat al meermaals naar voren is gekomen. Associatief leren is, volgens de klassieke theorie van de Britse empiristen, het koppelen aan elkaar van perceptuele stimuli (ervaringen) en ideeën. Dat komt overeen met het opdelen van de wereld in de categorieën van ons denken. Ik zie een tijger en associeer dat met het idee in mijn hoofd van tijger. Dat idee is op zijn beurt geassocieerd met gevaarlijk, en het resultaat is intelligent gedrag, namelijk ik loop weg. Om hieruit een behavioristische theorie te construeren was een vertaling nodig. Er mag namelijk geen sprake zijn van ‘ideeën’ of ‘categorieën van ons denken’. Ervaringen moeten vervangen worden door externe stimuli en ideeën worden vervangen door respons of gedrag. Stimulus geeft dus aanleiding tot gedrag, en de hele route langs onze mentale wereld wordt overgeslagen. De meest extreme en meest filosofische vorm van behaviorisme is de analytische versie. Deze stelt dat mentale toestanden in feite niet meer zijn dan disposities om zo of zo te handelen in bepaalde mogelijke situaties. Wanneer ik bijvoorbeeld geloof dat het 8 uur is, dan is dat ‘geloof’ niet meer dan een lijst handelingen die ik stel, bijvoorbeeld de tv aanzetten omdat mijn favoriete programma zal beginnen. Dit is een poging om te ontsnappen aan het dualisme van Descartes. In het dualisme is het mentale een zelfstandig domein, een domein dat geen ruimtelijke uitgestrektheid heeft maar het materiële wel kan beïnvloeden, de inhoud van mijn denken veroorzaakt fysische reacties in de werkelijkheid. Door het mentale te herleiden tot een lijst van disposities in het materiële wilden de analytische behavioristen van die hele mentale wereld af geraken. De bekendste en meest radicale is B.F. Skinner. Hij verdedigt dan ook wat hij het radicale behaviorisme noemt. Zijn bekendste argument wordt (naar Hempel) ‘the theoretician’s dilemma’ genoemd en gaat als volgt. Stel dat er mentale toestanden zouden bestaan, dan zijn er twee opties. Of ze gehoorzamen aan wetten, en dan is er geen enkel probleem met een theorie die stimulus en gedrag meteen aan elkaar linkt. Externe stimuli veroorzaken dan namelijk mentale toestanden die op hun beurt aanleiding geven tot gedrag. Als deze verbanden volledig deterministisch verlopen kan de 32 | P a g e
tussenstap van de mentale toestanden gewoon overgeslagen worden. De tweede optie is dat mentale toestanden niet aan wetten gehoorzamen, wat wil zeggen dat ze voor de wetenschap geen enkele relevantie hebben. Ze moeten dus in elk geval worden genegeerd. (Johnson-Laird, 1998, p. 17) Het geheugen is één van de menselijke capaciteiten die we in die mentale wereld zouden situeren en die dus door het behaviorisme geherinterpreteerd moet worden. Skinner, zoals we gezien hebben de meest extreme behaviorist, ziet het geheugen als niets meer dan de verandering in hypothetisch gedrag. Er is geen plaats voor een mentale ‘opslagruimte’ waarin we op zoek gaan naar relevante informatie. Het geheugen bestaat uit disposities die ervoor zorgen dat de representatie van het gezochte de volgende keer meer kans heeft geactiveerd te worden. In zijn betoog verwijst hij naar een probleem dat al door Plato was geformuleerd. Hoe kunnen we ons geheugen doorzoeken? Ofwel weten waarnaar we op zoek zijn en dan is het niet meer nodig om te zoeken, ofwel weten we het niet en hoe beginnen we dan aan deze zoektocht? De hele metafoor brengt ons op het verkeerde pad. Wat het geheugen doet is gewoon de waarschijnlijkheid dat we een bepaald gedrag zullen stellen als gevolg van een bepaalde stimulus aanpassen. Dit kan puur fysisch geïnterpreteerd worden. We hebben geen nood aan een mentale component. Skinner schreef in 1974: “The metaphor of storage in memory, which has seemed to be so dramatically confirmed by the computer, has caused a great deal of trouble. The computer is a bad model – as bad as the clay tablets on which the metaphor was probably first based. We do make external records for future use, to supplement defective contingencies of reinforcement, but the assumption of a parallel inner record-keeping process adds nothing to our understanding of this kind of thinking. (It is not the behaviorist, incidentally, but the cognitive psychologist, with his computer-model of the mind, who represents man as a machine.)” (Skinner, 1974, p. 110)
Hier zien we al een eerste instantie van het beruchte debat tussen behavioristen en cognitieve psychologen. In het volgende onderdeel gaan we verder in op het ontstaan van de cognitieve psychologie.
2) Cognitivieve wetenschappen Na de Tweede Wereldoorlog ontstond een geheel nieuw domein dat onderzoek van verschillende andere domeinen samenbracht. Het behaviorisme beperkte het domein van de psychologie tot de studie van het gedrag in experimentele situaties. Als er al een geest of mind zou bestaan behoorde onderzoek ernaar tot de puur speculatieve filosofie. De nieuwe tegenbeweging – het gevolg van een Kuhniaanse revolutie in de psychologie – verenigde net zoveel mogelijk verschillende invalshoeken 33 | P a g e
(Bechtel & Abrahamsen, 1991, p. 1). Erg belangrijk was de integratie van de neurowetenschappen binnen de psychologie. Men ging eindelijk serieus rekening houden met de anatomie en fysiologie van de hersenen. Zo ging naast efficiëntie, eenvoud en empirische toereikendheid ook neurologische plausibiliteit tot de mogelijke troeven van psychologische modellen behoren. Het door Alan Turing opgestarte domein van de computerwetenschap bracht nog een mogelijk perspectief op het toneel. Dat van de menselijke geest als informatieverwerkend apparaat. Daarover zullen we het uitgebreid hebben in deel III.3. Tenslotte ondervond de nieuwe beweging verdere invloeden uit de antropologie, filosofie, ethologie, biologie, linguïstiek, ... Dit nieuwe allesomvattende domein kreeg de naam cognitieve wetenschap. Zoals zonet vermeld werd, ging de neurowetenschap een belangrijke rol spelen. Speculatie over mentale capaciteiten kon niet meer zomaar door de beugel zonder rekening te houden met hoe het er echt in ons hoofd aan toe gaat. Wat het geheugen betreft staan we even stil bij het werk van twee belangrijke wetenschappers. De eerste is Wilder Penfield, een neurochirurg die in 1958 enkele vreemde voorvallen beschreef die hij tijdens verschillende hersenoperaties bij epileptische patiënten had waargenomen. We beschrijven deze voorvallen aan de hand van Roediger et al. (1998). De patiënten werden slechts lokaal verdoofd en bleven dus bij bewustzijn tijdens de operaties. Toen Penfield bepaalde delen van de neocortex elektrisch stimuleerde riep dat bij verschillende patiënten heel levendige en gedetailleerde herinneringen op. Hoewel deze bevindingen vandaag erg controversieel zijn, zijn ze wel doorgedrongen tot in de populaire literatuur. Er zijn twee belangrijke gevolgen. Ten eerste zou dit impliceren dat ons geheugen feilloos registreert wat we meemaken, zonder dat informatie verloren gaat. Vergeten zou dan louter een gevolg zijn van ophalingsproblemen of van een gebrek aan aanwijzingen die een herinnering kunnen heractiveren. Deze hypothese heeft bijgedragen tot het succes van de computermetafoor voor het geheugen en, zoals we verder zullen zien, hangt het model van Atkinson en Shiffrin een soortgelijk onfeilbaar langetermijngeheugen aan. Ten tweede suggereert Penfields ontdekking dat herinneringen lokaal opgeslagen zijn. Eén bepaalde herinnering komt overeen met één bepaalde locatie. Het stimuleren van die locatie roept die herinnering op. Ook dit is eigen aan computergeheugens. De twee gevolgen van Penfields bevindingen zijn zoals gezegd erg controversieel. De experimenten werden nooit succesvol gerepliceerd, slechts een deel van de originele stimulaties gaf aanleiding tot herinneringen, en bovendien is men er nooit echt zeker van geweest of het hier wel ging om correcte herinneringen. Het is best mogelijk dat wat de patiënten ervoeren niet meer was dan een levendige droom of een hallucinatie. (Roediger, Capaldi, Polivy, Herman, & Brysbaert, 1998, p. 282)
34 | P a g e
Penfield is echter wel als gerespecteerd wetenschapper de geschiedenis ingegaan. Hij is de grondlegger van wat hij functionele anatomie noemt. Hij legde vast welke delen van de motorische en sensorische cortex overeenkwamen met welke delen van het lichaam. Die mapping, vastgelegd door Penfield in 1951, is vandaag bijna onveranderd in gebruik. Een andere wetenschapper die de multidisciplinariteit van de cognitieve revolutie mooi aantoont is Donald Hebb. Zijn theorie is bovendien tegelijk het culminatiepunt van een zoektocht die bij Robert Hooke begon en een belangrijk onderdeel van later geheugenonderzoek. Zoals al uitgebreid verteld is, ging Robert Hooke al in de 17de eeuw op zoek naar het fysisch substraat van het geheugen, iets materieel dat de vluchtige indrukken van ons bewustzijn fysisch kan opslaan (supra) . Met andere woorden hebben de neuronale banen van onze hersenen een soort plasticiteit nodig. Er moet als gevolg van een ervaring iets veranderen in de materie van ons brein opdat we van herinneren zouden kunnen spreken. Hebb’s stelling is dat wanneer twee neuronen herhaaldelijk tegelijk vuren, er zich een ‘associatie’ of verbinding zal vormen tussen de twee. Het gevolg is dat een patroon van vurende neuronen dat herhaaldelijk geactiveerd wordt steeds sterker zal worden. Dit fenomeen staat in de hedendaagse neurowetenschap bekend als long-term potentation. Het is dan ook al op microniveau aangetoond hoe de synaps tussen twee neuronen kan veranderen waardoor de associatie kan versterken of verzwakken. Dit is een herhaling van wat al verschillende keren gezegd werd. We zagen deze theorie bij de associationisten, de behavioristen en zelfs bij de onconventionele Descartes. Het verschil is dat de theorie ditmaal steunt op neurologische plausibiliteit. Hebb toonde de werkelijke plasticiteit van de hersenen aan. Zijn werk kende vooral veel succes binnen het connectionisme. Daarover zullen we het nog uitgebreid hebben in deel III.4.
3) De computer Het idee dat de menselijke geest, en dus ook het geheugen, werkt zoals een computer was erg populair gedurende de 20ste eeuw. Het idee werd het eerst geopperd door Alan Turing, de uitvinder van de computer en de vader van de computerwetenschap en de artificiële intelligentie. Deze analogie bleek erg populair en ze ging onder andere het domein van de geheugenpsychologie gaan beheersen. Het zou 20 jaar duren eer er een alternatief ontstond, maar ook vandaag nog is de computermetafoor aanwezig in populaire literatuur. In dit onderdeel zullen we het hebben over het ontstaan en de evolutie van deze vergelijking, we bespreken de voor- en nadelen ervan en bespreken enkele invloedrijke modellen die binnen deze traditie ontwikkeld werden. 35 | P a g e
a) Alan Turing, het ontstaan van de moderne computer
We zijn eindelijk aangekomen bij de uitvinding van de computer. Het is een uitvinding die al onze levens grondig heeft veranderd, niet enkel omdat ze deel is gaan uitmaken van vele aspecten van ons dagelijks leven, maar ook omdat ze vragen oproept en analogieën suggereert die zowel de wetenschap als de filosofie in nieuwe richtingen hebben gestuwd. Het plotse ontstaan van dit apparaat heeft veel te maken met de Tweede Wereldoorlog. Het is nogal cynisch om te spreken van de voordelen van één van de wreedste gebeurtenis uit onze geschiedenis, maar het kan niet ontkend worden dat WOII voor een grote technologische vooruitgang gezorgd heeft. Het was een race tussen verschillende grootmachten met als finishlijn de uitvinding van de atoombom. Onderweg werden de fundamenten gelegd voor vele uitvindingen, de computer was daar één van. Alan Turing, die de vader van de computerwetenschappen genoemd wordt, was dan ook één van de figuren die tijdens de oorlog bijdroeg tot het ontcijferen van de Enigma-machine van de Duitsers. Zijn theorie over berekenbaarheid (computability) werkte hij echter al uit in 1936, in een paper genaamd ‘On computable numbers’. Deze paper werd geschreven in de traditie die de naam ‘metamathematica’ draagt, ofte het filosofische onderzoek naar de grondslagen van de wiskunde. Sinds het begin van de 20ste eeuw ondernam men pogingen om een formele logische basis te geven aan de rekenkunde. De voornaamste figuur binnen deze traditie was David Hilbert. Hij axiomatizeerde de rekenkunde en wilde aantonen dat zo’n lijst axioma’s consistent was. In 1931 toonde Gödel echter aan dat dat laatste onmogelijk was. Zijn onvolledigheidstheorema drukte uit dat een funderende metamathematische theorie nooit tegelijk consistent en volledig kan zijn. Dit houdt in dat er steeds een stelling geformuleerd kan worden die waar is binnen de theorie, maar niet bewijsbaar. Dit theorema verbrijzelde Hilberts formaliseringsdroom. Turing werkte verder aan deze verbrijzeling die door Gödel ingezet was. Zijn legendarische paper handelde over het Entscheidungsprobleem of beslissingsprobleem. Turing toonde aan dat het niet mogelijk is een algoritme te ontwikkelen dat voor elke wiskundige propositie binnen één of andere formele taal kan beslissen of die propositie waar of vals is. Turings paper is, in tegenstelling tot die van Gödel, echter niet de geschiedenis ingegaan als een staaltje van destructieve genialiteit. Om zijn punt aan te tonen maakt hij namelijk gebruik van wat we vandaag een Turingmachine noemen. Dit is een theoretische machine die elk wiskundig probleem kan oplossen indien het als algoritme gerepresenteerd kan worden. Hij gaat verder en definieert berekenbaarheid als iets dat door een Turingmachine in een eindig aantal 36 | P a g e
stappen kan opgelost worden (Turing, 1936). Het punt dat hier gemaakt wordt is dat het beslissingsprobleem volgens deze definitie van berekenbaarheid niet berekend kan worden, maar de implicaties van Turings idee gingen veel verder dan hij op dat moment had kunnen denken. We gebruiken Bolter (1984, p. 57 e.v.) om de werkingsprincipes van de Turing-machine te verduidelijken. Het is natuurlijk geen echte machine, het is een hypothetische constructie bestaande uit een oneindige band, verdeeld in vakjes waarin iets geschreven of uitgewist kan worden. De machine houdt zich steeds met één vakje tegelijk bezig. Afhankelijk van wat er in het vakje staat kan de machine een bepaalde actie uitvoeren (wissen, schrijven, opschuiven) en in een andere toestand terechtkomen. Dit is niet bepaald een efficiënte machine, maar het punt is net dat ingewikkelde problemen door deze machine als een opeenvolging van eenvoudige stapjes opgelost kunnen worden. De universele turingmachine is uiteindelijk de notie die tot de uitvinding van de computer zou leiden. Alle Turing-machines die elk dienen voor het oplossen van één bepaald probleem, kunnen samengesmolten worden tot één universele Turing-machine die alle berekenbare problemen kan oplossen (Bolter, 1984, p. 59). John von Neumann zag hierin meer dan abstractie. Hij bouwde dan ook de eerste echte computer. Het verschil tussen deze machine en oudere uitvindingen zoals het uurwerk is dat het programma hier samen met de gegevens opgeslagen wordt (Bolter, 1984, p. 53). Oudere machines krijgen als input gegevens, die vervolgens verwerkt worden door het programma dat overeenkomt met de architectuur van de machine, de positie die de verschillende raderen tegenover elkaar innemen. Een verandering aan het programma zou een grote inspanning vereisen en komt in feite neer op het bouwen van een andere machine voor een ander probleem. In een Von Neumann machine kan het programma naar believen veranderd worden, net als de input. Dat maakt het mogelijk om met eenzelfde apparaat een oneindige hoeveelheid problemen op te lossen.”Het vergelijkbare proces bij een stoommachine zou erin bestaan dat men de raderen bij de kolen in het vuur zou gooien en zou verwachten dat de machine zelf het ontwerp voor een nieuwe machine zou leveren” (Bolter, 1984, p. 54). Het wordt tijd om even stil te staan bij de gevolgen van de uitvinding van de computer. Het ontwerp, met een modificeerbaar programma en de daaruit volgende capaciteit om een veelheid aan problemen op te lossen suggereerden een analogie met het menselijk denken. Turing zelf introduceerde zijn idee van een ‘computing device’ destijds als analogie van een mens die berekent en daarbij een reeks eindige regels volgt. Volgens hem is het oplossen van problemen ook niet meer dan het volgen van een reeks eindige regels. En als wij het kunnen, kunnen we evengoed een 37 | P a g e
machine de opdracht geven het op dezelfde wijze te doen. De letterlijke betekenis van computer is dan ook berekenaar. De computer evolueerde zeer snel en steeds meer taken die voordien enkel door een mens uitgevoerd konden worden gingen nu ook tot de mogelijkheden van computers gaan behoren. Dat zou natuurlijk impliceren dat de mens niet meer is dan een computer. Turing herdacht het hele concept ‘intelligentie’ naar aanleiding hiervan. Het leek voor hem absurd dat intelligentie inherent zou zijn aan het materiaal waaruit onze hersenen opgebouwd zijn. Een transcendentale verklaring behoorde voor hem evenmin tot de mogelijkheden. Intelligentie, meer bepaald probleemoplossend vermogen, ontstaat door de manier waarop de verschillende onderdelen van onze hersenen (of van een computer) ten opzichte van elkaar geplaatst zijn en met elkaar interageren. Deze constructie kan probleemloos nagebouwd worden met andere materialen, wat tot dezelfde resultaten zou leiden. Zo ontstond het idee dat ons lichaam en onze hersenen overeenkomen met wat bij een computer hardware wordt genoemd. Onze geest is dan de software. Het werd gezien als het ultieme antwoord op Descartes’ dualisme. De software, de mind, is niet meer dan een gevolg van een speciale ordening van materie. De mens is een machine, een informatieverwerkend apparaat, dat symbolen ontvangt als input, bewerkingen uitvoert op die symbolen en vervolgens een output genereert. De symbolen kunnen verwijzen naar dingen in de buitenwereld en hebben dus een betekenis of semantiek. De regels volgens dewelke deze symbolen worden bewerkt noemen we de syntax. Dit alles bracht Turing tot de vraag of machines ook zullen kunnen denken en of we ook bij een computer van intelligentie kunnen spreken. Zijn bespiegelingen, uiteengezet in een ietwat meer leesbare paper (Turing, 1950) hebben aanleiding gegeven tot het ontstaan van het domein van de artificiële intelligentie. Laten we het nu even hebben over computergeheugens. Vandaag is elke computer voorzien van een intern en van een extern geheugen. Men gebruikt ook hier de termen primair en secundair. Het primaire geheugen, of RAM-geheugen (random access memory) is rechtstreeks aangesloten op de centrale verwerkingseenheid (CPU) van de computer. De informatie is onmiddellijk toegankelijk. De CPU stuurt het gewenste adres naar het RAM-geheugen en leest vervolgens de informatie van dat adres. Een extra memory management unit medieert tussen CPU en geheugen. Het externe geheugen is wat wij kennen als de harde schijf. Terwijl het RAM-geheugen al haar informatie verliest bij gebrek aan stroom behouden externe geheugens hun data. Toegang tot informatie gebeurt echter veel trager. We zitten nu eerder binnen het bereik van milliseconden terwijl het RAM-geheugen vrijwel meteen toegankelijk is.
38 | P a g e
b) Jerry Fodor’s antwoord op Descartes’ dualisme
Jerry Fodor is misschien wel de meest hardnekkige vertegenwoordiger van het cognitivisme en van de computermetafoor, niet enkel voor het geheugen, maar voor de menselijke geest in het algemeen. We bespreken hem aan de hand van Stern (1991). Het idee dat onze mind zich tegenover ons brein verhoudt zoals software tegenover hardware werd overgenomen in het mainstream cognitivisme. Fodor sprak van twee verschillende verklaringsniveaus (Stern, 1991). Er is het intentionele niveau dat zich bezig houdt met de begrippen uit de alledaagse psychologie, namelijk voelen, geloven, onthouden, verlangen, ... Daarnaast is er een computationeel verklaringsniveau. Op dit niveau vinden we de interne programma’s die aanleiding geven tot het intentionele niveau. Zoals Turing, ging ook Fodor ervan uit dat deze computationele processen in elk fysisch systeem dat voldoende complex is, geïmplementeerd konden worden en dat ze steeds aanleiding zouden geven tot dezelfde intentionele processen. Hij voerde een derde verklaringsniveau in dat de specifieke drager waarin het programma aanwezig is beschrijft, namelijk het fysische niveau. Op deze door de computer geïnspireerde visie is later erg veel kritiek gekomen. David Stern argumenteert dat dit het probleem van het cartesiaanse dualisme helemaal niet oplost (Stern, 1991). Het is eerder een herformulering van datzelfde probleem. Descartes sprak van een nauwe verwantschap in de mens tussen geest en materie, maar aangezien dit voor hem twee verschillende conceptuele entiteiten waren, was zijn grootste probleem te verklaren hoe de twee in de mens konden interageren met elkaar. Voor Descartes was het punt van interactie de pijnappelklier in het centrum van de hersenen. Dit antwoord heeft steeds tekort geschoten. Volgens Stern is de kloof tussen Fodor’s verklaringsniveaus even onoverbrugbaar als die tussen geest en materie bij Descartes. Het postuleren van een computationeel niveau dat de link tussen het fysische en het intentionele niveau moet leggen is niet meer dan “de pineal gland of contemporary mentalism” (Stoutland, zoals geciteerd in Stern, 1991). Volgens Stern heeft dit “unrecognized dualism” gezorgd voor “the dogma of the language of thought and a distorted conception of mind and brain” (Stern, 1991). Later zullen we op de paper van Stern terugkomen. Hij ziet namelijk een oplossing voor dit probleem in de connectionistische modellen van ons brein.
c) Het model van Atkinson en Shiffrin (1968)
Het wordt tijd om terug te keren naar de geheugenpsychologie. Het ontstaan van het cognitivisme en de uitvinding van de computer hebben dit domein zwaar beïnvloed. In 1968 publiceerden Richard 39 | P a g e
Atkinson en Richard Shiffrin een paper getiteld ‘Human Memory: a proposed system and its control processes’. Hierin zetten deze heren een geheugenmodel uiteen dat het Dual-Store Model werd gedoopt. Het was voor de geheugenpsychologie één van de invloedrijkste papers van de voorbije eeuw. Het model bleef dominant gedurende de hele jaren 70 en oefent tot op vandaag veel invloed uit op de studie van het geheugen. Voor ons is het de prototypische vertegenwoordiger van de computermetafoor voor het geheugen. Om het model te beschrijven maken we gebruik van een paper die Atkinson en Shiffrin in 1969 publiceerden. Deze paper omvat een herhaling van de architectuur en werkingsprincipes van hun in 1968 uitgewerkte model. Daarnaast wordt dieper ingegaan op verschillende onderdelen. Het model bestaat uit structurele componenten en controleprocessen. De structurele componenten komen overeen met die gebieden in het brein die instaan voor de opslag van informatie. Er zijn drie belangrijke systemen wiens samenwerking ons geheugen moet verklaren (zie figuur 2). Ten eerste is er het sensorisch geheugen. De informatie afkomstig van de zintuigen passeert eerst doorheen dit systeem en blijft daar enkele milliseconden hangen. Voor elke zintuigelijke modaliteit bestaat een verschillend sensorisch geheugen. Atkinson en Shiffrin namen wat betreft het sensorisch geheugen voor visuele informatie in grote lijnen het model van George Sperling (1960) over. Deze sprak van het iconisch geheugen. Dit geeft de beelden die op ons netvlies vallen een eerste soort blijvendheid. Ze blijven nog even nagalmen, en kunnen daarna doorgegeven worden naar de tweede structurele component van ons geheugen, het kortetermijngeheugen (KTG). Dit komt overeen met wat Baddeley later het werkgeheugen heeft genoemd (infra) en het is in grote lijnen het primaire geheugen waar William James van sprak. Bij een computer zouden we spreken van het RAM-geheugen. Dit zal later een
mooie
analogie
blijken.
Informatie
blijft
gemiddeld
zo’n
30
seconden
in
het
kortetermijngeheugen hangen, maar bewuste processen kunnen deze tijd verlengen (Atkinson & Shiffrin, 1969, p. 180). De derde component van de structuur van het menselijk geheugen is dan natuurlijk het secundaire geheugen, of in moderne bewoording, het langetermijngeheugen (LTG). Dit is een systeem waarin informatie permanent wordt opgeslagen (Atkinson & Shiffrin, 1969, p. 180).
40 | P a g e
Figuur 2: De architectuur van het model van Atkinson en Shiffrin.
Belangrijker echter dan deze structurele componenten zijn de controleprocessen van het model. Atkinson en Shiffrin postuleren een subject dat erg veel bewuste controle heeft over het geheugen. Ten eerste vindt er al een selectie plaats in de overdracht van informatie van het sensorisch naar het kortetermijngeheugen. Het proces dat we opslag of retentie noemen is de overdracht van informatie van het korte- naar het langetermijngeheugen. Relevante stukken informatie worden geselecteerd, vervolgens gekopieerd en daarna opgeslagen. Alles wat permanent in het langetermijngeheugen opgeslagen ligt is eerst door het kortetermijngeheugen gepasseerd. Parallel aan dit proces maar in de andere richting hebben we het ophalingsproces, waarbij informatie terug van uit het lange- naar het kortetermijngeheugen wordt gekopieerd, omdat we ze nodig hebben in één of andere taak. Kopiëren is hier het juiste woord. Na opslag blijft de informatie in het KTG tot ze verloren gaat door het normale vervalproces. Na ophaling blijft de informatie uiteraard in het LTG. Eens daar opgeslagen kan ze nooit meer verloren gaan. Vergeten is volgens dit model volledig te wijten aan ophalingsproblemen en niet aan het vervallen van informatie in het LTG. Hier zien we al een eerste analogie met de computer. Het langetermijngeheugen is een soort harde schijf waarop grote hoeveelheden informatie correct en permanent bewaard kunnen worden. Wanneer we echter de locatie van een stukje informatie kwijt zijn, kan ze niet meer naar het KTG gekopieerd worden en 41 | P a g e
spreken we van vergeten, hoewel die informatie zich nog steeds in ons langetermijngeheugen bevindt. (Atkinson & Shiffrin, 1969) Een ander voorbeeld van een controleproces is herhaling. Het is de manier om informatie voor langer dan de normale duur in het KTG te houden. We kunnen bijvoorbeeld een telefoonnummer langer onthouden als we het in ons hoofd herhalen. Hiervoor is volgens dit model een repetitiebuffer aanwezig in het KTG (Atkinson & Shiffrin, 1969, p. 180). Nu krijgt de informatie ook langer de kans opgeslagen te worden in het LTG. Na deze algemene uiteenzetting, gaan Atkinson en Shiffrin dieper in op hoe zoekprocessen in ons geheugen juist verlopen. Ze voeren zelf een analogie in met de computer, deze keer om aan te tonen wat het verschil is. Een computergeheugen is locatie-adresseerbaar. Dat wil zeggen dat wanneer we een locatie aanbieden, het systeem ons de inhoud van die locatie als output geeft. Wanneer we enkel een deel van de inhoud beschikbaar hebben en de hele inhoud willen ophalen, moet een computergeheugen alle locaties afzoeken tot de juiste informatie gevonden wordt. Het menselijk geheugen werkt niet op deze manier. Wanneer we iemand herkennen op straat is het niet zo dat we eerst zijn gezicht vergelijken met alle gezichten in ons geheugen tot we een match vinden. Ons geheugen is als het ware inhoudsadresseerbaar. Atkinson en Shiffrin werken een theorie uit waarin de processen van opslag en ophaling parallel verlopen via bepaalde organisatorische dimensies. Een stukje informatie wordt niet at random ergens in het LTG opgeslagen, maar wel volgens bepaalde principes. Een voorbeeld is de temporele dimensie, gebeurtenissen die in de tijd dicht bij elkaar liggen, liggen ook in het LTG dicht bij elkaar. Er is ook organisatie in termen van zintuigelijke modaliteit, beelden bij beelden, klanken bij klanken, geuren bij geuren. Dit is een organisatorisch principe dat we reeds bij Augustinus vonden. En zo zijn er nog verschillende andere organisatorische dimensies die als tag samen met de informatie worden opgeslagen. Aangezien ophaling volgens dezelfde principes werkt als opslag maar in de andere richting kan het zoekproces veel efficiënter verlopen. Wanneer we weten naar wat voor informatie we op zoek zijn of wanneer we die informatie opgeslagen hebben kunnen we ons zoekgebied al merkbaar verkleinen en onze zoektocht vergemakkelijken. Zelf gebruiken Atkinson en Shiffrin als analogie een bibliotheek (Atkinson & Shiffrin, 1969, p. 181). Wanneer we een bepaald boek zoeken gebruiken we dezelfde principes die we gebruikten bij het ‘opslaan’ van de boeken. We weten ongeveer op welke verdiepingen en in welke kasten we moeten gaan zoeken en dat bespaart ons veel moeite. Op deze manier wilden ze de inhoudsadresseerbaarheid van ons geheugen verklaren. Zoals al eerder vermeld werd, speelt het subject een grote rol in dit proces. Het manipuleert de informatie in het kortetermijngeheugen, selecteert een organisatorische dimensie en slaat de informatie aan de hand van die dimensie op in 42 | P a g e
het LTG. Welk organisatorisch schema geselecteerd wordt uit de vele mogelijkheden hangt af van toeval en van contextuele factoren. Stel dat het woord ‘raket’ deel uitmaakt van een van buiten te leren lijst. We zullen dat woord op een andere plaats in het LTG opslaan wanneer het vergezeld is van de woorden ruimtereis, maan, apollo, platform dan wanneer het vergezeld is van de woorden tennis, net, snaren, forehand. Aangezien ophaling volgens dezelfde principes verloopt als opslag en opslag gebeurt aan de hand van een variabel organisatorisch schema, zal dat schema samen met de informatie opgeslagen moeten worden om ophaling optimaal te maken. Verder in het artikel wordt een beschrijving gegeven van hoe het geheugen kan falen. Zoals al vermeld werd, gaat dit model ervan uit dat vergeten niet te wijten is aan het graduele verval van informatie, maar aan een probleem met het lokaliseren bij ophaling. In een mensenleven wordt steeds meer informatie opgeslagen. Organisatorische schema’s geven ons een idee van de plaats waar we moeten gaan zoeken, maar hoe voller het geheugen wordt, hoe meer informatie er opgeslagen zal zijn in het relevante stuk van het LTG, en hoe langer de zoektocht zal duren. Hoewel alles zorgvuldig volgens verschillende principes wordt gearchiveerd, zorgt de veelheid aan informatie er op langere termijn voor dat we kunnen falen in het ophalen van een gezochte herinnering (Atkinson & Shiffrin, 1969, p. 185). Om terug te keren naar de analogie: we kunnen onze zoektocht wel beperken tot één boekenplank van onze bibliotheek, maar als die plank bomvol ligt met boeken die allemaal op elkaar lijken, zullen we veel meer moeite hebben het juiste boek te lokaliseren. We hebben er nog niet expliciet bij stilgestaan, maar het is ondertussen wel duidelijk dat dit model uitgaat van een lokaal opslagmechanisme. Met een bepaalde herinnering komt dus een bepaald stukje hersenen overeen. Bij Descartes hadden we het over gedistribueerde informatie en over verscheidene herinneringen in hetzelfde fysisch substraat. Dit zien we later terug in het connectionisme, een reactie op onder meer deze lokale opslag. Atkinson en Shiffrin definiëren een code of image als een coherent geheel van informatie dat gerelateerd is en dat bijna altijd als geheel opgehaald wordt (Atkinson & Shiffrin, 1969, p. 182). De organisatie van het geheugen, hierboven uiteengezet, impliceert dat zo’n code in één locatie opgeslagen is. Dit is hoe een computergeheugen werkt. Atkinson en Shiffrin willen niet gezegd hebben dat een code een soort eenheid van opslag is, het is een variabel iets, afhankelijk van de uit te voeren taak, maar ze houden wel vast aan dit begrip omdat het handig blijkt (Atkinson & Shiffrin, 1969, p. 182). Ze verwijzen ook naar Bower (1967) die een code definieert als een vector van attributen, waarin zowel de informatie als haar locatie opgeslagen liggen. De waarden van die attributen geven de positie van de code weer op de verschillende organisatorische dimensies.
43 | P a g e
Laten we tenslotte even expliciet de link tussen dit geheugensysteem en dat van een computer leggen. Het langetermijngeheugen is de harde schijf waarop vanalles georganiseerd is opgeslagen, maar elk item heeft een specifieke locatie. Het kortetermijngeheugen is het RAM-geheugen. Nieuwe informatie passeert erdoor en krijgt een plaats toegewezen op de harde schijf. Het RAM-geheugen selecteert, organiseert en archiveert. Wanneer we iets opnieuw nodig hebben wordt het van op de harde schijf naar het RAM-geheugen gekopieerd waarna het naar believen verwerkt kan worden. De verwerkte informatie kan dan weer weggeschreven worden naar onze harde schijf. Andere eigenschappen van het menselijk geheugen, zoals de inhoudsadresseerbaarheid, volgen dan weer niet automatisch uit de computeranalogie. Om het model deze eigenschappen te geven moeten ze uitgebreid geprogrammeerd worden. Dat maakt het geheel een stuk complexer. Het connectionisme zou later ook op dit probleem een antwoord bieden. De grote populariteit van het Atkinson en Shiffrin model en deze overduidelijke analogie met het computergeheugen, hebben er mede voor gezorgd dat de computermetafoor voor de menselijke geest tot op de dag van vandaag wijdverspreid is.
d) Het werkgeheugen
Het werkgeheugen komt ongeveer overeen met wat Atkinson en Shiffrin het kortetermijngeheugen noemden. Een verschil is dat het werkgeheugen meer is dan opgeslagen informatie. Het wordt tevens naar voren geschoven als de belangrijkste component van aandacht en bewustzijn. Het is de zetel van ons onmiddellijk denken. De plaats waar taak-relevante informatie lang genoeg blijft hangen om ze te gebruiken in onze acties. De opslagcapaciteit is beperkt, wat dwingt tot selectie van het belangrijkste. Metaforen voor het werkgeheugen zijn bijvoorbeeld een werkplaats, een schrijfbord, een projectiescherm. Onderzoek naar het neurologisch substraat van deze theoretische constructie is vandaag alomtegenwoordig. Er is discussie op verschillende vlakken. Is het werkgeheugen het actieve gedeelte van het langetermijngeheugen of is het een autonoom gebied? Bestaat het uit verschillende componenten of is het unitair? Hoe wordt de aanwezige informatie geselecteerd? Een poging tot het beantwoorden van bovenstaande vragen kunnen we lezen in Models of Working Memory: Mechanisms of Active Maintenance and Executive control, een verzameling papers, samengebracht door Akira Miyake en Priti Shah, waarin verschillende geheugenmodellen uitgewerkt worden. Het meest dominante model is er echter één dat al in 1974 door Baddeley en Hitch werd opgesteld. Om dat model uiteen te zetten gebruik ik één van de papers
44 | P a g e
uit Miyake en Shah (1999) die Alan D. Baddeley schreef samen met Robert H. Logie. Het originele model van Baddeley en Hitch wordt daarin beschreven en verder uitgewerkt. Deze heren geven volgende definitie van het werkgeheugen: “It comprises those functional components of cognition that allow humans to comprehend and mentally represent their immediate environment, to retain information about their immediate past experience, to support the acquisition of new knowledge, to solve problems, and to formulate, relate, and act on current goals” (Baddeley & Logie, 1999, pp. 28-29). De belangrijkste eigenschap van het model is dat deze verschillende taken verdeeld worden over verschillende componenten van het werkgeheugen. Dit model wordt dan ook het Multiple-Component Model genoemd. Ten eerste is er een centrale executieve die zelf niets opslaat maar wel controle uitoefent over de andere deelsystemen van het werkgeheugen. Zij staat tevens in voor het ophalen van taakrelevante informatie uit het langetermijngeheugen en het selecteren van ophalingsstrategieën. Het is kortom het mechanisme dat bepaalt waar onze aandacht op gevestigd is. Het heeft alle functies die Atkinson en Shiffrin aan het subject toekenden. De centrale executieve oefent dus bewuste controleprocessen uit. Vervolgens zijn er twee slaafsystemen die gestuurd worden door de centrale executieve. Ten eerste is er de fonologische lus, die gespecialiseerd is in het opslaan en oefenen van verbale informatie. Het andere slaafsysteem is de visuospatiale kladblok, waar onmiddellijke visuele en spatiale informatie verwerkt wordt. Baddeley en Logie breiden de componenten van dit model nog verder uit. De subcomponenten van het werkgeheugen kunnen volgens hen nog verder opgesplitst worden in functionele delen. Zo zou de fonologische lus uit een passieve opslagmodule en een actieve repetitiebuffer bestaan (Baddeley & Logie, 1999, p. 32). Ook de centrale executieve en de visuospatiale kladblok bestaan uit verschillende subcomponenten. Een alternatieve theorie rond het kortetermijngeheugen die uitgewerkt werd door Shiffrin en Schneider, wordt beschreven in Craik (1979). Dit geheugen krijgt dezelfde functies als het werkgeheugen, namelijk cognitieve controle, het oplossen van problemen, het verdelen van aandacht en het onthouden van taakrelevante informatie. Deze theorie geeft echter geen anatomische onafhankelijkheid aan het kortetermijngeheugen en ziet dit als een geactiveerde subset van het langetermijngeheugen. Alle eigenschappen van inkomende stimuli activeren hun representaties in het langetermijngeheugen. Dit doen ze allemaal in gelijke mate, zonder dat er een selectieprocedure aan vooraf gaat. Pas hierna wordt via aandachtsmechanismen een deel van de informatie geselecteerd opdat deze geactiveerd kan blijven, gebruikt kan worden en indien nodig opgeslagen kan worden in het langetermijngeheugen. Dat laatste komt volgens dit model overeen
45 | P a g e
met de vorming van nieuwe associaties. Informatie waar verder geen aandacht aan geschonken wordt vervalt. (Craik, 1979, p. 74)
46 | P a g e
e) Psychologische experimenten
We hebben het nog onvoldoende gehad over het revolutionaire karakter van het werk van Hermann Ebbinghaus en de veranderingen die de geheugenpsychologie ondergaan heeft als gevolg hiervan. Zijn wiskundig, formele, experimentele benadering van de geheugenpsychologie heeft de toon gezet voor al het onderzoek dat sindsdien gebeurd is. Sinds de jaren 60 komt de geheugenpsychologie neer op een opeenvolging van wiskundige modellen die zo goed mogelijk de experimentele data trachten te verklaren. Een voordeel van formele modellen is dat ze intern consistent moeten zijn, en consistentie ligt niet altijd voor de hand in intuïtieve modellen (Neath, 1998, p. 233). Hiernaast bestaat er nog een hele reeks criteria waaraan een geheugenmodel getoetst wordt. Dus naast consistentie hebben we nog empirische toereikendheid – verklaart het model de empirische bevindingen van experimenten? – en neurologische plausibiliteit – komt de structuur van het model overeen met de structuur van de hersenen? Dat laatste criterium vormt een van de belangrijkste redenen voor de opkomst van het connectionisme. Het criterium van empirische toereikendheid is uiteraard alomtegenwoordig binnen de wetenschap. Meer zelfs, een wetenschappelijke theorie kan maar geloofwaardig zijn wanneer er empirisch bewijsmateriaal voor bestaat. Dezelfde mensen die de theoretische modellen opstelden, waarvan we er hierboven enkele hebben besproken, voerden dus ook experimenten uit. Hoe groter het reservoir aan experimentele resultaten werd, hoe complexer de geheugenmodellen zouden moeten worden. We beschrijven een reeks experimenten aan de hand van Neath (1998). Baddeley (1966) wilde bijvoorbeeld aantonen dat de dominante code waarmee ons werkgeheugen geëquipeerd is, akoestisch is (Neath, 1998, p. 56). Hij ging als volgt te werk: hij stelde vier soorten van woordlijsten op. De eerste bevatte woorden die fonologisch gelijkaardig waren, bijvoorbeeld hok, bok, bol, rok, ... De tweede lijst was een controlelijst van woorden die ongeveer dezelfde frequentie hadden in dagdagelijkse gesprekken maar die van elkaar verschilden in klank. De derde lijst bestond uit verschillende woorden met dezelfde betekenis en de vierde lijst opnieuw uit even frequente woorden die niets met elkaar te maken hadden. Baddeley liet zijn proefpersonen deze vier lijsten van buiten leren en keek vervolgens voor elke lijst naar de proportie die achteraf correct werd onthouden. Zijn vermoedens werden bevestigd door het feit dat deze proportie voor lijst 1 het zwakst was. Dat betekent dat de klank van woorden invloed heeft op het werkgeheugen en de betekenis veel minder. Deze hypothese bevestigt het belang van de fonologische lus in Baddeley’s model (supra).
47 | P a g e
Een ander bekend onderzoek dat door Neath besproken wordt, was dat van George Miller (1956). Zijn vandaag legendarische paper kreeg de naam ‘The magic number seven, plus or minus two’ omdat hij aantoonde dat we slechts 7 (plus of min 2) brokken informatie tegelijk in ons geheugen kunnen vasthouden. De opslagcapaciteit van ons kortetermijngeheugen werd dus onderzocht (Neath, 1998, p. 57). Dit gebeurde door de proefpersonen een reeks cijfers voor te schotelen die ze daarna onmiddellijk moesten herhalen. Miller kwam bij het getal 7 terecht omdat dat het aantal was dat 50% van de tijd foutloos herhaald kon worden. Hij ontmoette de 7 opnieuw in een experiment waarbij proefpersonen onderscheid moesten maken tussen stimuli die van elkaar verschilden volgens één enkele dimensie, bijvoorbeeld geluiden met hogere en lagere frequenties. Ook daar begon men fouten te maken vanaf ongeveer 7 verschillende stimuli. Een derde pijler waarop deze paper steunde was de chunk, of brok, van informatie (Neath, 1998, p. 58). We kunnen het aantal items dat opgeslagen kan worden in ons kortetermijngeheugen drastisch vergroten door verschillende items tezamen te smelten tot één item. De lijst van volgende letters ‘KATSCHOENKERKEER’ zouden we niet kunnen onthouden als we elke letter als één chunk behandelden, maar wanneer we het geheel opsplitsen in delen die voor ons een betekenis hebben, bijvoorbeeld ‘KAT SCHOEN KERK EER’ worden de lijsten die we uit het hoofd kunnen opzeggen beduidend langer. Dat verklaart ook waarom we een telefoonnummer in delen opsplitsen wanneer we het dicteren of willen onthouden. Onderzoek naar hoe lang informatie in het kortetermijngeheugen blijft, en na hoe lang ze dus verloren gaat, heeft geleid tot het Brown-Peterson Paradigma (Neath, 1998, p. 59). Dit is een algemene procedure die uit volgend experiment ontstaan is: proefpersonen krijgen drie medeklinkers en drie cijfers voorgeschoteld. Ze krijgen de opdracht terug te tellen per 3 vanaf het getal dat uit de drie cijfers bestaat voor een variabele tijd. Na die tijd werd gevraagd naar de 3 medeklinkers, in volgorde. Het doel van het terugtellen was voorkomen dat de medeklinkers geoefend of herhaald werden, zodat we te weten kunnen komen hoe lang ze op zichzelf blijven hangen. Uit de resultaten blijkt dat reeds na 18s slechts 10% van de informatie onthouden wordt. Dat impliceert dat informatie heel rap verloren gaat in het kortetermijngeheugen. Het laatste experimentele resultaat dat we zullen bespreken is erg belangrijk. Een goed model moet het dan ook kunnen verklaren. Wanneer we een reeks testsubjecten een lijst laten lezen, ze vragen zo veel mogelijk items uit die lijst in willekeurige volgorde te herhalen en vervolgens de resultaten in een curve gieten die het aantal correcte items uitzet tegen de seriële positie van de items, bekomen we enkele interessante resultaten. Het komt er dus op neer dat de ophaling van een item afhankelijk is van de positie die dat item binnen de lijst heeft. Dat wordt het serial position effect genoemd (Neath, 1998, pp. 67-68). Twee noemenswaardige instanties hiervan zijn het primacy effect en het 48 | P a g e
recency effect. Het primacy effect houdt in dat items aan het begin van een lijst gemiddeld beter onthouden worden. Het recency effect stelt dat items aan het einde van een lijst gemiddeld beter onthouden worden. Deze effecten treden op ten nadele van de items die zich eerder centraal bevinden. De meest populaire verklaring is dat items aan het begin van de lijst meer tijd en meer middelen hebben om geconsolideerd te worden in het langetermijngeheugen en dat items aan het einde nog in het kortetermijngeheugen aanwezig zijn op het moment van ophaling. Dat laatste blijkt ook wanneer we repetitie uitschakelen volgens het Brown-Peterson paradigma. In dit geval blijft het primacy effect behouden terwijl het recency effect verdwijnt. Het model van Atkinson en Shiffrin verklaart deze effecten op min of meer dezelfde manier. De eerste items kunnen meer gerepeteerd worden en hebben dus een grotere kans opgeslagen te worden in het langetermijngeheugen. De repetitiecapaciteit wordt namelijk steeds eerlijk verdeeld over alle in het KTG aanwezige items. Aangezien de eerste items even alleen of met een klein groepje aanwezig zijn, worden ze meer gerepeteerd. Het recency effect onstaat gewoon door het dumpen van wat nog in de buffer van het kortetermijngeheugen zit.
f) Het evolueren van de modellen
Bovenstaande en vele andere experimentele gegevens moesten in rekening gebracht worden bij het opstellen van nieuwe wiskundige modellen. Met de opkomst van parallele verwerking en connectionistische netwerken kwam de nadruk meer te liggen op het langetermijngeheugen (infra). Het Atkinson en Shiffrin model verloor invloed en nieuwe modellen werden ontwikkeld. In 1981 stelden Raaijmakers en Shiffrin het SAM-model op, dit staat voor Search of Associative Memory. Het wordt gezien als de afstammeling van het Atkinson en Shiffrin model met een conceptuele uitbreiding van het langetermijngeheugen (Estes, 1998, p. 609). We gebruiken Neath (1998) voor een beschrijving van dit model. Het geheugen bestaat uit wat de auteurs images noemen. Een image is een interconnected feature set, dat wil zeggen een geïntegreerd geheel van samenhangende informatie over een bepaald geheugenitem (Neath, 1998, p. 234). Dat houdt dus in: informatie over het item zelf, haar naam, betekenis, informatie over de context waarin we ermee in contact kwamen, haar relatie met andere items, enzovoort. Alle items, contexten en images die deel zijn van onze levensgeschiedenis en dus in ons langetermijngeheugen zitten, zijn verbonden met elkaar via connecties met variabele kracht. Associaties tussen bepaalde entiteiten in ons geheugen (images, items, context, ...) kunnen versterkt 49 | P a g e
worden door co-activatie van die entiteiten. We herkennen de regel van Hebb, en de duidelijke invloed die het connectionisme ging uitoefenen op geheugenmodellen (infra). In het model houdt deze co-activatie in dat beide entiteiten gedurende een bepaalde tijd samen in de repetitiebuffer van het kortetermijngeheugen aanwezig zijn. Hoe langer dat duurt, hoe sterker de associatie tussen de twee zal zijn. Zoals in het model van Atkinson en Shiffrin, en zoals een van bovenstaande experimenten aantoont, heeft die repetitiebuffer slechts een eindige en relatief kleine capaciteit, zodat er steeds een competitie is tussen de verschillende entiteiten met als prijs aanwezigheid in de buffer en met als gevolg versterking van connecties in het langetermijngeheugen. (Neath, 1998) Wanneer we bijvoorbeeld een foto van een kennis zien en gevraagd worden zijn naam te geven, dan zal de image die het gezicht representeert dienen als retrieval cue in de repetitiebuffer en via de connecties in het LTG activatie propageren naar alle images in het geheugen, maar afhankelijk van de kracht van de connecties zullen sommige images meer geactiveerd worden dan andere. Herkenning van de foto en het herinneren van de naam kan binnen dit model optreden wanneer de activatie van een bepaalde image een drempelwaarde overschrijdt. (Estes, 1998, p. 609) Een ander geheugenmodel dat door Neath beschreven wordt, MINERVA 2, ontwikkeld in 1984 door Hintzman, verkleint de rol van het kortetermijngeheugen nog meer. Hier wordt een herinnering niet sterker door het versterken van haar connecties, maar wel door het creëren van meerdere kopieën van die herinnering. Herkenning treedt als volgt op. Er wordt een ‘probe’, een soort cue, aangediend en deze wordt vervolgens parallel en dus tegelijk vergeleken met alle sporen in het langetermijngeheugen. De activatie van een bepaald spoor hangt af van haar gelijkenis met de probe. Er wordt een echo naar het kortetermijngeheugen gestuurd. De intensiteit en de inhoud van die echo worden volledig bepaald door de activatie van sporen en dus door de geheugensporen die het meest lijken op de probe. De gelijkenis tussen echo en probe zal echter nooit volledig zijn. Dat is een voordeel van het model aangezien de echo kan dienen als probe bij het oproepen van een nieuwe echo, die ook op zijn beurt kan dienen als probe in een volgend proces. Zo kan één probe aanleiding geven tot een cascade van opgehaalde herinneringen. (Neath, 1998, p. 242) Een belangrijke troef van MINERVA 2 is dat er geen onderscheid gemaakt dient te worden tussen het episodisch en het semantisch geheugen. Het eerste heeft betrekking op onze persoonlijke herinneringen, de episodes die we in ons leven hebben meegemaakt. Het semantisch geheugen bestaat uit algemene kennis. Volgens Hintzman, zegt Neath, bevat het langetermijngeheugen enkel episodische geheugensporen en is het semantisch geheugen, het onthouden van abstracte informatie het statistische gevolg van een veelheid van concreta (Neath, 1998, p. 244). Abstracte 50 | P a g e
representaties zijn gewoon een neveneffect van de manier waarop concrete sporen geactiveerd worden bij ophaling. Aangezien alle sporen in mindere of meerdere mate bijdragen tot de intensiteit en inhoud van de echo bestaat die echo uit een soort statistisch patroon dat, volgens Hintzman, overeenkomt met de representatie van abstracte kennis. En dat terwijl die kennis zelf nergens terug te vinden is in het langetermijngeheugen. Een fundamentele eigenschap van al deze modellen blijft dat ze gebaseerd zijn op de principes die Turing uitwerkte. Ze gaan ervan uit dat de menselijke geest, net zoals de computer, een logisch informatieverwerkend systeem is. Het gevolg is dat deze modellen makkelijk logische operaties kunnen uitvoeren, zoals redeneren en berekenen. Een nadeel is dan weer dat andere typisch menselijke eigenschappen zoals patroonherkenning of het associatief doorzoeken van het geheugen enorm moeilijk te programmeren zijn binnen deze modellen. Dat geeft ze een enorme complexiteit. Een fundamenteel verschillende aanpak is die van het connectionisme. Hier wordt vertrokken van een simpele patroonherkenner, zodat deze menselijke capaciteiten volgen uit een eenvoudige structuur. Het implementeren van logisch probleemoplossend vermogen is echter een stuk moeilijker (infra).
4) Een nieuwe benadering: het connectionisme Zoals reeds meerdere keren angehaald, ontstond in de jaren 80 een alternatieve zienswijze. De computermetafoor bleek tekort te schieten om vele typisch menselijke kenmerken te verklaren. De mens werkt nu eenmaal niet zoals een computer. Ons denken en ons geheugen zijn feilbaar, een simpele rekenmachine lost duizend maal sneller wiskundige problemen op dan wij dat ooit zullen kunnen. En omgekeerd bleek ook hoe complex en ingewikkeld het is om computers dingen aan te leren die wij onmiddellijk en zonder nadenken voor mekaar krijgen. Het herkennen van een persoon of een voorwerp, het begrijpen en produceren van taal, het leren van categorieën zijn enkele voorbeelden hiervan. De hypothese dat onze geest volgens dezelfde logische principes te werk gaat als een computer zou moeten worden opgegeven. Een simpel netwerk werd in de plaats gesteld. Al snel bleken vele van de eigenschappen die in het vorige paradigma onnoemelijk complex waren gewoonweg te volgen uit de architectuur van deze netwerken. Logisch redeneren en probleemoplossend denken, kortom eigenschappen die volgen uit de architectuur van de computer, bleken dan weer veel minder makkelijk implementeerbaar. Maar de voordelen van deze benadering bleken zo talrijk en belangrijk 51 | P a g e
dat we weldegelijk van een paradigmawissel kunnen spreken (Bechtel & Abrahamsen, 1991, p. 1). In volgend onderdeel zullen we dit alternatief dan ook uitgebreid bespreken.
a) Het hologram
Zoals we in deel II van deze paper al grondig aangetoond hebben, is er niets handiger dan een metafoor om de werking van een theorie te verduidelijken. De metafoor die een en ander van de werking van connectionistische modellen verduidelijkt is het hologram. Deze vorm van opslag, vertelt Draaisma ons, werd in 1948 door de fysicus Dennis Gabor uitgedacht (Draaisma, 1995, p. 214). Het principe gaat als volgt. Een monochromatische lichtstraal wordt in twee gesplitst, de ene straal, de referentiestraal, valt meteen op de fotografische plaat, de tweede, de voorwerpstraal, wordt eerst weerkaatst door het te registreren voorwerp. Het interferentiepatroon van deze twee stralen wordt vastgelegd in een aantal groeven en uitstulpingen op de plaat. Het voorwerp kan nu in drie dimensies opgehaald worden door de referentiestraal op de plaat te laten schijnen. Deze holografische opslag heeft enkele opmerkelijke eigenschappen. Ten eerste is ze gedistribueerd. Dat houdt in dat er geen één op één afbeelding is van voorwerp op afbeelding, zoals bij de fotografie. Een bepaalde locatie binnen het geregistreerde voorwerp is terug te vinden op plaatsen over het gehele hologram. Een gevolg is dat schade aan het hologram niet leidt tot het verdwijnen van een deel van de afbeelding, maar tot een lichte vervaging van het geheel. Deze manier van opslag is dus erg schadebestendig, een eigenschap die onmiddellijk analogieën oproept met het menselijk geheugen. Een tweede eigenschap is de grote opslagcapaciteit. In eenzelfde holografische plaat kunnen vele afbeeldingen worden opgeslagen. Elk heeft als het ware zijn eigen referentiestraal. Bovendien kunnen afbeeldingen die samen opgeslagen werden bij ophaling een ‘ghost image’ van elkaar veroorzaken (Draaisma, 1995, p. 217). Dat wil zeggen dat de ene afbeelding automatisch aanleiding geeft tot het activeren van een andere afbeelding, iets wat ons aan associatie doet denken. De metafoor van het hologram werd in 1963 voor het eerst gebruikt door Pieter Jacobus Van Heerden (Draaisma, 1995, p. 218). Enerzijds was Van Heerden een aanhanger van het cognitivisme, maar anderzijds zag hij in de analogie met het hologram een geheel nieuwe manier waarop de menselijke geest zou kunnen werken. De mathematische bewerkingen die uitgevoerd werden door het hologram, namelijk het tegelijk parallel berekenen van interferentie tussen lichtstralen, kon de snelheid waarmee het menselijk brein werkt verklaren. Om een computer even snel en efficiënt te laten werken is een enorme computationele kracht nodig die we ons zelfs vandaag nog niet kunnen 52 | P a g e
voorstellen. Processen die in een computermodel geprogrammeerd moeten worden, zoals bijvoorbeeld associatie of inhoudsadresseerbaarheid, volgen vrijwel automatisch uit het hologrammodel. Rest nog de vraag hoe letterlijk we deze analogie moeten opvatten. We kunnen er immers van uit gaan dat de hersenen niet werken volgens optische principes. Van Heerden ging ervan uit dat de elektrische impulsen in het brein, of hersengolven, effectief met elkaar interferen en zo aanleiding geven tot holografische opslag.
b) Neurale netwerken
De eerste theorieën rond neurale netwerken ontstonden in de tijd van de cognitieve revolutie en van de computermetafoor. Deze benadering ging nog veel meer uit van de ware architectuur van het brein. Zoals we gezien hebben leggen de volgelingen van Turing de nadruk vooral op symboolmanipulatie. De hersenen zijn een soort verwerkingseenheid die symbolen als input krijgt, er bewerkingen op uitvoert en als output intelligent gedrag geeft. Dit programma kan uitgevoerd worden op verschillende manieren. Verschillende architecturen zijn mogelijk. In theorie kunnen we een computer bouwen die menselijk gedrag imiteert. De andere benadering waarover we het hadden focust zich echter op de neurale netwerken die echt in ons brein aanwezig zijn en probeert intelligent gedrag te bekomen door het simuleren van zulke netwerken. Deze stroming wordt vandaag het connectionisme genoemd. Hoewel ze ten tijde van de cognitieve revolutie ontstond, moest ze wachten op de publicatie van ‘Parallel Distributed Processing’ van McClelland en Rumelhart in 1986 eer ze echt populair werd en voor een kuhniaanse omwenteling kon zorgen (Bechtel & Abrahamsen, 1991, p. 2). We beschrijven het ontstaan en de evolutie van deze benadering aan de hand van het boek Connectionism and the Mind van William Bechtel en Adele Abrahamsen. Het idee van een artificieel neuronaal netwerk, vertellen ze, kwam van Warren McCulloch en Walter Pitts. In 1943 publiceerden zij een paper waarin de fundamenten gelegd werden. Neuronen werden vervangen door simpele binaire units. Deze units konden dus of aan of uit staan. Elke unit was verbonden met andere units via inhiberende of excitatorische connecties. Op die manier konden units elkaar in positieve of negatieve zin beïnvloeden. Deze architectuur gaf het netwerk de mogelijkheid verschillende logische problemen op te lossen (Bechtel & Abrahamsen, 1991, p. 3). Een netwerk dat bijvoorbeeld de logische conjunctie kan implementeren bestaat uit 2 input units die enkel wanneer ze beiden actief zijn een output unit activeren. 53 | P a g e
John von Neuman, dezelfde man die de eerste computer construeerde, bouwde verder op McCulloch en Pitts en ging uit van grotere hoeveelheden units. Eén unit zou dan input ontvangen van heel veel andere units. Of deze unit actief zal worden hangt af van het statistische patroon dat haar inputvector vertoont (Bechtel & Abrahamsen, 1991, p. 3). De ruis die kan optreden en de grote hoeveelheid inputpatronen die tot eenzelfde output kunnen leiden zijn erg belangrijk. De grootste troef van neurale netwerken lag namelijk in het verklaren van patroonherkenning. Mensen en dieren herkennen eenzelfde object onder verschillende hoeken, van op verschillende afstanden, bij verschillende verlichting, enzovoort. Door redundantie in te bouwen in de neurale netwerken van McCulloch en Pitts wou von Neuman dit fenomeen trachten te verklaren. De grote hoeveelheid units gaf bovendien de mogelijkheid tot gedistribueerde representaties. Dat wil zeggen dat informatie verspreid wordt over het gehele netwerk, wat het geheel meer bestendig maakte tegen schade. Deze benadering lijkt dan ook veel meer gelijkenissen te vertonen met de realiteit. Onze hersencellen sterven in grote hoeveelheden af. Welke cellen verloren gaan is volledig willekeurig. Als herinneringen lokaal zouden zijn, dan zouden we door een avond stevig drinken allerlei belangrijke dingen
kunnen
vergeten.
Een
gedistribueerde
representatie
zorgt
ervoor
dat
het
herinneringspatroon blijft bestaan, ook wanneer bepaalde stukjes ervan verloren zijn gegaan. De hypothese van Wilder Penfield (infra), dat ons geheugen lokaal en feilloos opslaat, is dus niet echt plausibel. Een andere onderzoeker, Karl Lashley, voerde in de eerste helft van de 20 ste eeuw enkele interessante experimenten uit met ratten. Eerst leerde hij de beestjes hun weg te vinden in een doolhof. Vervolgens sneed hij een stukje cortex weg dat varieerde in grote. Hij ontdekte dat de hoeveelheid vergeten informatie correleerde met de hoeveelheid weggesneden cortex. Opmerkelijk genoeg vond hij geen correlatie tussen de locatie van de weggesneden cortex en de vergeten informatie. Dit voedde zijn hypothese dat herinneringen gedistribueerd zijn over de gehele cortex en dat verschillende hersenmodulen dus elk hun stukje bijdragen tot het opslaan van informatie (Neath, 1998, p. 195). Later onderzoek heeft deze hypothese in grote lijnen bevestigd. De redenering van von Neumann werd vedergezet door Frank Rosenblatt. De belangrijkste stap die hij zette was het invoeren van veranderlijke graduele gewichten van connecties (Bechtel & Abrahamsen, 1991, p. 4). Het gewicht van een connectie is een waarde die de kracht weergeeft waarmee activatie door die connectie propageert. Een inhiberende connectie heeft een negatief gewicht, een excitatorische heeft een positief gewicht (McLeod, Plunkett, & Rolls, 1998). Rosenblatt noemde zijn netwerk een perceptron. Hij werkte dit concept uit in zijn On the convergence of reinforcement procedures in simple perceptrons in 1960. Het perceptron bestaat uit sensorische units, verbonden met associatieunits, op hun beurt verbonden met responsunits. De eerste 54 | P a g e
connecties zijn onveranderlijk, maar de gewichten van de verbindingen tussen associatie- en responsunits worden veranderd onder invloed van een reinforcement control system, een leraar buiten het systeem dat de gewichten aanpast aan de hand van de afwijking van de correcte respons (Rosenblatt, 1960). Rosenblatt introduceerde als eerste een geheugen binnen neurale netwerken. Het geheugen bestaat uit de gewichten van de connecties in het netwerk. Het perceptron werd ongeveer gelijktijdig ontwikkeld met het principe van Donald Hebb (supra). Dat suggereert een neuronaal plausibele manier om het artificiële netwerk te laten leren. Rosenblatt vestigde ook op zijn beurt de aandacht op het statistische karakter van deze netwerken en op het belang van redundantie en ruis. Hij contrasteerde dit expliciet met het logische karakter van andere informatie verwerkende systemen en stelde dat de statistische benadering veel beter geschikt is om menselijke cognitieve processen te simuleren. (Bechtel & Abrahamsen, 1991, p. 6) Ondanks dit onderzoek geraakte het connectionistisch onderzoeksprogramma in verval tijdens de jaren 60 en 70. Dit was mede dankzij een boek, in 1969 gepubliceerd door Marvin Minsky en Seymour Papert, nl. Perceptrons (Bechtel & Abrahamsen, 1991, p. 15). Het is een kritische studie van neurale netwerken, uitgevoerd door twee aanhangers van de symbolische modellen. Ze toonden met behulp van de wiskunde aan hoe er verschillende computationele processen waren die niet uitgevoerd konden worden door deze neurale netwerken. Een eenvoudig voorbeeld is de exclusieve disjunctie, XOR, waarbij de outputunit enkel actief mag zijn wanneer één van de twee inputunits actief is, maar niet wanneer beiden actief zijn. Dit probleem kan wel uitgevoerd worden door een meerlaging netwerk, waarbij zich extra hidden units bevinden tussen de input- en de outputlaag. Het probleem is echter dat er geen trainingsprocedure bestond om zulke meerlagige netwerken te laten leren. Het is bovendien al een stuk minder plausibel dat neuronen die niet met elkaar verbonden zijn invloed kunnen uitoefenen op elkaars connecties. Een tweede punt van kritiek was dat het connectionisme niet meer was dan een mooi ingeklede voortzetting van het associationisme (Bechtel & Abrahamsen, 1991, p. 16). Wat zo’n leerprocedure doet is niet meer dan het gradueel aan elkaar koppelen van een patroon dat een externe stimulus representeert en een patroon dat een bepaald gedrag representeert. Het is niet meer dan de neuronale legitimering van het behaviorisme. De cognitieve wetenschappers redeneerden dat associatie bijlange niet volstond om onze complexe cognitieve capaciteiten te beschrijven. Er was computationele kracht nodig met duidelijke regels die de berekeningen in goede banen leiden. Cognitie kon toch niet gewoon ontstaan uit een geheel van chaotisch vurende neuronen in een netwerk?
55 | P a g e
c) De Connectionistische revolutie
Een duidelijk antwoord op de zo net besproken kritieken werd gegeven in 1986. Dat is het jaar waarin James McClelland en David Rummelhart het tweedelige Parallel Distributed Processing: Explorations in the microstructure of Cognition publiceerden. In Volume 1 worden de fundamenten gelegd van het paradigma. Een nieuwe trainingsprocedure wordt geïntroduceerd, namelijk backpropagation, waardoor nu ook meerlagige netwerken getraind kunnen worden op basis van de afwijking van de correcte output. Het komt erop neer dat activatie voorwaarts gepropageerd wordt door het netwerk terwijl de afwijking achterwaarts gepropageerd wordt. De mate waarin connecties versterkt of verzwakt worden is een functie van die afwijking. Deze procedure werd eigenlijk al in 1974 beschreven door Paul Werbos, maar het was pas in dit boek dat haar volledige impact duidelijk werd. Laten we even een overzicht bieden van de voordelen die parallel gedistribueerde netwerken met zich meebrengen, aan de hand van het boek Introduction to Connectionist Modellingof Cognitive Processes van McLeod, Plunkett en Rolls. De meeste van deze voordelen zijn we al vroeger tegen gekomen, maar het kan geen kwaad ze eens expliciet te vermelden. De opslag van informatie is gedistribueerd en niet lokaal (McLeod, Plunkett, & Rolls, 1998, p. 31). Ongeveer alle andere opslagsystemen waarmee we bekend zijn zijn lokaal. Een bepaald brokje informatie komt dan overeen met één bepaalde locatie, zoals bijvoorbeeld in een telefoonboek. Ook in een computer is dit het geval, een bestand wordt opgeslagen op een bepaalde locatie. In deze netwerken is het echter niet zo dat bij het ophalen van een brok informatie één bepaald unit of een groepje units op een bepaalde locatie geactiveerd worden. Bij de ophaling van elk mogelijk item zien we actieve units verspreid over het hele netwerk, en dezelfde units spelen dus een rol in het ophalen van verschillende informatie. De representatie in ons hoofd van bijvoorbeeld het concept ‘hond’ zal dus niet overeenkomen met een verzameling naburige units maar wel met een verspreid patroon van activatie (McLeod, Plunkett, & Rolls, 1998, p. 31). Deze gedistribueerde opslag heeft enkele gevolgen. Schade aan een bepaalde locatie is niet rampzalig voor de werking van het netwerk. Wanneer bij een computer de toegang tot een bepaalde locatie beschadigd is beschikt het systeem gewoon niet meer over de informatie die op die locatie opgeslagen is. In een gedistribueerd patroon heeft één unit slechts een beperkte invloed op het geheel, en zal de informatie die overeenkomt met het (beschadigde) patroon nog min of meer volledig opgehaald kunnen worden. Dus, in een lokaal systeem gaat een beetje informatie compleet verloren, terwijl in een gedistribueerd systeem verschillende brokken informatie slechts gedeeltelijk verloren gaan. Dit fenomeen, het feit dat lokale 56 | P a g e
schade slechts een kleine invloed uitoefent op de performantie van het geheel, noemen we gracefull degradation (McLeod, Plunkett, & Rolls, 1998, p. 34). Dit is ongetwijfeld ook een eigenschap van onze hersenen. Tijdens ons leven sterven er voortdurend neuronen af en dat op een compleet willekeurige manier. Maar, zoals deze gedistribueerde netwerken, slagen ook wij erin de meeste informatie min of meer te behouden, en als we ze vergeten gebeurt dat eerder gradueel en ‘gracefull’. Nog een reden waarom het wegnemen van één unit niet veel invloed zal hebben op de werking van het geheel is dat één unit op zich nooit een bepalende rol speelt. Het is het statistisch patroon over vele units dat het uiteindelijke gedrag bepaalt (McLeod, Plunkett, & Rolls, 1998, pp. 31-32). Ook dat is makkelijk waarneembaar in de hersenen. Eén neuron kan op verschillende manieren reageren op eenzelfde stimulus, afhankelijk van toevallige ruis in het netwerk. Maar het statistisch patroon van duizenden neuronen die met eenzelfde stimulus geconfronteerd worden is wel betrouwbaar. Bovendien maakt deze redundantie (hoewel dat woord in strikte zin fout gekozen is) het geheel nog meer bestendig tegen schade en het kan verklaren waarom we zo goed zijn in het herkennen van patronen. Zoals reeds vermeld werd, blinkt de mens uit in het herkennen van gezichten en objecten vanuit alle mogelijke hoeken, van op verschillende afstanden en bij verschillende lichtintensiteiten. Hoewel het beeld dat op het netvlies valt in elk van deze mogelijke gevallen verschillend is, wordt toch steeds dezelfde representatie geactiveerd. Ook dit kan verklaard worden via de architectuur van de netwerken waaruit onze hersenen bestaan. Elke keer dat we een hond waarnemen worden er gewichten van connecties aangepast. Het patroon dat overeenkomt met ‘hond’ is dus het resultaat van het zien van duizenden honden. Het komt overeen met wat we het prototype van een hond zouden kunnen noemen. Wanneer we nu een speciale hond zien of een hond in het donker of van op afstand, zal slechts een deel van het prototypische patroon actief worden via de zintuigen. De interne associaties tussen de units die samen het patroon vormen, zorgen echter voor een productie van het hele patroon, zodat ook in deze gevallen onze prototypische representatie van ‘hond’ actief wordt (McClelland & Rumelhart, 1986, p. 82). Een derde eigenschap van deze netwerken is dat ze inhoudsadresseerbaar zijn (McLeod, Plunkett, & Rolls, 1998, p. 34). Dit was ook al volgens Atkinson en Shiffrin duidelijke eigen aan het menselijk geheugen. Zij wrongen zich echter in allerlei bochten om deze eigenschap toe te voegen aan hun model. Om het model inhoudsadresseerbaar te maken moesten ze de werking van het geheugen, de structurele componenten en controleprocessen nog ingewikkelder maken. Allerlei additionele informatie over de locatie van de opgeslagen informatie, de context waarin ze opgeslagen werd en de inhoudelijke link met andere informatie moest samen met die informatie opgeslagen worden 57 | P a g e
opdat ze achteraf opgehaald zou kunnen worden via inhoudelijke cues. Het maakte het hele model veel complexer. Bij connectionistische netwerken is het echter zo dat inhoudsadresseerbaarheid een gevolg is van hun eenvoudige structuur. Een cue zal een bepaald patroon activeren dat overeenkomt met deze cue. De actieve units sturen hun activatie vervolgens via hun connecties door naar andere units. Afhankelijk van de sterkte van exciterende en inhiberende connecties en van de daaruit volgende activatie of inhibitie van units kan uiteindelijk een stabiel activatiepatroon ontstaan, dat overeenkomt met de informatie die opgehaald moest worden. Het geheel werkt dus heel associatief. Wanneer je bijvoorbeeld het woord ‘zon’ aanbiedt kan dat leiden tot de activatie van ‘maan’ en dan van ‘nacht’, enzovoort. Elk actief unit maakt de units waarmee het een positieve connectie heeft actief en die waarmee het een negatieve connectie heeft inactief. Over het geheel genomen zullen bepaalde units deze ‘competitie’ winnen en wanneer een bepaalde drempelwaarde overschreden wordt kunnen we van een output spreken. Een verder opmerkelijk gevolg van de architectuur van connectionistische netwerken is het verdwijnen
van
het
onderscheid
tussen
verwerking
en
geheugen.
Andere
informatieverwerkingssystemen zoals de computer en oudere geheugenmodellen maakten steeds dit onderscheid. Er is een stabiele, passieve opslagruimte van informatie en deze informatie wordt elders gebruikt bij actieve verwerking. In deze netwerken steunen zowel het geheugen als de verwerking op dezelfde gewichten tussen units. (McLeod, Plunkett, & Rolls, 1998, p. 48) In volume 2 van hun bekende boek werken McClleland en Rumelhart modellen uit volgens de theoretische lijnen die in volume 1 uiteengezet werden. Ze toonden zo aan hoe de belangrijkste en meest complexe cognitieve vaardigheden van de mens wel uitgevoerd kunnen worden door niet meer dan een netwerk van eenvoudige units met gradueel veranderende connecties. In hoofdstuk 17 behandelen ze het geheugen. Ze stellen in navolging van Hinton (1981) een model op dat hun voorbeeld van de hond (supra) implementeert. De architectuur van het model ziet er als volgt uit: grote hoeveelheden van units vormen samen een module. Er zijn verschillende modules die met elkaar communiceren. Binnen één module zijn alle units met elkaar verbonden via modificeerbare connecties. De gewichten van de verbindingen tussen de verschillende modules worden constant gehouden. Elk unit krijgt 2 inputs, de externe input, afkomstig van buiten de module, en een interne input van de andere units binnen de module. De eerste is dus constant, de tweede variabel. De totale input is de som van deze twee inputs en de uiteindelijke activatie van de unit is een functie van deze totale input. Nu we de architectuur kennen, kunnen we ons met het leren van het netwerk bezig houden. Dit gebeurt volgens de deltaregel. Een patroon kan slechts volledig op zichzelf staan wanneer de interne input alleen voldoende is om het te produceren. We willen er dus voor zorgen 58 | P a g e
dat de interne input voor elke unit even groot wordt als de externe input. Dit doen we door de gewichten tussen de units van één module aan te passen. Het verschil van de interne en externe input noemen we δ. Deze δ bepaalt de mate waarin de gewichten naar de desbetreffende unit worden aangepast, samen met de activatie van de inputunit en een leerparameter die vrij gekozen kan worden. Het herhaaldelijk uitvoeren van deze leerregel zorgt voor een aanpassing van gewichten tot ze de waarde bereikt hebben waarbij δ gelijk is aan 0. Om nu terug te komen op het voorbeeld van de honden. Het zien van een hond komt overeen met het aandienen van een externe input. Dat inputpatroon zal verschillend zijn voor verschillende honden, maar er zullen desalniettemin veel gelijkenissen zijn. De patronen van een rottweiler en een buldog vertonen meer gelijkenissen dan de patronen van een rottweiler en koffiezetapparaat. Door het aanbieden van de visuele representaties van de vele honden en het uitvoeren van de deltaregel bij elke trial zullen de gewichten naar bepaalde gemiddelde waarden toegroeien. Deze waarden zijn niet gelijk aan 0, gezien de gelijkenissen van de inputpatronen. Wat dus gradueel ontstaat in de connecties van het netwerk is een representatie van de prototypische hond, ook al hebben we die nooit aangeboden. Elke aangeboden instantie is een distortie van dat prototype. Nu zien we duidelijk hoe patroonherkenning een simpel gevolg is van de architectuur van het netwerk en de leerregel. (McClelland & Rumelhart, 1986) Een nog opmerkelijker resultaat is dat in eenzelfde netwerk verschillende prototypes opgeslagen kunnen worden. Het netwerk slaagt er dus in om categorieën aan te maken. Dat gebeurt niet enkel wanneer elk patroon een label krijgt met de categorienaam, maar ook wanneer dat label ontbreekt. Het netwerk categoriseert dus volledig op zichzelf. Dit werd getest door het model drie soorten patronen aan te bieden. Random distorties van honden, katten en bagels. De patronen van bagels hebben geen enkele gelijkenis met die van honden en katten, maar die laatste twee overlappen wel voor een deel. Toch zien we dat na voldoende trials en dus na voldoende aanpassingen aan de gewichten, het netwerk drie categorieën geleerd heeft. Een patroon dat het midden houdt tussen kat en hond geeft als output een soortgelijke mix van de twee, zoals we dat ook bij de mens zouden verwachten (McClelland & Rumelhart, 1986). Het netwerk kan echter veel meer dan het extraheren van prototypes. En dat moet ook, willen we het menselijk geheugen modeleren. Wij mensen leren inderdaad door uit vele concrete ervaringen abstracties te vormen die ons helpen bij onze toekomstige ervaringen. We vormen categorieën of prototypes en delen de wereld vervolgens in op basis daarvan. Daarnaast slagen we echter ook in het onthouden van heel specifieke, concrete dingen of gebeurtenissen. Wanneer we onze hond zien dan denken we niet alleen ‘dit is een hond’ maar we herkennen hem als deze specifieke hond. Ook dit konden de netwerken van McClelland en 59 | P a g e
Rumelhart. Het netwerk kon tegelijkertijd een prototype extraheren uit vele instanties en verschillende van die instanties op zich opslaan. Dat laatste hangt uiteraard af van het aantal keer dat we het netwerk met die instanties confronteren. Hoe meer een bepaald patroon aangeboden wordt, hoe groter haar invloed op de gewichten van de connecties zal zijn (McClelland & Rumelhart, 1986). Deze gedistribueerde netwerken vormen, naar onze mening, het mooiste en meest elegante antwoord op de vraag die aan het begin van deze masterpaper werd geformuleerd. De vraag was hoe de temporele afstand overbrugd wordt. Hoe kan een gebeurtenis invloed uitoefenen op gebeurtenissen die er temporeel van gescheiden zijn. Welk deel van een ervaring blijft aanwezig tussen de twee gebeurtenissen? Het antwoord is geen enkel. Wat gebeurt is een initiële interactie tussen de wereld en ons brein. De zintuigen dienen een patroon aan, de connecties van dat patroon worden versterkt. Deze versterkingen vinden voortdurend plaats in de chaotische materie van onze hersenen. De tweede gebeurtenis, die volgens ons conceptueel denkkader veroorzaakt wordt door de eerste is niet meer dan het stellen van een handeling als gevolg van een geactiveerd patroon. Het tweede patroon heeft ongetwijfeld veel leden gemeenschappelijk met het patroon dat in de eerste ervaring actief was en versterkt werd, maar het is niet zo dat er één entiteit is die de eerste keer geconstrueerd en de tweede keer opgehaald werd. Beide patronen zijn het gevolg van een constructieproces dat afhangt van aanwezige activatie en kracht van connecties. De eerste ervaring zorgt er gewoon voor dat de neiging van ons netwerk groter wordt om tijdens de tweede ervaring hetzelfde patroon te produceren. David Stern ziet het connectionisme wel als een antwoord op Descartes’ dualisme in tegenstelling tot Fodor’s computationele niveau (Stern, 1991). Die laatste gaat uit van een taal van het denken en gelooft dat alle woorden en zinnen van die taal corresponderen met iets in de werkelijkheid. Stern wil met die representaties komaf maken. Hij benadrukt dat niet een lokaal neuron of groepje neuronen reageert op een bepaalde stimulus, maar dat het gehele netwerk van belang is. Stern citeert Ludwig Wittgenstein, die deze kritiek op het cognitivisme reeds geformuleerd had: “Nothing seems more possible to me than that people some day will come to the definite opinion that there is no copy in either the physiological or nervous systems which corresponds to a particular thought, or a particular idea, or memory.” (Wittgenstein, zoals geciteerd in Stern, 1991)
Het connectionisme toont hoe we tot menselijke intelligentie kunnen komen zonder een taal van het denken. Het interpreteert herinneren niet als iets wat we “passief ondergaan” maar als “something we do, an activity” (Stern, 1991). Het helpt ons af van de homunculus die naar een scherm met herinneringen kijkt en analyseert, vergelijkt en selecteert. Herkennen en herinneren zijn emergente 60 | P a g e
eigenschappen van door het netwerk propagerende activatie, niet het gevolg van het ‘opslaan’ van een representatie. Er is geen homunculus meer, er is enkel het ‘army of idiots’ (Dennett, 1991), waarin elke soldaat zijn simpel taakje volbrengt. Het geheel geeft echter aanleiding tot indrukwekkende fenomenen die sinds jaar en dag tot de grootste raadsels van de filosofie behoren.
61 | P a g e
IV.
Een connectionistisch model: Tracelink
Zoals al verschillende malen aangehaald werd, is één van de belangrijkste troeven van connectionistische
modellen
hun
realistische
architectuur.
Onze
hersenen
lijken
een
ongestructureerd netwerk van neuronen, net als de connectionistische netwerkmodellen. Die laatste tonen echter dat uit die schijnbare chaos orde kan emergeren. Voor we dus een interessant connectionistisch netwerk kunnen bespreken, is het noodzakelijk dat we wat dieper ingaan op de ware biologie van het brein.
1) Amnesie en de biologie van het brein Een belangrijke methode binnen de neurologische wetenschappen is het bestuderen van mensen met een hersenletsel. Wanneer we willen weten waarvoor een bepaald hersengebied dient is het interessant te kijken naar de mensen met schade aan dat hersengebied. Het is deze inferentie die Broca er reeds in de 19de eeuw toe aanzette te postuleren dat een bepaald gebied in de linkerhersenhelft instond voor de spraak. Als we nu een psychologisch fenomeen bestuderen, zoals het geheugen, is het interessant te kijken naar mensen met geheugenproblemen. Er bestaan verschillende soorten van geheugenverlies of amnesie. Sommige patiënten kunnen zich oude gebeurtenissen niet herinneren, anderen slagen er niet in nieuwe herinneringen te construeren. Afhankelijk van het feit of de amnesie betrekking heeft op gebeurtenissen voor of na het moment waarop de amnesie ontstond, spreken we respectievelijk van retrograde en anterograde amnesie. Verscheidene opvallende casestudies suggereren dat ons geheugen op te delen is in verschillende subsystemen. De meest bekende casestudie is die van H.M. Dit was een patiënt die in 1953 geopereerd werd voor chronische epileptische aanvallen. We gebruiken Banich (2004) om deze case te bespreken. Tijdens de operatie werd een groot stuk van zijn temporele kwab weggehaald, met name de hippocampus en de omringende structuren. De operatie was een succes, maar had een opmerkelijk neveneffect. Ze leverde H.M. een enorm geheugendeficiet op. Hij was niet in staat om nieuwe herinneringen op te doen. En tot bij zijn dood in 2008 had hij geen enkele notie van wat hem overkomen was sinds de operatie. Hij wist niet hoe oud hij was, hij ontmoette dezelfde mensen elke dag opnieuw, alsof het de eerste keer was en hij verwarde een foto van zichzelf met een van zijn vader. Toch bleven andere capaciteiten die we met het geheugen associëren intact. Zo was het 62 | P a g e
mogelijk een relatief normaal gesprek te voeren met H.M. zo lang het van voldoende korte duur was. De informatie bleef duidelijk nog even in zijn hoofd sluimeren alvorens ze verloren ging. Hij presteerde bovendien normaal voor alle taken die onmiddellijk uitgevoerd konden worden. Maar vanaf het moment dat ergens een pauze ingelast werd of een taak om één of andere reden onderbroken werd, was het enkele seconden later alsof hij het nooit meegemaakt had. Een andere opmerkelijke capaciteit die behouden bleef was het leren van vaardigheden. H.M. vertoonde een duidelijk verbetering in het leren van vaardigheden, zoals bijvoorbeeld in spiegelschrift schrijven. Hoewel hij steeds opnieuw dacht dat het de eerste keer in zijn leven was dat hij deze taak uitvoerde, leerde hij even rap als normale mensen. (Banich, 2004, pp. 323-324) Volgens Neath (1998, p. 198) wordt de studie van H.M. gewoonlijk gebruikt om vier hypothesen te ondersteunen.
Ten
eerste
bevestigt
ze
het
onderscheid
tussen
het
korte-
en
het
langetermijngeheugen. H.M. kon namelijk relevante informatie voor even in zijn geheugen houden. Zijn werkgeheugen was als het ware intact. Dit pleitte dus voor anatomisch gescheiden gebieden, één dat de functies bezit van Baddeley’s werkgeheugen en een ander dat informatie gedurende lange tijd kon opslaan. De tweede hypothese die deze casestudie ondersteunt is een onderscheid tussen declaratief en proceduraal geheugen. Het declaratieve geheugen bestaat uit kennis over de wereld, het semantisch geheugen, en uit de herinneringen van de dingen die we meegemaakt hebben, het episodisch geheugen. Het proceduraal geheugen staat in voor het onthouden van vaardigheden. Het oproepen van deze ‘herinneringen’ is iets dat eerder onbewust gebeurt. Voorbeelden zijn fietsen, skiën, typen, enzovoort. De hypothese dat ook deze twee geheugens uitgevoerd worden door verschillende anatomtische systemen volgt uit het feit dat H.M. er wel nog in slaagde vaardigheden aan te leren, zonder zich daarbij bewust te zijn van de leerepisodes. Deze
63 | P a g e
architectuur
van
Menselijk geheugen
het
geheugen
wordt
Declaratief geheugen
Proceduraal geheugen
duidelijk
weergegeven
in
figuur
3.
Episodisch geheugen Semantisch geheugen
Figuur 3: De structuur van het menselijk geheugen
Ten derde bevestigt H.M.’s letsel de onmisbare rol van de hippocampus in het geheugen. Schade aan de hippocampus leidt altijd tot geheugenverlies en dus speelt de hippocampus een rol in het opslaan van informatie. Neath beweert echter dat het zo simpel niet is. Tijdens H.M.’s operatie werd niet enkel de hippocampus maar ook een groot deel van de omringende structuren verwijderd. Bovendien kan het zijn dat niet de structuren die instaan voor het geheugen zelf, maar de verbinding tussen die structuren werd beschadigd. Dit slechts om aan te tonen dat de lokalisatie van psychologische functies niet zo eenvoudig is als de eerste paragraaf van dit onderdeel doet vermoeden. Vele jaren van hersenonderzoek hebben ondertussen echter onmiskenbaar aangetoond dat de hippocampus een erg belangrijke rol speelt voor het geheugen. Larry Squire is één van de onderzoekers die zich hiermee bezig houdt. In een paper uit 1992 verenigde hij onderzoek bij ratten, apen en mensen om bovenstaande stelling aan te tonen (Squire, 1992). Bij deze drie soorten is het steeds het geval dat het weghalen van enkel de hippocampus en niets anders voldoende is om voor geheugenverlies te zorgen. Een voorbeeld van een menselijke patiënt is R.B.. Deze man leed aan ischemia, een aandoening die ervoor zorgt dat er niet genoeg bloedtoevoer is naar de hersenen en die vooral de hippocampus treft. Schade aan de hippocampus is dus voldoende, maar H.M., bij wie ook andere temporele gebieden beschadigd waren, leed aan een ergere vorm van amnesie. Dit suggereert dat ook de gebieden die de hippocampus omringen bijdragen tot de werking van het geheugen (Squire, 1992, p. 196). Onderzoek bij ratten en primaten bevestigt deze stelling. Een volgende stelling van Squire, is dat de hippocampus slechts een rol speelt voor een deel van het geheugen. Hij impliceert met andere woorden dat het geheugen uit meerdere componenten bestaat, 64 | P a g e
niet alleen functioneel maar ook anatomisch. De verschillende componenten, waarvoor verschillende termen bestaan, zijn niet altijd duidelijk van elkaar te onderscheiden, maar volgens Squire duidt de distinctie declaratief-proceduraal wel degelijk op een biologische distinctie, waarbij de hippocampus enkel een rol speelt voor het declaratief geheugen (Squire, 1992, p. 204). Zoals we gezien hebben wordt dit bevestigd door H.M. en andere amnesiepatiënten. Ze slagen er namelijk wel in om vaardigheden aan te leren met beschadigde hippocampus, terwijl hun geheugen voor feiten en gebeurtenissen verloren is gegaan. Het declaratief geheugen lijkt iets dat op het eerste zicht niet getest kan worden bij ratten en primaten, aangezien zij niets kunnen declareren. Dit geheugen bevat echter informatie over plaatsen, gezichten en gebeurtenissen. We kunnen ratten testen, zoals Lashley dat deed, door ze de weg door een doolhof aan te leren en vervolgens de hippocampus te beschadigen. Zulke studies bevestigen opnieuw Squire’s stelling dat de hippocampus enkel een rol speelt voor het declaratief geheugen en niet voor het proceduraal (Squire, 1992, pp. 207-208). Nu rest de vraag nog, wat is juist de functie van de hippocampus binnen het declaratief geheugen. Het is een vraag waar Squire erg veel mee bezig is geweest. Onderzoek bij patiënten met retrograde amnesie heeft tot enkele interessante bevindingen geleid. Theodule Ribot onderzocht het geheugen van een groep amnesiepatiënten reeds in 1881. Hij constateerde dat recent geheugen vlugger en in grotere mate verloren gaat dan het geheugen aan ver vervlogen tijden. Hij goot deze vaststelling in een wet. De Ribot-gradiënt wordt gedemonstreerd in figuur 4. Squire confirmeerde deze wet bij verschillende groepen patiënten met verschillende vormen van amnesie. Bij personen met schade aan de hippocampus en de gerelateerde gebieden is een duidelijke temporele gradiënt waar te nemen. Het percentage recente herinneringen dat onthouden wordt is erg klein terwijl men het voor oude herinnering ongeveer even goed doet als de controlegroep van normale testsubjecten (Squire, 1992, p. 215). Een interessante groep patiënten zijn deze met transient globale amnesie (TGA). Dit is een aandoening waarbij men gedurende een zeer korte tijd, enkele uren, aan zware amnesie leidt. Het voordeel van deze tijdelijkheid is dat TGA-patiënten als hun eigen controlegroep kunnen fungeren. Ze worden getest tijdens en na de amnesie. Ook in deze resultaten is een duidelijke temporele gradiënt waarneembaar (Squire, 1992, p. 217). Bovendien is het zo dat het herstel van tijdelijke amnesie ook in een temporele richting verloopt. Oudere herinneringen komen terug voor recentere herinneringen.
65 | P a g e
De Ribot-gradiënt 70 Percentage onthouden
60 50 40 30 20 10 0 0
1
2
3
4
5
6
7
8
Tijd geleden
Figuur 4: De precieze waarden zijn fictief, maar de vorm van de curve komt kwalitatief overeen met wat typisch in de literatuur beschreven wordt, bv. (Neath, 1998). De dunne lijn toont de normale vergeetcurve, de dikkere lijn toont wat er gebeurt bij een beschadigde hippocampus. De horizontale as respresenteert de ouderdom van de herinneringen, waarbij 0 het heden is. Oudere herinneringen worden duidelijk beter bewaard dan meer recente.
Squire stelt vervolgens een verband vast tussen anterograde en retrograde amnesie met temporele gradiënt. In de meeste gevallen zijn de twee gecorreleerd. Bovendien is de ernst van beide soorten amnesie gecorreleerd met de hoeveelheid schade. De patiënt R.B., met schade aan een stukje van de hippocampus (CA1), ondervond minder anterograde en retrograde amnesie dan de patiënten met meer uitgebreide hippocampale schade (Squire, 1992, p. 217). Er bestaan echter ook gevallen van retrograde amnesie waarbij geen sprake is van een temporele gradiënt en waarbij alle herinneringen dus in gelijke (of in willekeurige) mate getroffen worden. Dit zien we bij aandoeningen als Alzheimer en Huntington. In deze gevallen is ook soms de correlatie met anterograde amnesie verdwenen. De populairste hypothese is dat bij deze patiënten additionele schade aanwezig is in gebieden buiten de laterale temporele cortex. Deze gebieden zouden dan overeen komen met de substraten van oudere herinneringen. (Squire, 1992, p. 219) We kunnen dus samenvattend stellen dat de meeste gevallen van retrograde amnesie, vooral bij schade aan de hippocampale formatie, een temporele gradiënt bezitten, dat deze temporeel gegradeerde retrograde amnesie vergezeld is van een in ernst gecorreleerde anterograde amnesie en dat de ernst van beide afhangt van de hoeveelheid schade aan de temporele lob. Additionele schade aan andere gebieden verdrijft deze correlaties. 66 | P a g e
Het laatste experiment van Squire dat we zullen bespreken is het volgende. Om uit te maken of schade aan de hippocampus leidde tot een opslag- of een ophalingsprobleem gaf hij de testsubjecten verschillende mogelijkheden om bepaalde herinneringen op te halen. Er waren verschillende sessies en ze kregen verschillende cues. Zowel de amnesiepatiënten als de controlegroep herinnerden zich meer met elke ophalingsgelegenheid die ze kregen. Maar er bleef een duidelijk verschil in de hoeveelheid informatie die herinnerd werd bij beide groepen. Dit wijst er duidelijk op dat de amnesiepatiënten de relevante kennis verloren hebben en dat ze niet louter een ophalingsprobleem hebben (Squire, 1992, p. 220). Al deze gegevens leidden Squire tot volgende hypothese. De temporele gradiënt wijst op een variabele rol van de hippocampale formatie voor het geheugen. Bij schade aan die formatie worden sommige herinneringen immers wel onthouden en andere niet. In de ophaling van herinneringen die slecht onthouden worden, de recente, speelt de hippocampus dus een grotere rol dan in de ophaling van oude herinneringen. Met andere woorden, de rol van de hippocampus in het activeren van een bepaalde herinnering vermindert met de tijd. Het laatste experiment dat we besproken hebben wijst erop dat de taak van de hippocampus niet beperkt is tot de ophaling van herinneringen. Het komt erop neer dat sommige geheugenpatronen (de recentere) niet meer geactiveerd worden bij schade aan de hippocampus en dat de corresponderende herinnering dus niet meer aanwezig is. We kunnen stellen dat de hippocampus een patroon creëert, dat overeenkomt met de opslag van een herinnering, en dat patroon vervolgens in stand houdt tot het genoeg zelfstandigheid heeft om autonoom geactiveerd te kunnen worden indien nodig. In neurologische termen komt dat neer op het volgende. De gebieden van de neocortex die instaan voor een bepaalde waarneming worden aan elkaar gekoppeld via de plastische neuronen van de hippocampus. Zo vormt zich een geheugenpatroon. In het begin zorgt de hippocampus voor de activatie van dat patroon, maar aangezien de neuronen van dit patroon samen vuren zullen zich, in overeenstemming met de Hebbregel, cortico-corticale connecties vormen, wat het patroon steeds onafhankelijker maakt van de hippocampus, tot het volledig autonoom is. Dit gradueel proces noemen we consolidatie. Squire drukte bovenstaande als volgt uit: “The facts of retrograde amnesia, as they are now understood, require a gradual process of reorganization or consolidation within declarative memory, whereby the contribution of the hippocampus and related structures gradually diminishes and the neocortex alone gradually becomes capable of supporting usable, permanent memory.” (Squire, 1992, p. 222)
67 | P a g e
2) Een voorbeeld van een connectionistisch model voor het geheugen Hoe meer we te weten komen over de anatomie en fysiologie van het brein en hoe meer cognitieve processen we volledig mechanisch kunnen verklaren, hoe beter onze modellen moeten zijn. Een model moet niet enkel de resultaten van een veelheid aan psychologische experimenten kunnen bevestigen, het moet ook in structuur min of meer overeenkomen met de hersenen. Een recent connectionistisch model dat aan deze criteria voldoet is het Tracelink model. Het kan vele eigenschappen van anterograde en retrograde amnesie verklaren, zoals de Ribot-gradiënt, het kent een anatomisch plausibele samenstelling, het vertoont een normale vergeetcurve en het kan verklaren hoe we items permanent kunnen opslaan (Meeter & Murre, 2005). We beschrijven dit model aan de hand van de paper ‘Tracelink: a model of consolidation and amnesia’ van Martijn Meeter en Jaap M.J. Murre. Er wordt uitgegaan van de consolidatie-hypothese van Squire. Een nieuwe herinnering bestaat uit verschillende stukken informatie, visuele, auditieve, tactiele, enzovoort. Gezien de modulariteit van het brein zal een ervaring dus gebieden verspreid over het brein actief maken. Neuronen die ver van elkaar verwijderd zijn moeten dus, om samen een bepaalde herinnering te vormen, met elkaar verbonden worden via langeafstand cortico-corticale connecties. Deze verbindingen vormen zich niet onmiddellijk. Er wordt uitgegaan van een “hiërarchical connectivity structure with dense bidirectional connections”. Deze structuur werkt zoals een telefoonnetwerk, dense lokale netwerken worden met elkaar verbonden door regionetwerken die op hun beurt verbonden worden via nationale en internationale netwerken (Meeter & Murre, 2005, p. 560). Het is de taak van de hippocampus om deze gescheiden locaties met elkaar te verbinden. De hippocampus is een plastische structuur die snel kan reageren op nieuwe stimuli. Linken tussen de verschillende gebieden die de herinnering vormen en de hippocampus worden rap gelegd. Squire’s bevindingen wezen, zoals we gezien hebben, op een kleiner wordende rol van die hippocampus. Er vindt consolidatie plaats, of er worden verbindingen gevormd en versterkt tussen de relevante gebieden zelf. Dit consolidatieproces voltrekt zich tijdens de slaap. Dit gaat door tot het patroon volledig onafhankelijk is van de hippocampus. Het Tracelink model gaat uit van drie structurele componenten van het geheugen (Meeter & Murre, 2005, p. 561). Ten eerste is er een tracesysteem. Dit modelleert delen van de neocortex, waar de eigenlijke herinneringen zijn opgeslagen. Dit tracesysteem is verbonden met een kleiner linksysteem. Dit speelt de rol van de hippocampus. De units van dit systeem zijn verbonden met elkaar en met 68 | P a g e
willekeurige units in het tracesysteem. De derde component, het modulair systeem, speelt een erg belangrijke rol. Het is schijnbaar paradoxaal dat ons geheugen bepaalde gebeurtenissen voor altijd kan onthouden en tegelijk snel en efficiënt kan reageren op nieuwe gebeurtenissen. Er is dus tegelijk een grote mate van plasticiteit en rigiditeit. Het modulair systeem brengt dit in rekening. Wanneer het geactiveerd wordt vergroot het de plasticiteit van het linksysteem waardoor leren veel sneller gebeurt. Een nadeel van die plasticiteit is echter dat voordien aanwezige patronen in het linksysteem snel kunnen verdwijnen ten voordele van nieuwe patronen. Het tracesysteem kent een lage mate van plasticiteit en deze wordt niet beïnvloed door het modulair systeem. Dit verklaart waarom andere herinneringen relatief stabiel zijn. Het modulair systeem zou bij ons overeenkomen met de amygdala, delen van de hippocampus en enkele andere gebieden. Toenemende plasticiteit kan veroorzaakt worden door aandacht, opwinding, waakzaamheid, ... (Meeter & Murre, 2005, pp. 561562). Wanneer we nu een bepaalde ervaring simuleren in het model, door een vast aantal willekeurige units van het tracesysteem te activeren, zal er consolidatie optreden. Dat gebeurt als volgt. De geactiveerde trace units zijn niet met elkaar verbonden maar wel met enkele willekeurige units van het linksysteem. Het modulair systeem wordt actief en vergroot de plasticiteit van het link systeem, waardoor de connecties tussen trace en link units snel sterker worden. Door herhaaldelijke activatie van het patroon gaan zich (conform de Hebb-regel) cortico-corticale connecties vormen tussen de actieve trace units. Het modulair systeem wordt minder actief, de rol van het link systeem verkleint. Uiteindelijk is het patroon geconsolideerd. De connecties tussen link en trace systeem vervallen en worden verlegd om te mediëren bij het vormen van nieuwe herinneringspatronen (Meeter & Murre, 2005, p. 563). Het hierboven beschreven proces kan jaren duren. Dat verklaart ook waarom amnesie vaker recente herinneringen treft dan oude herinneringen. Wanneer het consolidatieproces voor een bepaalde herinnering nog niet volledig is voltrokken heeft schade aan de hippocampus het vergeten van een deel van of de gehele herinnering tot gevolg. In het model simuleren we amnesie door het gedeeltelijk beschadigen van het link systeem (Meeter & Murre, 2005, p. 571). De verschillende simulaties hebben enkele interessante resultaten als gevolg. Allereerst vertoont het model een normale vergeetcurve. In de leerfase wordt aan het model een patroon aangeboden, gevolgd door drie consolidatietrials. Een patroon is de activatie van een vast aantal willekeurige trace en link units. De sterkte van inhibitie voorkomt dat er te veel units actief zouden zijn. Aangezien patronen random zijn is er steeds een mate van overlap tussen de verschillende patronen. Een consolidatietrial begint met een willekeurig patroon. Vervolgens laat men het model circuleren gedurende een vast aantal 69 | P a g e
iteraties, en het patroon dat op het einde actief is wordt vervolgens geconsolideerd via een versie van de Hebb-regel. Dat laatste toont aan hoe verschillende patronen in feite in een competitie verwikkeld zijn. Het patroon dat erin slaagt actief te worden en de andere patronen te inhiberen, wint deze competitie en wordt geconsolideerd. Na de verwerving van een nieuw patroon vinden dus drie van deze trials plaats, gevolgd door het aanleren van een nieuw patroon, enzovoort. In deze simulatie worden 15 patronen aangeleerd en volgt er een testfase. In deze fase test men de verschillende patronen door een cue aan te bieden. Een deel van de units van het trace systeem die deel uitmaken van een bepaald patroon, wordt geactiveerd. Het model wordt vervolgens vrij gelaten voor een aantal iteraties. De mate waarin het model zich een bepaald patroon “herinnert”, wordt gemeten door het aantal uiteindelijk actieve trace units dat deel is van het patroon, maar niet van de cue, te delen door het totaal aantal trace units in het patroon, zonder deze die deel uitmaken van de cue (Meeter & Murre, 2005, p. 568). Het resultaat van deze simulatie is de vergeetcurve van Ebbinghaus (zie figuur 1). Oudere patronen gaan langzaam verloren naarmate nieuwe patronen aangeleerd worden. Door de plasticiteit van het link systeem en de mate van overlap tussen de patronen zullen bepaalde connecties zich verleggen, waardoor delen van nog niet volledig geconsolideerde oudere patronen verloren gaan. De curve daalt wel nooit volledig tot nul, aangezien oude patronen op een bepaald moment onafhankelijk worden van het link systeem (Meeter & Murre, 2005, p. 571). Dat zorgt ervoor dat de performantie van het model voor dat patroon voortaan constant blijft. De simulatie van retrograde amnesie en van de Ribot-gradiënt loopt in grote lijnen gelijk met voorgaande simulatie. De leerfase loopt helemaal gelijk, er worden 15 patronen aangeleerd. Voor de testfase wordt echter een lesie aan de hippocampus gesimuleerd. Dat houdt in dat het link systeem gedeactiveerd wordt terwijl het trace systeem vrij gelaten wordt. Vervolgens worden de patronen, net als voordien, getest. De curve die deze simulatie oproept verschilt merkbaar van die van Ebbinghaus. We zien over het algemeen slechte ophalingsresultaten, maar die verslechtering is veel groter voor recente dan voor oudere patronen (Meeter & Murre, 2005, p. 571). De invloed van het gedeactiveerde link systeem is dus veel groter voor nieuwere patronen. Er is een duidelijke Ribotgradiënt aanwezig (zie figuur 3). Deze resultaten zijn geheel conform Squire’s hypothese over de gradueel kleiner wordende rol van de hippocampus. Een vaak voorkomende vorm van amnesie is TGA ofte transient globale amnesie (Meeter & Murre, 2005, p. 572). Dit is een tijdelijke en plotse retrograde amnesie, waarna gradueel herstel optreedt. De simulatie van deze aandoening verloopt als volgt. Na het aanleren van 14 patronen op de manier die hierboven beschreven werd, wordt het aantal actieve units in het link systeem via inhibitie op nul 70 | P a g e
gebracht. Dat aantal is een parameter die k wordt genoemd. Het moment waarop k=0 simuleert het eigenlijke trauma, de TGA-aanval. Vervolgens wordt het 15de patroon aangeboden. De testfase wordt eerst uitgevoerd met k nog steeds gelijk aan 0. Om vervolgens het herstel te simuleren wordt de testfase herhaald voor k gelijk aan 3 en 5. Uiteindelijk wordt k terug op haar normale waarde, 7, gebracht en worden er nog 5 nieuwe patronen aangeleerd, gevolgd door een laatste testfase. Voor k=0 krijgen we hetzelfde resultaat als bij de simulatie van normale retrograde amnesie. Dat zien we in figuur 5, rechts boven. Deze curve is dezelfde als deze in figuur 3. Bij een k van 3 en 5 zien we de performantie stijgen (figuur 4). Recente patronen worden beter opgehaald maar blijven nog steeds relatief ver van hun normale niveau. Oude patronen worden ook voor een lage k al snel even goed (of zelfs beter) dan voorheen opgehaald. Dat houdt in dat bij het herstel van TGA, oude herinneringen sneller terugkomen dan recente, een fenomeen dat we ook bij werkelijke patiënten waarnemen. Het resultaat van de simulatie van een volledig herstelde retrograde amnesie (k opnieuw gelijk aan 7) vertoont een normale vergeetcurve (figuur 5), met een knik op de plaats van het patroon dat aangeleerd werd tijdens de aanval. Dit patroon werd niet onthouden. Wat Meeter en Murre in een latere simulatie ook in rekening brengen is de variabele invloed van het modulair systeem (Meeter & Murre, 2005, p. 579). Ze doen dit door de leerparameter, die bepaalt hoe snel iets aangleerd wordt, te laten variëren voor de verschillende patronen. Ook in de werkelijkheid gebeurt dit. Sommige dingen worden beter onthouden, onafhankelijk van hun leeftijd, omdat ze bijvoorbeeld speciaal zijn, of in een periode van hoge aandacht of emotionaliteit worden aangeleerd. Die aandacht, waakzaamheid, opwinding activeert het modulair systeem, dat op zijn beurt de leersnelheid aanpast. Zo kan je herinnering aan je eerste kus lang geleden beter zijn dan de herinnering aan een ontbijt vorige week. De simulatie deelt de patronen in in drie groepen: sterke, gemiddelde en zwakke patronen. Algemeen krijgen we een plattere leercurve. Dat was te verwachten, aangezien zwakke recente patronen niet noodzakelijk beter onthouden worden dan sterke oude patronen. Een opmerkelijk resultaat verkrijgen we bij een gedeactiveerd link systeem. Er is een Ribot-gradiënt waarneembaar, net als voorheen, maar wanneer we de bijdragen van de 3 soorten patronen uitzetten op de grafiek zien we dat de sterke patronen bijna volledig verantwoordelijk zijn voor deze gradiënt. Dat wil zeggen dat vooral sterke patronen geconsolideerd worden, terwijl zwakke patronen even nagalmen en dan volgens de normale processen van verval en de herlocalisatie van middelen verdwijnen.
71 | P a g e
Figuur 5: Simulatie van Transient Globale Amnesie. Figuur overgenomen uit originele paper (Meeter & Murre, 2005). Hoe dichter k haar normale waarde nadert, hoe meer patronen opnieuw herinnerd worden. Oudere patronen komen sneller terug dan meer recente. Het patroon dat aangeleerd werd tijdens de aanval (grijze band) blijft, ook na volledig herstel, verloren.
72 | P a g e
V.
Conclusie
We hebben de geschiedenis van de wetenschap en de filosofie doorlopen. We zijn vertrokken bij Plato’s Theaetetus om uiteindelijk aan te komen bij het Tracelink model in de 21 ste eeuw. Onderweg zijn we heel wat theorieën tegengekomen. Enerzijds kunnen we zeggen dat we een stuk dichter zijn gekomen bij de oplossing van één van de meest intrigerende raadsels van de menselijke geest. Anderszijds valt op hoe vele vragen die reeds in de oudheid gesteld werden brandend actueel blijven, al dan niet in een modernere formulering. Een thema dat we voortdurend ontmoet hebben is dat van de lokalisatie van herinneringen. Worden herinneringen op een locatie opgeslagen of zijn ze gedistribueerd? Het dominante paradigma van vandaag pleit voor de laatste optie, maar zoals we gezien hebben is dit idee niet nieuw. In Descartes’ werk kunnen we reeds een anticipatie lezen van het connectionisme, zij het in een iets speculatiever kleedje. Een ander thema dat in deze paper voortdurend terugkwam is dat van wetenschappelijke vooruitgang. Hoewel dezelfde vragen steeds opnieuw gesteld werden onder andere gedaantes, hoeft dat niet tot relativisme te leiden. Naar mijn mening kunnen we van vooruitgang spreken. Zo heeft de introductie van de wiskunde en van de experimentele methode binnen geheugenonderzoek ertoe geleid dat speculaties omtrent het geheugen nu ook aangetoond konden worden. Een voorbeeld is het associationisme, van bij Aristoteles, langs de Briste empiristen, naar het connectionisme. Het idee is simpel en klopt intuïtief, maar door de connectionistische interpretatie krijgen we ook een wetenschappelijke verklaring voor de werking van associatie. Wanneer we bovendien zien dat een eenvoudig netwerkje het kan, is het ook veel aannemelijker dat wij het kunnen. De verwetenschappelijking van de geheugenpsychologie begon, zoals we zagen, bij Hermann Ebbinghaus en ze zorgde voor een enorm productieve 20ste eeuw. Een veelheid aan geheugenmodellen ontstond en deze traden met elkaar in competitie. Hoewel een model nooit de complexiteit van de realiteit zal kunnen evenaren kan het ons toch inzicht bieden in de mechanismen waarmee ons brein te werk gaat. De connectionistische modellen van de voorbije 20 jaar slagen daar wonderwel in.
73 | P a g e
Bibliografie
Aristoteles. (2008). De memoria et reminiscentia. Retrieved March 5, 2009, from University of Virginia Library: http://etext.virginia.edu/toc/modeng/public/AriMemo.html Atkinson, R., & Shiffrin, R. (1969). Storage and retrieval processes in long-term memory. Psychological Review , 179-193. Augustinus. (1998). Confessions. London: Oxford University Press. Baars, B. (1986). The Cognitive Revolution in Psychology. New York: Guilford Press. Baddeley, A. D., & Logie, R. H. (1999). The Multiple-Component Model. In A. Miyake, & P. Shah, Models of Working Memory - Mechanisms of Active Maintenance and Executive Control (pp. 28-61). Camebridge: Camebridge University Press. Baddeley, A. (1966). Short-term memory for word sequences as a function of acoustic, semantic, and formal similarity. Quarterly Journal of Experimental Psychology , 362-365. Banich, M. T. (2004). Cognitive Neuroscience and Neuropsychology. Boston: Houghton Mifflin. Bechtel, W., & Abrahamsen, A. (1991). Connectionism and the Mind: An Introduction to Parallel Processing in Networks. Camebridge: Blackwell. Black, M. (1962). Models and metaphors. New York: Ithaca. Bloch, D. (2007). Aristotle on Memory and Recollection. Leiden: Brill. Bolter, J. D. (1984). Turing's Man: Western culture in the computer age. Chap Hill: The University of North Carolina Press. Bower, G. (1967). A multicomponent theory of the memory trace. In K. Spence, & J. Spence, The psychology of learning and motivation. Vol. 1. New York: Academic Press. Chappell, T. (2004). Reading Plato's Theaetetus. Sankt Augustin: Academia. Clucas, S. (2002). Simulacra et Singnacula: Memory, Magic and Metaphysics in Brunian Mnemonics. In H. Gatti, Giordano Bruno Philosopher of the Renaissance (pp. 251-272). Aldershot: Ashgate. Company, T. T. (Composer). Breaking the Code - Alan Turing in the forest of wisdom. [D. Robinson, Performer, & D. Robinson, Conductor] Chantilly, Virginia, United States of America. Craik, F. I. (1979). Human memory. Annual Review of Psychology , 63-102. Dennett, D. C. (1991). Consciousness Explained. London: Penguin Books. Draaisma, D. (1995). De Metaforenmachine. Groningen: Historische Uitgeverij.
74 | P a g e
Estes, W. (1998). Models of human memory and their implications for research on aging and psychopathology. Development and Psychopathology , 607-624. Gatti, H. (2002). Giordano Bruno: Philosopher of the Rennaissance. Hants: Ashgate. James, W. (1952). The Principles of Psychology. Chicago: The University of Chicago. Johnson-Laird, P. (1998). Computer and the Mind: An Introduction to Cognitive Science. Camebridge (MA): Harvard University Press. Marr, J. (1983). Memory - Models and Metaphors. The Psychological Record , 12-19. McClelland, J., & Rumelhart, D. (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Cambridge: MIT Press. McCulloch, W., & Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics , 115-133. McLeod, P., Plunkett, K., & Rolls, E. T. (1998). Introduction to Connectionist Modelling of Cognitive Processes. Oxford: Oxford University Press. Meeter, M., & Murre, J. M. (2005). Tracelink: A model of Consolidation and Amnesia. Cognitive Neuropsychology , 559-587. Miller, G. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review , 81-97. Miyake, A., & Shah, P. (1999). Models of Working Memory: An Introduction. In A. Miyake, & P. Shah, Models of Working Memory - Mechanisms of Active Maintenance and Executive Control (pp. 1-27). Camebridge: Camebridge University Press. Neath, I. (1998). Human Memory: An Introduction to Research, Data and Theory. Pacific Grove: Brooks/Cole. Plato. (1999). Verzameld Werk (X. De Win, Trans.). Kapellen: Pelckmans/Agora. Reynolds, R., & Schwartz, R. (1983). Relation of metaphoric processing to comprehension and memory. Journal of educational psychology , 450-459. Richards, I. (1965). The Philosophy of Rhetoric. Oxford: Oxford University Press. Roediger, H. L., Capaldi, E. D., Polivy, J., Herman, C. P., & Brysbaert, M. (1998). Psychologie: een inleiding. Gent: Academia Press. Rosenblatt, F. (1960). On the convergence of reinforcement procedures in simple perceptrons. New York: Cornell Aeronautical Laboratory. Skinner, B. (1974). About Behaviorism. New York: Alfred A. Knopf.
75 | P a g e
Sperling, G. (1960). The information available in brief visual presentations. Psychological Monographs: General and Applied , 74. Squire, L. R. (1992). Memory and the Hippocampus: A Synthesis from Findings with Rats, Monkeys and Humans. Psychological Review , 195-231. Stern, D. (1991). Models of Memory: Wittgenstein and Cognitive Science. Philosophical Psychology , 203-218. Stoutland, F. (1988). On not being a behaviorist. In L. Hertzberg, & J. Pietarinen, Perspectives on Human Conduct (pp. 48-60). Leiden: E.J. Brill. Sutton, J. (1998). Philosophy and memory traces: Descartes to connectionism. Camebridge: Camebridge University Press. Teske, R. (2001). Augustine's Philosophy of Memory. In E. Stump, & N. Kretzmann, The Camebridge Companion to Augustine (pp. 148-158). Camebridge: Camebridge University Press. Turing, A. (1950). Copmputing machinery and intelligence. Mind , 433-460. Turing, A. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society , pp. 230-265. Wittgenstein, L. (1982). Last Writings on the Philosophy of Psychology, Volume I. In G. V. Wright, & H. Nyman, Preliminary Studies for Part II of the 'Philosophical Investigations'. Chicago: University of Chicago Press. Yates, F. (1964). Giordano Bruno adn the Hermetic Tradition. London: Routledge and Kegan Paul.
76 | P a g e