Connectionisme en het Chinese Room argument
Bachelorscriptie Paul Klaassen, S891472 Universiteit van Tilburg – Faculteit Geesteswetenschappen Departement Filosofie Scriptiebegeleider: dr. M.A.M.M. Meijsing Tweede lezer: dr. A.J.P.W. Dooremalen
Inhoudsopgave
Inhoudsopgave ........................................................................................................................................ 2 1. Inleiding ............................................................................................................................................... 3 2. Computationalisme ............................................................................................................................. 4 2.1 Computationalisme en functionalisme ......................................................................................... 5 2.2 Computationalisme en computerprogramma’s ............................................................................ 7 3. Het Chinese Room argument .............................................................................................................. 8 3.1 Brain Simulator Reply .................................................................................................................... 9 3.2 Symboolmanipulatie in het brein ................................................................................................ 11 3.3 Conclusies Chinese Room argument ........................................................................................... 12 4. Connectionisme ................................................................................................................................. 13 4.1 Voordelen van een connectionistische theorie van cognitie ...................................................... 13 4.2 Het onderscheid tussen causale en formele structuur ............................................................... 14 4.3 Connectionisme van Smolensky .................................................................................................. 16 4.4 Connectionisme van de Churchlands .......................................................................................... 17 4.5 Chinese Gym ................................................................................................................................ 19 4.6 Chinese Nation ............................................................................................................................ 21 5. Connectionisme en het Chinese Room argument............................................................................. 23 6. Embedded Embodied Cognition ........................................................................................................ 25 7. Eindconclusie ..................................................................................................................................... 27 Literatuurlijst ......................................................................................................................................... 28
2
1. Inleiding In deze scriptie zal ik het Chinese Room argument dat door John Searle in 1980 werd bedacht vergelijken met het connectionisme. Het connectionisme is een geheel van theorieën over menselijke cognitie die stellen dat cognitie niet als een symboolmanipulerende machine maar als een complex systeem van eenheden en connecties opgevat dient te worden. In deze scriptie nemen we twee van deze connectionistische theorieën en proberen het Chinese Room argument er op toe te passen. Het betreft het connectionisme van Smolensky (1988) en dat van de Churchlands (1990). Men kan stellen dat het hier gaat om twee theorieën die aan tegenovergestelde kanten van het connectionistische spectrum staan. Het connectionisme van Smolensky is nog erg gebonden aan de mentale representaties die ook van groot belang zijn in het computationalisme, terwijl de Churchlands het bestaan van mentale representaties uitbannen. De vraag die in deze scriptie centraal staat is of de stap van syntaxis naar semantiek, die in het Chinese Room geproblematiseerd wordt, bij connectionisme wel mogelijk is of misschien zelfs overbodig blijkt te zijn. De periode dat de discussie tussen computationalisten en connectionisten erg speelde is al een tijdje voorbij. Toch is het een interessant onderwerp om aandacht aan te geven en is de relevantie voor de hedendaagse filosofie nog altijd aanwezig. In het voorlaatste hoofdstuk van deze scriptie zal ik nog even kort aandacht schenken aan de relatie tussen het connectionisme en de stroming van Embedded Embodied Cognition (EEC). Ik zal proberen aan te tonen dat connectionisme en EEC goed te verenigen zijn en elkaar goed aanvullen. Om de scriptievraag te beantwoorden zullen we eerst een aantal onderwerpen en theorieën duidelijk maken. We beginnen met een behandeling van de computationele theorie van cognitie, oftewel het computationalisme. Hierbij bespreken we ook hoe deze visie zich verhoudt tot het onderzoek naar kunstmatige intelligentie en hedendaagse conventionele computers. Hierna bespreken we het door John Searle bedachte Chinese Room argument. Dit is een argument tegen computationalisme en dan met name de computationalistische stelling dat uit de regels of syntaxis van een computerprogramma echte intelligentie kan voortkomen. We behandelen daarbij ook enkele reacties op het Chinese Room argument. Vervolgens gaan we door met een uitleg van het connectionisme, de visie dat cognitie niet als een computerprogramma maar als een samenspel tussen een grote hoeveelheid eenheden of nodes is vormgegeven. We beginnen daarbij eerst met een algemene uitleg van connectionisme om vervolgens in te zoomen op het connectionisme van Smolensky. Nadat we Smolensky behandeld hebben gaan we door met het connectionisme van de Churchlands. Het verschil tussen deze twee vormen van connectionisme zit er voor een groot deel in dat Smolensky wel aanneemt dat mentale representaties geïntegreerd zijn in het connectionistische model terwijl de Churchlands dat niet doen, en zelfs menen dat mentale representaties niet bestaan en slechts een restant zijn van de achterhaalde folk psychology (Churchland 1981). Tot slot probeer ik een brug te slaan tussen het connectionisme en de theorie van Embodied Cognition. Kort gezegd houdt Embodied Cognition in dat mentale processen niet alleen door het brein maar ook door het lichaam en invloeden van de omgeving bepaald worden, zonder deze invloeden zou volgens de theorie van EEC onze cognitie niet kunnen zijn ontstaan. Om het verband tussen connectionisme en Embodied Cognition duidelijk te maken zullen we onder andere gebruik
3
maken van de Robot Reply die op Searle’s Chinese Room argument gegeven wordt. Het scriptieonderwerp wordt hiermee meteen op de hedendaagse Philosophy of Mind betrokken. 2. Computationalisme Het computationalisme of de Computational Theory of Mind (CTM) is een theorie over menselijke cognitie die stelt dat deze opgevat moet worden als een vorm van computatie of symboolmanipulatie. Deze opvatting in haar moderne vorm is in 1961 ontwikkeld door Hilary Putnam, en later verder uitgewerkt door onder meer Jerry Fodor (Horst 2009). Er zijn verschillende manieren waarop je computationalisme op kunt vatten. Een onderscheid waar we bij de behandeling van het Chinese Room argument in het volgende hoofdstuk op terug komen heeft betrekking op het niveau waarop de symboolmanipulatie gerealiseerd wordt. Zijn het alleen de hogere vormen van cognitie die computationeel gestructureerd zijn, of ligt deze symboolmanipulatie dieper in de mentale structuur van het brein, en worden van daar uit de hogere cognitieve functies gerealiseerd? De door Searle aangenomen opvatting, die vooral over hogere vormen van cognitie gaat, kunnen we aan de hand van het volgende voorbeeld uitleggen. Stel we krijgen een bepaalde input binnen via de zintuigen, bijvoorbeeld het zien van rook, dit leidt tot een tot de mentale representatie van rook in onze gedachten, en deze representatie leidt automatisch tot een andere representatie, namelijk die van vuur. Het symbool van rook roept dus het symbool van vuur in ons op. Dit komt omdat we een bepaalde regel hebben geïnternaliseerd, namelijk als er rook is, is er ook vuur. Deze mentale inhouden kunnen uiteindelijk ook tot bepaald gedrag leiden. Als er zich bijvoorbeeld een mentale representatie van een gevaarlijk beest dat op je afkomt in je gedachten vormt, dan zul je weg willen rennen. Natuurlijk zal het allemaal niet zo simpel liggen zoals de voorbeelden hierboven, maar het gaat om de theorie die er achter ligt. Die theorie houdt in dat er mentale representaties zijn met bepaalde syntactische eigenschappen, die verwerkt worden door het brein doormiddel van computatie, wat leidt tot een ander mentaal beeld of een bepaalde vorm van gedrag. De mentale symbolen behoren daarbij tot het bewustzijn, de symboolmanipulatie zelf is onbewust. Hierbij kunnen we opmerken dat de representaties waar we het hierboven over hadden niet noodzakelijk (mentale) beelden hoeven te zijn. Het gaat er slechts om dat de gebeurtenissen verbonden zijn met bepaalde symbolen die voldoende de syntactische eigenschappen van de gebeurtenissen representeren. Zouden we mentale beelden aannemen dan lijken we al bepaalde semantische eigenschappen te veronderstellen. Het computationalisme stelt juist dat die semantische eigenschappen niet inherent zijn aan de symbolen zelf. Een probleem dat zich voortdoet als we onze cognitie opvatten als symboolmanipulatie is dat voor de uiterlijke realisatie van dit proces alleen de syntaxis van de symbolen, die de relaties tussen de symbolen onderling beheert, er toe doet. De mentale inhouden of semantische eigenschappen van die symbolen zijn daarbij niet relevant. Het denken kan net zo goed gebeuren zonder enige vorm van vorm van cognitie of begrip. Een voorbeeld hiervan bij mensen is een reflex of automatisme. Je kunt je afvragen waarom al ons denken niet op deze manier vormgegeven is. De computationele theorie van de geest biedt hier niet echt uitkomst. In zekere zin is dit ook Searle’s punt wanneer hij stelt dat menselijke intelligentie niet kan bestaan in een computerprogramma, een vorm van pure symboolmanipulatie. De semantische eigenschappen van symbolen zijn in beginsel in een computerprogramma niet-bestaand. Wat Searle verder ook benadrukt is dat je vanuit syntaxis nooit tot semantiek kunt komen. Dus een computerprogramma, dat alleen uit syntaxis bestaat, kan voor 4
de uitvoerende computer nooit tot semantiek of intelligentie zoals mensen die hebben leiden. De semantiek die mensen bij hun denken ervaren moet dus ergens anders zijn oorsprong vinden, volgens Searle iets dat besloten ligt in de biologische causale structuur van het brein. 2.1 Computationalisme en functionalisme Het is op dit punt handig om ook even in te gaan op het functionalisme. Deze theorie heeft verwantschap met wat we hierboven gezegd hebben. Searle richt zich met zijn Chinese Room argument niet alleen tegen het computationalisme maar ook het functionalisme. Het computationalisme kan gezien worden als een bepaalde specifiekere vorm van functionalisme. De theorie van het functionalisme houdt in dat we mentale toestanden kunnen karakteriseren aan de hand van de functie die zij in onze mentale wereld uitoefenen en hoe zich dit dan uiteindelijk manifesteert in ons gedrag. Historisch gezien is functionalisme ontstaan als reactie op twee andere theorieën over mentale toestanden, namelijk het behaviorisme en de identiteitstheorie. Voordat we beginnen met de uitleg van het functionalisme zullen we deze twee theorieën kort uitleggen. Het behaviorisme is een filosofische theorie die stelt dat menselijk gedrag niet verklaard dient te worden aan de hand van interne mentale processen maar aan de hand van externe stimuli en het gedrag dat daar op volgt. Het brein speelt daarin de rol van een Black Box waarin een bepaalde input in de vorm zintuiglijke stimuli leidt tot een bepaalde output in de vorm van gedrag. De innerlijke mentale toestanden die zich in het hoofd van het subject afspelen worden daarbij genegeerd. De identiteitstheorie van mentale toestanden is een theorie die stelt dat de mentale toestanden die wij ervaren geïdentificeerd kunnen worden met bepaalde lichamelijke processen. Dus een mentale ervaring die wij hebben kan direct worden gerelateerd aan een biologisch proces dat zich in ons brein afspeelt. In het functionalisme wordt in tegenstelling tot bij de identiteitstheorie een onderscheid gemaakt tussen de fysieke realisatie van een mentale toestand en die mentale toestand zelf. De mentale toestand zelf wordt gedefinieerd aan de hand van de functie die hij uitoefent, en niet aan de hand van de onderliggende fysieke structuur. Preciezer gezegd is functionalisme de stelling dat mentale toestanden functionele toestanden zijn die veroorzaakt worden door externe zintuiglijke inputs, welke een externe output in de vorm van gedrag veroorzaken, deze functionele toestanden hebben onderling ook causale verbanden. De ervaring van bijvoorbeeld pijn wordt veroorzaakt door processen op het lichamelijke niveau, toch is pijn zelf geen lichamelijke maar een mentale eigenschap. Deze eigenschap wordt daarbij gedefinieerd aan de hand van de functie die ze uitoefent. De functie van pijn zou bijvoorbeeld kunnen zijn het vermijden van de situatie of het object dat die pijn veroorzaakte. Dus alles wat diezelfde functie heeft wordt gedefinieerd als pijn, en zou daarmee ook dezelfde mentale ervaring met zich mee moeten brengen. Een gevolg hiervan is dat deze functies dus ook in andere systemen dan het brein gerealiseerd kunnen worden. Als analogie hiervoor wordt door de functionalisten vaak het concept van een computerprogramma gegeven, dat op meerdere vormen van computers uitvoerbaar is. Met het voorstaan van deze analogie is men echter nog niet meteen een voorstander van het computationalisme. Een computerprogramma kan namelijk niet op elke mogelijke machine worden uitgevoerd, maar de machine dient daarvoor bepaalde eigenschappen te hebben. De functies van het brein hebben evenzeer een machine met bepaalde eigenschappen nodig, conventionele elektronische computers bezitten niet noodzakelijk deze eigenschappen. 5
Het computationalisme stelt net als het functionalisme dat ons denken opgedeeld kan worden in een veelheid van functies. Wat computationalisten toevoegen is dat deze functies gezien kunnen worden als symbolen die elkaar kunnen beïnvloeden, en dat die interacties berekenbaar zijn. De analogie met conventionele computers is duidelijk, ook daar is sprake van een symboolmanipulerende machine met berekenbare functies. Dit wil niet zeggen dat alle aanhangers van het computationalisme van mening zijn dat brein en computer functioneel gezien geheel hetzelfde en uitwisselbaar zijn. De aanhangers van het computationalisme kunnen op dit punt in twee groepen onderverdeeld worden. Beide geloven dat ons brein net als een computer werkt als een symboolmanipulerende machine. De ene groep geloofd dat menselijke cognitie daarmee ook als computerprogramma gezien kan worden, en ook op een conventionele computer uitgevoerd kan worden. De andere groep ziet in onze cognitie weliswaar bepaalde computationele eigenschappen, maar er is volgens hen toch meer aan de hand dan wat op een computer gebeurt. Onze cognitie is voor hen niet direct vertaalbaar naar een computerprogramma. De stelling dat onze cognitie in wezen niets anders is dan een computerprogramma wordt door Searle de Strong AI thesis genoemd (Searle 1980). De thesis van Weak AI stelt dat cognitie niet direct vertaalbaar is naar een computerprogramma, maar dat computerprogramma’s en computers wel hulp kunnen bieden in het onderzoek in menselijke en kunstmatige intelligentie. De thesis van Strong AI wordt samen met de thesis van Weak AI voor het eerst door Searle gedefinieerd in zijn artikel “Minds, Brains, and Programs” (1980). Redenen hiervoor waren de recente successen in de simulatie van menselijke cognitieve functies, die Searle in een filosofisch perspectief wilde plaatsen. Searle heeft geen problemen met Weak AI, hij richt zich vooral tegen de thesis van Strong AI. Dit zien we in het volgende citaat, waarin zijn opvatting van Strong AI verder wordt verhelderd. My discussion here will be directed at the claims I have defined as those of strong AI, specifically the claim that the appropriately programmed computer literally has cognitive states and that the programs thereby explain human cognition. (Searle 1980) Er moet opgemerkt worden dat Searle niet van mening is dat kunstmatige intelligentie helemaal niet mogelijk is, hij bedoelt er slechts mee dat kunstmatige intelligentie op conventionele computers oftewel symboolmanipulerende machines niet mogelijk is. Wij zouden volgens Searle bijvoorbeeld wel kunstmatige menselijke intelligentie kunnen creëren als we een machine maken die de causale structuur van het brein overneemt. Searle’s positie over menselijke intelligentie wordt door hem ook wel biologisch naturalisme genoemd, menselijke intelligentie komt voort uit de biologische causale structuren van het brein. Naturalisme slaat op het feit dat volgens Searle menselijke intelligentie niet voortkomt uit een niet-natuurlijke of spirituele substantie. Searle bedoelt niet dat ons denken in bepaalde zin niet computationeel gestructureerd kan zijn, zeker als je kijkt naar onze hogere cognitieve functies dan lijken hier bepaalde computationele aspecten aan te zitten. De mentale inhouden of semantiek van ons denken zullen echter door iets anders ingevuld moeten worden, iets dat volgens Searle in de causale structuur van het brein ligt. Deze visie dat het computationele systeem in ons brein op een bepaalde manier afgezonderd bestaat heeft empirisch gezien wel een sterk punt. De hogere cognitieve functies die wij bezitten zijn immers pas in een laat stadium ontstaan. Het is niet onaannemelijk dat het brein aan het begin van zijn evolutie uit een complex van zenuwcellen niet computationeel maar op een andere manier vorm was gegeven. Het computationele element zou daar dan op een later moment bijgekomen, of in ieder 6
geval pas in een later stadium de prominente plaats gekregen hebben die het bij mensen heeft. Een alternatief model van hoe het brein, of beter gezegd, onze cognitie zich heeft ontwikkeld is het connectionisme, waar we in een volgend hoofdstuk op terugkomen. 2.2 Computationalisme en computerprogramma’s Hierboven zijn we al kort ingegaan op de veelgemaakte analogie tussen onze cognitieve functies en computerprogramma’s. Deze zullen we proberen nog wat duidelijker te maken, aangezien zij belangrijk is voor het beantwoorden van de scriptievraag. Het is van belang om een duidelijk beeld te krijgen van wat wij met een computer of symboolmanipulerende machine bedoelen. Een belangrijk kenmerk van onze computer is dat zij Turing compleet is. Dit betekent dat onze computer elke berekenbare functie uit kan rekenen, zolang er maar genoeg geheugen of capaciteit beschikbaar is (Moor 2005). Bij het computationalisme wordt dus geen rekening gehouden met de praktische begrenzingen van hedendaagse computers. Huidige computers zijn misschien nog niet krachtig genoeg om menselijke cognitie te implementeren, het is echter waarschijnlijk dat zij dit in de toekomst wel zullen zijn. Aangezien volgens computationalisten onze cognitie als symboolmanipulatie is vormgegeven, en daarom berekenbaar is, is deze cognitie ook uit te voeren op een Turing complete machine. Een bekend voorbeeld van een Turing complete machine is het theoretische model van de Turing machine. Je kunt je dit model voorstellen als een machine waar een tape doorheen loopt; de machine leest de tape in, en voert aan de hand van de symbolen op de tape bepaalde bewerkingen uit. Die bewerkingen bestaan uit het naar voor en achter bewegen van de tapelezer, het manipuleren van de symbolen op de tape en het veranderen van de toestand van de machine. De toestand van de machine geeft weer welke bewerkingen de machine bij een bepaald symbool of reeks symbolen zal uitvoeren. In principe kan een Turing machine een oneindig aantal toestanden hebben, ook wordt de tape bij de Turing machine als oneindig gedacht (Barker-Plummer 2011). Dit zorgt ervoor dat de Turing machine een oneindige capaciteit heeft, en in principe alle berekenbare functies uit kan rekenen. Het is om deze eigenschap dat de Turing machine vaak als uitgangspunt genomen wordt bij de Computational Theory of Mind. Het is namelijk niet onwaarschijnlijk dat hedendaagse computers nog niet voldoende capaciteit hebben om de computationele processen in het brein uit te voeren. De theoretische Turing machine heeft deze beperkingen niet (Moor 2005). De opbouw of structuur van de Turing machine verschilt in wezen niet veel van die van hedendaagse conventionele computers. Je hebt een plaats waar de symbolen zich bevinden en opgeslagen worden, en je hebt een plaats waar deze ingelezen en gemanipuleerd worden. Deze opbouw wordt wel de Von Neumann architectuur genoemd en is ook weer terug te vinden bij het Chinese Room argument dat we in het volgende hoofdstuk gaan behandelen. Een ander punt dat van belang is voor het Chinese Room argument is dat computationalisme zich puur richt op het aspect van symboolmanipulatie, of dit nou via vacuümbuizen of siliconenchips gaat. Cognitie is bij de computationele theorie van de geest dus iets dat voortkomt uit de symboolmanipulatie en niet uit eigenschappen van het medium waarin die symboolmanipulatie geschiedt. Dit aspect is vooral van belang als we later het Chinese Room argument behandelen.
7
3. Het Chinese Room argument Het Chinese Room argument is een gedachte-experiment ontwikkeld door John Searle dat voor het eerst door hem naar voren werd gebracht in zijn artikel genaamd “Minds, Brains and Programs” dat hij in 1980 in het wetenschappelijke toptijdschrift “The Behavioral and Brain Sciences” publiceerde (Searle 1980). In dit artikel probeert hij de volgende vraag te beantwoorden: Als een computerprogramma overtuigend genoeg een intelligent gesprek kan simuleren dat deze niet van een mens te onderscheiden is, heeft de computer dan hetzelfde soort begrip van het gesprek als een mens? Dus komt de intelligentie die de computer vertoont overeen met de intelligentie van een mens? Bij zijn artikel is een reeks reacties van vakgenoten toegevoegd waar Searle zelf ook weer zijn antwoord op geeft, een aantal van deze reacties zullen wij hier ook behandelen. Searle's conclusie is dat de computer geen begrip zal hebben van het gesprek zoals een mens dat heeft. En dat dus de computer niet dezelfde soort intelligentie heeft als een mens. Ook trekt hij de conclusie dat een computerprogramma nooit menselijke intelligentie mogelijk kan maken omdat syntaxis alleen nooit semantiek kan voortbrengen. En het is nu juist de semantiek die de essentie uitmaakt van menselijke intelligentie. Hiermee valt hij niet direct het computationalisme in algemene zin aan – onze cognitie kan nog altijd bepaalde eigenschappen van computationalisme bevatten – maar wel de vorm van computationalisme die zegt dat onze cognitie direct vertaalbaar is naar een computerprogramma, door Searle Strong AI genoemd (Searle 1980). We zullen hier in het kort Searle's argument weergeven. We stellen ons voor dat iemand een geavanceerd computerprogramma heeft ontwikkeld dat Chinees spreekt. Als we het computerprogramma een Chinese input geven, dan geeft het computerprogramma een antwoord in het Chinees, welke niet te onderscheiden is van een antwoord dat een mens die Chinees spreekt zou geven. We stellen ons vervolgens voor dat Searle, die geen Chinees spreekt, in een afgesloten kamer gaat zitten, met de regels van het Chineessprekende computerprogramma in de hand. Als nu iemand een Chinese input geeft, dan zal Searle de regels volgen van het computerprogramma, en aan de hand daarvan een antwoord geven. Mensen buiten de kamer zullen denken dat de persoon in de kamer Chinees spreekt. Searle zal echter weten dat hij geen Chinees spreekt maar slechts de regels van het computerprogramma opvolgt. Door het volgen van die regels zal hij altijd het juiste antwoord in het Chinees geven, de Chinese tekens hebben echter daarmee voor hem nog altijd geen betekenis. Hieruit moeten we concluderen dat het Chinees ook geen betekenis heeft voor een computer die het programma draait. Searle concludeert dus dat het uitvoeren van een computerprogramma nooit tot menselijke cognitie kan leiden. Het is de causale structuur van het brein die onze cognitie realiseert. Het uitvoeren van een vorm van symboolmanipulatie die functioneel gezien tot hetzelfde gedrag als dat van een mens leidt zal nooit tot cognitie leiden omdat de causale structuur van een computer niet gelijk is aan die van een brein. Er kan mogelijk wel een machine gebouwd worden die semantiek ervaart, mits deze de causale structuur van het brein in zich meeneemt. Kunstmatige intelligentie is op deze manier wel mogelijk. Kunstmatige intelligentie in de vorm van een computerprogramma is dat echter niet. Searle maakt in het begin van zijn artikel wel duidelijk dat deze conclusies niet betekenen dat computers geheel nutteloos zijn voor het onderzoek naar intelligentie. Computers kunnen in de eerste plaats helpen omdat ze grote hoeveelheden data kunnen opslaan en bewerken, als tweede bieden computers een vorm van intelligentie waarmee we menselijke intelligentie kunnen vergelijken om er 8
zo meer over te leren en ten derde is het niet onaannemelijk dat sommige eigenschappen van menselijke cognitie, zoals taal en rekenen, op een computationele manier gebeuren. Het onderzoek naar computerintelligentie kan ons dan helpen deze vorm van cognitie beter te leren begrijpen. Dit onderscheid tussen de twee toepassingen van computers in AI is het onderscheid waar door Searle naar wordt verwezen als het onderscheid tussen Strong en Weak AI. Searle’s argument is overigens niet alleen relevant voor computationalistische theorieën, ook meer algemene functionele theorieën worden getroffen (Cole 2009). In zijn argument wordt immers aangetoond dat dezelfde uiterlijke realisatie niet tot dezelfde mentale toestanden hoeft te leiden, dit zou bij een functionalistische theorie wel zo zijn. Zolang de functies niet gerealiseerd worden door een systeem of machine met dezelfde causale eigenschappen als het brein, dan zullen er ook niet dezelfde mentale toestanden als in het brein optreden. In het geval van het Chinese Room argument is het een computationeel systeem dat de functie realiseert, maar het argument zou ook kunnen doorlopen naar andere systemen die functioneel hetzelfde zijn maar causaal niet overeenkomen met het brein. 3.1 Brain Simulator Reply We willen hier niet alle objecties tegen Searle’s argument bespreken, de meeste worden in Searle’s artikel al voldoende weerlegd. Wel willen we hier de Brain Simulator Reply behandelen omdat deze nauw verwant is aan de connectionistische theorie van cognitie. De kern van de Brain Simulator Reply komt erop neer dat Searle zich met zijn Chinese kamer alleen bezighoudt met een functionele kopie van het gedrag van een mens; de onderliggende structuren worden daarbij genegeerd (Searle 1980). Het gaat dus alleen om het uiterlijke gedrag van een Chineesspreker en niet over de processen die zich daaraan onderliggend in het brein afspelen. De voorstanders van de Brain Simulator Reply beweren dat een complete simulatie van het brein op een computer wel tot echte intelligentie zou leiden. De man in de Chinese kamer houdt zich dus niet meer bezig met de syntactische regels van het computerprogramma dat de Chinese taal interpreteert, maar met de syntactische regels van het computerprogramma dat het brein simuleert. Searle meent deze kritiek te kunnen weerleggen. Toch is naar mijn idee het argument dat hij geeft gericht tegen deze repliek niet overtuigend. Het verband van deze repliek met de theorie van het connectionisme is dat het connectionisme zich ook bezig houdt een aspect van de structuur van het brein mee te nemen in een theorie over cognitie. In zijn artikel verweert Searle zich tegen dit argument op twee manieren. Als eerste argument geeft hij dat de mensen achter de Brain Simulator Reply een andere definitie van Strong AI hebben dan hij. Zijn tweede argument bestaat erin dat computerprogramma’s en daarmee computersimulaties nooit tot semantiek of begrip kunnen leiden. Dit tweede argument zullen we vanaf de volgende paragraaf behandelen. Het verschil in de definitie van Strong AI waar Searle het in zijn eerste argument over heeft is dat volgens Searle bij Strong AI kennis van de biologische structuur van het brein geheel achterwege gelaten kan worden (Searle 1980). Het gaat bij Strong AI alleen maar om het computerprogramma dat in het brein draait. Hoe het brein er verder uit ziet is daarbij irrelevant, zolang het computerprogramma maar uitgevoerd kan worden. Uiteindelijk lijkt dit argument over de definitie van Strong AI niet van zo’n belang te zijn. Searle’s conclusie in zijn artikel is namelijk dat syntaxis nooit tot semantiek kan leiden, dus de syntaxis van een computerprogramma dat het brein simuleert zal nooit tot de semantiek leiden die het menselijke denken kenmerkt. Daarbij is niet relevant welke definitie van Strong AI gebruikt wordt. 9
In zijn tweede argument probeert Searle de simulatie van breinprocessen in de Chinese kamer te situeren. Dat doet hij aan de hand van een systeem van waterbuizen dat zich in de Chinese Room bevindt. De waterbuizen hebben eenzelfde structuur als het brein van een Chineesspreker. De man in de Chinese Room ontvangt een aantal Chinese symbolen en opent en sluit de betreffende waterbuizen om de Chinese symbolen in te voeren. Searle vindt het vanzelfsprekend dat hier nooit echt begrip zal ontstaan (Searle 1980). Dit is naar mijn idee niet helemaal overtuigend. Het is in ieder geval zo dat de man in de Chinese Room geen Chinees zal kennen, hij is slechts een instrument in het systeem. Maar als het buizencomplex echt dezelfde structuur heeft als het brein van een Chineesspreker dan lijkt het mij aannemelijk dat dit buizencomplex dezelfde vorm van intelligentie heeft. Hierbij moet natuurlijk wel gezegd worden dat het buizensysteem slechts een benadering is van die structuur, en niet alle eigenschappen van de structuur van het brein mee overneemt. Het idee blijft echter hetzelfde. Searle zelf zegt vaak dat intelligentie zoals mensen dat hebben alleen mogelijk is in een machine of systeem met dezelfde causale structuren als het brein. Naar mijn idee valt het buizencomplex hieronder, ook al is het slechts een benadering. Dit raakt echter nog niet het punt dat van belang is. Want de kern van de Brain Simulator Reply is niet dat een fysiek nagemaakt brein semantiek ervaart, zoals Searle met zijn buizensysteem, maar dat een simulatie van de processen in het brein dat doet. Ook hier heeft Searle een antwoord op. Hij legt uit dat een computersimulatie nooit hetzelfde is als datgene wat gesimuleerd wordt, we moeten de twee dan ook nooit met elkaar verwarren. In verscheidene artikelen van hem geeft hij hier ook voorbeelden van: No one supposes that a computer simulation of a storm will leave us all wet … Why on earth would anyone in his right mind suppose a computer simulation of mental processes actually had mental processes? (Searle 1989 pp. 37-38) Barring miracles, you could not run your car by doing a computer simulation of the oxidation of gasoline, and you could not digest pizza by running the program that simulates such digestion. It seems obvious that a simulation of cognition will similarly not produce the effects of the neurobiology of cognition. (Searle 1990 p. 23) From the fact that a system can be simulated by symbol manipulation and the fact that [the system] is thinking, it does not follow that thinking is equivalent to formal symbol manipulation. (Searle 1990 p. 21) Stel dat we een simulatie van het hart als uitgangspunt nemen. De simulatie geeft weliswaar de juiste output die het hart in een bepaalde situatie zou rondpompen, maar er wordt in werkelijkheid niets rondgepompt. Hetzelfde is volgens hem het geval bij een computersimulatie van het brein, er wordt wel een output gegeven, maar er zal niet werkelijk sprake zijn van cogntie. Op het eerste gezicht lijkt dit argument overtuigend, toch heeft het wel een aantal twijfelachtige aspecten. Ten eerste kun je het ervaren van semantiek niet van buitenaf waarnemen. De computer zelf moet het gevoel hebben dit te ervaren. Dit is anders dan bij het hart dat gekenmerkt wordt door een externe functie. Een computer zou bloed kunnen rondpompen op dezelfde manier als het hart als je er een externe pomp op aansluit. Hetzelfde is het geval bij Chinees spreken, een computer kan alleen Chinees spreken als je er een beeldscherm of speakers op aansluit. Het is niet duidelijk wat je aan een computer aan moet sluiten om menselijke cognitie te creëren. Onze cognitie lijkt geen uiterlijke functie te zijn maar meer een manier waarop een andere functie wordt gerealiseerd. Op deze manier bekeken lijkt Searle 10
gelijk te krijgen. Een computer realiseert Chinees spreken op een heel andere manier dan een brein, ook al voert de computer daarbij een simulatie van het brein uit. Een computersimulatie van de causale structuur van het brein brengt niet per se dezelfde soort intelligentie voort als het brein. 3.2 Symboolmanipulatie in het brein Tot nu toe hebben we ons gehouden aan Searle’s opvatting van computationalisme, namelijk dat deze zich vooral afspeelt op het niveau van hogere cognitieve functies. De vraag die we ons nu stellen is of er met betrekking tot het Chinese Room argument een wezenlijk onderscheid is als we de symboolmanipulatie op een dieper niveau van onze cognitie positioneren. De symboolmanipulatie op dit diepere cognitieve niveau is dan de basis waaruit onze hogere cognitieve functies voortkomen, en zou ook de bron van de semantiek zijn die deze hogere cognitieve functies kenmerkt. Het eerste probleem waar we met deze visie tegenaan lopen is dat het niet meer duidelijk is wat voor soort symboolmanipulatie uitgevoerd moet worden. Oorspronkelijk werden in het Chinese Room argument de syntactische regels van taal en andere hogere cognitieve functies uitgevoerd, bij een onbewust proces zullen andere syntactische regels in het spel zijn. Als we echter stellen dat de regels van de diepere symboolmanipulatie in het brein bekend zijn, en dat deze in het regelboek van de Chinese kamer zijn opgenomen, is Searle’s argument dan nog steeds geldig? Searle’s argument is vooral gebaseerd op onze intuïtie dat het leren van de syntactische regels van een taal of taalgebruik niet tot werkelijk begrip van die taal kan leiden. Deze intuïtie verliest aan overtuigingskracht als we de regels van een ander soort proces zouden leren, zoals de mogelijke symboolmanipulatie die zich afspeelt op een onbewust cognitief niveau. Ook loopt het Chinese Room argument hier tegen een ander probleem aan dat veroorzaakt wordt door het onderscheid tussen een bewust en onbewust niveau van cognitie. De symboolmanipulatie die wij op een bewust niveau uitvoeren vormt het onbewuste niveau van de de intelligentie die uit die symboolmanipulatie voort moet komen. We kunnen hierdoor niet weten of er semantiek gecreëerd wordt of niet. De semantiek die wij op deze manier creëren overstijgt als het ware onze eigen ervaring. Dit heeft een analogie met wat in de Systems Reply gezegd wordt. De persoon in de kamer begrijpt geen Chinees, maar de gehele kamer inclusief de persoon die erin zit, wel. Dit is een eigenschap die je in elke computationalistische theorie terugziet, en komt voort uit het onderscheid tussen de fysieke machine en de formele symboolmanipulatie die daarop uitgevoerd wordt. In de redenatie die wij hier toepasten neemt de eerste onbewuste vorm van symboolmanipulatie de rol van de fysieke machine op zich waarop een andere vorm van symboolmanipulatie wordt uitgevoerd. Of dit soort symboolmanipulatie werkelijk cognitie heeft hangt af van de vraag of de intuïtie die wij hebben in het geval van Chinees spreken, namelijk dat uit syntaxis geen semantiek kan voortkomen, ook in andere gevallen toegepast kan worden. Searle zegt van wel. Anderen, zoals de Churchlands (Churchland & Churchland 1990) en Dennett (1980) zeggen van niet en zijn van mening dat deze stelling onvoldoende bewezen is. In het Chinese Room argument heeft Searle alleen laten zien dat het kennen van regeltjes om Chinees te spreken, zonder daarbij begrip van de taal te hebben, niet tot een begrip van die taal leidt. Dit is niet automatisch door te trekken naar andere gevallen. Een complexere vorm van symboolmanipulatie kan mogelijk wel semantiek mogelijk maken. "Syntax by itself is neither constitutive of nor sufficient for semantics." Perhaps this axiom is true, but Searle cannot rightly pretend to know that it is. (Churchland & Churchland 1990 p. 34) 11
Even though Searle's Chinese room may appear to be "semantically dark," he is in no position to insist, on the strength of this appearance, that rule-governed symbol manipulation can never constitute semantic phenomena, especially when people have only an uninformed commonsense understanding of the semantic and cognitive phenomena that need to be explained. (Churchland & Churchland 1990 p. 35) Searle's thought experiment depends, illicitly, on your imagining too simple a case, an irrelevant case, and drawing the 'obvious' conclusion from it. (Dennett 1991 p.438) Het verschil tussen de onbewuste symboolmanipulatie die we in deze paragraaf hebben behandeld en de simulatie van breinprocessen en de Brain Simulator Reply in de vorige paragraaf bestaat erin dat onbewuste symboolmanipulatie veronderstelt dat het brein een computationele machine is, terwijl de Brain Simulator Reply juist veronderstelt dat het dat niet is maar dat we de werking van het brein wel op een computationele machine kunnen simuleren. 3.3 Conclusies Chinese Room argument Wanneer we een puur functioneel soort symboolmanipulatie veronderstellen waarbij het alleen om uiterlijke eigenschappen gaat dan lijkt het Chinese Room argument geldig te zijn. Als we echter een complexere soort symboolmanipulatie veronderstellen, die niet puur op uiterlijke kenmerken gericht is, wordt het argument een stuk minder overtuigend. De stelling dat uit syntaxis geen semantiek voort kan komen lijkt dus met Searle’s argument alleen in bepaalde gevallen bewezen en niet noodzakelijk een algemene regel te zijn. Het belangrijkste punt dat echter door Searle gemaakt wordt is dat causale structuren van een computer en van het brein te verschillend zijn om als equivalent te worden beschouwd voor het realiseren van cognitie zoals mensen die hebben. Ook het meenemen van de causale structuur van het brein in een computersimulatie is zoals Searle laat zien niet overtuigend, er is namelijk altijd een groot onderscheid tussen een simulatie en datgene wat gesimuleerd wordt. In het volgende hoofdstuk behandelen we het connectionisme dat zich aan de problemen van het computationalisme, zoals Searle’s Chinese Room, denkt te ontrekken. Ook vertoont een connectionistisch systeem op het eerste gezicht een grotere overeenkomst met de structuur van het brein dan een traditionele computer. Hierdoor is het makkelijker aan te nemen dat een dergelijk connectionistisch systeem ook dezelfde functies als het brein kan realiseren, zoals onze cognitie.
12
4. Connectionisme Connectionisme is een model van menselijke cognitie. Het wordt veelal gezien als een alternatief voor het in voorgaande hoofdstukken behandelde computationalisme. Het model kan worden opgevat als een netwerk van individuele eenheden, ook wel nodes genoemd, die onderling met elkaar in verbinding staan. Deze nodes kunnen signalen naar elkaar sturen waarmee ze elkaar activeren en deactiveren. Activatie betekent dat de betreffende node begint met het uitzenden van signalen. De term Weight of gewicht staat voor de invloed die een individuele node op zijn buurnoden heeft, dit gewicht slaat dus op de connectie tussen twee nodes. Stel dat we bijvoorbeeld drie input nodes hebben, genaamd A, B en C, welke alle drie een connectie met de interne node D hebben. A heeft een gewicht 3, B een gewicht van 2 en C heeft een gewicht van 1. Worden alle nodes tegelijk geactiveerd dan zal D een inputwaarde van 6 krijgen. De Threshold of drempel van een node slaat op de inputwaarde wanneer de betreffende node zelf signalen begint uit te zenden. Als de Threshold van D bijvoorbeeld 6 is dan zal D alleen beginnen met uitzenden als alle input nodes geactiveerd zijn. Het gewicht van een connectie kan ook negatief zijn, de node heeft dan een onderdrukkende werking. Het systeem kan zo worden geconfigureerd dat een bepaalde input in een bepaalde node altijd leidt tot een output in een andere node, maar het systeem is ook in staat tot leren waarbij naargelang omstandigheid de output bij een bepaalde input steeds verschillend is, dit gebeurt aan de hand van het aanpassen van de gewichten van de connecties. (Churchland & Churchland 1990; Copeland 1994) Het model van connectionisme lijkt op eerste gezicht veel op de structuur die de neuronen in het brein hebben. Dit feit heeft veel bijgedragen aan de populariteit van het model. Nemen we deze identiteit aan van neuronen met nodes en synapsen met connecties dan spreken we van neuraal connectionisme. Deze identificatie is echter niet noodzakelijk. Er is een onderscheid tussen het brein op het biologische niveau, en het brein op het cognitieve niveau. De biologische structuur van het brein kan in principe zowel een connectionistisch als een computationeel gestructureerde vorm van cognitie voortbrengen. De relevantie van dit onderscheid voor het Chinese Room argument van Searle is duidelijk. Het brein op biologisch niveau slaat op de causale structuur waar Searle het over heeft en het brein op cognitief niveau is gelijk aan de formele structuur. Searle’s stelling was dat alleen het namaken van de formele structuur geen echte cognitie voort kan brengen. Searle had het dan wel over een computationalistische formele structuur, in dit hoofdstuk onderzoeken we of de stelling ook van toepassing is op een connectionistische formele structuur. 4.1 Voordelen van een connectionistische theorie van cognitie De theorie van connectionisme biedt enkele voordelen tegenover het computationalisme, die zullen we hier behandelen. Als eerste valt natuurlijk de grote overeenkomst op tussen de structuur van het brein en de structuur van connectionistische systemen (McCleland, Rumelhart & Hinton 1986). Weliswaar is het brein niet puur connectionistisch opgebouwd, er zijn immers nog andere eigenschappen zoals de invloed van biochemische stoffen, maar toch vormt de connectionistische neurale structuur de meest kenmerkende eigenschap van het brein. Een ander voordeel ligt op het gebied van snelheid (Churchland & Churchland 1990). Een grotere complexiteit leidt bij een connectionistisch model niet tot een verlies in snelheid. De snelheid is onafhankelijk van het aantal nodes of connecties. Deze snelheid zien we bijvoorbeeld terug in visuele herkenning bij mensen van bijvoorbeeld gezichten. Een mens kan dit in enkele milliseconden, terwijl 13
een conventionele computer daar veel langer over zou doen. Dit betekent niet dat connectionistische systemen alles sneller en beter kunnen dan computationalistische systemen. In getalmanipulatie zijn conventionele computers veel beter dan connectionistische systemen zoals het brein. Een derde voordeel is de foutentolerantie van grote en complexe connectionistische systemen (Churchland & Churchland 1990). Zelf bij verlies van een groot aantal nodes zal de functie die het systeem uitvoert nauwelijks aangetast zijn. Dit is vooral te danken aan het feit dat er geen centraal punt is waar alles doorheen moet gaan. Deze decentraliteit heeft ook invloed op de opslag van gegevens, welke hierdoor sneller en veiliger verloopt. Als laatste hebben connectionistische systemen een andere manier van leren dan computationele systemen. Als een computationalistisch systeem iets wil leren dan zal het algoritme voor de te leren functie al bekend moeten zijn. Een connectionistisch systeem daarentegen kan leren uit ervaring. Als je weet dat een bepaalde input altijd tot een bepaalde output moet leiden kun je het connectionistische systeem daarop trainen zonder dat je de onderliggende functie hoeft te kennen. De activatiegegevens van de nodes van de vorige processen worden daarbij opgeslagen zodat na een heleboel herhalingen het systeem de functie altijd goed uitvoert. Een nadeel hiervan is dat het connectionistische systeem de opdracht uiteindelijk weliswaar goed uitvoert, maar je niet precies weet hoe dit gebeurt. 4.2 Het onderscheid tussen causale en formele structuur Voordat we verdergaan zullen we nog even dieper ingaan op het onderscheid tussen causale en formele structuur. De causale structuur is de natuurkundige werking van een systeem, het gaat hier om alle fysieke eigenschappen van een systeem en niet alleen de eigenschappen die dienen voor de functie waartoe het systeem dient. De formele structuur is de structuur die relevant is voor de functie. Hiermee is de formele structuur net zoals de functie van een systeem afhankelijk van een menselijk subject dat de functie toekent, en dus gebruiker- of observatorafhankelijk. De formele structuur moet hierbij altijd als een abstractie van de causale structuur worden opgevat. Deze opvattingen zijn verwant aan de Design Stance van Danniel Dennett (1996). De Design Stance houdt in dat we aan bepaalde objecten een doel of een functie toeschrijven zodat we bij het gebruik van deze objecten ons niet meer bezig hoeven te houden met de causale structuur van het object en ons puur kunnen richten op de functie. Het voordeel hiervan is dat het gebruik van het object een stuk simpeler is, aangezien de causale structuur soms erg complex kan zijn. De Design Stance wordt door Dennett gedefinieerd in contrast met drie andere epistemische houdingen. Als eerste heb je de Physical Stance, deze houdt zich bezig puur met de fysieke eigenschappen van dingen, zonder aan die eigenschappen een functie te verbinden zoals bij de Design Stance. Als tweede heb je de Design Stance die we hierboven bespraken. En als laatste is er de Intentional Stance, welke inhoudt dat we aan objecten menselijke eigenschappen toeschrijven, met name intentionaliteit. In het geval van een conventionele computer bestaat de formele structuur of de functie uit de symboolmanipulatie in de vorm van enen en nullen. De causale structuur bestaat uit de elektronica en de elektrische lading die zich daarin bevindt. De symbolen van de computer komen als het systeem goed functioneert overeen met de elektrische lading in de elektronica. Hoewel dit geen perfecte overeenkomst is, de lading is nooit precies nul of een. Ook kan de elektrische lading beïnvloed worden door bijkomende omstandigheden in de computer, bijvoorbeeld statische lading. 14
De formele structuur wordt idealiter niet beïnvloed door zulke toevallige omstandigheden in de computer maar abstraheert daarvan. Ook in het connectionisme is er een onderscheid tussen causale en formele structuur. We gebruiken hier het voorbeeld dat door Searle gegeven is bij de Brain Simulator Reply, namelijk een systeem van de waterbuizen. De formele structuur is het connectionistische model. De causale structuur bestaat uit het geheel van waterbuizen en al hun fysieke eigenschappen. Bij de causale structuur hoort bijvoorbeeld ook een lek in een van de buizen. Wederom is de formele structuur een abstractie van de causale structuur. Dit onderscheid kan je ook maken bij het brein. Op het eerste gezicht lijkt het brein dezelfde formele structuur als het buizensysteem van hierboven te hebben. Toch is dit misschien niet helemaal waar. De formele structuur is een abstractie die gemaakt wordt van de causale structuur aan de hand van een functie die wij in het systeem zien. Bij een computer is die functie symboolmanipulatie, bij het buizensysteem was die functie een bepaalde manier van interactie tussen de connecties. Doordat we van deze functies uitgingen werden eigenschappen die niet zinvol voor die functie waren genegeerd. Sommige van die eigenschappen kunnen zelfs destructief zijn voor de functie, als er bijvoorbeeld een lek zit in een van de buizen in het buizensysteem. Stel dat we als functie van het brein cognitie realiseren nemen dan moeten we die eigenschappen over nemen van causale naar formele structuur die bijdragen tot die functie. Het connectionisme stelt dat dit de connecties tussen neuronen zijn en de elektrische pulsen die de neuronen afvuren. Dit is mogelijk een te grove abstractie, andere factoren kunnen van belang zijn zoals biochemische eigenschappen en mogelijk ook de snelheid van het systeem. Een andere vraag met betrekking tot het onderscheid tussen formele en causale structuur is of een connectionistische formele structuur gerealiseerd kan worden binnen de causale structuur van een computationele machine, of dat hier een andere connectionistische machine voor nodig is. Searle lijkt te zeggen dat computationele en connectionistische formele structuren op dezelfde machine uitgevoerd kunnen worden: Because parallel machines are still rare, connectionist programs are usually run on traditional serial machines. … Computationally, serial and parallel systems are equivalent. … If the man in the room is computationally equivalent to both, then if he does not understand Chinese solely by doing the computations, neither do they. (Searle 1990 p. 22) Connectionisten zullen echter zeggen dat een connectionistisch systeem niet equivalent is aan een computationalistisch systeem (Churchland 1990), en dat een connectionistische formele structuur ook niet gerealiseerd kan worden in een computationele machine. Wat natuurlijk wel kan is dat deze connectionistische structuur gesimuleerd wordt op een conventionele computer. Heb je immers alle relevante informatie over de causale structuur van een systeem dan kun uitrekenen wat dat systeem in een bepaalde situatie zal doen. Dit is het geval bij het brein en ook bij andere connectionistische machines. Searle legt echter vaak de nadruk op het feit dat een simulatie nooit hetzelfde is als datgene wat gesimuleerd wordt (Searle 1989), dit lijkt me ook van toepassing op een simulatie van een connectionistisch systeem. Een simulatie van een connectionistisch systeem is niet hetzelfde als een werkelijke implementatie ervan.
15
Een andere manier waarop je zou kunnen stellen dat een connectionistisch systeem equivalent is aan een computationeel systeem is het feit dat bovenop een connectionistische structuur ook een computationeel systeem gerealiseerd kan worden (Fodor & Pylyshyn 1988). Het connectionistische systeem realiseert de symboolmanipulatie van een computationeel systeem echter wel op een andere manier. Dit leidt tot enkele beperkingen, namelijk in systematiciteit en productiviteit, die we bij de bespreking van het connectionisme van Smolensky behandelen. Het valt dus ook te beargumenteren dat een connectionistische causale structuur nooit volledig een computationele structuur kan realiseren, net als andersom. 4.3 Connectionisme van Smolensky In deze scriptie delen we de stroming van het connectionisme op in twee deelstromen, een daarvan probeert de mentale representaties, die oorspronkelijk het domein van het computationalisme waren, in zich op te nemen, de andere bant deze mentale representaties uit. Smolensky’s connectionisme is van de eerste soort. Op zich is het geen gekke gedachte mentale representaties met het connectionisme te willen combineren. We weten dat onze hersenen op zekere manier connectionistisch geconstitueerd zijn, maar ons denken heeft ook zekere kenmerken van computationalisme, met daarbij de mentale representaties. Het is dan niet onaannemelijk om te stellen dat die mentale inhouden geïdentificeerd kunnen worden met bepaalde nodes in het connectionistische systeem. Zeker in de tijd dat deze vorm van connectionisme ontstond kon je niet om het feit heen dat er nu eenmaal mentale representaties waren en dat deze in ieder zichzelf respecterend model van cognitie geïntegreerd moesten worden. Smolensky illustreert zijn model aan de hand van het voorbeeld van een kop koffie (Smolensky 1991). De mentale representatie van het kopje koffie kan in onderdelen opgesplitst worden, deze onderdelen worden ieder met een node geïdentificeerd. Sommige nodes representeren eigenschappen van het kopje en sommige representeren eigenschappen van de koffie. Als we met de representatie met het kopje koffie beginnen en daarbij de nodes die de koffie representeren deactiveren komen we uit bij een representatie van een leeg kopje. We zullen nu de verschillen en overeenkomsten tussen computationalisme en deze vorm van connectionisme behandelen. Beide bezitten mentale beelden die op een bepaalde manier als symbool gemanipuleerd worden. De wijze waarop dit gebeurd is verschillend. Bij computationalisme worden de symbolen gemanipuleerd aan de hand van de syntactische eigenschappen van de symbolen zelf. De syntactische elementen bepalen ook hoe de mentale representatie in het geheel van mentale beelden in onze cognitie ingepast wordt. Bij Smolensky’s connectionisme gaat het niet om de syntaxis van de symbolen of mentale inhouden, maar het gaat om het gedrag van de onderliggende nodes en connecties. Door aanhangers van het computationalisme wordt het connectionisme vaak verweten dat het geen volledig model van menselijke cognitie kan zijn omdat het een aantal dingen niet kan die een mens in theoretische zin wel zou kunnen. Het gaat hier meestal om wetmatige cognitieve regelmatigheden zoals productiviteit en systematiciteit. Productiviteit houdt in dat er in principe een oneindig aantal gedachten zijn die een mens kan begrijpen, dit komt door de syntactische structuur van taal. Deze syntactische structuur zorgt ervoor dat zinnen en zinsdelen gecombineerd kunnen worden om in theorie oneindig lange zinnen mogelijk 16
te maken. Begrip van de zin ‘Het boek staat in de boekenkast’ leidt ook tot begrip van de zin ‘Het boek staat in de kast die we bij de IKEA gekocht hebben’. Met systematiciteit wordt bedoeld dat het maken of begrijpen van bepaalde zinnen automatisch leidt tot het kunnen produceren of begrijpen van andere zinnen met dezelfde grammaticale structuur. Begrip van bijvoorbeeld de zin ‘Jan houdt van Marie’ leidt ook tot begrip van de zin ‘Marie houdt van Jan’. Dit komt doordat uit twee onderdelen bestaat, namelijk de zinsdelen en de syntactische structuur. De syntactische structuur is dus mede verantwoordelijk voor de betekenis, of wijzigt die betekenis in ieder geval. Beide zinnetjes bestaan uit dezelfde elementen maar verschillen in betekenis door een verschil in de syntactische structuur. In het connectionisme zijn deze twee zaken niet mogelijk omdat er geen mogelijkheid is tot veralgemenisering. Iedere node representeert een woord of symbool. Er is geen algemene groep van bijvoorbeeld werkwoorden of naamwoorden. In het computationalisme kan dit wel door een woord of symbool een bepaald kenmerk te geven waardoor het op een bepaalde manier door de computer wordt geïnterpreteerd. Een ander verwijt van de computationalisten richting connectionisme, en dan vooral de theorie van Smolensky, is dat het slechts een implementatie is van computationalisme (Fodor & Pylyshyn 1988). Dit betekent dat het net zoals de elektronica bij een conventionele computer slechts een onderliggende structuur is die een symboolmanipulator realiseert. Dit verklaart volgens hen dan ook hoe we van het brein naar de computationalistisch gestructureerde menselijke cognitie komen. Dit argument is eigenlijk alleen van toepassing op een vorm van connectionisme die werkt met mentale representaties. Als er geen mentale representaties of symbolen zijn dan is het moeilijk om een computationalistisch systeem te realiseren. Smolensky besluit wel mentale representaties of symbolen te identificeren met nodes of groepen nodes. Doordat symbolen echter bepaalde syntactische eigenschappen met zich meebrengen zullen de nodes en de connecties tussen die nodes deze eigenschappen mogelijk moeten maken. Het gevolg hiervan is dat deze vorm van connectionisme zich precies hetzelfde gedraagt als computationalisme. Hierdoor is de cognitieve architectuur bij computationalisme en het connectionisme van Smolensky hetzelfde, waaruit volgt dat ook het Chinese Room argument in principe van toepassing blijft. 4.4 Connectionisme van de Churchlands Het connectionisme van Paul en Patricia Churchland is beïnvloed door hun theorie van het eliminatief materialisme (Churchland 1981) en ontkent daarom het bestaan van mentale representaties. Het volgende citaat van Paul Churchland geeft het project van eliminatief materialisme beknopt weer: Eliminative materialism is the thesis that our commonsense conception of psychological phenomena constitutes a radically false theory, a theory so fundamentally defective that both the principles and the ontology of that theory will eventually be displaced, rather than smoothly reduced, by completed neuroscience. (Churchland 1981 p. 67) Dit wil zeggen dat het taalgebruik en de concepten die wij traditioneel gebruiken om mentale gebeurtenissen weer te geven toe zijn aan verandering, en dat dit zal leiden tot een meer
17
neurobiologische kijk op ons mentale leven. Een voorbeeld van een verouderd concept is dat van mentale representaties. Vandaar dat dit in hun connectionistische model ook niet meer terugkomt. In hun artikel “Could a Machine Think” (1990) stellen zij dat het onwaarschijnlijk is dat een klassieke vorm van AI, in de vorm van een computerprogramma, ooit bewust kan zijn. Daarvoor in de plaats vragen zij zich af of een systeem met dezelfde structuur als het brein dit mogelijk wel kan zijn. Hiermee bedoelen ze natuurlijk het connectionisme. Zij ontwikkelen hun argument in dialoog met Searle die zegt dat ook een connectionistisch systeem niet bewust kan zijn. Zij bespreken eerst kort de geschiedenis van het AI onderzoek en komen dan uit bij het Chinese Room argument van Searle. Zij vinden dit een interessant argument maar vinden het uiteindelijk niet overtuigend (dit staat nog los van hun eigen theorie over het connectionisme). Zij hebben hier verschillende redenen voor; zij focussen hierbij vooral op Searle’s stelling of axioma dat syntaxis niet constituerend noch voldoende is voor semantiek. Ten eerste stellen zij vraagtekens bij de intuïtieve kracht van het Chinese Room argument. Daarbij geven zij een aantal voorbeelden uit de geschiedenis waarbij stellingen die op het eerste gezicht niet intuïtief leken toch waar bleken te zijn. The 18th-century Irish bishop George Berkeley found it unintelligible that compression waves in the air, by themselves, could constitute or be sufficient for objective sound. The English poet-artist William Blake and the German poet-naturalist Johann W. von Goethe found it inconceivable that small particles by themselves could constitute or be sufficient for the objective phenomenon of light. Even in this century, there have been people who found it beyond imagining that inanimate matter by itself, and however organized, could ever constitute or be sufficient for life. (Churchland & Churchland 1990 pp. 34-45) Zo is het volgens de Churchlands wellicht ook bij het feit dat semantiek uit syntaxis kan voortkomen. Een ander argument dat zij daaraan toevoegen is vormgegeven als analogie met Maxwell’s theorie dat licht voortkomt uit bewegende magnetische velden. Het komt erop neer dat een simpele syntaxis geen semantiek voortbrengt maar een complexe syntaxis misschien wel. Net zoals het traag op een neer bewegen door een mens van een magneet geen licht voortbrengt maar dit op complexere (kleiner en sneller) schaal wel gebeurt. Searle is overigens van mening dat deze analogie niet opgaat (Searle 1990), en hier heeft hij mogelijk wel een punt. Het verhaal over licht en elektromagnetische straling gaat over fysieke en causale eigenschappen. Terwijl symbolen een pure abstractie zijn en geen fysische of causale eigenschappen hebben. De causale eigenschappen van symboolmanipulatie zitten in de fysieke machine waarop de symboolmanipulatie wordt uitgevoerd. Ten tweede is Searle’s argument volgens de Churchlands geheel gebaseerd op de stelling dat syntaxis niet constituerend noch voldoende is voor semantiek. Ook de conclusie van het argument verschilt niet veel van deze stelling, namelijk dat programma’s niet constituerend noch voldoende zijn voor bewustzijn. Deze stelling is volgens de Churchlands alleen maar gebaseerd op intuïtie, hierboven zagen we dat zij vinden dat deze intuïtie fout is. Hierdoor is Searle’s argument volgens hen lang niet zo overtuigend als op het eerste gezicht lijkt. Hierna beginnen ze met het uitleggen van het connectionistisch model. Zij wijken daar niet veel af van de standaardvorm. Zij houden een model aan van neuraal connectionisme, waarbij de nodes geïdentificeerd dienen te worden met de neuronen in het brein. Er zijn in principe geen mentale 18
representaties, de nodes dienen dus niet met symbolen geïdentificeerd te worden zoals bij Smolensky. Dit betekent ook dat het connectionistisch model niet gebonden is aan een bepaalde syntaxis. De Churchlands merken echter ook op dat symboolmanipulatie wel een van de mogelijkheden is van hun connectionistische model. Zij gaan daarbij niet in op de vraag of die symbolen dan net als bij Smolensky geïdentificeerd moeten worden met de individuele nodes. Dit is echter onwaarschijnlijk gezien hun verdere filosofie van het eliminatief materialisme. De symboolmanipulatie waar zij het over hebben is waarschijnlijk vooral gericht op het functionele aspect, waarbij hun model dezelfde output geeft als een computer bij een bepaalde input, zonder dat in het systeem werkelijk symbolen gemanipuleerd worden. Een complex genoeg connectionistisch model kan volgens de Churchlands cognitie realiseren, mits natuurlijk de juiste structuren aanwezig zijn. Een vraag die zij zich daarbij stellen is hoe complex het systeem daarvoor zou moeten zijn. Searle is van mening dat zo goed als heel de structuur van het brein nagemaakt dient te moeten worden (Searle 1980). De Churchlands zijn iets minimalistischer, zij menen dat als wij genoeg kennis van het brein hebben verkregen, we alleen maar de essentiële aspecten over hoeven te nemen. Een bewust connectionistisch systeem hoeft dus niet noodzakelijk zo complex te zijn als het brein. Het is natuurlijk de vraag welke aspecten dat zullen zijn, en of de connectionistische structuur daar deel van uit maakt. Is het Chinese Room argument nog van toepassing op het connectionisme van de Churchlands? De theorie van de Churchlands over cognitie neemt in wezen Searle’s conclusie aan dat de causale structuur hiervoor essentieel is. Wat de Churchlands met hun theorie zeggen is dat zij het connectionistische karakter van die causale structuur het belangrijkst vinden in het realiseren van cognitie. Het is zeker zo dat deze connectionistisch structuur het meest kenmerkende aspect is van het brein. De vraag of de connectionistische structuur de enige is die van belang is bij het realiseren van intelligentie is een vraag voor de empirie. Wel blijft het zo dat het connectionistisch model in principe een model is van de causale structuur. Hierdoor is het Chinese Room argument niet van toepassing, want dit richt zich expliciet tegen cognitieve modellen die alleen formele aspecten in rekening nemen. 4.5 Chinese Gym Searle’s eigen antwoord op het connectionisme komt in de vorm van het Chinese Gym argument. Dit argument geeft Searle in zijn artikel “Is the Brain’s Mind a Computer Program” (1990) als reactie op het connectionistische voorstel van de Churchlands. Het artikel van Searle en het artikel “Could a Machine Think? (1990) van Paul en Patrica Churchland werden in hetzelfde nummer van The Scientific American gepubliceerd als companion-pieces, beide artikels verwijzen naar elkaar. De Chinese Gym ziet er als volgt uit: Imagine that instead of a Chinese room, I have a Chinese gym: a hall containing many monolingual English-speaking men. These men would carry out the same operations as the nodes and synapses in a connectionist architecture ... The outcome would be the same as having one man manipulate symbols according to a rule book. No one in the gym speaks a word of Chinese, and there is no way for the system as a whole to learn the meanings of any Chinese words. Yet with appropriate adjustments, the system could give the correct answers to Chinese questions. (Searle 1990 p. 22)
19
We moeten ons bij dit argument een gymzaal voorstellen met mensen die in een connectionistisch netwerk georganiseerd zijn, waarin iedere node gerepresenteerd wordt door een persoon. Dit netwerk is zo geconfigureerd dat het zich functioneel hetzelfde gedraagt als de oorspronkelijke Chinese kamer en dus als een Chineesspreker. Toch is volgens Searle ook hier geen sprake van echte cognitie, niemand van de mensen, noch de gehele gymzaal heeft enig begrip van de Chinese taal. De Churchlands zijn het hier niet mee eens. Ten eerste, zeggen zij, is het argument lang niet meer zo overtuigend als het originele doordat je jezelf niet meer goed in de situatie in kan beelden. Bij het originele Chinese Room argument kon je op een bepaalde manier intuïtief aanvoelen dat de man inderdaad geen echt begrip kon hebben van de Chinese taal. Bij de Chinese Gym kan dit niet meer omdat de individuele personen geen semantiek kennen, net zoals onze neuronen dat niet doen. Daarbij merken zij ook nog eens op dat het echt namaken van het neurale model van het brein enorm veel mensen en een enorme complexiteit zouden vereisen. Dit systeem zou dan zo complex zijn dat het voor ons niet meer te overzien is of het wel of niet begrip heeft. Wat de Churchlands aannemen is dat als een systeem maar de nodige eigenschappen van het brein overneemt, dit dan ook dezelfde soort intelligentie voortbrengt. De Chinese Gym neemt het connectionistische aspect van het brein over, en daarmee is er een goede mogelijkheid dat het systeem intelligent zal zijn. Het Chinese Gym argument toont veel overeenkomsten met Searle’s antwoord op de Brain Simulator Reply, en er zijn volgens mij dezelfde tegenargumenten op te geven. De kern van deze argumenten bestaat erin dat Searle ontkent dat de causale eigenschappen van zijn buizensysteem en zijn Chinese Gym een rol spelen in het verwezenlijken van een connectionistische formele structuur. Een structuur die wezenlijk anders is dan de traditionele computationele structuur. Because parallel machines are still rare, connectionist programs [sic] are usually run on traditional serial machines. ... Computationally, serial and parallel systems are equivalent.... If the man in the room is computationally equivalent to both, then if he does not understand Chinese solely by doing the computations, neither do they. (Searle 1990 p. 22) Searle lijkt dus aan te nemen dat een connectionistisch systeem simpelweg een verkapte vorm van een computationalistisch systeem is. Dit is niet zo, een parallel systeem kan weliswaar geconfigureerd worden zodat het zich gedraagt als een computationeel systeem, maar heeft ook nog andere mogelijkheden. Een voorbeeld van een connectionistisch systeem dat zich als een computationalistisch systeem gedraagt is dat van Smolensky. Er kan eigenlijk een onderscheid gemaakt worden tussen twee vormen van connectionisme. De eerste richt zich meer op de structuur van onze cognitie, die veelal als computationalistisch gestructureerd wordt beschouwd, en waarbij het connectionistische model dit moet faciliteren. Als tweede is er een connectionisme dat zich meer richt op de neurale structuur van het brein, hiervoor kunnen we het connectionisme van de Churchlands als voorbeeld nemen. Bij computationele connectionistische systemen hadden we gezegd dat het Chinese Room argument nog altijd van toepassing is. Van connectionistische systemen die zich niet zozeer met symboolmanipulatie alswel met het nabouwen van de neurale structuur van het brein bezighouden kan niet gezegd worden dat Searle’s argument nog van toepassing is. Zij zijn heel anders gestructureerd qua causale structuur en verschillen ook nog eens van functie met conventionele computers.
20
De vraag is dan niet meer of een systeem met een connectionistische structuur cognitie kan voortbrengen, maar of en welke additionele causale eigenschappen nodig zijn om deze cognitie te realiseren. Er zijn immers talloze verschillen tussen de structuur van het brein en de structuur van een buizensysteem of een Chinese Gym. Als de essentiële eigenschap van het brein dat cognitie veroorzaakt de connecties tussen bepaalde eenheden is, dan is het niet onaannemelijk dat het buizensysteem en de Chinese Gym ook semantiek kunnen ervaren. Als dit begrip ook ten dele veroorzaakt wordt door andere processen in het brein, dan zullen het buizensysteem en de Chinese Gym deze ook eerst op een bepaalde manier in zich mee moeten nemen voordat ze semantiek kunnen ervaren. 4.6 Chinese Nation Een ander argument dat overeenkomsten vertoont maar niet helemaal overeenkomt met het Chinese Gym argument is het door Ned Block ontwikkelde Chinese Nation argument (Block 1978). Het argument is oorspronkelijk gericht tegen functionalisme, maar heeft bepaalde aspecten die ook relevant zijn voor connectionistische theorieën. Het gedachte-experiment houdt in dat alle mensen in China met elkaar in verbinding staan, bijvoorbeeld met behulp van mobiele telefoons, als iemands telefoon afgaat dan heeft hij de opdracht om naar een aantal andere mensen te bellen, wiens telefoons dan ook afgaan en daarbij ook de opdracht hebben door te bellen naar andere personen. Het gaat om het afgaan van de telefoon, er hoeft daarbij geen gesprek worden gevoerd. Het hele telefoonnetwerk wordt zo opgesteld dat de inwoners van China samen als geheel functioneel gezien het brein na doen. Het gaat er daarbij om dat een bepaalde input in het Chinese brein tot eenzelfde output leidt als bij een echt brein. De vraag is dan of de inwoners van China samen als geheel bewustzijnservaringen zoals pijn kunnen ondervinden, zonder dat zij hierbij als individu pijn ervaren. De conclusie van het experiment is dat dit niet zo zal zijn. Hiermee zou de theorie van functionalisme verworpen zijn. Niet iedereen is echter overtuigd van dit argument, Daniel Dennett, bijvoorbeeld, is van mening dat het wel mogelijk is dat het Chinese brein bewust zal zijn (Dennett 1991). Het model heeft veel weg van een connectionistisch model, in principe kan dit echter als bijkomstigheid gezien worden. De manier waarop de inwoners van China zich opstellen is irrelevant, zolang de input-output relatie maar klopt. In deze zin kun je dus op meerdere manieren naar het experiment kijken, en er mogelijk ook meerdere conclusies aan verbinden. Je kunt stellen dat ieder persoon een neuron representeert, hiermee zou het dus een connectionistisch model zijn. Maar je kunt ook stellen dat het Chinese brein eigenlijk een soort Turing machine is, waarop het brein op een bepaalde manier gesimuleerd wordt. Je kunt in deze zin geen eenduidige conclusie uit het experiment halen. Functionalisten en connectionisten zeggen mogelijk beide dat het Chinese brein bewust zal zijn, maar zij doen dit om verschillende redenen en omdat ze een verschillende opvatting hebben van hoe het Chinese brein geconstrueerd is. Toegepast op het connectionisme kunnen we zeggen dat het gedachte-experiment wel een zekere waarde heeft. Vooral in de zin dat het laat zien dat er iets tegenintuïtiefs zit in het voorstellen van een bewust connectionistisch systeem dat buiten het connectionistische aspect nauwelijks overeenkomsten met het brein vertoont. Mogelijk vereist een bewust systeem dat er toch nog meer causale eigenschappen van het brein mee overgenomen worden. Dit zouden bijvoorbeeld bepaalde biochemische eigenschappen van neuronen kunnen zijn. Dit neemt niet weg dat de connectionistische structuur een zeer kenmerkend onderdeel vormt van de samenstelling van het 21
brein, en hoewel het op zichzelf misschien niet toereikend is om cognitie te realiseren, is het waarschijnlijk wel een noodzakelijk onderdeel daarvoor.
22
5. Connectionisme en het Chinese Room argument We hebben nu twee vormen van connectionisme behandeld en deze vergeleken met het Chinese Room argument. In dit hoofdstuk zal ik de conclusies die hieruit te trekken zijn weergeven. Uiteindelijk komen we tot de conclusie dat het Chinese Room niet zomaar toe te passen is op het connectionisme. Het Chinese Room argument is oorspronkelijk gericht op computaties en stelt dat het puur uitvoeren van regels niet tot begrip kan leiden, ook al leiden die regels functioneel gezien tot hetzelfde gedrag. Daarbij moet wel opgemerkt worden dat Searle zich daarbij beperkt tot regels die direct betrekking hebben op het uiterlijk gedrag; met de onderliggende processen die zich mogelijk in het brein van de persoon die Chinees spreekt afspelen houdt hij geen rekening. Als we het hebben over een simulatie via symboolmanipulatie van die processen kan hij zich niet langer beroepen op zijn Chinese Room argument maar maakt hij een analogie met andere simulaties waarbij hij laat zien dat een simulatie nooit hetzelfde is als de werkelijke zaak zelf. Op de vraag of het Chinese Room nog van toepassing is op connectionisme heeft Searle zelf ook enkele antwoorden gegeven, namelijk het Chinese Gym argument en zijn antwoord op de Brain Simulator Reply. Deze twee antwoorden komen op hetzelfde principe neer. Searle probeert aan te tonen dat als je een connectionistisch systeem nabouwt dit niet geen semantiek zal kennen. Hij lijkt er van uit te gaan dat dit voor iedereen intuïtief duidelijk zou zijn. Toch zijn er mensen die daarvan niet overtuigd zijn, mensen zoals Dennett en de Churchlands. Een objectie gemaakt door Dennett tegen de intuïtie dat deze systemen niet intelligent zouden zijn ligt in het aspect van snelheid. De systemen die door Searle en ook door Block worden omschreven zijn mogelijk te traag voor ons om er intelligentie in te zien, ook al is die misschien wel aanwezig. Speed...is 'of the essence' for intelligence. If you can't figure out the relevant portions of the changing environment fast enough to fend for yourself, you are not practically intelligent, however complex you are. Of course all this shows is that relative speed is important. In a universe in which the environmental events that mattered unfolded a hundred times slower, an intelligence could slow down by the same factor without any loss; but transported back to our universe it would be worse than moronic. (Dennett 1987 pp. 326-327) Het is daarmee niet gezegd dat Dennett en de Churchlands er echt van overtuigd zijn dat de systemen die door Searle en Block worden voorgesteld werkelijk semantiek zullen ervaren, wel zullen zij zeggen dat er geen principiële of theoretische reden is waarom dat niet zo zou zijn. Er zijn natuurlijke wel andere argumenten tegen in te brengen, bijvoorbeeld dat de systemen niet alle vereiste eigenschappen van het brein mee overnemen. Dit neemt niet weg dat het goed mogelijk is dat het op een simplistische manier namaken van het brein, bijvoorbeeld met waterbuizen, in essentie de juiste vereiste causale structuur van het brein bevat, namelijk het connectionisme, en dat dit systeem daarmee ook intelligent zal zijn. We zijn nu overgestapt van de vraag of een connectionistisch systeem cognitie kan hebben naar de vraag wat voor additionele vereisten er zijn om deze cognitie te realiseren, welke andere eigenschappen van de causale structuur van het brein moeten mee over worden genomen. Nu is dit misschien meer een vraag voor de neurowetenschappen, en dus een vraag waar wij hier niet verder op in gaan. Wel willen we kort in het volgende hoofdstuk de theorie van Embedded Embodied Cognition behandelen, deze gaat over de verhouding van het brein of onze cognitie tot de wereld, en heeft daarmee ook betrekking op de rol van het lichaam. Je kunt je namelijk afvragen of een brein of 23
een connectionistisch systeem intelligentie zou kunnen hebben als dit helemaal van de wereld afgesloten is.
24
6. Embedded Embodied Cognition Dit hoofdstuk heeft betrekking op het verband tussen connectionisme en de hedendaagse Philosophy of Mind. Een belangrijke stroming in de hedendaagse Philosophy of Mind is die van Embedded Embodied Cognition, of kortweg EEC. Deze stroming keert zich tegen de klassieke opvatting van cognitie als zijnde een geïsoleerde symboolmanipulerende machine (van de Laar & de Regt 2008). EEC legt de nadruk op het feit dat denken in werkelijkheid nooit helemaal geïsoleerd gebeurt maar dat dit altijd in een bepaalde situatie gebeurt en dat denken zoals wij dat doen dus nooit alleen maar uit geïsoleerde symboolmanipulatie of een geïsoleerd connectionistisch systeem kan bestaan. Het is mijn opvatting dat een connectionistische opvatting van cognitie in een veel grotere mate verenigd kan worden met deze stroming van EEC dan de klassieke opvatting van computationalisme. Dit zit hem vooral in het feit dat een computationalistisch systeem per definitie geïsoleerd is, en dit ook nodig heeft om te functioneren. Dit terwijl een connectionistisch systeem juist open staat voor externe variabelen en ze geheel kan integreren in het systeem. Om dit te argumenteren wil ik onder andere gebruik maken van de Robot Reply die op Searle’s Chinese Room gemaakt wordt. De kern van de Robot Reply bestaat eruit dat cognitie nooit alleen gerealiseerd kan worden door een computer, maar dat deze moet kunnen communiceren met de wereld om hem heen om hetzelfde soort begrip te verkrijgen als wij (Searle 1980). Deze communicatie wordt gerealiseerd door de computer te verbinden met een robotlichaam dat voorzien is van sensoren om de wereld waar te nemen en beweegbare ledematen om de wereld te manipuleren. In wezen gaat de Robot Reply van dezelfde aannames uit als EEC. Toch is de Robot Reply naar mijn idee geen overtuigend argument tegen het Chinese Room argument. Searle’s verwerping van dit argument bestaat erin dat het voor de man in de Chinese Room irrelevant is hoe de symbolen die hij krijgt naar binnen of naar buiten gaan. In het ene geval krijgt hij de symbolen direct van buiten onder de deur door geschoven hij verwerkt deze doormiddel van een boek met syntactische regels en schuift het juiste antwoord weer onder de deur door. In het geval van een robotlichaam zou hij het symbool binnenkrijgen via bijvoorbeeld een tv-scherm dat aangesloten is aan een camera extern aan de kamer en het antwoord gaat de kamer uit via een tvscherm of speaker aan de buitenkant van de kamer. De symboolmanipulatie blijft hetzelfde en het is niet aannemelijk dat de man in de kamer nu meer kennis heeft van de Chinese taal dan hij oorspronkelijk had. In zekere zin verschilt de Chinese Room bij de Robot Reply nauwelijks van de originele Chinese Room. In beide gevallen komen er symbolen binnen en gaan er symbolen naar buiten. Bij het oorspronkelijke argument was er ook al een interface met de buitenwereld, namelijk het onder de deur door schuiven van de symbolen. Het enige wat verandert is dat de interface complexer is geworden. Dit probleem toont naar mijn idee aan dat symboolmanipulatie nooit echt tot interactie met de buitenwereld kan leiden, er komt altijd een bepaalde abstractie aan te pas om de externe gegevens in de symbolentaal te vertalen. Hiermee wordt een barrière opgetrokken tussen de symboolmanipulatie en de buitenwereld. Het connectionisme biedt een meer dynamische manier om met externe variabelen rekening te houden. De input van buitenaf is via een node direct verbonden met het netwerk, er zal geen abstractie gemaakt hoeven te worden zoals bij het computationalisme, bijvoorbeeld in de vorm van
25
enen en nullen. Bij het connectionisme stroomt het externe signaal direct binnen, en heeft daarmee meer mogelijkheden tot interactie met de omgeving.
26
7. Eindconclusie We hebben in deze scriptie John Searle’s Chinese Room argument proberen toe te passen op connectionistische systemen. We hebben daarbij Searle’s eigen argumenten geanalyseerd en laten zien dat deze niet op alle vormen van connectionisme toepasbaar zijn. Uiteindelijk komen we tot de conclusie dat de vraag of connectionistische systemen intelligentie zoals dat van mensen kunnen hebben vooral afhangt van de vraag of de connectionistische structuur van het brein op zich genoeg is voor menselijke cognitie, of dat er nog andere causale eigenschappen mee over genomen dienen te worden in het connectionistische systeem. En tot slot hebben we met onze korte discussie over EEC proberen te laten zien dat het connectionisme beter te combineren is met EEC dan traditioneel computationalisme.
27
Literatuurlijst Barker-Plummer, P 2011, ‘Turing Machines’, Stanford Encyclopedia of Philosophy, viewed 15 July 2011, . Block, N 1978, ‘Troubles with Functionalism’, Minnesota Studies in the Philosophy of Science, vol. 9, pp. 261-325. Churchland, PM 1981, ‘Eliminative Materialism and the Propositional Attitudes’, Journal of Philosophy, vol.78, no. 2, pp. 67-90. Churchland, PM & Churchland, PS 1990, ‘Could a Machine Think?’, Scientific American, vol. 262, pp. 32-39. Cole, D 2009, ‘The Chinese Room Argument’, Stanford Encyclopedia of Philosophy, viewed 15 July 2011, . Copeland, BJ 1993, ‘The Curious Case of the Chinese Gym’, Synthese, vol. 95, no. 2, pp. 173-186. Dennett, DC 1980, ‘The Milk of Human Intentionality’ Behavioral and Brain Sciences, vol. 3, no. 3, pp. 429-430. Dennett, DC 1987, ‘Fast Thinking’, The Intentional Stance, MIT Press, Cambridge MA, pp. 324-337. Dennett, DC 1991, "Chapter 14: Consciousness Imagined". Consciousness Explained, Back Bay Books, Boston MA, pp. 431-455. Dennett, DC 1996, ‘Intentionality: The Intentional Systems Approach’, Kinds of Minds, BasicBooks, New York NY, pp. 28-30. Fodor JA & Pylyshyn ZW 1988, ‘Connectionism and Cognitive Architecture: A Critical Analysis’, Cognition, vol. 28, no. 3, pp. 3-71. Horst, S 2009, ‘The Computational Theory of Mind’, Stanford Encyclopedia of Philosophy, viewed 15 July 2011, . Van de Laar, T & de Regt, H 2008, ‘Is Cognitive Science Changing its Mind?’, Theory & Psychology, vol. 18, pp. 291-296. McClelland JL, Rumelhart DE & Hinton GE 1986, ‘The Appeal of Parallel Distributed Processing’, Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Volume 1, MIT Press, Cambridge MA, pp. 269-288. Moor, JH 2005, ‘Machine Intelligence’, Encyclopedia of Philosophy, 2nd edn, vol. 5, Gale, Farmington Hills, pp. 631-636. Searle, JR 1980, ‘Minds, Brains and Programs’, Behavioral and Brain Sciences, vol. 3, no. 3, pp. 417424. Searle, JR 1989, Minds, Brains and Science: the 1984 Reith Lectures, Penguin Books, London, pp. 3738. 28
Searle, JR 1990, ‘Is the Brain’s Mind a Computer Program?’, Scientific American, vol. 262. Searle, JR 1992, ‘Chapter 2: The Recent History of Materialism: The Same Mistake Over and Over’, The Rediscovery of the Mind, MIT Press, Cambridge MA, pp. 27-57. Smolensky, P 1988, ‘On the Proper Treatment of Connectionism’, Behavioral and Brain Sciences, vol. 11, no. 3, pp. 1-23. Smolensky, P 1991, ‘Connectionism, Constituency and the Language of Thought’, Connectionism. Debates on Psychological Explanation, eds. Macdonald, C & Macdonald, G, Cambridge MA, Basic Blackwell, pp. 164-198.
29