De relevantie van het ‘Symbolic Grounding Problem’ voor simulatie van menselijke cognitieve ontwikkeling Jeroen Joukes Afstudeerproject Bachelor Kunstmatige Intelligentie, Universiteit van Amsterdam.
Inleiding In de literatuur wordt er veel gesproken over het al dan niet aanwezig zijn van interne semantiek binnen een artificieel lerend systeem. Veel argumenten – voor en tegenworden in verband gebracht met een dilemma dat ‘Symbolic Grounding problem’ (SGP) genoemd wordt. Dit dilemma beschrijft dat abstracte representaties van objecten –symbolen- gegrond moeten zijn aan objecten die zij representeren in de fysieke wereld om betekenis te kunnen hebben. De basis van dit dilemma is de philosophy achter de werking van menselijke cognitieve ontwikkeling. Wij zijn immers in staat efficient te werken met onze omgeving doordat wij de mogelijkheid hebben abstracte representaties te maken van onze omgeving en deze te voorzien van betekenis. Het SGP is daarom een belangrijk onderdeel wanneer er gesproken wordt over de mogelijkheid tot het simuleren van menselijke cognitieve ontwikkeling. Ik zal beginnen met een korte uitleg over wat SGP precies is en hoe dit in relatie staat tot semantiek binnen artificieel lerende systemen. Deze systemen zijn onder te verdelen in twee algemene groepen -symbolische systemen en connectionistische netwerken-. Ik zal voor beide groepen de relatie geven tot SGP en dieper ingaan wat de voor en nadelen zijn wanneer zij gebruikt worden als simulatie voor menselijke cognitieve ontwikkeling. Ik zal vervolgens een korte beschrijving geven van een onderzoek dat is gedaan door Luc Steels over het gronden van perceptuele betekenis en van een vervolgonderzoek dat is gedaan door Tony Belpaeme. Ik wil de onderzoeken relateren aan de argumenten die aangedragen zijn in de literatuur voor of tegen het bestaan van semantiek binnen artificieel lerende systemen en in hoeverre het onderzoek een bijdrage zou kunnen leveren aan het simuleren van menselijke cognitieve ontwikkeling.
Symbolic Grounding Problem SGP wordt in de literatuur vaak uitgelegd aan de hand van een voorbeeld dat het ‘Chinese room argument’ wordt genoemd en ooit is geformuleerd door J.Searle [1]. Ik zal dit dilemma gebruiken om duidelijk te maken wat SGP precies is en hoe dit in relatie staat tot het eerder genoemde probleem omtrent mogelijke semantiek binnen artificieel lerende systemen. Het gedachtenexperiment start bij een persoon die een enkele taal spreekt anders dan Chinees en opgesloten zit in een kamer met drie stukken geschreven tekst. Het eerste stuk betreft een verhaal geschreven in de Chinese taal (Chinese symbolen). Het tweede stuk betreft een script – een datastructuur van applicaties dat natuurlijke taal kan verwerken – tevens geschreven in de Chinese taal. De regels van het script geven een relatie aan tussen twee sets van formele symbolen. Met ‘formeel’ wordt bedoeld dat de symbolen puur op syntactisch niveau – vorm van de symbolen – te herkennen zijn. Het laatste stuk betreft een set van regels geschreven in de voor de proefpersoon bekende taal en in de Chinese taal. Dit stuk beschrijft hoe elementen uit dit stuk in verband kunnen worden gebracht met symbolen uit de eerste twee stukken. Dit zijn derhalve instructies om bepaalde Chinese symbolen met een bepaalde vorm terug te geven als antwoord op een vraag, geformuleerd met Chinese symbolen. Al naar gelang de proefpersoon beter wordt in het volgen van de instructies beschreven door de drie stukken, zal deze steeds minder onderscheiden kunnen worden van een persoon dat de Chinese taal beheerst zoals mensen uit China dat doen. Searle stelt zich voor dat het mogelijk is voor de proefpersoon dergelijke instructies perfect uit te voeren zonder hij de echte betekenis van de Chinese symbolen weet. Hij is slechts in staat de vraagsymbolen te matchen met de symbolen uit de stukken, deze te manipuleren via de gegeven regels en het antwoord te vinden en terug te geven. Searle vergelijkt de dit experiment met symbolische computersystemen en start deze vergelijking met het idee dat het voor iemand die de Chinese taal wel machtig is, eruit zal zien alsof de proefpersoon zich gedraagt als een computerprogramma. Om deze anologie beter te kunnen begrijpen, zal ik eerst de definitie geven van een symbolisch systeem. Ik gebruik de definitie die wordt gegeven door Stevan Harnad in [2] waarin hij aan de hand van Newell[3], Pylyshyn[4], Fodor[5] en de klassieke werken van Neumann, Turing, Godel en Church via acht stappen een symbolisch systeem definieert. 1 Een set van willekeurige fysiek aanwezige tokens (schetsen op papier, gaten op een tape, gebeurtenissen binnen een digitale computer) die 2 gemanipuleerd worden aan de hand van expliciete regels die 3 fysieke tokens zijn of rijen van tokens waarvoor geldt dat 4 de regels gebasseerd zijn op de vorm (syntax) van de fysieke tokens en niet de betekenis (semantiek) en bestaat uit 5 volgens regels het combineren en recombineren van deze tokens 6 er zijn primitive atomaire symbool-tokens en 7 samengestelde rijen van symbool-tokens 8 het gehele systeem is semantisch interpreteerbaar – de syntax kan betekenis gegeven worden (representatie van fysieke objecten of stand van zaken)
Het ‘Chinese room argument’ heeft als elementen symbolen die volgens vastgestelde regels met elkaar gecombineerd kunnen worden tot rijen van symbolen die gebasseerd zijn op de vorm van de symbolen. Het belangrijkste punt van de definitie van een symbolisch systeem is de combinatie van regels gebasseerd op syntax van de symbolen (en niet semantiek) en dat het geheel semantisch interpreteerbaar is. Dat is precies wat er volgens Searle gebeurt met het experiment wanneer men –zonder te weten wat de opzet van het experiment is- interpreteert dat de proefpersoon niet te onderscheiden is van een Chinees sprekend persoon dat de inhoude begrijpt. De vergelijking van Searle gaat verder door te zeggen dat symbolische systemen betekenis lijken te hebben, maar dit per definitie niet kunnen hebben, aangetooond door het ‘Chinese room argument’. Elke interne betekenis van het systeem berust op het feit dat het geheel semantisch interpreteerbaar is. De interne betekenis dat het systeem lijkt te hebben, wordt erop geprojecteerd door personen die er mee werken. Harnad noemt dat symbolische systemen als beschreven met het ‘Chinese Room argument’ niet de mogelijkheid hebben interne betekenis te hebben, omdat de symbolen die zij gebruiken niet gegrond zijn aan de fysieke objecten die zij representeren. Met gronden van symbolen wordt bedoeld dat de abstracte representatie –het symbool- een directe relatie heeft met het object dat wordt gerepresenteerd. Harnad geeft als vergelijking een voorbeeld waarin symbolen wel gegrond zijn en daardoor interne betekenis hebben. Wanneer vertalers een onbekende taal of geheime code willen vertalen of ontcijferen, kunnen zij dit alleen doen wanneer zij een aantal van de te begrijpen symbolen gegrond hebben via een bekende taal of via wereldkennis. Zo kunnen zij de te leren abstracte symbolen gronden aan eigen symbolen die reeds gegrond zijn met refererende objecten waardoor de nieuwe symbolen zelf ook betekenis krijgen. Een symbolisch systeem is volgens Harnad geen goede kandidaat voor complete simulatie van cognitieve ontwikkeling van de hersenen vanwege het feit dat het product van de hersenen een vertaler naar voren kan brengen en een symbolisch systeem te maken heeft met het SGP.
Connectionistische Modellen en Symbolische Systemen Dat alleen een symbolisch systeem geen goede kandidaat is voor het simuleren van menselijke cognitieve ontwikkeling komt duidelijk naar voren in de literatuur [1, 2, 6, 7, 8]. Er wordt door Harnad een tweede kandidaat genoemd - connectionistische modellen waar veel varianten van bekend zijn. Ik zal echter de verschillende modellen behandelen als een en dezelfde groep om de discussie over het al dan niet kunnen simuleren van menselijke cognitieve ontwikkeling niet complexer te maken dan noodzakelijk. Connectionistische modellen zijn programma’s die in staat zijn patronen te leren aan de hand van een train-dataset (input en output). Middels gewichten tussen knopen binnen het netwerk die per leerronde worden aangepast, worden relaties gedefinieerd die een simulatie zijn van de relaties tussen input en output van de gegeven dataset. Hierdoor is na het trainen het netwerk in staat nieuwe input-data binnen een bepaald bereik correct te klassificeren. Harnad noemt als argument (gegeven door Fodor en Pylyshin in [5]) voor het bezwaar tegen connectionistische modellen als simulatie voor de ontwikkeling van cognitieve ontwikkeling dat deze netwerken niet punt 7 en 8 van de definitie van symbolische systemen implementeren – samengestelde rijen van symbolen en het geheel is semantisch interpreteerbaar -, terwijl dat voor mensenelijk gedrag wel degelijk het geval is. De geleerde patronen die gerepresenteerd worden door de onderlinge connecties vormen geen nieuwe combinaties volgens een formele syntax dat in het geheel semantisch interpreteerbaar zou zijn. Het grote voordeel van connectionistische modellen is dat zij volgens Harnad wel in staat zijn symbolen te gronden omdat het netwerk gekoppeld kan zijn aan sensoren die de input verkrijgen van objecten die fysiek aanwezig zijn. Om de menselijke cognitieve ontwikkeling goed te kunnen simuleren, noemt Harnad een hybride model. Dit model is een combinatie van systemen– symbolisch, nietsymbolisch – dat de goede karakteristieken van beide systemen overneemt en de tekortkomingen van elk afzonderlijk systeem over laat nemen door de ander. De symbolen worden door middel van een connectionistisch netwerk gegrond en worden voorzien van betekenis door een symbolisch systeem dat daar direct aan gekoppeld is. Zo wordt het ‘Chinese room argument’ omzeild en de tekortkomingen van een connectionistisch netwerk –punt 7 en 8 van de definitie van een symbolisch systeemopgelost door het symbolische gedeelte van het systeem. Hij noemt in [2] geen concrete implementatie voor een dergelijk hybride model, maar geeft alleen de theorie achter zijn motivatie. Ron Sun noemt in [7] ook een dergelijk hybride model dat een oplossing moet bieden voor de problemen die enkel symbolische systemen of connectionistische modellen hebben wanneer er getracht wordt menselijke cognitieve ontwikkeling te simuleren. Zijn uitgangspunt is dat symbolen tussen een agent en zijn omgeving pas gegrond kunnen worden wanneer er binnen het systeem gewerkt wordt met comportment. Comportment wordt beschreven door Heidegger in [9] en gaat over de directe interactie tussen een agent en zijn omgeving zonder dat daar expliciete representaties (symbolen) aan te pas komen. Deze comportment ziet Heidegger als de basis waarop
expliciete representaties berusten. Het is als het ware de conditie die ervoor zorgt dat de semantiek van een systeem kan ontstaan, maar is nog geen directe implementatie van interne semantiek zelf. Als bewijs dat comportment een essentieel bestanddeel is voor de simulatie van de werking van de hersenen, noemt hij onderzoek dat gedaan is bij mensen door Stanley et al.[10]. Uit dit onderzoek komt naar voren dat bij mensen die een ‘control taak’ uitvoeren, de ontwikkeling van hun expliciete kennis parallel gaat aan (en achter loopt op) de ontwikkeling van hun getrainde prestaties. Met comportment als basis fromuleert Sun in [11] een ‘dual process theory’ : Cognitieve processen worden uitgedragen in twee verschillende niveaus met verschillende procesmechanismen.Elk niveau encodeert een complete set van kennis voor deze processen en de spreiding van de twee sets van kennis overlappen elkaar zeker. In [11] en [12] beschrijft Sun uitvoerig een implementatie van deze theory. Zonder al te diep in te gaan op deze implementatie, zal ik wel de belangrijkste punten noemen, ook om zijn theory wat concreter te maken. Het niveau dat comportment representeert, wordt geimplementeerd door een neuraal netwerk dat symbolen grondt aan de hand van een bepaling of akties succesvol zijn of niet. De bepaling voor succes wordt gedaan door middel van een Q-learning algoritme [13]. De succesvolle akties worden doorgegeven aan een tweede laag dat regels abstraheert als representaties voor deze akties. De implementatie hiervan is ook een connectionistisch netwerk, maar met de eigenschappen van een symbolisch systeem. Elk concept (gevormde regel) wordt gerepresenteerd door een conditienode te koppelen aan een conclusienode. Regels kunnen ook direct worden aangenomen uit de omgeving en representeren hiermee tevens een top-down benadering zoals bij mensen ook het geval is - veel regels worden van buitenaf direct geleerd met als gevolg dat niet iedereen opnieuw het wiel hoeft uit te vinden. Een belangrijk bezwaar dat genoemd wordt door Christiansen en Chater in [8] tegen de genoemde hybride modellen -en connectionistische modellen in het algemeen-, is dat de symbolen volgens hen helemaal niet gegrond zijn aan de fysieke objecten die zij representeren. De input van het neurale netwerk moet door de programmeur dermate aangepast worden dat deze reeds abstract is en niet abstract gemaakt wordt door het netwerk zelf. Hierdoor past het netwerk zich aan aan de aangepaste input -de representatie- en niet aan de daadwerkelijke fysieke objecten waardoor de relaties arbitrair worden (zij noemen dit tussen-representaties). Hierdoor ondervinden dit soort netwerken dezelfde problemen als genoemd bij een symbolische systemen en zal er ook voor deze netwerken het ‘Chinese room argument’ gelden. Luc Steels (en ook Tony Belpaeme) heeft onderzoek gedaan naar de vorming van betekenis wanneer het gaat om perceptie van machines dat mijns inziens symbolen grondt op een manier dat rekening houdt met het argument gegeven door Christiansen en Chater.
Het creeeren van categorieen met betekenis door middel van perceptie Luc Steels heeft in [14] een beschrijving gegeven van een experiment waaruit zou blijken dat een artificieel lerend systeem de mogelijkheid heeft visueel gegronde betekenis te creeren. Hij definieert betekenis in dit onderzoek als een conceptualisatie of categorisatie van de realiteit die relevant is voor de agent in questie. Het doel voor de agent is om autonoom features te ontwikkelen die ervoor zorgen dat fysieke objecten van elkaar kunnen worden onderscheiden. De agent bezit sensoren die voor een bepaalde input -de objecten- een waarde tussen 0.0 en 1.0 toewijst. Deze inputwaarde wordt door een featuredetector omgezet naar een feature die de continue ruimte van de sensor discretizeert. Een betekenisvolle onderscheiding onstaat bij de vorming van een feature dat bestaat uit een attribuut en een waarde. Een agent heeft de mogelijkheid nieuwe features te ontwikkelen en zal gedreven worden door de onderscheidingstaak. Het is daarbij altijd mogelijk objecten achteraf toe te voegen voor discriminatie, waarbij er geldt dat wanneer de beschikbare features niet in staat zijn dit object te discrimineren, nieuwe features aangemaakt zullen worden. De agent initialiseert in eerste instantie een aantal features en zal daarna door middel van een spel proberen objecten van elkaar te onderscheiden en wanneer dit niet direct lukt, meerdere features initialiseren (als er sensoren beschikbaar zijn) of bestaande features verder te specialiseren (de ruimte verder discretizeren), waarbij er voor de discriminatietaak altijd gezocht wordt naar de kleinst mogelijke featuresets en de minst aantal mogelijke discretizaties om de meest abstracte features te behouden. Een belangrijk aspect van dit programma is het feit dat de features niet van te voren gedefinieerd worden door de programmeur. De features worden random gekozen en zijn daardoor niet onderhevig aan het kritiek dat ik eerder genoemd heb dat gegeven is door Christiansen en Chater. Fysieke objecten worden waargenomen door sensoren, en voorzien van een random getal. De betekenis voor het systeem onstaat doordat er features geselecteerd worden die het beste een discriminatietaak uit kunnen voeren volgens een selectiedruk die vergelijkbaar is met een selctiedruk die wij ook kennen. Mijns inziens slaagt dit systeem er zeker in comportment correct te simuleren en daarmee fysieke objecten weet te gronden aan abstractere representaties. Het systeem leert fysieke objecten te discrimineren en is niet gebasseerd op het representeren van de door de programmeur bewerkte input (en is daamee geen tussenrepresentatie). Een ander argument dat genoemd is door Christiansen en Chater betreft een probleem dat zij geformuleed hebben als ‘the problem of error’. Dit wil zeggen dat connectionistische netwerken niet de mogelijkheid hebben input te klassificeren als zijnde een foutieve klassificatie. De reden hiervoor is dat neurale netwerken relaties leren van input-outputparen. Een foute klassificatie is geen relatie en valt daarmee voor het netwerk niet te leren. Over het algemeen geldt dit argument, maar ik denk dat het niet het geval is voor dit systeem. De reden hiervoor heeft te maken met dat dit netwerk niet leert aan de hand van aangereikte input-outputparen, maar aan de hand van een random initialisatie gecombineerd met een selectiedruk waarin goed of fout gedefinieerd wordt. Hierdoor is het netwerk in staat om bij het aanbieden van nieuwe objecten zich wel degelijk te kunnen ‘vergissen’ (als de beschikbare featuresets niet voldoende
discriminerend werken voor dit nieuwe object). Dan pas wordt er een beroep gedaan op het creeeren van nieuwe features of worden oude features gespecialiseerd. Tony Belpaeme beschrijft een onderzoek in [15] dat een stap verder gaat dan het onderzoek gedaan door Steels. Hij toont aan de hand van hetzelfde algoritme hoe kleurcategorieen voor agenten kunnen onstaan. De kleurcategorieen zijn zoals de objecten in het onderzoek van Steels met het verschil dat er qua sensorische waarnemingen anders geregistreerd wordt. Een belangrijk verschil is echter dat er bij dit programma meerdere agenten zijn die het doel hebben om een gezamenlijk lexicon op te bouwen door middel van features dat de waargenomen kleuren categoriseert. Om de kleurcategorieen te kunnen communiceren naar andere agenten, worden er random woordvormen gevormd per categorie -lexicalisatie- dat tevens de enige informatie is die de agenten met elkaar communiceren. Elke agent heeft daarmee een set van betekenissen door middel van categorieen met sets van woordvormen dat aan andere agenten gecommuniceerd kan worden. Het programma bestaat in feite uit twee spellen, waarvan het eerste spel het discriminatiespel is zoals beschreven door Steels. Het tweede spel dat gespeeld wordt betreft de communicatie van woordvormen tussen de agenten. Hiervoor worden twee agenten random gekozen als ‘spreker’ en ‘luisteraar’. Er wordt door de ‘spreker’ random een onderwerp en context uitgekozen en gekeken of voor het onderwerp een woordvorm bestaat binnen zijn lexicon. Als dit het geval is, wordt de woordvorm gecommuniceerd aan de ‘luisteraar’ en wanneer deze de woordvorm niet in het geheugen heeft, neemt hij de woordvorm over voor desbetreffende categorie. Als de ‘luisteraar’ wel de woordvorm in het geheugen heeft, probeert hij het onderwerp te raden en wanneer dit niet correct is, neemt hij de woordvorm over voor desbetreffende categorie. De woordvorm voor deze categorie wordt nu eenduidig door twee agenten gedeeld en wordt daardoor beter door de populatie agenten gerepresenteerd. Een belangrijk aspect dat blijkt uit de resultaten van dit onderzoek is de stijging van coherententie in kleurcategorieen. Dit wordt alleen maar bereikt wanneer de woordvormen aan elkaar gecommuniceerd worden. Er kunnen geen coherente kleurcategorieen gevormd worden wanneer alleen het discriminatiespel gespeeld wordt. Dus door interactie middels woordvormen wordt de interne representatie van kleurcategorieen zo aangepast dat er beter en efficienter ‘betekenis’ overgedragen kan worden binnen de populatie.
Dit brengt mij op een ander argument, gegeven door Christiansen en Chater tegen de mogelijkheid van neurale netwerken om menselijke cognitieve ontwikkeling te simuleren.. Zij noemen als argument dat connectionistische modellen niet in staat zijn niet bestaande entiteiten te representeren. Zij geven als voorbeeld dat wij als mensen in staat zijn een ‘eenhoorn’ te bedenken, terwijl deze in het echt niet bestaat. Het is de combinatie van de reeds bestaande concepten ‘paard’ en ‘hoorn’ dat wij recombineren tot een nieuwe representatie. Ik denk dat het genoemde systeem wel in staat zou zijn dergelijke betekenissen op te bouwen. Dit heeft te maken met het feit dat de woordvormen random gevormd worden. De redenering start met dat de concepten ‘paard’ en ‘hoorn’ reeds gevonden zijn door het systeem. Deze concepten refereren in dit geval aan bestaande kleurcategorisaties en hebben hun eigen random gekozen woordvormen. Je zou aan het programma een derde spel kunnen toevoegen dat begint met per agent random combinaties te initialiseren van woordvormen die reeds bestaan in het algemeen geaccepteerde lexicon. Het spel gaat verder door deze combinaties zo nu en dan aan elkaar te communiceren en wanneer blijkt dat twee agenten dezelfde combinatie hebben, het nieuwe concept een langer bestaansrecht krijgt. Ik denk dat een dergelijke nieuw gevonden woordvorm te vergelijken is met het concept ‘eenhoorn’. Je kan voor dit spel ook andere selectiekriteria bedenken die meer synchroon lopen met de selectiedruk van nieuwe woorden en concepten zoals wij die kennen. Mischien moet de selectiedruk in het geval van de kleurconcepten meer liggen in de richting van efficientie. Ik kan mij voorstellen dat het mogelijk is ‘per ongeluk’ combinaties van woordvormen te vinden die correct twee kleurconcepten tegelijk aanduiden. Het punt dat ik wil maken is het belang van random gekozen woordvormen. Hierdoor zouden alle woordvormen en combinaties daarvan kunnen ontstaan die uiteindelijk (eventueel via direct gegronde symbolen) refereren aan fysieke entiteiten. Hoe deze woordvormen binnen een populatie behouden worden, ligt aan de slectiekriteria die zo gekozen kunnen worden dat zij synchroon lopen met de selectiekriteria die ook voor ons mensen gelden. Mijn inziens kunnen er dan zeker niet bestaande entiteiten ontstaan binnen het lexicon omdat het bestaansrecht van deze woordvormen gebasseerd is op de gedfinieerde selectiekriteria.
Conclusie Ik heb in de inleiding genoemd dat ik het belang van SGP wilde refereren aan de mogelijkheid van artificieel lerende systemen om de menselijke cognitieve ontwikkeling te simuleren. Het SGP toont aan dat symbolische systemen alleen niet de potentie hebben tot een correcte simulatie. Het dilemma op zich is daarmee zeer relevant voor de ontwikkeling binnen kunstmatige intelligentie, mede doordat het SGP aantoont wat de belangrijke aspecten zijn voor een dergelijke simulatie en daarmee voor het creeren van kunstmatige intelligentie. Ook ben ik nader ingegaan op een tweede grote groep van artificieel lerende systemen -de connectionistische netwerken- die op zichzelf ook niet in staat blijken te zijn een belangrijk aspect van menselijke cognitieve ontwikkeling te kunnen representeren. Ik ben wat dieper ingegaan op vaak genoemde argumenten die deze tekortkomingen aanduiden. De hybride modellen lijken op dit moment een juiste compromis te vormen om deze tekortkomingen op te heffen. Er worden in de literatuur echter nog veel argumenten
genoemd -vooral zeer filosophisch van aard- die aangeven dat ook deze modellen tekort schieten wanneer het gaat om de complexiteit van het bewustzijn. Ik heb een aantal van deze argumenten geprobeerd te weerleggen aan de hand van onderzoek dat is gedaan door Steels en Belpaeme. Ik denk dat deze onderzoeken een grote stap in de goede richting zijn en op z’n minst aantonen dat een aantal filosophische argumenten herzien moeten worden. Daarmee is niet gezegd dat de beschibare algoritmes de complete complexiteit van de werking van de hersenen kunnen simuleren, maar ik denk wel dat er een belangrijke en misschien zelfs historische basis begint te vormen of zelfs is gevormd.
Referenties [1] [2] [3] [4]
J.Searle, Minds, brains and programs, Behav. Brain Sci. 3 417-457 (1980) S. Harnad, The Symbol Grounding Problem A. Newell, Physical symbol systems, Cognitive Sci. 4 135-183 (1980) Z.W. Pylyshyn, Computation and cognition: Issues in the foundations of cognitive science, Behav. Brain Sci 3 111-169 (1980) [5] J.A. Fodor, The language of Thought (Crowell, New York, 1975) [6] S. Harnad, Grounding symbols in the analog world with neural nets – A hybrid model [7] R. Son, Symbol grounding: a new look at an old idea, Philosophical Psych. Vol.13, No.2, (2000) [8] M. H. Christiansen, N. Chater, Connectionism, Learning and Meaning, Connection Science, Vol.4, 227-252 (1992) [9] M. Heidegger, Being and time. New York : Harper & Row (1927a) The basic problem of phenomenology. New York: Harper & Row (1927b) [10] R. Sun, Integrating rules and connectionism for robust commonsense reasoning (1994) [11] R. Sun, Learning, action and consciousness: a hybrid approach towards modeling consciousness. Neural Networksd, Special Issue on Consciousness, 10,1317-1331 (1997) [12] R. Sun & T. Peterson, Some experiments with a hybrid model for learning sequential decision making. Information Sciences, 111, 83-107 (1998a) [13] C. Watkins, Learning with delayed rewards. PhD thesis, Cambridge (1989) [14] L. Steels, Perceptually grounded meaning creation (Kyoto, 1996) [15] T. Belpaeme, Simulating the Formation of Color Categories