Tonnen aan tekst Digitaal editeren op papier en in de praktijk
20 juli 2013
begeleider: dr. F.R.E. Blom Duale master Redacteur/editor Opleiding Neerlandistiek Universiteit van Amsterdam
tweede beoordelaar: prof. dr. K.H. van Dalen-Oskam
D.S. Schelhaas
tonnen aan tekst
Inhoud
Voorwoord
7
Bij wijze van proloog: Over de noodzaak
8
Inleiding: Op zoek naar kaders
10
Hoofdstuk 1: 1949-1970 Een matrimonium
14
1.1 1950-1970: The next step
15
1.2 Data, data, data
16
1.3 De bibliotheek als laboratorium
17
1.4 Het systeem
18
1.5 Verder verkennen
21
Hoofdstuk 2 1970-2000 Consolideren
25
2.1 Innovatie en duurzaamheid
25
2.2 De computer naar je toe
27
2.3 De digitale snelweg op
29
2.4 Het boek als kerker
30
2.5 De wetenschappelijke editie als zijn eigen karikatuur
32
Hoofdstuk 3 2000-nu De teksteditie in twistgesprek met zijn eigen optimistische zelf
36
3.1 Drie fasen
37
3.2 De tweede fase ontleed
39
5
3.3 Het publiek
41
3.4 De zeven wetten van Vanhoutte
44
3.5 Iets fatalistisch
49
3.6 Gestolde verduurzaming: XML/TEI
51
3.6.1 Ontwerpdoelen
55
3.6.2 Kritiek
62
3.6.3 Edities en tei in de praktijk
64
Bij wijze van conclusie
67
Bij wijze van epiloog: Xanadu Space
68
Litteratuur en bronnen
69
Litteratuur
69
Bronnen
71
Bijlage I: Lijst van tekstedities en halffabrikaten
73
Bijlage II: Bij wijze van opinie
77
Bijlage III: Terugblik op het editieproject rond Nova Zembla
79
6
Voorwoord
Voor mijn masterwerkstuk sloot ik me op. Misschien had dat te maken met een eerdere scriptie-ervaring. Tijdens het werken aan mijn bachelorwerkstuk ben ik beroofd door twee potige Bulgaren. Op de studiezaal van een stoffig archief nota bene. Op mijn eigen kamer was het wel zo stil en veilig. Vooraf had ik me voorgenomen vooral vooruit te kijken. Waar liggen de kansen voor de wetenschappelijke teksteditie? Wat zijn de nieuwste ontwikkelingen? Maar zoals vaker liep het anders. Ik kreeg plots genoeg van alle betweters en toekomstvoorspellers. In dit stuk heb ik in de beschutting van mijn kamertje vooral teruggekeken. Een reflex die mij niet vreemd is – in de eerste en liefste plaats studeerde ik geschiedenis. En terugkijken kan louterend zijn. Zoals zal blijken komen tal van discussies in deze wetenschappelijke discipline steeds terug (en waar doen ze dat eigenlijk niet). De scriptie is daarom in de eerste plaats, zoals mijn begeleider Frans Blom na het lezen van de eerste versie opmerkte, een Forschungsgeschichte geworden. Toch had ik het niet anders gewild. Ik raakte verknocht aan de pioniers, de digitalegeesteswetenschappers van eerste en latere uren, en hun plezier in eindeloze discussies en haarkloverijen. Aan hun passie en inzet. Met mijn aanpak heb ik wellicht (te) veel laten liggen. Niet voldoende strenge analyse toegepast. Niet voldoende een lijn bewaakt. Dat laat ik graag aan de lezer, die ik wil danken voor zijn aandacht en doorzettingsvermogen. In de derde bijlage bij dit stuk wordt nog meer teruggekeken, op de verkenningen voor een project van Roel Jansen en mij rond het Nova Zemblaverhaal.
Deru Schelhaas Leiden, 20 juli 2013
7
Bij wijze van proloog: Over de noodzaak
Gisbertus Voetius (1589-1676), een belezen hoogleraar in de theologie, publiceert in 1644 een studiehandleiding met beredeneerde literatuurlijst voor zijn studenten. In 1651 verschijnt een tweede, sterk uitgebreide versie van de handleiding, waarin Voetius een hoofdstuk aan de aanpak van literatuuronderzoek wijdt. Het heeft de titel ‘Over de noodzaak van het opsporen, verzamelen en bewaren van Oude Drukken’, en Voetius betoogt erin dat het belang van het verzamelen van oude drukken en het doen van kritisch onderzoek naar de verschillen tussen drukken is gegroeid. Daarbij gaat het niet alleen om theologische en kerkhistorische, maar ook politieke, juridische en letterkundige werken. Ze moeten worden onderzocht om de gevolgen in kaart te kunnen brengen van de besluiten die tijdens het concilie van Trente (1545-1563) zijn genomen over de censuur op, en het verbod van, tal van geschriften.1 Voetius geeft drie redenen voor het belang van drukvergelijking:
1. Omdat daarmee de onwetendheid en de blindheid van de geleerden van die tijd, vooral van godgeleerden, glashelder kan worden aangetoond.2
2. Van verscheidene auteurs uit de oudheid, de middeleeuwen en de nieuwe tijd zijn indertijd onder het pausdom, toen men nog geen tegenstanders had of men althans niet beducht voor hen was, op basis van handschriften vollediger en betrouwbaarder edities verzorgd dan na de hervorming gebeurde.3
3. De aanhangers van de reformatie, die in het verleden gebukt gingen onder een overvloed aan allereerste en andere zeer vroege drukken, hebben er nu een tekort aan. Uit onnadenkendheid hadden onze medestanders er immers een afkeer van, aangetrokken als ze werden door fraaiere uitgaven en sierlijker letters.
G. Voetius, Over de noodzaak van het opsporen, verzamelen en bewaren van Oude Drukken (vertaald door J. van Heel) (Amstelveen 2007), 5. 1
2
Voetius, Oude Drukken, 7.
3
Ibidem, 9.
8
Tegelijkertijd koersten onze paapse tegenstanders, voor zover het in hun vermogen lag, aan op vernietiging ervan. Want op die manier konden ze later het bestaan van allerlei uitspraken, feiten, geschriften en uitgaven ontkennen en onze geleerden uit de beginperiode van de hervorming, die aan die boeken talrijke argumenten ontleenden voor de noodzaak van de hervorming, veroordelen wegens leugenachtigheid en laster.4
4
Voetius, Oude Drukken, 9.
9
Inleiding: Op zoek naar kaders
Hoewel het beslechten van theologische disputen slechts een weinig voorname reden zal zijn om moderne editiewetenschap te bedrijven, merkt eenieder die hoogleraar Voetius’ pleidooi voor het kritisch beschouwen van teksten leest dat het weinig aan relevantie heeft ingeboet. Het gaat er zowel Voetius als de moderne editeur om tekstvarianten in kaart te brengen, en, afhankelijk van het editietype, die nader te inspecteren of te elimineren. Voetius en, zeg, de bezorger van de verzamelde werken van Willem Frederik Hermans hebben dus een vergelijkbaar doel. Maar hun middelen om tekstedities en editieonderzoek vervolgens aan een (groot) publiek te presenteren, verschillen wel degelijk. Voetius zegt daarover dat de oude drukken beschikbaar moeten zijn op de planken van openbare bibliotheken, zodat wie wil, zelf kan vergelijken. Dat is nu niet meer nodig. Digitale toepassingen maken het mogelijk dag en nacht alle varianten, stemmata en betrouwbare leestekst van drukken van bijna alle werken uit de wereldbibliotheek via het scherm te presenteren. Uiteraard houdt dat niet in dat er geen edities meer op papier verschijnen, of dat van de hele wereldbibliotheek digitale edities beschikbaar (zouden moeten) zijn. Ook betekent de representatie van de tekst via een nieuw medium niet dat er veel hoeft te veranderen in de manier waarop de tekst wordt aangeboden aan de lezer. Sterker nog: wie wel eens een (wetenschappelijke) digitale editie heeft bekeken via bijvoorbeeld een website, zal zijn opgevallen dat de presentatie van de tekst dikwijls veel weg heeft van die in een boek uit Voetius’ tijd. Het is de vraag hoe de digitaleeditiewetenschap als discipline is ontwikkeld, en welke opvattingen er bestaan en hebben bestaan over het wetenschappelijk verantwoord presenteren van teksten. Die vraag is bovenal interessant omdat ze aansluit bij actuele discussies die binnen de editiewetenschap spelen. Marilyn Deegan en Kathryn Sutherland bijvoorbeeld benoemen die discussies in de inleiding bij de bundel Text Editing, Print and the Digital World. Waar kritische edities van oudsher de eisen en beperkingen van papier en druktechniek zijn gevolgd mag met het voortschrijden van de informatietechniek worden verondersteld dat toekomstige edities steeds vaker (of misschien wel
10
allemaal) digitaal tot stand komen en worden gepresenteerd, zo stellen de samenstellers van de bundel.5 Dat schept nieuwe uitdagingen en verwachtingen. Wat is de oplossing van de formule humanities computing + textual scholarship? Voor wie worden, met name historisch-kritische, digitale edities gemaakt? Door editeurs voor editeurs? Of is er een rol weggelegd voor valorisatie binnen de geesteswetenschappen, omdat de editie voor iedereen met een computer beschikbaar zou kunnen worden? Welke is daarbij dan het beoogd publiek? Immers lijken nu alle technische beperkingen om een betrouwbare en verrijkte tekst via een beeldscherm te tonen te zijn weggenomen. Is dat ook zo? En wat heeft dat vooralsnog voor de digitale teksteditie betekent? Om in de buurt van antwoorden op deze vragen te komen is het allereerst belangrijk om duidelijk te stellen wat hier onder tekstedities en digitale edities wordt verstaan. Voor de wetenschappelijke editie, de scholarly edition in het Engels, wordt een definitie van Hans Walter Gabler gevolgd:
A scholarly edition is the presentation of a text – literary, historical, philosophical, juridical – or of a work (mainly, a work of literature) in its often enough several texts, through the agency of an editor in lieu of the author of the text, or work. We see the editor as ‘agency’, functionary and guardian of the lifeline between work (or text) and author.6
De definitie van digitale-editiewetenschapper Patrick Sähle breidt de definitie van Gabler uit voor het digitale veld:
Digital scholarly editions are not just scholarly editions in digital media. I distinguish between digital and digitized. A digitized print edition is not a ‘digital edition’ in the strict sense used here. A digital edition cannot be printed without a loss of information and/or functionality. The digital edition is guided by a different paradigm. If the paradigm of an edition is limited to the two-dimensional space of
M. Deegan en K. Sutherland, ‘Introduction’, in: M. Deegan en K. Sutherland red., Text Editing, Print and the Digital World (Surrey 2009) 1. 5
6
H.W. Gabler, ‘Theorizing the Digital Scholarly Edition’, in: Literature Compass 7.2 (2010): 44.
11
the ‘page’ and to typografhic means of information representation, than it’s not a digital edition.7
Deze definities zijn niet uit het niets ontstaan. Ze volgen uit een ontwikkeling.Die ontwikkeling wil ik in deze scriptie onderzoeken, aan de hand van de volgende onderzoeksvraag:
Hoe hangt technische ontwikkeling samen met de ontwikkeling van de digitale wetenschappelijke teksteditie in de periode 1948-2013 en wat heeft die technische ontwikkeling betekend voor de ideeën over het presenteren van digitale teksten?
Om de ontwikkeling in kaart te kunnen brengen is afbakening noodzakelijk. Deze scriptie volgt de volgende periodiserende indeling. De eerste periode van tekstwetenschappelijk onderzoek met de computer heeft karakter van een verkenning van de mogelijkheden die tot de eerste resultaten leidt. Deze periode beslaat de ongeveer twintig jaar tussen 1949 en 1970 en is onderwerp van het eerste hoofdstuk. Hoofdstuk 2 zet deze lijn door en bestrijkt de periode tussen ruwweg 1970 en 2000. Hoofdstuk 3 heeft betrekking op de periode 2000-nu, met de kanttekening dat het verre van volledig is. Dat wil het ook niet zijn. Er wordt onder andere dieper ingegaan op het doelpubliek en op tei, een initiatief van tekstwerkers binnen geesteswetenschap dat een sterk verduurzamende impuls betekende voor de uitwisselbaarheid en standaardisering van digitale tekst(edities). In de conclusie zal op de hoofdvraag worden teruggeblikt.
Zoals in het voorwoord opgemerkt bleek al snel in het vooronderzoek voor deze scriptie dat discussies in de editiewetenschap herhalen, zoals geregeld in de geschiedenis. Deze scriptie heeft dan ook veel weg van een historisch werkstuk. De wijze van literatuurvermelding sluit hierbij aan. Er is zoveel mogelijk geprobeerd de in
Patrick Sahle, ‘Definition of 'Digital Scholarly Edition’,' bekeken op 27 maart 2013, http://www.uni-koeln.de/~ahz26/vlet/vlet-about.html. 7
12
een bepaalde periode geldende opvattingen in kaart te brengen in de denkwereld en woorden van de onderzoekers die zich op dat moment met edities bezighouden. Met deze aanpak wordt achteraf redeneren zoveel mogelijk omzeild – hoewel dat streven misschien ook ijdel is. Op deze manier is het hopelijk wel mogelijk enige ontwikkeling in de theorievorming te schetsen – in hoe het vakgebied van de wetenschappelijke editie is ontwikkeld. De lezer wordt geacht daarbij enigszins bekend te zijn met gangbare termen, zoals bijvoorbeeld via de zogeheten ‘Grijze Bijbel’, het handboek editiewetenschap Naar de Letter8 geschreven door Marita Mathijsen. Hopelijk neemt de niet-ingevoerde lezer dat mij niet kwalijk. Deze kleine tocht door de wereld van de teksteditie hoopt uiteindelijk bij te dragen aan theorie- en begripvorming rond digitale tekstedities in het algemeen, en tekstverrijking en de door dr. F.R.E. Blom gemunte term augmented textuality (grofweg het verrijken van digitale tekst door er informatie aan toe te voegen) in het bijzonder.
8
M. Mathijsen, Naar de Letter. Handboek editiewetenschap (Amsterdam 2010)
13
Hoofdstuk 1: 1949-1970 Een matrimonium
In 1949 klopt een Italiaanse jezuïetenpriester, Robert Busa, aan bij Thomas J. Watson, oprichter van computerbedrijf ibm. Busa wil Watson verleiden om kennis van ibm in te zetten voor een project waar hij in 1946 aan is begonnen, een concordantie op teksten van Thomas van Aquino en enkele van diens tijdgenoten. Deze index verbatorum beslaat zo’n 11 miljoen woorden in Middellatijn. Busa is ervan overtuigd dat daarin overzicht krijgen alleen kan lukken met het door ibm geperfectioneerde ponskaartensysteem en de krachtige rekenmachines die ermee werken, computers.9 Dit project, dat zal leiden tot het zogeheten Corpus Thomisticum, is het begin van een matrimonium (matrimonium komt in de concordantie 1421 keer voor) tussen geesteswetenschappen en computers, een discipline die naam maakt als humanities computing of digital humanities. De discipline ontwikkelt in zo’n zestig jaar stormachtig. In 2010, als Robert Busa 96 is, levert Google met de Ngram Viewer een concordantie met een monstercorpus van vele honderdduizenden boeken uit het Engelse taalgebied sinds 1800. Ook corpora Hebreeuws, Italiaans, Russisch en nog enkele andere talen zijn beschikbaar. Het is meteen een hulpmiddel om enigszins inzichtelijk te maken hoezeer het doen aan, en discussiëren en schrijven over, digitale geesteswetenschap in de afgelopen decennia op meer en meer aandacht kan rekenen, want in de Ngram Viewer zoeken op ‘humanities computing’ en ‘digital humanities’ levert de volgende grafiek:
S. Hockey, ‘The History of Humanities Computing’ in: S. Schreibman, R. Siemens en J. Unsworth red., A Companion to Digital Humanities (Oxford 2004) 4. 9
14
Hoewel Busa mag worden gezien als een wegbereider van de discipline duurt het tot 1974 voordat de eerste vrucht van zijn inspanningen wordt geplukt, als het eerste deel van het Corpus Thomisticum na ongeveer een miljoen manuren in boekvorm verschijnt.10 Elders hebben programmeurs niet stilgezeten. In 1961 zingt een ibm 704computer zelfstandig het liedje ‘Daisy Bell’, om de mogelijkheden van een pas ontwikkeld spraakprogramma aan te tonen. Het zijn de klanken van een veelbelovende toekomst. En ook in de geesteswetenschappen worden ze gehoord.
1.1 1950-1970: The next step In navolging van Robert Busa en zijn concordantie gaan wetenschappers met elkaar in gesprek over de mogelijkheden. Computers worden in de jaren vijftig en begin jaren zestig ingezet bij het maken en publiceren van concordanties en het aanleggen van archieven. Computers and the Humanities, een journal dat verschijnt vanaf 1966, maakt de toepassingen voor computergebruik in de humaniora wijder bekend en erkend. ‘Number one’ telt 16 pagina’s, Louis T. Milic schrijft erin over ‘The Next Step’. Hij vergelijkt in zijn artikel computergebruik in de geesteswetenschappen met andere doorbraken in gedrukte en visuele media. Was film in het beginstadium immers niet meer dan een handmatig gefotografeerd toneelstuk, en leken de eerste gedrukte boeken niet sprekend op handgekopieerde codices? Milic’ betoog wil aantonen dat wat nieuw is dikwijls lijkt op wat al bekend is. Ook pioniers turen door het denkraam van hun voorgangers, al is het maar om zich af te zetten. Niemand die de ‘mystique of technology’ heeft bestudeerd, schrijft Milic, zal dat ontkennen. Maar nu computerhulp ‘gedichtenconcordanties van de persen [doet] rollen, [en ermee] grote collatieprojecten en variantenedities van een ongelofelijke complexiteit worden gerealiseerd’, en daarop enkele onvermijdelijke wetenschappelijke congressen en publicaties zijn gevolgd, is het voor Milic tijd om over de schaduw van het bekende heen te stappen. Daarvoor blijkt eens te meer ruimte: zelfs de meest conservatieve krachten binnen de al als conservatief bekend staande geesteswetenschap, de woordenboekenmakers, grijpen naar machines. De oprichting van Computers and the 10
Hockey, ‘History’, 4.
15
Humanities moet een eerste stap zijn in het proces van het perfectioneren van reeds bekende toepassingen, consolidatie en zoeken naar nieuwe wegen.11
1.2 Data, data, data Pioniers van computergebruik binnen de (geestes)wetenschappen willen vooral zoveel mogelijk data – betrouwbare data – genereren en per project een geschikt systeem voor de verwerking van die data ontwerpen. Waaruit die data kan bestaan verschilt per wetenschappelijke discipline. Het hangt af van de manier waarop onderzoek wordt gedaan, inductief of deductief. Een natuurwetenschapper doet aan inductief onderzoek om zijn conclusies te kunnen trekken en modellen te ontwikkelen. Hij is aangewezen op data verkregen uit falsifieerbare waarnemingen en metingen, statistische en meetkundige gegevens. Voor een geesteswetenschapper, die veel vaker aan deductief onderzoek doet, heeft de term data een andere lading. Wie bestudeert wat een auteur, kunstenaar of groep mensen heeft voortgebracht, een geheel dat cultuur genoemd zou kunnen worden, kan zich minder vaak verschuilen achter algemeen geldende natuurwetten en moet aan interpretatie van zijn data, zijn bronnenmateriaal, doen. Hij heeft een hypothese over het onderwerp dat hij wil onderzoeken, en moet deze hypothese toetsen aan de gegevens die hij heeft verzameld. Afhankelijk van de uitkomst van zijn onderzoek zal hij zijn hypothese aannemen of verwerpen om tot uitspraken te kunnen komen. Dat is altijd een subjectieve bezigheid. Hoewel Karl Popper heeft aangetoond dat deductieve methoden en wetenschap uitstekend verzoenbaar zijn, wenden geesteswetenschappers zich uit angst om voor onwetenschappelijk te worden uitgemaakt dikwijls tot inductieve methoden om data te kunnen beoordelen. Zoals in het gebruik van algoritmes bij stijlonderzoek naar (literaire) teksten om de rationale achter syntactische keuzes door een auteur bloot te kunnen leggen, een methode die min of meer controleerbaar en reproduceerbaar is.12
11
L.T. Milic, ‘The Next Step’, Computers and the Humanities 1.1 (1966) 3.
B. Salemans, ‘The remarkable struggle of textual criticism and text-genealogy to become truly scientific’ in: W. van Peursen, E.D. Thoutenhoofd en A. van der Weel red., Text Comparison and Digital Creativity (Leiden 2010) 113-114. 12
16
1.3 De bibliotheek als laboratorium De afdeling die zich vooraleerst bezighoudt met tekst, de afdeling die het hoofdonderwerp van deze scriptie is, kan de zoektocht naar wat data mag heten snel afronden. Hier is de bibliotheek het laboratorium. Inspanningen van de (eerste) computergeesteswetenschappers zijn gericht op het invoeren van zo groot mogelijke hoeveelheden tekst: letters, woorden en zinnen. Bij de verwerking daarvan is het nut van computers immers ook het meest direct merkbaar: deze tovermachines kunnen orde scheppen in een woordenkluwen waarin wie met de hand naspeurt al gauw de weg kwijt rijkt. De bijzondere aandacht voor tekst in de prille digitalegeesteswetenschap van de jaren zestig en zeventig is bovendien deels ingegeven door de technische beperkingen: computers kunnen alleen nog werken met invoer die bestaat uit tekst of nummers.13 Hoe de woordenkluwen eruit zien wordt duidelijk in lijsten van lopende onderzoeksprojecten die in elke uitgave van Computers and the Humanities zijn opgenomen. Ze verraden de interessegebieden van de eerste computergeesteswetenschappers. Aan het Georgia Institute of Technology in Atalanta wordt in 1971 bijvoorbeeld gewerkt aan een concordantie op de gedichten van Samuel Johnson, gebaseerd op de Clarendon-editie en de varianten in de Yale-editie. Het gaat om een alfabetische lijst van woorden die door Johnson zijn gebruikt (Engels, Grieks en Latijn), de titel van het gedicht en een paginanummer.14 Ook wordt vergelijkend stilistisch onderzoek gedaan, bijvoorbeeld tussen sonnetten van Gerard Manley Hopkins en Dylan Thomas en nog enkele andere eind-negentiende-eeuwse dichters. De onderzoekers hebben dertig variabelen onderscheiden (zoals het zinstype en soort bepaling dat wordt gebruikt, of het voorkomen van alliteratie). De variabelen worden in tabellen ondergebracht en door de computer geteld en geanalyseerd.15 Een ander onderzoek toetst het gebruik van ‘hebben’ en ‘zijn’ als hulpwerkwoorden in het Noors. Uit krantenteksten en romans worden alle situaties waarin een van de twee als hulpwerkwoord voorkomen geturfd, en bekeken bij welk hoofdwerkwoord ze worden 13
Hockey, ‘History’, 5.
14 Ontleend 15
aan een lijst van lopende onderzoeksprojecten in Computers and the Humanities 5.5 (1971) 306.
Lijst in CatH 5.5,306.
17
gebruikt, om tot een vergelijking tussen verschillende teksttypen en hulpwerkwoordhoofdwerkwoordcombinaties te kunnen komen.16 Het invoeren van de tekstdata gebeurt op computers met exotieke namen als AN/ FSQ-32V, UNIVAC 1108, IBM 360/50 of CDC 6000 in programmeertalen als FORTRON, COBOL en FAP. De corpora aan gecodeerde tekst worden geplaatst op ponskaarten en later papierstrips. Dat is een complicerende factor. Omdat instituten diverse computersystemen en programmeertalen gebruiken, en deze onderling geen data en programma’s met elkaar kunnen uitwisselen, is het niet eenvoudig een duurzame infrastructuur op te zetten. Er wordt niet gestreefd naar ‘achterwaartse compatibiliteit’ – nieuwe systemen ondersteunen niet per definitie hun voorgangers. Een duurzame infrastructuur is dan ook nog niet de belangrijkste prioriteit. Die ligt, Busa’s gepionier indachtig, bij een verkenning van de mogelijkheden.17 Voor de editiewetenschap lijkt de zoektocht naar varianten het eerste gebied waarop onderzoekers zich storten.18 Ze schrijven programma’s die teksten kunnen vergelijken en verschillen kunnen opsporen. Inzicht in de werking van dergelijke programma’s vraagt een kijk in de machinekamer van de eerste computers – principes waarop ook de huidige generatie computersystemen overigens op zijn gebaseerd. Een computerprogramma is in feite een sterk geformatteerd rekenschema, waarin gegevens stap voor stap worden verwerkt en uitkomsten volgens een vooraf geprogrammeerd stramien worden gepresenteerd. Zoals opgemerkt kunnen computers alleen functioneren met invoer, data. De invoer bepaalt de uitkomst en dat verklaart mogelijkheden en onmogelijkheden.
1.4 Het systeem Data kan worden onderverdeeld in analoog en digitaal. Digitale data is absoluut en ondeelbaar, en kan keer op keer worden gekopieerd zonder dat er iets aan verandert. Analoge data kan niet exact worden gereproduceerd, en is variabel. Vergelijk een stuk tekst en een schilderij. Het alfabet kan worden gezien als een digitaal systeem. De 16
Lijst in CatH 5.5, 305.
17
Ontleend aan een lijst met lopende projecten in CatH 7.3 (1973) 182-187.
18
CatH 5.4 (1971) 193.
18
tekst is opgebouwd uit letters. In welke tekst of lettertype het karakter ‘a’ ook wordt gebruikt, steeds wordt er dezelfde letter mee bedoeld, zelfs als een tekst wordt overgeschreven in een handschrift. Als een meestervervalser een schilderij wil reproduceren, zal hij het origineel alleen benaderen. De receptuur van de gebruikte verf kan verschillen, het origineel kan gehangen hebben op een plek waar er direct zonlicht op viel of in een kamer waar stevig werd gerookt. Een Chinese meestervervalser betreedt een analoge arena – hoezeer zijn werk ook niet van het origineel is te onderscheiden. Alle data die in een computer wordt ingevoerd, wordt digitaal. Het betekent dat een kopie die van de dataset wordt gemaakt, in de ideale situatie, identiek is aan het origineel. Dat is dan ook een basisregel om met digitale data te kunnen werken, want om data te verwerken, kopieert een computer gegevens keer op keer. Alle inspanningen die een computer levert, zijn er, zonder dat een gebruiker het opmerkt, op gericht aan die wet te kunnen voldoen. In het populair taalgebruik is het gangbaar alles analoog te noemen wat een tegenhanger is van een digitaal systeem. Maar dat is een onzinnig onderscheid. De beelden, geluiden en geuren die we waarnemen zijn eigenlijk geen van beide. Ze zijn pas analoog of digitaal als ze tot data worden gemaakt. Ze hebben slechts een betekenis in het systeem waarin ze functioneren.19 Het idee dat tekst een digitaal systeem is, is wijdverbreid. We gaan er immers vanuit dat de tekst in verschillende exemplaren van een boek uit dezelfde drukgang gelijk is. In elke weergave van de tekst staan de variabelen, de letters uit het alfabet, vast. Waar dat afwijkt is er sprake van een curiosum dat bibliofielen maar al te graag willen vasthouden. De drager van de tekst, een boek, kan dan weer worden gezien als een analoog systeem. In de handen en de bibliotheek van twee verschillende eigenaren toont zich een verschil in gebruik. De lezer maakt aantekeningen, onderstrepingen, en scheurt misschien de pagina’s waar hij het niet mee eens is eruit. Hij morst er koffie of thee over. Er ontstaat een provenance. Die zegt zowel iets over de tekst, als over de lezer, namelijk waar hij het wel of niet mee eens is en of hij koffie of thee drinkt.
Lavagnino, ‘Digital and Analog texts’ in: S. Schreibman en R. Siemens red., A Companion to Digital Literary Studies (Oxford 2008) 402-405. 19 J.
19
Voor wie naar eenvoud streeft lijkt dit een waterdicht systeem, maar op dit onderscheid is wel wat aan te merken. Een editeur kan eenvoudig bewijzen dat geen enkele druk van een boek identiek is. Juist door deze analoge verschillen die een boek of tekst aankleven zal een boek- of tekstwetenschapper een manuscript of gedrukt exemplaar van een boek zelf door zijn vingers willen laten glijden. Het komt op zijn beoordelingsvermogen aan om de analoge verschillen op waarde te schatten. Vooral in de overgang van analoog naar digitaal en terug treden mutaties op. Wanneer een boekwetenschapper de provenance omschrijft in woorden is hij bezig een waarneming die hij doet in een analoog systeem over te zetten naar een digitaal systeem. Bij zo’n overgang gaan altijd gegevens verloren. In nuance, omdat een wetenschapper, in de woorden die hij voor zijn beschrijving kiest alleen zijn waarneming kan benaderen, hoe rijk het pallet dat hij tot zijn beschikking heeft ook is, zoals de Chinese kopiist daar bij het naschilderen van een Vermeer ook tegenaan loopt. En in kwaliteit, omdat, hoezeer hij ook naar perfectie streeft, een wetenschapper met zijn waarnemingen nooit de werkelijkheid zal kunnen beschrijven. Als hij wel beweert dat de werkelijkheid kenbaar is, mag hij zich afvragen of hij wetenschap bedrijft. Hij komt slechts tot een ordening van gegevens, en die ordening komt tot stand op basis van selectie. Een selectie waarvoor hij zich weliswaar wetenschappelijk verantwoordt, maar in het proces van selecteren (door in een provenancebeschrijving bijvoorbeeld wel een onderstreping op te nemen en niet een koffievlek) gaan onherroepelijk gegevens verloren. Vanwege het digitale karakter functioneert tekst daarom veel beter in een computersysteem dan beeld. Tekst is eenvoudig te doorzoeken. De computer hoeft daarbij niet op betekenis te letten, maar kan slechts afgaan op een vooraf omschreven reeks aan lettervormen. Bij digitaal beeld is dit ingewikkelder. Het is lastig beeld te ontleden in onderdelen die te doorzoeken zijn. Bovendien is digitale tekst eenvoudiger te manipuleren. Een hulpmiddel als een geavanceerde spellingscorrector is in staat om de context waarin een woord wordt gebruikt te herkennen, en advies uit te brengen over zinsbouw, interpunctie en woordkeuze. Wie op de computer een beeld wil bewerken moet het in Photoshop handmatig te lijf gaan door het zelf onder te verdelen in verschillende lagen. De computer kan de opbouw van het beeld wel
20
herkennen, maar wat hij precies ziet, dat weet hij niet. Tot enkele jaren geleden althans. Facebook herkent nu bijvoorbeeld zonder problemen gezichten in foto’s die eraan worden toegevoegd. Aan de software die dat mogelijk maakt is geleerd uit welke onderdelen een menselijk gezicht is opgebouwd. De computer ‘denkt en ziet zelf ’.
1.5 Verder verkennen Zover is het eind jaren zestig van de twintigste eeuw, of de jaren twintig in het tijdperk van de computer, nog lang niet. Op dat moment gebeuren de spannendste dingen in de wetenschappelijke hoek en tekstregel voor regel. Benedictijn Jacques Froger beschrijft bijvoorbeeld een methode om tekstvarianten te lokaliseren in het boek La Critique des textes et son automatisation20 . Het systeem van Froger werkt als volgt: hij laat veertien regels tekst op ponskaartjes overzetten. De computer leest de kaartjes in, en wijst nummers toe aan 1) elk afzonderlijk woord en 2) elke spatie tussen woorden. De onderzoeker moet zelf aangeven welk ponskaartje de basistekst bevat en welke de mogelijke varianten. De computer vergelijkt alle woorden vanaf het begin, één voor één, tot hij een verschil opmerkt. Daarop worden grotere tekstdelen vergeleken, bijvoorbeeld drie woorden tegelijk, of vijf, of zelfs vijfentwintig, tot het punt waarop beide teksten weer overeen komen. De varianten die in het tussenliggende deel zijn opgespoord, worden in het computergeheugen geschreven, en de teksten worden weer vergeleken vanaf het punt dat de nieuwe overeenkomst zich voordoet. Als de vergelijking is voltooid wordt een overzicht geprint, met daarop de variant, de unieke code van de tekst waarin hij is gevonden, en een code die aangeeft of het een toevoeging, een verwijdering of een verwisseling van woorden betreft. De nummers die in de voorbereidingsfase zijn toegewezen aan de afzonderlijke woorden geven aan op welke plek de variant is gevonden. Dat heeft een nadeel: bij een tekst van enige omvang is het lastig woord bij nummer te zoeken, zeker omdat ook de spaties meegeteld worden en woord 900 dus niet nummer 900 maar een veel hoger nummer heeft.
de geïnteresseerden: de methode is uitgebreid uiteengezet in J. Froger, La critique des textes et son automatisation VII (Parijs 1968). 20 Voor
21
Het systeem van Froger is in de eerste plaats ontwikkeld voor poëzie. Het gaat er namelijk vanuit dat een regel uit de basistekst correspondeert met de regelnummers in de andere edities uit het stemma. De computer is er kortom niet op toegerust varianten los te zien van de regels waarin ze staan. Waar overeenkomstige tekstdelen in beide teksten niet op dezelfde regel staan raakt het zoeksysteem doorgaans in de war. Ook de methode van Vinton Dearing, die hij beschrijft in het tijdschrift Art and Error21 , werkt het best bij poëzie, alhoewel hij opmerkt dat ze in experimenten ook op proza wordt toegepast. Daarbij is een complicerende factor dat hoe groter de hoeveelheid spellingsvarianten is, hoe onoverzichtelijker de presentatie van de spellingsvarianten wordt. De varianten doen zich vooral voor bij middeleeuwse teksten, een periode in de letterkunde waarin van iets wat lijkt op gestandaardiseerde spelling nog geen sprake is. Dearing gebruikt eerst een eenvoudig programma dat eigenlijk bedoeld is voor op opsporen van foutjes die bij het ponsen op de kaartjes worden gemaakt, door ze een op een te kopiëren. (Zo’n controleprogramma is belangrijk, omdat de data op de ponskaartjes met de hand zijn ingevoerd.) Het is op het principe gebaseerd dat de teksttekens identiek moeten zijn om een kopie te maken, zoals een peuter in een blokkendoos alleen het blokje in de vorm van een vierkant door een vierkant gat kan duwen. Bij een fout, als op het ene kaartje een ‘i’ staat en op de andere een ‘o’ – als een rondje dus door een vierkantje geperst wordt – geeft het programma een melding. Het schrijft een notitie in het computergeheugen en maakt een uitdraai van alle posities waarop de tekens niet overeen komen. Op die positie kan de ponser de fout herstellen. Een variantenspeurder gebruikt het programma op een andere manier dan een ponser. Die laat zijn basistekst regel voor regel vergelijken met de tekst die varianten zou kunnen bevatten. Vergelijken kan voor vijftig tekstregels tegelijk. De machine leest ze regel per regel uit van links naar rechts. Bij een gevonden verschil zoekt het systeem tien regels vooruit en terug, tot een overeenkomende regel gevonden is. (Dat is uiteraard denkbaar als er tussen verschillende uitgaven tekstdelen zijn weggevallen
V.A. Dearing, ‘Computer Aids to Editing the Text of Dryden’ in: S. Bennett en R. Gottesman red., Art and Error. Modem Textual Editing (Bloomington 1970) 254-278. 21
22
of bewust niet zijn opgenomen.) De computer schrijft in zo’n geval een aantekening in het geheugen dat de regelnummers niet overeenkomen. Als er geen overeenkomst wordt gevonden, noteert de computer een toevoeging of verwijdering. De eindresultaten worden gepresenteerd aan de hand van de regels van de basistekst die zijn ingevoerd. Bij een gevonden overeenkomst die identiek is aan de basistekst worden regelnummer en betreffende tekst vermeld. De onderzoeker kan zo in een oogopslag zien dat er geen verschillen zijn. Bij een overeenkomst met varianten wordt alleen de variant in de eerste tekst waarin deze zich voordoet volledig uitgeschreven gevolgd door identificatienummers van de overige teksten waarin de variant is aangetroffen, zodat de gebruiker ze er zelf bij kan zoeken. Bij een omissie worden nummers gegeven van de teksten waarin een regel niet is aangetroffen, bij een toevoeging wordt de eerste tekst die de nieuwe regel heeft, opgenomen als ware het de basistekst, met daaronder eventuele nieuwe varianten hierop. Hetzelfde programma wordt vervolgens toegepast op alle volgende regels die vergelijking behoeven, die weer zijn genoteerd op nieuwe ponskaartjes. Wie het voor elkaar krijgt de stappen uit bovenstaande beschrijving te volgen, zal begrijpen dat de print door de computer lastig te interpreteren is, omdat de resultaten door onoverzichtelijkheid lastig te ‘lezen’ zijn, zeker bij veel spellingsvarianten. R.L. Widmann laat in het paper ‘The Computer in Historical Collation’22 een manier zien om de resultaten eleganter, en overzichtelijker, te presenteren. In zijn methode worden slechts de regel uit de basistekst met daaronder nummer van de vergelijkingstekst en de daarin aanwezige variant voluit geschreven. Alhoewel de interpretatie dus sneller kan gebeuren, levert de verzameling, verwerking en analyse van de gegevens nauwelijks tijdswinst op ten opzichte van traditionele, computerloze methoden om collaties te maken. Bovendien zijn de beschreven computermethoden, zoals opgemerkt, weinig geschikt voor proza. Dat laatste probleem, de computer die de weg kwijt raakt als varianten in een ander regelnummer staan, wordt ondervangen door een methode ontwikkeld door George Petty en William Gibson voor Project occult. In deze methode worden teksten R.L. Widmann, ‘The Consumer in Historical Collation: Use of the IBM 360/75 in Collating Multiple Editions of A Midsummer Night’s Dream’ in R.A. Wisbey ed., The Computer in Literary and Linguistic Research (Cambridge 1971) 57-63. 22
23
vergeleken in blokken van twaalf woorden, om te berekenen in hoeverre de lettertekens van mogelijke tekstvarianten procentueel overeenkomen. Als er geen volledige overeenkomst is, zoekt het systeem driehonderd woorden vooruit en terug tot het twee honderd procent vergelijkbare blokken van twaalf woorden heeft aangetroffen. De tussenliggende woorden ziet het systeem als varianten. Nadat de identieke woorden zijn gevonden begint het programma op die plek opnieuw. Het systeem kan slechts twee versies van eenzelfde tekst vergelijken. Resultaten worden in twee kolommen gepresenteerd: in de linker de woorden uit de basistekst die een variant hebben in de tekst waarmee wordt vergeleken, en in de rechter de betreffende variant. Wel is de computertaal die wordt gebruikt, snobol, vermaard vanwege de verwerkingssnelheid, of de traagheid daarvan. Een vergelijking van een tekst van 81 pagina’s duurt twee uur en zesentwintig minuten. Daarbij moet niet vergeten worden dat slechts twee teksten tegelijk vergeleken kunnen worden. Bij deze methode is voor variantenonderzoek naar een enkele regel uit een veertiende-eeuwse Franse vertaling van De Proprietatis Rerum van Bartholomaeus Anglicus, bij een print op standaard computerpapier, bovendien een bureau nodig van 9 meter lang. (Van het boek zijn vijfentwintig manuscripten bekend.) Een onderzoeker zou ze met de hand moeten noteren onder de basistekst. Het zou, na het overzetten van de tekst op de ponskaartjes, een tweede moment van transcriptie opleveren. Vanwege het grote risico op transcriptiefouten kan worden aangenomen dat bij een van corrupties gezuiverde tekst die op dit computeronderzoek zou worden gebaseerd een lijst van twintigste-eeuwse varianten moet worden geleverd.
24
Hoofdstuk 2 1970-2000 Consolideren
Hoeveel haken en ogen er ook aan zitten, de in het vorige hoofdstuk beschreven methoden bepalen het denkraam voor de eerste generaties digitaleeditiewetenschappers. Zij willen rekenkracht inzetten om grotere hoeveelheden data te kunnen doorzoeken en verwerken dan zij konden voor de landing van computer op planeet aarde. Digitale geesteswetenschap in de jaren zeventig en tachtig borduurt daarop voort en wordt dan ook vooral gekenmerkt door de term ‘consolidatie’ in een steeds comfortabeler werkomgeving.
2.1 Innovatie en duurzaamheid Hardware-innovaties en groter gebruiksgemak bieden daarvoor de eerste voorwaarde. De wijze van dataopslag verandert: waar dat tot midden jaren zeventig gebeurt op ponskaartjes of lange ponslinten, komt er een ‘harde schijf ’ voor in de plaats. Bestanden kunnen nu kriskrasgewijs worden doorzocht, en niet langer in de volgorde waarop ze in zijn gevoerd. En ook de mogelijkheden om die hardware te gebruiken nemen toe. Universiteiten roepen centra voor humanities computing in het leven, en er worden lesprogramma’s in de nieuwe discipline ontworpen en door studenten gevolgd. Er gaan binnen de humaniora zelfs stemmen op om het vak Latijn te vervangen voor programmeren.23 De taal van het verleden als slachtoffer van de taal van de toekomst. Dat optimisme wordt getemd door de homo conservativus, en hij is met velen, die programmeren afdoet als te ingewikkeld voor studenten en te ver verwijderd van de kernvaardigheden van de geesteswetenschapper.24 Een tweede consoliderende voorwaarde bestaat uit inspanningen om programmatuur en gedigitaliseerde teksten breder toegankelijk te maken. Hoewel
In die zin was het nieuwsbericht d.d. 29-01-2013 van satirisch magazine De Speld helemaal niet zo vreemd, of in elk geval historisch aan waarheid te koppelen. Erin werd een suggestie gedaan om in het gymnasiumonderwijs Latijn te vervangen door internetprogrammeertaal HTML. Zie: http://www.speld.nl/ 2013/01/29/titlevossius-gymnasium-html-in-plaats-van-latijn-title/. Dat bericht heeft een directe aanleiding: verschillende (Amerikaanse) computergoeroes hebben zich in 2013 rond het initiatief code.org verenigd, om ervoor te ijveren dat alle leerlingen in de Verenigde Staten leren programmeren, als een onmisbare basisvaardigheid voor de toekomst. 23
24
Hockey, ‘History’, 9.
25
vakgenoten elkaar op de hoogte proberen te houden van hun vorderingen na de experimentele jaren zestig en begin jaren zeventig, neemt het risico op dubbel werk toe. Dat er zoveel verschillende systemen en programmatuur gebruikt worden begint nu echt tegen te werken. Instellingen stellen daarom onder eigen verantwoordelijkheid geproduceerde programma’s die hun nut bewezen hebben beschikbaar in pakketten, waardoor het voor een wetenschapper in Helsinki niet langer nodig is om op maat een programma te schrijven dat in Dallas al is opgelost. Dat drukt de ontwikkelingskosten en zo kan meer aandacht uitgaan naar de kwaliteit en beschikbaarheid van data: het duurzaam omzetten van analoge tekst naar digitaal. Het Oxford Text Archive (ota) is een van de eerste daarop gerichte initiatieven. Het poogt data die reeds in Oxford is ingevoerd te beschrijven, en bepalingen te formuleren over de opslag en copyright op digitale tekst, zodat eenmaal verwerkte teksten ook later gebruikt kunnen worden door onderzoekers die met een andere onderzoeksvraag aan de slag willen met het materiaal. Het ota kan worden beschouwd als een eerste aanzet tot een digitale bibliotheek, hoewel niemand het bij oprichting door Lou Burnard in 1976 als zodanig ziet. Het weet de infrastructuur te creëren, maar een structurele poging deelbibliotheken te ontginnen wordt het niet. In de eerste zeventien jaar van zijn bestaan worden per jaar gemiddeld honderd teksten toegevoegd; in maart 1993 is de Aeneis van Vergilius nummer 1758. In de daaropvolgende tien jaar komen daar in de berekening van Peter Robinson 711 teksten bij, gemiddeld dus zeventig per jaar. Op dat moment zijn in de voorliggende vijftien maanden echter slechts 16 teksten toegevoegd.25 Weer tien jaar later, in 2013, is ota volledig tot stilstand gekomen. Het staat op de digitale snelweg geparkeerd, en zal daar nog wel even blijven staan, als een voorbeeld van de vergankelijkheid die ook veel digitale projecten opslokt. Met zijn gedateerde vormgeving is het een venster op vergane tijden, tijden met beperkter technische mogelijkheden, een andere esthetische agenda en andere opvattingen over gebruiksgemak. Maar hoezeer ze van alle kanten ook zijn voorbijgestreefd, digitale bibliotheken als het ota vormen wel de basis waarop de projecten die momenteel
P. Robinson, ‘Where we are with scholarly editions, and where we want to be’, Jahrbuch für Computerphilologie (2004) 128. 25
26
worden gerealiseerd kunnen rusten, zoals dat ook weerklinkt in het motto van het wetenschappelijke onderdeel van zoekmachine Google: het ‘staan op de schouders van reuzen’. Een initiatief als de Thesaurus Linguae Graecae van de Universiteit van Californië slaagt er wel in om als een Ouroborosfiguur een afgeronde bibliotheek te vormen, middels een database van 70 miljoen woorden aan klassieke Griekse teksten, van Homerus tot 600 v.Chr. Het Packard Human Institute voegt er nog een collectie van klassieke teksten in Latijn aan toe.26
2.2 De computer naar je toe Deze en andere gedigitaliseerde teksten worden onder andere gebruikt om wetenschappelijk gefundeerde edities op te baseren. Midden jaren tachtig is de gangbare methode om na handmatige collatie één manuscript te kiezen dat wordt omgezet tot digitale tekst. Op basis van de digitale tekst wordt een concordantie gemaakt. De editeur kan de concordantie gebruiken om spelling te standaardiseren en eventueel een commentaar en woordenlijst te maken. Met de kennis opgedaan uit de experimenten van eind jaren zestig en begin jaren zeventig worden tekstvergelijksystemen ontwikkeld, die met het voortschrijden van de rekenkracht en overige functies van computers de problemen die de pioniers ondervonden weten te omzeilen. Deze systemen worden vooral ingezet als wordt gekozen een variantenapparaat bij de editie op te nemen.27 Onder andere komt uit deze inspanningen het programma tustep voort, het Tübingen System of Text Processing Tools. Het is voor vele edities gebruikt, zoals de door Hans Walter Gabler in 1984 bezorgde editie van James Joyces Ulysses. In Naar de letter beschrijft Marita Mathijsen de werking van het programma. tustep kan tot zes versies van een werk met elkaar vergelijken via een personal computer, en tot 99 op de krachtige computers zoals ze op universiteiten staan. Het kan stemma’s maken, en collaties en variantenapparaten. Alle tekstversies moeten nog wel handmatig
26
Proud, J. K., The Oxford Text Archive ((1989).
S. Hockey, ‘Creating and Using Electronic Editions’ in: R.J. Finneran, The Literary Text in the Digital Age (Ann Arbor 1996) 3. 27
27
ingevoerd worden in de computer, en die klus blijft even tijdrovend als ze altijd al was, maar het programma biedt vooral voordelen. De uitvoer van het programma kan direct als zetsel dienen voor een papieren uitgave en het is snel. Marita Mathijsen geeft in Naar de letter een benchmark die Wynand-Jan van Poortvliet voor zijn proefschrift maakt. Poortvliet laat een op dat moment veelgebruikt programma een collatie op een gedicht van Karel van de Woestijne maken, en vergelijkt de resultaten met tustep. Het andere programma doet acht uur over de bewerking, tustep vijf minuten. Wel is tustep ingewikkeld. Wie het programma wil leren kan eigenlijk het best terecht op een cursus van drie weken die in Tübingen wordt gegeven. Ook vergelijkingen van aanpassingen in grotere tekstdelen of met een grote afstand tot elkaar blijven voor problemen zorgen, zoals ook de pioniers daar al tegenaan liepen. Bij een wijziging van meer dan 600 tekens geeft het programma niet thuis. Het kan wel aangeven of tekens zijn weggevallen, toegevoegd of veranderd, maar een verandering in woordvolgorde wordt nog steeds niet als zodanig herkend. Ook samenhang tussen varianten wordt niet opgemerkt.28 Maar tustep is wel exponent van een situatie waarin computertoepassing in de editiewetenschap steeds werkbaarder wordt. tustep is een voorbeeld van een programma dat in een vroeg stadium beschikbaar is gemaakt voor de personal computer. De opkomst van de pc, vanaf midden jaren tachtig, betekent een grote slag voor humanities computing in het algemeen en de editiewetenschap in het bijzonder. Een geesteswetenschapper die een computer op zijn bureau heeft staan hoeft niet langer bij het computercentrum van de universiteit in te tekenen om van grote rekenkracht gebruik te kunnen maken. Waar in de beginfase een scala aan computerbouwers om de gunsten van de persoonlijke gebruiker dingen, neemt ibm, en machines van andere fabrikanten die op ibm-architectuur zijn gebaseerd, de markt over. Apple Macintosh is een alternatief systeem dat in de beginperiode van pc tot de grootste van de kleintjes gerekend mag worden. De eerste pc-gebruikers worden niet langer beperkt door de manier van werken die een complexer computersysteem
28
M. Mathijsen, Naar de Letter. Handboek editiewetenschap (Amsterdam 2010) 407-409.
28
vraagt. Ze kunnen zelf aan de slag met het schrijven van nieuwe scripts. Dat werkt dubbel werk in de hand, maar ook innovatie. Bovendien zijn pc’s uitgerust met schermen die in staat zijn om tekst in een redelijke kwaliteit te tonen. Dat speelt een niet te onderschatten rol. De eerste generaties computers hebben geen scherm, daar worden resultaten van onderzoek uitgeprint. Latere systemen worden uitgerust met schermen die teksten zeer beperkt aankunnen. Ze kunnen niet omgaan met teksttekens buiten het standaardalfabet, en het schermformaat staat slechts enkele tekstregels toe. Tekstverwerking is dan ook de voornaamste eerste toepassing, die eind jaren tachtig een eerder sceptische groep geesteswetenschappers overhaalt om de nieuwe generatie ‘beschermde’ computers in te zetten ter vereenvoudiging van hun werk.29 De Apple Macintosh biedt de digitalegeesteswetenschappers enkele voordelen ten opzichte van vergelijkbare systemen, vanwege de goede weergave van nietstandaardkarakters uit bijvoorbeeld het Cyrillisch, Grieks of Oud-Engels. Ook wordt de Macintosh geleverd met een programma, HyperCard, dat eenvoudige verbanden tussen teksten en tekstdelen kan aanbrengen. Het is gemodelleerd naar een kaartenbaksysteem, waarin het mogelijk is koppelingen te maken tussen dataverzamelingen. Zo kan in een tekst met een gedateerd taalgebruik via een muisklik (de muis, nog een innovatie van de Macintosh) de moderne vertaling op het scherm tevoorschijn komen. Het is aan de gebruiker dergelijke toepassingen te bedenken en uit te werken. Het is overigens wel van belang om te beseffen dat de digitale editiemethoden van de jaren tachtig niets meer bieden dan een simulatie van de editie. Het eindproduct wordt immers gepresenteerd volgens de wetten van de papieren pagina.30
2.3 De digitale snelweg op De ontwikkeling van internet eind jaren tachtig en het wereldwijde web begin jaren negentig stelt wetenschappers in staat direct contact met elkaar te zoeken. Netwerken die computers met elkaar verbinden bestaan al vanaf de jaren zestig, vooral voor 29
Hockey, ‘History’, 8-9.
30
Ibidem, 9.
29
militaire en academische toepassingen, en ook in nieuwsgroepen, die vanaf 1979 actief zijn, kunnen mensen met elkaar discussiëren, maar niet eerder dan 1988 vinden de toepassingen die je tot het internet mag rekenen een ander publiek dan de zeer ingevoerde gebruiker. Het web kan uitdijen omdat de pc in zwang raakt. Degenen die zich al lang met humanties computing bezighielden tonen zich sceptisch over de ontwikkeling van het wereldwijde web. Ze vragen zich af of de datakwaliteit gewaarborgd kan blijven, ingegeven door de angst die zij hebben voor de hun ogen krakkemikkige opmaaktaal van websites, html. Het internet mag dan wellicht handig zijn om informatie op te zoeken, maar zou geen serieuze plek mogen krijgen in wetenschappelijk onderzoek. Toch trekt de uitvinding een nieuwe groep geesteswetenschappelijke gebruikers aan: zij zien kansen voor nieuwe publicatiemogelijkheden, niet alleen voor hun wetenschappelijke artikelen, maar ook om hun onderzoeken aan een groter publiek te presenteren. Voor een producent van data zijn de voordelen aantoonbaar. Capaciteit is geen belemmering meer. Internettekst weegt niks en neemt nauwelijks ruimte in, zeker in vergelijking met z’n papieren tegenhanger. Hyperlinks zouden notenapparaten veel toegankelijker kunnen maken, want wie klikt komt meteen terecht bij de achtergrondinformatie die hij zoekt. Tussen het afronden van een publicatie en deze publiceren gaat weinig tijd verloren: het publiek kan er direct kennis van nemen. En waar data niet juist of gedateerd blijken, zijn deze eenvoudig te herstellen of aan te vullen. Ook multimediale verrijking behoort opeens tot de mogelijkheden: tekst kan worden gecombineerd met video, foto en geluid, die de computers-met-scherm ook kunnen tonen.
2.4 Het boek als kerker Het internet kan in de opvatting van de computeroptimisten een mogelijkheid bieden om af te rekenen met de kunstmatige beperkingen van het papieren boek.
30
Boekwetenschapper Adriaan van der Weel vangt die opvatting in het beeld van een boek als kerker, waar een weg uit blijkt:
‘Gekerkerd in een boekband was een schrijfproduct het trieste slachtoffer van een rigide lineariteit en gelijkvormigheid, en gedoemd om tot in lengte der dagen lijdzaam het lot van een eenmaal bepaalde omvang, vorm en structuur te blijven dragen. Door de associatieve werking van de menselijke geest te benaderen, zou bijvoorbeeld hypertekstualiteit zowel voor de schrijver als voor de lezer een bevrijding betekenen uit hun papieren ketenen, en creativiteit en samenwerking stimuleren.’31
Als er een wereld buiten het papieren boek is die de auteur zou kunnen helpen, dan moet wellicht ook de wetenschappelijke hoeder van diens tekst, de editeur, daar gaan kijken. En, via de editeur, de lezer, of die nou een wetenschappelijk of nietwetenschappelijk motief heeft om zich met een tekst in te laten. Binnen de wereld van de wetenschappelijke editie worden in de eerste helft van de jaren negentig dan ook initiatieven genomen voor een nieuw soort editie die gebruikmaakt van digitale mogelijkheden. Het is niet een editietype dat zich in eerste instantie onderscheidt door inhoudelijke keuzes – in de keuze van de basistekst, de garantie van wetenschappelijke gründlichkeit in toelichting of notenapparaat. Ook wijkt het in eerste instantie niet af niet door het doelpubliek en daarbij horende methoden en technieken – in het onderscheid tussen historisch-kritische, studie- of leeseditie. Nee, het is een editietype dat zich van het bekende onderscheid in vorm en presentatie. Het gaat om elektronische edities. In sommige gevallen komen de geïnitieerde editieprojecten ook daadwerkelijk van de grond omdat ze gefinancierd kunnen worden, in andere gevallen blijft het bij voornemens, onderzoeksplannen, mockups en kleine voorproefjes van de mogelijkheden. In alle gevallen is er in editiewetenschappelijke kringen volop discussie over de eisen die aan zo’n elektronische editie zouden moeten worden gesteld. Er worden richtlijnen geformuleerd en handleidingen geschreven over hoe 31
A. van der Weel, Alle boeken die er geschreven zijn. De uitdagingen van het digitale tijdperk (Houten 2007) 11.
31
een digitale elektronische editie samen te stellen, zoals door Peter Robinson in The Digitization of Primary Textual Sources (1993) en een jaar later in The Transcription of Primary Textual Sources Using SGML, van een gezelschap dat zich verenigt rond het Text Encoding Initiative32. Debatten gaan over de vraag hoe het coderen – het omzetten van analoge tekst naar een digitaal schema – van elektronische tekst zich verhoudt tot kritisch editeren, of het in wezen niet op dezelfde vaardigheden aankomt. Zoals John Lavagnino in zijn standaardartikel Completeness and Adequacy in Text Encoding aantoont kun je ze niet los van elkaar zien. Codeurs gaan ervan uit dat de digitekst moet voldoen aan ‘completeness’: de elektronische tekst moet de papieren tekst exact reproduceren. Dat doet denken aan de ‘definitiveness’ waar editeurs naar streven: de definitieve editie van een werk moet de tekst na tekstgenetisch onderzoek te boek of te scherm stellen als ware het de meest compleet denkbare. Om een elektronische editie te kunnen maken is coderen in elk geval onvermijdelijk.33
2.5 De wetenschappelijke editie als zijn eigen karikatuur De aandacht voor de theoretische gronden en de praktische kansen van de elektronische editie valt samen met een midden jaren negentig in steeds grotere frequentie en ernst uitgesproken gevoel van onbehagen over het nut van wetenschappelijke edities zoals die op dat moment op papier verschijnen, met name over de historisch-kritische editie. Peter Shillingsburg maakt er in een artikel uit 1996 een karikatuur van, maar kan daardoor wel duidelijk zijn punt aan de orde stellen. Hij omschrijft het als volgt: een wetenschappelijke editie is een boek van 500 tot 1000 pagina’s, gedrukt op zuurvrij papier om het een leven van minstens 350 jaar te gunnen. Dat mag ook wel, er hebben minstens 10 tot 20 editeurs aan gewerkt. Topzwaar door alle (tekst)historische inleidingen en hun variantenapparaten ontbreekt het vaak aan explicatieve noten omdat de ruimte die dat zou vragen te zwaar op de kosten zou drukken (en de aanschafprijs van minstens 50 maar veel vaker op
32
Over het Text Encoding Initiative, ook wel tei, gaat het in het volgende hoofdstuk uitgebreid.
33
J. Lavagnino, ‘Completeness and Adequacy in Text Encoding’ in: Finneran, The Literary Text, 63-64.
32
z’n minst 100 dollar maakt dat de gemiddelde editie toch al buiten bereik is van de gewone sterveling en dikwijls ook van de doorsnee onderzoeksbibliotheek).34 Piet de Bruijn is wellicht nog strenger en poëtischer als hij over de historischkritische edities, veelal van Duitse makelij, schrijft:
In Germany the practice of preparing historical-critical editions has been compared since the sixties to a state funeral, during which – to put it briefly – the mourned author disappears into a honorary tomb and ‘relatives’ lose their way amid the gigantic graveyards of the apparatus.35
Die overijver leidt er in de ogen van Shillingsburg en De Bruijn en hun medestanders toe dat maar weinig lezers, en ook studenten en anderen die literatuur (semi-)professioneel bestuderen, naar historisch-kritische en studie-edities grijpen of zich ook maar in het minste druk schijnen te maken om de tekstkritiek die erin bedreven wordt. Deze edities lijken hun doel(publiek) te missen, en daarmee hun bestaansrecht. Dat ze de (kwaliteit van) de literaire kritiek niet hebben veranderd en in bredere zin niet tegemoet komen aan de wensen van zij die ze zouden moeten gebruiken is naar Shillingsburgs idee een goede reden voor editeurs om zich af te vragen of ze met de historisch-kritische editie in gedrukte vorm wel de heilige graal van de tekstkritiek te pakken hebben. Dat gedrukte edities voordelen hebben waaraan elektronische edities waarschijnlijk nooit kunnen voldoen, dat ze comfortabel te lezen zijn bijvoorbeeld, doet daar weinig aan af. Want als bijna niemand ze leest is het een irrelevant voordeel.36 Bovendien hebben elektronische teksten voordelen op gedrukte. Ze zijn minder prijzig, eenvoudiger te vinden en wegen minder. Het is relatief eenvoudig om een concordantie te maken; de teksten zijn te doorzoeken op namen, woorden, zinnen; het is mogelijk om afbeeldingen van omslagen, titelpagina’s en zelfs hele facsimiles P. Shillingsburg, ‘Principles for Electronic Archives, Scholarly Editions, and Tutorials’ in: Finneran, The Literary Text, 23. 34
P. de Bruijn, ‘Dancing around the Grave. A History of Historical-Critical Editing in the Netherlands’ in: B. Plachta en H.T.M. van Vliet red., Perspectives of Scholarly Editing (Berlijn 2002) 114. 35
36
Shillingsburg, ‘Principles’, 24-27.
33
van een tekst op te nemen; het notenapparaat kan veel gelaagder worden ontworpen, er kunnen afbeeldingen aan worden toegevoegd, er is een mogelijkheid te verwijzen naar beschrijvingen van personen, gebouwen en plaatsen die elders, bijvoorbeeld in andere digitale publicaties, zijn gemaakt, om maar enkele voorbeelden voor een afzonderlijke editie te noemen. Maar de echte kracht zit ‘m wellicht in de combinatie van vele edities, die een megadataset aan betrouwbare basistekst, annotaties, context, parallelle tekst, recensies, kritieken, bibliografie en dergelijke kan opleveren. Dichter is de wetenschap de bibliotheek van Alexandrië nog niet genaderd, en spannender zijn de vooruitzichten dat deze gedroomde bibliotheek in omvang en complexiteit wordt overtroffen ook niet eerder geweest. Shillingsburg staat niet alleen. In de voorwaarden die C.M. Sperberg-McQueen, specialist in het coderen van tekst, bijvoorbeeld formuleert voor een elektronische wetenschappelijke editie valt eenzelfde soort optimisme te lezen. Hij dicht elektronische edities een waarde voor de democratie toe; ze moeten in SperbergMcQueens ogen bedoeld zijn voor het breedst mogelijke publiek, omdat zij juist dat moeilijk te bereiken publiek in contact kunnen brengen met voorheen niet gekende teksten die van ongekend belang kunnen zijn voor een goede deelnemer aan de samenleving. Ze mogen niet gebonden zijn aan technische beperkingen, ze moeten te bestuderen zijn op elk computertype, en zouden niet afhankelijk moeten zijn van specifieke software. Ze moeten ‘lang mee kunnen gaan’, minstens zo lang als een papieren editie op zuurvrij papier. Ze moeten voldoen aan dezelfde ‘intellectuele eisen’ als een papieren editie, want die eisen zijn mediumonafhankelijk. Evenzeer als een papieren editie zonder editieverantwoording en apparaat, commentaar en deugdelijke typografie als onwetenschappelijk mag worden beschouwd, gelden deze wetten dus ook voor de elektronische editie. Echter, betoogt Sperberg-McQueen, veel wetten en eisen van de papieren editie zijn niet geboren uit een intellectuele behoefte, maar uit conventies van de gedrukte media. Louis T. Milic wees daar in zijn artikel in Computers and the Humanities uit 1966 al op. Ze vertegenwoordigen niet de wensen van lezers en wetenschappers, maar voegen zich naar de aanpassingen die vereist zijn om via papier complexe informatie over te dragen zonder de lezer te verwarren of vermoeien, en moeten dat doen binnen
34
de financiële mogelijkheden om een papieren editie te realiseren. Dergelijke conventies en beperkingen hoeven in deze kleine elektronische revolutie juist niet de kaders te scheppen waarbinnen een digitale editie tot stand komt. Elektronische publicaties kunnen dezelfde tekst in een veelheid aan vormen presenteren: als sobere leestekst, als diplomatische transcriptie, als de Ausgabe letzter Hand, zonder of met variantenapparaat, met of zonder notenapparaat. Dat notenapparaat kan ook nog op specifieke groepen zijn toegespitst, op de tekstwetenschapper, de historicus, de literatuurwetenschapper, de taalkundige, de master- of propedeusestudent, het is, in andere woorden, gelaagd. Zo kunnen, in theorie althans, elektronische edities een veel groter publiek bereiken dan papieren edities en op den duur editieconventies groeien en bloeien die voldoen aan hogere intellectuele eisen dan in de papieren wereld mogelijk is gebleken.37 Aan al deze jubelgedachten zijn uiteraard eigen beperkingen verbonden, in technische realisatie en andere voorwaarden voor haalbaarheid, die in het volgende hoofdstuk van deze scriptie aan bod zullen komen. Bovendien is het de vraag in hoeverre emulatio van de bibliotheek van Alexandrië – als totem voor de toegang tot zuivere teksten en kennis zoals ook Gijsbert Voetius die in de zeventiende eeuw nastreefde – zo’n zeventien jaar na 1996 is gevorderd. We bevinden ons dan in de premilleniumtijd: toen waren internetbubbels nog niet doorgeprikt en beurskoersen waren zwaarder om te beklimmen dan cols uit de eerste categorie. Er oneindig van afdalen kon je zeker niet. Als elektronische tekst daarom ook maar een deel heeft waargemaakt van de belofte die het in de optimistische jaren negentig lijkt te zijn voor de editiewetenschap is het op z’n minst de moeite waard de vorderingen in de afgelopen jaren op een rijtje te zetten.
De voorgaande alinea’s zijn een parafrase van: C.M. Sperberg-McQueen, ‘Textual Criticism and the Text Encoding Initiative’, in: Finneran, The Literary Text, 39-41. 37
35
Hoofdstuk 3 2000-nu De teksteditie in twistgesprek met zijn eigen optimistische zelf
In 2006 publiceert Peter Shillingsburg het boek From Gutenberg to Google. Het is tien jaar na zijn in het vorige hoofdstuk aangehaalde artikel. Hij lijkt in een twistgesprek beland met zijn tien jaar jongere optimistische zelf als hij schrijft dat ‘wie zich op het gebied van elektronische teksten begeeft eenvoudig verdwaald of ontmoedigd raakt’. Het is een domein vol onrust, nieuwe ontwikkelingen en ontwikkelingen daarna die haaks staan op de nieuwe ontwikkelingen. Of in het Engels van Shillingsburg: ‘every new whoop-tee-doo in these areas soon becomes last week’s news in the face of even newer ones’38 . Wie het rumoer in publicaties en discussies laat uitrazen, in de hoop zich alleen met de winnende opvattingen te kunnen inlaten ‘like one who cheats in marathon races by joining for the last mile or two’39 , komt bedrogen uit. De finishlijn lijkt, net als de horizon, zich steeds weer te verleggen. Dat is wel verklaarbaar. De drukpers is sinds zijn ontdekking door Gutenberg weinig tot niet ontwikkeld. Het is niet gelukt om de drukpers nieuwe trucs te leren; de pers is niet in staat gebleken geluid of beeld te omarmen en heeft de distributie van boeken niet overgenomen. Het product boek is sinds zijn ontdekking alleen maar transparanter geworden. Zijn vorm kristalliseerde uit; fundamenteel veranderde daar in al die eeuwen maar weinig aan. We weten heel goed wat van een boek te verwachten en wat niet. Voor de producent, drager en verspreider van digitale tekst, de computer, is dat wel anders. Digitale tekst is veel minder transparant. Innovatie op innovatie wordt uitgelokt door de veranderlijke aard van het digitale medium. Wie ze bij wil houden raakt al gauw de weg kwijt. Wie de weg kwijt raakt roept soms iets te hard om hulp, zoals Shillingsburg wellicht in zijn artikel uit 2006. Maar als we het retorische geweld negeren en wel signaleren dat de teneur van zijn artikelen tussen 1996 en 2006 behoorlijk verschilt, dan zou dat iets kunnen zeggen over de manier waarop de volledig elektronische editie zich heeft ontwikkeld in het eerste decennium van zijn bestaan (2000-2010). Hoe zien die ontwikkelingen eruit? En hoe worden de nieuwe technische 38
P. Shillingsburg, From Gutenberg to Google. Electronic representations of literary text (Cambridge 2006) 11.
39
Shillingsburg, Gutenberg to Google, 11.
36
mogelijkheden, bij de stand van zaken in 2013, benut? Dat is het onderwerp van het komende hoofdstuk. Het wil een handreiking bieden aan de dolenden en probeert enkele ontwikkelingen op het gebied van digitale tekstedities in kaart te brengen.
3.1 Drie fasen Een dergelijke periodisering verdient enige uitleg. Ze wil geen harde scheiding aanbrengen. Ze is in de eerste plaats ingegeven door het idee dat de experimenten met digitale tekst(edities) van de jaren zeventig midden jaren negentig de eerste resultaten op gaan leveren. Eigenlijk, zoals Adriaan van der Weel het omschrijft, is hiermee een eerste fase afgerond. In deze ‘imitatiefase’ is digitale computerkracht gebruikt voor sorteren, combineren, zoeken en opslaan – bewerkingen waar wetenschappers in het analoge tijdperk ook al niet zonder kunnen. De methode die Busa in 1949 wil gebruiken voor zijn concordantie op Aquino is immers vernieuwend, de uitkomst van zijn werk is dat niet. Ook editeurs die zich bewegen in de voetsporen van Busa’s pionierswerk benutten de mogelijkheden conventioneel. Als ze computers voor edities gebruiken is dat voor papieren monumenten. De tweede helft van de jaren negentig laat zien dat de ongeveer dertig jaar aan experimenten die dan achterliggen zich uitbetalen in duurzame resultaten. Dat leidt een nieuwe fase in. Kunnen computers niet aangezet worden voor fundamenteel andere toepassingen in plaats van alleen maar stroomlijnen, sneller of preciezer maken etcetera?40 Ja, dat kan. De technische mogelijkheden hebben zich ondertussen verruimd, tot het punt waarop ze geen belemmering meer vormen om combinaties te maken tussen tekst en allerhande tekstverrijkingsinstrumenten zoals het werken met gelaagde notenapparaten, het toevoegen van foto en video, geluid, tekstvisualisatie in infographics en dergelijke. Door de opkomst van het internet wordt bovendien de beperking in de toegang tot materiaal weggenomen – iedereen met een werkende
A. van der Weel, ‘New Mediums. New Perspectives 0n Knowledge Production’ in: Van Peursen, Thoutenhoofd en Van der Weel, Text Comparison, 262. 40
37
verbinding zou nu teksten kunnen raadplegen, waar ook ter wereld. Internet stimuleert bovendien samenwerking en het delen van informatie. Dat luidt volgens Van der Weel de tweede fase in. De computer wordt steeds vaker gebruikt voor wat hij noemt ‘wetenschappelijke halffabrikaten’ – wetenschappers digitaliseren primaire en secundaire bronnen en maken deze beschikbaar voor grotere groepen gebruikers. Ze leiden ze in en voorzien ze van verdere context, maar de interpretatie komt toch in de eerste plaats voor rekening van degenen die het materiaal raadplegen. Het is een verschuiving van traditionele tekstkritiek en editietechniek, waarbij een deskundige vertelt ‘wie es gewesen war’, oder, in het geval van een wetenschappelijke editie ‘muss sein’ naar een situatie waarin de gebruiker van de editie het materiaal en de nodige hulpmiddelen aangereikt krijgt om zelf te kunnen oordelen. Dat kan worden gezien als innovatie, en een poging de mogelijkheden van de nieuwe media buiten bekende kaders te benutten (in dit geval de mogelijkheid van massa-opslag en -toegang). Maar toch worden in de analyse van Van der Weel de sappigste vruchten van de techniek nog geplukt in de conventionele hoek. Daarin is nog sprake van een sterke hiërarchie; de kennis wordt door deskundigen aangereikt aan de eindgebruiker.41 Daarop volgt een derde fase. De sterke hiërarchie wordt erin doorbroken – aan de poten van het ‘priesterschap’ van computerdeskundigen en wetenschappers wordt gezaagd. Het is de eindgebruiker die nu zelf ook zender wordt, een situatie die in het populaire taalgebruik wordt aangeduid als Web 2.0. De techniek toont dat ze klaar is voor meer geavanceerde toepassingen dan tot op heden in de geesteswetenschap gebruikt. In de editiewetenschap leidt dat vragen. Wie is de eindgebruiker? Met wat voor soort edities wil hij bediend worden? Ze worden al, zoals we hebben gezien, in eerdere fasen van de ontwikkeling van de teksteditie gesteld, maar nu zijn ze pregnanter. De eindgebruiker wordt mondiger en heeft meer eisen. De roep om edities die meerdere soorten gebruikers kunnen bedienen wordt luider. Het is een fase die nog lang niet is afgesloten, zoals zal blijken.
41
Van der Weel, ‘New Mediums’, 263-264.
38
3.2 De tweede fase ontleed Edities voor papier en de digitale edities (die in de tweede fase zijn gemaakt) hebben veel overeenkomsten; ze worden nieuwe werken op basis van een representatie van werken uit het verleden. Editeurs moeten beslissen of zij elementen uit tekst en paratekst overnemen en zo ja, tot op welk niveau (in hoeverre typografie, doorhalingen van de auteur, versierselen en dergelijke vertegenwoordigd moeten worden). Editeurs die de eerste webedities maken moeten oplossingen vinden om de structuur van teksten weer te geven. Hoe bijvoorbeeld paragrafen, titels, voetnoten of versregels te tonen? Ze moeten als zijn digitale surrogaat een tekst van papier weergeven, of het nou gaat om een handschrift of gedrukt werk, unica of paperbacks. De vraag is of papier wel op scherm weer te geven of te benaderen is. Immers: bij de overgang van het analoge schema naar het digitale verandert informatie altijd van aard. Editeurs begeven zich opeens op het gebied van zetters en uitgevers. Ze worstelen met de vraag hoe paginering en typografie van de originele teksten te tonen en recht te doen aan exotische schrifttekens en symbolen. Op papier was het vergezicht al geschetst, maar sommige edities verkennen ook daadwerkelijk de wereld van tekst buiten het gedrukte woord alleen. In de edities worden ook andere cultuurdragers opgenomen, zoals bewegend beeld en audio. De scheiding tussen multimedia en tekst lijkt even opgeheven.42 Uit deze verkenningen ontstaat een nieuw soort wetenschappelijke publicatie, de thematische onderzoekscollectie of ‘thematic research collection’ (trc), die kan worden gezien als een afgeleide van de editie. In elk geval komen ze op basis van eenzelfde onderzoek tot stand. John Unsworth omschrijft ze in een artikel in 2000. Ze zijn in elektronische vorm geboren, eclectisch, maar toch thematisch coherent, gestructureerd en afgebakend. Unsworth is gedetailleerder in zijn typering:
In taking a thematic approach to aggregating digital research materials, they are producing circumscribed collections, customized for intensive study and analysis in a specific research area. In many cases these digital resources serve as a place,
E. Bergmann Loizeaux en N. Fraistat, Reimagining Textuality: Textual Studies in the Late Age of Print (Madison 2002) 5. 42
39
much like a virtual laboratory, where specialized source material, tools, and expertise come together to aid in the process of scholarly work and the production of new knowledge.43
Deels worden ze geboren uit het besef dat edities die één betrouwbare leestekst presenteren een construct zijn van alle versies die er van een tekst beschikbaar zijn. In de tweede fase zoals Van der Weel die aanwijst is het logisch dat aan die autoriteit wordt getwijfeld. Een editie wordt een eclectische tekst – een tekst die op veel punten afwijkt van de versie die in de receptie van een tekst belangrijk is geweest. Wie met het doel de receptie te bestuderen de in de aard van zijn wezen eclectische teksteditie pakt, grijpt dus mis. Bovendien ontstaat in de jaren tachtig de overtuiging dat de Ausgabe letzter Hand niet ‘de perfecte tekst’ hoeft te vertegenwoordigen. Jerome McGann is een der belangrijkste vertegenwoordigers van deze visie. Hij pleit voor een literatuuropvatting waarin een tekst de uitkomst is van een sociale daad; een schrijver is niet autonoom maar wordt sterk beïnvloed door culturele agenten, zijn publiek en zijn naaste omgeving. De auteur is kortom niet de enige en zeker niet de belangrijkste betekenisbron bij de totstandkoming van een tekst. Een editie die de laatste auteursintentie volgt schept als gevolg van die constatering een beeld dat niet klopt. Die overtuiging daagt McGann uit een voorbeeld te stellen met de stichting van het Rossetti Archive, een archief rond het werk en denken van Dante Gabriël Rossetti. Het boek is dan altijd wel de aangewezen informatiebron voor een editie geweest, zijn vorm kent ook beperkingen, betoogt McGann later in een weerslag van zijn bevindingen. Niet alle varianten kunnen worden weergegeven en dat levert de bekende ellenlange lijsten met diakritische tekens, die voor McGann onbruikbaar en onleesbaar zijn. Boeken kunnen enkel een weerslag bieden van de semantische inhoud van een tekst. Toneelstukopvoeringen, liederen en bibliografisch materiaal kunnen niet worden getoond. Het is in de oplossing die McGann aandraagt niet de digitale editie die op die patstelling een antwoord biedt, als wel een digitaal archief. Het
C.L Palmer., ‘Thematic Research Collections’, in: Schreibman, Siemens, en Unsworth, A Companion, 348-349. 43
40
is in andere woorden een antwoord op de vraag van de gebruiker. Digitale archieven maken het mogelijk om door een massa aan materiaal te navigeren en kunnen verbindingen scheppen tussen documenten of delen daarvan. De halffabrikaten zijn dan een uitkomst. Verschillende versies van een tekst kunnen naast elkaar worden getoond en de verschillende versies van een tekst hoeven niet langer uit de variantenapparaten te worden gepluisd. De vrijheid van de gebruiker staat centraal: de editeur die ingrepen doet en een dwingende centrale tekst worden omzeild.44 Maar uiteraard lijkt een archief neutraler dan het is, zoals tegenstanders van McGann hebben betoogd. Ook hier komt de selectie en ordening van materiaal tot stand op basis van keuzes door de samensteller/editeur. Ook Shillingsburg ziet nadelen:
An archive of texts with links and annotations has the advantage of reducing the exercise of individual judgment to a minimum. The disadvantages of archives are that they are clumsy, daunting, tedious, and overwhelming to use.45
3.3 Het publiek Het is de vraag waar het publiek naar verlangt – in hoeverre dat boodschap heeft aan de discussies tussen editeurs en halffabrikatenediteurs. Er zijn ondertussen al enkele theorieën over edities en hun vorm en gebruik gepasseerd.. Welke rol heeft de gebruiker in de theorievorming? In de samenvatting bij een artikel van Charlotte Cailliau over publiek en edities staat het stellig: ‘De verschillende editietheorieën reflecteren weinig over de verwachtingen en wensen van de gebruiker, waardoor een kloof gaapt tussen de editeur en zijn of haar publiek. Die kloof kan pas gedicht worden als de editiewetenschap meer aandacht besteedt aan de lezer en aan de vraag wie die lezer is.’46
44
J. McGann, Radiant Textuality: Literature after the World Wide Web (New York 2001) 55-57.
P. Shillingsburg, ‘A Resistance to Contemporary German Editorial Theory and Practice’ editio 12 (1998) 148. 45
C. Cailliau, ‘De vanzelfsprekendheden voorbij. Editiewetenschap en haar publiek: een kritische bevraging’ in: P. de Bruijn, E. Vanhoutte en B. Van Raemdonck red., Trends en thema’s in de editiewetenschap, Verslagen en mededelingen van de Koninklijke Academie voor Nederlandse Taal- en Letterkunde 119 (2009) 263. 46
41
Cailliau, editeur verbonden aan de Universiteit Gent, stelt, net als Shillingsburg en zijn medestanders in 1996, dat er weinig bekend is over het publiek voor wetenschappelijke edities. De samenstelling van het publiek blijkt niet eenvoudig te definiëren (een kwalitatief probleem) en het is lastig te schatten hoeveel mensen interesse in de vruchten van de discipline hebben (een kwantitatief probleem). De reden is helder; er is naar dat gebruikerspubliek maar zeer beperkt onderzoek gedaan. Een vraaggestuurde traditie bij de totstandkoming van het aanbod ontbreekt in de editiewetenschap, zoals de uitgevers en redacties achter tijdschriftenformules ijkpersonen tot leven proberen te wekken en moodboards volplakken die de vermeende voorkeuren van deze gedroomde lezer inzichtelijk moeten maken, of marketingonderzoeksbureaus producten voorleggen aan focusgroepen om erachter te komen wat de behoeften van de consument zijn. Er is, kortom, weinig bekend over de wensen en eisen van editieconsument. De Universiteit van Regensburg doet in 2002 een poging en vraagt gebruikers naar de drie belangrijkste redenen om een editie te pakken. (Ze kunnen uit tien kiezen.) Er wordt geen onderscheid gemaakt tussen digitale of papieren edities. Het onderzoek47 heeft 92 respondenten, waarvan 12.1 procent eerste- of tweedejaars studenten, 57.1 procent gevorderde studenten en 30.8 procent promovendi, universitair docenten en hoogleraren, allen verbonden aan de afdelingen Duitse en Engelse taalkunde. 80.2 procent noemt bij hun top-drie voornaamste redenen om een wetenschappelijke editie te raadplegen toegang tot een betrouwbare basistekst. Een tweede reden (genoemd door 62.6 procent) vormt de commentaar- en annotatiegedeelten die het tekstbegrip ten goede komen. Het zoeken naar bibliografische gegevens over een tekst of auteur wordt door 51.6 genoemd. 34.1 procent wendt zich af en toe tot een editie om een citaat met eigen ogen te controleren. Deze vier redenen krijgen opgeteld 76.2 procent van alle stemmen. (De eerste twee redenen – betrouwbare basistekst en commentaar en noten – krijgen 47.6 procent van de totale stemmen.) Onderaan worden interesse in een facsimile genoemd, met 2.2 procent. 15.4 procent geeft aan naar de kast of de computer te lopen voor de tekstvarianten en 14.3 procent om de
47
S.A. Steding, Computer-based Scholarly Editions: Context – Concept – Creation – Clientele (Berlijn 2002) 234.
42
tekstgenese te kunnen bekijken.48 Als die laatste twee redenen bij elkaar worden opgeteld, belanden ze samen nog niet in de top vier. Zelfs gevorderde lezers, zo luidt de conclusie, hebben weinig behoefte aan de stokpaardjes van de historisch-kritische en studie-editie.49 Tekstgenese, varianten, facsimiles; het zijn tijds- en kostenintensieve elementen gericht op de hardcore editiegebruiker waarvan het gebruik verder onderzoek verdient. Vooral in het commentaargedeelte wordt duidelijk dat editeur en doelpubliek ver van elkaar af staan. Cailliau opent de kloof als volgt:
Editeurs geven immers het liefste zo weinig mogelijk commentaar, omdat dat onderdeel altijd als het minst wetenschappelijke (lees: meest interpretatieve) werd beschouwd. Literatuurwetenschappers daarentegen verwachten uitgebreide annotaties en een commentaar in een editie, omdat zij ervan uitgaan dat de editeur de uitgelezen persoon is om die informatie te verstrekken.50
Het gaat daarbij niet alleen om de betekenis voor ingevoerde, professionele lezers maar het lezerspubliek at large. Het wegvallen van toegangsbelemmeringen in de digitale media heeft dit publiek immers in het vizier gebracht. Kwalitatief en kwantitatief onderzoek naar lezerspubliek van oude teksten in voorliggende eeuwen is bon ton onder wetenschappers, maar naar het in kaart brengen van lezersgroepen van de (0ude) teksten waarop editeurs zich in de huidige tijd storten zou meer aandacht uit kunnen gaan. Om inzicht te krijgen in de voorkeuren van het bredere lezerspubliek zullen wij ons daarom moeten wenden tot onderzoek dat zich op deze groep richt, zoals dat in Nederland bijvoorbeeld wordt geïnitieerd door Stichting Lezen. Dat blijkt een ingewikkelde groep. Theo Witte onderscheidt in zijn proefschrift naar leesgedrag op middelbare scholen alleen al zes niveaus van ‘literaire competentie’ in de tweede fase. Daarmee toont hij aan hoe belangrijk het is dat een
48
Cailliau, ‘Publiek’, 243.
49
Ibidem, 244.
50
Ibidem, 272.
43
kind het ‘juiste boek op het juiste moment’ op zijn pad vindt.51 Het laat grote vragen hoe dat functioneert voor de rest van het leesveld. Het door het Huygens ing in 2013 geïnitieerde Nationale Lezersonderzoek52 mag wat dat betreft worden gezien als een verdere stap in de goede richting. Dat wil in de eerste plaats bekijken of er een antwoord bestaat op de vraag of er zoiets bestaat als literaire kwaliteit. Tegelijkertijd is het een grootschalige queeste om erachter te komen waar de leesvoorkeuren van de Nederlanders liggen. Dat zij maar in beperkte mate zicht op hem hebben betekent voor Charlotte Cailliau niet dat editeurs de eindgebruiker mogen negeren. Zij schrijft:
De makers van edities moeten er zich bewust van worden dat ‘de’ lezer niet bestaat en dat er verschillende lezersgroepen met een editie bediend moeten kunnen worden. Praktisch gezien vereist dat een heel flexibel basismodel waarin gemakkelijk aanpassingen voor de verschillende doelgroepen doorgevoerd kunnen worden.53
In elk geval lijkt een veilige constatering dat de omvang van het gebruikerspubliek van wetenschappelijke edities doorgaans lager ligt dan van handelsedities waarvan de leestekst niet met wetenschappelijke methoden tot stand is gekomen. Veel lager, zoals praktijkvoorbeelden bewijzen.
3.4 De zeven wetten van Vanhoutte Van de kritische editie van Hendrik Consciences De Leeuw van Vlaenderen54 bijvoorbeeld worden in vier jaar 900 exemplaren verkocht. In 2009 is nog een kwart van de oplage courant, voor !39,95. Deze editie wil een handreiking aan het grote publiek zijn en presenteert zich uitdrukkelijk als een leeseditie. Er is voor één leestekst gekozen. Er is T. Witte, Het oog van de meester. Een onderzoek naar de literaire ontwikkeling van havo- en vwo-leerlingen in de tweede fase van het voortgezet onderwijs (Delft 2008) 20. 51
52 Zie 53
http://www.hetnationalelezersonderzoek.nl/.
Cailliau, ‘Publiek’, 277.
H. Conscience, De Leeuw van Vlaenderen of de Slag der Gulden Sporen. Tekstkritische editie door Edward Vanhoutte, met een inleiding door Karel Wouters (Tielt, 2002). 54
44
niet hertaald; het Vlaams van de negentiende eeuw is in de inschatting van de editeurs nog voldoende begrijpelijk. Weliswaar bevat de uitgave een tekstgenetisch essay, een lijst van emendaties, een verantwoording, explicatieve noten en een lijst met biografieën van hoofdpersonen, maar in de editie zijn geen variantenapparaat of andere elementen opgenomen die in een historisch-kritische editie doorgaans worden aangetroffen. Deze uitgave van De Leeuw heeft dus het karakter van een studielees-editie. Het boek is gebonden met stofomslag uitgegeven en in zowel wetenschappelijke tijdschriften en kwaliteitskranten als lifestylebladen geroemd om kwaliteit van inhoud en uitvoering. In hetzelfde jaar, 2002, geeft de Vlaamse krant Het Laatste Nieuws 500.000 exemplaren van De Leeuw van Vlaenderen aan zijn lezers. Het gaat om een niet-kritische editie, als basistekst is hertaling uit 1984 genomen (inclusief zetfouten), zonder verantwoording van editiekeuzes en zonder commentaar. Deze editie is een eerste in een rij van 35 klassiekers uit de wereld- en Vlaamse literatuur die de krant voor ! 4.90 per stuk verkoopt. Van de hele reeks worden in totaal 3.332.000 exemplaren verkocht, 61 procent van de omzet van alle fictieboeken in Vlaanderen in 2002. De kwaliteit van de overige 34 edities is niet nader onderzocht, maar er is naar te gissen.55 Deze casus verleidt de editeur van de verantwoord uitgegeven studie-editie van De Leeuw, Edward Vanhoutte, tot zeven constateringen over het lezerspubliek in het algemeen, en dat van wetenschappelijke edities in het bijzonder.
1. Boekenkopers zijn niet geïnteresseerd in literatuur, maar in het boek als fysiek object. 2. Kopers van literatuur zijn niet zozeer geïnteresseerd in een betrouwbare tekst, maar in een tekst waartoe ze op een laagdrempelige manier toegang krijgen. 3. Het publiek voor wetenschappelijke edities is klein, gespecialiseerd en weinig gedefinieerd. 4. Het publiek voor een specifieke wetenschappelijke editie (buiten de wetenschappelijk gefundeerde leeseditie) zal zelden groter zijn dan het deel van
E. Vanhoutte, ‘Every Reader his own Bibliographer – An Absurdity’ in: Deegan en Sutherland, Text Editing, 102. 55
45
de wetenschappelijke gemeenschap dat zich met de bestudering van die bewuste tekst bezighoudt. 5. De wetenschappelijke-editiepraktijk is in disbalans met het belang van een wetenschappelijke editie als cultureel product. 6. De onderscheidende eigenschap van een wetenschappelijke editie is de kritische beschouwing van diens tekst, niet van diens functie, vorm, uiterlijk of methodologie. 7. De elektronische editie is het medium ‘par excellence’ voor de promotie van de wetenschappelijke leeseditie en het vak van de wetenschappelijke editeur.56
Voor iedere van Vanhouttes beweringen is een tegenbewering te vinden, maar het gaat hier vooral om de denklijn die hij volgt. Het maakt hem niet uit of het om een historisch-kritische editie met het volledige optiepakket gaat of een leeseditie, zolang het tekstproduct maar volgens wetenschappelijke editieprincipes tot stand is gekomen. Een betrouwbare minimale leeseditie (die slechts één versie van de tekst toont, met nauwelijks of geen aanvullende informatie) heeft potentie om tegemoet te komen aan de wensen van een groter leespubliek. Ze biedt de betrouwbare tekst waar behoefte aan is. De maximale, of historisch-kritische editie, laat zien dat een tekst fluïde van aard is, omdat de editeur alle versies aanreikt. Deze twee typen kunnen in dezelfde editie worden verenigd. De verschijningsvorm die daar voor Vanhoutte bij past is digitaal, omdat dit de enige mogelijkheid is om ze te laten versmelten. Linda Bree en James McLaverty, editeurs van de verzamelde werken van Jonathan Swift zijn iets conservatiever. Zij hebben met eigen ogen de voordelen van papier gezien:
We still see the value of printed volumes, in each of which a scholar, or pair of scholars, who have spent years working in a dedicated way with the text and its contextual information are able to present the fruits of that study in a form which enables the scholarly reader to find, within the pages of a book, a reliable text produced on principles clearly explained and with detail of variants from the 56
Eigen vertaling van de punten opgenomen in Vanhoutte, ‘Every Reader’, 102-110.
46
chosen copy text, information on how the work was produced and with which large or small variants, and informed explanation of historical, cultural, literary and linguistic issues. And there is, after all, at the very least, something appropriate about reproducing in printed form a work originally intended and designed as a printed book or pamphlet.57
De open beschikbare webeditie heeft immers enkel nadelen. Wat moet dat kosten en wie gaat dat betalen? De kosten om een digitale editie te realiseren liggen in de berekening van Bree en McLaverty hoger dan een papieren. Er is veel technische kennis voor nodig en die laat zich niet gratis inhuren. Een digitale editie is immers altijd een samenwerking tussen een editeur, die een editie samenstelt, een codeur, die een tekst omzet van analoog naar digitaal, en een programmeur, die de data zo bewerkt dat ze via een website of cd-rom getoond kunnen worden. Van de editeur kan nog verlangd worden dat hij ook (basale) kennis heeft over coderen en deze taak wellicht zelfs op zich kan nemen, maar het vormgeven van een website zal al te zeer specialistisch zijn – als de lat tenminste hoog ligt. De ontwikkelingskosten van een digitale editie laten zich daardoor maar lastig terugverdienen. Er kunnen goede redenen zijn om daarom niet te malen, als vrije toegang tot een tekst van dusdanig algemeen belang wordt geacht dat dit de kosten rechtvaardigt, maar veel projecten zullen daarvoor niet de benodigde middelen bij elkaar kunnen brengen. Voor toegang tot papieren edities kan middels een aanschafprijs tenminste nog een vergoeding worden gevraagd. Wetenschappelijke papieren tekstedities mogen dan relatief weinig worden verkocht, dat is altijd nog meer dan een digitale editie op kan leveren in het theoretische geval dat er een toegangsprijs wordt geheven, want van veel werken uit de (literatuur)historie is tegenwoordig al een gratis digitale variant beschikbaar. Bij de totstandkoming daarvan is wellicht niet altijd de standaard gevolgd die wetenschappelijke edities verlangen, maar daar heeft – zoals we zagen – de gemiddelde gebruiker weinig boodschap aan. Via Project Gutenberg58, een poging
L. Bree en J. McLaverty, ‘The Cambridge Edition of the Works of Jonathan Swift and the Future of the Scholarly Edition’ in: Deeagan en Sutherland, Text Editing, 131. 57
58
http://www. gutenberg.org, geraadpleegd op 27 maart 2013.
47
om alle boeken uit de wereldliteratuur door middel van crowdsourcing digitaal beschikbaar te stellen, zijn de tiendelige prozawerken van Jonathan Swift voor niks te downloaden, in de editie van de Bohn’s Standard Library. Kopijrecht op teksten van Jonathan Swift is immers al langgeleden vervallen, en ook op de editie door Bohn, samengesteld in de negentiende eeuw, kan niemand meer rechten doen gelden. Project Gutenberg, door Michael S. Hart opgericht in 1971, heeft weliswaar het platform geschapen waarop ondertussen 42.000 stuks aan digitale teksten uit vele eeuwen zijn vertegenwoordigd, en mankracht van vrijwilligers achter zich om met het digitaliseren van nieuwe teksten door te blijven gaan, maar edities komen nietkritisch – in de wetenschappelijke zin – tot stand en de proeflezers zijn nietprofessioneel – in de zin dat ze doorgaans geen achtergrond hebben in het pakken van instrumenten uit de koffer vol conventies en technieken die de wetenschappelijk geschoolde editeur tot zijn beschikking heeft. Een autoriteitsargument waarin in de periodisering van Van der Weel overigens in de derde fase van de ontwikkeling van digitale tekst zal worden getornd. Kwesties als het normaliseren van spelling en betrouwbaarheid of volledigheid van de basistekst die gedigitaliseerd wordt, komen maar beperkt aan de orde. Als een proeflezer op eigen initiatief een overduidelijke zetof spelfout heeft verbeterd, wordt dat verder niet aangegeven. De digitale edities van Project Gutenberg zijn, met andere woorden, niet-kritisch.59 Digitale edities hebben in de ogen van Swift-kenners Bree en McLaverty dus onvoldoende commerciële levensvatbaarheid. Wel kan een elektronisch deel een aanvulling zijn. Zij doen de suggestie dat uitgebreide notenapparaten en andere editieonderdelen op een website beschikbaar kunnen worden gesteld. In Nederland volgen de (papieren) Volledige Werken van W.F. Hermans dit voorbeeld. De editiewetenschappelijke verantwoording van dit monsterproject is overgeheveld naar ww.wfhermansvolledigewerken.nl.
J. Mussel en S. Parlor, ‘Editions And Archives: Textual Editing and the Nineteenth-century Serials Edition’ in: Deegan en Sutherland, Text Editing, 147. 59
48
3.5 Iets fatalistisch Maar hoe ziet de gebruiker die overhevelingen nou zelf ? De (niet-wetenschappelijke) literatuurlezer kan in zijn waardering van nieuwe ontwikkelingen soms iets achterdochtigs en soms zelfs fatalistisch hebben. Hij dankt zijn wereldbeeld wellicht aan de boeken die hij heeft gelezen. Beroepslezer Sven Birkerts, die onder andere recenseert voor The New York Times Book Review en de Washington Post en ook over (boek)cultuur publiceert is in zijn boek The Gutenberg Elegies zeer stellig over de gevolgen van de digitalisering zoals die ook in de editiewetenschap wordt omarmt:
My core fear is that we, as a culture, as a species, are becoming shallower; that we have turned from depth--from the Judeo-Christian premise of unfathomable mystery--and are adapting ourselves to the ersatz security of a vast lateral connectedness. That we are giving up on wisdom, the struggle for which has for millenia been central to the very idea of culture, and that we are pledging instead to a faith in the web. What is our idea, our ideal, of wisdom these days? Who represents it? Who even invokes it? Our postmodern culture is a vast fabric of competing isms; we are leaderless and subject to the terrors, masked as freedoms, of an absolute relativism. It would be wrong to lay all the blame at the feet of technology, but more wrong to ignore the great transformative impact of new technological systems--to act as if it's all just business as usual.60
Birkerts bedrijft vooruitdenken, en niet van het optimistische soort. Als hij zijn elegie op het tijdperk van Gutenberg uitschrijft is het 1995; digitalisering heeft nog geen vlucht genomen maar alle tekenen wijzen erop dat er iets te gebeuren staat. Zijn angsten worden nog eens herhaald in 2010 door Nicholas Carr in diens veelbesproken en bekritiseerde The Shallows – waarin Carr betoogt dat internet mensen dommer maakt. Ook hij schermt als navolger van Birkerts met weinig verhullende termen als leegte en vervlakking. Wel kan Carr zijn digikritiek met meer praktijkervaringen staven dan Birketts, digitaal lezen en verwerken van informatie (via het computerscherm, een tablet of smartphone) wint rap terrein op het papieren lezen. 60
S. Birkerts, The Gutenberg Elegies. The Fate of Reading in an Electronic Age (New York 1995) 111-112.
49
Van de krant bijvoorbeeld, zoals blijkt uit de nom Print Monitor over 2012; daarvoor pakken steeds meer mensen de tablet. Zo’n 1.4 miljoen mensen gebruikten zo’n apparaat om een dagblad te lezen, tegen een half miljoen mensen in 2011.61 De gebruiker kan daar allerlei motieven voor hebben: gebruiksgemak, duurzaamheid vanwege papierbesparing, of lagere kosten. In de visie van Carr zou er echter slechts één factor zwaar mogen wegen: kwaliteit van aandacht. Want de wijze waarop informatie digitaal (op websites en via apps) doorgaans wordt gepresenteerd verlangt diagonaal lezen. De ‘internetlezer’ schiet alle kanten op, als een kogel die wordt afgevuurd uit een pistool dat rust in een onvaste hand. De ‘papieren lezer’, de lineare lezer, is veel doeltreffender. Hij wordt niet afgeleid door hyperlinks hier, weer een filmpje om op te klikken daar, en een e-mailtje-dat-toch-echt-even-beantwoordmoet-worden daar tussendoor. De gevolgen van de opmars van digitaal zijn volgens Carr gevaarlijk: een lagere concentratie veroorzaakt een fragmentatie van aandacht bij de lezer, die minder kennis op zal nemen. Die vicieuze cirkel heeft in tegenstelling tot de doorsneecirkel wel een eindpunt: de digilezer landt op een dorre, schrale, vervlakte bodemcultuur. Bij de digitale uitgaves van de kranten van nu speelt dat nog niet zo’n rol – dat zijn een soort facsimiles van hun papieren tegenhangers. Maar digitalisering zal onoverkomelijke gevolgen hebben als kranten eenmaal nieuwe vertelvormen gaan verkennen en de presentatie van hun inhoud daarop aanpassen. En dat geldt uiteraard niet alleen voor krantenuitgevers, maar ook in de periferie van de waan van de dag voor tijdschriften en zelfs, voor de kroonsdragers van iedere zindelijke cultuur, voor boeken.62 Of de bedenkingen en doemgedachten bij digitaal lezen en digitale tekst nou waarheid worden of niet, het is wel duidelijk dat ook de editiewereld ze zich mag aantrekken. Al is het maar om een deel van de scepsis van het publiek weg te kunnen nemen. Tekst moeten ook in een digitale editie een veilige haven vinden, zoals die er in een boek altijd is geweest. In de democratische kansen voor verrijking en toegang die Sperberg-McQueen vanaf 1994 in zijn publicaties zoekt, in de stabiliteit en een duidelijke agenda die Shillingsburg in zijn boek uit 2006 node mist en in de angsten van 61
‘Digitale krant populair’, de Volkskrant, 22 maart 2013.
62
N. Carr, The Shallows. What the Internet is doing to our Brains (New York 2010) 120-130.
50
bijvoorbeeld Birketts en Carr. Die veiligheid kan alleen gevonden worden in samenwerking, in gedeelde idealen en gedeelde concrete doelen. Uit die roep, die vanaf eind jaren tachtig klinkt, ontstaat het Text Encoding Initiative (tei).
3.6 Gestolde verduurzaming: XML/TEI Het fundament voor het Text Encoding Initiative wordt gelegd in november 1987 op een conferentie gehouden op het Vassar College in Poughkeepsie in de staat New York van de Verenigde Staten van Amerika. Daar wordt een begin gemaakt aan een richtlijn die, voor wie helemaal volledig wil zijn, Guidelines for Electronic Text Encoding and Interchange heet. De roep om een conferentie en richtlijn komt uit de hoek van bibliotheken, archieven, wetenschappelijke instituten en afzonderlijke onderzoeksprojecten; van eigenlijk iedereen die zich met elektronische tekst bezighoudt. Doel van de bijeenkomst is om in kaart te brengen welke tekstcoderingsmethoden er op dat moment worden gebruikt, op basis daarvan te onderzoeken of het mogelijk is om tot een internationale standaard te komen, en te formuleren hoe die er dan uit moet zien. In de verklaring die aan het slot van de conferentie wordt, is aan al deze doelen beantwoord. Hieronder is de Engelse tekst van de slotverklaring integraal opgenomen:
The Poughkeepsie Principles Closing Statement of Vassar Conference The Preparation of Text Encoding Guidelines
Poughkeepsie, New York 13 november 1987
1.
The guidelines are intended to provide a standard format for data interchange in humanities research.
2.
The guidelines are also intended to suggest principles for the encoding of texts in the same format
3.
The guidelines should
51
1.
define a recommended syntax for the format,
2.
define a metalanguage for the description of text-encoding schemes,
3.
describe the new format and representative existing schemes both in that metalanguage and in prose.
4.
The guidelines should propose sets of coding conventions suited for various applications.
5.
The guidelines should include a minimal set of conventions for encoding new texts in the format.
6.
The guidelines are to be drafted by committees on 1.
text documentation
2.
text representation
3.
text interpretation and analysis
4.
metalanguage definition and description of existing and proposed schemes, coordinated by a steering committee of representatives of the principal sponsoring organizations.
7.
Compatibility with existing standards will be maintained as far as possible
8.
A number of large text archives have agreed in priniciple to support the guidelines in their function as an interchange format. We encourage funding agencies to support development of tools to facilitate this interchange.
9.
Conversion of existing machine-readable texts to the new format involves the translation of their conventions into the syntax of the new format. No requirements will be made for the addition of information not already coded in the texts.63
Hieruit spreken alle verlangens van de digitaletekstwetenschapper van eind jaren tachtig. Die verlangens worden al bij de eerste computergestuurde tekstverwerking geboren. In de beginjaren schrijft immers iedere onderzoeksgroep zijn eigen taal. De gecodeerde tekst is niet deelbaar met andere onderzoeksgroepen. Daar moest iets aan
Zoals opgenomen in: J. Cummings, ‘The Text Encoding Initiative and the Study of Literature’ in: Schreibman en Siemens, ‘A Companion to Digital Literary Studies’ 453-454. 63
52
veranderen. Bij het kijkje in de machinekamer van de computer in hoofdstuk 1 leerden we meer over data en de manier waarop een computer met data kan werken. (‘Data krijgt pas betekenis in het systeem waarin ze functioneert.’) Die systemen moeten dan wel met elkaar kunnen praten. Een tekst is voor een computer aaneengeschakelde data. Hij weet hoofd- en bijzaken niet te onderscheiden en kan a priori niet uit zichzelf betekenis toekennen. Eigenlijk is een computer dus ook een diagonale lezer. Een menselijke lezer kan wel zonder voorkennis wijs worden uit een tekst; hij kan een titel herkennen of inzien met welke reden in bovenstaand zin ‘a priori’ cursief is gedrukt of de structuur in de door tei opgestelde beginselverklaring van negen punten doorzien. Om een computer intelligent met tekst te kunnen laten werken, en die tekst te kunnen verrijken, moet de tekst dus worden bewerkt. Er moet informatie aan worden toegevoegd. Die informatie noemen we meta-informatie en dat toevoegen gebeurt via een zogeheten markuptaal. De taal heeft daarvoor een verzameling aan tags beschikbaar. De titel van een boek of stuk tekst? Die krijgt de tag
. Citeert John Keats in een brief een andere dichter? Dan kan de tag worden gebruikt om dat aan te geven. Wie later wil onderzoeken welke auteurs precies door Keats zijn geciteerd in zijn correspondentie kan dat eenvoudig terugvinden, omdat alle citaten in kaart zijn gebracht – en als er uitvoerig is gecodeerd kan daarbij ook direct zijn aangegeven van welke auteur het citaat afkomstig is, om het zoeken te vergemakkelijken. Hoe nauwkeuriger en gedetailleerder er is omschreven, hoe meer betekenis, en hoe meer bewerkingsmogelijkheden er achteraf met de editie mogelijk zijn. Het maakt niet alleen erin zoeken mogelijk, maar ook om ermee tot afgeleide producties te komen. Laten we een mogelijke editie van de correspondentie van Keats als uitgangspunt nemen. Boven zijn brieven schreef hij waarvandaan hij ze stuurde, zoals eenieder die briefconventies eerbiedigt. Als deze locaties van tags worden voorzien, en deze gekoppeld worden aan de datum van schrijven, kunnen deze gegevens relatief eenvoudig worden gekoppeld aan een landkaart. Zo kan dus snel inzichtelijk worden gemaakt op welk moment Keats zich op welke plek bevond. Als deze informatie althans op de juiste manier is geïnterpreteerd en vervolgens gecodeerd in een markuptaal.
53
Nu tei in het leven is geroepen moet de taal, en dus ook de tags waaruit de taal is opgebouwd, voor iedereen dezelfde worden.64 Idealiter is het dus de bedoeling dat citaten uit brieven van Keats op dezelfde manier worden genoteerd als in de correspondentie van Flaubert, Evelyn Waugh of om het even wiens correspondentie (digitaal) ter editie wordt gesteld. tei stelt op dat moment, in 1987, geen voorwaarden op voor de procedures die horen bij digitaal editeren. Afzonderlijke werkgroepen zullen daar nadere invulling aan moeten geven. Wel is duidelijk dat de premissen zoveel mogelijk moeten lijken op wat bij het editeren voor papier gebruikelijk is. Dino Buzetti en Jerome McGann omschrijven die positie als volgt:
The basic procedures and goals of scholarly editing will not change because of digital technology. True, the scale, range, and diversity of materials that can be subjected to scholarly formalization and analysis are all vastly augmented by these new tools. [...] Nonetheless, the goals of the scholar remain unaltered – preservation, access, dissemination, and analysis-interpretation – as does the basic critical method, formalization.65
Bert Van Raemdonck brengt daarbij echter een belangrijke nuance aan:
[Deze] observatie gaat echter nogal gemakkelijk voorbij aan het feit dat het niet alleen de te formaliseren en analyseren bronnen zijn die in aantal en soort zijn toegenomen, ook de methoden om dergelijke interpretatieve processen uit te voeren, zijn veel talrijker geworden. Terwijl het transcriberen van een primaire bron bijvoorbeeld tot voor kort vaak intuïtief op telkens dezelfde manier gebeurde, zal de digitaal werkende editeur uit een divers gamma aan werkmethoden moeten kiezen. Dat heeft o.m. te maken met het feit dat de klassieke editeur zich vrijwel uitsluitend op de uiterlijke, vormelijke imitatie van de originele bron hoefde te R. Van den Branden en E. Vanhoutte, ‘Text Encoding Initiative (tei)’, in: Encyclopedia of Library and Information Sciences (2009) 5172. 64
D. Buzetti en J. McGann, 'Critical Editing in a Digital Horizon' in: L. Burnard, K. O'Brien O'Keeffe en J. Unsworth, Electronic Textual Editing (New York 2006) 53. 65
54
concentreren, terwijl een transcriptie in een elektronische markup-taal een noodzakelijke visie en theorie over de aard van tekst zelf impliceert, en bijgevolg een keuze veronderstelt voor de soort codering die het dichtst bij die visie aansluit.66
3.6.1 Ontwerpdoelen Hoewel de inhoud van de methoden- en techniekenkoffer bij het begin van tei dus in beperkte mate wordt omschreven, worden wel enkele uitgangspunten voor het ontwerp van een digitale editie opgesteld.
Design goals The following design goals are to govern the choices to be made by the working committees in drafting the guidelines. Higher-ranked goals should count more than lower-ranked goals. The guidelines should
1. suffice to represent the textual features needed for research 2. be simple, clear and concrete 3. be easy for researchers to use without special-purpose software 4. allow the rigorous definition and efficient processing of texts 5.provide for user-defined extensions 6.conform to existing and emergent standards67
Markuptaal wordt bij het ontwerpen op twee manieren ingezet. Tekstverwerkers, opmaakprogramma’s als InDesign en websitebouwprogramma’s gebruiken procedurele markup. De opmaakinstructies die worden gegeven aan de computer vormen een soort ‘stijlboek’ – de meta-informatie die wordt toegekend schrijft voor hoe de tekst op het scherm of op papier moet worden getoond. Procedurele markup beschrijft dus uiteindelijk hoe een elektronische editie eruit zal zien. Dat geldt zowel voor de
B. Van Raemdonck, Voor ons en voor ons tijdschrift. Context en codering van een digitaal correspondentiecorpus rond Van Nu en Straks (Gent 2011) 45. 66
67 Design
Principles for Text Encoding Guidelines. 9 Jan. 1990.
55
opmaak van de tekst als de omlijsting, bijvoorbeeld de kleur en het formaat van de pagina. Deze markupmethode heeft dus bondig gesteld betrekking op de vorm. Voor de inhoudelijke editiepraktijk heeft descriptieve markup de meeste waarde. Daarin wordt informatie over de structurele en semantische elementen van een tekst ondergebracht. In deftige taal laat dat verschil zich zo omschrijven:
Whereas markup languages in use in the typesetting community were mainly of a procedural nature, that is they indicate procedures that a particular application should follow (e.g. printing a string of text in italics), the humanities were also and mainly considered with descriptive markup that identifies the entity type of tokens (e.g. identifying that a string of text is a title of a book or a foreign word). Unlike procedural or presentational markup, descriptive markup establishes a one to one mapping between logical elements in the text and their markup.68
Bij het descriptief analyseren van een tekst komt het aan op de closereadingkwaliteiten van de editeur, die in dit geval eigenlijk vooral een codeur is. Als een tekstdeel cursief is gedrukt, moet hij niet alleen aangeven dat dit zo is (voor het procedurele schema), maar ook waarom dat zo is (voor het descriptieve schema). De auteur kan iets cursief hebben geschreven omdat het gaat om een titel in een bibliografie, of een technische term, of een woord uit een vreemde taal, of een woord dat met nadruk is geschreven. Elk onderdeel uit de brontekst met enige betekenis moet worden opgezocht, ontleed en verwerkt – van de juiste codering voorzien. De gegevens die een editeur/encodeur zo verzamelt heten metadata.69 In het descriptieve systeem toont hij dus wat de impliciete of verborgen delen zijn van de tekst. Hij moet aan interpretatie doen.70 tei wil dus voorgoed snoeien in de jungle van beschikbare talen en grammatica’s (de bouwstenen waaruit een computertaal bestaat) die voor procedurele en descriptieve markup beschikbaar zijn. De in de digitaletekstpraktijk gangbare talen 68
Van den Branden en Vanhoutte, ‘tei’, 5173.
69
Ibidem, 5175.
70
Ibidem, 5175.
56
van dat moment waren ofwel te beperkt, ofwel te vrij van opzet, ofwel te complex. De wetenschappers en belangengroepen die zich rond tei verenigen weten overeenstemming te bereiken over de meest geschikte markuptaal. Zij kiezen voor de Standard Generalized Markup Language (sgml), een in 1986 ontwikkelde ‘metataal’ waaruit een markuptaal kan worden opgesteld. Dat biedt vele mogelijkheden. Tekstonderzoek zou voortaan uitwisselbaar, analyseerbaar, herbruikbaar en duurzaam te bewaren zijn, nu de vocabulaire, de grammatica en de syntaxis is gekozen. Omdat de taalelementen flexibel ingezet kunnen worden, is een wasachtige buigzaamheid gegarandeerd; per project zouden evengoed op maat gemaakte oplossingen gemaakt kunnen worden, alleen worden die vanaf nu ingebed in een uniform taalsysteem. Een vergelijking met de doelstellingen van het Esperanto is op zijn plaats. Tot het eind van de jaren negentig is er slechts één programma, DynaWeb, dat teksten die in sgml zijn gecodeerd kan omzetten zodat ze op internet kunnen worden weergegeven. Daarvoor is het nodig de code om te zetten naar html, de standaard om websites in weer te geven. Universiteiten en onderzoeksgroepen kunnen een gratis variant van het commerciële programma aanvragen, en vele universiteiten – waaronder Oxford University, de University of California en Berkeley – doen dat ook, waardoor het de standaardverwerker wordt.71 In 1999 verruilt het tei de sgml-taal voor xml, de eXtensible Markup Language. xml was oorspronkelijk bedoeld om bestanden uit te kunnen wisselen in grote organisaties, bij de overheid, in de luchtvaartindustrie en de juridische sector. Daarop wordt de taal omarmd door uitgevers en drukkers, maar de taal weet niet door te dringen tot het populair gebruik. xml is een breder geïmplementeerde standaard. In vergelijking met sgml is er een veelvoud van programma’s beschikbaar die code om kunnen zetten naar html. In xml worden wetboeken gecodeerd, bankgegevens en klantgegevens van supermarkten, maar ook in eenvoudige tekstverwerkers en installatieprogramma’s van huis-tuin-en-keukensoftware. Ook op internet is het een gangbare taal, van multimediaconglomoraat tot kleine start-up werkt ermee. Als xml
S. Schreibmann, ‘Digital Scholarly Editing’, beschikbaar via http://dlsanthology.commons.mla.org/digitalscholarly-editing/, geraadpleegd 22 maart 2013. 71
57
uit de gratie raakt, zoals dat sgml overkwam, zal – gezien de brede toepassing – de migratie naar een nieuwe standaard weinig problemen opleveren. Een omvangrijke aanpassing als het veranderen van opmaaktaal, maar ook kleine aanpassingen, maakt tei in zijn Guidelines bekend, die in werkgroepen worden voorbereid en op grote bijeenkomsten worden vastgesteld, zoals in de Diagnostic and Statistical Manual of Mental Disorders (dsm) allerhande psychiatrische ziektebeelden nauwkeurig zijn omschreven en met iedere nieuwe versie definities zijn aangescherpt en aandoeningen toegevoegd zijn en geschrapt. De huidige versie van de tei Guidelines, p5, is dan ook toe aan revisie. Maar net als iedere vergadering met vele deelnemers en belanghebbenden, is dat niet binnen een korte tijd geregeld; aan revisie gaan jaren aan discussie vooraf. De Guidelines versie p5 zijn onderverdeeld in verschillende hoofdstukken, te beginnen met vier inleidende: een beschrijving van de Guidelines, een introductie in de beginselen van xml, een verhandeling over de verschillende talen die eronder vallen en hoe om te gaan met afwijkende lettertekens, gevolgd door de inhoudelijker hoofdstukken. Die gaan over hoe een document volgens de richtlijn op te bouwen, de wijze waarop metadata dienen te worden opgeslagen en een beschrijving van alle elementen die in een tei-document kunnen worden gebruikt. Daarna wordt het al snel specifieker met hoofdstukken over:
[...] tei elements for verse, performance texts, transcriptions of speech, print dictionaries, terminological databases, manuscript description, methods of linking, segmenting or aligning texts, simple analytic mechanisms, and feature structures. Further chapters make recommendations on the encoding of certainty and responsibility, the transcription of primary sources, the creation of a critical apparatus, the recording of names and dates, the creation of language corpora, as well as methods for recording graphs, networks, trees, tables, formulae, and graphics. In addition, there are chapters on the relationship of teis Header elements with other metadata standards, the representation of non-standard
58
characters and glyphs, feature system declarations, and elements for documentation used in the creation of tei Guidelines [...]72
...omdat de Guidelines volgens de regels van een tei-document zijn opgemaakt. Het document sluit af met hoofdstukken die duidelijk maken wat de voorwaarden zijn om te mogen zeggen dat een tekst volgens de tei-richtlijnen is verwerkt, en enkele adviezen over hoe het tei-schema naar specifieke wensen aan te passen. Deze opsomming kan besluiten met de opmerking dat de Guidelines als behoorlijk compleet wordt gezien. Dat is een proces van voortdurende aanpassingen aan het voortschrijdend inzicht over de juiste behandeling van tekst, net als de dsm dat met ziekten en hun behandelprogramma’s doet.73 Wie de verschillende revisies van tei nauwkeurig zou bestuderen, zou een beeld krijgen van de relatie tussen wetenschap en innovatie op het gebied van digitale tekst – hoe dat zich verhoudt tot ontwikkelingen in de commerciële wereld bijvoorbeeld – maar daar al te diep op ingaan zou te ver voeren voor deze scriptie. Het belangrijkste is dat wetenschappers met de Guidelines in de hand in principe iedere tekst uit ieder tijdperk in iedere taal te lijf kunnen. De brontekst kan ermee zo getrouw mogelijk worden weergegeven en met de voorschriften over meta-informatie kan daar betekenis aan worden toegekend. Het maakt de richtlijnen in de ogen van de betrokkenen hét coderingsinstrument voor de editiewetenschap, maar ook voor andere disciplines binnen de geesteswetenschap.74 De Duitse editietheoreticus en vooruitdenker op dit gebied Patrick Sahle heeft vijf basisvoorwaarden voor de digitale editie geformuleerd. Wie ze bestudeert begrijpt waarom tei zo’n passend antwoord biedt:
72
J. Cummings, ‘The Encoding Initiative’, in: Schreibman en Siemens, A Companion, 452.
73
Cummings, The Encoding Initiative, in: Schreibman en Siemens, A Companion, 453.
R. Van den Branden en E. Vanhoutte, 'DALF: een model voor de multifunctionele verwerking van brievencollecties.', in: Isabel Rotthier (red.), Bron van inspiratie. Het archief van de Koninklijke Academie voor Nederlandse Taal- en Letterkunde. Themanummer van Verslagen & Mededelingen van de Koninklijke Academie voor Nederlandse Taal- en Letterkunde, 114/3 (2004): 383-400 388. 74
59
1. Offenheit; open voor uitbreiding en aanpassing 2. Allgemeinheit; zo divers mogelijke onderzoeksvormen mogelijk maken 3. Unabhängigkeit; onafhankelijkheid van een specifiek medium 4. Langfristige Nutzbarkeit; oftewel de mogelijkheid generaties te overleven 5. Interoperationabilität; uitwisselbaarheid tussen verschillende systemen75
Ze komen overeen met de drie speerpunten die Sperberg-McQueen in 1994 al formuleert. Hij is al vanaf het begin een van de leidende mannen binnen tei en ook nauw betrokken bij het programmeren van de xml-taal en zoals we al eerder zagen is ook hij stellig: het draait om brede toegankelijkheid ‘zonder al te veel technische barrières, met aandacht voor duurzaamheid en intellectuele integriteit’.76 Het is dan ook opvallend om te zien dat er nog steeds edities worden ontwikkeld die afhankelijk zijn van specifieke platforms en software (in dat geval voornamelijk Windows en zijn Microsoft Explorer). Dat is strijdig met de uitgangspunten van toegankelijkheid en duurzaamheid, omdat dergelijke edities afhankelijk zijn van de gunsten van een commerciële partij om toegang te kunnen blijven garanderen. Dat marktpartijen er niet voor terugdeinzen om de stekker uit (eens) veelgebruikte toepassingen te trekken bleek bijvoorbeeld onlangs nog met het sluiten van msn Messenger van Microsoft in februari 2013 of de xml-reader van Google in maart 2013. Ook op het gebied van ‘intellectuele integriteit’ doen zich problemen voor. Omdat tei algemene uitgangspunten formuleert omvatten de richtlijnen veel meer onderwerpen dan nodig is voor een afzonderlijk project. Het is daarom onvermijdelijk dat onderzoeksgroepen aanpassingen doen; ze verwijderen elementen uit de opmaakschema’s of voegen er juist aan toe. Op zich is daarin voorzien. De optie om aan te passen en uit te breiden is immers een van de uitgangspunten in de beginselverklaring van 1987 en een van de redenen om voor xml en later xml als bouwsteentalen te kiezen. In veel grootschalige projecten zou zeer gedetailleerd coderen te ver voeren. Daarin zullen onderzoekers van het grootste gedeelte van de beschikbare tags geen gebruik maken. P. Sahle, ‘Vom editorischen Fachwissen zur digitalen Edition: Der Editionsprozeß zwischen Quellenbeschreibung und Benutzeroberfläche’, in: Fundus – Forum für Geschichte und ihre Quellen, Heft 2 (2003) 81. 75
76
C.M. Sperberg-McQueen, ‘Textual Criticism’, in: Finneran, The Literary Text, 46.
60
Uit de behoefte voor een vereenvoudigd bouwpakket ontstaat het zogeheten teiLite. Eenvoudiger onder de knie te krijgen en toe te passen, maar ook een optie die minder vasthoudendheid en diepgang van de wetenschapper verlangt en daarom minder optimale edities oplevert. Elke editie is er immers bij gebaat dat ze te lijf wordt gegaan met code die zoveel mogelijk onderliggende betekenis naar boven haalt, en die verschilt nu eenmaal van tekst tot tekst.77 Bovendien worden niet alle elementen in het bouwpakket gebruikt zoals ze oorspronkelijk zijn bedoeld. Een voorbeeld is het gebruik van de -tag. Het maakt meteen inzichtelijk hoezeer het bij het coderen aankomt op interpretatie. Deze tag is oorspronkelijk in het leven geroepen om de personen die bezig zijn met een ‘linguïstische interactie’, bijvoorbeeld in een stukje dialoog, aan te kunnen wijzen. Sommige codeurs begonnen de tag echter te gebruiken om informatie over mensen die genoemd worden in een tekst in onder te brengen. Als hier plots over Johannes Vermeer geschreven wordt, dan zou een codeur die deze tekst over honderd jaar onder handen neemt, de -tag mogelijk gebruiken om aan te geven dat Vermeer gedoopt werd in Delft en in die stad ook stierf. Dat terwijl Johannes Vermeer in deze scriptie geenszins een ‘linguïstische interactie’ aangaat78 . De -tag stond de data die codeurs door een verkeerd gebruik eraan wilden koppelen aanvankelijk dan ook helemaal niet toe. Omdat de tag oorspronkelijk was ontwikkeld om informatie toe te voegen over mensen die tekst uitspraken, was het alleen mogelijk om data (hier zowel in de betekenis van ‘stukje betekenis’ als geboortedatum) voor de parameter aan te geven. Men ging er immers vanuit dat de persoon in kwestie in leven was op het moment dat hij z’n tekst uitsprak. Er was geen <death>-optie. Door de praktijk ingehaald werd uiteindelijk ook de optie <death> toegevoegd. Zo zijn er nog tal van voorbeelden. De gemeenschap die zich rond tei heeft verzameld helpt haar vooruit, maar door de wijzigingen die afzonderlijke onderzoeksprojecten hebben gedaan en de interpretatieverschillen in het toepassen van de regels ontstaan er soms tal van oplossingen voor eenzelfde coderingskwestie of alleen een niet-toereikende, algemene oplossing voor weer andere kwesties. De eerste belofte van de 77
Cummings, The Encoding Initiative, in: Schreibman en Siemens, A Companion, 472.
78
Dat is spijtig, want ik zou hem veel willen vragen.
61
Poughkeepsie Principles van 1987, uitwisselbaarheid van data, komt dan in gevaar. De praktijk wijst uit dat het een noodzakelijk kwaad is: als een coderingsprobleem zich voordoet, bijvoorbeeld omdat een tag niet in de Guidelines is opgenomen, is het veel eenvoudiger om een nieuwe regel aan het schema toe te voegen dan om alle beschikbare kennis die door voorgangers in wetenschappelijke artikelen uit te pluizen in de hoop een oplossing te vinden die al eerder is gevonden en beschreven. Hoewel aan de ‘interoperabiliteit’ niet meer kan worden voldaan, is, als de richtlijnen worden gevolgd, tenminste wel gedocumenteerd op welke punten dat het geval is. Omdat de schema’s in elk geval dezelfde bron hebben kunnen anderen die met niet-compatible gecodeerde tekst aan de slag willen zien waar de mutaties ten opzichte van de standaard zitten.79
3.6.2 Kritiek tei is van verschillende kanten bekritiseerd, onder meer omdat het tekstverbond een een eenvormigheid in de realisering en uitkomst zou opleggen, die geen recht doet aan de veelvormigheid in de tekstenrijkdom waarop de richtlijnen zouden moeten worden toegepast. Ook de cse, de Amerikaanse commissie voor wetenschappelijke edities, zou te strikte denklijnen volgen:
While it would be foolish to assert that the cse and the tei are without critics, sceptics, and detractors, they do in fact represent a broad, community-based consensus, and they are, in their respective arenas, the only credible institutions attempting to develop, disseminate and maintain general (rather than project-specific) guidelines. Both organizations have been accused, at various points in the past, of promoting a monologic orthodoxy, but in fact each organization has devoted significant time and effort to accommodating difference – the cse in the evolution of its guidelines over the last decade to accommodate a greater variety of editorial methods and a broader range of materials and periods, as wel as editions in electronic media, and the tei, most importantly, in its extension mechanism, as well in its consistent insistence, over its fifteen-year 79
Cummings, ‘The Encoding Initiative’, in: Schreibman en Siemens, A Companion, 473.
62
history, on international and interdisciplinary representation in its governing bodies, its workgroups, its funding sources, and its membership.80
Wel vraagt die constatering om een complexe kijk op de invloed van tei op tekst, maar die complexe kijk is in dit geval niet te vermijden. Er liggen vragen aan ten grondslag die ook elke editiewetenschapper zich zou moeten stellen. Hoe kijkt hij naar een tekst? Hoe dwingend is de betekenis die wordt opgelegd via markuptaal? Wat leert het toepassen van markuptaal over hoe een editeur naar een tekst kijkt? tei heeft het belang van het stellen van dergelijke vragen naar de oppervlakte gehaald. Wat betekent het benoemen van een paragraaf in een tekst (via de -tag) meer dan dat er enige vorm van structuur aan wordt toegekend? De
-tag mag dan wel aangeven dat er op die bewuste plek in de tekst een titel staat, maar dat zegt nog niks over wat een titel precies een titel maakt. In de Guidelines van tei staat dan wel omschreven dat die tag ‘the full title of a work of any kind’ bevat, maar dat zegt niets over de verdere definitie van het begrip ‘titel’. Het bewijst slechts dat coderen in een markuptaal interpretatie is, alle argumenten dat het de basis voor de geesteswetenschap als inductieve wetenschap zou versterken ten spijt. Hier komt een van de pijnpunten van de tekstwetenschapper bloot te liggen. Paul Eggert schrijft:
Texts do not have an unproblematic objective existence; they are not self-identical, even if more-or-less transparant page designs have traditionally catered to the illusion that they are. Their encoding for computer analysis and presentation is therefore doomed to remain problematic, incomplete and perspectival. In a sense, a phenomenology of texts has replaced an ontology.81
Door het coderen wordt ons niet duidelijk wat een ‘titel’ is – die daad is slechts een bevestiging van de in die werkkamer en op dat moment voor die bewuste editeur geldende opvatting over wat een titel zou moeten of kunnen zijn. Op basis van wat hij
J. Unsworth, ‘Electronic Textual Editing and the TEI’, lezing uitgesproken in 2002. Te raadplegen via http://people.lis.illinois.edu/~unsworth/mla-cse.2002.html, bekeken 25 maart 2013. 80
81
P. Eggert, ‘The Book, the E-text and the ‘Work-site’’, in: Deegan en Sutherland, Text Editing, 78.
63
daarover van anderen heeft geleerd en zijn eerdere ervaringen met hoe anderen en hijzelf titels altijd hebben gezien. Het maakt van de doelstellingen van tei het najagen van iets problematisch, iets niet-compleets en iets wat nooit buiten standplaatsgebondenheid zal kunnen. Het geloof dat teksten zijn onder te verdelen in consistente, begrijpelijke structuren is cruciaal voor het construct dat de Guidelines is. Die visie komt duidelijk naar voren in de Guidelines zelf.
A text is not an undifferentiated sequence of words, much less of bytes. For different purposes, it may be divided into many different units, of different types or sizes. A prose text such as this one might be divided into sections, chapters, paragraphs, and sentences. A verse text might be divided into cantos, stanzas, and lines. Once printed, sequences of prose and verse might be divided into volumes, gatherings, and pages.82
Daaruit spreekt de overtuiging dat de wereld kenbaar en te ordenen is. Alle haarkloverij van stromingen als New Criticism, deconstructionisme, structionisme, poststructionisme en mensen met namen als Barthes, Foucault, Bakhtin en Derrida ten spijt.83
3.6.3 Edities en tei in de praktijk De edities die zich van de richtlijnen van tei weinig aantrekken zijn in de minderheid, alhoewel ze er wel degelijk zijn. Maar iedere wetenschappelijke editie geeft tegenwoordig wel een verantwoording die in meer of mindere mate refereert aan de richtlijnen. De lijst van recente digitale edities - een niet-uitputtende selectie - die als eerste bijlage bij dit stuk is opgenomen kan daarvan getuigen. Omdat ze zo alomtegenwoordig zijn zal wie zich aan de richtlijnen onttrekt zich verplicht voelen te melden waarom. Hoewel de lijst dus niet uitputtend is, zijn hierin de belangrijkste editiewetenschappelijke tradities (de Anglo-Amerikaanse, de Duitse en de VlaamsNederlandse) vertegenwoordigd. Vrijwel alle edities in deze lijst hebben een tei82
TEI Guidelines P5.
83
Cummings, ‘The Encoding Initiative’, in: Schreibman en Siemens, A Companion, 458-459.
64
verantwoording of zijn zelfs helemaal volgens de laatste richtlijnen gecodeerd en vormgegeven. (De halffabrikaten daargelaten, want die zijn vooral in de lijst opgenomen zodat de lezer eens zelf de verschillen tussen beide vormen van tekstwetenschap kan bekijken.) Vooropgesteld is het werken met markuptaal een vorm van verrijking, in die zin dat er informatie aan de tekst wordt toegevoegd. Dat kan zijn over zowel de vorm als de inhoud als beide. Het is misschien wel de krachtigste vorm van verrijking. Zonder ingrepen die editiewetenschappelijk moeilijk te verantwoorden zijn kan de gebruiker al op zoek gaan naar verbanden in de teksten. Het toevoegen van links, oftewel het werken met hypertext, is de voornaamste vorm van verrijking die met markup plaatsvindt. Hypertext is de manier om een deel van een document te koppelen aan een ander deel. Deze techniek wordt met name toegepast in voetnoten, om eenvoudige verwijzingen te kunnen maken. Hyperlinks verwijzen doorgaans naar belangrijke binnen de tekst. Ze verlaten hun systeem niet. Je zou deze vorm van verrijking op kunnen vatten als door-en-door digitaal. De keuze om deze vorm van verrijking toe te passen is dan ook weinig risicovol. Zolang de grootste wetenschappelijke zorgvuldigheid wordt betracht. Ook het aanbieden van een facsimile of een transcriptie mag onder deze veilige, weinig-bewerkelijke vorm van verrijking worden geschaard. Ook hier worden de verwijzingen, weliswaar zonder een directe link, altijd nog gemaakt naar de tekst of ‘het object boek’ dat ze beschrijven. Het scannen van een originele bron of het maken van transcripties op basis van het inlezen van de tekst of het integraal overtikken mag als relatief doeltreffende en relatief goedkope vorm van verrijking worden beschouwd. Deze technieken roepen direct een gevoel bij de gebruiker op dat deze iets meer verbonden is met het verleden dat een tekst vertegenwoordigd, zij het door de tekst in de oorspronkelijke woorden te lezen, zij het door een weergave van het boek waarin de tekst is opgenomen te kunnen zien, zij het door beide. De gewaagder vormen van verrijking vinden plaats als er wordt verwezen naar een werkelijkheid buiten de gesloten wereld van de tekst. Als er verbindingen worden gelegd die niet kunnen worden gemaakt met de gegevens uit de tekst alleen. Als er
65
bijvoorbeeld illustraties, geluid, of extra lagen op de werkelijkheid worden toegevoegd. Deze verrijkingsvormen worden dan ook aangetroffen bij de edities die in potentie ‘het nieuws halen’. Als voorbeeld hiervan mag de kritische editie van alle brieven van Vincent van Gogh gelden, een co-productie waarbij onder andere het Huygens ing nauw betrokken was. Of de website www.bijbelencultuur.nl, die probeert de gehele cultuurhistorische impact van het bijbelverhaal bloot te leggen. Zo zijn bij Bijbel & Cultuur ‘Rode draden’ ontwikkeld: rondleidingen door de bijbelverhalen die nieuwe lichten doen schijnen. Dergelijke rondleidingen, maar ook de keuzes voor afzonderlijke illustraties zijn editie-ingrepen op zich. De editeur ontgint en stuurt. Dat is als een sprong van een digitaal systeem (de tekst) naar een analoog systeem (beeld). Immers: tekst is deelbaar en reproduceerbaar, beeld is dat niet per definitie. En bij dat soort overgangen of schakelingen komt het altijd, zoals we zagen, aan op interpretatie. Daar wordt het spannend. Dat zijn de projecten die mijlenver van de wereld van Gisbertus Voetius’ boeken af staan. Zijn wereld kende wetenschap en creativiteit al wel. Maar pas op dit moment kunnen die samensmelten met digitale technologie en de aanbevelingen uit talloze discussies, in een verder streven naar betrouwbaarheid en volledigheid, zoals Voetius het graag zag.
66
Bij wijze van conclusie
Het krachtigste argument voor een antwoord op de vraag hoe het kan dat niet elke technologische ontwikkeling per definitie leidt tot innovatie op het gebied van digitale wetenschappelijke edities wordt in 1966 gegeven door T. Milic met zijn opmerking, enigszins geparafraseerd, dat zelfs pioniers turen door de denkramen van hun voorgangers. Niemand lijkt met die wetmatigheid te kunnen breken.
Werden in de jaren zestig woordenboekenmakers als conservatief bestempeld, ook de digitale editeurs kunnen er wat van. Dat blijkt uit discussies die in een soort cirkelbeweging lijken te bewegen. Belangrijke vragen, bijvoorbeeld over het beoogde publiek voor edities, bezorgen editietheoretici hoofdpijnen. Juist op die aandachtsgebieden blijken weinig kwantitatieve en kwalitatieve gegevens bekend.
Hoewel er veel aan het schuiven is. De periodisering zoals onder andere Adriaan van der Weel die geeft laat zien waarom (dat noodzakelijk en onvermijdelijk is). Een ‘imitatiefase’ wordt gevolgd door een periode van een technologische bloei – die weliswaar geleid wordt dóór de ingevoerden en in de eerste plaats bedoeld lijkt vóór de ingevoerden.
Maar die tweede fase leidt een nieuwe, derde fase in, van creatieve bloei waarin steeds meer spelers zich roeren. De groeiende aandacht binnen curricula voor digitale geesteswetenschap en de kansen voor studenten om aan te sluiten bij editieprojecten die (al dan niet geslaagd) de mogelijkheden verkennen mogen als voorbeelden daarvan gelden. Zo grijpen technische ontwikkeling, editietheorie en -praktijk toch in elkaar.
Hoe de derde fase eruit zal zien? Wie het weet mag het zeggen.
67
Bij wijze van epiloog: Xanadu Space
Computer- en wiskundige Ted Nelson vindt, net zoals Adriaan van der Weel, papier een kerker, met vier muren, bovenkant, onderkant, twee zijkanten. In een filmpje op YouTube legt hij uit hoe hij de computer beschouwt als het perfecte middel om uit die tweedimensionale gevangenis weg te komen. En wat deden de anderen met de computer? Zij gingen papier imiteren. Krankzinnig, volgens Nelson. Nelson ontwikkelde Xanadu Space, een volledig driedimensionale tekstverwerker. Xanadu verbindt tekstdelen die een verband met elkaar hebben door ze in de oneindige ruimte die een scherm biedt hiërarchisch te rangschikken. Waar een tekstverwerker als Word weigert om eenvoudige zijnoten bij een tekst op te nemen, is de mogelijkheid vrijelijk van de geboden ruimte te profiteren in het dna van Xanadu verweven. En dat geldt niet alleen voor tekstkoppelingen; het programma kan even eenvoudig linken met video en geluid. De onderlinge verbindingen tussen tekstdelen tonen op het scherm als een ingewikkeld web, dat echter met een paar muisklikken te ontwarren blijkt.
Met zijn systeem probeert Ted Nelson al 47 jaar het traditionele leesparadigma, en dus de manier waarop mensen met teksten omgaan, te veranderen.84
84
Zie hier voor uitleg, geraadpleegd 27 maart 2013: http://www.youtube.com/watch?v=En_2T7KH6RA
68
Litteratuur en bronnen
Litteratuur Bergmann Loizeaux, E., en Neil Fraistat, Reimagining Textuality: Textual Studies in the Late Age of Print (Madison 2002)
Bennett, S., en R. Gottesman red., Art and Error. Modem Textual Editing (Bloomington 1970)
Birkett, S., The Gutenberg Elegies. The Fate of Reading in an Electronic Age (New York 1995)
Branden, R. Van den, en E. Vanhoutte, ‘Text Encoding Initiative (tei)’, Encyclopedia of Library and Information Sciences (2009) 5172-5181
Burnard, L., K. O'Brien O'Keeffe en J. Unsworth, Electronic Textual Editing (New York 2006)
Cailliau, C., ‘De vanzelfsprekendheden voorbij. Editiewetenschap en haar publiek: een kritische bevraging’ in: P. de Bruijn, E. Vanhoutte en B. Van Raemdonck red., Trends en thema’s in de editiewetenschap, Verslagen en mededelingen van de Koninklijke Academie voor Nederlandse Taal- en Letterkunde 119 (2009) 263-282
Carr, N., The Shallows. What the Internet is doing to our Brains (New York 2010)
Conscience, H., De Leeuw van Vlaenderen of de Slag der Gulden Sporen. Tekstkritische editie door Edward Vanhoutte, met een inleiding door Karel Wouters (Tielt, 2002)
Deegan, M., en K. Sutherland red., Text Editing, Print and the Digital World (Surrey 2009)
Finneran, R.J., The Literary Text in the Digital Age (Ann Arbor 1996)
Froger, J., La critique des textes et son automatisation VII (Parijs 1968)
69
Gabler, H.W., ‘Theorizing the Digital Scholarly Edition’, in: Literature Compass 7.2 (2010) 44-56
Mathijsen, M., Naar de Letter. Handboek editiewetenschap (Amsterdam 2010)
McGann, J., Radiant Textuality: Literature after the World Wide Web (New York 2001)
Peursen, W. van, E.D. Thoutenhoofd en A. van der Weel red., Text Comparison and Digital Creativity (Leiden 2010)
Plachta, B., en H.T.M. van Vliet red., Perspectives of Scholarly Editing (Berlijn 2002)
Proud, J. K., The Oxford Text Archive ((1989)
Robinson, P., ‘Where we are with scholarly editions, and where we want to be’, in: Jahrbuch für Computerphilologie (2004) 123-143
Sahle, P., ‘Vom editorischen Fachwissen zur digitalen Edition: Der Editionsprozeß zwischen Quellenbeschreibung und Benutzeroberfläche’, in: Fundus – Forum für Geschichte und ihre Quellen, Heft 2 (2003) 76-102
Schreibman, S., R. Siemens en J. Unsworth red., A Companion to Digital Humanities (Oxford 2004)
Schreibman, S., en R. Siemens red., A Companion to Digital Literary Studies (Oxford 2008)
Shillingsburg, P., ‘A Resistance to Contemporary German Editorial Theory and Practice’, in: editio 12 (1998) 138-150
Shillingsburg, P., From Gutenberg to Google. Electronic representations of literary text (Cambridge 2006)
70
Steding, S.A., Computer-based Scholarly Editions: Context – Concept – Creation – Clientele (Berlijn 2002)
Van Raemdonck, B., Voor ons en voor ons tijdschrift. Context en codering van een digitaal correspondentiecorpus rond Van Nu en Straks (Gent 2011)
Van den Branden, R. en E. Vanhoutte, 'DALF: een model voor de multifunctionele verwerking van brievencollecties', in: Isabel Rotthier red., Bron van inspiratie. Het archief van de Koninklijke Academie voor Nederlandse Taal- en Letterkunde. Themanummer van Verslagen & Mededelingen van de Koninklijke Academie voor Nederlandse Taal- en Letterkunde, 114/3 (2004) 383-400
Van den Branden, R. en E. Vanhoutte, ‘Text Encoding Initiative (tei)’, in: Encyclopedia of Library and Information Sciences (2009) 5172-5181.
Van der Weel, A., Alle boeken die er geschreven zijn. De uitdagingen van het digitale tijdperk (Houten 2007)
Voetius, G., Over de noodzaak van het opsporen, verzamelen en bewaren van Oude Drukken (vertaald door J. van Heel) (Amstelveen 2007)
Wisbey, R.A. red., The Computer in Literary and Linguistic Research (Cambridge 1971)
Witte, T., Het oog van de meester. Een onderzoek naar de literaire ontwikkeling van havo- en vwoleerlingen in de tweede fase van het voortgezet onderwijs (Delft 2008)
Bronnen Computers and the Humanities 1.1 (1966)
Computers and the Humanities 5.4 (1970)
71
Computers and the Humanities 5.5 (1971)
Computers and the Humanities 7.3 (1973)
72
Bijlage I: Lijst van tekstedities en halffabrikaten
(2003) Het Geraardsbergse handschrift Huygens Instituut http://geraardsbergen.huygens.knaw.nl/
(2005-2010) De correspondentie van Willem van Oranje - historici.nl http://www.historici.nl/Onderzoek/Projecten/WVO
(2007) Digital Locke Project - Universiteit van Amsterdam e.a. http://www.digitallockeproject.nl/
(realisatiejaar onbekend) Rijmkroniek van Holland (366-1305) door een anonieme auteur en Melis Stoke J.J.W. Burgers / historici.nl http://www.historici.nl/Onderzoek/Projecten/Rijmkroniek
(2009) Vincent van Gogh, De brieven - Huygens Instituut / Van Gogh Museum http://www.vangoghletters.org/vg/
(2009) De bijbel in de Nederlandse cultuur - Stichting BNC http://www.bijbelencultuur.nl/
(2010) Menno ter Braak - Stichting Menno ter Braak / Bibliotheek voor de Nederlandse Letteren http://www.mennoterbraak.nl/
(2010) Carolingian Scholarship - Huygens Instituut http://martianus.huygensinstituut.nl/path
(2010 - heden) Digitaal Oorkondenboek van Noord-Brabant - Stichting Brabantse Bronnen / Huygens Instituut http://www.donb.nl/
73
(2010 - heden) Willem Frederik Hermans, Volledige Werken, wetenschappelijke verantwoording Huygens Instituut http://www.wfhermansvolledigewerken.nl/
(2010 - heden) Political Mashup, daarbij NRC Handelsblad / Universiteit van Amsterdam (2012) http://politicalmashup.nl/, http://nrc.nl/denhaag
(2011) Lancelot-compilatie - KB http://www.kb.nl/bladerboek/lancelot/index.html
(2011) In Oorlogsnood. Virginie Lovelings dagboek 1914-1918 - Centrum voor Teksteditie en Bronnenstudie e.a. http://ctb.kantl.be/pub/loveling/html/index.htm
(2011) Van Nu en Straks. De Brieven - Bert Van Raemdonck / CTB http://www.vnsbrieven.org/
(2012) De trein der traagheid - Centrum voor Teksteditie en Bronnenstudie / Letterenhuis http://edities.ctb.kantl.be/daisne/index.htm
DUITSLAND/ZWITSERLAND/OOSTENRIJK
(1999) Galileo Galilei’s Notes on Motion – Max Planck Institute http://www.mpiwg-berlin.mpg.de/Galileo_Prototype/
(2002-2010) Das virtuelle Hamburgische Urkundenbuch – Universität Hamburg http://www1.uni-hamburg.de/hamburgisches_ub/HambUB.html
(2010) William Godwin’s Diary – University of Oxford et al.
74
http://godwindiary.bodleian.ox.ac.uk/index2.html
(2011) Carl-Maria von Weber Gesamtausgabe – Staatsbibliothek zu Berlin http://www.weber-gesamtausgabe.de/de/Impressum
(2011) Hugo van Montfort | Das poetische Werk - Institut für Germanistik, Universität Graz http://gams.uni-graz.at/montfort
(2012) Alfred Escher Briefedition / Alfred Escher Stiftung http://www.briefedition.alfred-escher.ch/
GROOT-BRITTANNIE / VERENIGDE STATEN
(1996-2004) The William Blake Archive – University of North Carolina et al. http://www.blakearchive.org/blake/
(2005) The Electronic Boetius Project – University of Kentucky http://beowulf.engl.uky.edu/~kiernan/eBoethius/inlad.htm
(2011) The Casebooks Project - University of Cambridge A digital edition of Simon Forman’s & Richard Napier’s medical records 1596–1634 http://www.magicandmedicine.hps.cam.ac.uk/
(2012) Oxford Scholarly Editions Online - University of Oxford http://www.oxfordscholarlyeditions.com/
(2012) Jane Austen Fiction Manuscripts – University of Oxford / King’s College http://www.janeausten.ac.uk/index.html
75
(2007) The Valley of the Shadow: Two Communities in the American Civil War University of Virginia http://valley.lib.virginia.edu/
(2012) Livingstone's 1871 Field Diary - Universiteit van Californië http://livingstone.library.ucla.edu/1871diary/
(2000-2012) Thomas Gray Archive – University of Oxford http://www.thomasgray.org/
(1998-2012) The Newton Project – University of Sussex http://www.newtonproject.sussex.ac.uk/prism.php?id=1
(2003-2012)The proceedings of the Old Bailey – The University of Sheffield http://www.oldbaileyonline.org/index.jsp
(realisatiejaar onbekend) The Rosetti Archive – University of Virginia http://www.rossettiarchive.org/
(2009) Codex Sinaiticus – The British Library / National Library of Russia http://codexsinaiticus.org/en/
(2012) The Walt Whitman Archive – University of Nebraska http://www.whitmanarchive.org/index.html
ZUID-AFRIKA
(2012 - heden) Nelson Mandela Digital Archive Project - Nelson Mandela Centre of Memory / Google http://archive.nelsonmandela.org/#!home
76
Bijlage II: Bij wijze van opinie
Onderstaand stuk85 liet ik op 5 juli 2011 plaatsen op de website van nrc.next – die was toen nog zelfstandig van de website van nrc Handelsblad. Inclusief misleidende titel. Ik verrijkte het met een filmpje van het Huygens ing over het editeren van W.F. Hermans’ Verzamelde Werken. Dat filmpje kan ik op de volgende pagina’s helaas niet overnemen. Ik neem het stukje bij deze scriptie als bijlage op omdat ik het achteraf frappant vind dat ik in dat stuk al raakte aan enkele van de thema’s die hier uitgebreider aan bod zijn gekomen . En omdat ik niet wil verbergen dat ik deze mening voorsta, want hoewel het stuk me nu hier en daar wat naïef aandoet, kan ik me in de strekking nog steeds vinden.
De boekenwereld mag wel wat digigeiler Te beginnen bij de mensen die de teksten bewerken DOOR GASTBLOGGER
OP 5 JULI 2011 De boekenwereld moet digigeiler worden om de ontlezing tegen te gaan. Daarin kunnen de tekstbewerkers – de redacteuren en editeuren – een grote rol spelen, schrijft gastblogger Deru Schelhaas. Hij doet de masteropleiding Redacteur/editor aan de UvA, was columnist van de Leidse universiteitskrant Mare en schreef mee aan de bloemlezing Wat we missen kunnen. Vanaf september loopt hij stage bij uitgeverij Athenaeum — Polak & Van Gennep.
Een editeur doet aan kommaneuken en hij bedrijft letterliefde op iedere vierkante centimeter. Hij poetst oude teksten op en maakt deze weer geschikt voor uitgave. Teksten raken bij iedere heruitgave gecorrumpeerd – er sluipen steeds nieuwe foutjes in en auteurs en anderen voegen passages toe of schrappen juist. De editeur probeert uit alle verschillende varianten de meest ideale tekst te reconstrueren. 85 Het
stuk is digitaal te lezen op http://www.nrcnext.nl/blog/2011/07/05/de-boekenwereld-mag-wel-watdigigeiler/
77
Ook voor unica (dingen waar er maar eentje van is) zoals brieven en manuscripten maakt een editeur een zo minutieus mogelijke weergave van wat de auteur bedoeld heeft. Voor dit werk heeft hij een koffer vol conventies en technieken tot zijn beschikking. Met wat voor dilemma’s een editeur te maken krijgt (en hoe letterverliefd een editeur daarvan uit zijn ogen kan gaan kijken) wordt fraai duidelijk in deze minifilm over het editeren van deel 3 van W.F. Hermans’ Volledige Werken. De Volledige Werken van Hermans wordt al minder goed verkocht dan zou mogen, de gemiddelde teksteditie komt onder de aandacht van een kleine groep. Eentje voor elke bibliotheek in Nederland en dan nog wat voor een paar fanatici. Een teksteditie digitaal presenteren is een middel om een groter publiek te bereiken. En biedt hele nieuwe mogelijkheden. Topediteur en Constantijn Huygens-kenner dr. Frans Blom noemt dit ‘augmented textuality’: het multimediaal verrijken van een tekst door er content aan toe te voegen. (Bij spannende nieuwe ontwikkelingen mag met Engelse termen gesmeten worden.) Bijbelencultuur.nl is een voorbeeld dat die mogelijkheden nog wat weifelend verkent. Op deze website – een gigantisch project – wordt de cultuurhistorische impact van de verschillende bijbelboeken op de Nederlandse cultuur inzichtelijk gemaakt, wat bijbelverhalen hebben betekend in beeldende kunst, muziek, maar ook in de politiek en elders in de samenleving. In een papieren bijbel zou dat niet lukken. Ook de digitale teksteditie met álle brieven van Vincent van Gogh is misschien wel duidelijker en gebruiksvriendelijker dan de papieren versie. Maar beide websites doen toch nog wat boekig aan. Je zou vormen kunnen bedenken die een tekst in een klap afstoffen. Je zou bijvoorbeeld een reisverhaal uit de zestiende eeuw met een landkaart kunnen verweven, zoals een hele generatie globetrotters nu hun waarbenjij.nu-pagina’s vol schrijft over voedselvergiftigingen en gemiste liefdes. Zodat blijkt hoe weinig er in enkele eeuwen veranderd is. Want het zou een zonde zijn als veel mooie, oude, relevante en soms stoffige teksten niet aan de ontlezing worden ontrukt. Ze op een nieuwe manier presenteren kan helpen. Editeurs mogen naast kommaneukerig en letterverliefd dus ook wel wat digigeiler worden.
78