Deel III
Deel III: Sensoren en kleur
1. Beeldvangen Als het objectief het oog van de camera is, wat is dan de beeldchip of sensor waarop het camerabeeld wordt geprojecteerd? Om dit uit te leggen moeten we even naar het oog kijken. Het “zien” is een heel ingewikkeld proces, waarbij heel wat neurologie, fysiologie en biochemie komt kijken. De lichtprikkel die via de ooglens binnenkomt, triggert rhodopsine-eiwitten in de cellen van het netvlies. Die geven vervolgens een reeks complexe signalen die via een ingewikkeld systeem van kruisende optische zenuwbanen het beeld projecteren op de hersenschors van het achterhoofd. We kunnen bijna letterlijk iemand “met de nek bekijken”. En omdat de ooglens biconvex is, is het beeld – jawel – omgekeerd. Alleen hebben onze hersenen geleerd dat beeld om te draaien. De sensor in de camera kan dus het best vergeleken worden met de hersenschors in het achterhoofd, waar het beeld wordt op geprojecteerd. Er is dus meer dan één gelijkenis tussen ons hele visuele systeem en de camera. Maar er zijn ook duidelijk verschillen. Moet je dit allemaal van buiten leren? Jawel, als je een doctoraat wil behalen of je zinnen hebt gezet op een Nobelprijs. In het andere geval moet je alleen maar onthouden dat er gelijkenissen en verschillen zijn. In de camera komt het beeld dus op de sensor terecht. En dat is meer dan alleen maar een plaatje dat gevoelig is voor licht. Een sensor is een apparaatje dat bepaalde prikkels opvangt en doorstuurt. Denk maar aan sensoren die geluid waarnemen (glasbraak als er wordt ingebroken) of warmte (temperatuurmeting in je computer). Er zijn ook sensoren die gas waarnemen, of drukverschillen. Maar onze sensor vangt beelden op en reageert dus op licht. Een goed Nederlands woord voor sensor is “voeler”, maar niemand gebruikt dit. Wat je te zien krijgt als je het objectief van je DSLR-camera schroeft, is trouwens niet de sensor, maar wel de filter die bovenop de sensor is aangebracht. Daar moeten we even bij blijven stilstaan.
foto 1: de low-pass filter waarachter de sensor verscholen zit (APS-C formaat)
Cursus Digitale Fotografie
Deel III - 1
1.1 De low-pass filters. De low-passfilters of anti-aliasfilters zijn een vloek en een zegen. Het zijn drie filterlagen die het beeld polariseren om het Moiré-effect tegen te gaan. Moeten we zo nodig weer technisch worden, ja? Ik vrees van wel. De huidige sensoren hebben een hoog oplossend vermogen, of met andere woorden, zij kunnen veel lijnen per millimeter weergeven. Maar als nonkel Bert een gestreept kostuum aan heeft, en de streepjes ervan komen toevallig in de buurt van het oplossend vermogen van de sensor, dan hebben we een probleem. Want het patroon wordt dan opgebroken en we krijgen plots een hoop rare dingen. Dat kunnen regenboogeffecten zijn, of valse kleuren, of een soort diffractieringen. Samenvattend noemen we dit het Moiré-effect, maar dat weet u intussen al. Door het licht horizontaal en vertikaal te polariseren kunnen we dit voorkomen. Maar dat gaat wel ten koste van de scherpte van het beeld. In de goedkopere cameraatjes wordt de scherpte automatisch aangepast, maar in de duurdere modellen laat men de keuze van de verscherping aan de fotograaf over. Bij opnamen die in het RAW-formaat (daarover in het volgend deel veel meer) werden gemaakt, is er zelfs helemaal geen aanpassing aanwezig. Wie een zeer duur toestel heeft gekocht en in de hoogste (dus RAW) kwaliteit fotografeert, is als beginneling dan ook zeer vaak teleurgesteld over de fletse, onscherpe en weinig contrastrijke foto’s. Gelukkig kunnen we met een paar eenvoudige ingrepen van die foto’s meesterwerkjes maken. Voor de sensor vinden we nog twee andere filters, die het infraroodlicht tegenhouden, want dit heeft een ander scherptevlak. Dat is niet naar de zin van amateurastronomen, die vaak juist in het infrarood willen kunnen filmen. Zij kunnen – tegen fikse betaling – een sensor aanpassen door deze filters te laten verwijderen.
1.2 Soorten sensoren In de fotografiewereld heeft lange tijd een oorlog der sensoren gewoed. Traditioneel werd de beeldkwaliteit van het CCD-type (charged couple device) superieur geacht aan het CMOS-type (Complementary Metal Oxide Semiconductor). En neen, over die afkortingen zeg ik verder niets meer. Maar Canon heeft als pionier op dit vlak enorme vooruitgang geboekt en de kwaliteit op minstens gelijke voet gebracht, met behoud van alle voordelen van de CMOSchip: lager stroomverbruik, eenvoudigere en meer betrouwbare productie, … Zij waren dan ook lange tijd de ongekroonde koningen van het full frame, ofwel het volle kleinbeeldformaat van de sensor. Met een CCD was dit zo goed als onmogelijk te bereiken. En toen Nikon onlangs en onverwacht met zijn 3D-model uiteindelijk óók een full-frame camera uitbracht, bleek het eveneens om een CMOS te gaan, het type waar ze jarenlang hadden op neergekeken. Maar wat is dit full-frame formaat eigenlijk en waarom is daar zoveel om te doen? Traditionele, analoge kleinbeeldcamera’s hadden een filmformaat van 24 x 36 mm. En de objectieven die voor deze camera’s waren ontwikkeld, gaven een beeldcirkel waarin dit formaat precies kon ingepast worden. Iedereen gelukkig. Bij de eerste digitale camera’s lag dit anders. Een sensor met volledige kleinbeeldformaat was onbetaalbaar en technisch haast niet te produceren.
Cursus Digitale Fotografie
Deel III - 2
Bovendien was de trend naar kleine, compacte toestellen, met bijbehorende lichte objectieven. En dus werd de sensor véél kleiner dan het kleinbeeldformaat. Dit had zijn voor- en nadelen. De lagere prijs en het gebruiksgemak zorgden snel voor een brede adoptie van de digitale camera. Dat de beeldkwaliteit nergens in de buurt van de analoge foto kwam, nam men er maar bij. Maar de vraag naar hogere kwaliteit bleef toenemen. Onder druk van de pixelrace nam de resolutie en langzaamaan ook de grootte van de sensoren toe. De absolute recordhouder is momenteel de Canon EOS 1Ds MkIII, die op een full-frame sensor 21 miljoen beeldelementen aankan. En daarmee laat hij de analoge film in vele opzichten achter zich. Het gevolg laat zich raden: sensoren komen nu in alle maten en gewichten. Niet alleen de afmetingen verschillen, maar ook de verhoudingen. De klassieke beeldverhouding van 3:2 werd door Olympus en enkele andere fabrikanten in vraag gesteld en vervangen door het “handzamer” formaat 4:3. En daar horen natuurlijk weer heel andere objectieven bij. Zei er iemand ‘standaardisatie”? De eigengereidheid van de fabrikanten is niet het enige probleem. Al die verschillende formaten hebben uiteraard hun eigen beeldcirkel, die door het objectief erop wordt geprojecteerd. Hoe kleiner de sensor, des te kleiner de beeldcirkel en des te meer er moet worden vergroot om hetzelfde afdrukformaat te krijgen. En om die nodige vergrotingsfactor of ‘cropfactor’ gaat het nu. De volgende montage maakt dit duidelijk. U krijgt eerst de originele foto, dan het beeld zoals dat op een full-frame sensor (omgekeerd) wordt geprojecteerd, en vervolgens hetzelfde beeld met dezelfde brandpuntsafstand op een APS-C sensor. De laatste foto geeft aan hoeveel we moeten vergroten om hetzelfde formaat te krijgen. Merk dat er een stuk van de foto is weggevallen.
Foto 2: de originele opname
Cursus Digitale Fotografie
Deel III - 3
¨ Foto 3: full-frame sensor
Foto 4: APS-C-sensor
Foto 5: op zelfde formaat getoond
Uit het voorbeeld blijkt dus dat een kleinere sensor voor een soort tele-effect zorgt. De werkelijke brandpuntsafstand moet dan met een bepaalde constante worden vermenigvuldigd en dat is dan die cropfactor. De meest gebruikelijke factoren zijn 1,3 naast 1,5 en 1,6. Maar een hele reeks andere waarden, komen ook voor. En een full-frame sensor heeft dan natuurlijk een cropfactor 1. Zo heeft het APS-C formaat – een poging tot standaardisatie – een waarde van 1,6. We vinden dit terug in meerdere camera’s en het betekent dus dat men de werkelijke brandpuntsafstand van het objectief met deze factor moet vermenigvuldigen om de schijnbare brandpuntsafstand te krijgen als men vergroot tot het kleinbeeldformaat. Een 50mm objectief geeft dan een beeld dat met een 80mm op kleinbeeld kan worden vergeleken. Is dat belangrijk? Jawel, om verschillende redenen. In de eerste plaats wordt het lastig om échte groothoek te verkrijgen. Want een 17mm objectief zal dan als een 24mm presteren, waardoor een deel van het beeld wegvalt. Een voordeel is dan weer dat de kleinere beeldcirkel aan de rand minder correctie behoeft (het middendeel van het beeld is gewoonlijk het scherpst), zodat het objectief goedkoper kan gefabriceerd worden. Want wie met een full-frame wil werken, krijgt alleen met de allerbeste objectieven waar voor zijn geld.
1.3 Hoe werkt een sensor? Het zal je verwonderen, maar de sensor geeft alleen verschillen in lichtintensiteit weer en geen kleuren. Elke opname die we maken is eigenlijk een zwart-wit opname en de camera is dus in feite kleurenblind. Maar hoe krijgen we dan kleur in ons leven? Bij de vroegere kleurenfilm werd dit bekomen door met verschillende lagen te werken, die elk voor een van de hoofdkleuren gevoelig was. Dit vindt men nog terug in de zogenaamde drie-lagensensor, maar die zijn duur en worden in gewone camera’s minder gebruikt. Wat we meestal aantreffen is een sensor met een kleurgevoelige filter die in een patroon is opgesteld: de Bayer-matrix. Deze filter reageert op rood, groen en blauw en meer op groen omdat het menselijke oog daar het gevoeligst voor is. Ontbrekende beeldelementen (pixels) worden berekend uit de pixels eromheen.
Cursus Digitale Fotografie
Deel III - 4
Schema 1: een Bayer-matrix
Met een dosering van rood, groen en blauw kunnen we alle kleuren samenstellen. Dit noemt men niet verwonderlijk het RGB-systeem en we komen er wat verder nog op terug, net zoals op enkele andere mogelijkheden. De Bayer-matrix levert ons dus een stroom van continue en dus analoge lichtintensiteiten. Maar we hebben toch een digitale camera? Zeer snugger opgemerkt – je zal het ongetwijfeld nog ver brengen! Dus gaan we deze stroompjes in de beeldchip digitaliseren. De kleurintensiteit wordt in stapjes verdeeld. Een 8-bit processor levert dan 28 of 256 nuances per kleur. Voor de drie kleuren samen kan men dus 256 x 256 x 256 of bijna 17 miljoen kleurencombinaties weergeven. En sommige cameraprocessors werken zelfs met 12 bit, dus 4096 schakeringen per grondkleur, meer dan de hersenen kunnen waarnemen. Is dat laatste niet wat overdreven? Toch niet, want dat betekent dat we bijvoorbeeld in een grijstint zeer zachte overgangen kunnen krijgen, of nog doortekening in donkere schaduwpartijen of heel lichte gedeelten.
1.4 Stof op de filter De grootste ergernis van elke fotograaf: de sensor raakt statisch geladen en trekt dus stofdeeltjes aan. Op de foto zijn die te zien als kleine grijze vlekjes. Bij een groot diafragma en een donkere achtergrond vallen ze niet erg op, maar op een heldere achtergrond en een kleine lensopening des te meer. De beste manier om je camera te inspecteren is dan ook een opname te maken van een heldere hemel of een wit blad, met een diafragma 16 of kleiner. Het resultaat is onbarmhartig en veroorzaakt slapeloze nachten. Recente camera’s zijn vaak uitgerust met een mechanisme dat stof op de sensor verwijdert, meestal met ultrasone trillingen. Dit helpt een beetje, maar zelden geeft het helemaal voldoening. Om dit euvel te verhelpen werden de meest bizarre oplossingen bedacht, terwijl de simpele vaak volstaan. Een eenvoudig blaaspeertje kan al een flink eind helpen, maar doe het niet als je handen hebt als kolenschoppen. Het stof ligt namelijk niet op de sensor zelf, maar natuurlijk op de eerste low-pass filter. En die is extreem kwetsbaar. Een kras op dit oppervlak en je kunt al je volgende foto’s vergeten. Voorzichtigheid is de moeder van de Chinese muur.
Cursus Digitale Fotografie
Deel III - 5
Verder onderscheiden we natte en droge methoden. Voor loszittend stof volstaat blazen (niet met de mond, speeksel is ruïneus!!) met een peertje of een speciale aerosol die geen vochtdeeltjes meespuit. Ook zijn er speciale combinaties die lijken op een mini-stofzuiger waarmee goede resultaten worden behaald. Anderen weer zweren bij de Magic tape van Scotch, die ze voorzichtig op de filter aanbrengen en die bij het verwijderen het stof meeneemt. Ik zou het zelf nooit durven proberen, omdat het risico op residu toch blijft bestaan, zeker als de tape al een tijdje in de kast ligt. Hardnekkig en vastzittend stof kan je aanpakken met héél zachte borsteltjes, die speciaal voor sensorreiniging zijn ontworpen. Gebruik een gewoon penseeltje, en je sensor is getekend voor de rest van zijn leven. Sommige van deze borsteltjes worden antistatisch gemaakt met een snelle ronddraaiende beweging, en het resultaat hiervan is doorgaans goed. En nog anderen maken zelf een ionisator, die het statische veld teniet doet. Het is niet aangetoond dat de krachtige ionenstroom op lange termijn wel veilig is voor de sensor, maar ook hier is er vaak een redelijk gevolg. Maar het beste resultaat wordt nog steeds bekomen met de zeer dure Sensor Swabs, op voorwaarde dat je een handige Harry bent. Het gaat om een plastic spateltje dat aan het uiteinde omgeven is met een zeer zacht papierlaagje, waarop een of twee druppels Eclipse-vloeistof of zeer zuivere methylalcohol worden aangebracht. Ze zijn voor drie sensorgrootten verkrijgbaar. Met één enkele heen- en weergaande beweging wordt de filter gereinigd. Niet voor mensen met trillende handen of een zwak hart!
Foto 6: sensor swabs
Cursus Digitale Fotografie
Deel III - 6
Welke methode je ook gebruikt, je doet het steeds op eigen risico en de fabrikant (en zeker ikzelf) zal geen enkele verantwoordelijkheid nemen als er iets misgaat. Er zijn slechts twee mogelijkheden om hieraan te ontsnappen: je laat het doen door een gespecialiseerde firma, of je koopt een compacttoestel zonder verwisselbare lenzen. Want stof raakt voornamelijk in het camerahuis bij het verwisselen van objectieven.
1.5 Waarom is resolutie belangrijk? Meer is beter. Dat zegt de volksmond en die heeft meestal gelijk. Ja toch? Dus moet een camera met 6 megapixels of zes miljoen beeldpunten wel zeker tweemaal zo goed zijn als een van 3 megapixel. Helaas! Het aantal beeldpunten is een verkoopsargument geworden, en dus wordt er zwaar in gesjoemeld. Zo worden er zeer goedkope, merkloze cameraatjes op de markt gegooid met onvoorstelbare hoge resoluties. Bij controle blijkt dan dat dit niet klopt: de 6 megapixels blijken er in de praktijk slechts 3 en de rest is erbij gefantaseerd. Nou ja, niet gefantaseerd, maar geïnterpoleerd of men heeft gewoon elke pixelrij verdubbeld. En op de PC ziet het beeld er dan bedroevend uit. Belangrijk is dus hoeveel beeldpunten er op de sensor staan, niet hoeveel men er daarna met kunstgrepen bijkletst. Maar dat is niet alles. Ook de dichtheid van de beeldpunten speelt een rol. Hoe groter het beeldpunt is, hoe meer licht het kan vangen. Dat betekent minder nodige versterking en dus minder beeldruis. Maar grotere beeldpunten betekent een kleinere dichtheid. En zo is de vicieuze cirkel gesloten. Het komt er dus op aan een goed compromis te vinden. Bij kleinere sensoren is dat makkelijker dan bij grote. Om maar iets te noemen: bij een full-frame valt het licht op de randen van de sensor veel schuiner dan in het midden en het effect daarvan moet ook worden weggewerkt. Je moet daarbij nog bedenken dat bij sensoren met een grote dichtheid elke meetcel nauwelijks enkele nanometer groot is. We spreken dus over miljoensten van een millimeter. Als het allemaal niet zo eenvoudig is, wil dat dan zeggen dat resolutie geen enkel belang heeft? Natuurlijk niet. Ik wou alleen even aantonen dat het aantal beeldpunten op zich niet zo veel zegt. Binnen bepaalde grenzen althans. Het belangrijkste voordeel van hoge resoluties is dat je er grotere formaten mee kunt afdrukken zonder al te veel verlies. Met drie megapixels kan je een postkaart vullen, maar geen poster. Met twaalf megapixels vul je makkelijk een A3-formaat. Bij nog grotere formaten speelt de resolutie al een mindere rol, omdat doorgaans de kijkafstand dan toeneemt. Maar er is nog een pluspunt: als je meer beeldpunten ter beschikking hebt kan je ook meerdere beelduitsneden maken zonder veel verlies in kwaliteit. En dat betekent meer mogelijkheden bij het croppen en dus meer artistieke vrijheid, zoals hieronder te zien valt.
Cursus Digitale Fotografie
Deel III - 7
Uit een totaalfoto in zeer hoge resolutie halen we enkele crops. Met een extreme vergroting kunnen we aantonen dat het beeld niet ineenstort, zoals dat zou gebeuren als we maar 3 megabyte ter beschikking zouden hebben. In mijn ogen is dit een van de belangrijkste voordelen van het werken met full frame. Het is dan ook de verwachting dat er voorlopig geen einde komt aan het opbod met de pixels.
Foto 7: originele foto met totaalbeeld
Foto 8: crop uit de rechtsbovenhoek
Foto 9: crop uit het centrum
Foto 10: crop uit de linkerbovenhoek
Cursus Digitale Fotografie
Deel III - 8
Foto 11: … en een extreme vergroting
Het bijzondere ligt erin dat de oorspronkelijke foto reeds een uitvergroting was wegens de drukke omgeving. Een gelijkaardig voorbeeld: je kunt een panoramafoto maken uit een enkele gewone opname.
Foto 12: panoramafoto door uitsnede van een 17-megapixelopname.
Cursus Digitale Fotografie
Deel III - 9
2. Kleur 2.1 Denken in kleur In het vorige hoofdstuk brachten we al even het RGB-systeem in beeld. Omdat de kleuren hier worden samengeteld, spreekt men van een additief systeem. Om bijvoorbeeld geel te krijgen telt men dus rood en groen samen. Er bestaan verschillende andere systemen. Het CMYK-systeem (Cyaan, Magenta, Yellow, blacK) is een subtractief systeem dat gebruikt wordt door printers. Om rood te krijgen moeten we cyaan aftrekken van onze kleurmenging. In het HLS-systeem (Hue, Lightness, Saturation) wordt de kleur bepaald door de hue (kleurtint). De L-factor bepaalt hoe licht deze kleurtint wordt, terwijl de S-factor zorgt voor de verzadiging. Dan is er ook nog het LAB-systeem (Light, A and B-channel), voor meer professionele toepassingen. Of grijsschalen, monochroom en duo-, tri- of quadtonen. Teveel om op te noemen, en dus doen we dat niet. Wat we moeten weerhouden is dat we voor het werken met beeldschermen een RGB-systeem gebruiken, terwijl onze printer een CMYK-systeem nodig heeft. De grote kunst is dus de schermkleuren te laten overeenstemmen met die van de printer. Als we dat niet doen krijgen we nooit perfecte afdrukken. De zwarte kunst die we hiervoor gebruiken heet kalibratie, en dat komt veel later nog uitgebreid aan bod, op het moment dat deze cursus van jullie al gevorderden heeft gemaakt.
2.2 Kleurtemperatuur Als je een ijzeren staaf in een steekvlam houdt (je hebt toch handschoenen aan?), dan zie je de kleur veranderen. Eerst wordt het uiteinde van de staaf donkerrood, dan oranje, vervolgens wit, ten slotte blauw en dan zijn je handschoenen al lang in brand gevlogen. Hoe hoger de temperatuur, des te koeler de kleur. Merkwaardig. En sommige mensen bracht dit op het idee om over kleurtemperatuur te spreken. In de fotografie is dat een belangrijk begrip. Denk eens terug aan de oertijd, toen de mens, gehuld in dierenhuiden, zich nog moest behelpen met daglicht en kunstlichtfilms. O wee als je aan het strand een kleurfoto wou maken met een kunstlichtfilm. Niet alleen de luchten waren blauw, maar al de rest ook. Een daglichtfilm binnenshuis proberen was eveneens een avontuur. Je huisgenoten zagen er op de foto’s dan uit alsof ze zich in het Inferno van Dante bevonden: vuurrode gezichten in een hellekrocht. De enige manier om dit te voorkomen was fotograferen met kleurfilters, die deze rampzalige effecten moesten voorkomen. Dan hebben we het nu toch heel wat makkelijker. De digitale camera bepaalt de kleurtemperatuur van de omgeving en past via zijn correctieprogramma de kleuren aan. En wit is dan altijd wit, niet rozig of groenachtig of met een geelzweem. Heb je al gemerkt dat ik durf overdrijven? Die automatische witbalans - want zo heet dat ding - werkt meestal redelijk, maar soms gaat ze glansrijk de mist in. Dat gebeurt vooral in ongewone situaties, bijvoorbeeld met menglicht van verschillende kleurtemperaturen of wanneer de gebruikte lampen een kleurspectrum hebben dat niet continu is.
Cursus Digitale Fotografie
Deel III - 10
Denk voor dat laatste maar aan de gasontladingslampen van de autostrade of in sommige tunnels. Nu raad ik je af al rijdend in een tunnel foto’s te maken, maar je weet maar nooit. Hoe wordt nu die kleurtemperatuur uitgedrukt? Wel, dat danken we aan de Engelse onderzoeker William Thomson, die een erg koude bezigheid had. Hij zocht namelijk naar het absolute nulpunt op de thermometerschaal. Dit absolute nulpunt was de laagste temperatuur die in het heelal kon waargenomen worden, waarbij de beweging van de moleculen ophield. Iets lager dan wat je diepvries aankan dus, want uiteindelijk werd hij vastgesteld op -273,15° Celsius. Voor zijn werk werd hij later in de adelstand verheven onder de naam Lord Kelvin. En de meetschaal van Kelvin werd in de wetenschap de gebruikelijke manier om de temperatuur weer te geven, en dus ook de kleurtemperatuur. Hoor je? In de wetenschappelijke wereld. Vertel je huisgenoten dus niet dat het vandaag een stralend weertje wordt van 300 graden Kelvin, want dan gaan ze nog méér aan je verstand twijfelen. De meeste digitale camera’s kan je manueel instellen op een kleurtemperatuur gaande van zeer warm licht (2000°K) tot zeer koud licht (10.000°K). Maar omdat niemand al die temperaturen uit zijn hoofd kent, werkt men meestal met symbolen of gewoon de vermelding van de lichtbron (zonlicht, flitslicht, gloeilamp, TL-buis, kaarsen…). Onthou dus alleen: hoe hoger de kleurtemperatuur, hoe kouder het licht van de lichtbron. Ho, stoppen, ho maar: wat krijgen we nu? Bij Photoshop staat het toch precies omgekeerd? Als je de cursor naar de hogere waarden rechts verschuift, krijg je warmere kleuren. Wie heeft er nu gelijk? Ah, wij natuurlijk! Want Photoshop geeft niet de absolute kleurtemperatuur, maar wel de contrasterende temperatuur die je moet toevoegen of aftrekken om het gewenste resultaat te krijgen. Je hebt natuurlijk de handleiding niet gelezen! Raar maar waar, maar ook bij zwart-wit speelt de kleur een rol. Vandaar dat men vroeger bij zwart-wit films bijvoorbeeld een geelfilter gebruikte om de blauwe luchten beter te laten uitkomen. Dezelfde monochrome foto opgenomen met verschillende lichtbronnen, geeft verschillende contrasten, doordat de kleurtemperatuur verschilt.
2.2.1 De temperatuur van lichtbronnen Als we fotograferen moeten we dus rekening houden met de kleurtemperatuur van elke lichtbron. Meestal neemt de camera dit voor zijn rekening, maar er zijn omstandigheden waarin de menselijke intelligentie het moet winnen van de machine. Menglicht is verraderlijk. Maar er is nog erger: lichtbronnen hebben niet altijd een constante kleurwaarde. Als de zon ’s morgens aan de horizon staat, is het licht ervan oranje door de straalbreking in de atmosfeer. Staat ze hoog aan de hemel, dan krijgen we daarentegen kouder licht. En als er wolken het licht filteren, wordt het licht nog kouder en krijgen dan krijgen we een heel hoge kleurtemperatuur. Gloei- en spaarlampen vormen een ander probleem. Een nieuwe spaarlamp geeft 20 tot 30% meer en kouder licht dan een oude. Als we over de kleurtemperatuur van een lichtbron spreken, dan hebben we het dus steeds over een gemiddelde. Het tabelletje hieronder maakt een en ander duidelijk.
Cursus Digitale Fotografie
Deel III - 11
lichtbron lucifer kaarslicht gloeilamp studiolampen maanlicht morgenzon studioflitsers externe cameraflitser zonlicht middagzon, wolken TV-scherm
kleurtemperatuur 1700-1800°K 1800-1900°K 2800°K 3400°K 4100°K 5000°K 5500°K 5500°K 5600°K 6500°K 9500°K
spectraalkleur oranjerood oranje oranjegeel geel geel geel wit wit wit blauwwit blauw
Tabel 1: kleurtemperatuur van enkele lichtbronnen.
Maar hoe lossen we dit nu allemaal op? Wel, daarvoor werden de kleurkaarten uitgevonden. Je vindt ze in elke fotohandel en ze gaan lang mee. Zo’n kleurkaart geeft minstens de standaardwaarden voor RGB en CMYK, naast vaak enkele huidtinten en grijswaarden. Tussen de laatste zit steeds een grijswaarde, die 18% van het eropvallend licht weerkaatst en een witwaarde die 90% reflecteert. Die 18% vormt een gemiddelde van het beschikbare licht en is dus ideaal om de juiste belichting in te stellen. Hoe doen we dit? Simpel, je had er zelf op kunnen komen. We geven ons lieftallig model die kleurkaart in de hand en bij de eerste opname komt die kaart (liefst groot) mee in beeld. Als we achteraf de foto op de monitor vergelijken met ons kleurenstaal, vallen de afwijkingen meteen op. Gemakkelijk toch? En de kleurcorrectie doen we met onze vertrouwde software.
Foto 9: fotograferen met een kleurkaart
Cursus Digitale Fotografie
Deel III - 12
Er zijn uiteraard nog andere oplossingen. Vele reflextoestellen hebben een ingebouwde mogelijkheid om een blad spierwit papier te fotograferen en dit wit dan verder als standaardwaarde met die bepaalde lichtbron te gebruiken. Op die wijze kan je verschillende lichtbronnen opslaan in het camerageheugen, elk met hun eigen witbalans. En dan zijn er nog de commerciële oplossingen als de ExpoDisc, die als een filter op het objectief wordt geschroefd en een 18% gemiddelde maakt van het omgevingslicht, de kleurafwijking vastlegt en corrigeert. Je hebt dan wel voor elk objectief met afwijkende filtermaat een andere disc nodig, wat de kleurkaart een onbetwiste en veel goedkopere winnaar maakt.
2.3 Kleurruimte Alsof het nog niet genoeg is: er is kleur en kleur. Niet alleen is kleurwaarneming een subjectieve ervaring (denk maar aan de zeer vele soorten kleurenblindheid), maar zelfs ons linkeroog neemt kleuren anders waar dan ons rechteroog, al wordt dit in de hersenen wel gecorrigeerd. En als de lichtintensiteit beneden een drempelwaarde valt, zien we zelfs helemaal geen kleuren meer. Het is dus waar dat in het duister alle katjes grauw zijn, wat nog niet wil zeggen dat je ze mag knijpen ook. En we merkten al op dat onze ogen gevoeliger zijn voor groen licht dan voor andere kleurtinten. Professor A. Munsell was de eerste die in 1905 een kleurenatlas produceerde op basis van wetenschappelijk onderzoek en zijn HLS-systeem is heden nog steeds in gebruik, met enkele wijzigingen en verbeteringen die hij in 1940 aanbracht. In dit systeem kunnen dus alle kleuren worden beschreven. Dat wil niet zeggen dat al die kleuren ook kunnen gebruikt worden. De monitor, de camera, de scanner en de printer hebben hun beperkingen. In de beginperiode van de kleurenmonitors bestond er geen echte standaardisatie. Het rood van het ene merk was anders dan het rood van een ander. En slechts langzaam kwam men tot afspraken, die resulteerden in het sRGB-profiel (en die ‘s’ staat dus, jawel, voor ‘standaard’). En het geheel van de kleuren die door deze standaard wordt bestreken, noemt men met een mooi woord het ‘gamut’. Het gamut van sRGB is dus een onderdeel van de totale kleurruimte. Voor het gewone werk voldoet deze standaard uitstekend: onze apparaten kunnen deze kleurwaarden wel aan. Maar voor het betere werk blijft sRGB in gebreke: sommige kleuren zijn er niet in gedefinieerd en vooral in het cyaan en groen schiet het tekort. Bovendien kunnen printers meer kleuren aan dan een monitorscherm. Daarom ontwikkelde Adobe in 1998 een ruimere standaard, Adobe RGB, die wel 50% van het Munsell-systeem aankan. Vele professionelen werken met Adobe RGB, en professionele camera’s hebben dan ook deze voorziening ingebouwd. Het zwakke punt blijven de monitors, alhoewel Eizo, Lacie, Nec en Mitsushitu enkele zeer dure monitors hebben ontworpen die deze standaard aankunnen. Het kan nog altijd beter. Adobe ontwikkelde onlangs het Wide Adobe RGB, met een nog groter gamut en voor de hoogste kwaliteitstoepassingen is er de ProPhoto
Cursus Digitale Fotografie
Deel III - 13
RGB-norm, die standaard door Lightroom wordt ondersteund. Maar dan heb je apparatuur nodig, die voor de gewone amateurfotograaf vér buiten het bereik ligt. En als je je toch op dit terrein wil wagen, geef me dan een seintje. Ik heb hier nog zo een paar opnamen liggen …
Cursus Digitale Fotografie
Deel III - 14