De megapixelrace

Door mrc4nl op maandag 27 april 2015 20:34 - Reacties (21)
Categorie: Camera's en lenzen, Views: 8.515

Geschiedenis van de digitale camera

Digitale camera’s zijn eigenlijk nog maar kort op de markt, 20 jaar om precies te zijn. De eerste digitale camera was trouwens niet een Nikon of Canon. Zij kwamen pas na 2000 op de digitale markt .Nee , n van de eerste spelers was een Kodak. Kodak begon als product van film (als in “filmrolletjes”) rond 1885, het bedrijf groeide en deed ook aan research. In 1975 had Steven Sasson, reseacher bij Kodak de digitale (CCD) sensor uitgevonden.Het had veel voordelen ten opzichte van de Video Tubes uit 1950, die werden ingezet voor live tv uitzendingen.

De "camera" van Sasson had een resolutie van 0,01 megapixel (100x100 pixels) en maakte zwart/wit beelden. De data werd op een cassettebandje opgeslagen.
http://tweakers.net/ext/f/Z4tCmFkbWos0CarmTHuh2jUo/full.jpg


Uitvinding Bayer filter
Een jaar later in 1976 had Bryce Bayer, ook een medewerker bij Kodak het Bayer filter uitgevonden.
http://static.tweakers.net/ext/f/IaQzbOkj9m2zfZ9RqphH56qL/full.png

Het Bayer filter gaf de pixels de mogelijkheid om kleur te zien door de pixels te voorzien van een kleurenfilter. De reden dat er 2x zoveel groene pixels zijn, is omdat het menselijk oog het meest gevoelig is voor groen licht, en is daardoor het beste om illuminatie te meten. Het gebruik van het kleurenfilter word nog steeds toegepast in de huidige digitale camera’s. Verderop in deze blog kom ik terug op de nadelen van het Bayer filter.

Verdere ontwikkeling van de digitale camera

Na de uitvinding werden de sensoren doorontwikkeld en vooral ingezet voor wetenschappelijk en medisch onderzoek. Het is moeilijk om een precieze datum te geven voor de eerste volwaardige draagbare camera. Rond 1985 kwamen de eerste apparaten, maar je kon ze moeilijk echte camera's noemen, er waren een hoop tekortkomingen. Ze hadden bijv te weinig pixels,konden alleen zwart/wit of waren niet draagbaar. Rond 1990 kwamen de eerste camera’s geschikt voor fotografische doeleinden. Hier een paar iconishe camera's:
Kodac DCS100
http://tweakers.net/ext/f/4iqP08RkyQomUv2WT9voCkPx/full.png


De DCS 100 had een resolutie van 1.3 Megapixel en had een schoudergelagen opslag.Met een SCSI verbinding kon de data naar een computer worden overgezet. Alhoewel er een Nikon camera is “geleend” is het echt een Kodak product, Nikon had niets met de ontwikkeling te maken. Kodak had ook geen ervaring met het maken van spiegelreflexcamera's. Ze hadden tot die tijd meer aan balgcamera's gewerkt. Het was dan ook een logische keuze om van een slr om te toveren tot een dslr. Ze waren voor beperkt publik, met name journalisten die de foto's digitaal konden versturen ipv het rolletje te moeten ontwikkelen. Ook Nasa heeft Kodac DCS camera’s gebruikt op enkele ruimtemissies.

Minolta RD175
In 1995 maakte Minolta op eigen kracht hun eerste digitale camera, de Minolta RD 175.De RD-175 was de uniek vanwege zijn ingebouwde PCMCIA opslag, niet langer hoefde men de lompe opslagunit rond te zeulen.
https://farm9.staticflickr.com/8243/8475045364_2897cd30f3.jpg
Minolta RD-175 DSLR (1995) by Brad Scruse, on Flickr

Minolta had in die tijd geen sensor divisie, en konden niet aan grote sensoren komen.Dus pakten ze 3 kleine 0.38MP sensoren en met een prisma verdeelde ze het licht over de 3 sensoren 2 sensoren werden voorzien van een groen kleurenfilter, en de laatste van een blauw/rood filter. Digitaal werden de waardes genterpoleerd tot een 1.75MP kleurenfoto.Ook zat er speciaal in glas om beeldcirkel te verkleinen, waardoor het beeld wat wijder werd (Full Fame lenzen met een kleine sensor heeft erg veel last van de crop factor)


De megapixelrace was begonnen

In 1997 trok de markt voor digitale consumentencamera's steeds meer aan, zeker met de uitvinding van CMOS sensoren, werden camera's goedkoper en werd de accuduur verbeterd.
Door ontwikkelingen kregen de camera's ook steeds meer pixels, de megapixelrace was officieel begonnen. Hier een overzicht van de megapixels door de jaren heen:

http://static.tweakers.net/ext/f/427WLeFnfVnvSdZON35upzdR/full.png
En de bijbehorende camera's:
http://static.tweakers.net/ext/f/0vPb2SCSibvE7a9SxsSTxb9D/full.png


Sky is the limit?

De techniek is er al om pixels van 1.16m te maken, die je vooral vind in smartphones.De huidige serieuze camera’s als dslr’s en systeemcamera’s blijven iets achter op dit gebied . Hebben zij dan een limiet bereikt, of wil niemand meer een camera hebben met een enorm aantal megapixels?

Er zijn argumenten zoals:
Omdat we niet meer dan XX megapixels nodig hebben
Al is dit natuurlijk een slecht argument De pixelrace is nog altijd niet gestopt, en iedere keer toen er weer een nieuw megapixel record werd gevestigd, waren er mensen die het nieuwe aantal overbodig vond, en toch zijn door de jaren heen steeds meer megapixels bij gekomen,en toch we blijven het steeds weer zeggen. Wat zouden we nu van 50 MP vinden? das toch absurd? of misschien is het zo gek nog niet.

Toch zal de pixelrace een keer ten einde komen, er limieten waar je rekening mee moet houden als je goede scherpe foto's wil maken. Hieronder staan een aantal belangrijke redenen.


Diffractie

Het belangrijkste oorzaak die meer megapixels nutteloos maakt is diffractie.Elk optisch systeem heeft hiermee te maken. Zolang er licht door een opening(=lens) gaat wil het gaan divergeren en zal het licht met zichzelf interfereren. Hierdoor neemt het lichtpuntje een groter oppervlak aan. Hoe kleiner de lensopening hoe sterker het effect, en des te groter het “lichtpunt” wordt. F8 geeft dus meer diffractie dan F1.4 Je wil niet liever niet dat n lichtpuntje zich over veel pixels uitspreidt ,om zo de foto zo scherp mogelijk te houden.

De officile naam voor dit puntje licht is “ Airy Disk”. Vernoemd naar de ontdekker George Biddell Airy.
http://static.tweakers.net/ext/f/WMYpq2Dup7kZ4sKkJ4NOd42m/full.png

Een visuele interpretatie van een Airy disk, de buitenste ringen zijn feller getekend dan in werkelijkheid.
Zoals je ziet heeft dit een golvend patroon, anders dan in het plaatje ligt de werkelijke verdeling van licht voornamelijk in de in de kern(84%) 7% in de 1e ring,waardoor er 9% voor alle andere ringen over blijft

Als je natuurkunde op school hebt gevolgd zal je vast geleerd hebben dat licht zich gedaagd als een golf. Elke kleur heeft zijn eigen frequentie,en dus zijn eigen golflengte.Blauw (UV) is het kortste, en rood/IR in het langste.

http://static.tweakers.net/ext/f/GKSU7wBzOinKdXR2osavMOvD/full.png

De golflengtes van zichtbaar licht hebben een grootte van enkele honderden nanometers, een nanometer is n miljoenste millimeter. Ter vergelijking: Een koolstofatoom heeft een diameter van 0.07 nm (is 14x zo klein als een lichtgolf)
Grootte van de Airy disk
De diameter van de disk is van 2 factoren afhankelijk, de golflengte van het licht, de doorsnede van de( lens) opening. Je kan voor de opening gewoon de F stop gebruiken. Als laatste heb je de verhouding nodig van de afstand tot de eerste zwarte ring van de Airy disk. Deze verhouding is constant. Je zou ook de afstand tot de 2e ring kunnen nemen, maar de 7% extra licht draagt nauwelijks iets bij aan de intensiteit (ring heeft immers ook een groter oppervlakte)

Met wiskunde is de afstand tot het eerste minimum te berekenen,deze formule wordt de bessel-J formule genoemd.
http://static.tweakers.net/ext/f/aSSvUvx8u8Z3pfhpD8D6zOzo/full.png

Met deze Bessel functie is die verhouding te bepalen door het eerste snijpunt met de Y-as uit te rekenen(Y=0)
http://static.tweakers.net/ext/f/wOxq3vlvD3jSR7agWHRn31tM/full.png

Helaas is deze functie iets te ingewikkeld (voor mij althans) maar ik heb wel de uitkomst kunnen vinden : 3.83. Als we dat invullen deze formule, weten we de diameter van de Airy disk.
http://static.tweakers.net/ext/f/djqnFPxFS8KS5aCfK9h93vpj/full.png


Hier ingevuld met een diafragma van F4 en een golflengte van 530nm:
http://static.tweakers.net/ext/f/zajHR7ntXIwabDHtzzFofhGy/full.png
Als camerasensor pak ik de Nikon D750. Een full frame sensor is 36mm bij 24mm, en de D750 sensor is 6016 pixels breed. Door 36000m te delen door 6016 kom je op een op een pixelgrootte van 5.98m uit. Aangezien 5.169<5.98 kan er hier onmogelijk scherpteverlies door diffractie optreden. Het inkomende licht is "scherper" dan de sensor kan waarnemen.
http://static.tweakers.net/ext/f/YKfplmSkm6jfjMRBNBJ0RbEI/full.png


Deze grafiek geeft het verband weer tussen de afmetingen van de Airy disk en het aantal megapixels. Links staan de groottes van de pixels/ Airy disks bij iedere F-stop en onder de grafiek staan het aantal megapixels. De gestippelde lijnen geven de grootte van de Airy disk aan bij bepaalde F-stop. Als de lijn van de megapixels onder de gestippelde lijn komt is de Airy disk groter dan een pixel, snap je? ;)http://static.tweakers.net/ext/f/nQqZLoaWbHdwcxj4KDGbyX06/full.png

Helaas is diffractie niet zo simpel als het eerste grafiekje doet vermoeden. De F nummers hier zijn niet de diffractielimieten. De praktijk wijst uit dat de Airy disk 2-3x zo groot als een pixel kan zijn voordat de diffractie zichtbaar de resolutie gaat verminderen. En die overgang van maximale scherpte tot veel diffractie is niet zo destructief als je misschien zou denken, maar als pixel peeper wil niet inleveren op scherpte, toch? ;)
Deze grafiek heeft als diffractie de Airy disk/2.44 en is daarom wel een goede referentie voor het diffractielimiet. Ook kun je aflezen hoeveel megapixels je kan hebben voordat je die limiet overschrijd. http://static.tweakers.net/ext/f/ey0m83KiffxH61u9OE0pl9I5/full.png

Je kan zelf ook spelen met de data, je kan de Excel sheet downloaden via: http://mrc4.nl/meuk/blog/megapixels.xlsx

Diffractie in praktijk

De Panasonic GX7, een 16MP Micro Four Thirds camera heeft een pixelgrootte van 3.5m. De diffractie begint rond F8(=2.75 pixels breed). Het verlies aan scherpte op F11 valt best mee. Daarna gaat het hard, op f32 (~10 pixels breed) houd je nog maar weinig scherpte over. Als je ieder vierkant van 10x10 pixels zou verkleinen tot n hou je ongeveer 1,6 Megapixel over.
http://static.tweakers.net/ext/f/7KNeL03fpPoccwwg13iMk5aI/full.jpg
De hoeveelheid diffractie is niet afhankelijk van de pixelgrootte,de Airy disk blijft immers even groot bij een f stop ongeacht wat er voor sensor achter zit.Met kleinere pixels zal zon Airy disk zich alleen over meerdere pixels verdelen ten opzichte van grote pixels.Het maximum detail wat je dan vast kan leggen is dus het diffractie limiet, meer pixels bieden dan geen voordeel. Met 28 megapixels kan je net zoveel detail vastleggen als met 14 megapixels. Om voor minder megapixels kiezen zodat je minder last hebt van diffractie heeft dus geen zin, het is er nog steeds, maar door de grotere pixels zie je het alleen minder.

De reden dat de Airy disk groter kan zijn dan een pixel en toch geen (grote) invloed heeft op de scherpte heeft met een aantal dingen te maken.

1. Rayleigh criterion

Airy disks mogen elkaar een beetje overlappen.Pas als de afstand minder dan 1/2 Airy disk is, kan je ze niet meer van elkaar onderscheiden en zie je het als n lichtpuntje.

2. Bayer filter array

In de voorgaande berekeningen heb ik heel zwart/wit de afmetingen van n pixel genomen.Maar de camera's vandaag de dag schieten kleur. Anders dan bij monitoren, zijn pixels bij sensoren niet opgebouwd uit subpixels die samen n pixel vormen, maar uit een patroon van rood groen en blauwe pixels waarvan de waarden van omliggende pixels worden gebruikt om de waarde van de middelste pixel te bepalen. De waardes van de rode groene en blauwe pixels moeten worden samengevoegd om een kleurenfoto te maken, dit proces wordt ook wel "Demosaicing" of "Interpolatie" genoemd.
http://static.tweakers.net/ext/f/IaQzbOkj9m2zfZ9RqphH56qL/full.png
De sensor heeft niet het volledige megapixels om een kleurenfoto te maken, maar moet die verdelen over de kleuren.1/2 is groen, 1/4 is blauw, en 1/4 is rood. Daarnaast houden kleurfilters veel licht tegen, slechts 40% wordt doorgelaten.

Naast de bekende bayer array is zijn er nog 2 andere technieken. X-trans en Foveon.
X-trans is vooral te vinden in Fuijifilm camera's. Het idee is afgekeken van het bayer filter, maar bij x trans zitten de kleuren in een ander patroon.Hier zijn alle diagonalen groen, en zitten de rode en blauwe pixels netjes naast elkaar.
http://static.tweakers.net/ext/f/gJvpAmAbb3EBbFSBosbL7mDW/full.png

Foveon vind je in enkele camera's van Sigma. Foveon werkt anders dan de bayer array, ipv van de kleurfilters naast elkaar zijn ze bij Foveon bovenop elkaar gestapeld. Dit laat nog minder licht door dan met de Bayer array, maar het voordeel is dat elke pixel wel de volledige kleurinformatie "vangt", dus is er geen interpolatie nodig.De foto bevat 4x zoveel detail in het rood en blauw kanaal, en 2x zoveel in het groen kanaal, omdat iedere pixel alle kleurinformatie "vangt" .
3.Aliasing
In het voorbeeld van de Nikon D750 was de Airy disk precies in het midden van de pixel.Maar Airy disks kunnen overal op de sensor optreden:
http://static.tweakers.net/ext/f/9LV5DmblO0pAbU2O6Q6vzI4o/full.png
Die overlap zorgt ervoor dat Airy disk op meerdere pixels komen, en dus dat iedere pixel dus deel van het licht ontvangt.Dit zorgt voor foute interpretatie van het werkelijke signaal,oftewel aliasing.
http://static.tweakers.net/ext/f/ICgDW9kF6MzM2LIcJB0Sq8r4/full.png

Je zal aliasing vooral zien als de frequentie van het detail ongeveer gelijk is aan het maximum wat de sensor kan vastleggen. Met normale Bayer sensoren zal je dit zien als gebieden met aliasing (regenboogkleuren). Is de frequentie veel hoger, dan zal je een egale kleur zien, is de frequentie een stuk lager, dan zijn er geen verstoringen te zien. Hieronder staat een foto van een gedeelte uit een lens testkaart. De frequentie van de zwart/witte streepjes wordt steeds hoger. In sommige gebieden zie je moir ontstaan.
http://static.tweakers.net/ext/f/9YqbJAZbmNy54C3rjsYKs4aA/full.jpg

4.Nyquist limiet

De Nyquist limiet is de maximum frequentie die een systeem kan waarnemen. Is de "frequentie" van je signaal hoger dan de nyquist limiet, dan ontstaat er aliasing. Het Nyquist sampling theorem is een methode om met genoeg "datapunten" te komen om de vorm van het signaal goed te kunnen reproduceren zonder aliasing. Ook wel de "sampling" frequentie genoemd. Als die te laag is kunnen die datapunten fout genterpreteerd worden. Een te hoge sample rate is niet erg, maar je moet dan wel onnodig veel data opslaan.
Hier is een voorbeeld van de sample rate. De rode lijn is het oorspronkelijke signaal en de zwarte stippen zijn de datapunten. De gestippelde lijn past precies door de datapunten, maar is een foute interpretatie, oftewel aliasing.Op een bayer sensor zal die aliasing er vooral uitzien als moir patronen.
http://static.tweakers.net/ext/f/VdExpbC3oSeOXlfrQCmjUvvJ/full.png


Volgens het Nyquist sampling theorem moet de sampling frequentie 2x zo hoog zijn als de maximale frequentie van het signaal dat je wil meten. Geluid is hier een mooi voorbeeld van, de maximale frequentie van wat een mens kan horen is rond de 22.000hz. Maar om betrouwbaar de geluidsgolven weer te geven moet je volgens het Nyquist sampling theorem een interval hebben van 2x de maximale frequentie van dat signaal hebben. Vandaar dat de laagste sampling rate voor geluid zo’n 44000 Hz is.
http://static.tweakers.net/ext/f/4gDTaQEEJA9RZRyk11bLCHg2/full.png


Nyquist limiet van een bayer sensor
De sample rate van de sensor is de pixelgrootte, iedere pixel is een meetpunt, en de meetpunten liggen n pixel uit elkaar. De airy disk is het signaal dat je wil meten.Om de Nyquist limiet te berekenen moet je het sampling theorem omdraaien. Immers, de sample rate staat vast terwijl de signaal frequentie kan variren

http://static.tweakers.net/ext/f/aak1WhFKKKPOrq9hrGEVSJbi/full.png

Nu is de frequentie hier niet het per seconde maar het aantal Airy disks per mm, en de sample rate het aantal pixels per mm. Om aliasing te voorkomen moeten de pixels dus 2x kleiner zijn als een Airy disk.

http://static.tweakers.net/ext/f/AVJXDvoyh5N8U9Ioh5szxlSA/full.png

5.Low pass filter

Om aliasing te voorkomen passen veel camerafabrikanten Low Pass filters toe. Een andere benaming is ook wel "anti aliasing filter" Dit filter zit in het stukje glas dat voor de sensor geplaatst wordt. Het doel is om alle frequenties boven de nyquist limiet weg te filteren omdat die voor aliasing zorgen.Alle lagere frequenties worden wel doorgelaten. Helaas is het optisch niet mogelijk alleen de te hoge frequenties te filteren zonder de lage te benvloeden.Een Low Pass filter zal al het inkomende licht een klein beetje te blurren/divergeren, waardoor een lichtpuntje altijd iets groter zijn dan de pixel. Hiermee voorkom je hiermee dat er aliasing plaats kan vinden.Een nadeel is dat je door het blurren inlevert op scherpte kwijt bent. Bij hoge megapixel camera als de Nikon 800/800E, Sony A7/A7R en de Canon 5DS/5DR heb je de keuze om een camera mt of zonder zo'n filter te kopen.

Andere nadelen van kleine pixels

Dynamic range
Dynamic range is het kunnen waarnemen van detail in hele donkere en hele felle gebieden. Hoe groter het bereik tussen donker en licht, des te groter de dynamic range. Als je onderwerp een grotere dynamic range heeft dan je sensor, dan zullen je in de gebieden buiten de dynamic range geen verschillen in waarde meer kunnen zien, ze worden weergegeven als 100% zwart of wit.
http://static.tweakers.net/ext/f/rWSzEOB2LA9HnUuqO7NgEF26/full.jpg

Het "Dynamisch bereik" van het onderwerp van je onderwerp kan sterk verschillen, op een bewolkte dag heb je geen schaduwen en is bijna alles dezelfde "intensiteit" heeft (afgezien van de kleur). Terwijl je camera op een zonnige dag moeite kan hebben met het grote verschil tussen schaduwen en een heldere lucht. Door het enorme verschil tussen direct zonlicht en indirect (gras, bomen ed) is het onmogelijk om de zon in je foto's niet overbelicht te hebben. Nu is dit ook niet zo erg aangezien het menselijk ook niet geschikt is om recht in de zon te kijken. Vervelender is het wanneer je detail in zowel schaduwen als belichtte delen wil, bijv. als je een portret van iemand neemt waar de zon achter staat.
http://static.tweakers.net/ext/f/wrBIxRyv7lB2RELiHJ7M9sCZ/full.png
Deze foto is genomen in een donkere kamer op een zonnige dag. De voorgrond is hier amper zichtbaar terwijl de rododendron op de achtergrond al overbelicht begint te raken. Als dit een JPG foto was kwam dan kon je hier weinig meer aan doen om te corrigeren. Een JPG bevat maar voor 8 Bit aan kleurinformatie per kanaal(2^8=256 tinten) terwijl RAW bestanden 12 bit (=4096 tinten)of zelfs 14 bit(16384 tinten) hebben. Raw bestanden bevatten dus meer informatie. Raw processors als Adobe Lightroom kunnen deze extra informatie naar boven halen om daarna omzetten in een 8 Bit JPG. Dit proces heet Tone mapping.

http://static.tweakers.net/ext/f/SIPVfQGPLHHjLbDklGYDznYQ/full.png
Nu zie je meer detail op de foto, al blijft de text op het boek moeilijk te lezen,meer informatie krijg je er gewoon niet uitgeperst. Het terugwinnen van informatie in een foto heeft ook een nadeel,omdat de donkere en lichte delen van een foto nu dichter naar elkaar zijn gekomen is het contrast wat lager ligt, de foto lijkt nu grijzer.Al je wil je dat beidde toch goed belicht worden kan je 2 dingen doen, bracketing(HDR) toepassen of je reduceert het verschil tussen licht en donker, bijv met een flitser.
Bracketing/HDR
Bij Bracketing voeg je foto's op een speciale manier samen tot een HDR foto,je hebt minstens 3 foto's nodig.
1. Een onderbelichte foto, hier wil je dat alle felle gebieden goed belicht zijn.
2. Een normale foto, hier gebruik je de "midden-tonen" goed belicht zijn.
3 Een overbelichtte foto, hier wil je alle donkere gebieden voldoende belichten.

Met programma's als fotoshop kan je de 3 belichtingen samenvoegen. Een nadeel is dat je 3 (of meer) foto's moet maken. Als er een beetje beweging in je onderwerp is (bijv door de wind) kan dat lelijke resultaten geven, zoals "ghosts" (dubbelbeelden)
Het dynamisch bereik verkleinen.
je kan het verschil tussen licht en donker op twee manieren aanpakken, 1.je verlaagt de intensiteit van de felle gebieden,of 2:Je verhoogt de intensiteit in de donkere gebieden.
Dit kan met diffusors, reflectors en flitsers.
Een nadeel is nu wel dat je meer spullen nodig hebt en dus mee moet sjouwen, en in het geval van een diffusor/reflector vaak ook nog iemand die m vasthoud. Bij het maken van portretfoto's in fel zonlicht worden meestal diffusors en reflectors gebruikt om het harde en felle zonlicht te verzachten.

Hier zie je een overzicht van het verschil tussen de 4 foto's, met verschillende bewerkingen
http://static.tweakers.net/ext/f/E8Yiqin3MdM9XARbkY6rTI6W/full.png




SituatieLichtintensiteit[Lux]
Heldere sterrenhemel (geen maan)0.002
Sterrenhemel met volle maan0.3-1
kantoorruimte (kunstlicht)50-80
Zwaar bewolkt (middag)100
Licht bewolkt (middag)1000
Schaduw bij heldere lucht (middag)20000
geen ideexxxxx
heldere lucht (middag)10000–25000
Direct zonlicht10000–25000



Dit zijn slechts enkele voorbeelden, als je zelf metingen wil doen kan je een "lichtmeter" gebruiken.Moderne meters zetten de gemeten waardes dan ook om in termen die handiger zijn voor de fotograaf: EV(exposure value) in F stops en evt met een aanbevolen ISO,F-waarde, en sluiter snelheid.

Zoals ik in mijn eerdere blog al had verteld, Een F stop is een halvering of verdubbeling van de hoeveelheid licht die je sensor bereikt. Dus 2x zoveel is 1 stop, 16x zoveel is 4 stops. Moderne Camera's halen 14 stops of zelfs meer, dit komt overeen met een verschil van 2^14=16384x zoveel licht. Zolang het verschil tussen licht en donker minder dan 1:16384 is kan je sensor alle details vastleggen.
Smartphones hebben vanwege de pixelgrootte al een vrij kleine dynamic range, en om dit gebrek nog erger te maken ontbreekt het vaak ook nog aan manuele bediening en ondersteunen ze geen RAW.


Het proces voor het omzetten van licht in een elektrisch signaal wordt gedaan met een CMOS sensor. De pixel zet fotonen om en elektronen en bewaard die elektronen in een "well" totdat de sensor wordt uitgelezen.Hoe groter de pixel, des te groter de well kan zijn en hoe meer elektronen vast gehouden kunnnen worden. Alles boven de maximale well-capaciteit staat door 100% illuminatie (=wit) Alles mr dan de limiet wordt niet geregistreerd. Een grote sensor kan de hoeveelheid nauwkeuriger meten, wat dus ook resulteert in minder ruis en een beter dynamisch bereik.

http://static.tweakers.net/ext/f/3etzA00DymfYN20eaFPQMhRO/full.jpg



Ruisprestaties
Het kleiner maken van de pixels heeft een nadeel op ruisprestaties omdat iedere pixel minder licht vangt.Het signaal neemt af,terwijl de uitlees "ruis" hetzelfde blijft.De signaal-ruisverhouing wordt dus lager, je ziet meer ruis op de foto. Camera's met grote pixels laten ook duidelijk minder ruis zien dan camera's met kleine pixels. Echter, een veelgemaakte fout is dat men de foto's op pixel niveau gaat vergelijken, en dat is niet eerlijk. Dat neemt het voordeel de extra pixels namelijk weg. want wat heeft het dan voor zin om voor een camera met extra megapixels te kiezen. Je zou dus de foto met veel megapixels moeten verkleinen tot de foto met minder megapixels.



Post processing/sharpening

Er zijn een hoop stappen tussen het belichten van de sensor en de uiteindelijke foto.Niet alleen interpolatie, maar ook ruisreductie, verscherping,lenscorrecties en witbalans. Om de kleur te van n pixel te bepalen wordt met ingewikkelde algoritmes gekeken naar de omliggende pixels, is er spraak van een harde rand? is die rand recht of schuin? Wat is de gemiddelde helderheid? de algorithes zijn door de jaren beter geworden, en hebben ook meer rekenkracht van de camera nodig om uit te voeren. Als je RAW schiet wil je dat de camera zelf zo min mogelijk ingrijpt, en gewoon de volle data opslaat om later zelf met RAW converters de afbeelding naar wens te maken. Zo kan je zelf kiezen weke witbalans je wil, en hoeveel sharpening/kleurcorrectie en ruisreductie.

Veel van deze methoden kunnen een foto scherper maken, al offeren lenscorrecties juist weer scherpte op om vervorming weg te halen.
http://static.tweakers.net/ext/f/OLdY7zFAcw3FFRtqBNKXNIC5/full.png
Sensor uitlezen
Cmos sensoren moeten rij voor rij worden uitgelezen, bij het uitlezen treed er ook een beetje read noise op.
Camera correcties
Pixels die niet meer werken kunnen worden worden weggefilterd. En daarnaast moet er een niveau voor 100% zwart worden vastgelegd. De waardes van pixels zijn nooit helemaal 100% zwart.
Ruisreductie
Als er een foto wordt gemaakt met hoge iso gaat gaat dat gepaard met ruis. Soms is die ruis nauwelijks zichtbaar, maar zeker als de foto in donkere omstandigheden is genomen zal je ruis moeten onderdrukken om de foto toonbaar te houden. Hoeveel ruisreductie er op de jpg's zit die standaard op je camera zit verschilt van model tot model. Aan de ene kant wil je ruis onderdrukken aan de andere kant worden met een teveel aan reductie alle details uitgesmeerd waardoor ze verloren gaan.Je wilt dus geen "aquarel effect" hebben.
http://static.tweakers.net/ext/f/aVUikbD2TiBdchm8xb3tBUCB/full.gif
Omzetten belichting
De waardes van de pixels omzetten in kleurkanalen.
Witbalans
http://static.tweakers.net/ext/f/xGstASCPtjI1m2P6RyJTktDX/full.png
De witbalans gaat over kleurtemperatuur. 2000 kelvin is warm oranje licht, ~5000k is wit zonlicht, en 7500k is koel blauw licht.Oftewel welke "kleur" zie je als wit. Het doel van de witbalans is om grijze/neutrale gebieden te hebben zonder kleurtint. (Rood=Groen=Blauw) De witbalans werkt door elk kleurkanaal met een andere factor te vermenigvuldigen.Omdat Interpolatie van gelijke kleurrespons uitgaat, is het daarom vaak beter om eerst de witbalans te doen voordat je gaat Interpoleren.Als de foto als jpg wordt opgeslagen bepaald de camera de witbalans,schiet je Raw dan kan achteraf de witbalans worden ingesteld.
Interpolatie
De waardes combineren van omliggende pixels tot een kleurenfoto.
kleurruis verwijderen
Nu de kleurkanalen via interpolatie bij elkaar zijn gevoegd, zijn er gebieden met kleurruis zichtbaar geworden. Dit is te verwijderen door de de 3 kleurkanalen te vergelijken en daaruit het gemiddelde te nemen. Een kleurafwijking is makkelijker te detecteren dan een helderheid afwijking. Kleurruis is dan ook zelden een probleem op foto's.
http://static.tweakers.net/ext/f/WjBtSCQIPH2aHBWN7RytTrMo/full.png
Verscherpen
Een lens zal helaas nooit pixel scherpte opleveren vanwege interpolatie, AA filters of omdat hij optisch niet perfect is.Daarom moet een foto eerst een beetje verscherpt moeten worden om de fijne details weer goed zichtbaar te maken.Lightroom past standaard verscherping toe, in tegenstelling tot unsharp mask wat een betere methode is (en al werd gebruikt in het analoge tijdperk)
http://static.tweakers.net/ext/f/eg8F5u6LbXbzTwyN88qywTXj/full.png


De lens

De lens is de oorzaak van diffractie, omdat het licht door een opening(=het diafragma) gaat. Dus een "Perfecte" lens kan niet scherper zijn dan de diffractielimiet toelaat. Om lensscherpte te meten heb je een combinatie van sensor en camera nodig, Veel reviewsites gebruiken een normale camera om lenzen te testen, omdat die het dichtste bij normale gebruikssituaties liggen.Andere gebruiken liever een optische testbank waar ze iedere lens met dezelfde sensor kunnen testen.

• DXOmark: Perceptual Megapixels
• Slrgear: Blur index
• Lenstip: [MTF50] LPMM
• E-photozine: MTF
• The-digital-picture : alleen shots van testkaartjes
• Photoreview: LW/PH
• Cameralabs : alleen shots van testkaartjes
• Photozone : LW/PH


Het grote probleem met lens testen/reviews is dat de waardes enorm kunnen variren door de gebruikte testmethode en de opstelling.Daardoor is het niet verstandig om waardes tussen verschillende reviewsites te vergelijken ook niet als ze dezelfde eenheden gebruiken.Die factoren kunnen zijn:
• Gebruik je een grote of kleine testkaart?
• Welke camera gebruik je?
• Verscherp je de foto's voordat je gaat meten?
• Heeft een camera een Low pass/AA filter?
• Worden er lenscorrecties toegepast?
• Op welke focusafstand wordt er getest? , de scherpte op oneindig kan groter zijn dan dichtbij

De beste methode is om een optische testbank te gebruiken, omdat dan elke lens met dezelfde sensor wordt gebruikt, deze methode wordt ander andere bij Lensrentals gebruikt, zonder tussenkomst van de camera heb je enkele variabelen gelimineerd.

Met alleen foto's van (officiele) testkaarten heb je geen getalletjes en moet je alles zelf visueel beoordelen. Ook hier hier kan variatie optreden in de mate van hoeveel verscherping en correcties is toegepast.Het beste kan je gewoon wachten tot jouw favoriete testsite een review plaatst, of dat dat je resultaten van een review alleen vergelijkt met lenzen die door diezelfde site zijn gereviewd.

Wat is lens scherpte, en hoe meet je het?

Wat je ziet als scherp op een foto is eigenlijk gewoon een scherp contrast tussen 2 punten.Hoe meer de kleuren zich vermengen hoe minder scherp het contrast wordt. Op een gegeven moment zijn de kleuren helemaal in elkaar vervaagd, je houd dus maar n kleur over. Let maar eens op de bouten in deze spoorlijn.
http://static.tweakers.net/ext/f/MQUzw8e2JZ8KqDUnXMi0SF8m/full.jpg

Je met met een lenstest de overgang tussen zwart en wit.Hoe korter de overgang hoe scherper de lens.Als er overlap begint te komen tussen de streepjes neemt het contrast af, de kleuren beginnen te mengen. Hier zijn enkele veelgebruikte testkaarten
ISO 12233:2000
De voorganger van de huidige ISO 12233:2014 standaard. Nadeel van deze methode is het vereisen van een correcte belichting, het is namelijk vrij makkelijk om deze testkaart te overbelichten.Een leuk detail trouwens, deze testkaart hangt op het tweakers hoofdkantoor in de studio ;)
https://farm8.staticflickr.com/7595/16723362749_b3ede4cf48_z.jpgTeskkaart by mrc4nl, on Flickr
ISO 12233:2014
De huidige standaard. Deze methode wordt ook wel "Slanted edge" genoemd. Het gebruikt gedraaide vierkantjes over het hele oppervlak verdeeld zijn. Daarnaast is het is deze kaart veel grijzer, waardoor de oude problemen van overbelichting veel minder voorkomen. Het contrast tussen de zwarte en witte vlakken heeft geen invloed op de meting, zolang de rand zichtbaar is kan de overgang worden berekend. Het maakt niet uit of het wit of grijs is. Een nadeel van grijs is echter wel dat ruis de meetresultaten kan benvloeden. Op grijs heb je minder fotonen die de sensor raken, en dus meer ruis dan bij een wit vlak.
http://static.tweakers.net/ext/f/Eq55mvYGOGMyZJCm63LywhOX/full.png
USAF-1951
http://upload.wikimedia.org/wikipedia/commons/thumb/f/fe/USAF-1951.svg/245px-USAF-1951.svg.png

"USAF-1951" by Setreset - Own work. Licensed under CC BY-SA 3.0 via Wikimedia Commons - http://commons.wikimedia..../media/File:USAF-1951.svg

http://grayfoximages.com/Pages/Support/70-200_E0K8108_100mm_f8.jpg

Lens scherpte race?

Lens scherpte laat zich moeilijk vertalen in megapixels.Daarom je die ook nooit bij een lens op de doos vermeld staan.Het heeft dan ook weinig nut om consumenten met cijfers en claims over de scherpte over te halen. Daar heb je reviews voor nodig. Wat je wel vind zijn MTF grafiekjes die het contrastverloop laat zien over de diameter van de lens. MTF is nogal ingewikkelde theorie waar ik beter een nieuwe blogpost aan kan weidden, ik houd het even beknopt hier.

Van een scherpte race is vandaag de dag geen sprake.De meeste fabrikanten richten zich meer lenzen voor de massa die vrij betaalbaar zijn, In plaats plaats van high end lenzen voor de nichemarkt . F1.8 primes zijn hier een mooi voorbeeld van, ze zijn n f-stop langzamer dan hun F1.2/F1.4 tegenhangers maar wel stukken goedkoper en lichter. Om deze lenzen voor een betaalbare prijs in de markt te zetten hebben ze wel compromissen in hun optisch ontwerp.

Wil je lenzen die dicht tegen optische perfectie aanzitten, dan zul je veel geld moeten neerleggen:

pricewatch: Nikon AF-S NIKKOR 400mm f/2.8E FL ED VR
pricewatch: Carl Zeiss Otus 1.4/85 (Nikon)
pricewatch: Leica APO-Summicron-M 50 mm f/2 ASPH

Standaard lenzen zijn zelden scherp genoeg om de sensor bij te kunnen houden.Zeker met de hogen pixelaantallen vandaag de dag. In het centrum presteren kitlenzen nog wel aardig, maar je zal nooit goede randscherpte kunnen krijgen.Daarnaast zijn ze vaak f5.6 of zelfs hoger waardoor ze iets afgestopt al vrij snel met hun scherpte tegen de diffractielimiet aanzitten. Lenzen met vast brandpunt presteren beter, en bieden de optie om met f1.8 of lager te fotograferen,waar theoretish de lenzen veel scherper kunnen zijn voordat ze de diffractie limiet bereiken. Helaas is het aan de andere kant ook veel moeilijker om alle optische fouten te corrigeren bij lichtsterke lenzen.

De megapixelrace heeft hogere eisen gesteld aan aan de lens en de camera. Kleine pixels vereisen kleine toleranties omdat je ieder mankementje veel sneller terugziet op de foto. Een misfocus, een misplaatst lenselement, chromatische aberratie, de trilling van de sluiter, of de mount die een beetje scheef staat.Als je de pixels 100% wil benutten zul je dus precies te werk moeten gaan om de meeste scherpte uit je sensor te halen. Gelukkig leven wij In de moderne tijd met computergestuurd lensontwerpen,frezen en slijpen, is het veel makkelijker om binnen de toleranties te blijven dan vroeger.
Vroeger rond 1950) kon met dat niet, men had nog geen CNC , de toleranties waren +/- enkele millimeters, Camera's werden toen ook van hout gemaakt, om toch scherpe foto's met veel detail te krijgen vergrootte men de "sensor". Het oppervlak van een 8x10 camera is 60x zo groot als die van een full frame camera. Daarmee het veel makkelijker om scherpe foto's te maken. Vanwege equivalentie kan je nu een F8 lens gebruiken ipv een f2.8. Het licht wordt minder "verstrooid" en dus heb je minder last van optische mankementen als chromatische abberatie. Daarnaast zie je details over een veel grotere oppervlakte. Er bestaan "helaas" geen digitaal grootformaat camera's voor consumenten. Voor velen is Full frame de hoogste stap.Je kan nog n stapje hoger met medium-format camera's als Hasselblad H5D, en de Pentax 645Z. Maar die zijn vanwege de hoge aanschafprijs alleen maar haalbaar voor de professionele(=beroepsmatige) fotograaf/fotografes.

http://www.largeformatphotography.info/deardorff-8x10/deardorff012.jpg
Film is vergevender dan digitaal, het vangt licht onder elke hoek, terwijl pixels met hun microlenzen juist evenwijdig licht nodig hebben.Ook heeft 35mm film niet zon resolutie honger. meer dan 6 megapixel haal je er niet uit.De lenzen van toen hoefden ook niet zo scherp te zijn.
Al wil dat niet zeggen dat er toen geen super scherpe lenzen bestonden. Oude lenzen werken dus vaak niet optimaal op moderne camera's, bekend probleem zijn Rangefinder lenzen op de Sony A7.

Conclusie

De techniek is er klaar voor om tot sensoren te komen met hoge dichtheid. >100MP is is de meeste gevallen al mogelijk.Het hebben van veel megapixels heeft geen negatieve invloed op de scherpte. Van diffractie heb je je past last als je flink gaat afstoppen (>f8) Zolang je onder de F2,8 blijft is de diffractie klein genoeg om het aantal megapixels flink te verhogen. mits de lenzen de scherpte ook bieden. Vandaag de dag zijn de afmetingen pixels ongeveer rond de 4 micron.
Compact camera's en smartphones zitten daar ver onder, maar hun beeldkwaliteit is dan ook ondermaats aan een DSLR of een ILC
http://static.tweakers.net/ext/f/3OjMeq2BYO3ICeIEmZ2KpGzH/full.png


Ruis op een foto is geen probleem omdat eenmaal uitgeprint de foto op dezelfde grootte er niet slechter uitziet dan een foto met een laag aantal pixels. Hetgene wat de scherpte nog altijd het meest benvloed is de lens. Bijna elke sensor kan meer scherptewaarnemen dan de lens geeft. Wel zijn er Initiatieven van Sigma en Zeis om te excelleren met lenzen op het gebied van scherpte. Sigma met hun ART lijn, en Zeiss met de Otus lijn.Ik hoop dat er binnenkort een nieuwe race begint, om wie de scherpste lens maakt, en dan met name bij de lichtsterke varianten waar de meeste winst kan worden behaald. Zeiss en Sigma zijn goed op weg. Nu de andere fabrikanten nog ;)
Met dank aan
Ik wil gallery: Universal Creations bedanken voor het geven van feedback en het controleren van mijn blog

Gebruikte Bronnen

http://web.stanford.edu/~...000_SPIE-EI_PixelSize.pdf
http://www.wolframalpha.com/input/?i= Airy+disk
http://cdn.intechweb.org/pdfs/17220.pdf
http://oatao.univ-toulouse.fr/9226/1/Pelamatti_9226.pdf
http://www.springer.com/c...0-0-45-1338820-p174130078
http://www.imatest.com/wp...ability_Repeatability.pdf
http://photo.net/learn/op...eep/pixel_peep_part2.html
http://sigma-photo.co.jp/english/new/new_topic.php?id=409
http://www.imatest.com/docs/glossary/#nyq
http://blog.kasson.com/?p=5720
http://www.dpreview.com/forums/post/53643506
http://www.normankoren.com/Tutorials/MTF2.html#Nyquist
http://www.cambridgeincol...ffraction-photography.htm
http://www.falklumo.com/lumolabs/articles/sharpness/
http://www.lensrentals.co...f-the-english-translation
https://photographylife.com/how-to-read-mtf-charts
http://luminous-landscape.com/mtf/
http://www.zeiss.com/cont...en_web_special_mtf_01.pdf
• plaatje bayer filter user http://commons.wikimedia.org/wiki/User:Cburnett
Wikipedia: Minolta RD-175
Wikipedia: Kodak DCS 100
Wikipedia: Nikon Coolpix series
http://www.nikonweb.com/files/DCS_Story.pdf