Forståelse av Sensor-Shift-teknologi for høyoppløselige bilder

Innholdsfortegnelse:

Anonim

Georgian Bay - sommerlandskap

Endring av hvordan fotografier blir tatt

De siste årene har en rekke produsenter produsert kameraer som er i stand til å produsere bilder med høyere oppløsning gjennom noe som kalles Sensor-Shift Technology. Denne teknologien er gjort mulig med fremveksten av kroppsstabilisering (IBIS). Kameradesignere har brukt IBIS som en måte å få utrolige økninger i bildeoppløsningen eller å forbedre fargeinformasjonen for bildene som er tatt.

Det er en rekke navn på denne teknologien, inkludert høyoppløsningsmodus, Pixel Shifting Resolution System, Pixel Shift Multi Shooting Mode eller de mer generelle navnene på pixel-shift / sensor-shift, men til slutt er konseptene bak denne teknologien alle det samme. Flere bilder av samme visning er tatt på en slik måte at bildene stables og blandes for å lage et enkelt, vanligvis stort, høyoppløselig bilde.

Det er styrker og svakheter ved denne nye teknologien, og å forstå hvordan den fungerer kan hjelpe deg med å lage bedre bilder selv hvis du har et kamera som er i stand til å gjøre dette.

MERK: Fordi nettsteder bruker bilder med lavere oppløsning, har bildene som brukes i denne artikkelen blitt redusert og endret for å simulere forskjellene mellom høyoppløselige bilder og standardutdata fra kameraene. Når du ser på bildene i sin helhet, ser bildene like ut, men når du kommer nærmere detaljene i bildene, er det når du begynner å se forskjellene.

Gerbera tusenfryd innendørs, vanlig oppløsning (20 MP) Olympus OMD EM 1 Mark II

Gerbera tusenfryd innendørs, høyoppløselig (50MP) Olympus OMD EM 1 Mark II

Mange tilnærminger til sensorskiftbilder

Bildefotografering av sensorskift har blitt forvandlet fra dyre spesialkameraer til å bli en stadig mer tilgjengelig funksjon på nyere, oppløsningsorienterte kameraer. I dag er det i tillegg til Hasselblads monster H6D-400c (400 Megapixel-bilder) tilbud fra Olympus, Pentax, Sony og Panasonic.

Disse versjonene bruker vanligvis den samme konseptuelle tilnærmingen, men til mye mer tilgjengelige priser.

Sensor-Shift Bevegelse

Hvem bruker Sensor-Shift?

Uansett produsent forblir den grunnleggende handlingen for sensor-shift-bildeopptak den samme. Ta flere bilder, men flytt kameraets sensor litt for hvert bilde for å ta mer bildedata og sett deretter bildet sammen.

Ved å flytte sensoren rundt forbedres bildefargedataene, slik at flere detaljer kan løses ved å overvinne de iboende problemene med fargespesifikke fotosites. Ignorerer Hasselblad inkluderer systemene som bruker denne teknologien kameraer som Olympus OM-D E-M1 Mark II (Micro Four Thirds), Pentax K-1 Mark II DSLR, Sony a7R III og Panasonic Lumix DC-G9 (Micro Fire tredjedeler) selv om det er andre fra samme produsenter.

Tre av disse linjene er speilløse kameraer med Pentax som en DSLR for avlingssensor. Det er interessant å merke seg at Panasonic / Olympus-kameraene tar en tilnærming og Pentax / Sony tar en annen tilnærming til de samme konseptene.

Olympus / Panasonic-systemene bruker en tilnærming som gir veldig store bilder med høy oppløsning, mens Pentax- og Sony-systemene bruker sensorskift for å forbedre fargeinformasjonen til bilder i samme størrelse. Både Pentax- og Sony-systemene gjør det også mulig å skille ut de individuelle sensorskiftede bildene, mens Olympus og Panasonic blander de stablede bildene til et enkelt fotografi.

Olympus OMD EM5 Mark II har sensor-shift-teknologi.

Hvordan fungerer sensorteknologi?

For å forstå hvordan sensor-shift-teknologi fungerer, må du også forstå hvordan en sensor generelt fungerer i veldig liten skala. I de gode gamle dagene med filmfotografering brukte kameraer lysfølsom film til å ta opp bilder. Digitale kameraer bruker en helt annen tilnærming til å ta opp lys.

Digitale kameraer bruker lysfølsomme fotodioder for å registrere lyset som treffer sensoren. I de fleste digitale kameraer har hver fotodiode et bestemt fargefilter (rød, grønn eller blå) som danner en fotoside. Disse fotosidene er ordnet slik at lyset kan blandes for å se fargen fra bildet som kommer på sensoren.

De røde, grønne og blå fotosidene på en sensor er vanligvis arrangert i et bestemt mønster kjent som en Bayer-matrise (aka Bayer-matrise, filter). Det er også andre konfigurasjoner som Fuji X-Trans-sensoren (brukt på flere av kameramodellene) eller Sigma som bruker en Foveon-sensor.

Med et Bayer-arrangement er det dobbelt så mange grønne fotosider som rødt eller blått fordi menneskets syn er mest innstilt på å løse detaljer i grønt. Dette arrangementet fungerer generelt bra, men hvis du tenker på det, på et bilde, opprettes en fargepiksel ved å blande disse fotosidene sammen.

Sensoren vet ikke hvor mye rød det er på en grønn sensorplassering eller en blå sensorplassering, så interpolering er nødvendig. Dette kan skape noen gjenstander på fotografier hvis du ser nøye på og har en tendens til å bety at RAW-bilder har et aldri så mykt fokus. Alle RAW-bilder trenger litt skjerping i etterbehandlingen (det grønne, det røde og det blå for en piksel blandes sammen).

Bayer mønster av fotosider

Statiske sensorer

I et vanlig kamera uten IBIS, registrerer hvert fotoside bare lyset fra en farge på det ene stedet, slik at dataene det registreres er teknisk ufullstendige. Det er som en bøtte som bare samler lys fra en bestemt farge. En klynge med lyse bøtter i Bayer-mønsteret brukes til å lage en enkelt piksel i det digitale bildet, men innenfor den pikselet er det to grønne bøtter, en blå og en rød.

For å smelte bildet sammen og sette en enkelt farge i den ene pikselet, løses signalene fra klyngen av fotodioder sammen. De innsamlede dataene interpoleres via en avmosaiseringsalgoritme enten i kameraet (jpeg.webp) eller på en datamaskin (fra et RAW-bilde), en prosess som tildeler verdier for alle tre fargene for hver fotoside basert på de kollektive verdiene som er registrert av nærliggende fotosider. .

De resulterende fargene sendes deretter ut som et rutenett av piksler, og et digitalt fotografi opprettes. Dette er delvis hvorfor RAW-bilder har litt mykere fokus og må skjerpes i arbeidsflyten etter produksjonen.

Bevegelsessensorer

IBIS betyr at sensorene nå beveger seg så lett for å justere for subtile bevegelser av et kamera for å holde bildet stabilt. Noen produsenter hevder at systemene deres er i stand til å stabilisere sensoren og / eller objektivkombinasjonen for tilsvarende 6,5 stopp.

Ved å flytte sensoren kan alle fargefotosidene registrere dataene for hvert sted på sensoren.

Denne stabiliseringen oppnås ved mikrojusteringer av sensorens posisjon. For sensor-shift-bilder brukes de samme mikrojusteringene for å få hver fotoside eksponert for lyset fra enkeltbildeopptaket. I det vesentlige blir sensoren flyttet for ikke å justere for eksterne forstyrrelser, men for å ha hver del av et bilde som inneholder informasjon i full farge.

Fotosider heller enn piksler

Du har kanskje lagt merke til begrepet fotosites i stedet for piksler. Kameraer blir ofte rangert av megapikslene som et mål på deres oppløsningsevne, men dette er forvirrende fordi kameraer ikke har faktisk bare piksler fotosider.

Piksler er i bildet som produseres når dataene fra sensoren behandles. Selv begrepet “pixel-shift” som noen ganger brukes, er misvisende. Piksler beveger seg ikke, det er sensorene som har fotosider som beveger seg.

Ved enkeltbildeopptak registrerer hver fotoside data for rødt, grønt eller blått lys. Disse dataene interpoleres av en datamaskin slik at hver piksel i det resulterende digitale fotografiet har en verdi for alle tre farger.

Skiftende sensorer

Sensor-shift-kameraer prøver å redusere avhengigheten av interpolering ved å fange fargedata for rød, grønn og blå for hver resulterende piksel ved å bevege kameraets sensor fysisk. Tenk på et 2 × 2 piksler kvadrat hentet fra et digitalt fotografi.

Konvensjonell digital fangst ved bruk av et Bayer-utvalg vil registrere data fra fire fotosider: to grønne, en blå og en rød. Teknisk betyr det at det mangler data for blått og rødt lys på de grønne fotosidene, grønne data og rødt på de blå fotosidene og blått og grønt på de røde fotosidene. For å løse dette problemet vil de manglende fargeværdiene for hvert område bli bestemt under interpolasjonsprosessen.

Men hva om du ikke måtte gjette? Hva om du kunne ha den faktiske fargen (rød, blå og grønn) for hvert fotosite? Dette er konseptet bak sensor-shift-teknologi.

Et bilde med normal oppløsning.

Dykking dypere

Tenk på et 2 × 2-pikselfelt på et digitalt fotografi som er opprettet ved hjelp av pixel-shift-teknologi. Det første bildet begynner som normalt med data registrert fra de fire fotosidene. Nå skifter imidlertid kameraet sensoren for å flytte fotosidene rundt og tar det samme bildet igjen, men med en annen fotoside.

Gjenta denne prosessen slik at alle fotosidene har alt lys for hvert eksakte sted på sensoren. I løpet av denne prosessen er lysdata fra fire fotosider (to grønne, en røde, en blå) ervervet for hver piksel, noe som resulterer i bedre fargeverdier for hvert sted og mindre behov for interpolering (utdannet gjetting).

Et høyoppløselig bilde med samme ISO, blenderåpning og lukkerhastighet.

Sony og Pentax-tilnærmingen

Sonys Pixel Shift Multi Shooting Mode og Pentaxs Pixel Shifting Resolution System fungerer på denne måten. Det er viktig å merke seg at bruk av disse modusene ikke øker det totale antallet piksler i det endelige bildet ditt. Dimensjonene til de resulterende filene dine er de samme, men fargenøyaktigheten og detaljene forbedres.

Sony og Pentax tar fire bilder flyttet en hel fotoside per bilde for å lage et enkelt bilde. Det er bare å forbedre fargeinformasjonen i bildet.

Olympus og Panasonic-tilnærmingen

Høyoppløsningsmodus for Panasonic- og Olympus-kameraer, som begge bruker Micro Four Thirds-sensorer, tar en litt mer nyansert tilnærming, og kombinerer åtte eksponeringer tatt ½ piksler fra hverandre. I motsetning til Sony og Pentax øker dette antall piksler i det resulterende bildet betydelig.

Fra en 20 megapiksel sensor får du et RAW-bilde på 50-80 megapiksler. Det er bare et enkelt bilde uten mulighet til å få tilgang til de enkelte bildene i en sekvens.

Hva er fordelene med å bruke Sensor-Shift?

Å bruke sensor-shift-teknologi har flere fordeler. Ved å ta flere bilder, kjenne fargeinformasjonen for hvert sted på fotosiden og øke oppløsningen, oppnår du tre hoved ting. Du reduserer støy, reduserer moire og øker den totale oppløsningen på bildene.

Støy og forbedret oppløsning

Ved å ta flere bilder med en subtil endring i sensorens posisjon, går oppløsningen til bildet opp, men det gjør også fargeinformasjonen i bildene. Dette gjør at lignende bilder muliggjør større boring ned i bildet med jevnere farger, mindre støy og bedre detaljer.

Et bilde med normal oppløsning.

Et høyoppløselig bilde.

Beskåret i tett til det normale oppløsningsbildet, begynner du å se støy som korn og fargevariasjoner.

Her er den samme beskjæringen på høyoppløselig versjon, fargen og detaljene er bedre med mindre støy.

Mindre Moire

Moire er utseendet på støy eller gjenstandsmønstre som vises i bilder med stramme vanlige mønstre. Nyere sensorer har ofte færre problemer med Moire enn tidligere, men det vil fremdeles vises på noen bilder.

Årsaken til moire har en tendens til å være relatert til de stramme mønstrene som blir tatt opp, og kameraet har problemer med å løse mønsteret fordi det har problemer med sensorens fotosite-mønstre. Fargeinformasjonen for de røde, grønne og blå fotosidene har problemer med kantene i disse stramme mønstrene fordi ikke alle fargene for et enkelt sted er registrert.

Med sensor-shift er all fargen for hvert sted der, så moire har en tendens til å forsvinne.

Normalt oppløsningsbilde.

Høyoppløselig bilde med beskjæringsområdet uthevet

Det beskårne området på standardoppløsningsbildet - støy begynner å vises (riper på papiret var der før).

Bildet med høyere oppløsning har mindre støy og mer detaljer.

Så hvorfor ikke bruke dette til hvert bilde?

Vel, hovedårsaken er at du må ta flere bilder av en enkelt scene. Dette betyr at dette virkelig ikke fungerer bra for motiver i bevegelse. Prosessen krever minst fire ganger eksponeringstiden for enkeltbildefotografering. Dette betyr fire muligheter for en del av komposisjonen og / eller kameraet ditt til å bevege seg under bildefotografering, fornedrende bildekvalitet.

Slike begrensninger begrenser teknologiens anvendelse til stilleben og (statisk) landskapsfotografering. Enhver bevegelse i scenen som blir tatt opp, vil skape et uskarpt eller pixelert område. Dette er et problem for landskapsfotografering hvis det er vind som beveger planter eller skyer, samt områder der rennende vann er til stede.

Dette betyr også at du vanligvis må være veldig stabil og bruke et stativ, selv om det er noen klare intensjoner fra produsenter om å gjøre tilgjengelige versjoner som vil tillate håndholdt fotografering av kameraet (Pentax har denne funksjonen).

Høyoppløselig bilde skutt på et stativ.

Bevegelsesgjenstander er synlige når de sees nærmere.

Quirks av noen av systemene

Ettersom sensor-shift-teknologi har blitt implementert på forskjellige måter, og avhengig av hvilket system som brukes, er problemene litt forskjellige. Den viktigste særegenheten er at du generelt trenger et stativ, så ingen løp og pistol.

Sony-systemet har andre begrensninger at du ikke kan se bildet før du behandler de fire separate bildene sammen. Dette betyr at du ikke kan se gjennom det løste bildet ditt på kameraet. I tillegg, på grunn av det høye antall piksler på A7R-merket III, er enhver subtil bevegelse av stativet spesielt merkbar på det resulterende bildet. For å redigere bildene, må du også bruke proprietær Sony-programvare for å slå sammen bildene.

Pentax har noen interessante funksjoner. Ved å bruke programvaren som følger med kameraet, kan du adressere bevegelse ved å bruke en algoritme i programvaren for å fjerne bevegelsesgjenstander. Dette fungerer bedre enn programvare som ofte brukes til bildemanipulering som Adobe.

Olympus-systemet har eksistert en stund, og i den siste iterasjonen på Olympus OMD EM1 Mark II vil enhver oppdaget bevegelse få de berørte pikslene erstattet med deler av en av de enkeltbildene med vanlig oppløsning i bevegelsesområder. Dette skaper ujevn oppløsning, men får bildet til å se bedre ut for ting som vind. Det begrenser også, spesielt hvis det er mye bevegelse. Ofte ser bildene litt pikslet ut.

Standardoppløsningsbilde av et tre - alt er skarpt.

Et høyoppløselig bilde av det samme treet, men det blåste… Beskåret område vises i den gule ruten.

Beskåret område utvidet - vindbevegelsen genererte noen gjenstander på bildet.

Begrensninger

Den største utfordringen med å ta bilder med sensorskift er å flytte motiver. I tillegg kan det være vanskelig å prøve å koble en strobe med et kamera ved hjelp av pixel-shift-bildeopptak av hastigheten på bildeopptak, begrensninger for blitsresirkulering og generelle kompatibilitetsproblemer. Produsenter er klar over disse problemene og jobber for å løse dem.

Samlet sett vil teknologien bare bli bedre

Flere og flere systemer bruker algoritmer for å produsere disse bildene med høyere oppløsning. Når teknologien modnes, vil implementeringene få bedre og bedre resultater, potensielt i stand til å håndtere bevegelse og håndholdte forhold.

Fordelen for produsenter er at bilder av bedre kvalitet produseres uten behov for virkelig dyre sensorer med høy pikseltetthet (billigere). Fordelene for brukeren er at bildene kan ha bedre informasjon om støy og farge for bedre sluttresultater.

God jakt på det perfekte bildet med høy oppløsning!