Vraag:
Waarom gebruiken camera's een enkele belichting in plaats van te integreren in veel zeer snelle metingen?
Ruggero Turra
2013-01-23 07:04:27 UTC
view on stackexchange narkive permalink

Ik heb nooit begrepen waarom camera's een sluiter met een bepaalde snelheid nodig hebben en waarom dit niet kan worden aangepast tijdens de nabewerking. Ik denk dat de huidige sensor op een integrale manier werkt: ze besparen de hoeveelheid licht die hen bereikt gedurende de hele tijd dat de sluiter open is. Maar waarom kunnen ze niet op een differentiële manier werken?

In mijn gedachten heb ik dit idee: stel de sluitertijd zo in dat deze lang openstaat, meer dan degene die je nodig hebt ... bijvoorbeeld stel het bij daglicht in op 1 seconde, druk op je knop, de sluiter gaat open en de sensor begint met opnemen, maar op een andere manier: het zou de hoeveelheid licht die elke 0,001 seconde bereikt, gedurende 1 seconde besparen. Op deze manier heb ik meer informatie, eigenlijk heb ik 1000 frames opgenomen in 1 seconde en bij postprocessing kan ik ervoor kiezen om alleen de eerste tien te integreren, om een ​​opname te simuleren met 0,01 seconde, of de eerste honderd, om een ​​opname te simuleren met een 0,1 tweede belichting

Met behulp van een geavanceerde verwerking of door handmatig gebieden te selecteren, zou ik zelfs kunnen besluiten om een ​​andere belichting te gebruiken voor verschillende delen van het uiteindelijke beeld, bijvoorbeeld een belichting van 0,1 seconde voor de grond en 0,03 voor de lucht, met 100 frames voor de lucht en 30 frames voor de lucht.

Is het logisch? Waarom werken camera's niet op deze manier?

Gerelateerd aan [Waarom hebben digitale camera's überhaupt een belichtingstijd nodig?] (Http://photo.stackexchange.com/questions/32325/why-do-digital-cameras-need-an-exposure-time-at-all)
Ik had dit bij de eerste lezing als een duplicaat gemarkeerd, maar het is niet, althans niet de vraag die ik heb gekoppeld, die andere (en onjuiste) aannames doet.
Heeft u al eerder naar digitale videocamera's met hoge snelheid gekeken?
Wat betreft uw bewerking ... hoe zou de camera vertellen wat de grond versus de lucht is en hoe zit het met mensen die op de grond staan ​​en een deel van de lucht bedekken en zich binnen uw kader bewegen? Dit zou een verwerking vereisen die veel verder gaat dan een ander sensorontwerp.
Vragen naar _mechanische_ luiken levert weer een rode haring op, aangezien sommige camera's in feite gebruik maken van zogenaamde "elektronische luiken". Misschien: "Waarom gebruiken camera's een enkele belichting in plaats van te integreren in vele zeer snelle metingen?"
@mattdm _ "Waarom gebruiken camera's een enkele belichting in plaats van te integreren in vele zeer snelle aflezingen?" _ Hoe verschilt dat van bracketing? Ik kan echt niet zien hoe ik het mis heb hierin ...
Ik denk dat je nog nooit hebt geprobeerd om specifieke effecten te bereiken die worden veroorzaakt door specifieke combinaties van sluitertijd, belichting en diafragma. En u heeft ook nooit te maken gehad met de noodzaak van een zeer snelle belichting om bewegende objecten vast te leggen.
@BBking Met bracketing maakt men een korte reeks beelden met veranderde belichtingsvariabelen (diafragma, sluiter of zelfs ISO) om een ​​reeks mogelijkheden vast te leggen - om de beste te kiezen of om te mengen als een HDR-afbeelding. Deze benadering is anders: een veel langere serie beelden met de _same_ instellingen, allemaal op zichzelf onderbelicht maar bij elkaar opgeteld een gewenste juiste belichting. (HDR zou kunnen worden bereikt door de toevoeging in sommige delen van de afbeelding verder uit te breiden dan in andere - je zou de gegevens al bij elke afbeelding hebben. Maar dat is slechts een add-on-idee.)
Hier is nog een gerelateerde vraag, gebaseerd op de (alweer verkeerde) premisse dat huidige camera's wel zo werken: [Wat is het effect van lange belichtingstijden op de bestandsgrootte?] (Http://photo.stackexchange.com/questions/23081/what -is-het-effect-van-lange-blootstelling-op-bestandsgrootte)
Nogmaals, 1/100 betekent niet onderbelicht. In plaats van bracketing is er ook een sequentiële modus. Deze vraag heeft niets te maken met de bestandsgrootte ...
@BBking - zoals wiso opmerkte in een opmerking, was "0.01" bedoeld als "zeer snel", een fractie van de kortst mogelijke blootstelling die u redelijkerwijs zou nemen. De bestandsgrootte komt eraan omdat u meer gegevens verzamelt naarmate u langer blijft samplen - de uiteindelijke afbeelding zou niet groter zijn, maar het "ruwe" bestand zeker wel. ("Meer informatie", in de vraag. Meer informatie betekent grotere bestanden.)
Nou ja, 1000 shots die je zou tegenkomen in bestandsgrootte, maar dat was slechts een voorbeeld. Ik zeg, om de resultaten te bereiken suggereert @wiso dat er momenteel manieren zijn om dat te doen (zonder 1000 foto's te hoeven maken). Hoewel er geen technologie is om verschillende delen van de sensor op verschillende tijdstippen vast te leggen, zijn er manieren om dat effect te bereiken.
Acht antwoorden:
Itai
2013-01-23 07:24:14 UTC
view on stackexchange narkive permalink

Het probleem is de uitleessnelheid. U kunt de hele sensor niet snel genoeg lezen om dit in het algemeen te laten werken. Zelfs als je zou kunnen. er zou ook een nadelig effect zijn op de beeldkwaliteit omdat je steeds weer uitleesruis zou toepassen.

In ieder geval met CMOS-sensoren kun je op willekeurige locaties lezen, maar met CCD-sensoren wordt elke rij verschoven naar de volgende om de uitlezing uit te voeren. Dit is de reden waarom wanneer de lichten te fel zijn, u verticale strepen krijgt in de preview van camera's die CCD's gebruiken.

Dan zijn er redenen waarom fotografen een sluitertijd kiezen : om een ​​plak vast te zetten van tijd. Mensen zouden bijna altijd wazig zijn als je de sluiter niet snel genoeg stopte.

wat is de huidige uitleessnelheid? 1 s, 0,1 s, ...? Aangezien normale camera's 25 fps video kunnen opnemen, zou ik ~ 0,04 s zeggen. Het lijkt te traag voor normale foto's.
@wiso Normale camera's kunnen 25 fps video opnemen door de sensor te subsamplen. De beste uitlees-> processnelheid voor de hele sensor is de 18MP Canon 1DX die 1 / 14s in JPEG en 1 / 12s RAW kan doen.
Er zijn ook artistieke redenen om de sluiter lange tijd open te laten, zoals om water te verzachten, de beweging van een honkbalspeler die naar een basis rent, enz.
@jrista: je kunt hetzelfde effect bereiken door veel snelle frames over elkaar heen te leggen.
@MattGrum: dus met de Canon 1DX sensor kan deze techniek bijvoorbeeld interessant zijn bij het fotograferen van een stad in de nacht. Op deze manier kan ik 100 frames voor de lucht en 10 voor de stad integreren (slechts een voorbeeld)
En in combinatie met lichtveldweergave, kunt u de scherptediepte ook achteraf kiezen.
@wiso: Nee, u kunt geen snelle frames over elkaar heen leggen die beweging volledig bevriezen om het schijnbare gevoel van beweging te creëren. Als we een waterval als voorbeeld nemen, legt het bevriezen van de watervalbeweging met hoge snelheid veel details vast. Het over elkaar plaatsen van meerdere afbeeldingen kan de hoeveelheid 'detailruis' in de waterval zelf vergroten, maar je zult nooit dat zacht stromende watereffect kunnen creëren ... je hebt heel expliciet nodig dat de sluiter langer open moet staan ​​om te bereiken dat. De honkbalspeler zou vergelijkbaar zijn. Meerdere foto's over elkaar heen leggen is niet zo, vooral als je wilt ...
... om aan het einde van het beeld te flitsen met synchronisatie op het tweede gordijn om het onderwerp te markeren, terwijl er een wazig bewegingsspoor achterblijft. Je zou in staat kunnen zijn om zoiets als een lange belichtingstijd te bereiken door te overlappen en een soort van geavanceerde nabewerking uit te voeren ... maar ik betwijfel of de resultaten er bijna net zo goed uit zouden zien als een echte lange belichtingstijd met een flitsimpuls aan het einde.
@jrista: Als iemand een sensor had die zijn geïntegreerde meetwaarden onmiddellijk naar een geïntegreerd uitleesregister zou kunnen kopiëren en ze op nul zou kunnen zetten, terwijl hij bijna geen tijd had waarop de sensor niet gevoelig was voor licht, zou het combineren van meerdere korte belichtingen beter zijn dan het gebruik van een enkele lange- duurblootstelling (het zou onder andere een veel grotere flexibiliteit in de post mogelijk maken). Het grootste probleem is de dode tijd tussen opnamen bij gebruik van de huidige technologieën.
De Sony RX100 kan de sensor blijkbaar 1000 keer per seconde lezen.
Please Read My Profile
2013-01-23 07:26:23 UTC
view on stackexchange narkive permalink

Ik denk dat ze zouden kunnen op die manier werken, maar er zijn twee grote problemen:

  1. Aangezien sensoren nu werken, komt leesruis maar één keer voor. Bij veel zeer korte reads zou de leesruis verergeren.
  2. Er zijn gewoon meer gegevens dan we aankunnen. Dit is zowel een probleem bij het daadwerkelijk lezen van de sensor (te veel gegevens om te lezen) als de resulterende RAW-bestanden zouden ordes van grootte groter zijn dan ze nu zijn.

In uw oorspronkelijke vraag gebruikte u ¹⁄₁₀₀ste van een seconde als voorbeeld. Dat is eigenlijk helemaal geen erg lange sluitertijd, en is al 10 × waar we nu zijn met de huidige camera's. Om dit echt zinvol te laten zijn, hebben we de technologie nodig tot het punt waarop de sensor 10 tot 100 keer sneller wordt uitgelezen dan dat - wat de problemen aanzienlijk verergert.

De Het tweede probleem zal binnen een decennium of twee door de wet van Moore worden opgelost, en het eerste kan dat ook zijn, naarmate elektronica kleiner en nauwkeuriger wordt. Op dit moment is het niet praktisch.

De Olympus OM-D E-M5 heeft eigenlijk een functie waarmee hij de belichting laat zien die zich 'ontwikkelt' bij lange belichtingstijden, maar dat vermijdt de problemen hierboven door minimaal een halve seconde tussen het lezen te vragen: het is alleen nuttig voor lange sluitertijden.

Maar in de toekomst zullen met betere elektronica waarschijnlijk alle camera's op deze manier werken, en met veel meer opslagruimte beschikbaar, kunnen ze net zo goed continu opnemen. De "sluiter" -knop zou gewoon dienen om een ​​deel van de stream als interessant te markeren, voor latere ontwikkeling. En nu we toch bezig zijn, laat de lens achterwege en maak er een 360º lichtveldcamera van; framing, diafragma en focus kunnen ook achteraf worden geselecteerd, waardoor de conventionele wijsheid over de basisprincipes van de camera volledig uit het raam wordt gegooid

Buiten het formatteren kan ik jou antwoord niet echt onderscheiden van het mijne :)
Als een interessante (voor mij) gedachte: je hoeft alleen het * verschil * tussen opeenvolgende frames op te slaan, dus de hoeveelheid gegevens zou niet noodzakelijk zo veel groter zijn dan een enkel frame. De verwerkingstijd kan echter een probleem zijn met de technologie van vandaag.
@BobT Zelfs niet ... je hebt alleen een hoge bit-diepteaccumulator of zelfs een drijvende komma nodig. U leest de stapgrootte en voegt deze toe. Je hebt uiteindelijk maar één afbeelding nodig, geen video! HDR-afbeeldingen zijn vaak 32-bit floating point en dat is voldoende bereik voor vrijwel elk praktisch gebruik.
@Itai: ja, ik merkte dat de jouwe binnenkwam terwijl ik aan het schrijven was en dacht dat ik het toch af zou maken.
@BobT: zou je het nog steeds moeten lezen, en gezien ruis (niet alleen leesruis) weet ik niet zeker hoeveel compressie je zou kopen. Maar laten we dat zeker doen in de theoretische camera, vooral omdat we voor het meeste gebruik zoveel mogelijk willen besparen.
Over de samengestelde ruis: aangezien de ruis min of meer willekeurig is, zou deze in elk frame anders zijn. Zou het dan niet in wezen worden uitgemiddeld, of liever, aangezien we niet middelen maar optellen, zou het niet gewoon een niet-gevormde waas creëren die gemakkelijk kan worden uitgefilterd?
@Jan: Opname-ruis zou worden geëgaliseerd zoals u suggereert (omdat u het signaal verhoogt), maar de _read_-ruis zou toenemen omdat u meerdere leesbewerkingen uitvoert (waarbij zowel signaal als ruis tegelijkertijd wordt verhoogd). Door een Gaussiaans patroon aan een Gaussiaans patroon toe te voegen, wordt alleen een luider patroon gemaakt; het wordt niet glad.
Opmerking: Anathem van Neil Stephenson heeft een (fictieve) camera zoals beschreven. Als ik het me goed herinner, was het een tabletachtig apparaat, waarbij het scherm als sensor diende. Het zou een jaar lang continu opnemen en video- of stilstaande beelden kunnen worden opgehaald.
@mattdm: Als iemand een lange belichtingstijd maakt van een onderwerp dat voldoende helder zou zijn om een ​​filter met neutrale dichtheid te vereisen, zou ik denken dat het onderverdelen van de belichting de hoeveelheid licht zou vergroten die de camera zou kunnen opnemen, en dus de hoeveelheid sensorruis. Als de belichting eenmaal kort genoeg is om het ND-filter overbodig te maken, zou het verder verkleinen de ruis vergroten.
user1207217
2013-01-24 06:11:58 UTC
view on stackexchange narkive permalink

Zoals veel mensen hebben gezegd, is er de leessnelheid hiervan. De afbeeldingscircuits kunnen de sensorpixelwaarden niet zomaar ogenblikkelijk "verkrijgen", ze moeten regel voor regel worden gelezen.

Vervolgens moet u ook nadenken over waar deze pixelupdate-waarden naartoe gaan. Zelfs met enige compressie zullen, uitgaande van een lage entropie van latere frames ten opzichte van eerdere frames, ze aanzienlijke hoeveelheid ruimte in beslag nemen. En ook, gegevens die niet erg samendrukbaar zijn, zullen het hele proces vertragen - aangezien de samendrukbaarheid van een nieuw frame ten opzichte van het oude niet kan worden gegarandeerd, zou het systeem nog steeds voldoende bandbreedte nodig hebben om het ergste scenario te dekken zonder te verslechteren.

Ten slotte (en dit is ietwat oubollig), moet het effect van de Heisenberg-ongelijkheid of onzekerheidsprincipe in overweging worden genomen. Bij elk monster hebben we een zekere mate van onzekerheid over de meting. Door heel veel monsters te nemen (elk waarmee we blijkbaar weinig vertrouwen hebben, anders zouden we gewoon een enkel frame van de duizend of zo kunnen selecteren), verkrijgen we onzekerheid over elk van die frames, in plaats van slechts één keer. Dit zou worden verergerd bij het combineren van meerdere frames, en nu wordt de maximale onzekerheid vermenigvuldigd met het aantal frames waarmee u de uiteindelijke afbeelding samenstelt. In het ergste geval kan dit de afbeeldingen aanzienlijk verslechteren.

beste user1207217, ik ben een deeltjesfysicus, laat me zeggen dat de ongelijkheid in Heisenberg echt niet bij deze zaak past. Omdat de som van veel frames lineair is en omdat ze niet gecorreleerd zijn, is de ruis die je verkrijgt door veel frames te integreren precies hetzelfde als die met een gelijkwaardige enkele opname.
Meetonzekerheid = \ = ruis. Ik ben me terdege bewust van het effect van gemiddelde ruis op het gemiddelde ruis. In het geval van gemiddelde ruis 0, is dit gewoon 0
@wiso Ik zou hieraan willen toevoegen, het onzekerheidsprincipe is hier heel goed van toepassing. Net zoals het van toepassing is op tijd-frequentie resolutie, is het ook van toepassing op ruimte-tijd resolutie (wat we in dit geval hebben). Met de huidige technologie zijn we momenteel misschien niet tegen de limieten aan, maar de afweging zal zeker bestaan ​​en een beperkende factor worden in dit soort beeldvormingsproces.
Evan Pak
2013-01-23 07:25:18 UTC
view on stackexchange narkive permalink

Hoewel uw idee intrigerend is, zijn er verschillende redenen waarom het niet zou werken.

Bestandsgrootte: bedenk hoe groot het resulterende afbeeldingsbestand zou zijn. Mijn 8mp SLR geeft bestanden van ongeveer 3mb groot. Als het elke keer dat ik op de ontspanknop drukte 100 foto's zou maken, zou ik 300 MB op mijn kaart hebben opgenomen. Een kaart zou te snel vol raken. Dit zijn ook slechts cijfers voor mijn camera, die een relatief lage resolutie heeft. Voor professionele camera's kan de grootte dat gemakkelijk verdubbelen of verdrievoudigen. In Raw kan de grootte nog ongeveer drie keer toenemen. Uiteindelijk zou ik voor Raw-opnamen kunnen eindigen met meer dan 3 GB per opname.

Belichting: soms moet een camera langer dan 1/100 seconde belichten. om de juiste hoeveelheid licht te krijgen. Als u bij weinig licht fotografeert, zijn de resulterende beelden onderbelicht en mogelijk onbruikbaar. Je kunt niet zomaar afbeeldingen combineren om dit goed te maken, omdat je geen gegevens kunt vinden die er niet zijn.

Ruis: als sensoren opwarmen, geven ze een fenomeen dat bekend staat als ruis. Dit is het spikkelen van willekeurig gekleurde pixels die op sommige foto's zichtbaar zijn. Als de sensor constant een seconde aan het werk was, zouden de ruisniveaus snel stijgen, wat mogelijk tot onbruikbare beelden zou kunnen leiden.

Schrijfsnelheid van kaart: Geheugenkaarten zijn beperkt in hoe snel kunnen ze informatie laten toevoegen. Dit staat bekend als hun schrijfsnelheid. Om bestanden van deze grootte te kunnen verwerken, hebben kaarten een hoge schrijfsnelheid nodig. Deze kaarten kunnen extreem duur zijn.

Dus, om samen te vatten, dit is een interessant idee, maar het is er een met verschillende grote hindernissen.

Ik hoop dat dit heeft geholpen.

Behalve leesruis, kunt u _kan_ het effect van een langere belichtingstijd bewerkstelligen door meerdere snelle frames toe te voegen. In feite is het [vaak gedaan] (http://photo.stackexchange.com/questions/23886/what-does-it-mean-to-produce-a-single-photograph-using-525-separate-exposures/23888 # 23888), maar meestal niet voor zulke korte individuele belichtingen die van toepassing zijn op "normale" fotografie, en meestal niet in de camera (hoewel Pentax DSLR's dit op een beperkte manier kunnen).
Om voort te bouwen op wat mattdm zei: je kunt theoretisch belichtingen combineren, de gegevens zijn er. Het probleem is dat voor zeer korte belichtingen, met echte sensoren, de gegevens worden gemaskeerd door een enorme hoeveelheid ruis ten opzichte van het signaal, en het resulterende beeld zal erg zacht zijn. Betere sensoren met een geschiktere SNR bij de korte belichtingstijden zouden het concept in het OP haalbaar maken.
Ik denk dat * Bestandsgrootte * geen groot probleem is, naar mijn mening kun je ervoor kiezen om in integrale modus of in differentiële modus te fotograferen. Timelapse heeft veel geheugen nodig, dit betekent niet dat mensen het niet doen. Voor de * Belichting * denk ik dat je het bij het verkeerde eind hebt, zoals mattdm zei en ik denk dat de ruis hetzelfde is in het geval je maar één shoot doet of meer shoots optelt, het enige verschil is dat je de sluiter opent en sluit. Bij het optellen van verschillende frames, tel je het signaal en de ruis op. Ik denk dat het bewijs is dat de som van twee onafhankelijke Poissoniaanse willekeurige variabelen een nog steeds Poissoniaanse verdeling is.
De hoeveelheid ruis zal ongeveer hetzelfde zijn voor een lange of een korte belichting, die voor de meervoudige belichting keer op keer zal worden geïntegreerd, wat resulteert in een slecht, luidruchtig eindresultaat.
@whatsisname: Sorry, ik begrijp uw punt niet. De ruis is een willekeurig proces met een bepaalde snelheid, afhankelijk van de ISO en andere parameters. De snelheid van het geluid moet hetzelfde zijn voor korte of lange belichtingstijden. Misschien is dit niet helemaal waar omdat het afhangt van de temperatuur en dus bij langdurige belichtingstijd zou je meer ruis kunnen hebben. Overigens, uitgaande van een constante geluidssnelheid, zou je meer geluid moeten krijgen voor een langere belichtingstijd.
@wiso:-temperatuurgerelateerde ruis is slechts één bron van ruis. De belangrijkste factor van ruis voor typische digitale camera's is het lezen van de sensor en signaalversterking, die niet afhankelijk zijn van de sluitertijd.
@whatsisname: dus je bedoelt dat als ik fotografeer met 1/8000 ISO 6400 of 1s ISO 6400 met lensdop erop, ik hetzelfde resultaat krijg?
@wiso Bedoel je 1/8000 zonder dop? Je krijgt nog steeds meer licht door dat te doen in vergelijking met 1s en een dop.
@BBking: met lensdop in beide gevallen, zodanig dat er geen licht (signaal) maar alleen ruis is
@wiso U krijgt hetzelfde resultaat. Waar u andere ruis krijgt, is met een andere ISO als u fotografeert met een dop.
@wiso: krijg je * bijna * hetzelfde. Je zult een klein verschil hebben, maar niet heel veel. Als je het verschil tussen de twee afbeeldingen vergelijkt, zul je merken dat de temperatuurruis vrij klein is in vergelijking met de rest van de ruis die in de afbeelding aanwezig is.
Als het doel van een lange belichtingstijd is om het meeste uit schaars licht te halen, zal het onderverdelen van de belichting de ruis verergeren. Aan de andere kant, als er zoveel licht is dat je een filter met neutrale dichtheid zou moeten toevoegen, zou je door de belichting onder te verdelen meer licht kunnen opvangen, waardoor ruis wordt verminderd. Het grootste probleem is het vermijden van hiaten in de opname.
Kevin FONTAINE
2019-01-23 19:09:00 UTC
view on stackexchange narkive permalink

Opgemerkt kan worden dat sinds deze vraag is gesteld, dit idee enigszins is geïmplementeerd in (in ieder geval sommige) smartphones.

Aangezien de technologische limieten niet zo veel zijn verbeterd, is het natuurlijk beperkt tot zeer lange belichtingstijden bij zeer weinig licht (bijv. astrofotografie). Het feit dat de software meerdere opnamen van n-seconde stapelt, is zichtbaar als er beweging in het frame is (ze zullen wat kleine onderbrekingen vertonen bij het uitlezen).

Het stapelen kan zelfs in realtime op het scherm worden bekeken omdat het 'resultaat'-beeld steeds helderder wordt.

Karl Bielefeldt
2013-01-24 05:09:00 UTC
view on stackexchange narkive permalink

Er zijn camera's die in wezen zo werken. Zoek naar HDR-camera's (High Dynamic Range). De minst dure werken door bracketing van de belichting, waarbij in wezen twee of vier verschillende belichtingen worden genomen en deze vervolgens in hun interne software worden gecombineerd tot een uniform beeld. Je kunt dit eigenlijk met elke camera doen, met behulp van externe software.

Ik begrijp hoe de duurdere HDR-camera's werken, ze berekenen in feite dynamisch een afzonderlijke automatische belichtingstijd voor elke afzonderlijke pixel, en gebruik die om de werkelijke helderheid van de scène te bepalen. Dat lost het probleem op van het hebben van tonnen en tonnen gegevens voor elke pixel, je slaat in feite gewoon de belichtingstijd en de kleurwaarden op wanneer deze een bepaalde helderheidsdrempel overschrijdt. Hiervoor is uiteraard veel complexere hardware en software nodig.

interessant, ik heb alleen deze bewakingscamera met dubbele belichting gevonden: http://video.boschsecurity.com/video/Introducing-the-new-HDR-camera/b936c5d28044fc669a0879e110db9fc9, ken je een specifiek model?
HDR is niet echt hetzelfde als waar het OP naar vraagt, omdat HDR selectief is in hoe het de informatie combineert, in tegenstelling tot een directe integratie. Een camera zoals de OP het beschrijft, zou in wezen een apparaat zijn dat een 2D-meting doet van de stralingsflux van de scène, een meting van de snelheid, en een foto ervan zou een integratie zijn van een set van zijn gegevens, een weergave van de hoeveelheid.
BBking
2013-01-23 07:28:04 UTC
view on stackexchange narkive permalink

Er zijn een paar verschillende soorten luiken, maar de netstroom zijn mechanische en elektronische luiken (de sensor is aan / uit).

De meeste DSLR's gebruiken de spleetsluiter, terwijl videocamera's elektronische sluiters gebruiken. Dus hoewel het klinkt als wat je wilt doen om ze te integreren, zijn er andere manieren om dat te bereiken.

De belangrijkste reden voor een sluiter is de belichting, een fundamenteel principe van fotografie.

Je zou waarschijnlijk iets kunnen opzetten voor je voorbeeld. Misschien wilt u bracketing bekijken of, als dat nog niet genoeg is, tethering.

0.01 = 1/100 en is een prima sluitertijd. De meeste camera's ondersteunen snelheden tot 1/8000 seconden.

Alleen over je laatste deel:

laten we zeggen dat het de hoeveelheid licht bespaart die het elke 0,01 seconde bereikt gedurende 1 seconde.

Je zou nog steeds moeten nadenken over de belichting voor die opname, elke 0,01 seconde.

Ik denk dat dit antwoord het idee achter de vraag mist. De fractionele opnames _zouden_ onderbelicht zijn, vaak sterk. U kiest het gewenste belichtingsniveau voor een uiteindelijke afbeelding door te beslissen hoeveel frames u wilt integreren.
Is niet het "idee" achter de vraag of een mechanische sluiter 1 seconde open moet staan ​​en dan binnen dat tijdsbestek 100 keer de elektronische sluiter moet belichten? 1/100 betekent niet per se onderbelicht, het hangt af van de belichting. En ja, dat is precies mijn punt! Je moet aan frames per seconde denken. En over het algemeen wilt u verschillend belichte afbeeldingen in lagen aanbrengen, niet hetzelfde. ** Vraag: ** Waarom heb ik een rolluik nodig? _Antwoord: _ Belichting.
Ik voeg er ook aan toe dat het OP uiteindelijk _is_ het heeft over sluitertijden en een resultaat van 1/10 seconde suggereert. Dat kan echter met een elektronische sluiter die ** nog steeds een sluitertijd ** nodig heeft. Ik heb het gevoel dat het OP vraagt ​​naar de daadwerkelijke sluiter in plaats van alleen naar sluitertijden.
@BBKing: mijn nummers waren slechts een voorbeeld, waarschijnlijk moet je de hogere snelheid gebruiken als je kunt. Elk frame moet onderbelicht zijn om de juiste belichting te krijgen door verschillende frames op te tellen. Waarschijnlijk moet ik de titel van mijn vraag veranderen van "waarom heb ik een sluitertijd nodig?" tot "waarom heb ik mechanische sluitertijd nodig".
Natuurlijk, ik weet dat het maar voorbeelden waren. Het probleem dat ik heb met de vraag is dat _ "Waarom heb ik een (mechanische) sluiter nodig" _ en _ "Waarom heb ik een sluitertijd ** nodig **" _ (ongeacht mechanisch of elektronisch) heel verschillende vragen zijn. Als u voorstelt om verschillende delen van de sensor op verschillende tijdstippen te bemonsteren, is dat een interessant idee! En ik geloof dat het uitvoerbaar is (terwijl de andere antwoorden beweren waarom het niet is). Waarom? Niemand heeft het nog ontwikkeld, dat is alles. Mogelijk bent u geïnteresseerd in een [Lytro] (https://www.lytro.com/learn) camera. U kunt in Post Processing verschillende focuspunten kiezen.
Het is _als_ het idee om verschillende gebieden van de sensor met een andere snelheid te bemonsteren, maar om de complicatie te besparen, bemonst u het gewoon _all_ herhaaldelijk en slaat u het resultaat op en sorteert u het tijdens de nabewerking. Voor de duidelijkheid, ik denk _do_ dat het haalbaar is, maar niet met de huidige technologie. Geef het echter 20 jaar ...
Het hoeft niet "in camera" te zijn. _Ik heb nooit begrepen waarom camera's een sluiter met een bepaalde snelheid nodig hebben en waarom dit niet kan worden aangepast bij de nabewerking. _ Hij stelt eigenlijk voor om PP te gebruiken. Als je verschillende gebieden bemonstert, neem dan 10 foto's en leg ze in PP. Ik zie ook niet waarom dit niet kan worden gedaan in sequentiële of bracketing-modus om vergelijkbare resultaten te krijgen als wat het OP suggereert. _Ik heb 1000 frames opgenomen in 1 seconde en bij postprocessing kan ik ervoor kiezen om alleen de eerste tien te integreren_
Zeker, ik denk dat we het daarover eens zijn. Maar we _ kunnen momenteel geen 1000 frames per seconde opnemen.
Maar, zoals hij zei, hij wilde er maar 10 van de 1000 kiezen. Nogmaals, het is slechts een voorbeeld en het kan nu worden gedaan (gelaagdheid van 10 foto's gemaakt met bracketing of sequentiële modus), alleen niet met verschillende gebieden van de sensor op andere tijden.
Mark
2013-02-02 15:28:35 UTC
view on stackexchange narkive permalink

Afgezien van de punten die iedereen heeft gemaakt - wat gebeurt er met blootstelling?

bijv. met mijn conventionele camera is een belichtingstijd van 1 seconde wat ik nodig heb voor een bepaalde opname. In wezen betekent dit in één keer 1 seconde licht opgenomen door de sensor.

Oké, laten we naar de suggestie gaan die je hebt gedaan, de camera neemt 1000 keer licht aan 0,001 seconde op. Al deze afbeeldingen zijn onderbelicht en daarom nutteloos. Als ik ze stapel, krijg ik niet hetzelfde beeld als mijn conventionele camera, omdat het stapelen de onderbelichting niet corrigeert. Om iets in de buurt van de juiste belichting te krijgen, heb ik een zeer groot diafragma nodig, dat (zelfs als je een geschikte lens zou kunnen vinden) ) zou andere problemen hebben - scherptediepte enz. Als je bedoelt dat de sensor gevoelig genoeg zou zijn om daadwerkelijk genoeg licht op te vangen in 0,001 seconde, zodat het beeld niet onderbelicht zou zijn, zouden we een ernstig probleem met ruis hebben. Het idee dat u noemt om frames op te nemen / uit te sluiten om een ​​andere belichting te krijgen, wordt al in PP afgehandeld met de belichtingsschuifregelaar.

U kunt uw idee uitproberen door opnamen te maken met een korte sluiter (zoals u suggereert ) en ze vervolgens stapelen in HDR-software of startrail-software.

De dingen die je na de verwerking noemt over het nemen van de grond en de lucht met verschillende belichtingen om het beeld in evenwicht te brengen, kunnen al worden gecorrigeerd in PP met schaduw / hooglichten en / of gesplitste toning.

Denk ook aan actie p fotografie zoals motorsport, waarbij ik een lange sluitertijd nodig heb tijdens het pannen om een ​​gevoel van snelheid en beweging te geven. Als ik zeg 200 foto's met een heel korte sluitertijd heb, zal ik de onscherpte niet opvangen en werkt het effect van de opname niet.

"het stapelen lost de onderbelichting niet op", waarom niet? De hoeveelheid licht die de camera binnenkomt in 1000 x 0,001 s is hetzelfde in 1 x 1 s
wiso: probeer het. Laten we zeggen dat we een opname hebben die een belichtingstijd van 5 seconden nodig heeft. Maak 5 opnamen van 1 seconde, stapel ze en kijk wat je krijgt. U zou het diafragma moeten openen (wat misschien onmogelijk of ongewenst is).


Deze Q&A is automatisch vertaald vanuit de Engelse taal.De originele inhoud is beschikbaar op stackexchange, waarvoor we bedanken voor de cc by-sa 3.0-licentie waaronder het wordt gedistribueerd.
Loading...