Vraag:
Zijn er camera's met geavanceerde algoritmen voor automatische belichting?
jpa
2020-01-16 23:21:23 UTC
view on stackexchange narkive permalink

Bij het lezen van antwoorden op Waarom worden mijn luchtfoto's donker?, begon ik me af te vragen: zijn alle huidige algoritmen voor automatische belichting echt zo eenvoudig dat ze alleen de gemiddelde helderheid van de scène meten?

Het lijkt erop dat men veel betere resultaten zou kunnen behalen door bijvoorbeeld een machine-leersysteem te gebruiken dat is getraind met echte, goed belichte foto's. Het zou dan de juiste belichting nauwkeuriger kunnen schatten op basis van de voorbeeldafbeelding, zelfs voor de zwarte kat in een kolenmijn en de witte hond in de sneeuw.

En dan bedoel ik niet de gespecialiseerde scènemodi, zoals dat is slechts een deel van de taak naar de gebruiker verplaatsen.

Moderne DSLM's bieden een vrij goed belichtingsvoorbeeld in de elektronische zoeker, wat meestal goed genoeg is om * op te merken * als je camera op het punt staat de belichting te verknoeien ...
De diepe fusie van Apple op iPhone 11 doet bijna wat je wilt, maar werkt momenteel alleen bij gemiddeld tot weinig licht.Er worden snel meerdere foto's met verschillende belichting gemaakt en gebruik vervolgens software om de foto's te combineren om de details te verbeteren.Ik vermoed dat je zo'n algoritme ook kunt afstemmen op buitenfotografie
Een bijna magische innovatie met opvallende resultaten die tegenwoordig beschikbaar zijn in elke zakcamera van $ 100: gezichtsherkenning.De camera identificeert gezichten in de weergave en belicht * ze * correct.Omdat de mensen bijna altijd zijn waar we in een afbeelding in geïnteresseerd zijn (merkte je hoe oninteressant alle zonsondergangen 10 jaar later zijn? Wat je zoekt op oude foto's zijn steevast de mensen!), Zijn de resultaten bijna altijd beter.(Maar de lucht is altijd wit - je moet flitser gebruiken om beide te krijgen).
Vijf antwoorden:
xiota
2020-01-17 00:01:30 UTC
view on stackexchange narkive permalink

zijn alle huidige algoritmen voor automatische belichting echt zo eenvoudig dat ze alleen de gemiddelde helderheid van de scène meten?

Nee.

Hebben camera's geavanceerde algoritmen voor automatische belichting?

Ja.

Het lijkt erop dat zou veel betere resultaten kunnen krijgen door bijvoorbeeld een machine-leersysteem te gebruiken dat is getraind met echte, goed belichte foto's. Het kan dan de juiste belichting nauwkeuriger schatten op basis van de voorbeeldafbeelding, zelfs voor de zwarte kat in een kolenmijn en de witte hond in de sneeuw.

De meeste camera's hebben meerdere meetmodi:

  • Spot - De helderheid van een klein deel van de afbeelding wordt gebruikt om de belichting te berekenen.

  • Gemiddeld - De helderheid van de gehele scène wordt gemiddeld en gebruikt om de belichting te berekenen.

  • Centrumgewogen gemiddelde - De helderheid van de hele scène wordt gemiddeld, maar het midden krijgt meer gewicht.

  • Matrix / Evaluatief / etc - Dit is de modus die probeert te doen wat u beschrijft. De scène is opgedeeld in meerdere delen. De helderheid van elk onderdeel wordt geëvalueerd. Het resultaat wordt gebruikt om een ​​database te doorzoeken of ingevoerd in een algoritme om de belichting te bepalen.

Ik ken geen enkele camera die dat momenteel doet, maar matrixgegevens kunnen gemakkelijk worden ingevoerd in een neuraal netwerk. Zo kan een camera de belichtingsvoorkeuren van de eigenaar leren. Dit is het soort technologie dat Google gebruikt om katten in YouTube-video's te identificeren.

Bij gebruik van 3D-kleurenmatrixmeting (de meeste) Nikons vergelijken de gemeten scène met een database van meer dan 30.000 soorten afbeeldingen / scènes om de juiste belichting te bepalen.
@StevenKersting Vrijwel alle cameramakers hebben op zijn minst enkele modellen met scèneherkenning op bibliotheekbasis.Naarmate je de modellen en hun prijspunten doorloopt, worden ze steeds complexer en capabeler.
Merk op dat dit allemaal nog steeds dezelfde meter gebruikt die in de meeste camera's reflecterend licht meet en dus nog (handmatig) moet worden gecorrigeerd voor niet-grijze onderwerpen.En in echt zeer dynamische verlichte scènes wordt u beperkt door het dynamische bereik van de sensor.Genoeg mogelijkheden om toch een slechte belichting te krijgen, zelfs met slimme meterstanden.
Michael C
2020-01-17 06:17:19 UTC
view on stackexchange narkive permalink

Ja, veel van hen doen dat. Maar ze kunnen de gedachten van de fotograaf nog steeds niet lezen over welk deel van de scène het best belicht moet worden.

Soms kan de camera zo slim zijn als de fotograaf toestaat. .

Zelfs in de oude filmtijd maakten primitieve lichtmeters met meerdere segmenten een zeer basale analyse mogelijk van welke delen van de scène helderder en welke donkerder waren. Toen in de jaren zeventig halfgeleiders in de logische systemen van camera's werden geïntroduceerd, kon deze informatie worden gebruikt voor rudimentaire scèneherkenning. Als het bovenste derde deel van het frame veel helderder was dan het onderste tweederde van het frame, zou de camera de belichting verschuiven in de veronderstelling dat de fotograaf de donkere gebieden in het midden van het belichtingsbereik wilde hebben. Als het bovenste tweederde deel van het beeld helderder was en het onderste deel donkerder, zou de camera de belichting verschuiven op basis van de aanname dat de fotograaf de helderdere gebieden in het midden van het belichtingsbereik wilde belichten. Dit werkte redelijk goed voor landschapsfotografie.

In de loop van de jaren hebben lichtmeters in spiegelreflexcamera's en daarna digitale spiegelreflexcamera's het aantal discrete segmenten vermenigvuldigd van eencijferige getallen tot honderden tot duizenden. Ze zijn veranderd van echt monochromatisch naar dubbellaags (meten en vergelijken van helderheid bij twee verschillende golflengten van licht) naar de huidige RGB-IR-sensoren die in feite miniatuurkleursensoren zijn. Met de komst van spiegelloze camera's (en Live View in DSLR's), kan meten worden gedaan met behulp van informatie van de belangrijkste beeldsensor.

Aangezien de gegevenssnelheden en geheugencapaciteit die beschikbaar zijn voor camera-ontwerpers exponentieel zijn toegenomen, is de complexiteit van "bibliotheekgebaseerde" belichtingsmeetroutines zijn ook toegenomen. Als gevolg hiervan worden camera's steeds beter in het herkennen van veel verschillende soorten scènes en het aanpassen van de aanbevolen belichting op basis van die identificatie.

Maar camera's kunnen de gedachten van de fotograaf nog steeds niet lezen, ook al worden ze steeds beter in het raden van wat de fotograaf waarschijnlijk wil.

Dit is met name het geval wanneer de fotograaf één meetmethode gebruikt, zoals matrix / evaluatieve meting , in een situatie waarin een andere meetmodus, zoals gedeeltelijk of spot de camera nauwkeuriger zou informeren welk deel van de scène waarin de fotograaf het meest geïnteresseerd is in belichting in de middentonen tussen te licht en te donker. Of waar de fotograaf uitvergrote hooglichten in elk deel van de scène beperkt door Highlight Tone Priority (Canon) / Active D Lighting (Nikon) / wat andere cameramakers het ook noemen in te schakelen.

Soms is de camera zo slim als de fotograaf het toelaat.

J.Hirsch
2020-01-17 01:07:46 UTC
view on stackexchange narkive permalink

Camerafabrikanten en filmverwerkers hebben dit probleem letterlijk aangepakt sinds de uitvinding van film en de mensen ermee zijn gestopt het zelf te verwerken. We zijn geëvolueerd van omgevingslichtmeters met behulp van zonnecellen naar ongelooflijk complexe databases met opnamen die zijn gemaakt en geanalyseerd door meerpunts arrays in een flits 'voorflits'.

En toch ... we slangen nog steeds belichtingen.

De meeste belichtingsmetingen die tegenwoordig worden gedaan, zou ik vermoeden, zijn gecentreerd rond het 'verfraaien' van het beeld. Dat compenseert tekortkomingen in de belichting en slechte lichtomstandigheden door actief de gain, saturation en offset bias aan te passen voor verschillende delen van het beeld. Die meten niet zozeer als interpretatie van de verzamelde fotonen, maar toch ...

Er was een concept genaamd 'paxelisatie' dat ik buiten Kodak niet heb gehoord. Het leek op de moderne gedownsamplede beelden van machine learning. Dat aantal pixels was klein, maar werd door de verschillende algoritmen gebruikt om de ideale belichting te voorspellen (zowel voor film als digitaal).

Dus ja, camera's doen meer dan je zou verwachten, en de software die uw afbeelding weergeeft of uw film afdrukt (digitaal of optisch) doet dat ook. Het is werkelijk verbazingwekkend.

Ik kom hier kort op het antwoord omdat er letterlijk boeken zijn geschreven over meten en afdrukken. Als je interesse hebt in fotografie, overweeg dan om Ansel Adam's boeken (2 van de 3) de Camera en de Negatief te lezen. Het gedrukte boek is ook nuttig en gaat dieper in op hoe u het geleerde kunt toepassen, maar is niet zo relevant voor uw interesse in meetsystemen.

Zubida
2020-04-15 15:22:44 UTC
view on stackexchange narkive permalink

Ja. Eind 2019 lanceerde Canon zijn vlaggenschip EOS-1D X Mark III DSLR voor professionele fotografen. Deze camera pronkt met de meest uitzonderlijke zelfaanpassing die tot nu toe is waargenomen, samen met video- / filmhoogtepunten van zeer goede kwaliteit waarvan veel mensen verwacht worden dat ze gewoon in de meest ontwikkelde spiegelloze camera's te vinden zijn. Nikon heeft zijn eigen rivaal aangekondigd, de Nikon D6, die een robuust, duurzaam ontwerp combineert met geavanceerde autofocus en snelle opnamen.

xenoid
2020-01-17 16:54:10 UTC
view on stackexchange narkive permalink

Smartphones zijn computers met een camerasensor. Camera's zijn sensoren met een computer. Al dit computergebruik vereist tijd en energie en zou gepaard gaan met een verkorting van de levensduur van de batterij en de opnamesnelheid. Het vereist ook veel opslagruimte die offline zou zijn, dus de camera zou een simkaart en netwerktoegang nodig hebben ...

En tot nu toe gebeurt het computergebruik op de smartphone na de opname (s), zo ook vrijwel wat u zou bereiken met belichtingsbracketing en nabewerking



Deze Q&A is automatisch vertaald vanuit de Engelse taal.De originele inhoud is beschikbaar op stackexchange, waarvoor we bedanken voor de cc by-sa 4.0-licentie waaronder het wordt gedistribueerd.
Loading...