Dijital kamera sensörleri neden her fotoğraf sitesini ayrı ayrı açığa çıkaramaz?


14

Kamera sensörlerinin insan gözünün işlevini yerine getirmesi neden imkansızdır? Demek istediğim, fotoğraf çekerken ve diyafram ve enstantane hızı ayarlarına karar verirken sırasıyla karanlık ve aydınlık alanları telafi edersek, görüntünün belirli bir kısmının neden aşırı / az pozlanması gerekiyor.

İçeri giren ışığın diyafram ve enstantane hızına bağlı olduğunu anlıyorum, ancak DSLR'ler dijital olduğu için, her bir sensör hücresinin kendi ölçümünü kullanmasını sağlayacak bir teknoloji olamaz ve bu nedenle hepsinin aynı miktara maruz kalmaması ancak ölçüme bağlı olarak, kameranın CPU'su belirli hücreleri aşırı pozlamamak için kapatır.

Umarım saçmalık demem. Bana makul bir fikir gibi geldi.


Bir sensörün neden sınırsız dinamik aralığa sahip olamayacağını mı soruyorsunuz? Ya da belki başka bir yol "kamera sensörü nasıl çalışır" olabilir. Ne olursa olsun ilginç bir soru.
dpollitt

Evet, sorunun sınırsız dinamik aralık ile ilgili olduğunu söyleyebilirsin ama aslında her sensör hücresinin "kayıt" veya meyilli herhangi bir ışık yakalama (beyaz / siyahın kırpılmasını göz ardı et) , neden tek hücre temelinde yapamıyor ama bunun yerine tüm sensör boyunca aynı miktarı yakalayamıyor? Belki biraz daha fazla CPU gücü ve ne talep eder ama herhangi bir DSLR üreticisi tarafından bile kabul edilip edilmediğini merak ediyorum ...

2
Çok fazla kablolama benim tahminim . Her bir şantiye için önemsiz olmayan ek devrelere ihtiyacınız olacaktır. En yakın tarih, pozlama boyunca piksellerin yarısını kısmen okuyan kameralardır.
Itai

Makaleye bir bağlantınız var mı? Orijinal sorumun tek cevabı, DSLR teknoloji tarihinin bu noktasında aslında çok karmaşık mı?

1
Bu biraz kutunun dışında bir soru. Bunu sormak çok mantıklı. Eminim bir gün kameralar sizin önerilerinize çok benzer bir şekilde çalışacaktır. ... Her ne kadar kişisel olarak, teknik sınırlamaların sanatsal olanı beslediğini görüyorum.
AJ Finch

Yanıtlar:


19

Hangi piksellerin ne kadar kazanç elde ettiğine kim karar veriyor? İnsan görsel sisteminde olup bitenlerin çoğu, göz değil kortekste olur ve entelektüel karar ve kendini koruma için (bir şekilde geçersiz kılma kabiliyetli) içgüdüsel güdüye dayanarak görmenin önemli olduğunu düşündüğümüze bağlıdır. . Bir anlamda orada ne olduğunu görüyor olsak da, bir anlamda ne görmek istediğimizi (ya da görmek istediğimiz) gördüğümüz de aynı derecede doğrudur.

Bu olurdu neredeysemuazzam bir dinamik aralığa izin veren büyük fotositlere sahip nispeten düşük bir piksel yoğunluk sensörü oluşturmak ve (mevcut CMOS sensör teknolojisi bu şekilde çalışamayacağı için bir CCD tipi teknoloji varsayarak), mekanik obtüratör. Peki bu sana ne getirecek? Çok fazla bit derinliği ve çok düşük yerel kontrastlı düz bir görüntü (tüm bit derinliği görüntü veya baskı için olduğu gibi dönüştürülürse) ve sensör doygunluğu (ancak tam olarak değil) tarafından kırpılan bir dizi pikselle ( aslında, elektronik obtüratörün doygunluk noktasından hemen önce sınırlayıcı hareketiyle kırpılmış olmalarına rağmen). Bununla birlikte, bu sensör ve onunla ilişkili bilgisayarın kırpma verilerini kaydedebildiğini (diyelim ki bu senselde kaydetmeyi durdurmasının nedeni, bu sitede gerçek pozlama süresini kaydetmek kadar basit olabilir). Bu, fotositin son düdüğüne kadar oyunda kalmış olsaydı, kameranın elektronik aksamlarının sayıların ne olacağını yeniden yapılandırmasına izin verecekti. Şimdi daha büyük bit derinliğine sahip daha düz bir görüntüye sahibiz. Ve nerede çizgi çiziyorsun? 32 bit? 64?

Şimdi zor kısım geliyor - bu düz, yüksek dinamik aralıklı görüntü verilerini çekici bir fotoğrafa dönüştürüyor. En basit yaklaşım, birincil ölçülü görüntüyü temsil eden sekiz biti (veya çıkış bit derinliği ne olursa olsun) almak ve geri kalanını atmaktır. Aşırı gölgeleri ve / veya vurguları sıkıştırarak verileri bir S eğrisine sığdırmak muhtemelen daha zor olmayacaktır - bu, yeni kameralardaki genişletilmiş dinamik aralık ayarlarının zaten yaptığı şeydir. Ancak piksel başına yalnızca çok fazla çıkış biti vardır ve genişletilmiş vurgu değerlerinin çoğu beyaza (veya en az 254 ve 255 karışımına) yuvarlanır. Yani sistemi önemli ölçüde karmaşıklaştırarak çok az kazandınız.

Ancak hala bir seçenek açık - seçmeli alan eşlemesi vardır. Neden gökyüzünü, diyelim ki, ya da sadece o gökyüzündeki bulutları, ön planda istenen kontrastı korurken ayrıntıyı koruyabilmesi için değeri düşürmeyelim? Zor problem burada yaşıyor. Ne önemli? Kamera sizin için karar vermeli mi? Kamera karar verirse, makine vizyonunda ve yapay zekada büyük bir ilerlememiz var. Değilse, çektiğiniz her resim için bu seviyede çekim sonrası karar vermek istiyor musunuz? Evet, gerçekten bu kadar pratik olmak isteyen bazı foto-tekno-weini'ler olacağını biliyorum, ancak bunun patolojik bir durum olduğunu ve dönüş süresi ve tüketicilerin büyük çoğunluğuyla ilgilenen profesyonellerin öyle değil mi?

Bu nedenle, en çok atılacak verileri toplamak için yeni bir sensöre, sensörün etrafında çok daha karmaşık elektroniklere, yansıtılan ham veriler için (daha büyük kartlar ve daha uzun yazma süreleri / daha yavaş kare hızları gerektiren) muazzam bir görüntü dosyasına ihtiyacınız var. zaman zaman çok fazla insan müdahalesi gerektiren tek seferlik HDR görüntüler çekebilirsiniz (veya MV / AI'da büyük bir sıçrama). Muhtemelen bunlardan birkaçını satabilirsiniz, ancak pazarın mevcut 35mm / APS-C pazarından çok orta format pazarına çok daha fazla görünmesini beklerdim. Yani, profesyonel nedenlerle veya güzel sanatlar vizyonlarını yerine getirmek için gerçekten yeteneklere ihtiyaç duyan seçkin bir grup iyi fotoğrafçıya ve ödeme yapmak için yeterli işlem sonrası yeterince büyük bir tekme atan birkaç kişiye satış yapacaksınız. teknoloji vergisi.


1
Bu harika bir analiz (ve ben böyle oy veriyorum). Ama sonunda sonuçları ikna edici bulmuyorum. Sonuçta, bazıları altı duraklı bir ND filtresi tarafından maskelenen bir "aptal" duyu matrisi oluşturmak zor olmaz. (Örneğin Bayer filtresindeki G'lerden birini kullanın.) Elektronikte önemli bir değişikliğe gerek yoktur; kameralar, lensler vb. ile ilgili hiçbir şey değişmez; ancak duyarlılıktaki küçük bir kayıp karşılığında, dışarıda kalan piksellerde geçişleri (kaba) ayırt etme yeteneği elde edersiniz. OP'nin istediği şey bu kadar yakın.
Whuber

2
Fuji'nin EXR sensöründe daha basit bir yaklaşım zaten var. Farklı boyutlu duyulara sahiptir; sensördeki her bir kaynak piksel alanında küçük bir sensel ve büyük bir sensör eşleştirilir. Bu, daha geniş bir çekim aralığı sağlayabilirken, yapabileceği şeylerle sınırlıdır - tüm gölgeleri elde etmek istiyorsanız vurguları yine de patlatabilirsiniz. (Ve Fuji'nin şu anki uygulaması çok küçük bir sensörde çok fazla piksel kullanıyor.) Çok sayıda sensör boyutuyla mükemmel bir uygulama olduğunu varsayalım - ki bu hala işlem problemini bırakır - ve yakalama değil, asıl sorun budur.

EXR referansı için teşekkürler. Benim önerimin sadece makul değil, gerçek olduğunu gösteriyor. Şimdi HDR yazılımı işlem sorununu çözmedi mi? Entegre bir sensörle geniş bir dinamik aralık yakalamayı başardıysanız, aslında mükemmel bir şekilde kayıtlı bir HDR yığına sahipsiniz. Bu teknolojinin sınırlamaları, elbette HDR'nin sınırlamaları olacaktır.
Whuber

Yine, kaynak HDR ise düz işleme berbat bir görüntü verecektir. Sınırlama yakalamada değil, işlemede - HDR işlemenin basit olmadığı sonucuna varmadan önce kaç hale edilmiş görüntüyü görmeniz gerekiyor? İyi niyetli insanlar onu kraliyet olarak berbat ediyorlar ve görüntünün ne demesini istediklerini biliyorlar. Ardından, depolama ve yazma hızı sorunları da hala orada ve başka bir kullanımdan ödün veriyor. Bir kamera tüm insanlar için her şey olabilir , ancak hem fiyat hem de ergonomi için ne pahasına? 14 bit yakalama ve DR sıkıştırması artık burada; 16-bit geride kalmayacak.

1
... Ve ikisi de hala öne çıkmaya başladı. Sorunu tamamen önlemek için önemli ölçüde daha fazla genişletmeniz gerekiyor ve bir noktada pratiklik en azından kitle pazarı düzeyinde bozuluyor. Stüdyo atıcılarının buna ihtiyacı yok; çoğu tüketicinin buna ihtiyacı yoktur. Çoğunlukla çevresel portre yapıyorum ve buna çok fazla ihtiyaç duyduğumu düşünemiyorum (aşırı pozlama görüntülerimden çoğunu yaptı ). Genel gider çoğu insan için buna değmez, bu yüzden pahalı bir niş ürün yaratacaktır.

3

Sadece birkaç kişinin bahsettiği bir şey var ve bu, farklı alanların farklı alanlara farklı şekilde maruz kalması durumunda bir sahnenin aynı görünmeyeceği anlamına geliyor. Bir sahne göründüğü gibi görünüyor çünkü varyasyon var. Evet, vurguları kaydetmenin ve gölgeleri artırmanın bir yolu olabilir, ancak sonuçta gerçekten istediğiniz şey, bir pozlama ayarını kullanarak sahnedeki dinamik aralığı yakalayabilen daha geniş bir dinamik aralıktır.

Gözlerimiz, mevcut tüketici kamera teknolojisinden çok daha geniş bir dinamik aralık sunmakta harika. Hızlıca etrafa bakabilir ve aynı zamanda gölgeli alanlarda ve parlak güneşli alanlarda doğru ayrıntıları algılayabilirim.

Kamera üreticilerinin bu sorunu aşma yollarından biri, bir sensörde hem yüksek hem de düşük hassasiyetli pikselleri kullanmak ve sonucu piksel başına birleştirmektir. RED'in yeni dijital sinema kameralarında HDRx adı verilen normal ve düşük hassasiyetli sensör pikselleri matrisi bulunur. Küçük, düşük hassasiyetli sensör pikselleri, dinamik aralığı artırmak için parlak piksellerin vurgularıyla birleştirilir.


Haklısın, mülayim bir fotoğrafla sonuçlanacaktı, ama belli ki bazı sınırlamaları olmalı. Hangi alanların daha parlak ve daha karanlık olması gerektiğine karar vermesine izin vermenin çok fazla olacağına inanıyorum. Doğru düşünmemiştim ...

3

Birincisi, insan gözünün dinamik aralığı o kadar da büyük değil. Sadece mevcut üst düzey kameralarımızdan daha iyi gibi görünüyor, çünkü beynimiz sürekli olarak farklı pozlama ayarları kullanılarak çekilen "anlık görüntüleri" birleştiriyor. Gözlerimiz son derece parlak ve son derece karanlık nesneleri aynı anda kaydedemez (beyin bile olsa). Görüntü işleme gerçek mucizesi, ama sadece vasat optik / görüntüleme cihazı.

Dinamik görüntü sensörü aralığının nasıl büyük ölçüde geliştirilebileceğini gösteren birkaç teklif / prototip vardır:


2

Burada bazı temel fizik eksik. Asıl sorun, gerçek sahnelerin büyük kontrast oranlarına sahip olmasıdır. Gözlerimiz, ışık seviyelerini doğrusal olarak değil logaritmik olarak algılayarak bununla başa çıkmak için gelişti. Ne yazık ki, mevcut sensör teknolojisi ışığı doğrusal olarak ölçer. Ya da daha doğrusu, gürültü doğrusal bir ışık ölçeğinde sabitlenir.

Mevcut teknoloji ile maksimum kontrast limiti temel olarak gürültü seviyesinin bir fonksiyonudur. Tartışmak için, 0-1000 ışık ölçeği kullanalım, yani bir sensör size 0 ila 1000 arasındaki ışık seviyesini söyleyebilir. Bu nedenle ölçebileceği en yüksek oran nedir? Gürültü seviyesine bağlıdır. Gürültü seviyesi temel olarak gerçek siyah yerine elde ettiğiniz değerdir, bu örnekte 0 olur. Kabaca, gürültü seviyesi 2 ise, yaklaşık 1000: 2 = 500: 1 parlaklık oranı elde edersiniz. Sahne bunu aşmadığı sürece (neredeyse hepsi olsa da, gerçekte 500: 1 o kadar da değil), daha sonra istediğiniz logaritmik eşlemeyi yapabilirsiniz.

Dolayısıyla, mevcut sensör, akım sensörlerinin doğal olarak doğrusal olduğu göz önüne alındığında, sinyal / gürültü oranını arttırmaya çalışmak ve niceleme gürültüsünün doğal rastgele gürültünün altında olması için yeterli bit sağlamaktır. Sensör ne kadar düşük olursa, vurguları kesmeden veya gölgeleri silmeden yakalayabileceğiniz daha geniş dinamik aralık sahneleri.

Parlaklığın günlüğünü doğal olarak ölçen tamamen farklı bir sensör teknolojisi vardır. Bazen bunlar "CMOS" sensörleri olarak adlandırılır, çünkü kapak çıkarılmış CMOS dinamik RAM'lere çok benzerler (aşırı basitleştiriyorum, ancak laboratuvardaki ilk test aslında bu şekilde yapıldı). Işığın kütüğüyle orantılı bir voltaj elde edersiniz, ancak bunların şu anda gürültü / gürültü oranları çok daha düşüktür. Mitsubishi bu sensörleri ilk ticarileştiren oydu, ancak üst düzey kameralar için henüz yeterince iyi değiller.

Hiç şüphe yok ki, birden fazla cephede ilerleme olacak ve eminim önümüzdeki yıllarda da istikrarlı bir ilerleme kaydedeceğiz. Ancak, hiç kimsenin bir şeyi daha iyi hayal edememesi nedeniyle değil, şimdi olduğu gibi olmasının iyi nedenleri vardır. Birisi geniş bir dinamik aralığı doğru bir şekilde ölçebilecek bir teknolojiye sahip olsaydı ve insanların ödemek istediği bir fiyata, zengin olmak için orada olurdu.


1

Çok karmaşık olduğuna inanıyorum.

Temel olarak iki olası yaklaşım olacaktır; her bir fotosensör zamanı takip edebilir ve kendini kapatabilir veya CPU fotosensörlerden gelen verileri izleyebilir ve kapatabilir.

İlk yaklaşım için, her fotosensörün bir saat sinyaline ve bir sayaca ihtiyacı olacağı anlamına gelir, böylece kendi kendine kapanana kadar geçen süreyi takip edebilir. Bu, çipe sığacak çok daha fazla devre ve onu çalıştırmak için çok daha fazla elektrik gerekiyor, bu da sinyal gürültüsünü arttırıyor. Muhtemelen o kadar fazla ki, artan dinamik aralık anlamsız olacaktır.

İkinci yaklaşım için CPU'nun sensördeki tüm verileri yaklaşık 1/10000 saniyede bir okuması gerekir. Bu, mevcut teknolojinin başarabileceğinden yaklaşık 1000 kat daha hızlıdır, bu nedenle, mümkünse, onlarca yıl geleceğe.

Ayrıca, her bir pikselin farklı bir pozlama süresi alacağı gibi böyle bir çözümle ilgili başka komplikasyonlar da vardır. Hareket eden bir şeyi fotoğraflarsanız oldukça garip eserler elde edersiniz.


1
"Seçici hareket bulanıklığının" çok büyük bir sorun olacağına ikna olmadım. Hareketli bir nesneyi çekerken, en uzun pozlanan pikseller tüm zaman boyunca karanlıkta kalan pikseller olacaktır. Bunlar, biraz bulanıklığın çok fark edilmeyeceği, çoğunlukla homojen karanlık alanların içinde olacaktır. Karanlık ve aydınlık alan arasındaki kenarlardaki pikseller, konunun hareket etmesi durumunda daha yüksek pozlama alır ve daha hızlı kapanır, bu da daha az bulanıklığa neden olur.
Jan Hlavacek

0

DSLR'lerin dijital olduğu doğru olsa da, lensler değildir. DSLR gövdesi ne kadar akıllı olursa olsun, tüm hücre sensörleri aynı diyaframa tabi tutulacaktır, çünkü objektif diyafram açıklığına ayarlanmıştır. Bu yüzden sensör hücresi başına diyaframı değiştirmek en azından mevcut lens teknolojisiyle düşünüyorum.

Deklanşör hızına gelince, bu fotoğraf makinesi tarafından kontrol edilir, ancak aşırı / düşük pozlamayı kontrol etmek için resmin farklı bölümlerinde deklanşör hızını değiştirebilen bir kamera hayal edersek, eşit olmayan hareket bulanıklığı ile sonuçlanırsınız. Sahnenin daha karanlık kısımları daha uzun süre açıkta kalacak ve daha parlak kısımlardan daha bulanık olacaktır. Deklanşör hızını değiştiren bir çözümün bu nedenle işe yaramayacağını düşünüyorum.

Yani geriye kalan tek şey ISO. ISO'nun değiştirilmesi resmin farklı kısımlarında farklı gürültü seviyeleri anlamına gelir. Karşılığında çok daha fazla dinamik aralık elde edeceğiniz düşünülürse, bu kulağa kötü gelmiyor. Sensörlerin nasıl çalıştığı hakkında pek bir şey bilmiyorum, ancak ISO ayarının sensörlerde parlaklık ölçeğinin belirli bir alt kümesine doğru bir tür "ayar" olarak uygulandığını hayal ediyorum. Bana öyle geliyor ki, her sensör hücresinde bağımsız ölçüm ve ISO kontrolüne sahip olmak oldukça pahalı olurdu, ancak belki resim alanlara bölünebilir ve her alan ayrı ayrı ölçülebilir. Ardından kameranın farklı pozlama alanlarını harmanlamak için bir çeşit algoritmaya sahip olması, her resmin farklı bir pozlamaya sahip olduğu bir panorama oluştururken "enblend" in ne yapması gerektiği gibi olacaktır. Bu benim için yapılabilir.

Başka bir seçenek, her biri farklı bir ISO'ya yapılandırılmış birden fazla sensöre sahip bir kameranın olması olabilir. Video teknolojisinde, her CCD'nin kırmızı, yeşil ve maviden birini kaydettiği 3 CCD kamera vardır. Birden fazla sensörün farklı ISO seviyelerinde fotoğraf çektiği ve HDR görüntü ürettiği DSLR'ler için neden benzer bir konsept bulunamadığını anlamıyorum.


0

Şu anda bilgi bulamıyorum, ancak benzer bir teknolojinin açıklamasını okuduğumu hatırlıyorum. Fikir kabaca şöyleydi: ilgilenilmesi gereken tek şey aşırı vurgulanan olaylardır. Bunları önleyebiliyorsanız, tüm resme daha fazla maruz kalınarak karanlık alanlara dikkat edilebilir. Bu nedenle, aşırı parlak olayları önlemek için, her sensör biriken ışığını takip eder ve bu maksimum seviyeye yaklaşırsa sensör kapanacaktır. Kendi başına hiçbir şeyi iyileştirmeyecekti, aslında daha az parlak beyaz overblown vurgularına sahip olmak yerine, işleri daha da kötü hale getirecekti. Bu nedenle, hücre sadece kapatmak yerine, bazı mahallelerdeki hücreleri de kapatacak ve bu da parlak alanlarda bazı ayrıntıları koruyacaktı.

Yazdığım gibi, metni şimdi bulamıyorum, ama bir şekilde HP dijital kameralarla ilişkili.


Eğer bulursanız, lütfen makaleye bağlantı verin. Gerçekten ilginç bir fikir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.