Etkili pikseller neden gerçek çözünürlükten daha büyük?


16

Bu sayfa Canon EOS 550D ve Canon EOS 500D fotoğraf makinelerini karşılaştırıyor ve bahsediyor

18,7 milyon etkili piksel

550D için. Ancak bu kamerayı kullanarak mümkün olan en iyi çözünürlük

5184 * 3456 = 17915904 ~ 17.9 million pixels

Etkili pikseller nedir ve bu sayı neden bu durumda 17,9 milyondan fazladır?


1
Ayrıca "çözüm" ün iki anlamı olduğunu unutmayın. Bilgisayarlarda, bir ekranın veya görüntünün piksel boyutlarına atıfta bulunmak için kullanırız. Ve bir bilgisayar çiziminde veya oluşturulan görüntüde, bu genellikle "gerçek" çözünürlüğe karşılık gelir - görüntüde gerçekten çözülen ayrıntı miktarı . Ama bir fotoğrafta, durum böyle olmayabilir.
Lütfen Oku Oku

1
Burada olan bu değil - sadece ek bir karışıklık kaynağı.
Lütfen Oku Oku

Yanıtlar:


9

Bir kısmı burada gördüğümüz şey budur fazla (ben makul eminim) hiçbir şey basit bir yazım hatası (bu sırayla veya şey) DPReview.com adına. Canon'a göre [PDF, sayfa 225] sensördeki kuyu sayısı "Yaklaşık 18,00 megapiksel" dir.

Bunlar daha sonra edilir azaltılmış Bayer desen girişler çoğumuz pikseller olarak ne düşünürdü dönüştü edildiğinde yaklaşık 17.9 megapiksele. Fark oldukça basittir: sensördeki her yuva sadece bir renk ışığı algılar , ancak çıkışta normalde beklediğiniz gibi bir piksel (örneğin, bir JPEG veya TIFF dosyası) her piksel için üç renge sahiptir. İlk bakışta, bir girişte sensör kuyuları olduğu için bir dosyanın yalnızca üçte biri kadar piksele sahip olacağı anlamına gelebilir. Açıkçası, durum böyle değil. İşlerin nasıl çalıştığına dair (basitleştirilmiş bir görünüm):

basitleştirilmiş Bayer desen

Her harf sensördeki bir kuyuyu temsil eder. Her kutu çıktı dosyasında olduğu gibi üç renkli bir pikseli temsil eder.

Sensörün "iç" kısmında, her çıkış pikseli dört sensör kuyusundan gelen girdiye bağlıdır, ancak her sensör kuyusu dört farklı çıkış pikseline giriş olarak kullanılır, bu nedenle giriş sayısı ve çıkış sayısı aynı kalır.

Ancak kenarlarda, dört yerine iki piksele katkıda bulunan sensör kuyularımız var . Köşelerde, her sensör kuyusu sadece bir çıkış piksellerine katkıda bulunur .

Bu, toplam çıkış pikseli sayısının sensör kuyularının sayısından daha az olduğu anlamına gelir. Özellikle, sonuç girişe kıyasla bir satır ve bir sütun daha küçüktür (örneğin, örnekte 8x3 sensörümüz var, ancak 7x2 çıkış pikseli var).


Özellikle diyagram için +1. Ama yine de şaşkınım, çünkü bu 2 (5184-1 + 3456-1) = yaklaşık 17K pikselin yokluğunu açıklayacaktır, bu da 18.0 - 17.9 = 0.1M piksel hesaplamadaki yuvarlamada kaybolacaktır. Görünüşe göre sınırdan en az üç kat daha fazla piksel çıkarılmalıdır (çünkü 50K'dan küçük her şey 0.0M'ye yuvarlanmalıdır). Belki de dinozor burada gösterilen 2 x 2 olanlardan daha büyük bir mahalle kullanıyor: belki 7 x 7 civarında bir mahalle kullanıyor?
Whuber

1
@whuber: Offhand, gerisini doğrudan açıklayabileceğimden emin değilim. Tek bir çıkış pikseli üretmek için daha fazla sensör kullanmak kesinlikle mümkündür , ancak Canon'un bu durumda ne yaptığını bilmenin gerçek bir yolu yok. Kameradan gelen ham bir dosya tam sayıda sensör kuyusu verecektir, ancak yine de Canon'un X girişinden Y çıkışına nasıl gittiğini tam olarak söyleyemedi
Jerry Coffin

3
İyi demografik algoritmalarda (örn. Adaptif homojenliğe yönelik) her sensör, dörtten fazla çıkış piksellerine katkıda bulunur, böylece kaybolan yalnızca bir satır veya sütundan daha fazlasıdır. Kesin bir cevap almak için dcraw'dan yakalanmamış çıktıyı alıp görüntü boyutlarını Canon'un DPP çıktısıyla karşılaştırmak yeterince kolay, zamanım olduğunda bir deneyeceğim.
Matt Grum

@Matt Grum: Sağa dönüp baktığımda, önceki yorumum oldukça kötü yazılmış. Ne almaya çalışıyordum ~ 3 satır / sütun piksel kaybedebilir (ve) atabilir birkaç algoritmaları vardır, ama tek başına piksel sayısı size hangisini kullandığını söyleyemez. Her çıkış pikseli için daha fazla sensör kullanan daha karmaşık bir algoritma kullanmak neredeyse verilir.
Jerry Coffin

5

"Etkili" teriminin neden DPReview tarafından kullanıldığını bilmiyorum, ancak çip üzerindeki fotositlerin (piksel) sayısı ve elde edilen görüntülerin piksel cinsinden boyutu arasındaki tutarsızlığın birkaç nedeni var.

Bazı kamera sensörlerinin her iki tarafında birer maskeli piksel şeridi bulunur. Bu pikseller, ışık almadıkları için sensör üzerindeki piksellerin büyüklüğüyle aynıdır. Girişimi algılamak ve ışığa duyarlı pikseller tarafından üretilen sinyalden çıkarmak için kullanılırlar.

İkincisi [iyi] demografik algoritmalar çok sayıda "komşuluk operasyonu" kullanır, bu da bir pikselin değerinin bir şekilde komşu piksellerinin değerine bağlı olduğu anlamına gelir. Görüntünün uç kenarındaki piksellerde komşu yoktur, bu nedenle diğer piksellere katkıda bulunur ancak görüntü boyutlarına eklemeyin.

Fotoğraf makinesinin sensörü başka nedenlerle kırpması da mümkündür (örn. Lens görüntü dairesi sensörü tam olarak kaplamamaktadır), ancak 550D'de durumun bu olduğundan şüpheliyim.


Kenarlık pikselleri paraziti gidermek için mi yoksa yalnızca siyah noktayı ayarlamak için mi kullanılıyor?
Lütfen Oku Oku

1
Her ikisi de sanırım, herhangi bir girişim olmasaydı (termal tepki dahil) siyah nokta 0 olurdu
Matt Grum

DPReview açıklaması . Bana öyle geliyor ki, iki karşıt kavram arasında gidip geliyor ve dolaylı olarak hariç, terimi gerçekten tanımladığını görmüyorum. Sanırım cevabınız biraz yardımcı oluyor, ancak yine de dpreview sayfası bazı olasılıklar sunsa da, "etkili" piksellerin neden gerçek fotoğraf sitelerinden daha fazla olacağını merak ediyor . Etkili: görüntü verilerini etkilemek için kullanılır mı? Ya da görüntü tarihi nihayet böyle etkilendi? (not: e: varoluş yaratan etki fiili.) Hala hangisinin ne anlama geldiğini merak ediyorum.
Mart'ta

5

Etkili piksellerin gerçek sensör pikseli sayısından (algılama elemanları veya duyular) daha az olmasının iki nedeni vardır . İlk olarak, Bayer sensörleri tek bir ışık rengini algılayan "piksellerden" oluşur. Genellikle, sıra çiftleri halinde düzenlenmiş kırmızı, yeşil ve mavi duyular vardır:

RGRGRGRG
GBGBGBGB

Çoğumuzun bildiği gibi tek bir "piksel", bir bilgisayar ekranının RGB tarzı pikseli, bir RGBG dörtlüsü olan dört duyuyu birleştirerek bir Bayer sensöründen üretilir:

          R G 
(sensor)       -->  RGB (computer)
          G B

Tek bir RGB bilgisayar pikseli oluşturmak için dört RGBG hisseden oluşan 2x2 bir ızgara kullanıldığından, bir sensörün kenarı boyunca tam bir piksel oluşturmak için her zaman yeterli piksel yoktur. Bayer sensörlerinde bunu karşılamak için genellikle "ekstra" piksel kenarlığı bulunur. Bir sensörün tüm tasarımını telafi etmek, kalibrasyon pikselleri olarak hizmet etmek ve genellikle IR ve UV filtreleri, kenar yumuşatma filtreleri, vb. sensörün dış çevresine ulaşan ışık miktarı.

Son olarak, bilgisayar piksellerinin normal bir RGB görüntüsünü oluşturmak için Bayer sensörleri "demosaized" olmalıdır. Bir Bayer sensörünü demosaic etmenin çeşitli farklı yolları vardır, ancak çoğu algoritma, olası her 2x2 RGBG dörtlüsü kümesinden RGB pikselleri karıştırarak çıkarılabilen RGB piksel miktarını en üst düzeye çıkarmaya çalışır:

Bayer Demosaicing

Toplam 36 tek renkli duyuya sahip bir sensör için toplam 24 RGB pikseli çıkarılabilir. Yukarıdaki animasyonlu GIF'i izleyerek yıkım algoritmasının örtüşen doğasına dikkat edin. Ayrıca üçüncü ve dördüncü geçişlerde üst ve alt sıraların nasıl kullanılmadığına dikkat edin. Bu bir sensörün sınır piksellerinin bir Bayer sensel dizisini yok ederken her zaman nasıl kullanılamayacağını gösterir.

DPReview sayfasına gelince, onların bilgileri yanlış olabilir inanıyorum. Canon 550D Bayer sensöründeki toplam sensör sayısı (piksel) 18.0mp iken, bu temel piksellerden veya bu temel 18mp'den üretilebilen RGB bilgisayar piksellerinin sayısının 5184x3456 veya 17.915.904 (17.9mp) olduğuna inanıyorum. Fark, tam bir dörtlüsü tam olarak oluşturamayan kenarlık piksellerine ve muhtemelen sensörün önüne geçen filtrelerin ve montaj donanımının tasarımını telafi etmek için bazı ek kenarlık piksellerine kadar kaybolacaktır.


Animasyonlu görüntümde yanlış duygular saydığımı fark ettim. İlk iki adımda 8 duyuyu birleştirmez ... 28 duyuyu 8 piksele birleştirir. Son iki adımda, 14 duyuyu 4 piksele birleştirir. Tutarsızlık için özür dilerim. Yakında düzeltmeye çalışacağım.
jrista

-3

Hayal kırıklığına uğrattığım için üzgünüm, ama bu açıklamaların hiçbiri doğru değil. Her sensörde, görüntüleme alanının dışında fotositler de içeren bir bölge vardır. Bunlardan bazıları kapalı, bazıları tamamen açık ve bazıları diğer izleme amaçları için kullanılıyor. Bunlar, gerçek görüntülemeyi yapanlara karşı "kontrol seti" olarak amp ve beyaz dengesi seviyelerini ayarlamak için kullanılır.

RAW sensör verilerini herhangi bir CHDK uyumlu Powershot kameradan alır ve dönüştürmek için dcraw kullanırsanız, bu% 100 siyah ve% 100 beyaz bölgeler dahil olmak üzere tam sensör görüntüsünü elde edebilirsiniz.

Ancak ilginç olan şey, kamera içi RAW görüntü boyutu çözünürlüğünün her zaman kamera içi JPG sonuçlarından daha büyük olmasıdır. Bunun nedeni, RAW'dan JPG'ye geçmek için kamerada kullanılan daha basit ve daha hızlı enterpolasyon yöntemleri, her pikselin nihai rengini belirlemek için çevreleyen RGB fotositlerini gerektirir. Kenar ve köşe fotositlerinin bunu yapmak için her tarafta bu renk referanslarına sahip değildir. İşlemi daha sonra RAW enterpolasyon yazılımı daha iyi olan bir bilgisayarda yapmak, kamera içi JPG'den elde edilebilecek olandan biraz daha fazla görüntü boyutu çözünürlüğü elde etmenizi sağlayacaktır.

PS DPReview hakemleri ve makale yazarları asla kimse tarafından müjde olarak alınmamalıdır. Testlerinde ve test cihazlarında kameraların nasıl kullanılacağını bile bilmedikleri açık örneklerde çok fazla delik buldum, yıllar önce tavsiyelerini indirdim.


5
"Bu açıklamaların hiçbiri doğru değil" yorumuna rağmen, diğer cevaplar bunu zaten kapsıyor.
Lütfen Profili Oku
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.