Diese Seite vergleicht Canon EOS 550D und Canon EOS 500D Kameras und erwähnt
18,7 Millionen effektive Pixel
für 550D. Die mit dieser Kamera bestmögliche Auflösung ist jedoch
5184 * 3456 = 17915904 ~ 17.9 million pixels
Was sind effektive Pixel und warum ist diese Zahl in diesem Fall größer als 17,9 Millionen?
Antworten:
Ein Teil dessen, was wir hier sehen, ist (da bin ich mir ziemlich sicher) nichts weiter als ein einfacher Tippfehler (oder etwas in dieser Reihenfolge) von DPReview.com. Laut Canon [PDF, Seite 225] beträgt die Anzahl der Vertiefungen auf dem Sensor "ca. 18,00 Megapixel".
Diese werden dann auf ungefähr 17,9 Megapixel reduziert , wenn die Bayer-Mustereingaben in das umgewandelt werden, was die meisten von uns als Pixel betrachten würden. Der Unterschied ist ziemlich einfach: Jede Vertiefung auf dem Sensor erfasst nur eine Lichtfarbe, aber ein Pixel, wie Sie es normalerweise in der Ausgabe erwarten (z. B. eine JPEG- oder TIFF-Datei), hat drei Farben für jedes Pixel. Auf den ersten Blick scheint dies zu bedeuten, dass eine Datei nur etwa ein Drittel der Pixel hat, die in der Eingabe vorhanden sind. Offensichtlich ist das nicht der Fall. Hier ist (eine vereinfachte Ansicht), wie die Dinge funktionieren:
Jeder Buchstabe repräsentiert eine Vertiefung auf dem Sensor. Jedes Kästchen repräsentiert ein dreifarbiges Pixel, wie es in der Ausgabedatei angezeigt wird.
Im "inneren" Teil des Sensors hängt jedes Ausgabepixel von der Eingabe von vier Sensorwannen ab, aber jede Sensorwanne wird als Eingabe für vier verschiedene Ausgabepixel verwendet, sodass die Anzahl der Eingaben und die Anzahl der Ausgaben gleich bleibt.
An den Rändern haben wir jedoch Sensorwannen, die nur zu zwei statt zu vier Pixeln beitragen . An den Ecken trägt jeder Sensortopf nur zu einem Ausgabepixel bei.
Das heißt, die Gesamtzahl der Ausgabepixel ist kleiner als die Anzahl der Sensorkammern. Insbesondere ist das Ergebnis im Vergleich zur Eingabe um eine Zeile und eine Spalte kleiner (im Beispiel haben wir einen 8x3-Sensor, aber 7x2-Ausgabepixel).
quelle
Ich weiß nicht, warum der Begriff "effektiv" von DPReview verwendet wird, aber es gibt einige Gründe für die Diskrepanz zwischen der Anzahl der Photosites (Pixel) auf dem Chip und der Größe der resultierenden Bilder in Pixel.
Einige Kamerasensoren haben auf jeder Seite einen Streifen mit maskierten Pixeln. Diese Pixel sind identisch mit dem Hauptteil der Pixel auf dem Sensor, außer dass sie kein Licht empfangen. Sie werden verwendet, um Interferenzen zu erkennen und vom Signal der lichtempfindlichen Pixel zu subtrahieren.
Zweitens verwenden [gute] Demosaikierungsalgorithmen viele "Nachbarschaftsoperationen". Dies bedeutet, dass der Wert eines Pixels etwas vom Wert seiner Nachbarpixel abhängt. Pixel am äußersten Bildrand haben keine Nachbarn, tragen also zu anderen Pixeln bei, erhöhen jedoch nicht die Bildabmessungen.
Es ist auch möglich, dass die Kamera den Sensor aus anderen Gründen beschneidet (z. B. wenn der Linsenbildkreis den Sensor nicht vollständig abdeckt), obwohl ich bezweifle, dass dies bei der 550D der Fall ist.
quelle
Es gibt zwei Gründe, warum die effektiven Pixel kleiner sind als die tatsächliche Anzahl von Sensorpixeln (Sensorelementen oder Sensoren). Erstens bestehen Bayer-Sensoren aus "Pixeln", die eine einzelne Lichtfarbe erfassen. Normalerweise gibt es rote, grüne und blaue Sinne, die in Zeilenpaaren angeordnet sind in Form von:
Ein einziges "Pixel", wie es die meisten von uns kennen, das RGB-Pixel eines Computerbildschirms, wird aus einem Bayer-Sensor durch Kombination von vier Sinnen, einem RGBG-Quartett, erzeugt:
Da ein 2x2-Raster mit vier RGBG-Sensen verwendet wird, um ein einzelnes RGB-Computerpixel zu erzeugen, befinden sich nicht immer genügend Pixel am Rand eines Sensors, um ein vollständiges Pixel zu erzeugen. Bei Bayer-Sensoren ist normalerweise ein "zusätzlicher" Pixelrand vorhanden, um dies zu berücksichtigen. Ein zusätzlicher Rand von Pixeln kann auch vorhanden sein, um einfach das vollständige Design eines Sensors zu kompensieren, als Kalibrierungspixel zu dienen und zusätzliche Sensorkomponenten aufzunehmen, die üblicherweise IR- und UV-Filter, Anti-Aliasing-Filter usw. enthalten, die a behindern können volle Lichtmenge vom Erreichen des Außenumfangs des Sensors.
Schließlich müssen Bayer-Sensoren "demosaikiert" werden, um ein normales RGB-Bild von Computerpixeln zu erzeugen. Es gibt verschiedene Möglichkeiten, einen Bayer-Sensor zu demosaikisieren. Die meisten Algorithmen versuchen jedoch, die Menge der RGB-Pixel zu maximieren, die durch Mischen von RGB-Pixeln aus jedem möglichen überlappenden Satz von 2x2 RGBG-Quartetten extrahiert werden können:
Für einen Sensor mit insgesamt 36 Einfarbensensoren können insgesamt 24 RGB-Pixel extrahiert werden. Beachten Sie die Überlappung des Demosaikierungsalgorithmus, indem Sie das oben gezeigte animierte GIF betrachten. Beachten Sie auch, dass während des dritten und vierten Durchgangs die obere und untere Reihe nicht verwendet wurden. Dies zeigt, wie die Randpixel eines Sensors beim Demosaizieren eines Bayer Sensel Arrays möglicherweise nicht immer verwendet werden.
Was die DPReview-Seite angeht, glaube ich, dass ihre Informationen möglicherweise falsch sind. Ich glaube, die Gesamtzahl der Sensoren (Pixel) auf dem Canon 550D Bayer-Sensor beträgt 18,0 MP, während die effektiven Pixel oder die Anzahl der RGB-Computerpixel, die aus diesen Basis-18 MP generiert werden können, 5184 x 3456 oder 17.915.904 (17,9 MP) beträgt. Der Unterschied würde sich auf die Randpixel beschränken, die kein vollständiges Quartett ergeben können, und möglicherweise auf einige zusätzliche Randpixel, um das Design der Filter und der Montageteile vor dem Sensor zu kompensieren.
quelle
Entschuldigen Sie die Enttäuschung, aber keine dieser Erklärungen ist richtig. Auf jedem Sensor befindet sich ein Bereich außerhalb des Abbildungsbereichs, der auch Fotoseiten enthält. Einige davon sind ausgeschaltet, andere sind vollständig eingeschaltet und andere werden für andere Überwachungszwecke verwendet. Diese werden verwendet, um Verstärker- und Weißabgleichspegel als "Kontrollsatz" gegenüber denjenigen einzustellen, die die eigentliche Bildgebung durchführen.
Wenn Sie die RAW-Sensordaten von einer der CHDK-kompatiblen Powershot-Kameras abrufen und diese mit dcraw konvertieren, erhalten Sie das vollständige Sensorbild, einschließlich dieser 100% schwarzen und 100% weißen Bereiche.
Interessant ist jedoch, dass die Auflösung von RAW-Bildern in der Kamera immer größer ist als die von JPG-Bildern in der Kamera. Der Grund dafür ist, dass die einfacheren und schnelleren Interpolationsmethoden, die in der Kamera verwendet werden, um von RAW zu JPG zu wechseln, umgebende RGB-Fotoseiten erfordern, um die endgültige Farbe jedes Pixels zu bestimmen. Rand- und Eckfotoseiten haben diese umgebenden Farbreferenzen nicht auf allen Seiten, um dies zu tun. Wenn Sie den Vorgang später auf einem Computer mit einer besseren RAW-Interpolationssoftware ausführen, erhalten Sie eine etwas größere Bildauflösung als mit einem JPG in der Kamera.
ps DPReview-Rezensenten und Artikelautoren sollten niemals von irgendjemandem als Evangelium angesehen werden. Ich habe so viele Lücken in ihren Tests und offensichtlichen Beispielen gefunden, in denen die Tester nicht einmal wussten, wie man Kameras benutzt, dass ich ihren Rat vor vielen Jahren ignoriert habe.
quelle