Haben wir den Punkt erreicht, an dem es beim Megapixel-Rennen mehr um das Rennen geht, mehr als um den anderen, als um die Bildqualität?
Noch vor ein paar Jahren wurde 6MP als die optimale Anzahl von MP angepriesen, die Sie für wirklich gute Bilder benötigen.
Aber in letzter Zeit sind MP, wie die meisten Technologien, sprunghaft über einander gesprungen.
Nikon hat kürzlich die d800 mit einer (meiner Meinung nach) wahnsinnigen 36.3MP veröffentlicht. Aber gut, die d800 ist eine ziemlich hochwertige Kamera, mit der man leicht ein paar Riesen fallen lassen kann. Aber dann haben sie auch gerade d3200 herausgebracht, das darauf abzielte, eine DSLR für Anfänger mit 24,2 MP zu werden. Das ist doppelt so viel wie der d5000, den ich vor zwei Jahren gekauft habe.
Ich weiß, dass mehr MP gut ist. Höhere MP = schärferes Bild. Aber ab wann werden diese Schärfezunahmen bestenfalls vernachlässigbar, und eine Erhöhung der MP-Zahl dient nichts mehr als Prahlereirechten?
Wenn man bedenkt, dass die Leute jahrzehntelang großartige Fotos gemacht haben, dass einige erstaunliche Bilder mit frühen DSLRs mit weniger als 10 MP aufgenommen wurden, wie oft wird 36 MP dann wirklich nützlich sein?
quelle
Antworten:
Megapixel sind notwendig!
Das Megapixel-Rennen ist sicherlich nicht "unnötig". Während des letzten Jahrzehnts wurden konsequent Fortschritte in Bezug auf Megapixel erzielt und gleichzeitig die Bildqualität kontinuierlich verbessert. Die anekdotischen Sprüche ließen Sie denken, dass dies unmöglich war, aber es gibt einige technologische Verbesserungen und Herstellungsverbesserungen, die ein geringeres Rauschen, ein größeres Signal-Rausch-Verhältnis und einen größeren Dynamikbereich trotz verkleinerter Pixelflächen möglich gemacht haben.
Ich denke, das Aufkommen des 36,3-Megapixel-Sony-Exmor-Sensors, der derzeit in der Nikon D800 verwendet wird, ist ein exquisites Beispiel dafür, wie technologische Verbesserungen auf niedrigem Niveau das Rauschen senken und die Dynamik steigern und gleichzeitig die Bildauflösung erheblich steigern können. Insofern ist die D800 meines Erachtens ein hervorragendes Beispiel dafür, warum das Megapixel-Rennen definitiv noch lange nicht vorbei ist.
Ob es sich nur um Prahlerei handelt? Das bezweifle ich. Bessere Werkzeuge können immer effektiv in den Händen eines erfahrenen Handwerkers verwendet werden. Eine höhere Auflösung und ein niedrigerer ISO-Dynamikbereich haben einige spezifische Anwendungsfälle mit hohem Wert. Nämlich Landschaftsfotografie und einige Formen der Studiofotografie. Die D800 befindet sich an einem einzigartigen Ort und bietet eine nahezu mittelgroße Bildqualität in einem Paket, das ungefähr 1/10 der Kosten beträgt. Für einige Studios gibt es keinen Ersatz für die Besten und sie werden digitale Mittelformatkameras im Wert von 40.000 US-Dollar einsetzen, um ihren Kunden die richtige Wahrnehmung zu bieten. Für viele andere Studios und für viele Landschaftsfotografen ist die D800 jedoch ein wahr gewordener Traum: jede Menge Megapixel UND hoher Dynamikumfang.
Nein, das Megapixel-Rennen ist definitiv nicht vorbei, und es ist sicherlich nicht unnötig. Wettbewerb an allen Fronten bringt Fortschritte an allen Fronten, und das ist immer nur gut für den Verbraucher.
Verbesserungspotential
Um ein bisschen tiefer zu gehen als meine Schlussfolgerungen oben, es gibt mehr in der Geschichte als nur die Tatsache, dass Wettbewerb an allen Fronten gut ist. Technologisch, physikalisch und praktisch gibt es Einschränkungen, die die potenziellen Gewinne tatsächlich einschränken, wenn wir die Anzahl der Sensorpixel weiter erhöhen. Sobald wir diese Grenzen erreicht haben, müssen nützliche Gewinne zu angemessenen Kosten an anderer Stelle erzielt werden. Zwei Bereiche, in denen dies auftreten kann, sind Optik und Software.
Technologische Einschränkungen
Technologisch gesehen gibt es eindeutige Grenzen, um wie viel Sie den IQ verbessern können. Die Hauptursache für die Bildverschlechterung bei Sensoren ist das Rauschen, und es gibt eine Vielzahl von elektronisch eingeführten Rauschformen, die gesteuert werden können. Ich denke, dass Sony mit seinen Exmor-Sensoren fast an technologische Grenzen stößt, wenn nicht bereits. Sie haben eine Vielzahl von Patenten genutzt, um Geräuschquellen auf Hardware-Ebene direkt in ihren Sensoren zu reduzieren. Die Hauptquellen für steuerbares Rauschen sind Dunkelstromrauschen , Leserauschen , Musterrauschen , Ungleichmäßigkeitsrauschen , Umwandlungs- (oder Quantisierungs-) Rauschen und thermisches Rauschen .
Sowohl Sony als auch Canon verwenden CDS oder korreliertes Doppelabtasten , um Dunkelstromrauschen zu reduzieren. Sonys Ansatz ist effizienter, aber beide verwenden im Wesentlichen den gleichen Ansatz. Das Leserauschen ist ein Nebenprodukt der Verstärkung aufgrund von Stromschwankungen durch die Schaltung. Es gibt eine Vielzahl von patentierten und experimentellen Ansätzen, um Spannungsschwankungen in einer Schaltung zu erfassen und während der Verstärkung zu korrigieren, um ein "reineres, genaueres" Leseergebnis zu erzielen. Sony verwendet einen eigenen patentierten Ansatz für Exmor-Sensoren, einschließlich des 36,3-Megapixel-Sensors für den D800. Die anderen beiden Arten von elektronischem Vorwandlungsrauschen sind Musterrauschen und Ungleichförmigkeitsrauschen. Dies ist das Ergebnis von Diskontinuitäten im Schaltungsverhalten und der Effizienz.
Das Musterrauschen ist ein fester Aspekt jedes der Transistoren, die zum Aufbau eines einzelnen Sensorpixels verwendet werden, und der elektronischen Gatter, die zum Einleiten des Lesens und Signallöschens verwendet werden. Auf Quantenniveau ist es nahezu unmöglich, jeden einzelnen Transistor exakt identisch zu machen, und dies erzeugt ein festes Muster von horizontalen und vertikalen Linien im Sensorrauschen. Im Allgemeinen trägt das Musterrauschen nur geringfügig zum Gesamtrauschen bei und ist nur in Regionen mit sehr niedrigem SNR oder bei sehr langen Belichtungszeiten wirklich ein Problem. Musterrauschen lässt sich relativ leicht entfernen, wenn Sie das Problem richtig angehen. Ein "dunkler Rahmen" kann konstruiert werden, indem mehrere Abtastwerte zusammengemittelt werden, um eine Musterrauschschablone zu erzeugen, die mit einem Farbrahmen unterschieden werden kann, um Musterrauschen zu entfernen. Dies ist im Wesentlichen, wie Langzeitbelichtung Rauschunterdrückung funktioniert, und es ist auch, wie man Rauschen mit festem Muster von langen Belichtungen manuell entfernen kann. Auf Hardwareebene kann festes Musterrauschen gemindert werden, indem eine Schablone eingebrannt wird, die die Effekte von FPN umkehrt, so dass die Unterschiede ähnlich wie bei CDS zum Lesezeitpunkt addiert / subtrahiert werden können, wodurch die "Reinheit" der Pixellesevorgänge verbessert wird. Heutzutage gibt es verschiedene experimentelle Ansätze zum Einbrennen von FPN-Vorlagen sowie abstraktere Ansätze.
Rauschen, das oft als PRNU oder Pixel Response Non Uniformity bezeichnet wird, ist das Ergebnis geringfügiger Schwankungen der Quanteneffizienz (QE) jedes Pixels. QE bezieht sich auf die Fähigkeit von Pixeln, Photonen einzufangen, und wird normalerweise als Prozentsatz bewertet. Die Canon 5D III hat beispielsweise eine QE von 47%, was darauf hinweist, dass sie effizient genug ist, um regelmäßig 47% der Photonen zu erfassen, die jedes Pixel erreichen. Die tatsächliche QE pro Pixel kann um +/- ein paar Prozent variieren, was eine weitere Rauschquelle erzeugt, da möglicherweise nicht jedes Pixel die gleiche Anzahl von Photonen wie seine Nachbarn einfängt, obwohl es die gleiche Menge an einfallendem Licht empfängt. PRNU ändert sich ebenfalls mit der Empfindlichkeit, und diese Art von Rauschen kann sich mit zunehmender ISO verschlimmern. PRNU kann durch Normalisieren der Quanteneffizienz jedes Pixels gemildert werden. Minimierung von Abweichungen zwischen Nachbarn und über die gesamte Sensorfläche. Eine Verbesserung der QE kann erreicht werden, indem die Lücke zwischen Fotodioden in jedem Pixel verringert wird, eine oder mehrere Mikrolinsenschichten über jedem Pixel eingeführt werden, um nicht auf die Fotodiode einfallendes Licht auf die Fotodiode zu brechen oder alle Leseverdrahtungen und Transistoren hinter der Fotodiode, wodurch die Möglichkeit ausgeschlossen wird, dass sie einfallende Fotonen blockieren und entweder reflektieren oder in Wärmeenergie umwandeln.)
Wärmegeräusche sind Geräusche, die durch Wärme entstehen. Wärme ist im Wesentlichen nur eine andere Energieform und kann die Erzeugung von Elektronen in einer Photodiode ähnlich wie eine Photonendose anregen. Thermisches Rauschen wird direkt durch Wärmeeinwirkung verursacht, häufig über heiße elektronische Komponenten wie einen Bildprozessor oder einen ADC. Dies kann durch eine thermische Trennung solcher Komponenten vom Sensor oder durch eine aktive Kühlung des Sensors verringert werden.
Schließlich gibt es Umwandlungsrauschen oder Quantisierungsrauschen. Diese Art von Rauschen wird aufgrund von inhärenten Ungenauigkeiten während des ADC oder der Analog-Digital-Wandlung erzeugt. Eine nichtintegrale Verstärkung (eine Dezimalverstärkung mit ganzem und gebrochenem Teil) wird normalerweise auf das vom Sensor gelesene analoge Bildsignal angewendet, wenn ein Bild digitalisiert wird. Da ein analoges Signal und eine Verstärkung reelle Zahlen sind, ist das digitale (integrale) Ergebnis der Umwandlung oft inkonsistent. Eine Verstärkung von 1 würde eine ADU für jedes von einem Pixel erfasste Elektron erzeugen. Eine realistischere Verstärkung könnte jedoch 1,46 sein. In diesem Fall erhalten Sie in einigen Fällen 1 ADU pro Elektron und in anderen Fällen 2 ADU pro Elektron. Diese Inkonsistenz kann Umwandlungs- / Quantisierungsrauschen in den digitalen Ausgang nach dem ADC einführen. Dieser Beitrag zum Lärm ist ziemlich gering, und erzeugt eine ziemlich feine Abweichung des Rauschens von Pixel zu Pixel. Mit der Software-Rauschunterdrückung ist es oft recht einfach, sie zu entfernen.
Das Entfernen elektronischer Rauschformen kann den Schwarzpunkt und die Schwarzreinheit eines Bildes verbessern. Je mehr Formen von elektronischem Rauschen Sie beseitigen oder abschwächen können, desto besser ist Ihr Signal-Rausch-Verhältnis, selbst bei sehr niedrigen Signalpegeln. Dies ist die Hauptfront, auf der Sony mit seinen Exmor-Sensoren erhebliche Fortschritte erzielt hat. Dies eröffnet die Möglichkeit eines echten 14-Stufen-Dynamikbereichs mit einer wirklich beeindruckenden Schattenwiederherstellung. Dies ist auch der Hauptbereich, in dem viele konkurrierende Sensorherstellungstechnologien hinterherhinken, insbesondere Canon- und Mittelformatsensoren. Insbesondere Canon-Sensoren weisen sehr hohe Lesegeräuschpegel, niedrigere QE-Normalisierungspegel und insgesamt niedrigere QE auf und verwenden CDS nur, um Dunkelstromrauschen in ihren Sensoren zu mindern. Dies führt zu einem viel geringeren Gesamtdynamikbereich.
Sobald alle Formen des elektronischen Rauschens auf ein Niveau reduziert sind, bei dem sie keine Rolle mehr spielen, können die Hersteller kaum noch etwas tun, um die Sensoren selbst zu verbessern. Sobald dieser Punkt erreicht ist, ist das einzige, was für die Quanteneffizienz pro Pixel wirklich von Bedeutung ist, die Pixelfläche. Mit nahezu perfekten elektronischen Eigenschaften könnten wir wahrscheinlich Pixelgrößen aushalten, die erheblich kleiner sind als die der DSLR-Sensoren mit der höchsten Dichte heute (das wäre die Nikon D800 mit ihren 4,6-Mikrometer-Pixeln, die Canon 7D mit ihren 4,3-Mikrometer-Pixeln und schließlich die Nikon D3200 mit 3,8-Mikrometer-Pixeln). Handysensoren verwenden Pixel um die 1-Mikrometer-Größe und haben gezeigt, dass z Pixel sind lebensfähig und können einen ziemlich anständigen IQ erzeugen. Dieselbe Technologie in einer DSLR könnte bei maximaler Rauschunterdrückung noch weiter gehen.
Körperliche Einschränkungen
Abgesehen von technologischen Einschränkungen bei der Perfektionierung der Bildqualität gibt es einige physikalische Einschränkungen. Die beiden Hauptbeschränkungen sind Photonenrauschen und räumliche Auflösung . Dies sind Aspekte der physischen Realität und Dinge, über die wir nicht viel Kontrolle haben. Sie können durch technologische Verbesserungen nicht gemildert werden und sind (und waren) unabhängig von der Qualität unserer Ausrüstung vorhanden.
Photonenrauschen oder Photon SchussLärm ist eine Form von Lärm aufgrund der inhärent unvorhersehbaren Natur des Lichts. Auf einer Quantenebene können wir nicht genau vorhersagen, auf welches Pixel ein Photon trifft oder wie oft Photonen auf ein Pixel und nicht auf ein anderes treffen. Wir können Photonenschläge grob an eine Wahrscheinlichkeitskurve anpassen, aber wir können die Anpassung niemals perfekt machen, sodass sich Photonen von einer gleichmäßigen Lichtquelle niemals perfekt und gleichmäßig über die Fläche eines Sensors verteilen. Dieser physikalische Aspekt der Realität erzeugt den größten Teil des Rauschens, dem wir auf unseren Fotos begegnen. Die Verstärkung dieser Art von Rauschen durch die Verstärker des Sensors ist der Hauptgrund dafür, dass Fotos bei höheren ISO-Einstellungen verrauscht werden. Niedrigere Signal-Rausch-Verhältnisse bedeuten, dass weniger Gesamtsignalbereich zum Einfangen und Verstärken von Photonen zur Verfügung steht. Daher kann ein höheres SNR dazu beitragen, die Auswirkungen von Photonenrauschen zu mildern und höhere ISO-Einstellungen zu erzielen. Das Photonenrauschen selbst kann jedoch nicht beseitigt werden und ist immer eine Einschränkung für den IQ der Digitalkamera. Software kann eine Rolle bei der Minimierung des Rauschens bei der Aufnahme von Photonen spielen. Da das Licht vorhersehbar ist, können fortschrittliche mathematische Algorithmen den größten Teil dieses Rauschens beseitigen, nachdem ein Foto aufgenommen und in einem RAW-Format importiert wurde. Die einzige wirkliche Einschränkung hierbei wäre die Qualität, Genauigkeit und Präzision der Rauschunterdrückungssoftware. Fortgeschrittene mathematische Algorithmen können den größten Teil dieses Rauschens beseitigen, nachdem ein Foto aufgenommen und in einem RAW-Format importiert wurde. Die einzige wirkliche Einschränkung hierbei wäre die Qualität, Genauigkeit und Präzision der Rauschunterdrückungssoftware. Fortgeschrittene mathematische Algorithmen können den größten Teil dieses Rauschens beseitigen, nachdem ein Foto aufgenommen und in einem RAW-Format importiert wurde. Die einzige wirkliche Einschränkung hierbei wäre die Qualität, Genauigkeit und Präzision der Rauschunterdrückungssoftware.
Die räumliche Auflösung ist ein weiterer physikalischer Aspekt von zweidimensionalen Bildern, mit denen wir arbeiten müssen. Raumfrequenzen oder zweidimensionale Wellenformen mit unterschiedlicher Helligkeit sind eine Möglichkeit, das von einer Linse projizierte und von einem Sensor aufgezeichnete Bild zu konzipieren. Die räumliche Auflösung beschreibt den Maßstab dieser Frequenzen und ist ein festes Attribut eines optischen Systems. Bei Sensoren ist die räumliche Auflösung eine direkte Folge der Sensorgröße und der Pixeldichte.
Die räumliche Auflösung wird häufig in Linienpaaren pro Millimeter (lp / mm) oder Zyklen pro Millimeter gemessen. Der D800 mit 4,3-Mikrometer-Pixeln oder 4912 Pixelreihen in 24 mm Sensorhöhe erreicht 102,33 lp / mm. Interessanterweise bietet die Canon 7D mit 3456 Pixelreihen und einer Sensorhöhe von 14,9 mm eine Auflösung von 115,97 lp / mm ... mehr als die D800. Ebenso kann die Nikon D3200 mit 4000 Pixelreihen in 15,4 mm Sensorhöhe 129,87 lp / mm erreichen. Sowohl der 7D als auch der D3200 sind APS-C- oder Cropped-Frame-Sensoren, die in ihren Abmessungen kleiner sind als der Full-Frame-Sensor des D800. Wenn wir die Anzahl der Megapixel in einem Vollbildsensor so lange erhöhen würden, bis sie die gleiche Pixelgröße wie der D3200 (3,8 Mikrometer) hätten, könnten wir einen 9351x6234-Pixelsensor oder 58,3 MP produzieren. Wir könnten diesen Gedanken bis zum Äußersten nehmen, und nehmen an, dass es möglich ist, einen DSLR-Vollbildsensor mit der gleichen Pixelgröße wie der Sensor im iPhone 4 zu produzieren (der bekanntermaßen einige sehr gute Fotos mit IQ macht, die zwar nicht so gut wie von einer DSLR sind, ist mehr als akzeptabel), was 1,75 Mikrometer ist. Das würde zu einem 20571x13714 Pixel Sensor oder 282.1mp führen! Ein solcher Sensor könnte eine räumliche Auflösung von 285,7 lp / mm erreichen, eine Zahl, die, wie Sie gleich sehen werden, nur begrenzt anwendbar ist.
Die eigentliche Frage ist, ob eine solche Auflösung in einem DSLR-Formfaktor von Vorteil wäre. Die Antwort darauf ist möglicherweise. Die räumliche Auflösung eines Sensors ist eine Obergrenze dessen, was mit der gesamten Kamera möglich ist, vorausgesetzt, Sie haben ein entsprechendes Objektiv, das eine ausreichende Auflösung bietet, um das Potenzial des Sensors zu maximieren. Objektive haben ihre eigenen physikalischen Einschränkungen in Bezug auf die räumliche Auflösung der Bilder, die sie projizieren, und diese Einschränkungen sind nicht konstant. Sie variieren je nach Blende, Glasqualität und Aberrationskorrektur. Die Beugung ist ein weiteres physikalisches Merkmal des Lichts, das die maximale potentielle Auflösung verringert, wenn es durch eine immer schmaler werdende Öffnung tritt (im Falle einer Linse ist diese Öffnung die Apertur). sind ein weiterer physikalischer Aspekt, der die maximale mögliche Auflösung verringert. Im Gegensatz zur Beugung optische Aberrationen nehmen zu, wenn die Apertur erweitert wird. Die meisten Linsen haben einen "Sweet Spot", an dem die Auswirkungen von optischen Aberrationen und Beugung in etwa gleich sind und die Linse ihr maximales Potenzial erreicht. Eine "perfekte" Linse ist eine Linse, die keinerlei optische Aberrationen aufweist und daher istBeugung begrenzt . Linsen werden häufig um ungefähr 1: 4 beugungsbegrenzt.
Die räumliche Auflösung einer Linse wird durch Beugung und Aberrationen begrenzt, und wenn die Beugung zunimmt, wenn die Apertur verringert wird, nimmt die räumliche Auflösung mit der Größe der Eintrittspupille ab. Bei 1: 4 beträgt die maximale räumliche Auflösung eines perfekten Objektivs 173 lp / mm. Bei 1: 8 erreicht ein beugungsbegrenztes Objektiv 83 lp / mm, was in etwa dem Wert der meisten DSLRs mit Vollformat entspricht (mit Ausnahme der D800), die zwischen 70 und 85 lp / mm liegen. Bei 1: 16 erreicht ein beugungsbegrenztes Objektiv lediglich 43 lp / mm, die Hälfte der Auflösung der meisten Vollbildkameras und weniger als die Hälfte der Auflösung der meisten APS-C-Kameras. Breiter als 1: 4, bei einem Objektiv, das immer noch von optischen Aberrationen betroffen ist, kann die Auflösung schnell auf 60 lp / mm oder weniger und bei ultraschnellen Weitwinkel-1: 1,8- oder schnelleren Primzahlen auf 25-30 lp / mm abfallen . Zurück zu unserer theoretischen 1. 75 Mikron Pixel 282mp FF Sensor ... es wäre in der Lage 285 lp / mm räumliche Auflösung. Sie benötigen ein perfektes, beugungsbegrenztes 1: 2,4-Objektiv, um diese räumliche Auflösung zu erzielen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. Die räumliche Auflösung beträgt 285 lp / mm. Sie benötigen ein perfektes, beugungsbegrenztes 1: 2,4-Objektiv, um diese räumliche Auflösung zu erzielen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. Die räumliche Auflösung beträgt 285 lp / mm. Sie benötigen ein perfektes, beugungsbegrenztes 1: 2,4-Objektiv, um diese räumliche Auflösung zu erzielen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. 4 Linse, um so viel räumliche Auflösung zu erreichen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. 4 Linse, um so viel räumliche Auflösung zu erreichen. Eine solche Linse würde eine extreme Aberrationskorrektur erfordern, was die Kosten stark erhöht. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt. Es gibt einige Objektive, die bei noch größeren Blendenöffnungen nahezu perfekte Eigenschaften erzielen können (man denke an ein Spezialobjektiv von Zeiss, das angeblich etwa 400 lp / mm aufnehmen kann, was eine Blende von etwa 1: 1,6 bis 1: 1,5 erfordern würde). Sie sind jedoch selten, hochspezialisiert und extrem teuer. Es ist viel einfacher, eine Perfektion um 1: 4 zu erzielen (wenn die letzten Jahrzehnte der Objektivproduktion Hinweise geben), was darauf hinweist, dass die maximal realisierbare, kostengünstige Auflösung für ein Objektiv bei 173 lp / mm oder einer Berührung weniger liegt.
Wenn wir physikalische Einschränkungen in die Gleichung einbeziehen, wann das Megapixel-Rennen vorbei sein wird, stellen wir fest, dass (bei annähernd technologischer Perfektion) die höchste kostengünstige Auflösung etwa 173 lp / mm beträgt. Das ist ungefähr ein 103-MP-Vollbild- oder 40-MP-APS-C-Sensor. Es ist zu beachten, dass bei einer so hohen Sensorauflösung die Vorteile nur bei einem immer schmaleren Blendenbereich von etwa 1: 4 sichtbar werden, wenn die Leistung des Objektivs optimal ist. Wenn die Korrektur optischer Aberrationen einfacher wird, können wir möglicherweise höhere Auflösungen erzielen, indem wir auf 200 lp / mm drücken. Solche Auflösungen sind jedoch nur bei oder nahe der maximalen Apertur möglich, während bei allen anderen Aperturen die Gesamtauflösung Ihrer Apertur erreicht wird Die Kamera ist niedriger, möglicherweise viel niedriger als der Sensor selbst.
Wann endet das Megapixel-Rennen?
Die Beantwortung dieser Frage ist meines Erachtens nicht wirklich qualifiziert. Letztendlich ist es eine persönliche Entscheidung, die von einer Vielzahl von Faktoren abhängt. Einige Fotografen möchten möglicherweise immer das Potenzial, das Sensoren mit höherer Auflösung bei idealer Blende bieten können, solange sie Szenen mit immer feineren Details fotografieren, die eine solche Auflösung erfordern. Andere Fotografen bevorzugen möglicherweise die verbesserte Wahrnehmung der Schärfe, die durch die Verbesserung der Eigenschaften von Sensoren mit niedrigerer Auflösung erzielt wird. Für viele Fotografen ist das Megapixel-Rennen meiner Meinung nach bereits zu Ende, mit rund 20 Megapixeln in einer FF-DSLR-Packung ist das mehr als genug. Darüber hinaus sehen viele Fotografen die Bildqualität in einem völlig anderen Licht. Sie bevorzugen die Bildrate und die Fähigkeit, mehr Bilder kontinuierlich mit einer niedrigeren Auflösung aufzunehmen, um als Fotograf erfolgreich zu sein. In solchen Fällen wurde von vielen Nikon-Fans darauf hingewiesen, dass etwa 12 MP mehr als ausreichend sind, wenn sie 10 Bilder pro Sekunde in scharfer Klarheit aufnehmen können.
Technisch und physikalisch gibt es immer noch enormen Spielraum, um zu wachsen und weiter an Megapixeln und Auflösung zu gewinnen. Wo das Rennen endet, liegt bei Ihnen. Die Vielfalt der verfügbaren Optionen war noch nie so groß wie heute und Sie können die Kombination aus Auflösung, Sensorgröße und Kamerafunktionen wie AF, ISO und DR wählen, die Ihren Anforderungen entspricht.
quelle
Abgesehen von Speicher- und Geschwindigkeitsproblemen wird mit mehr Megapixeln absolut jedes einzelne Bild, das Sie aufnehmen, besser. In manchen Fällen vielleicht nur ein bisschen besser, aber das klingt nach etwas, das es wert ist, von mir gesehen zu werden.
Wenn Sie jemals ein Bild von Moire (Farbstreifenmuster) haben:
Labyrinth-Artefakte:
(Quelle: gol.com )
Aliasing:
http://cdn.asia.cnet.com/i/r/2005/dc/39095631/4.jpg
Farbsäume, falsche Details, fehlende Farbdetails oder andere Demosaikierungsartefakte - mit mehr Megapixeln wären Ihre Probleme gelöst.
Irgendwann sehe ich DSLR-Sensoren mit 80-100 MP. An diesem Punkt möchten Sie nicht jedes Mal jedes Pixel speichern, sondern einen RAW-Modus mit reduzierter Auflösung, wie Canon mRAW, der Ihnen ein Bild mit außergewöhnlichen Farbdetails liefert, die denen ähneln ist mit Foveon-Sensoren aber mit einer viel höheren Auflösung erreichbar.
quelle
Ich bin nicht absolut anderer Meinung als das, was andere gesagt haben, aber die Antwort hängt zum Teil davon ab, was Sie am meisten schätzen. Ich interessiere mich am meisten für eine hohe ISO-Rauscharmut, wobei die Pixelauflösung wichtig, aber zweitrangig ist. Andere haben sehr unterschiedliche Prioritäten. Ich habe eine APSC-Kamera mit 24 MP A77, die in etwa die Spitzenposition bei der Leistung von APSC-MP einnimmt, aber in den Bereichen, die mir am wichtigsten sind, deutlich hinter einigen APSC-Kameras zurückliegt.
Nachdem ich mir die Ergebnisse der D700, D3, D3s, D3x, 5DMkII, 5DMkIII, A800 und D4 angesehen habe, bin ich zu dem Schluss gekommen, dass das Megapixel-Rennen der hohen ISO-Leistung derzeit voraus ist und dass es für meine Zwecke die "beste Leistung" ist. Kamera ist die im Oktober 2009 erschienene Nikon D3s. Nach Zahlen stimmt nichts anderes damit überein, und nach meinem Verständnis funktioniert Leistung in der realen Welt tatsächlich, sonst kommt nichts in die Nähe.
Die folgende Art von Material neigt dazu, Flammenkriege zu erzeugen. Ich versuche nur zu beschreiben, was ich sehe. Die Augen anderer Leute funktionieren möglicherweise anders :-).
Ich persönlich bin vom D800 enttäuscht und der Sensor hat 36 mp. Ich hatte auf etwas gehofft, das einen klaren Kopf und Schultern über dem D700 hatte und das die D3s sanft aus dem Sitz bringen könnte.
Der DXOMark-Sensor bewertet die ISO-Bewertung bei schlechten Lichtverhältnissen
Dies ist keineswegs der ultimative Leitfaden für die Leistung einer Kamera in solchen Situationen unter realen Bedingungen, sondern ein guter Leitfaden für das, was vernünftigerweise erwartet werden kann. Die Bewertung gibt eine ISO-Einstellung an, bei der die Kamera nur drei Mindestanforderungen erfüllt.
Der 4 Jahre alte D700 verfügt über einen DxO-Sensor mit einem niedrigen ISO-Wert von 2303 ISO und der D800 mit einem ISO-Wert von 2853. Der neue D4 ist mit 2965 ISO bewertet und der einstige König dieser Maßnahme ist der (legendär werdende) D3 mit 3253 ISO. ABERDiese Bewertungen werden auf eine Standardbildgröße von 12 MP angepasst, wobei die ISO-Bewertung beim Test mit einem Faktor von Quadratwurzel (Megapixel / 12 Megapixel) skaliert wird. Um das zu bekommen, was sie beim Testen gesehen haben, skalieren Sie das Bild nach unten (12 / mp). Der D800 mit 36 mp ist also um einen Faktor 0f sqrt (36/12) = sqrt (3) = 1.732 höher als tatsächlich gemessen. Sie maßen es also mit 2853 / 1,73 = ~ 1650 ISO. Die Begründung für die Skalierung lautet, dass das "Rauschen" in einem Bild durch Heruntersuchen aufgrund der Mittelung von Informationen in benachbarten Zellen mathematisch reduziert wird. Theoretisch ist eine Skalierung um einen mit sqrt (Megapixel) verbundenen Faktor sinnvoll. Aber beim Betrachten von Bildern bin ich nicht überzeugt. Sie sagen, dass eine Kamera mit einem größeren Verhältnis von absolutem Rauschen zu Signal pro Pixel, aber mehr MP, ein verbessertes Ergebnis beim Verkleinern erzeugt. Mathe sagt ja. Das Augenhirnsystem sagt, dass der Effekt weitaus geringer ist, als die Skalierung vermuten lässt. Ich könnte wahrscheinlich die konkreten Beispiele herausarbeiten, die ich vor einiger Zeit gezogen habe, aber das ist subjektiv und es gibt genügend Vergleiche, damit jeder seine Lieblingsversion finden kann.
Die EOS 5D MkII (NOT III) hat eine DXO-ISO-Bewertung von 1815 gegenüber ISO 2303 für die D700. Der Vergleich von Bildern mit identischen Szenen, die bei identischen Lichtverhältnissen mit äquivalenten Objektiven bei hohen ISO-Einstellungen aufgenommen und auf die gleiche Bildgröße konvertiert wurden, zeigt jedoch einen äußerst signifikanten Unterschied zwischen beiden. So toll, dass ich allein schon aus diesem Grund keinen 5DkII in Betracht ziehen würde.
Ich habe noch nicht genug von der D800-Ausgabe gesehen, um den Schlussfolgerungen zu folgen, aber was ich gesehen habe, zeigt, dass eine gebrauchte D700 wahrscheinlich eine sehr attraktive und möglicherweise überlegene Wahl ist, wenn Schwachlicht und hohe ISO-Leistung Ihre Priorität sind . Und ein D3 ist wieder besser.
Ein großartiger Artikel, den man unbedingt lesen muss . Ergänzt JRistas exzellente Rply.
Rauschen, Dynamikumfang und Bittiefe in digitalen Spiegelreflexkameras
Bezieht sich auch auf:
IRIS - freie Bildverarbeitungssoftware mit astronomischer Ausrichtung auf Fotografie - aber nützlich für vieles andere.
Kostenlose Bildbearbeitungssoftware IMAGEJ von US NIH
quelle
Früher dachte ich, dass MPs überbewertet sind, bis ich ein Experiment mit Überabtastung durchführte. Inspiriert von der Faustregel der Audioabtastung, das Doppelte der benötigten Frequenz abzutasten. 22K-Wellen werden mit 44K abgetastet, aber wenn Sie die Zahlen zeichnen, erhalten Sie nur die Welle, wenn sie sich in der perfekten Phase befindet. Sie können auch riskieren, nur Nullen abzutasten. Du brauchst mindestens 4x Oversampling, um die Welle und ihre Form zu erhalten (es kann ein Sägezahn oder ein Sinus sein, du kannst es nicht mit 2x der Samplerate wissen). Professionelle Audiogeräte probieren intern 192kHz und dann auf 48k oder 44k herunter.
Ich habe festgestellt, dass das Gleiche gilt für Fotos. Wenn Sie ein Bild mit einer Auflösung von 1024 x 768 erzielen möchten, ist die beste Frequenz, die Sie erzielen können, wenn jeder zweite Pixel dunkel und jeder zweite Pixel hell ist (nennen wir es eine Textur). Wenn Sie das Bild mit einer Auflösung von 1024 x 768 aufnehmen, übersehen Sie möglicherweise die Phase dieser Textur oder sie wird einfach unscharf, da die "wahre Systemauflösung" zu niedrig ist, oder eine Demosaikierung durch eine höhere Auflösung führt zu einer deutlichen Verschlechterung. Sie müssen also mindestens ein Bild mit einer Auflösung von 4096 x 3072 aufnehmen, ohne die Bayer-Demosiacking-Funktion zu berücksichtigen. 8192 x 6144.
Das Downsampling sollte besser sein als bilinear oder bikubisch, um den Vorteil zu erzielen. Ein sinc-basierter Filter ist am besten geeignet, z. B. Lanzcos.
1: 1 gegen überabgetastet und dann mit Lanczos abgetastet:
quelle
Früher dachte ich, das Megapixel-Rennen sei irgendwie albern, bis mir klar wurde, dass High-End-Kameras mit 36 Megapixeln die Low-End-Ausrüstung (aber die einwandfreie Verwendbarkeit) viel erschwinglicher machen. Wenn jemand eine Kamera kaufen muss, die Drucke in Plakatgröße produzieren kann, großartig! In der Zwischenzeit können wir alle (für unsere bescheidenen Bedürfnisse) großartige Bilder auf unseren iPhones und Prosumer Nikons aufnehmen.
quelle
Ich gebe Ihnen eine kurze und nützliche Antwort (hoffe ich)
Viele der vor mir gegebenen Antworten haben großartige Informationen, also entlassen Sie sie nicht
Aber um die Frage zu beantworten: Wie oft wird 36MP nützlich sein? Hängt von Ihrer Situation ab. Amateur, der nie druckt und nur digital anzeigt. Noch nie.
Amateur, der manchmal druckt. Gelegentlich, wenn gelegentlich größer als A4 gedruckt wird
Pro, für verschiedene Zwecke. Ziemlich oft
Für Leute, die niemals drucken oder nicht größer als ein Poster werden, werden Sie nie mehr als 10-12 nützlich sein, und es hat auch Nachteile. ZB beim Aufnehmen von RAW (Sie machen alle RAW, nicht wahr?) ) Bildgrößen auf dem 21MP 5DmkII sind ungefähr 24Mb, ich habe erfahren, dass die Bildgrößen auf dem D800 ungefähr 30Mb sind. Das kann Karten sehr schnell füllen. Wenn Sie also eine gute 10-12 MP-Kamera haben und nicht größer drucken als Wenn Sie ein Poster haben, verdreifachen Sie die Anzahl der Bilder auf einer Karte und können den Unterschied nicht erkennen, als wenn Sie viel mehr für die D800 ausgegeben hätten
ich hoffe das hilft
quelle
Ich habe gerade meinen D800E bekommen, zu dem ich von einem D200 umgezogen bin. Ich habe 100 lppm mit diesem Ding mit Autofokus mit einem Sigma 24 1,8 bei f4 gemessen. Ich habe noch nichts gedruckt, da ich es nur 2 Tage hatte. Ich war in der Lage, Moire damit zu erregen, indem ich ein Testziel schoss, aber es war nur auf dem Monitor sichtbar, CaptureNX2 eliminierte es mit einer niedrigen Demosiac-Einstellung. Ich habe einen 55-Mikro-Nikkor, der schärfer aussieht, aber aufgrund des Sensors nicht besser als 100 sein kann. Der große Vorteil ist natürlich, dass 100 lppm über einen FF-Sensor verteilt sind und das ist viel Real Image Real Estate. Endlich kann ich fotografieren, ohne mich so eng an den Rahmen halten zu müssen. Ich kann sogar 645 oder ein Quadrat aufnehmen - es ist eine große Freiheit für meinen Stil, wenn ich für das Motiv einen Rahmen anfertige. oder zumindest hoffe ich das
quelle
Seit Jahrzehnten macht niemand mehr großartige digitale Bilder. Um die Jahrhundertwende hielten viele Menschen den Film für weit überlegen. In diesen Tagen wurde dieses Argument beigelegt.
Es ist nicht wahr, dass mehr Pixel ein schärferes Bild bedeuten. Es gibt Grenzen aufgrund der Beugung der Linse, die eine Grenze darstellen. Wenn Sie einen größeren Sensor verwenden, können Sie dieses Problem für den praktischen Sensor natürlich vermeiden. Aus diesem Grund bewegen sich viele Profis jetzt über 35 mm (Vollbild) und auf 6x4,5-Bilder.
Oft handelt es sich bei der Megapixel-Zahl nur um Marketing-Flaum, um Leute anzusaugen, die es nicht besser wissen. Aber manchmal ist mehr besser.
Es ist ein komplexeres Thema, als die Vorurteile Ihrer Frage vermuten lassen.
quelle