Reichen 2 Megapixel für Bilder mit HD-Auflösung aus?

12

HD-Bilder haben 1920 x 1080 = 2073600 Pixel = 2025 Kilopixel = 1,98 Megapixel.

Bedeutet dies, dass wir mit einer 2-MP-Kamera HD-Bilder aufnehmen können? Wenn nein, warum nicht?

user2080105
quelle
2
Nicht um pedantisch zu sein, aber ich denke, die akzeptierte Definition von Megapixel ist 1 Million Pixel, nicht 1.048.576. HD hätte also 2,07 MP
MikeW
10
Ich denke, dass es aufgrund der Rundung im Allgemeinen keine Rolle spielt, ob "Megapixel" binär oder dezimal sind. Megapixel ist ein nützlicher Begriff, weil es zufällig in dem Bereich liegt, in dem wir mit den Digitalkameras (bisher) für Menschen nützliche kleine Zahlen erhalten. Es wird selten verwendet, um einen genauen Wert zu bezeichnen - eine 16-Megapixel-Kamera erzeugt wahrscheinlich Fotos mit einer etwas anderen Größe als eine von einer anderen Marke. Aus dem gleichen Grund ist "Kilopixel" kein richtiges Wort, da es keinen speziellen Fall gibt, in dem es nützlich wäre.
Bitte Profil lesen
2
Grundsätzlich ja. In der Praxis verwenden die meisten Menschen den Begriff HD nicht für Fotografie, es sei denn, sie verwenden ihn für Marketingzwecke, da Unternehmen heutzutage bestrebt zu sein scheinen, den Begriff HD für alles zu verwenden. Wenn Sie Bilder auf einem 1080p-Fernseher anzeigen, sieht 2MP großartig aus.
Dpollitt
Meiner Meinung nach ist eine hohe Auflösung fast immer gut, da Sie unnötige Teile, die Sie nicht benötigen, herausschneiden und die guten Teile des Fotos extrahieren können. Wenn Sie an der Auflösung sparen müssen, ist es schwieriger, großzügig Fotos zu machen.
Mtahmed

Antworten:

17

Wenn die Auflösung der langen Achse mindestens 1920 und die kurze Kante mindestens 1080 beträgt, können Sie HD-Bilder aufnehmen, ohne sie hochskalieren zu müssen.

Aufgrund der Vorteile der Überabtastung erzielen Sie jedoch ein besseres HD-Bild, indem Sie ein 16-Megapixel-Bild aufnehmen und dann die Größe mit der besten verfügbaren Größenänderungsmethode ändern, z. B. Lanczos-Interpolation, falls verfügbar.

Ein weiteres Problem, auf das Sie stoßen können, ist, dass eine 2-Megapixel-Kamera nicht für hochwertige Bildqualität entwickelt wurde (* es sei denn, Sie sprechen von einer Canon EOS D2000 aus dem Jahr 1998, die sowieso das falsche Seitenverhältnis aufweist) Nur der Sensor, aber auch der Rest des Bildgebungssystems - Low-End-Optik, ADC, Verarbeitung usw. ergeben eine niedrigere Gesamtauflösung des Systems und einen niedrigeren IQ.

Michael Nielsen
quelle
3
Ich würde wetten, dass 90% der fotografierenden Bevölkerung, die von dieser Frage profitieren könnten, nicht wissen, was "Lanczos-Interpolation" ist. ; PI würde den Ausdruck "einige grundlegende Verkleinerungen in Photoshop" verwenden, der mehr als gut genug ist, um Pixel zu mitteln, Rauschen zu reduzieren und die Schärfe eines 1920 x 1080-Ausgabebildes zu verbessern.
jrista
Erinnern Sie sich an meine Überabtastungstests bei einer anderen Frage, bei der ich zeigte, dass die feine Textur in der verkleinerten Version erhalten bleibt, während die Aufnahme direkt mit dieser Auflösung die Textur nicht erfasst hat? Ich stellte fest, dass das Endergebnis von der Verwendung der besten verfügbaren Größenänderungsmethode abhing. Ich denke, ich kann das schreiben :)
Michael Nielsen
1
@jrista Ich weiß nicht, wie die Situation in den USA ist, aber hier in Europa sind Lanczos und andere kernelbasierte Filter Teil des Vorschulcurriculums;)
Matt Grum
1
@jrista Warum nicht mehr Informationen geben? Ich weiß nicht, was es ist, aber weil Michael es erwähnt hat, kann ich nach Interpolationsmethoden suchen, um mehr herauszufinden.
Myridium
13

Nein, wegen des Bayer-Filters. Sie würden tatsächlich rund 11 Megapixel benötigen.

Was für ein Bayer-Filter ist

Farbkamerasensoren verwenden Bayer-Filter, um die verschiedenen Farben zu erfassen. Der Bayer-Filter halbiert effektiv die Auflösung des Sensors für jede Farbe (obwohl in einem Schachbrettmuster etwas mehr Grün übrig bleibt).

Jedes Pixel auf dem Sensor kann nur capture entweder rot, grün oder blau Licht, aber nicht alle drei Farben. Ein Softwarealgorithmus muss die Daten später interpolieren, um das Foto in voller Auflösung in voller Farbe zu rekonstruieren.

Demosaikierung

Dieser Interpolationsprozess ( Demosaicing genannt ) stellt einen Großteil der effektiv verlorenen Auflösung visuell wieder her und lässt sie wieder ziemlich scharf aussehen. Dies kann jedoch nur durch recht intelligente Vermutungen geschehen. Dies ist nicht das Gleiche, als ob Sie das Bild zunächst in voller Auflösung hätten aufnehmen können.

Während das Demosaikieren ziemlich gut ist, um die verlorene Schärfe des Bayer-Filters zurückzugewinnen, leiden feine Details wie Haare, kammartige Muster oder feine Streifen wahrscheinlich unter Aliasing , das sich in bunten Interferenzmustern äußern kann:

( Quelle )

(Diese Bilder zeigen zur Veranschaulichung sehr schlechte Demosaikierungsalgorithmen. Moderne Kameras - sogar Mobiltelefone - verwenden viel intelligentere.)

Moderne Demosaikierungsalgorithmen sind ziemlich intelligent und können den Effekt des Aliasing minimieren, können jedoch die feinen Details nicht beibehalten. Ein entfernter Lattenzaun, der mit einem 1920 x 1080-Farbsensor aufgenommen wurde, behält eine weniger effektive Auflösung bei als ein RGB-1920 x 1080-Bild, das computergeneriert oder von einem größeren Sensor verkleinert oder mit einem Scanner gescannt wurde.

Wie sich dies auf die Auflösung auswirkt

(und wie ich auf die Zahl "11 Megapixel" gekommen bin)

Die effektive Auflösung des resultierenden Bildes nach dem Auflösen der Mosaikstruktur nicht sehen , wie es ist , die halbe Auflösung durch den Sensor , dadurch gekennzeichnet, da der von Smart demosaicing Routinen vorgenommen Gewinne, und die Tatsache , dass der grüne Kanal, der mit einer Leuchtdichte korreliert gut, hat mehr Auflösung als die anderen Farben.

Es müsste jedoch immer noch um 50% verkleinert werden, um Verluste aufgrund von Interpolation zu vermeiden. Wenn Sie wirklich sicherstellen möchten, dass Ihr Bild "die volle Auflösung" aufweist, ohne dass durch Interpolation Detailverluste auftreten, benötigen Sie einen Farbsensor mit der doppelten gewünschten Auflösung, sowohl in horizontaler als auch in vertikaler Richtung, und führen Sie dann eine erneute Abtastung durch das resultierende Bild zu 50%.

Um die volle effektive Auflösung von 1920 x 1080 zu erfassen, müsste ein Farbkamerasensor (mit einem Bayer-Filter, der 99% der Farbkamerasensoren enthält) die doppelte Auflösung von 3840 x 2160 haben. Das sind über 8,2 Megapixel. Aufgrund des Beschneidens des Sensors (wiederum aufgrund der Demosaikierungsmethode der Kamera) würden Sie effektiv etwa 8,8 Megapixel benötigen, um sicherzugehen.

Und das ist, wenn Ihr Sensor ein perfektes Seitenverhältnis von 16: 9 hat. Wenn Ihr Sensor ein Seitenverhältnis von 3: 2 hat, benötigen Sie etwa 10,7 Megapixel, um ein Bild mit einer Auflösung von 3840 x 2160 Pixeln aufzunehmen. Dazu gehören oben und unten verworfene Bereiche, um das Seitenverhältnis auszugleichen, und ein kleiner Rand, um etwaige Demosaikierungen auszugleichen .

Sensoren ohne Bayer-Filter

Während 99% der Farbkamerasensoren Bayer-Filter verwenden, gibt es einige, die ein alternatives Pixel-Layout verwenden, das Prinzip ist jedoch dasselbe.

Es gibt auch einige Farbsensoren, die überhaupt keinen Farbfilter benötigen, z. B. den Fovean X3-Sensor . Diese sind jedoch außergewöhnlich selten und haben ihre eigenen Probleme. Hersteller neigen auch dazu, über ihre Pixelanzahl zu lügen (um mit Sensoren mit einem Bayer-Filter konkurrieren zu können, bei denen die Pixelanzahl aufgrund des oben beschriebenen Filters immer viel beeindruckender klingt als sie tatsächlich ist).

Eine andere Alternative, die von einigen teuren professionellen Videokameras verwendet wird, besteht darin, drei völlig getrennte Sensoren zu haben, jeweils einen für Rot, Grün und Blau, und einen Lichtteiler zu verwenden, um dasselbe Bild auf alle drei zu werfen. Offensichtlich kann dies nicht in einer DSLR- oder Kompaktkamera oder einem normalen Typ einer Consumer-Fotokamera vorhanden sein. Aber es kann erklären, warum Pixelzählungen auf den Sensoren professioneller Videokameras nicht mit denen auf DSLRs verglichen werden können.

Aber Video verwendet sowieso Chroma-Subsampling!

(Nur für technische Köpfe)

Auch wenn Video (und manchmal JPEG) Chroma-Subsampling verwendet, benötigt es dennoch den Luminanzkanal, um die volle Auflösung beizubehalten. In einem Bild von einem Bayer-Sensor muss der Luminanzkanal noch mithilfe eines Interpolationsprozesses berechnet werden, obwohl es bei einem guten Demosaikierungsalgorithmus aufgrund der hohen Korrelation zwischen Luminanz und dem Grünkanal in den meisten Fällen so aussieht, als ob er sich der vollen Auflösung annähert Inhalt.

thomasrutter
quelle
3
Ihre 11-Megapixel-Rechnung geht davon aus, dass Bayer-Demosaikierung keinen Wert hat. Vernünftige Leute können sich nicht einigen, wo die genaue Zahl ist, aber es ist sicherlich etwas weniger dramatisch.
Bitte Profil lesen
Wie kann ein 3840X1216-Frame, der vor dem Downsizing bereits interpoliert wurde, genauer sein als ein 1920X1080-Frame, der aus einem 1920X1080-Bayer-Array interpoliert wurde? Mir scheint, wir müssten die RGB-Kanäle vom größeren Bild uninterpoliert lassen. Es müsste zweimal so breit und hoch sein, damit ein R-, ein B- und ein 2 G-Pixel zu jedem Pixel eines 1920 × 1080-Frames kombiniert und nicht interpoliert werden kann.
Michael C
1
Es ist spät und ich bin ein bisschen müde, aber geht Ihre Mathematik nicht davon aus, dass das 4x4-Array ein diskretes Pixel ohne Überlappung ist?
John Cavan
1
Ja, ich sagte, es sei spät ... :) 2x2 ist das, was ich meinte. Wenn ich mich recht erinnere, überlappt sich der Algorithmus für die Sensor-Demosaikierung so, dass ein 4x4-Array tatsächlich Daten mit einem Wert von 9 Pixeln liefert. Ich könnte mich jedoch sehr irren.
John Cavan
1
Ich stimme dieser Antwort zu, obwohl sie gut geschrieben ist, und aus folgendem Grund: Fast jede Kamera liefert durch Bayer-Interpolation Bilder mit der Pixelanzahl ihres Sensors. Dies wird allgemein akzeptiert. Wenn man von einem 12-Megapixel-Digitalfoto spricht, kann man davon ausgehen, dass es von einer 12-Megapixel-Kamera stammt, die technisch einen 12-Megapixel-Sensor hat. Auf der anderen Seite geht es um die Auflösung, aber wir müssen das Seitenverhältnis und die Bildqualität als Ganzes berücksichtigen. Die Interpolation ist mit dem Qualitätsverlust verbunden, aber das ist ein anderes Problem.
MattiaG
12

Sie haben Recht, dass ein 1080p HD-Bild knapp 2 Megapixel hat .

Jetzt müssen Sie vorsichtig sein, wenn Sie das Seitenverhältnis Ihrer Kamera berücksichtigen. Wenn es nativ 16: 9-Bilder aufnimmt und 2 MP hat, hätten Sie eine ausreichende Auflösung. Wenn die Kamera über einen 4: 3-Sensor verfügt, der am häufigsten für kleine Kameras verwendet wird, erfasst eine 2-Megapixel-Kamera höchstwahrscheinlich ein 1680 x 1260-Bild. Dies gibt Ihnen leider nicht genügend horizontale Auflösung.

Auf der anderen Seite erzeugt eine 3-MP-Kamera mit einem 4: 3-Sensor in der Regel Bilder mit einer Auflösung von 2048 x 1536, die ausreichen, um ein 1080p-Bild zu erhalten.

Itai
quelle
0

Es gibt drei gängige High-Definition-Videomodi: Videomodus: Bildgröße (BxH): Pixel im Bild (Auflösung) Scan-Typ

  1. 720p 1.280 x 720 921.600 (fast 1 MP) Progressiv
  2. 1080i 1.920 x 1.080 2.073.600 (> 2 MP) Interlaced
  3. 1080p 1.920 x 1.080 2.073.600 (> 2 MP) Progressiv

Es hängt davon ab, welchen Einsatz Sie planen. Wenn Sie Ihr Video auf eine große Leinwand projizieren möchten (z. B. einen Projektor), verwenden Sie einen höheren Videomodus von mindestens 1080p, was natürlich eine höhere Auflösung (dh mehr Megapixel) für eine reibungslose Bildprojektion erfordert. Beachten Sie auch, dass bei Verwendung einer höheren Auflösung mehr Speicherplatz auf einer Speicherkarte benötigt wird und dass für die Videobearbeitung höhere Spezifikationen Ihres PCs erforderlich sind. Wenn Sie jedoch eine kleine Leinwandprojektion planen (Laptop, PC), ist 720p ausreichend.

Besonderer Hinweis zum progressiven Scanmodus - Dies ist eine Methode zum Anzeigen, Speichern oder Übertragen von Bewegtbildern, bei der alle Linien jedes Einzelbilds nacheinander gezeichnet werden. Der Hauptvorteil von Progressive Scan besteht darin, dass Bewegungen gleichmäßiger und realistischer erscheinen.

Interlaced - wird häufig bei analogen TV- und CRT-Geräten verwendet. Hierbei wird die mit dem Signal eingeführte wahrgenommene Bildrate verdoppelt, ohne zusätzliche Bandbreite zu verbrauchen. Das Hauptproblem dabei ist das Interline-Twitter. Zum Beispiel kann eine Person im Fernsehen, die ein Hemd mit feinen dunklen und hellen Streifen trägt, auf einem Videomonitor erscheinen, als ob die Streifen auf dem Hemd "zwitschern". Dieser Aliasing-Effekt tritt auf, wenn das Motiv vertikale Details enthält, die sich der horizontalen Auflösung des Videoformats annähern.

Jez'r 570
quelle