Das Warten auf den genauen Moment, um ein Bild aufzunehmen, kann sehr schwierig sein, insbesondere wenn Sie mit Kindern oder Tieren arbeiten. Ich habe irgendwo gelesen (kann keine Quelle finden), dass jedes Standbild eines HD-Videos im Wesentlichen ein hochauflösendes Foto ist (stimmt das überhaupt?).
Was sind die Herausforderungen, Vor- und Nachteile bei der Auswahl des besten Rahmens aus einem Video, um Standbilder aufzunehmen, bei denen das Timing entscheidend ist?
Antworten:
Der große Vorteil dabei ist, wie Sie sagen, die Möglichkeit, in kurzer Zeit viele Bilder aufzunehmen, sodass Sie den besten Rahmen auswählen können.
Dieser Ansatz hat jedoch mehrere Nachteile:
quelle
Nein, überhaupt nicht wahr :( Hier ist der Grund:
Erstens ist es keine hohe Auflösung. Selbst 1080P-Videos ("Full HD"), die nicht alle Kameras können, haben nur 2 Megapixel. Das ist ein Bruchteil der Auflösung des Sensors. 720P-Video ist 1 Megapixel.
Zweitens verwendet Video eine viel höhere Komprimierungsrate als JPEG-Standbilder, da Video bandbreitenintensiv ist. Dies bedeutet, dass die resultierenden Videobilder (im Allgemeinen) stärker komprimiert sind als ein äquivalentes Standbild. Darüber hinaus verwenden in den meisten Videoformaten (einschließlich AVCHD, H.264 / AVC, verschiedenen MPEG / DivX-Formaten, jedoch nicht "Motion JPEG") die meisten Videobilder die "Interframe-Komprimierung", was bedeutet, dass sie nicht als Bilder in ihren Formaten gespeichert werden Eigenrecht, aber als Transformationsdaten für andere aktuelle oder in der Nähe befindliche Frames.
In Videos ist eine gewisse Bewegungsunschärfe wünschenswert, in Standbildern möchten Sie jedoch nicht annähernd so viel. 1/48 bis 1/60 Sekunde sind für 24P und 30P normal, um ein natürliches Gefühl von Bewegungsunschärfe zu erzielen (der Effekt wird nach alten Filmkameras als "Verschlusswinkel" bezeichnet). Andernfalls kann die Bewegung unnatürlich aussehen. In Standbildern sieht eine Einfrierbewegung mit einer Verschlusszeit von 1 / 250s oder schneller gut aus und ist häufig wünschenswert.
Digitale Sensoren können im "Live View" -Modus, in dem kein physischer Verschluss vorhanden ist, häufig keine Bilder von so guter Qualität liefern, sondern rufen kontinuierlich Bilder vom Sensor ab. In CCDs manifestiert sich dies als vertikale Streifenbildung; In CMOS gibt es andere Probleme (eines ist die Welligkeit während der Kamerabewegung, die als "Rolling Shutter-Effekt" bezeichnet wird). Der Verschluss, der beim Aufnehmen von Standbildern aktiviert wird, ermöglicht es dem Sensor, einen anderen Modus zu verwenden, in dem er nicht so schnell zurückgesetzt werden muss und ein qualitativ hochwertiges Bild mit weniger Rauschen aufnehmen kann.
Bei Videos wird häufig eine zusätzliche Filterung angewendet als bei einem Standbild, wodurch einige Details verloren gehen. Ein wichtiges ist das Interlacing, das eine Menge vertikaler Auflösung effektiv wegwirft. Allerdings würden nicht viele Standbildkameras mit Videofunktion Interlacing unterstützen. Bei vielen Videos wird weiterhin ein Antialiasing-Filter angewendet, der das Bild weicher macht, aber bei der Komprimierung und Reduzierung von Moiré helfen kann. Abhängig von der Kamera kann bei Videos auch eine stärkere Schärfung angewendet werden, obwohl diese Praxis heutzutage bei HD nicht so weit verbreitet / schädlich ist.
Wenn Sie keine andere Methode hätten, würde ich sie nicht empfehlen. Tatsächlich würde ich es wahrscheinlich immer noch nicht empfehlen, selbst wenn es Ihre einzige Option wäre. Wenn Sie dies jedoch getan haben, stellen Sie sicher, dass Sie 1080P ausführen können, stellen Sie die Verschlusszeit so schnell ein, als ob Sie noch aufnehmen würden, und verwenden Sie das Motion JPEG-Format (nicht AVC oder eines der anderen oben genannten Formate). Und stellen Sie fest, dass Sie im Grunde 2 Megapixel erhalten.
Bearbeiten: Seit ich diese Antwort vor einiger Zeit geschrieben habe, bin ich nicht mehr davon überzeugt, dass der Motion JPEG-Modus (wenn Ihre Kamera ihn überhaupt unterstützt) eine gute Idee dafür ist. Ihre Kamera würde bei gleicher Qualität eine viel höhere Bitrate benötigen. Wenn Sie normales HD-Video (z. B. h.264 oder AVCHD usw.) verwenden und einen Weg finden könnten, die I-Frames zu finden, ist dies möglicherweise besser. Ich denke immer noch nicht, dass es insgesamt eine gute Idee ist. Moderne DSLRs unterstützen viel schnellere Serienaufnahmemodi, einschließlich einiger, die den Spiegel blockieren oder die Auflösung verringern und schneller aufnehmen können usw.
quelle
Ich werde meine eigene Kamera (Pentax K-5) als Beispiel verwenden (Breite x Höhe):
Ich denke also nicht, dass es ein hochauflösendes Foto ist. Trotzdem ist es besser, die Aufnahme mit einer Auflösung zu machen, als sie überhaupt nicht zu bekommen. :) :)
quelle
Schauen Sie sich die roten Kameras an, wenn Sie dies wirklich ausprobieren möchten. Ihre ganze Existenzberechtigung besteht darin, auf etwas wie 5x HD zu schießen, und jedes wäre immer noch eine 10-Megapixel-Aufnahme.
Natürlich sind sie nicht billig, daher ist es möglicherweise eine bessere Idee, eine Kamera zu erwerben, die beispielsweise einige Sekunden lang 8 fps aufnehmen und diese Fotos für den perfekten Moment durchkämmen kann. Ich habe festgestellt, dass 5-6 fps für 3 Sekunden normalerweise mehr als genug Zeit sind, um eine gute Aufnahme zu erzielen, oder zumindest die maximale Anzahl von Frames liefert, die ich pro Burst durchsehen möchte. Wenn Sie die volle Videorate verwenden, müssen Sie eine Menge Daten für nur eine noch durchkämmen.
quelle
Dies hätte ein Kommentar zu dem Beitrag von @thomasrutter sein sollen, aber ich kann noch keinen Kommentar abgeben (mangelnder Ruf).
Ihr Aufzählungspunkt zu MJPEG im Vergleich zu AVC ist nicht ganz richtig. Es ist wahr, dass MPEG-4 Part 10 (AVC / H.264) normalerweise nicht jeden Frame als I-Frame (Key / Full Frame) aufzeichnet. Die Spezifikation enthält jedoch nichts, was dies verbietet, und einige Kameras zeichnen nur I-Frames auf.
Was Sie falsch machen, sind die Vorteile von MJPEG gegenüber H.264 und Ihre Argumentation darüber, warum. Ich beginne mit einer kurzen Erklärung, wie die Frames aus einem H.264 (oder anderen Video-Codec-Formaten) rekonstruiert werden. Das Video wird in drei verschiedenen Arten von Frames codiert: Intra-codierte Frames (I-Frames), Predictive-Coded-Frames (P-Frames) und bidirektional-Predictive-Coded-Frames (B-Frames). Ein I-Frame ist eine komprimierte Version eines vollständigen "rohen" Frames. Es kann nur als JPEG (oder als Einzelbild in einem MJPEG-Stream) rekonstruiert werden. Ein P-Frame hingegen verweist auf I- und P-Frames und muss rekonstruiert werden. Ein B-Frame kann auch auf folgende I- und P-Frames verweisen. Es gibt viel mehr Informationen dazu auf Wikipedia.
Der Unterschied zwischen H.264 und MJPEG besteht darin, wie die Komprimierung funktioniert und nicht wie gut sie ist. Jedes einzelne Bild in einem digitalen Video kann mithilfe von Informationen in der Videodatei / im Videostream vollständig rekonstruiert werden. H.264 liefert bessere Ergebnisse als MJPEG, selbst wenn Sie einen Frame mit derselben Bitrate exportieren. Dies gilt für die meisten Bitraten (bei sehr niedrigen Bitraten nicht sicher). Es gibt mehr Informationen und mehrere Tests online, und ein guter Ausgangspunkt ist compress.ru .
Der einzige Nachteil bei H.264 ist der Rechenaufwand bei der Rekonstruktion eines einzelnen Frames. H.264 benötigt viel mehr Rechenleistung als MJPEG. Dies ist jedoch auf modernen Computern kein Problem.
quelle