Der Raspberry Pi führt eine hardwarebeschleunigte h264-Codierung durch, wenn Videos von der Kamerakarte aufgenommen werden. Wie kann ich h264 (mit Hardwarebeschleunigung) codieren, wenn die Quellbilder nicht direkt von der Kamera kommen?
Gibt es Befehlszeilentools, die dies unterstützen?
Wenn nein, auf welche APIs sollte ich achten, um dies zu ermöglichen?
raspiyuv -o - | rpi-encode-yuv
(ungefähr), wo dasrpi-encode-yuv
Werkzeug von hier ist . Die Frame-Größe ist in diesem Tool fest codiert, daher müssen Sie sie am Anfang der C-Datei ändern und neu kompilieren. Leider habe ich es noch nicht geschafft, eine richtig ausgerichtete Ausgabe zu erhalten, daraspiyuv
die Frame-Größe nicht in die Ausgabe zu kodieren scheint. Ich bekomme ein sich allmählich veränderndes Bild, das sich schließlich in Müll verwandelt. Ich arbeite immer noch daran.Antworten:
GStreamer ist in Raspbian enthalten und nutzt mit seinem OpenMAX-Plugin die Hardware-Codierungsfunktionen des Raspberry Pi.
Unter diesem Link finden Sie ein Tutorial, wie Sie das tun, wonach Sie suchen: https://www.raspberrypi.org/forums/viewtopic.php?t=72435
Wenn Sie an Transcodierung interessiert sind, habe ich gerade eine Antwort auf eine andere Frage veröffentlicht, die Sie interessieren könnte: Welche Geschwindigkeit kann ich von der Hardware-H264-Codierung erwarten?
quelle
Sieht so aus, als ob Sie ffmpeg selbst kompilieren, auf RPi3B + können Sie bekommen
Das Skript, mit dem all dies erreicht werden kann, befindet sich in einem Forenthread .
quelle