Ich baue eine Anwendung, die Live-Streaming von Video + Audio unter Verwendung von FFMPEG an nur einem Port durchführen sollte, aber ich scheine nicht in der Lage zu sein, das rechte Protokoll dafür zu finden und / oder Probleme mit der richtigen Dokumentation zu haben.
Dies ist für einen Linux-Server, der in einen Android-APK gestreamt werden soll. Ich kann nur einen Port für das Streaming verwenden. Das ist eine Designbedingung, kann das nicht ändern.
Im Moment ist das Protokoll, das ich verwende, RTSP, aber ich habe Probleme beim Senden von Audio + Video, da im RTP-Muxer nur ein Stream unterstützt wird. Daher kann ich nur Audio oder nur Video senden
Diese Frage ist verwandt https://stackoverflow.com/questions/12007882/ffmpeg-rtp-streaming-error/16468600 Die vorgeschlagene Lösung verwendet jedoch ein Paar Ports, was ich nicht tun kann.
Gibt es Container (.mp4, flv, mpeg usw.) und / oder Protokolle (tcp, udp, rtp, http), die dafür besser geeignet sind?
Irgendwelche Vorschläge?