Ich habe viele Informationen darüber gesehen, wie man Videos vom Server auf ein Android-Gerät streamen kann, aber nicht viel darüber, ala Qik. Könnte mich hier jemand in die richtige Richtung weisen oder mir einen Rat geben, wie ich das angehen soll?
286
Antworten:
Ich habe ein Open-Source-Projekt gehostet, um das Android-Telefon für die IP-Kamera zu aktivieren:
http://code.google.com/p/ipcamera-for-android
Rohe Videodaten werden von LocalSocket abgerufen, und der MDAT MOOV von MP4 wurde vor dem Streaming zuerst überprüft. Das Live-Video ist im FLV-Format gepackt und kann über einen Flash-Video-Player mit integriertem Webserver abgespielt werden :)
quelle
ndk-build
. Weitere Informationen finden Sie in der NDK-Dokumentation .Ich habe einige Zeit gebraucht, aber ich schaffe es endlich, eine App zu erstellen, die genau das tut. Schauen Sie sich die Google-Codepage an, wenn Sie interessiert sind: http://code.google.com/p/spydroid-ipcamera/ Ich habe meinem Code viele Kommentare hinzugefügt (siehe hauptsächlich CameraStreamer.java), also sollte es so sein ziemlich selbsterklärend. Der schwierige Teil bestand darin, den RFC 3984 zu verstehen und einen geeigneten Algorithmus für den Paketierungsprozess zu implementieren. (Dieser Algorithmus verwandelt den vom MediaRecorder erzeugten mpeg4 / h.264-Stream laut rfc in einen schönen rtp-Stream.)
Tschüss
quelle
Ich beschäftige mich auch damit, und obwohl ich keine gute Lösung für Sie habe, habe ich es geschafft, den Videocode von SIPDroid zu finden:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
quelle
Ich habe ein Open-Source-SDK namens Kickflip erstellt , um das Streamen von Videos von Android zu einem schmerzlosen Erlebnis zu machen.
Das SDK demonstriert die Verwendung der MediaCodec- API von Android 4.3 , um die Pakete des Gerätehardware-Encoders für RTMP direkt an FFmpeg zu leiten (mit librtmp) oder HLS- Streaming von H.264 / AAC leiten . Es zeigt auch OpenGL-Effekte in Echtzeit (Titel, Chroma Key, Fades) und Hintergrundaufnahmen.
Danke SO und vor allem Fadden .
quelle
Hier ist ein vollständiger Artikel über das Streaming von Android-Kamera-Videos auf eine Webseite.
Android Streaming Live-Kamera-Video zur Webseite
quelle
Beispiel als: ffmpeg_link = "rtmp: // yourserveripaddress: 1935 / live / venkat";
Über diesen Link können wir Videos vom Typ H263 und H264 senden.
quelle
Dies ist kaum eine vollständige Antwort, aber webRTC könnte das sein, wonach Sie suchen. Hier einige kurze Beispiele für webRTC in Aktion: http://www.webrtc.org/reference-apps
Wenn Sie Android-spezifischen Code möchten, existiert dieser! http://www.webrtc.org/native-code/android
quelle
Überprüfen Sie die Yasea- Bibliothek
Feature:
quelle
Mux (meine Firma) hat eine Open-Source-Android-App , die RTMP auf einen Server überträgt, einschließlich der Einrichtung der Kamera und der Benutzerinteraktionen. Es wurde für das Streaming zur Live-Streaming-API von Mux entwickelt, kann jedoch problemlos zu jedem RTMP-Einstiegspunkt gestreamt werden.
quelle
Abhängig von Ihrem Budget können Sie eine Raspberry Pi-Kamera verwenden, die Bilder an einen Server senden kann. Ich füge hier zwei Tutorials hinzu, in denen Sie viele weitere Details finden:
Dieses Tutorial zeigt es Ihnen wie eine Raspberry Pi-Kamera verwenden und Bilder auf einem Android-Gerät anzeigen
Dies ist das zweite Tutorial, in dem Sie eine Reihe von Tutorials zum Echtzeit-Video-Streaming zwischen Kamera und Android-Gerät finden
quelle