Beim Video-Streaming wird ein Video von einem Server an einen Client gesendet. Dies unterscheidet sich vom einfachen Herunterladen der gesamten Videodatei, da der Client das Video während des Herunterladens ansehen kann.
Ich habe viele Informationen darüber gesehen, wie man Videos vom Server auf ein Android-Gerät streamen kann, aber nicht viel darüber, ala Qik. Könnte mich hier jemand in die richtige Richtung weisen oder mir einen Rat geben, wie ich das angehen soll?
Ich habe seit Tagen im Internet gesucht, wie man eine Video-Streaming-Funktion von einem Android-Telefon auf ein anderes Android-Telefon über eine WiFi-Verbindung implementiert, aber ich kann anscheinend nichts Nützliches finden. Ich suchte bei Android-Entwicklern nach Beispielcode, Stackoverflow, Google, Android-Blogs, aber nichts. Alles, was ich finden kann, sind Telefon-zu-Desktop- oder Desktop-zu-Telefon-Lösungen für …
Ich bin gerade von meiner Prüfung in Netzwerkprogrammierung nach Hause gekommen, und eine der Fragen, die sie uns stellten, war: "Wenn Sie Videos streamen möchten, würden Sie TCP oder UDP verwenden? Geben Sie eine Erklärung für gespeicherte Videos und Live-Videostreams." . Auf diese Frage erwarteten sie einfach eine kurze Antwort …
Ich habe eine IP-Kamera, die einen Live-RTSP-Videostream bereitstellt. Ich kann den VLC Media Player verwenden, um den Feed anzuzeigen, indem ich ihm die URL zur Verfügung stelle: rtsp://cameraipaddress Aber ich muss den Feed auf einer Webseite anzeigen. Der Kameraanbieter hat ein ActiveX-Steuerelement bereitgestellt, das ich zum Laufen gebracht habe, aber …
Ich möchte ein Video in eine HTML5-Seite einfügen, das beim Laden der Seite abgespielt wird, und nach Abschluss ohne Unterbrechung zum Anfang zurückkehren. Das Video sollte auch KEINE Steuerelemente enthalten und entweder mit allen "modernen" Browsern kompatibel sein oder die Option einer Polyfüllung haben. Früher hätte ich dies über Flashund …
Ich möchte die Webcam und das Audio des Benutzers aufzeichnen und in einer Datei auf dem Server speichern. Diese Dateien könnten dann anderen Benutzern zur Verfügung gestellt werden. Ich habe keine Probleme mit der Wiedergabe, aber ich habe Probleme, den Inhalt aufzunehmen. Ich verstehe, dass die .record()Funktion getUserMedia noch nicht …
Was ist der schnellste Weg, um Live- Videos mit JavaScript zu streamen ? Ist WebSockets over TCP ein Protokoll, das schnell genug ist, um ein Video mit beispielsweise 30 Bildern pro Sekunde zu streamen?
Für die Schule muss ich eine HTML5-Live-Stream-Site einrichten. Sie haben einen Flash-Stream-Player, den sie verwendet haben, aber jetzt möchten sie, dass stattdessen HTML5 verwendet wird. Wie kann ich das machen? Ich habe versucht, das Video-Tag zu verwenden, aber ich kann es nicht zum Laufen bringen. Unten ist der Code, den …
Ich arbeite an einer App mit Video-Streaming-Funktionalität. Ich verwende Firebase-Datenbank und Firebase-Speicher. Ich versuche, eine Dokumentation darüber zu finden, wie Firebase-Speicher mit Videodateien umgeht, kann aber nicht wirklich viel finden. In den Dokumenten wird erwähnt, dass Firebase Storage mit anderen Google App-Diensten zusammenarbeitet, um CDN- und Video-Streaming zu ermöglichen, aber …
Ich habe ein Problem mit der nginx-Konfiguration für hls-Streaming. Ich benutze kaltura nginx vod module und versuche hinzuzufügen ngx_http_secure_link_module, um den stream zu schützen. Das Seltsame ist, dass ich 404 Fehler habe, wenn ich aktiviere ngx_http_secure_link_module(Protokolle unten). Ich denke, das liegt daran, dass es am Ende keine Datei mit index.m3u8 …
Ich erfasse den Desktop mithilfe der DesktopDuplication-API, konvertiere die Beispiele von RGBA in NV12 in der GPU und speise sie in die MediaFoundation-Hardware H264 MFT ein. Dies funktioniert gut mit Nvidia-Grafiken und auch mit Software-Encodern, schlägt jedoch fehl, wenn nur Intel-Grafikhardware MFT verfügbar ist. Der Code funktioniert auf derselben Intel-Grafikmaschine …
Ich versuche, den Desktop (DirectX-Oberfläche im NV12-Format) als H264-Video über den RTP-Stream mit dem Hardware-Encoder von Live555 & Windows Media Foundation unter Windows 10 zu streamen, und erwarte, dass er von ffplay (ffmpeg 4.2) gerendert wird. Aber nur einen grünen Bildschirm wie unten bekommen, Ich verwies auf MFWebCamToRTP MediaFoundation-Sample & …
Problemstellung: Intel Hardware MFT berücksichtigt die GOP-Einstellung nicht, was zu einem höheren Bandbreitenverbrauch in Echtzeitanwendungen führt. Der gleiche Code funktioniert gut auf Nvidia-Hardware-MFT. Hintergrund: Ich versuche, NV12-Beispiele, die über DesktopDuplication-APIs erfasst wurden, mithilfe des MediaFoundation H264-Hardware-Encoders auf einem Windows10-Computer in einen Videostream zu codieren, zu streamen und in Echtzeit über …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.