Livestreams sind nicht live

Video-Latenz einfach erklärt

Livestreams sind nicht wirklich live, denn in der Regel gibt es eine Verzögerung von einigen Sekunden zwischen dem Live-Ereignis und dem Videostreaming auf den Empfangsgeräten der Zuschauer. Das nennt man Videolatenz, also die Verzögerung zwischen der Aufnahme eines Videos und der Anzeige dieses Inhaltes für den Zuschauer. Technisch formuliert: Die Latenz bzw. die Verzögerung beim Streaming ist die Zeit, die zwischen dem produzierten Signal vor Ort und Empfänger vergeht.

Latenzzeiten treten bei Livestreams auf, weil die Verarbeitung und Übertragung von Live-Videos Zeit in Anspruch nehmen. Zu diesem Verzögerungsprozess gehören zum Beispiel das Decoding des eingehenden Streams, das Erzeugen der einzelnen Formate (Renditions) für das adaptive Streaming und wiederum das Decoding auf dem Gerät des Zuschauers.

Wie funktioniert die Codierung eines Livestreams?

Ein Livestream wird von einer Quelle, an der Videos aufgezeichnet werden – zum Beispiel ein Encoder hinter dem Bildmischer – mithilfe eines Streaming-Protokolls (üblicherweise SRT oder RTMP) an einen Server gesendet, auf dem der Videofeed anschließend weiterverarbeitet wird.

Je nach Setting wird das Videosignal direkt in ein HTTP-basiertes Streaming Protokoll in kleinere Teile segmentiert, oder in verschiedene Codecs und Auflösungen zu einem adaptiven Multi-Bitrate Stream aufbereitet. Letzteres ist notwendig, um möglichst eine hohe Anzahl von Geräten und Netzwerkschwankungen und Gegebenheiten abdecken zu können.

Die komprimierten und segmentierten Videodaten werden über ein Content Delivery Network (CDN) verbreitet.

Auswirkungen einer hohen Latenz

Zuschauer möchten das Gefühl haben, dass sie Live-Übertragungen in Echtzeit sehen. Sie wollen schließlich „live“ dabei sein, als wären sie persönlich anwesend. Eine hohe Verzögerung wirkt sich negativ auf das Erlebnis des Zuschauers aus und kann dazu führen, dass der Zuschauer den Livestream beendet. Diese Zuschauer werden danach in der Regel eine deutlich niedrigere Neigung haben, andere Streams aus derselben Quelle abzurufen; dann sind sie für den Anbieter des Contents verloren.

Low Latency Graph

Wie funktioniert HLS-Streaming?

Die meisten HLS-Streams oder HTTP-Live-Streaming-Protokolle beginnen mit einem RTMP-Ingest, der für die Bereitstellung durch die Videoplattform automatisch in HLS konvertiert wird. Dies bietet den Zuschauern HTTP-Live-Streaming in hoher Qualität, kann aber zu einer Latenz von 30 Sekunden oder mehr führen, also zu einer enormen Verzögerung des Livestreams.

RTMP wird nach wie vor für den Video-Ingest verwendet und nicht HTTP Live Streaming für Auslieferung und Ingest, da HTTP Livestreaming eine viel höhere Latenz aufweist. Die Kombination aus RTMP-Ingest und HTTP-Livestreaming-Bereitstellung ermöglicht das Streaming auf einem HTML5-Videoplayer für alle Geräte.

Um die Latenz der Livestreams zu optimieren, hat man beim Streaming Protokoll HLS in der Vergangenheit die Segmente deutlich gekürzt, und Optimierungen der Encoding-Einstellungen wie das Kürzen der Keyframe Intervalle vorgenommen. Mit diesen Optimierungen war es möglich die Latenzen von 18 – 30 und mehr Sekunden auf 4 – 8 Sekunden zu kürzen.

3Q ermöglicht weniger als 5 Sekunden Latenzzeit

Um die Latenzzeit bei gleichbleibender Qualität noch weiter zu drücken, führen wir das Protokoll „Low-Latency HTTP Livestreaming“, kurz LL-HLS ein. Senden Sie das Signal per RTMP an uns, können Sie mit der neuen Low Latency Option die Streaming Latenz auf 3 – 5 Sekunden reduzieren. Verwenden Sie einen SRT Encoder ist eine weitere Verkürzung der Verzögerung möglich.

Der große Vorteil an unserer Lösung: Der Low Latency Mode liefert Ihre Streams weiter bei sehr hoher Qualität und mehreren Qualitätsstufen („Adaptive Streaming“) aus.

Wir arbeiten wir ständig daran, die Latenz weiter zu reduzieren, damit unsere Kunden Livestreams produzieren können, die nahezu in Echtzeit übertragen werden.

Sind Sie bereit, loszulegen?

7 Tage kostenlos testen
Flexibles Preismodell
DSGVO-konform