Glossar

Definitionen, Erläuterungen

Adaptives Bitrate-Streaming / adaptives Streaming

Diese Streaming-Technologie passt das Videoformat an das jeweilige Gerät und die verfügbare Bandbreite des Zuschauers an, um eine unterbrechungsfreie Wiedergabe trotz variabler Netzwerkbedingungen zu ermöglichen.

AdTags

VAST-oder VPAID-URLs von AdServern oder Google DFP (Google Ads).

Audiospur (Engl.: Audiotrack)

Ist die Tonspur eines Videos, die getrennt vom Video bearbeitet werden kann.

(Video-) Auflösung

Die Videoauflösung bezieht sich auf die Anzahl der Pixel in den einzelnen Dimensionen eines Videos. Bezeichnungen wie 360p, 480p, 720p und 1080p, 1440p und 2160p beziehen sich auf die Anzahl der vertikalen Pixel zwischen der Unter- und Oberkante eines Videos. Höhere Auflösungen bedeuten größere Dateien und damit höheren Bandbreitenbedarf.

Bandbreite

Die Bandbreite entspricht der maximalen Datenmenge, die jederzeit über ein Netzwerk übertragen werden kann (siehe auch Einheiten für die Bitrate Kbps und Mbps).

Bildauflösung (Engl.: Resolution)

Beschreibt die Gesamtzahl der Bildpunkte in einem Video, wie z.B. 1280x720. Die erste Zahl beschreibt dabei die in der Horizontalen verwendete Anzahl an Pixeln und die zweite Zahl die in der Vertikalen verwendeten Pixel. Häufig wird nur die horizontale Anzahl der Pixel angegeben, um die Qualität eines Videos zu beschreiben, etwa mit 144p, 240p, 360p, 720p, 1080p, 1440p und 2160p (4k).

Bitrate

Die Bitrate gibt an:

A) die Geschwindigkeit, mit der Daten im Internet übertragen werden, gemessen in Kilobits pro Sekunde (Kbps) oder Megabits pro Sekunde (Mbps).

B) wie viele Informationen (Bit) in einem Video pro Sekunde verwendet werden und wird in Bits pro Sekunde (bps) oder Kilobits pro Sekunde (kbps) angegeben.

Die Bitrate beeinflusst die Qualität eines Videos. Videos mit einer hohen Bitrate haben eine bessere Qualität als die mit einer niedrigen Bitrate, benötigen dafür bei der Übertragung aber auch mehr Bandbreite.

Buffering / Pufferung

Das Buffern bewirkt, dass Videos möglichst ohne Unterbrechungen abgespielt werden. Der Player lädt dafür Datenpakte in seinen Pufferspeicher und gibt diese mit Verzögerung aus, damit der Inhalt weiterhin abgespielt werden kann, wenn z.B. nicht genug Datenpakete geladen werden können, da die Verbindung kurzzeitig unterbrochen wird. Bei sehr langsamen Internetverbindungen oder bei großer Latenz in einem Netzwerk kann die Pufferung allerdings lange dauern.

CDN

Ein Content Delivery Network (CDN) ist ein Dienst, der Webinhalte basierend auf dem Standort der Benutzer und der Herkunft der Website über ein Netzwerk von Servern in verschiedenen Rechenzentren weltweit verteilt.

Chunk

Ein Chunk ist ein Teilfragment von einem größeren Datensatz auf einem Übertragungsweg (z. B. Input und Output von einem Verarbeitungsprozess).

Codec

Bezeichnet die Kompression/Dekompression von Videodaten. Codecs, wie MP4 oder MPEG, verkleinern bzw. komprimieren Videodateien.

Codierung

Bei der Codierung werden Mediadateien oder Live-Signale komprimiert, damit sie effizient übertragen werden können, und in ein Format gewandelt, welches internetfähige Endgeräte wie Smartphones, Laptops, PCs usw. interpretieren können. Das Gerät, das die Mediadateien oder Signale als Stream empfängt, decodiert die codierten Daten. Für die Codierung gibt es Standards wie H.264, H.265, VP9 und AV1.

Container

Eine Videodatei besteht aus einem Container, der sowohl Video- als auch Audio- und andere Daten enthalten kann. Der Container kann eines von vielen bestehenden Formaten sein (wie MP4), während die Video- und Audiodaten mit verschiedenen Video- und Audiocodecs kodiert werden (wie H.264 für Video oder AAC für Audio).

Dateien

Dateien sind hier Audio- oder Videodateien.

Datenrate / Datenübertragungsrate

Datenübertragungsrate (auch Datentransferrate, Data Transfer Rate) ist die Übertragungsgeschwindigkeit, mit der eine bestimmte Datenmenge innerhalb eines Zeitintervalls übertragen wird. siehe auch Latenz

eCDN

Im Gegensatz zu herkömmlichen CDNs, die Inhalte über das öffentliche Internet verteilen, dient ein Enterprise Content Delivery Network (eCDN) dazu, Inhalte innerhalb von Unternehmensnetzwerken bereitzustellen. eCDNs gewährleisten hochwertige Videoübertragung ohne übermäßige Bandbreitennutzung.

Embedded Code

Embedded Code ist ein Code-Snippet zur Einbettung des 3Q Players in HTML Code wie Webseiten oder Blogs. Das Snippet steht als JavaScript- und iFrame-Version zur Verfügung.

Encoder 

Encoder sind Soft- oder Hardware-Komponenten, welche Video und Audioinhalte in streamingfähige Formate wie z. B. MP3 oder MP4 komprimieren bzw. codieren.

Frame

Ein Frame ist ein Einzelbild aus einem Video. Das menschliche Auge nimmt ab 20 Bildern pro Sekunde (Frames per second = FPS) eine flüssige Bewegung wahr.

Framerate  (Bildrate, Bildfrequenz)

Die Framerate beschreibt aus wie vielen Einzelbildern ein Video pro Sekunde besteht bzw. gibt die Anzeigegeschwindigkeit in Frames pro Sekunde (FPS) von Videoinhalten an. Eine hohe Framerate, also mindestens 30 Bilder pro Sekunde, führt auch bei schnellen Bildwechseln zu einer flüssigeren Wiedergabe.

Format

Unter einem Audio- oder Videoformat versteht man einen Codec, der dazu dient ein Video zu komprimieren. Durch Komprimierung wird die Dateigrößte einer Videodatei deutlich kleiner, wodurch sich diese besser im Internet übertragen lässt. Gängige Videoformate sind beispielsweise AVCHD, AVI, MPEG und MOV.

H.264

Codierungsstandard für Video

HTML5 Player

HTML5 ist der aktuelle Branchenstandard für Videostreaming: flexibel, reaktionsschnell und mit geringer Prozessorbelastung. Im Gegensatz zum Flash Player ist HTML5 mit verschiedenen Browsern und Plattformen kompatibel. Idealerweise verwendet man einen HTML5-Player mit kurzen Ladezeiten, hoher Auflösung und geringer CPU-Auslastung.

HLS (HTTP Live Streaming)

HLS ist ein Protokoll für das Video-Streaming. Es wird für OnDemand- und Live-Streaming eingesetzt. Bei HLS werden Videodateien in kleine, schnell herunterladbare HTTP-Dateien zerlegt und mithilfe des HTTP-Protokolls übertragen.

Ein Vorteil von HLS ist, dass alle internetfähigen Endgeräte HTTP unterstützen. Außerdem kann bei einem HLS-Stream die Videoqualität abhängig von den Netzwerkbedingungen erhöht oder verringert werden, ohne die Wiedergabe zu unterbrechen. Deshalb kann die Videoqualität mitten in einem Video besser oder schlechter werden, während man es sich ansieht. Dieses Feature nennt man „adaptives Streaming“.

HLS wurde ursprünglich für Apple-Produkte entwickelt. Es wird aktuell von den meisten Endgeräten unterstützt.

HTTP

HTTP ist ein Protokoll, mit dem Informationen zwischen Geräten in einem Netzwerk übertragen werden. Bei HTTP erfolgt die Datenübertragung normalerweise in Form von Anfragen und Antworten. Beim Streaming über HTTP bleibt die Verbindung zwischen Client und Server während des Streams offen, und der Server sendet permanent Videodaten an den Client, sodass der Client nicht jedes Videodatensegment einzeln anfordern muss.

Ingest Server

sind Server der Plattform, an welche Livesignale von Encodern gesendet werden können.

Internet-Protokolle

Im Netzwerk ist ein Protokoll ein Regelwerk für die Formatierung und Verarbeitung von Daten. Die folgenden Protokolle werden u. a. auch beim Streaming verwendet:

TCP (Transmission Control Protocol) - ist ein Transportschichtprotokoll, das eine zuverlässige Datenlieferung gewährleistet. TCP soll mit IP verwendet werden, und die beiden Protokolle werden oft zusammen als TCP/IP bezeichnet.

HTTP (Hypertxet Transfer Protocol) - wird zur Übertragung von Daten zwischen Geräten verwendet.

HTTPS (HTTP Secure) - verschlüsselt HTTP-Nachrichten.

TLS/SSL (Transport Layer Security) - ist das Protokoll, das HTTPS zur Verschlüsselung verwendet. TLS hieß früher Secure Sockets Layer (SSL).

iFrame 

Ein iFrame (inline Frame) ist ein HTML-Codesnippet, das in ein HTML-Dokument, z. B. den Quellcode einer Webseite, eingebettet werden kann. Der 3Q Player kann als iFrames in eine Webseite eingebettet werden.

KI-basierte Untertitelung

Künstliche Intelligenz ermöglicht die automatisierte Verschriftlichung von Audiospuren in Videos, was insbesondere Hörgeschädigten, Betrachtern ohne Ton und Menschen, die die Audiosprache nicht verstehen, zugutekommt. Mit einer KI-basierten Untertitelung wird die Audiospur des Livestreams bzw. die darin verwendete Sprache transkribiert und dem Video als Untertitel-Text hinzugefügt. Anschließend kann das Transkript wahlweise in weitere Sprachen übersetzt werden. Oft wird die KI-basierte Untertitelung von Videos auch Live-Transkription genannt, wenn der Transkriptions-Prozess fast in Echtzeit, also live, stattfindet.

Latenz

Beim Streaming ist die Latenz die Zeit, die ein Datenpaket braucht, um von einem Server (Sender) über verschiedene Netzwerke zu einem Player (Empfänger) übertragen zu werden.

Livestreaming

Livestreaming bedeutet, dass Medieninhalte zeitgleich aufgezeichnet und ausgestrahlt werden. Dabei können Nutzer nicht nur zuschauen, sondern auch mit den Sprechern interagieren.

Live-Transkription

Künstliche Intelligenz ermöglicht die automatisierte Verschriftlichung von Audiospuren in Videos, was insbesondere Hörgeschädigten, Betrachtern ohne Ton und Menschen, die die Audiosprache nicht verstehen, zugutekommt. Mit einer Live-Transkription  wird die Audiospur des Livestreams bzw. die darin verwendete Sprache quasi in Echtzeit transkribiert und dem Video als Untertitel-Text hinzugefügt. Anschließend kann das Transkript wahlweise in weitere Sprachen übersetzt werden. Oft wird die Live-Transkription auch KI-basierte Transkription genannt.

Low-Latency

Der Low-Latency-Modus verwendet modifizierte Transcoder-Puffereinstellungen und sendet kleinere Video-Segmente. Damit kann bei optimalen Einstellungen die Latenz auf 3-6 Sekunden reduziert werden. Verwenden Sie Low-Latency nur, wenn eine geringe Latenz zwingend notwendig ist. Der Livestream kann unter Umständen nicht ruckelfrei von allen Zuschauern empfangen werden.

Metadaten

Metadaten oder Metainformationen können von virtuellen oder physischen Datenobjekten wie Büchern, Videos, Bildern, Musik, Dateien und beliebigen andere Daten erstellt werden und sind vielseitig einsetzbar. Sie sind zur Indexierung von Datenbeständen, zum Durchsuchen von Daten nach bestimmten Informationen oder zur automatisierten, maschinellen Verarbeitung von Daten nutzbar. Gespeichert werden die Metainformationen entweder direkt im primären Datenobjekt oder in einer externen Datensammlung verknüpft mit den primären Daten. Für eine maschinelle, automatisierte Verarbeitung müssen die Metainformationen in einer bestimmten Formatierung oder einer vorgegebenen Struktur vorliegen. Typische Metainformationen von Videos sind Aufnahmeort und -datum, Audio- und Video-Codec, Abspieldauer, Datenrate und Sprache.

Multi-CDN

Multi-CDN kombiniert mehrere Content Delivery Networks (CDN) verschiedener Anbieter, um eine globale Reichweite zu gewährleisten.

Multi-Channel Livestreaming

Mit dieser Funktion können mehrere Livestreams in einem Player zusammengestellt werden. Der Zuschauer kann während der Übertragung im Player zwischen Inhalten bzw. Livestreams wechseln. Anwendungsbeispiele dafür sind u. a. das simultane Livestreaming in mehreren Sprachen, die Übertragungen von unterschiedlichen Kameraperspektiven oder die Übertragung von virtuellen Kongressen oder Messen mit parallelen Beiträgen bzw. Veranstaltungen.

MPEG-DASH

MPEG-DASH ist eine Streaming-Methode. DASH steht für „Dynamic Adaptive Streaming über HTTP“. MPEG-DASH ist ähnlich zu HLS, ein Streaming-Protokoll, dass Videos in kleinere Einheiten/ Chunks zerteilt und diese Einheiten auf verschiedenen Qualitätsstufen encodiert.

Pufferung

Siehe Buffering / Pufferung.

Projekt

Ein "Projekt" ist ein Arbeitsbereich, der alle erforderlichen Funktionen zur Verwaltung, Bearbeitung und Verbreitung von Audio- oder Videoinhalten umfasst. Im Projekt können Ihre Inhalte für spezifische Zwecke oder Zielgruppen zusammengestellt, bearbeitet und veröffentlicht werden.

Die Plattform bietet zwei Projekttypen:

1. Livestream Projekte – um Inhalte in Echtzeit auszusenden

2. On-Demand Projekte – um Inhalte bereitzustellen, die nach Bedarf abgerufen werden

RTMP 

Das Real-Time Messaging Protocol (RTMP) ist ein leistungsstarkes Protokoll zur Übertragung von Audio-, Video- und anderen Datenformaten von einem Encoder an einen Server. Die meisten Streaming-Anbieter unterstützen heute RTMP als Eingangsformat. Wir empfehlen Geräte, die das SRT-Protokoll verwenden. Dieses verfügt über eine Fehlerkorrektur bei schwankender oder unterbrochener Internetverbindung.

Speech-to-Text

Mit einem Speech-to-Text-Tool wandeln Sie automatisiert Audiodateien in Textdateien bzw. schriftliche Transkripte um. Das ist z. B. die Grundvoraussetzung für die automatisierte Erstellung von Untertiteln in Videos. Siehe auch KI-basierte Untertitelung und Live-Transkription.

Streaming

Das Streaming ist ein Verfahren zur Datenübertragung. Es ermöglicht, im Gegensatz zum Download, bereits die Wiedergabe von Medieninhalten, während die restlichen Daten noch auf Ihr Gerät übertragen werden. Dafür werden die Dateien (On Demand Streaming) oder Signale (Livestreaming) zur Übertragung in kleinere Datenpaketen bzw. Chunks unterteilt. Diese Datenpakete werden in einem permanenten Strom an die Browser gesendet, wo sie vom Player als Audio- oder Videoinhalt erkannt werden. Sobald ein Browser über genügend Datenpakete verfügt, um die Wiedergabe zu starten, beginnt die Wiedergabe. Die 3Q Plattform verwendet standardisierte TCP-/IP-Layer (Transmission Control Protocol/Internet Protocol), um Inhalte von einem Server an ein Gerät zu übertragen.

Text-to-Speech

Mit einem Text-to-Speech-Tool wandeln Sie automatisiert Textdateien in Audiodateien um.

Transmission Control Protocol (TCP)

TCP ist eine Streaming-Methoden bzw. ein Transportprotokoll für die Übertragung von Datenpaketen über IP-Netzwerke. TCP öffnet eine dedizierte Verbindung, bevor es Daten überträgt, und stellt sicher, dass alle Datenpakete in der richtigen Reihenfolge ankommen. Es wird beim HTTP-Live-Streaming (HLS) verwendet.

Transcoding / Transkodierung

Transkodierung bezeichnet die Umwandlung von Daten in niedrigere Bitraten, während das ursprüngliche Videoformat erhalten bleibt. Transcoding ermöglicht die Anpassung von Videos an begrenzte Speicherressourcen und effizientere Bereitstellung. Das Transcoding ist Voraussetzung für das adaptive Streaming. Die Anlieferung des Livesignals erfolgt in der höchstmöglichen Auflösung (Eingangssignal). Mit Transcodern wird das Signal in weitere Auflösungen gewandelt. Beim Empfang des Streams ermittelt der Player die verfügbare Bandbreite und wählt dann die Signalversion mit der optimalen Auflösung/ Qualität.

Trimmen

Beschreibt das Kürzen einer Videodatei. Dieser Vorgang kann auch als zuschneiden bezeichnet werden.

TCP/IP

Bei TCP/IP handelt es sich um eine Gruppe von Protokollen, die die Grundlage für das Internet und andere Netzwerke bilden. Den Schichten im TCP/IP-Modell werden verschiedene Aufgaben und damit Protokolle zugesprochen.

  • Internetschicht: Auf dieser Schicht arbeitet das Internet Protocol und sorgt dafür, dass die transportierten Daten auch das richtige Ziel erreichen. Über die IP-Adresse werden die Datenpakete durch das Netzwerk geroutet.

  • Transportschicht: Für den Transport sorgt im Referenzmodell TCP. Das Protokoll ermöglicht die Ende-zu-Ende-Kommunikation, ist also verantwortlich für die Verbindung zwischen zwei Geräten. Neben TCP gehört auch UDP in diese Ebene.

Upload-/Download-Geschwindigkeit 

Die Upload-Geschwindigkeit bezeichnet die Geschwindigkeit, mit der Daten vom Benutzergerät ins Internet übertragen werden. Die Download-Geschwindigkeit gibt an, wie schnell Daten vom Internet auf Benutzergeräte übertragen werden. Bei Livestream-Veröffentlichungen ist vor allem die Upload-Geschwindigkeit wichtig, während die Download-Geschwindigkeit für Zuschauer relevant ist.

VOD

Video on Demand (VOD) ermöglicht Benutzern den Zugriff auf ausgewählte Videoinhalte nach Bedarf, unabhängig von festen Sendezeiten. Häufig werden Livestreams aufgezeichnet und dann auf einer Website bereitgestellt, um jederzeit abgerufen werden zu können.

Webcast 

Ein Webcast besteht aus Live oder On-demand-Video- und Audioinhalten, die zusammen mit interaktiven Komponenten wie Chat, Umfragen oder Folien über das Internet oder Intranet abgerufen werden. Typischerweise handelt es sich um eine "One-to-many"-Übertragung. Webcasts sind nicht mit Web- oder Videokonferenzen zu verwechseln.

Zuletzt aktualisiert

War das hilfreich?