Bild nicht mehr verfügbar.

Videostreaming in 16-mal besserer Qualität als die derzeit gängige HD-Qualität? Auch das soll möglich werden, heuer erstmals in Japan.

Foto: Picturedesk

Video-Streaming gehört die Zukunft. Die Zahl der Anbieter, ob sie nun Netflix oder Amazon Prime heißen, steigt rasant. Aus Nutzerperspektive ist dabei leicht zu übersehen, welchen Aufwand es bedeutet, Videos jederzeit in unterschiedlichen Qualitäten möglichst unterbrechungsfrei auf verschiedenste Endgeräte zu liefern. Ein Großteil des Datenverkehrs im Internet rührt bereits jetzt von Videoinhalten. Mit der weiteren Verbesserung der Qualität der Bilddaten steigt auch der Druck, effizientere Übertragungsprotokolle zu implementieren. Je besser die Videodaten beim Netztransport "verpackt" sind, desto besser bekommt man sie zum Nutzer und desto günstiger ist es für die Anbieter. Letztlich sind auch Energieverbrauch und CO2-Emissionen der Rechenzentren davon abhängig.

In einem neuen Christian-Doppler-(CD-) Labor an der Universität Klagenfurt – das erste an diesem Standort – soll die Streaming-Technologie auf eine Video-Zukunft vorbereitet werden, die von Schlagworten wie Virtual Reality und 4K- und 8K-Bildauflösungen geprägt ist. Im CD-Labor mit dem Namen "Athena" (Adaptive Streaming over HTTP and Emerging Networked Multimedia Services) arbeitet – unterstützt mit Mitteln des Wirtschaftsministeriums – ein Forscherteam an einer optimierten Nutzung des sogenannten DASH-Standards, der ein flexibles Streaming über herkömmliche Webserver in hoher Qualität erlaubt. Partner im CD-Labor ist das junge Kärntner Unternehmen Bitmovin. Der Entwickler, der mittlerweile Großanbieter wie die britische BBC zu seinen Kunden zählt, konnte zig Millionen Euro an Investorengelder einsammeln und gilt als eines der erfolgreichsten Start-ups Österreich.

Streaming-Baustelle

"Das Kodieren von Videos für adaptives Streaming, das je nach Endgerät und Verbindungsqualität unterschiedliche Bildauflösungen zur Verfügung stellt, ist nach wie vor eine große Baustelle", sagt Christian Timmerer, der als Professor am Institut für Informationstechnologie der Uni Klagenfurt das CD-Labor leitet und gleichzeitig einer der Mitgründer von Bitmovin ist. "Große Anbieter kodieren mehrere Versionen vorab, um sie dann auf ihren Servern zur Verfügung zu stellen. Wir wollen bei derartigen Anwendungen den Aufwand reduzieren, sodass kleinere Datenvolumen entstehen und die Inhalte schneller zur Verfügung gestellt werden können."

Die Codierung erfolgt für jede Auflösung unabhängig. Mithilfe eines elaborierteren Verfahrens könnte hier Rechenzeit eingespart werden, ist Timmerer überzeugt: "Informationen die bei den ersten Codiervorgängen gesammelt werden, können auch für die weiteren Versionen genutzt werden, um Effizienzsteigerungen zu erreichen." Im CD-Labor soll ein entsprechendes Verfahren entwickelt werden.

Volumen sparen

Eine weitere Frage ist, ob Übertragungsvolumen gespart werden können, wenn die endgültige Codierung näher am Konsumenten erfolgt – beispielsweise in den Basisstationen der Mobilfunkanbieter. Es würde dann reichen, eine Version in guter Qualität zu verbreiten, die Codierung in der vom Endnutzer verlangten Auflösung würde erst vor der "Last Mile" in der Basisstation erfolgen. "Wenn man es schafft, die Rechenleistung näher zum Benutzer zu verschieben, könnten die Kernnetze stark entlastet werden", betont Timmerer. Auch bei Live-Streamings, die heute meist nur in geringer Qualität erfolgen, wäre eine derartige Variante zielführend.

Auf dem Weg zu einer effizienteren Übertragung hilft, dass Mitte 2020 eine neue Version des Codier-Standards erscheint (Versatile Video Coding, VVC), der die Version von 2013 ablöst. Er wird eine stark verbesserte Komprimierung mitbringen – das heißt, dass die Verkleinerung des Datenvolumens durch Weglassen nichtrelevanter Informationen, beispielsweise wenn eine Videosequenz gerade wenig Bewegung beinhaltet, effizienter erledigt wird.

Genreabhängige Codierung

Die Komprimierung kann mit komplexen Werkzeugen wie der sogenannten Per-Title-Codierung noch weiter optimiert werden. Grob gesprochen wird die Dateneinsparung dabei besser auf die vorliegenden Inhalte samt einhergehender Bildeigenschaften abgestimmt – je nachdem, ob es sich um eine Dokumentation mit vielen Standbildern, einen Actionfilm mit schnellen Bewegungen oder einen Cartoon mit vielen flächigen Farben handelt. Zur Wahl der effizientesten Variante werden Probecodierungen durchgeführt und ausgewertet. In Zukunft könnte die Analyse des zu codierenden Materials mit neuen Machine-Learning-Methoden optimiert werden.

Auch ein älterer Ansatz könnte dank neuer Technologien Auftrieb bekommen: die sogenannte objektbasierte Videocodierung. Wenn man wie bei einem Fußballspiel viel statischen Hintergrund und geringe Anteile an schneller Bewegung hat, könnte man diese Bereiche auch unterschiedlich codieren. "Man hat das bereits vor 20 Jahren angedacht, konnte mit dieser Methode damals aber keine akzeptable Qualität hervorbringen", sagt Timmerer. "Künftig könnte es aber wieder in diese Richtung gehen."

Videostreaming in 8K-Qualität, also in 16-mal besserer Auflösung als die derzeit gängige HD-Qualität (1080p), soll heuer übrigens erstmals in großem Ausmaß umgesetzt werden – in Japan. Anlass dazu geben die Olympischen Sommerspiele in Tokio. "Live-Bilder in 8K-Qualität zu codieren ist auf alle Fälle eine Herausforderung. Der Datentransport benötigt enorme Bandbreiten", urteilt Timmerer. Es wird also noch das eine oder andere Jahr vergehen, bis sich die 8K-Auflösung als allgemeiner Standard weltweit etablieren kann. (Alois Pumhösel, 8.2.2020)