Datenbestand vom 03. September 2025
Verlag Dr. Hut GmbH Sternstr. 18 80538 München Tel: 0175 / 9263392 Mo - Fr, 9 - 12 Uhr
aktualisiert am 03. September 2025
978-3-8439-5664-2, Reihe Ingenieurwissenschaften
Andy Regensky Projection-Based 360-Degree Video Compression
242 Seiten, Dissertation Universität Erlangen-Nürnberg (2025), Softcover, A5
Die Videokompression ist ein zentraler Bestandteil der heutigen, von Videoinhalten geprägten Multimedialandschaft. Ohne moderne Kompressionstechnologien wären die zur Videospeicherung und Videoübertragung benötigten Datenmengen um ein bis zwei Größenordnungen höher. Alltägliche Anwendungen wie videobasierte Online-Meetings, Fernsehen, Videostreaming und soziale Medien wären nicht realisierbar. Ein immer beliebter werdendes Format sind 360-Grad-Videos, die durch ihr Rundumsichtfeld ein noch nie dagewesenes Gefühl der Immersion ermöglichen. Dieses Rundumsichtfeld erfordert jedoch auch eine deutlich höhere Videoauflösung, um die gleiche visuelle Qualität wie bei herkömmlichen 2D-Videoformaten zu erreichen. Die damit einhergehende Datenmenge macht die effiziente Kompression von 360-Grad-Videos umso wichtiger. Um vorhandene Kompressionstechnologien für 360-Grad-Videos zu nutzen, werden die sphärischen Videodaten mit Hilfe geeigneter Projektionsformate auf planare Darstellungen projiziert. Dabei beschreibt das Projektionsformat die Abbildung zwischen Positionen im sphärischen Bereich und der projizierten Bildebene. Projektionsbasierte Ansätze nutzen diese Abbildung zur Formulierung optimierter Verfahren, die die besonderen Eigenschaften von 360-Grad-Videos einbeziehen.
Diese Arbeit untersucht, wie und in welchem Ausmaß projektionsbasierte Ansätze die Kompressionseffizienz aktueller Videocodecs verbessern können. Dabei wird sowohl die klassische hybride, als auch die neuartige lernbasierte Videokompression untersucht. Hybride Videocodecs bauen in erster Linie auf modellbasierten Signalverarbeitungstechniken auf, während lernbasierte Videocodecs auf datengestützte Ansätze zum Trainieren neuronaler Netze für die Videokompression setzen. Die vorgeschlagenen Methoden führen zu Rateneinsparungen von bis zu 3,00% für hybride Videocodecs, und mehr als 7,00% für lernbasierte Videocodecs, ohne dabei die Kompression klassischer 2D Videos zu beeinträchtigen.