Datenbestand vom 03. September 2025

Impressum Warenkorb Datenschutzhinweis Dissertationsdruck Dissertationsverlag Institutsreihen     Preisrechner

aktualisiert am 03. September 2025

ISBN 9783843956642

48,00 € inkl. MwSt, zzgl. Versand


978-3-8439-5664-2, Reihe Ingenieurwissenschaften

Andy Regensky
Projection-Based 360-Degree Video Compression

242 Seiten, Dissertation Universität Erlangen-Nürnberg (2025), Softcover, A5

Zusammenfassung / Abstract

Die Videokompression ist ein zentraler Bestandteil der heutigen, von Videoinhalten geprägten Multimedialandschaft. Ohne moderne Kompressionstechnologien wären die zur Videospeicherung und Videoübertragung benötigten Datenmengen um ein bis zwei Größenordnungen höher. Alltägliche Anwendungen wie videobasierte Online-Meetings, Fernsehen, Videostreaming und soziale Medien wären nicht realisierbar. Ein immer beliebter werdendes Format sind 360-Grad-Videos, die durch ihr Rundumsichtfeld ein noch nie dagewesenes Gefühl der Immersion ermöglichen. Dieses Rundumsichtfeld erfordert jedoch auch eine deutlich höhere Videoauflösung, um die gleiche visuelle Qualität wie bei herkömmlichen 2D-Videoformaten zu erreichen. Die damit einhergehende Datenmenge macht die effiziente Kompression von 360-Grad-Videos umso wichtiger. Um vorhandene Kompressionstechnologien für 360-Grad-Videos zu nutzen, werden die sphärischen Videodaten mit Hilfe geeigneter Projektionsformate auf planare Darstellungen projiziert. Dabei beschreibt das Projektionsformat die Abbildung zwischen Positionen im sphärischen Bereich und der projizierten Bildebene. Projektionsbasierte Ansätze nutzen diese Abbildung zur Formulierung optimierter Verfahren, die die besonderen Eigenschaften von 360-Grad-Videos einbeziehen.

Diese Arbeit untersucht, wie und in welchem Ausmaß projektionsbasierte Ansätze die Kompressionseffizienz aktueller Videocodecs verbessern können. Dabei wird sowohl die klassische hybride, als auch die neuartige lernbasierte Videokompression untersucht. Hybride Videocodecs bauen in erster Linie auf modellbasierten Signalverarbeitungstechniken auf, während lernbasierte Videocodecs auf datengestützte Ansätze zum Trainieren neuronaler Netze für die Videokompression setzen. Die vorgeschlagenen Methoden führen zu Rateneinsparungen von bis zu 3,00% für hybride Videocodecs, und mehr als 7,00% für lernbasierte Videocodecs, ohne dabei die Kompression klassischer 2D Videos zu beeinträchtigen.