Datenbestand vom 21. April 2021

Warenkorb Datenschutzhinweis Dissertationsdruck Dissertationsverlag Institutsreihen     Preisrechner

aktualisiert am 21. April 2021

ISBN 978-3-8439-4481-6

96,00 € inkl. MwSt, zzgl. Versand


978-3-8439-4481-6, Reihe Mathematik

Sophie Langer
Ein Beitrag zur statistischen Theorie des Deep Learnings

156 Seiten, Dissertation Technische Universität Darmstadt (2020), Hardcover, A5

Zusammenfassung / Abstract

Deep Learning verschafft dem Computer die Fähigkeit selbstständig zu lernen und revolutioniert derzeit die Weiterentwicklung der künstlichen Intelligenz. Hinter dem Begriff Deep Learning stehen tiefe neuronale Netze. Darauf basierende Anwendungen erfuhren in den letzten Jahren einen rapiden Fortschritt und erzielen heute in Bereichen wie Sprach- und Bilderkennung sowie dem autonomen Fahren beeindruckende Erfolge. Diese lassen sich bislang nur bedingt theoretisch nachweisen, sodass eine Forschungslücke zwischen Theorie und Praxis besteht.

Ziel der vorliegenden Arbeit ist es, einen Beitrag zu der aktuellen statistischen Theorie des Deep Learnings zu leisten. Einige Arbeiten beschäftigten sich bereits mit dem Einsatz von neuronalen Netzen als nichtparametrische Regressionsschätzer. Unter bestimmten kompositionellen Annahmen an die Regressionsfunktion konnten für diese Schätzer dimensionsfreie Konvergenzraten hergeleitet und so der Fluch der hohen Dimension umgangen werden. Die hierbei angenommene Topologie der verwendeten Netze wies stets eine unvollständige Verbundenheit der Neuronen in aufeinanderfolgenden Schichten auf. Eine Annahme, die bislang als essenziell für den Erfolg der Netze angesehen wurde. Die Ergebnisse der vorliegenden Arbeit stellen die Notwendigkeit dieser Annahme allerdings in Frage. Aufbauend auf einem neuen Approximationsresultat für vollverbundene neuronale Netze, werden für einen darauf basierenden Schätzer vergleichbare dimensionsfreie Konvergenzraten hergeleitet.

Des Weiteren werden neuronale Netze zur Schätzung von Regressionsfunktionen mit kleiner lokaler Dimension eingesetzt. Gezeigt wird, dass ein auf neuronalen Netzen basierender Schätzer für diese Funktionsklasse ebenfalls dimensionsfreie Konvergenzergebnisse erzielt. Grundlegend für den Beweis ist hierbei ein Resultat, das die Verbindung zwischen neuronalen Netzen und einem anderen statistischen Verfahren, den multivariaten adaptiven Regressionssplines, untersucht.