Solving regularized total least squares problems based on Eigenproblems
Authors
More about the book
Im ersten Teil der Arbeit wird grundlegendes Wissen zur Regularisierung von linearen Ausgleichsproblemen rekapituliert. Weiterhin wird eine bestehende Methode zum Lösen von Trust-Region Problemen erheblich verbessert. Im zweiten Teil wird zunächst die Theorie der totalen Ausgleichsprobleme (TLS) aufgearbeitet und es wird ein Überblick über mögliche Erweiterungen gegeben. Danach wird die Regularisierung von TLS Problemen durch Abschneiden der SVD und mit Hilfe von Krylov-Methoden erörtert. Einige Methoden zum Lösen des Tikhonov TLS Problems werden diskutiert. Der Schwerpunkt der Dissertation sind quadratisch restringierte TLS (RTLS) Probleme. Es werden zwei iterative Verfahren zur Lösung der Bedingungen 1. Ordnung tiefgehend analysiert. Das erste Verfahren führt auf eine Folge von quadratischen Problemen und das zweite auf eine Folge von linearen Eigenwertaufgaben. Für die RTLSQEP Methode, eine Fixpunkt-Iteration basierend auf quadratischen Eigenwertaufgaben, wurde globale Konvergenz gegen die RTLS Lösung gezeigt. Durch die Charakterisierung der größten reellen Eigenwerte der QEPs kann die Lösung durch ein generalisiertes Trust-Region Problem beschrieben werden. Das zweite Verfahren ist die RTLSEVP Methode. Um Konvergenz zu gewährleisten wird eine Hilfsfunktion g eingeführt. Diese Funktion wurde detailliert untersucht, was zu einem weiteren Zusammenhang führt: die RTLS Lösung kann auch als spezielles TLS Problem charakterisiert werden. Die Algorithmen RTLSQEP und RTLSEVP zum Lösen von RTLS Problemen sind sehr effizient wenn sie mit iterativen Projektionsverfahren in der inneren Schleife kombiniert werden. Da eine Folge von konvergierenden Eigenwertproblemen gelöst werden muss, spielt der Aspekt der Wiederverwendung bereits gesammelter Information eine wichtige Rolle. Hierbei ist der Nichtlineare Arnoldi Algorithmus die Methode der Wahl, sie ermöglicht das Recycling des aufgebauten Suchraumes innerhalb des ganzen iterativen Prozesses. Die Komplexität der entwickelten Algorithmen ist von der Ordnung von Matrix-Vektor Multiplikationen, also auch geeignet für sehr große Probleme. Es wird eine effizienten Implementierung von allen Teilen der Algorithmen beschrieben und an Beispielen demonstriert. Abschließend werden zwei Methoden zum Erstellen einer RTLS L-Kurve vorgestellt mit dessen Hilfe der Regularisierungsparameter bestimmt werden kann. Das Aufstellen der L-Kurve erfordert das Lösen einer Folge von RTLS Problemen. Dabei wird der Vorteil des Nichtlinearen Arnoldis noch deutlicher: Die Wiederverwendung des Suchraumes, nicht nur innerhalb eines RTLS Problems sondern während der ganzen Folge.