Please use this identifier to cite or link to this item: http://dx.doi.org/10.25673/101396
Title: A posteriori error estimation and adaptivity for model order reduction of large-scale systems
Author(s): Chellappa, Sridhar
Referee(s): Feng, Lihong
Benner, PeterLook up in the Integrated Authority File of the German National Library
Granting Institution: Otto-von-Guericke-Universität Magdeburg, Fakultät für Mathematik
Issue Date: 2022
Extent: xxvi, 201 Seiten
Type: HochschulschriftLook up in the Integrated Authority File of the German National Library
Type: PhDThesis
Exam Date: 2022
Language: English
URN: urn:nbn:de:gbv:ma9:1-1981185920-1033525
Subjects: Numerische Mathematik
Abstract: In this thesis, we study a posteriori error estimation and adaptivity with the goal of automatic model order reduction of large-scale systems. We propose efficient offline adaptive techniques that are aimed at (a) bringing down the significant offline cost often associated with generating reduced-order models and (b) minimizing the user interference in obtaining efficient reduced-order models. We consider adaptivity in two aspects: adaptive basis enrichment and adaptive training set sampling. The adaptive techniques we propose are enabled by efficient and sharp a posteriori error estimators. The error estimators not only guide the offline generation of reduced-order models, but also provide error certification for their online use. Starting with the class of parametric linear steady, time-harmonic, and dynamical systems, we introduce an inf-sup-constantfree error estimator targeted towards systems with small or vanishing inf-sup constant. This is especially true for many systems arising in electromagnetics. We incorporate the error estimator within a greedy algorithm to adaptively enrich the projection basis. We iteratively compute a data-driven surrogate model of the error estimator in order to enable the adaptive sampling of the training set. Following this, the adaptive techniques are then extended to the class of (parametric) nonlinear dynamical systems. We introduce an improved a posteriori error estimator for the output variable and employ it within a greedy algorithm to obtain a compact reduced-order model. Our improved error estimator is able to additively decompose the error contribution arising from the approximation of the state vector and the nonlinear vector via hyperreduction. Making use of this, we adaptively and simultaneously add/remove basis vectors to/from the two projection matrices. To address the curse of dimensionality often associated with parametric problems, we introduce two separate strategies to adaptively sample the training set. The first is a bottom-up sampling where a data-driven surrogate of the improved error estimator is utilised to iteratively add/remove parameter samples to/from a coarse training set. The second is a top-down approach in which we start from a fine training set and iteratively identify the most important samples to be retained. As a final contribution, the combined adaptive basis enrichment and adaptive training set sampling approach is extended to coupled systems. Throughout the thesis, we validate our theoretical results and algorithms by performing numerical experiments on several large-scale examples chosen to represent a wide range of applications.
In dieser Arbeit untersuchen wir a posteriori-Fehlerabschätzung und Adaptivität mit dem Ziel der automatisierten Modellordnungsreduktion von Systemen mit großer Zustandsraumdimension. Wir stellen effiziente offline-adaptive Verfahren vor, die darauf abzielen, (a) die beträchtlichen offline-Rechenkosten zu senken, die oft mit der Erzeugung von Modellen reduzierter Ordnung verbunden sind, und (b) den Einfluss des Benutzers bei der Generierung effizienter Modelle reduzierter Ordnung zu minimieren. Wir betrachten zwei Aspekte des Konzepts der Adaptivität genauer: die adaptive Basisanreicherung und die adaptive Auswahl der Trainingsmengen. Die von uns vorgeschlagenen adaptiven Verfahren werden durch effiziente und genaue a posteriori-Fehlerschätzer ermöglicht. Die Fehlerschätzer werden nicht nur für die offline-Generierung von Modellen reduzierter Ordnung benötigt, sondern liefern auch eine Fehlerzertifizierung für deren Nutzung in der online-Phase. Ausgehend von der Klasse parametrischer linearer, stetiger, zeitharmonischer und dynamischer Systeme führen wir einen inf-sup-Konstantenfreien Fehlerschätzer ein, der auf Systeme mit einer sehr kleinen oder verschwindenden inf-sup-Konstante ausgerichtet ist. Dies gilt insbesondere für viele Systeme aus der Elektromagnetik. Wir integrieren den Fehlerschätzer in einen Greedy-Algorithmus zur adaptiven Anreicherung der Projektionsbasis. Wir berechnen iterativ ein datengetriebenes Ersatzmodell des Fehlerschätzers, um die adaptive Auswahl der Trainingsmenge zu ermöglichen. Im Anschluss daran werden die adaptiven Verfahren auf die Klasse der (parametrischen) nichtlinearen, dynamischen Systeme erweitert. Wir führen einen verbesserten a posteriori-Fehlerschätzer für die Ausgangsvariable ein und verwenden ihn in einem Greedy-Algorithmus, um ein (kompaktes) Modell reduzierter Ordnung zu erhalten. Unser verbesserter Fehlerschätzer ist in der Lage die Beiträge, die sich aus der Approximation des Zustandsvektors und des nichtlinearen Vektors ergeben, mithilfe von Hyperreduktion additiv zu zerlegen. Auf dieser Grundlage fügen wir adaptiv und simultan Basisvektoren zu den beiden Projektionsmatrizen hinzu bzw. entfernen sie. Um den “Fluch der Dimensionalität” zu umgehen, der oft mit parametrischen Problemen verbunden ist, führen wir zwei separate Strategien zur adaptiven Auswahl der Trainingsmenge ein. Bei der ersten handelt es sich um ein Bottom-up-Sampling, bei dem eine datengesteuerte Approximation des verbesserten Fehlerschätzers verwendet wird, um iterativ Parameterproben zu einer groben Trainingsmenge hinzuzufügen oder daraus zu entfernen. Der zweite ist ein Top-Down-Sampling-Ansatz, bei dem wir von einer feinen Trainingsmenge ausgehen und iterativ die wichtigsten Proben identifizieren, die beibehalten werden sollen. Als letzter Beitrag wird der kombinierte Ansatz der adaptiven Basisanreicherung und der adaptiven Trainingsmengenauswahl auf gekoppelte Systeme erweitert. Während der gesamten Arbeit validieren wir unsere theoretischen Ergebnisse und Algorithmen durch numerische Experimente an mehreren groß angelegten Beispielen, die ein breites Spektrum von Anwendungen repräsentieren.
URI: https://opendata.uni-halle.de//handle/1981185920/103352
http://dx.doi.org/10.25673/101396
Open Access: Open access publication
License: (CC BY-SA 4.0) Creative Commons Attribution ShareAlike 4.0(CC BY-SA 4.0) Creative Commons Attribution ShareAlike 4.0
Appears in Collections:Fakultät für Mathematik

Files in This Item:
File Description SizeFormat 
Chellappa_Sridhar_Dissertation_2022.pdfDissertation3.96 MBAdobe PDFThumbnail
View/Open