Please use this identifier to cite or link to this item: http://dx.doi.org/10.25673/114034
Title: Data-driven system reduction and identification from input-output time-domain data with the Loewner framework
Author(s): Karachalios, Dimitrios S.
Referee(s): Gosea, Ion Victor
Benner, Peter
Granting Institution: Otto-von-Guericke-Universität Magdeburg, Fakultät für Mathematik
Issue Date: 2023
Extent: xxvi, 209 Seiten
Type: HochschulschriftLook up in the Integrated Authority File of the German National Library
Type: PhDThesis
Exam Date: 2023
Language: English
URN: urn:nbn:de:gbv:ma9:1-1981185920-1159906
Subjects: Angewandte Mathematik
Numerische Mathematik
Mathematische Statistik
Data-driven system
Loewner framework
Abstract: Consistent description of the physical world uses mathematics under the assumption of computability. The development of mathematics equipped the natural sciences with computational models capable of accurately describing each phenomenon at its scale of action while allowing the model’s generalization without losing consistency with the observed local behavior. Accuracy in this content may have different meanings. The central concept of accuracy concerns the difference observed between experiment and theory. The experiment constitutes nature’s response in which the answer may be subject to many different sources of disturbance (noise), inevitably leading to biases. Datadriven engineering science is the field that connects state-of-the-art theoretical methods with experimental results that guarantee reliable conclusions. Consequently, data-driven science aims to combine these two pillars (experiment and theory) consistently; in simple terms, the measurement must explain the theory and vice versa. The idea of mimicking the human brain architecture (neurons) to a finite computational machinery for learning, predicting, and decision-making sparked the concept of artificial intelligence through a model-free computational environment fed with data (finite data and memory). Usually, these developments are referred to as machine learning techniques and aim to integrate data-driven engineering science after solving the model discovery problem (recent ultimate goal). Due to computing power and memory development, generating, storing, and processing data has become more accessible. Thus, modern high-performance computer environments reintroduced the idea of machine learning by allowing access to learning processes in vast databases for today’s regimes. Consequently, with only a simple analysis, extracting difficult conclusions for decision-making has become possible and accurate (pattern recognition). Therefore, direct decision-making from data is advantageous but needs to mature enough to stand independently and replace data-driven engineering science when considering some guarantees on the outcome for safe predictions. It is a significantly different regime to decide on cinematic preferences or to understand an inaccurate translation relative to the precariousness that a plane can fly or a patient can breathe autonomously on mechanical ventilation. Failure in the above applications has an entirely different impact, and awareness should be raised. Having posed some of the fundamental problems that science faces in this modern technological environment, this thesis aims to combine the advantages of the above research directions and contribute to solutions for the robust modeling of engineering processes respecting the mathematical formalism of the known physical laws for imposing reliability The main research directions apply to identifying dynamical systems that describe evolutionary phenomena with a mathematical formulation and computationally the efficient model order reduction of the discovered models under a finite assumed precision (known a priori). By including methods to reduce the order of the model under-recognition (from measurements), we arrive at applicable computational models where that adequately predict the behavior of the actual physical model (usually partially unknown), offering the possibility for simulation, design, control, and forecasting in the context of a reliable digital twin. The main inspiration for this study comes from the assumption that, for experiments, every unbiased and undisturbed measurement is considered the absolute truth. We construct models using interpolation methods -"interpolating the truth"- such as the Loewner framework for identifying/inferring/building models based on these measurements as nature’s proper response under some observable process of a potentially hidden perfect model. In addition, when the correct mathematical formalism of the model under construction has also been assumed, or the method allows its integration into the generally accepted class (embedding in a specific non-linear class), we can discover the physical law governing the phenomenon. The main result is the production of data-driven surrogate dynamical models whose mathematical formalism has matured and can connect with further theoretical properties for efficient simulation, design, and control, offering robustness and verification for accurate extrapolation.
Die konsistente Beschreibung der physikalischen Welt mithilfe der Mathematik erfolgt unter Annahme der Berechenbarkeit. Die theoretische Weiterentwicklung der Mathematik stattete die Naturwissenschaften mit Rechenmodellen aus, die in der Lage sind, jedes Phänomen in seinem Wirkungsbereich präzise zu beschreiben und gleichzeitig eine Generalisierbarkeit des Modells zu ermöglichen, ohne die Übereinstimmung mit dem beobachteten lokalen Verhalten zu verlieren. Genauigkeit kann in diesem Zusammenhang verschiedene Bedeutungen haben. Der zentrale Begriff der Genauigkeit bezieht sich auf den Unterschied zwischen Experiment und Theorie. Das Experiment stellt die Reaktion der Natur dar, welche vielen verschiedenen Störgrößen (Rauschen) ausgesetzt sein kann, was unweigerlich zu Verzerrungen führt. Datengestützte Ingenieurwissenschaft verbindet modernste theoretische Methoden mit experimentellen Ergebnissen, die zuverlässige Schlussfolgerungen garantieren. Folglich zielt die datengesteuerte Wissenschaft darauf ab, diese beiden Säulen (Experiment und Theorie) kohärent miteinander zu verbinden; einfach ausgedrückt, die Messung muss die Theorie erklären und umgekehrt. Die Idee, die Architektur des menschlichen Gehirns (Neuronen) mit einer endlichen Rechenmaschine für das Lernen, die Vorhersage und die Entscheidungsfindung zu imitieren, hat das Konzept der künstlichen Intelligenz durch eine modellfreie Rechenumgebung (endliche Datenmenge und Speicher) hervorgebracht. In der Regel werden diese Entwicklungen als maschinelles Lernen bezeichnet und zielen darauf ab, die datengesteuerte Ingenieurwissenschaft nach der Lösung des Modellfindungsproblems zu integrieren (jüngstes Endziel). Dank des Fortschreitens von Rechenleistung und Speicherkapazität ist die Erzeugung, Speicherung und Verarbeitung von Daten leichter zugänglich geworden. So haben moderne Hochleistungsrechenumgebungen die Idee des maschinellen Lernens wieder eingeführt, indem sie den Zugang von Lernprozessen zu riesigen Datenbanken für die heutigen Systeme ermöglichen. Folglich ist es möglich geworden, mit einer einfachen Analyse komplizierte Schlussfolgerungen für die Entscheidungsfindung zu ziehen (Mustererkennung). Daher ist die direkte Entscheidungsfindung auf der Grundlage von Daten vorteilhaft, muss aber noch so weit ausreifen, dass sie unabhängig ist und die datengesteuerte Ingenieurwissenschaft unter der Berücksichtigung von Garantien für sichere Vorhersagen ersetzen kann. Es hat eine ganz andere Dimension, über filmische Vorlieben zu entscheiden oder eine ungenaue Übersetzung zu verstehen, als ein Flugzeug zu fliegen oder einen Patienten künstlich zu beatmen. Ein Bewusstsein sollte vorhanden sein, dass ein Versagen bei den genannten Anwendungen ganz andere Auswirkungen nach sich zieht. Nachdem einige der grundlegenden Probleme, die die Wissenschaft im modernen technologischen Umfeld konfrontieren, erwähnt wurden, zielt diese Doktorarbeit darauf ab, die Vorteile der oben genannten Forschungsrichtungen zu kombinieren und dazu beizutragen, Lösungen für die robuste Modellierung von technischen Prozessen unter Beachtung des mathematischen Formalismus der bekannten physikalischen Gesetze zum Zwecke der Zuverlässigkeit zu gewährleisten. Die Forschungsschwerpunkte beziehen sich auf die Identifizierung dynamischer Systeme, welche evolutionäre Phänomene mit einer mathematischen Formulierung beschreiben sowie auf die rechnentechnisch effiziente Reduzierung der Modellordnung entdeckter Modelle unter einer endlichen angenommenen Genauigkeit (a priori bekannt). Durch die Einbeziehung von Methoden zur Verringerung der Ordnung des (aus Messungen) nicht erkannten Modells gelangen wir zu anwendbaren Rechenmodellen, die das Verhalten des tatsächlichen (in der Regel teilweise unbekannten) physikalischen Modells adäquat vorhersagen und damit die Möglichkeit zur Simulation, zum Entwurf, zur Steuerung und zur Vorhersage im Rahmen eines zuverlässigen digitalen Zwillings bieten. Die Hauptinspiration für diese Studie geht von der Annahme aus, dass bei Experimenten jede unvoreingenommene und ungestörte Messung als absolute Wahrheit angesehen wird. Wir konstruieren Modelle mit Hilfe von Interpolationsmethoden - "Interpolation der Wahrheit" - wie z. B. dem Loewner-Rahmenwerk, um auf der Grundlage dieser Messungen die richtige Reaktion der Natur auf einen beobachtbaren Prozess eines potenziell verborgenen perfekten Modells zu ermitteln/zu bestimmen/zu konstruieren. Wenn außerdem der korrekte mathematische Formalismus des zu konstruierenden Modells angenommen wurde oder die Methode seine Integration in die allgemein akzeptierte Klasse (Einbettung in eine spezifische nichtlineare Klasse) ermöglicht, können wir das physikalische Gesetz entdecken, das das Phänomen erklärt. Das Hauptergebnis ist die Erstellung von datengesteuerten dynamischen Ersatzmodellen, deren mathematischer Formalismus ausgereift ist und mit weiteren theoretischen Eigenschaften für eine effiziente Simulation, Konstruktion und Steuerung verbunden werden kann, wobei Robustheit und Verifizierung für eine genaue Extrapolation geboten werden.
URI: https://opendata.uni-halle.de//handle/1981185920/115990
http://dx.doi.org/10.25673/114034
Open Access: Open access publication
License: (CC BY-SA 4.0) Creative Commons Attribution ShareAlike 4.0(CC BY-SA 4.0) Creative Commons Attribution ShareAlike 4.0
Appears in Collections:Fakultät für Mathematik

Files in This Item:
File Description SizeFormat 
Karachalios_Dimitrios S._Dissertation_2023.pdfDissertation12.72 MBAdobe PDFThumbnail
View/Open