<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <title>DSpace Collection:</title>
  <link rel="alternate" href="https://opendata.uni-halle.de//handle/541532/3153" />
  <subtitle />
  <id>https://opendata.uni-halle.de//handle/541532/3153</id>
  <updated>2026-05-03T07:23:55Z</updated>
  <dc:date>2026-05-03T07:23:55Z</dc:date>
  <entry>
    <title>Datendurchgängigkeit im Engineering von Produktionssystemen und ihre Risiken</title>
    <link rel="alternate" href="https://opendata.uni-halle.de//handle/1981185920/125171" />
    <author>
      <name>Hassan, Kardo</name>
    </author>
    <id>https://opendata.uni-halle.de//handle/1981185920/125171</id>
    <updated>2026-04-30T01:05:24Z</updated>
    <published>2026-01-01T00:00:00Z</published>
    <summary type="text">Title: Datendurchgängigkeit im Engineering von Produktionssystemen und ihre Risiken
Author(s): Hassan, Kardo
Abstract: Eine heterogene IT-Landschaft sowie eine Intransparenz der Datenlage kann neben einer hohen technischen Komplexität auch zu einem Mehraufwand bei der Datenbereitstellung und zu erhöhten Kosten führen. Diese, durch einen Mehraufwand entstehenden Kosten, auch technische Schuld genannt, müssen reduziert bzw. eliminiert werden. Um datengetriebene Entscheidungen treffen zu können und somit die Risiken zu minimieren, ist es entscheidend eine Transparenz in Bezug auf die Prozesse zu schaffen. Datengetrieben agieren zu können und somit Entscheidungen zu treffen, bietet unter anderem den Vorteil einer, vorher benötigten und erzielten, höheren Datenqualität. Damit werden zukunftsbezogene Prognosen ermöglicht. Datendurchgängigkeit spielt hierbei eine essenzielle Rolle. Eine einheitliche Definition für den Begriff der Datendurchgängigkeit ist jedoch nicht vorhanden. Auch die dahinterliegenden Risken, sofern eine Datendurchgängigkeit nicht erreicht wird, sind aufgrund der fehlenden Definition entweder nicht bekannt oder können nicht berücksichtigt werden. Das Ziel dieser wissenschaftlichen Arbeit besteht somit darin, eine Methodik zu erarbeiten, die eine Bewertung hinsichtlich der aktuell bestehenden Lösungsansätze, die das Datendurchgängigkeitsproblem adressieren, bietet. Hierfür wird, neben einer kontextuellen Definition, für die Begriffe Datendurchgängigkeit und Risiko auch eine Möglichkeit erarbeitet, Daten- und Informationsflüsse in einem Prozess mittels Wertstromanalyse abzubilden. Die Wertstromanalyse dient nicht nur einer einfachen Prozessdarstellung, sie dient zusätzlich als Vorlage für Entscheidungsträger. Für die Definitionen wird sowohl eine Literaturrecherche als auch Experteninterviews wie auch eine Umfrage durchgeführt. Des Weiteren wird eine Risikobeurteilung für die Lösungsansätze zur Entscheidungsfindung umgesetzt. Außerdem findet ein Vergleich der gewählten Lösungsansätze sowie eine kritische Würdigung der Methodik statt.; A heterogeneous IT landscape and a lack of transparency in the data situation can lead not only to a high level of technical complexity but also to additional work in data provision and increased costs. These additional costs, also known as technical debt, must be reduced or eliminated. In order to make data-driven decisions and thus minimise the risks, it is crucial to create transparency with regard to the processes. Being able to act in a data-driven manner and thus make decisions offers the advantage of, among other things, higher data quality that was previously required and achieved. This enables future-oriented forecasts. Data consistency plays an essential role here. However, there is no standardised definition for the term data consistency. The underlying risks if data consistency is not achieved are also either unknown or cannot be taken into account due to the lack of a definition. The aim of this scientific work is therefore to develop a methodology that offers an evaluation of the currently existing solution approaches that address the data consistency problem. For this purpose, in addition to a contextual definition for the terms data consistency and risk, a possibility is also developed to map data and information flows in a process using value stream analysis. The value stream analysis serves both as a simple process visualisation and as a template for decision-makers. For the definitions, literature research as well as expert interviews and a survey are carried out. Furthermore, a risk assessment for the solution approaches is implemented for decision-making. A comparison of the selected solution approaches and a critical appraisal of the methodology are also carried out.</summary>
    <dc:date>2026-01-01T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>Charakterisierung von Materialfehlern in einer Nickelbasislegierung mittels Analyse multivariater Wirbelstromdaten</title>
    <link rel="alternate" href="https://opendata.uni-halle.de//handle/1981185920/124955" />
    <author>
      <name>Siekmann, Malte Felix Jonathan</name>
    </author>
    <id>https://opendata.uni-halle.de//handle/1981185920/124955</id>
    <updated>2026-04-16T20:00:36Z</updated>
    <published>2025-01-01T00:00:00Z</published>
    <summary type="text">Title: Charakterisierung von Materialfehlern in einer Nickelbasislegierung mittels Analyse multivariater Wirbelstromdaten
Author(s): Siekmann, Malte Felix Jonathan
Abstract: Eddy Current (EC) Testing, as non-destructive method for validation of technical products, is widely used due to its advantages in terms of speed and contactless testing. It gathers its importance provided by the possibility of in-line implementation and online testing. Mostly, the reason for its implementation in production lines might be quality-driven as it can be seen in the detection of surface-open as well as subsurface defects. Limits in the differentiation of small material defects are set by the quality of the EC-signal itself. Addition of noise as well as any influence by convolution of the sensor’s aperture function lead to indistinct signals or blurred C-Scans.&#xD;
The present thesis focusses on the detection of casting imperfections in turbine wheels out of Inconel alloy for heavy duty trucks. Fundamental studies show the capability to detect imperfections up to a minimum size of 0.5 mm and 0.3 mmof ligament. Furthermore the presented work focuses on the deconvolution of EC-Signals and the characterization of defects. The methodology applied is the Richardson Lucy algorithm for image deconvolution which allows an improved separation of small defects. Inclusions can be detected by use of an absolute eddy current probe. For porosity there is need to switch to differential probes.; Nickelbasislegierungen kommen in zahlreichen Antriebskomponenten zum Einsatz. Aufgrund ihrer herausragenden mechanischen Kennwerte eignen sie sich für den Einsatz in Turbinenrädern von Abgasturboladern in Nutzkraftwagen. Turbinenräder werden im Feingussverfahren produziert und müssen vor ihrer Verwendung auf ihre Einsatzfähigkeit hin geprüft werden. Bereits kleinste prozessbedingte Gussfehler können zum Ausfall der Komponente im Betrieb führen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines zerstörungsfreien Prüfverfahrens für die Detektion und Unterscheidung dieser Materialfehler in Turbinenrädern aus Nickelbasislegierung. Dazu wird das Wirbelstromprüfverfahren angewandt. Anhand von Grundlagenuntersuchungen an einfachen Referenzkörpern werden sowohl die Prüfparameter aber auch signifikante Randbedingungen und die auszuwertenden Zielgrößen ermittelt. Zum Nachweis kleiner Materialfehler hat sich neben der Phasenverschiebung auch die Auswertung des Wirbelstromsignals vom Abgleichpunkt bis zur Signalschleifenspitze bewährt. Es kann eine sichere Detektion von Fehlern mit einer Größe von 0,5 mm bei einem Ligament von 0,3 mm ausgewiesen werden. Weiterhin wird untersucht inwieweit sich Materialfehlertypen voneinander unterscheiden lassen. Die Merkmalserkennung unterschiedlicher Gussfehler hängt dabei wesentlich von der Apertur des verwendeten Sensors ab. Ein Fokus dieser Arbeit liegt dabei auf der bildgebenden Wirbelstromprüfung. Durch die Anwendung eines Entfaltungsalgorithmus nach Richardson-Lucy kann eine verbesserte Trennbarkeit der Fehler untereinander erzielt werden. Ebenfalls zeigt sich, dass die verwendete Absolutsonde zur Detektion von Einschlüssen geeignet ist, jedoch bei der Auffindung von großflächiger Erstarrungsporosität an Grenzen stößt. Diese Fehler lassen sich hingegen über ein Differenzspulensystem auffinden.</summary>
    <dc:date>2025-01-01T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>Modeling the inelastic behavior of high-temperature steels exerted to variable loading conditions</title>
    <link rel="alternate" href="https://opendata.uni-halle.de//handle/1981185920/123657" />
    <author>
      <name>Knape, Katharina</name>
    </author>
    <id>https://opendata.uni-halle.de//handle/1981185920/123657</id>
    <updated>2026-02-02T06:29:21Z</updated>
    <published>2025-01-01T00:00:00Z</published>
    <summary type="text">Title: Modeling the inelastic behavior of high-temperature steels exerted to variable loading conditions
Author(s): Knape, Katharina
Abstract: Tempered martensitic steels are widely applied in power plant components operating at high temperatures, reaching up to 650°C. These components experience not only creep deformation due to mechanical loads at elevated temperatures but also endure cyclic loading as a result of highly frequent start-up and shut-down operations. Because of their robust mechanical and thermal properties, tempered martensitic steels are able to withstand such demanding service conditions. However, these steels are prone to softening under both constant creep and cyclic loads. During the past years, a main focus of this research field was to model the inelastic material behavior of these steels at elevated temperatures. For the alloys X20CrMoV12-1 and X12CrMoWVNbN10-1-1, the phase mixture rule was employed to derive the constitutive equations including an evolution equation for the inelastic strain, the backstress and the softening variable. The material models were calibrated through numerous experiments in order to be able to depict the material’s response realistically.&#xD;
However, conventional implementations suffer from high computational costs due to the extremely small time steps required for cycle-by-cycle simulations. To overcome this, the present work introduces a two-time-scale multiscaling approach, which reduces computation time by approximately 80% while preserving accuracy, as validated against experimental data and finite element simulations. Therefore, a fast or micro time scale as well as a slow, so-called macro time scale are defined allowing for a decomposition and decoupling of the problem. The approach is based on the asymptotic series expansion of the constitutive equations with respect to a scaling parameter representing the ratio of the two scales. The implementation of the approach requires the periodicity of the loading condition which is met by the low cyle and real-life thermo-mechanical fatigue profiles power plant components are subjected to.&#xD;
Within this work, the explicit ADAMS-BASHFORTH as well as the EULER FORWARD method serves for the implementation of the governing equations in a python code where the two-time-scale approach is then applied. The time averaging is done by the trapezoidal rule in order to be able to evaluate the functions for a defined finite integral. The results of the multiscaling procedure are compared to and validated with results from the finite element software ABAQUS together with experimental data. Furthermore, the influence of different scaling parameters as well as time step sizes for the macro scale are examined.&#xD;
In the final part, the same numerical technique is applied to calculate a material parameter from the long time response. Therefore, the evolution equation for the softening behavior is adapted in order to improve the simulation results especially in the range of N = 10² − 10⁶ cycles since the decrease of the maximum and minimum values is not well captured by the existing model. The experimental data with respect to a large number of cycles is fitted and inserted into the python code. The simulation is carried out with one unknown exponent so that the optimal value can be found to predict the material’s response more realistically.&#xD;
This work represents a validated implementation of a two-time-scale multiscaling strategy for high-temperature martensitic steels, setting it apart from conventional simulation approaches especially with respect to the calculation times. In future applications, these results could serve as a foundation for estimating cyclic fatigue damage, enabling accurate predictions of the operational lifetime of power plant components.; Martensitische Stähle werden häufig in Kraftwerkskomponenten eingesetzt, die bei hohen Temperaturen bis zu 650°C betrieben werden. Diese Komponenten erfahren nicht nur Kriechverformungen aufgrund mechanischer Lasten bei erhöhten Temperaturen, sondern sind auch zyklischen Belastungen ausgesetzt, die durch häufige Hoch- und Herunterfahrvorgänge entstehen. Dank ihrer robusten mechanischen und thermischen Eigenschaften sind wärmebehandelte martensitische Stähle in der Lage, solchen anspruchsvollen Betriebsbedingungen standzuhalten. Allerdings neigen diese Stähle unter Kriechbeanspruchung und zyklischen Lasten zur Entfestigung. In den letzten Jahren konzentrierte sich die Forschung auf die Modellierung des inelastischen Materialverhaltens dieser Stähle bei erhöhten Temperaturen. Für die Legierungen X20CrMoV12-1 und X12CrMoWVNbN10-1-1 wurde die Phasenmischungsregel verwendet, um die konstitutiven Gleichungen einschließlich einer Evolutionsgleichung für die inelastische Verformung, die Rückspannung und die Entfestigungsvariable abzuleiten. Die Materialmodelle wurden durch zahlreiche Experimente kalibriert, um das Materialverhalten realitätsnah abbilden zu können.&#xD;
Konventionelle Implementierungen leiden jedoch unter hohen Rechenkosten, da für die Zyklus-für-Zyklus-Simulationen extrem kleine Zeitschritte erforderlich sind. Zur Lösung dieses Problems wird in der vorliegenden Arbeit ein Zwei-Zeitskalen-Ansatz vorgestellt, der die Rechenzeit um etwa 80% reduziert und gleichzeitig eine hohe Genauigkeit bewahrt, wie durch experimentelle Daten und Finite-Elemente-Simulationen validiert wurde. Hierfür werden eine schnelle oder Mikrozeitskala sowie eine langsame, sogenannte Makrozeitskala definiert, die eine Zerlegung und Entkopplung des Problems ermöglichen. Der Ansatz basiert auf der asymptotischen Reihenentwicklung der konstitutiven Gleichungen in Bezug auf einen Skalierungsparameter, der das Verhältnis der beiden Skalen darstellt. Die Implementierung des Ansatzes beruht auf der Periodizitätsbedingung des Lastprofils, die durch das Langzeitdehnverhalten und das thermomechanische Belastungskollektiv von Kraftwerkskomponenten erfüllt wird.&#xD;
Im Rahmen dieser Arbeit dient das explizite ADAMS-BASHFORTH- sowie das explizite EULER-Verfahren zur Implementierung der grundlegenden Gleichungen in einem Python-Code, auf den dann der Zwei-Zeitskalen-Ansatz angewendet wird. Die Homogenisierung erfolgt nach der Trapezregel, um die Funktionen für ein definiertes Integral auswerten zu können. Die Ergebnisse des Multiskalierungsverfahrens werden mit Ergebnissen aus der Finite-Elemente-Software ABAQUS sowie mit experimentellen Daten verglichen und validiert. Zudem wird der Einfluss verschiedener Skalierungsparameter sowie Zeitschrittgrößen für die Makroskala untersucht.&#xD;
Im letzten Teil wird die gleiche numerische Technik verwendet, um einen Materialparameter aus dem Langzeitverhalten zu berechnen. Hierfür wird die Evolutionsgleichung für das Entfestigungsverhalten angepasst, um die Simulationsergebnisse insbesondere im Bereich von N = 10² − 10⁶ Zyklen zu verbessern, da die Abnahme des Maximal- und Minimalwerts pro Zyklus im bestehenden Modell nicht ausreichend erfasst bzw. abgebildet wird. Die experimentellen Daten bezüglich einer großen Anzahl von Zyklen werden in den Python-Code eingefügt, um die Simulation mit einem unbekannten Exponenten durchzuführen, sodass dessen Wert bestimmt werden kann, um die Materialantwort realistischer vorherzusagen.&#xD;
Die Arbeit stellt die validierte Anwendung eines Zwei-Zeitskalen-Ansatzes für hochtemperaturbeständige martensitische Stähle dar und hebt sich damit vor allem in Hinblick auf die Rechenzeiten von bisherigen Simulationsmethoden ab. In zukünftigen Anwendungen könnten diese Ergebnisse als Grundlage zur Abschätzung von zyklischen Ermüdungsschäden dienen und damit eine präzisere Vorhersage der Lebensdauer von Kraftwerkskomponenten ermöglichen.</summary>
    <dc:date>2025-01-01T00:00:00Z</dc:date>
  </entry>
  <entry>
    <title>Multi-agent reinforcement learning for deadlock handling among autonomous mobile robots</title>
    <link rel="alternate" href="https://opendata.uni-halle.de//handle/1981185920/123455" />
    <author>
      <name>Müller, Marcel</name>
    </author>
    <id>https://opendata.uni-halle.de//handle/1981185920/123455</id>
    <updated>2026-02-02T06:19:50Z</updated>
    <published>2025-01-01T00:00:00Z</published>
    <summary type="text">Title: Multi-agent reinforcement learning for deadlock handling among autonomous mobile robots
Author(s): Müller, Marcel
Abstract: This dissertation explores the application of multi-agent reinforcement learning (MARL) for handling deadlocks in intralogistics systems that rely on autonomous mobile robots (AMRs). AMRs enhance operational flexibility but also increase the risk of deadlocks. Existing approaches often neglect deadlock handling in the planning phase and rely on rigid control rules that cannot adapt to dynamic operational conditions.&#xD;
To address these shortcomings, this work develops a methodology for integrating MARL into logistics planning. It introduces reference models that explicitly consider deadlocks in multi-agent pathfinding (MAPF) problems. The thesis compares traditional deadlock handling strategies with MARL-based solutions, focusing on PPO and IMPALA under different training and execution modes.&#xD;
Findings reveal that MARL-based strategies, particularly when combined with centralized training and decentralized execution (CTDE), outperform rule-based methods in complex, congested environments.; Diese Dissertation untersucht die Anwendung von Multi-Agenten-Reinforcement-Learning (MARL) zur Behandlung von Deadlocks in Intralogistiksystemen, die auf autonomen mobilen Robotern (AMRs) basieren. AMRs erhöhen die operative Flexibilität, steigern jedoch gleichzeitig das Risiko von Deadlocks. Bestehende Ansätze vernachlässigen häufig die Deadlock-Behandlung in der Planungsphase und stützen sich auf starre Steuerungsregeln, die sich nicht an dynamische Betriebsbedingungen anpassen können.&#xD;
Zur Behebung dieser Schwächen wird in dieser Arbeit eine Methodik zur Integration von MARL in die Logistikplanung entwickelt. Sie führt Referenzmodelle ein, die Deadlocks in Multi-Agenten-Pfadfindungsproblemen (MAPF) explizit berücksichtigen. Die Dissertation vergleicht traditionelle Strategien zur Deadlock-Behandlung mit MARL-basierten Lösungen und konzentriert sich dabei auf PPO und IMPALA unter verschiedenen Trainings- und Ausführungsmodi.</summary>
    <dc:date>2025-01-01T00:00:00Z</dc:date>
  </entry>
</feed>

