<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns="http://purl.org/rss/1.0/" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel rdf:about="https://opendata.uni-halle.de//handle/541532/3150">
    <title>DSpace Collection:</title>
    <link>https://opendata.uni-halle.de//handle/541532/3150</link>
    <description />
    <items>
      <rdf:Seq>
        <rdf:li rdf:resource="https://opendata.uni-halle.de//handle/1981185920/124515" />
        <rdf:li rdf:resource="https://opendata.uni-halle.de//handle/1981185920/124150" />
        <rdf:li rdf:resource="https://opendata.uni-halle.de//handle/1981185920/123658" />
        <rdf:li rdf:resource="https://opendata.uni-halle.de//handle/1981185920/123431" />
      </rdf:Seq>
    </items>
    <dc:date>2026-04-04T09:56:49Z</dc:date>
  </channel>
  <item rdf:about="https://opendata.uni-halle.de//handle/1981185920/124515">
    <title>Peripheral biochemical changes in major depressive disorder using breathomics analysis : new insights into molecular psychiatry</title>
    <link>https://opendata.uni-halle.de//handle/1981185920/124515</link>
    <description>Title: Peripheral biochemical changes in major depressive disorder using breathomics analysis : new insights into molecular psychiatry
Author(s): Gbaoui, Laila
Abstract: Major depressive disorder (MDD) is one of the most prevalent and disabling psychiatric illnesses worldwide, contributing significantly to the global burden of disease. Despite extensive research, no single biological mechanism fully explains its heterogeneity. Moreover, the clinical management of MDD remains challenging due to limited therapeutic success, imprecise subjective diagnostic criteria, and an incomplete understanding of the underlying molecular pathology. &#xD;
The metabolome represents the integrated output of complex interactions among the genome, transcriptome, proteome, microbiome, and environmental exposome. From this system-level perspective, we hypothesized that breath-based metabolomics, or breathomics, could non-invasively capture distinct, multi-parametric metabolic signatures associated with the heterogeneous pathophysiology of MDD. The primary aim of this study was to investigate the potential and limitations of the breath gas analysis in identifying known alterations in metabolic pathways implicated in MDD and to support the development of an objective, non-invasive, systems-level molecular diagnostic test, thereby contributing to the advancement of precision psychiatry. Particular attention was paid to post-awakening metabolite dynamics, given the critical role of this time window in activating stress-responsive biological systems such as hypothalamic–pituitary–adrenal axis. &#xD;
A total of 153 breath samples were collected at awakening, 30- and 60-minutes post awakening from 26 patients with MDD and 25 HCs. Exhaled volatile organic compounds (VOCs) were profiled using the proton transfer reaction mass spectrometry (PTR-MS). Candidate metabolites were initially preselected using the Wilcoxon tests and Student’s t-tests. Metabolomic pathway analysis and hierarchical clustering analysis (HCA) were then performed to group significant VOCs according to shared temporal dynamics and biological functions. Neighborhood component analysis was applied to rank VOCs according to their importance in classifying MDD and HCs. Forward feature selection was used as an iterative procedure to build multivariable predictive models and identify potential breathprint combinations. Four machine learning models: support vector machine (SVM), kernel SVM (K-SVM), Naïve Bayes (NB), and logistic regression (LR), were employed to evaluate the classification performance of individual VOCs and breathprints. Model accuracy was validated through Bootstrapped receiver operating characteristics (ROC) analysis. &#xD;
In total, 26 exhaled VOCs were significantly altered in MDD patients compared to HCs. These VOCs were enriched in five key metabolic pathways, including valine, leucine and isoleucine leucine biosynthesis (p = 5.50 10-4), pyruvate metabolism (p = 7.97 10-4), glycolysis and gluconeogenesis (p = 0.0015), nicotinate and nicotinamide metabolism (p = 0.005) and valine, leucine and isoleucine degradation (p = 0.005). HCA revealed distinct VOC clusters based on their biological functions, reflecting the interaction between host metabolome, exposome, and microbiome. Notably, VOCs of microbial origin exhibited the most pronounced alterations through various fermentation and metabolic pathways. Moreover, the combination of methylpyridine, isoprene, butylamine at their most significant awakening response times represents the most promising 3-variable breathprint across all models (AUC &gt; 0.85, Sensitivity &gt; 0.80, Specificity &gt; 0.85). The addition of trimethylamine further improved model performance, while expanding to five-marker signatures by incorporating propionic acid or benzene further enhanced specificity, supporting their utility for phenotype-specific diagnostics. Furthermore, substituting components of the core breathprint VOCs with similar biological functions yielded comparable high diagnostic performance, suggesting metabolic redundancy, and offering flexibility in breathprint design. &#xD;
This study provides proof-of-concept that breathomics offers novel insights into the peripheral biochemical alterations associated with MDD, and holds strong potential for developing robust, non-invasive molecular breath signatures capable of distinguishing MDD from HCs with clinically meaningful accuracy. By capturing the multifaceted metabolic alterations underlying MDD and reflecting the complex interactions between host metabolome, gut microbiome and exposome, breathomics supports systems-level diagnostics and aligns with the goals of precision medicine in psychiatry. Notably, the identified breath biomarkers and associated pathways demonstrated strong concordance with findings from previous metabolomics studies using other biomatrices, further reinforcing their biological validity and translational relevance.; Die Major Depression (MD) zählt zu den weltweit häufigsten und belastendsten psychiatrischen Erkrankungen und trägt maßgeblich zur globalen Krankheitslast bei. Trotz intensiver Forschung konnte bisher kein einzelner biologischer Mechanismus vollständig die Heterogenität der Erkrankung erklären. Die klinische Versorgung von Patienten mit MD bleibt zudem eine Herausforderung – bedingt durch den begrenzten therapeutischen Erfolg, subjektive und unscharfe Diagnostikkriterien sowie ein unvollständiges Verständnis der zugrunde liegenden molekularen Pathophysiologie. &#xD;
Das Metabolom stellt das integrierte Endprodukt komplexer Wechselwirkungen zwischen Genom, Transkriptom, Proteom, Mikrobiom und Umwelt (Exposom) dar. Aus dieser systemischen Perspektive heraus wurde die Studienhypothese aufgestellt, dass die atembasierte Metabolomik („Breathomics“) in der Lage ist, nicht-invasiv spezifische, multiparametrische metabolische Signaturen zu erfassen, die mit der heterogenen Pathophysiologie der MD assoziiert sind. Ziel dieser Studie war es, das Potenzial und die Grenzen der Atemgasanalyse bei der Identifikation bekannter metabolischer Veränderungen bei MD zu untersuchen – mit dem langfristigen Ziel, einen objektiven, nicht-invasiven, molekularbasierten Atemtest zur Diagnose von MD zu entwickeln und damit zur Weiterentwicklung einer personalisierten, präzisionsmedizinischen Psychiatrie beizutragen. Ein besonderer Fokus lag auf der Analyse der zeitlichen Dynamik flüchtiger Metaboliten im Zeitraum vom Aufwachen bis 60 Minuten danach, da diese Phase als kritisch für die Aktivierung stressreaktiver biologischer Systeme wie der Hypothalamus-Hypophysen-Nebennierenrinden-Achse (HPA-Axis) gilt. &#xD;
Insgesamt wurden 153 Atemproben zu drei Zeitpunkten (Aufwachen, 30 und 60 Minuten danach) von 26 Patienten mit MD und 25 gesunden Kontrollpersonen erhoben. Die Analyse flüchtiger organischer Verbindungen (FOVs, engl. VOCs – volatile organic compounds) erfolgte mittels Protonen Transfer Reaktions-Massenspektrometrie (PTR-MS). Die Identifikation statistisch signifikanter VOCs erfolgte mittels Wilcoxon-Tests und Student t-Tests. Eine hierarchische Clusteranalyse (HCA) und eine Metabolom-Pfadweganalyse dienten der funktionellen Gruppierung signifikanter VOCs nach zeitlicher Dynamik und biologischer Relevanz. Zur Bewertung der diagnostischen Aussagekraft einzelner VOCs wurde eine Merkmalsgewichtung mittels Nachbarschaftskomponentenanalyse (NKA) durchgeführt. Die schrittweise Merkmalsauswahl (Forward feature Selection) diente zur Identifikation optimaler VOC-Kombinationen („Breathprints“). Vier maschinelle Lernverfahren kamen zum Einsatz: Support-Vektor-Maschine (SVM), Kernel-SVM (nichtlinear), Naive-Bayes-Klassifikator (NB) und logistische Regression (LR). Die Modellgüte wurde mithilfe von bootstrapping-basierten ROC-Kurvenanalysen evaluiert. &#xD;
Insgesamt wurden 26 VOCs identifiziert, die bei MD-Patienten signifikant verändert waren. Diese Metaboliten waren angereichert in fünf biologischen Pfadwegen: Valin-, Leucin- und Isoleucin-Biosynthese (p = 5,50 × 10⁻⁴), Pyruvatstoffwechsel (p = 7,97 × 10⁻⁴), Glykolyse und Glukoneogenese (p = 0,0015), Nikotinat- und Nikotinamidstoffwechsel (p = 0,005) sowie Abbau von Valin, Leucin und Isoleucin (p = 0,005). Die HCA zeigte funktionell unterschiedliche Cluster, die das Zusammenspiel von Wirtsmetabolom, Mikrobiom und Umwelt-Exposom widerspiegelten. Besonders VOCs mikrobiellen Ursprungs zeigten deutliche Veränderungen. Eine Kombination aus Methylpyridin, Isopren und Butylamin – jeweils zu ihrem diagnostisch optimalen Messzeitpunkt – erwies sich als leistungsfähiges 3-Marker-Breathprint mit hoher diagnostischer Genauigkeit (AUC &gt; 0,85, Sensitivität &gt; 0,80, Spezifität &gt; 0,85). Die Hinzunahme von Trimethylamin verbesserte die Modellleistung leicht; eine Erweiterung auf fünf Marker durch Propionsäure oder Benzol erhöhte die Spezifität weiter und ermöglichte eine differenziertere Phänotypisierung von MD. Der Austausch von VOCs im Haupt-Breathprint durch funktionell ähnliche Verbindungen führte zu vergleichbarer Klassifikationsgenauigkeit – was auf metabolische Redundanz hinweist und die Flexibilität bei der Gestaltung diagnostischer Tests erhöht. &#xD;
Diese Studie liefert einen Machbarkeitsnachweis dafür, dass Breathomics neue Einblicke in periphere biochemische Veränderungen bei MD ermöglicht und das Potenzial für die Entwicklung robuster, nicht-invasiver molekularer Atemsignaturen mit klinisch relevanter diagnostischer Genauigkeit bietet. Durch die Erfassung vielschichtiger metabolischer Veränderungen und die Berücksichtigung von Wirt-Mikrobiom-Exposom-Interaktionen leistet Breathomics einen Beitrag zur systemmedizinischen Diagnostik und fördert die Ziele der Präzisionspsychiatrie. Die identifizierten VOCs und deren zugehörige Stoffwechselwege stimmen mit Ergebnissen früherer Metabolomik-Studien aus anderen biologischen Matrices überein und bestätigen ihre biologische Relevanz und ihr translationales Potenzial.</description>
    <dc:date>2026-01-01T00:00:00Z</dc:date>
  </item>
  <item rdf:about="https://opendata.uni-halle.de//handle/1981185920/124150">
    <title>Empathy for the user : towards true peerlike assistance systems</title>
    <link>https://opendata.uni-halle.de//handle/1981185920/124150</link>
    <description>Title: Empathy for the user : towards true peerlike assistance systems
Author(s): Weißkirchen, Norman
Abstract: One of the most prevalent signs of integrated human-machine living is the wide array of available personal computer devices and their use as assistance systems. Over time this developed from fairly limited virtual notepads to smart-home integrated control and coordination tools adapted for their individual users. While this development increased both the value of the provided assistance, as well as the ease of accessibility for the individual user, with their specific needs and idiosyncrasies, it also developed towards specific limits hindering potential future developments and possible improvements. Given the current designs, the main area of research is concentrated on the optimization of human-machine interaction through easier and more robust voice control schemes to the detriment of true systematic improvements.&#xD;
The original idea behind assistive technology ranges from the currently employed human-machine interfaces to much more integrated systems, which can be described as technical assistants, companions or even peers. All these expressions are intended to describe continuously closer approximations to human-like capabilities and responsibilities. The overarching topic of this thesis is an exploration of the different aspects of such an advanced assistive system, specifically how it connects with my research and how potential further research might be necessary for the fulfilment of this goal of a human-like technical assistant system.&#xD;
The structural organisation of this thesis follows a potential information processing pipeline, as it could be used in such an assistance system, where the external inputs need to be extracted, categorised and interpreted depending on the current situation for a system to provide the necessary and adequate reactions, as required by the user. An important aspect of this will be the change from a purely user controlled reactive system, as usual nowadays, into a more independently deciding and acting system which is approximating human decision processes.&#xD;
The different areas of my research in relation to this pipeline are as follows:&#xD;
The first area is the external feature layer. While this includes the whole technical aspect of interfacing the real world environment with the following technical system, in conjunction with my research it primarily contains examinations of the feature extraction and optimisation process. This is necessary, as a reasonably extensive and advanced system would work on a wide variety of information and input signals, leading to a fast approaching overload of most available personal computer systems. A sensible pre-processing step can reduce the computational load and improve the results of the following calculations.&#xD;
The second layer described is the categorisation layer of the system, practically where the purely technical feature values are categorised into assistance relevant information or classes. As a technical system possesses no human understanding or empathy, such abilities need to be approximated through other means. This part of my research deals with solutions using machine learning architectures as a base. Given the complexity and variability of human expressions, which can be strongly influenced by a high degree of individuality and dependency on the situation, a purely rule-based approach would reach its limits fast. Using self-learning methods, which employ human annotated examples instead, allows for a much easier implementation of non-directly measurable information into a system. Special attention is given to the effect of constantly increasing complex architectures and their requirements for equally increasing example data sets. A secondary topic examined here will be the search for alternatives to this paradigm of development through the use of less complex architectures without lowering the capabilities.&#xD;
The third and last layer examined will be the decision making aspect, which proposes, based on the information from the former layers, a sensible action to follow. This part of the thesis will consist of two parallel examinations: First of a practical implementation of a semi-reactive method for working under uncertain situations, and second an examination into the theoretical implications of a cognitive architecture as full alternative for a control mechanism. This second example is a potential way into a human peer-like system architecture, which closely resembles the human decision making process and would allow an even closer integration into the human-machine environment than alternative current architectures.; Eines der am weitesten verbreiteten Anzeichen des integrierten Mensch- Maschine-Lebens ist die breite Palette verfügbarer Personal-Computer Geräte und deren Einsatz als Assistenzsysteme. Im Laufe der Zeit hat sich dies von relativ begrenzten virtuellen Notizblöcken zu Smart-Home integrierten Steuerungs- und Koordinationstools entwickelt, die an die jeweiligen Benutzer angepasst sind. Während diese Entwicklung sowohl den Gegenwert der bereitgestellten Hilfestellungen als auch die Verfügbarkeit für den Einzelnen, mit jeweils spezifischen Bedürfnissen und Eigenheiten, steigerte, entwickelte es sich auch in die Richtung spezifischer Grenzen die weitere potenzielle Entwicklungen und mögliche Verbesserungen verhindern. Angesichts der aktuellen Designs ist der Hauptforschungsbereich die Optimierung der Mensch-Maschinen-Interaktion durch einfachere und robustere Sprachsteuerungsmethoden, was zu Lasten echter systematischer Verbesserungen geht.&#xD;
Die ursprüngliche Idee hinter Assistenztechnologien reicht von den derzeit verwendeten Mensch-Maschine-Schnittstellen bis hin zu viel stärker integrierten Systemen, die mit Begriffen wie technischen Assistenten, Companions oder sogar Peers beschrieben werden können. All diese Ausdrücke sollen eine immer stärkere Annäherung an menschliche Fähigkeiten und Verantwortlichkeiten beschreiben. Das übergreifende Thema dieser Dissertation sind die Untersuchungen der verschiedenen Aspekte eines solchen fortschrittlichen Assistenzsystems, speziell in Verbindung mit der von mir betriebenen Forschung. Potentielle weitere Entwicklungen werden diskutiert, um dieses Ziel eines menschenähnlichen technischen Assistenzsystems zu erreichen.&#xD;
Die strukturelle Aufteilung in dieser Arbeit folgt einer Informationsverarbeitungspipeline, wie sie in einem solchen potentiellen Assistenzsystem verwendet werden könnte, wobei die externen Eingaben je nach aktueller Situation extrahiert, klassifiziert und interpretiert werden müssen, damit ein System das Notwendige und angemessenen Reaktionen, wie vom Benutzer gefordert, bereitstellen kann. Ein wichtiger Aspekt ist dabei der Wandel von einem rein benutzergesteuerten reaktiven System, wie es standardisiert üblich ist, zu einem eigenständiger entscheidenden und handelnden System, das sich menschlichen Entscheidungsprozessen annähert. Die verschiedenen Forschungsbereiche, die ich in Bezug auf diese Pipeline durchgeführt habe, sind wie folgt:&#xD;
Der erste Bereich ist die externe Feature-Schicht. Diese umfasst übergreifend den gesamten technischen Aspekt der Anbindung der realen Umgebung an die folgenden technischen Systeme, in Verbindung mit meiner Forschung aber vor allem Untersuchungen zu Merkmalsextraktionen und Optimierungsprozessen. Dies ist notwendig, da ein einigermaßen umfangreiches und fortschrittliches System mit einer Vielzahl von Informationen und Eingangssignalen arbeiten müsste, was zu einer raschen Überlastung der meisten verfügbaren persönlichen Computer Systeme führen würde. Ein sinnvoller Vorverarbeitungsschritt kann die Rechenlast verringern und die Ergebnisse der nachfolgenden Berechnungen verbessern.&#xD;
Die zweite beschriebene Schicht ist die Interpretationsschicht des Systems, im praktischen dazu da, die rein technischen Merkmale in assistenzrelevante Informationen umzuwandeln. Da technische Systeme kein menschliches Verständnis oder Einfühlungsvermögen besitzen, müssen solche Fähigkeiten auf andere Weise erzeugt werden. In Anbetracht meines Forschungsgebiets befasst sich dieser Abschnitt mit Lösungen, die maschinelles Lernen als Grundlage verwenden. Angesichts der Komplexität und Variabilität der menschlichen Ausdrucksweise, speziell wenn beein flusst durch ein hohes Maß an individuellen sprachlichen Gewohnheiten, sind selbst bei thematisch ähnlichen Äußerungen hohe Unterschiede festzustellen. Daher wird ein rein regelbasierter Ansatz schnell an seine technischen Grenzen stoßen müssen. Stattdessen können selbstlernende Methoden verwendet werden, die von Menschen annotierte Beispiele verwenden, damit nicht direkt messbare Informationen viel einfacher in ein System implementiert werden können. Besonderes Augenmerk wird dabei auf die Auswirkung immer komplexer werdender Systeme und deren Anforderungen an ebenso wachsende Beispieldatenmengen gelegt. Ein sekundäres Thema dieser Arbeit wird die Suche nach Alternativen zu diesem Entwicklungsparadigma durch die Verwendung weniger komplexer Architekturen ohne Verringerung der Fähigkeiten sein.&#xD;
Die dritte und letzte untersuchte Ebene ist die Entscheidungsebene, die auf der Grundlage der Informationen aus den vorherigen Ebenen eine sinnvolle Maßnahme vorschlägt und befolgt. Dieser Teil besteht aus zwei parallelen Untersuchungen in dieser Arbeit. Erstens einer praktischen Umsetzung einer semi-reaktiven Methode für das Arbeiten in unsicheren Situationen und zweitens eine Untersuchung, die sich mit den theoretischen Implikationen einer kognitiven Architektur als ein Kontrollmechanismus befasst. Dieser zweite Punkt ist ein möglicher Weg in eine menschenähnliche Systemarchitektur, die dem menschlichen Entscheidungs-findungsprozess sehr ähnlich ist und eine noch engere Integration in die Mensch-&#xD;
Maschine-Umgebung ermöglichen würde als andere alternative Architekturen.</description>
    <dc:date>2025-01-01T00:00:00Z</dc:date>
  </item>
  <item rdf:about="https://opendata.uni-halle.de//handle/1981185920/123658">
    <title>Development of a new dark field imaging concept and investigation of prototype performance</title>
    <link>https://opendata.uni-halle.de//handle/1981185920/123658</link>
    <description>Title: Development of a new dark field imaging concept and investigation of prototype performance
Author(s): Yan, Xiaolei
Abstract: X-ray interferometry has emerged as a powerful imaging technique, offering capabilities beyond conventional absorption-based methods. By providing access to phase contrast and dark-field signals, it’s crucial for visualizing weakly absorbing microstructures at the micro-scale for diagnosis and even nano-scale for material inspection. However, this technique traditionally relies on large-scale facilities like synchrotrons or the use of additional source gratings, both of which hinder its feasibility in clinical and laboratory settings. This PhD thesis addresses these limitations by presenting the development and comprehensive evaluation of a novel compact X-ray interferometry-based dark-field (DF) imaging concept. This system integrates a microfocus X-ray tube, an energy-resolved, pixellated photon-counting detector, and a Talbot grating interferometer. The core objective is to demonstrate the system’s feasibility and functionality, including its data processing and image optimization, with the ultimate goal of enabling early-stage disease diagnosis in clinical applications like mammography and infectious lung disease.&#xD;
This research specifically focuses on the dark-field modality to achieve simplified and compact X-ray interferometry. This approach, while simultaneously acquiring phase contrast images, crucially departs from relying on large-scale synchrotrons or additional source gratings by utilizing a partially spatially coherent X-ray source. A primary goal of this work is to optimize experimental protocols for high image visibility. This involves understanding the critical interplay between data processing and system settings, including detector positioning and X-ray tube voltage. Furthermore, this PhD work also concentrated on optimizing dark-field (DF) image reconstruction, identifying an optimal strategy for Fourier series coefficient generation.&#xD;
Significantly, the study demonstrates that precise energy matching of the bin of interest (BoI) isn’t always essential, which provides valuable flexibility, especially under conditions of limited photon flux. Two complementary optimization approaches (detailed in Chapter 5) are shown to significantly enhance DF image quality by improving scattering feature visibility and reducing noise.&#xD;
Finally, a viable strategy for further enhancing phase contrast images is proposed. This involves combining goodness-of-fit thresholding to filter poorly fitted pixels with subsequent interpolation to mitigate inherent beam coherence limitations.&#xD;
This PhD work successfully demonstrates the feasibility and optimized performance of a compact X-ray interferometry system, paving the way towards practical clinical and laboratory deployment.; Die Röntgeninterferometrie hat sich als leistungsstarkes Bildgebungsverfahren etabliert und bietet Möglichkeiten, die über herkömmliche absorptionsbasierte Methoden hinausgehen. Durch den Zugriff auf Phasenkontrast- und Dunkelfeldsignale ist sie entscheidend für die Visualisierung schwach absorbierender Mikrostrukturen im Mikromaßstab für die Diagnostik und sogar im Nanomaßstab für die Materialprüfung. Diese Technik erfordert jedoch traditionell Großanlagen wie Synchrotrons oder den Einsatz zusätzlicher Quellengitter, was ihre Durchführbarkeit im klinischen und Laborbereich einschränkt. Diese Dissertation geht auf diese Einschränkungen ein, indem sie die Entwicklung und umfassende Evaluierung eines neuartigen, kompakten Dunkelfeld-Bildgebungskonzepts auf Basis der Röntgeninterferometrie präsentiert. Dieses System integriert eine Mikrofokus-Röntgenröhre, einen energieaufgelösten, pixelierten Photonenzähldetektor und ein Talbot-Gitterinterferometer. Kernziel ist der Nachweis der Machbarkeit und Funktionalität des Systems, einschließlich seiner Datenverarbeitung und Bildoptimierung, mit dem Ziel, die Frühdiagnose von Krankheiten in klinischen Anwendungen wie der Mammographie und bei infektiösen Lungenerkrankungen zu ermöglichen.&#xD;
Diese Forschung konzentriert sich speziell auf die Dunkelfeld- Modalität zur Erzielung einer vereinfachten und kompakten Röntgeninterferometrie. Dieser Ansatz, der gleichzeitig Phasenkontrastbilder erfasst, verzichtet entscheidend auf großflächige Synchrotrons oder zusätzliche Quellengitter und nutzt stattdessen eine partiell räumlich kohärente Röntgenquelle.&#xD;
Ein Hauptziel dieser Arbeit ist die Optimierung experimenteller Protokolle für eine hohe Bildsichtbarkeit. Dies beinhaltet das Verständnis des kritischen Zusammenspiels zwischen Datenverarbeitung und Systemeinstellungen, einschließlich Detektorpositionierung und Röntgenröhrenspannung. Darüber hinaus konzentrierte sich diese Doktorarbeit auf die Optimierung der Dunkelfeld- Bildrekonstruktion (DF) und die Identifizierung einer optimalen Strategie zur Generierung von Fourierreihenkoeffizienten.&#xD;
Die Studie zeigt insbesondere, dass eine präzise Energieanpassung des Bin of Interest (BoI) nicht immer zwingend erforderlich ist, was wertvolle Flexibilität bietet, insbesondere unter Bedingungen begrenzten Photonenflusses. Zwei komplementäre Optimierungsansätze (detailliert in Kapitel 5) verbessern die DF-Bildqualität deutlich, indem sie die Sichtbarkeit von Streumerkmalen verbessern und Rauschen reduzieren.&#xD;
Abschließend wird eine praktikable Strategie zur weiteren Verbesserung der Phasenkontrastbilder vorgeschlagen. Dabei wird die Anpassungsgüteschwellenwertbildung zur Filterung schlecht angepasster Pixel mit anschließender Interpolation kombiniert, um inhärente Einschränkungen der Strahlkohärenz zu minimieren.&#xD;
Diese Doktorarbeit demonstriert erfolgreich die Machbarkeit und optimierte Leistung eines kompakten Röntgeninterferometriesystems und ebnet damit den Weg für den praktischen Einsatz in Klinik und Labor.</description>
    <dc:date>2025-01-01T00:00:00Z</dc:date>
  </item>
  <item rdf:about="https://opendata.uni-halle.de//handle/1981185920/123431">
    <title>Deep learning-based image optimization for low-field MRI</title>
    <link>https://opendata.uni-halle.de//handle/1981185920/123431</link>
    <description>Title: Deep learning-based image optimization for low-field MRI
Author(s): Schote, David
Abstract: Point-of-care low-field MRI systems become increasingly interesting in modern medicine because of their small footprint and cost-effective profile. The portability of such devices poses new challenges, as they are often operated under uncontrolled and changing environmental conditions. The low magnetic field (50mT) and the high B0 field inhomogeneities, in combination with temperature fluctuations, and electromagnetic interferences culminate in a poor signal-to-noise ratio and severe image artifacts. The current state of research lacks suitable and robust correction methods that can be implemented directly into point-of-care devices using high-performance computing systems.&#xD;
In this work, the combination of a novel, highly adaptable MR console and deep learning based image reconstructions is presented and evaluated to boost the imaging performance of point-of-care low-field MRI devices. The console shows comparable in vivo imaging results to state-of-the-art proprietary systems with additional features such as a fully transparent acquisition process, integration of auxiliary sensors and direct application of deep-learning based image reconstruction techniques.&#xD;
By combining data driven image denoising and B0 field prediction with model-based image reconstruction, a physics-informed end-to-end reconstruction network is introduced and evaluated for low-field MRI. &#xD;
The proposed method outperforms conventional reconstruction techniques based on the training and evaluation with simulated low-field MRI data. However, when the model is applied to real in vivo low-field MRI data, considerable challenges are identifiable. To address these challenges, a conventional regularization approach is combined with the estimation of regularization parameter maps by a neural network in an iterative approach in order to optimize image denoising. Thereby, the applicability of the neural network to real low-field MRI data could be improved. Finally, it could be shown that a model trained with supervision can be adapted to other data by applying a subsequent self-supervised refinement step. By integrating the methods and strategies presented in this work, low-field MRI image quality is successfully improved, enhancing its diagnostic value for future clinical applications.; Niedrigfeld MRT Systeme für die Point-of-Care Anwendung erfreuen sich aufgrund ihres geringen Platzbedarfs und ihrer kostengünstigen Nutzung an zunehmendem Interesse in der modernen Medizin. Die Mobilität derartiger Systeme birgt jedoch neue Herausforderungen, da sie unter anderem bei veränderlichen und unkontrollierten Umgebungsbedingungen betrieben werden. Das niedrige Magnetfeld (50mT) und die hohen B0 Feldinhomogenitäten in Kombination mit Temperaturschwankungen und elektromagnetischen Interferenzen resultieren in einem schlechten Signal-zu-Rausch-Verhältnis und starken Bildartefakte.&#xD;
Im aktuellen Stand der Forschung fehlen passende und robuste Korrekturverfahren, die mit leistungsfähigen Computersystemen direkt in Point-of-Care-Geräte implementiert werden können.&#xD;
In dieser Arbeit, wird eine neuartige, anpassbare MR Konsole in Kombination mit Deep Learning-basierter Bildrekonstruktion vorgestellt und evaluiert, um die Bildgebungsleistung von Point-of-Care-Niedrigfeldsystemen zu optimieren. Die Konsole erlaubt In-vivo Bildgebung, die mit proprietären Systemen auf dem neuesten Stand der Technik vergleichbar ist, und ermöglicht darüber hinaus zusätzliche Funktionen wie einen vollständig transparenten Akquisitionsprozess, die Integration zusätzlicher Sensoren sowie die direkte Anwendung Deep-Learning-basierter Bildrekonstruktionstechniken.&#xD;
Durch die Kombination von datengetriebener Rauschunterdrückung und B0 Feldschätzung mit modellbasierter Bildrekonstruktion wird ein physikalisch-informiertes End-to-End- Rekonstruktionsnetzwerk für die Niedrigfeld-MRT vorgestellt und evaluiert. Die vorgeschlagene Methode übertrifft konventionelle Rekonstruktionsverfahren basierend auf Training und Evaluation mit simulierten Niedrigfeld-MRT-Daten.&#xD;
Bei der Anwendung auf reale in vivo Niedrigfeld-MRT-Daten, wurden jedoch erhebliche Herausforderungen identifiziert. Um diese Herausforderungen zu adressieren, wird ein alternativer Ansatz untersucht, der konventionelle Regularisierung mit der Schätzung von Regularisierungsparameterkarten durch ein neuronales Netzwerk in einem iterativen Ansatz kombiniert, um die Rauschunterdrückung zu optimieren. Dadurch konnte die Übertragbarkeit des neuronalen Netzes auf reale Niedrigfeld-MRT-Daten verbessert werden. Schließlich konnte gezeigt werden, dass ein mit Supervision trainiertes Modell durch einen nachfolgenden selbst überwachten Verfeinerungsschritt an andere Daten angepasst werden kann. Durch die Integration der in dieser Arbeit vorgestellten Methoden und Strategien wird die Bildqualität der Low- Field-MRT erfolgreich verbessert, wodurch ihr diagnostischer Wert für zukünftige klinische Anwendungen gesteigert wird.</description>
    <dc:date>2025-01-01T00:00:00Z</dc:date>
  </item>
</rdf:RDF>

