Please use this identifier to cite or link to this item: http://dx.doi.org/10.25673/113045
Title: Modelling canonical computations in brains and machines with the Free Energy Principle
Author(s): Ofner, André
Referee(s): Stober, SebastianLook up in the Integrated Authority File of the German National Library
Granting Institution: Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik
Issue Date: 2023
Extent: xxiii, 162 Seiten
Type: HochschulschriftLook up in the Integrated Authority File of the German National Library
Type: PhDThesis
Exam Date: 2023
Language: English
URN: urn:nbn:de:gbv:ma9:1-1981185920-1150011
Subjects: Künstliche Intelligenz
Free Energy Principle
Abstract: The Free Energy Principle in neuroscience explains brain function based on the minimization of Bayesian surprise. Under mathematical constrains on the underlying optimisation process, the FEP can be used to derive a process theory that describes neuronal dynamics as a hierarchy of descending local predictions and ascending prediction errors that drives learning of an internal generative model of the world. This inversion of a hierarchical generative model in the brain is known as predictive coding (PC). Simultaneously, the minimization of Bayesian surprise is a central objective for generative models in the context of deep artificial neural networks (ANNs), such as the Variational Autoencoder (VAE). Deep generative models are trained on high-dimensional inputs from large datasets using exact backpropagation of errors to the parameters of the model. Such global and exact optimisation is in contrast to the approximate, iterative and locally informed learning in PC. Apart from similar computational objectives it is still unclear how modelling constrains under the FEP, such as locally optimised free energy or the use of error uncertainty relate to deep generative models in terms of performance and comparability to human brain function. In this thesis, we aim at filling some of these gaps by designing and evaluating ANN models under the constrains of the FEP and hypothesize that such models implement canonical computations that are present across scales in the human brain. We contribute a dynamical PC model with a hierarchy of latent representations that learns by predicting probabilistic sequences of latent states using exact error backpropagation. We also contribute a generalized PC model (GPC) that is designed from first principles under the FEP. GPC replaces global backpropagation of error with local optimisation, performs uncertainty estimation under the Laplace approximation and generates dynamical predictions local in time using generalized coordinates of motion. We demonstrate that GPC scales to complex sensory inputs and is comparable to VAEs in terms of inference. Next to evaluating unsupervised learning, we test and discuss possibilities to retrieve sensory processing related information in brain activity using FEP based models. In this context, we evaluate the possibility to learn shared representations of brain activity recorded in electroencephalograms (EEG) and auditory stimuli using a multiview VAE architecture. We demonstrate the possibility to retrieve temporal locations of evoked brain responses (ERPs) in EEG from the error response of a PC model processing audio stimuli. We also demonstrate the possibility to predict EEG signals directly and discuss options to actively infer temporal ERP locations from EEG. With our proposed methods we take a step towards performant, yet biologically plausible, ANNs and provide means of explainability through comparison to human brain function and model design from first principles.
Das Free Energy Principle (FEP) in den Neurowissenschaften erklärt Gehirnfunktion basierend auf der Minimierung von Überraschung im bayesschen Sinne. Unter mathematischen Einschränkungen des zugrunde liegenden Optimierungsprozesses kann das FEP verwendet werden, um eine Prozesstheorie abzuleiten, die neuronal Interaktionen als eine Hierarchie von absteigenden lokalen Vorhersagen und aufsteigenden Vorhersagefehlern beschreibt, die zum Erlernen eines internen generativen Modells der Welt dient. Diese Invertierung eines hierarchischen generativen Modells im Gehirn ist auch als Predictive Coding (PC) bekannt. Gleichzeitig ist die Minimierung von bayesscher Überraschung ein zentrales Berechnungsziel für generative Modelle im Zusammenhang mit tiefen künstlichen neuronalen Netzen (KNNs), wie dem Variational Autoencoder (VAE). Tiefe generative Modelle werden mit komplexen Eingaben aus großen Datensätzen trainiert und nutzen eine exakte Rückpropagierung von Vorhersagefehlern zu Modellparametern. Eine solche globale und exakte Optimierung steht im Kontrast zum approximativen, iterativen und lokalen Lernen in PC Modellen. Abgesehen vom ähnlichen globalen Ziel der Modelloptimierung ist noch unklar, wie Modellierungsbeschränkungen unter dem FEP, wie zum Beispiel lokal optimierte freie Energie oder die Verwendung von Fehlerunsicherheit, mit tiefen generativen Modellen in Bezug auf Leistung und Vergleichbarkeit mit der menschlichen Gehirnfunktion zusammenhängen. In dieser Dissertation zielen wir darauf ab, einige dieser Lücken zu schließen, indem wir KNNs unter den Einschränkungen des FEP entwerfen, trainieren und evaluieren. Dabei gehen wir von der Hypothese aus, dass solche Modelle kanonische Berechnungen implementieren, die über verschiedenen Skalen verteilt auch im menschlichen Gehirn vorhanden sind. Wir stellen ein dynamisches PC Modell mit einer Hierarchie latenter Repräsentationen vor, das lernt, indem es Sequenzen von probabilistischen Zuständen unter Verwendung exakter Fehlerrückpropagierung vorhersagt. Wir stellen weiterhin ein Generalized PC Modell (GPC) vor, das von Grund auf unter dem FEP entwickelt wurde. GPC ersetzt die globale Fehlerrückpropagierung durch lokale Optimierung, führt Unsicherheitsschätzung unter der Laplace Annäherung durch und generiert strikt zeitlich lokale dynamische Vorhersagen mithilfe von generalisierten Koordinaten. Wir zeigen, dass GPC mit komplexen statischen und sequentiellen Informationen umgehen kann und in Bezug auf Inferenz mit VAEs vergleichbar ist. Neben dem unüberwachten Lernen testen und diskutieren wir Möglichkeiten, FEP-basierte Modelle im Sinne des Information Retrieval zum Auffinden von wahrnehmungsbezogener Informationen im menschlichen Gehirn zu nutzen. In diesem Zusammenhang evaluieren wir die Möglichkeit, gemeinsame Repräsentationen von mittels Elektroenzephalografie (EEG) aufgezeichneter Gehirnaktivität und auditiven Stimuli unter Verwendung einer Multi-View-VAE Architektur zu lernen.Wir demonstrieren die Möglichkeit, zeitliche Positionen von evoked potentials (ERPs), ereignisbezogene Potentialen im EEG, aus der Fehlerantwort eines PC-Modells abzurufen, das Audiostimuli verarbeitet. Wir demonstrieren weiterhin die Möglichkeit, EEG Signale direkt vorherzusagen und diskutieren Möglichkeiten, die zeitliche Position von ERPs aktiv aus EEG-Vorhersagefehlern abzuleiten. Mit unseren vorgeschlagenen Methoden machen wir einen Schritt in Richtung leistungsfähiger, aber biologisch plausibler KNNs und bieten Mittel zur Erklärbarkeit durch den Vergleich mit menschlicher Gehirnfunktion und der Modellentwicklung auf Basis fundamentaler Prinzipien.
URI: https://opendata.uni-halle.de//handle/1981185920/115001
http://dx.doi.org/10.25673/113045
Open Access: Open access publication
License: (CC BY-SA 4.0) Creative Commons Attribution ShareAlike 4.0(CC BY-SA 4.0) Creative Commons Attribution ShareAlike 4.0
Appears in Collections:Fakultät für Informatik

Files in This Item:
File Description SizeFormat 
Ofner_Andre_Dissertation_2023.pdfDissertation21.14 MBAdobe PDFThumbnail
View/Open