Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.25673/112072
Titel: Model order reduction methods applied to neural network training
Autor(en): Freitag, Melina A.In der Gemeinsamen Normdatei der DNB nachschlagen
Nicolaus, J. M.
Redmann, MartinIn der Gemeinsamen Normdatei der DNB nachschlagen
Erscheinungsdatum: 2023
Art: Artikel
Sprache: Englisch
Zusammenfassung: Neural networks have emerged as powerful and versatile tools in the field of deep learning. As the complexity of the task increases, so do size and architectural complexity of the network, causing compression techniques to become a focus of current research. Parameter truncation can provide a significant reduction in memory and computational complexity. Originating from a model order reduction framework, the Discrete Empirical Interpolation Method is applied to the gradient descent training of neural networks and analyze for important parameters. The approach for various state-of-the-art neural networks is compared to established truncation methods. Further metrics like L2 and Cross-Entropy Loss, as well as accuracy and compression rate are reported.
URI: https://opendata.uni-halle.de//handle/1981185920/114030
http://dx.doi.org/10.25673/112072
Open-Access: Open-Access-Publikation
Nutzungslizenz: (CC BY-NC 4.0) Creative Commons Namensnennung - Nicht kommerziell 4.0 International(CC BY-NC 4.0) Creative Commons Namensnennung - Nicht kommerziell 4.0 International
Journal Titel: Proceedings in applied mathematics and mechanics
Verlag: Wiley-VCH
Verlagsort: Weinheim
Band: 23
Heft: 3
Originalveröffentlichung: 10.1002/pamm.202300078
Seitenanfang: 1
Seitenende: 8
Enthalten in den Sammlungen:Open Access Publikationen der MLU