Mathematik online lernen im Mathe-Forum. Nachhilfe online
Startseite » Forum » Anregungen, Literatur oder Tipps für meine BA

Anregungen, Literatur oder Tipps für meine BA

Universität / Fachhochschule

Sonstiges

Tags: machine learning, neuronale Netze, Sonstig, Universelles Approximationstheorem

 
Antworten Neue Frage stellen Im Forum suchen
Neue Frage
sk8aaa

sk8aaa aktiv_icon

16:26 Uhr, 07.10.2024

Antworten
In meiner Bachelorarbeit geht es um das Universelle Approximationstheorem bei neuronalen Netzen. Ich werde den Aufbau von neuronalen Netzen, die Backpropagation sowie das Gradientenverfahren behandeln und mich anschließend intensiv mit dem Theorem auseinandersetzen. Danach soll ich neuere Ergebnisse zu neuronalen Netzen darstellen, die aussagekräftiger sind und einen höheren praktischen Nutzen aufweisen als das Universelle Approximationstheorem.
Beispielsweise könnte man sich ja fragen, ob es neuere mathematische Erkenntnisse darüber gibt, wie tief oder breit ein neuronales Netz sein muss, um ein bestimmtes Problem zu lösen. Oder gibt es Aussagen darüber, welche Probleme generell effizienter oder schneller mit neuronalen Netzen lösbar sind als andere aufgrund von gewissen Eigenschaften. Ich habe dabei große Freiheiten, es ist nicht eine bestimmte Richtung vorgegeben.

Meine Frage wäre nun: Habt ihr Ideen, welche Themen ich im Anschluss daran behandeln könnte? Oder habt ihr Literaturvorschläge, die für mich von Interesse sein könnten? Ich bin für jede Idee und jede Quelle dankbar.

Vielen Dank schon einmal im Voraus!



Für alle, die mir helfen möchten (automatisch von OnlineMathe generiert):
"Ich bräuchte bitte einen kompletten Lösungsweg." (setzt voraus, dass der Fragesteller alle seine Lösungsversuche zur Frage hinzufügt und sich aktiv an der Problemlösung beteiligt.)
Online-Nachhilfe in Mathematik
Antwort
KL700

KL700 aktiv_icon

16:58 Uhr, 07.10.2024

Antworten


Goodfellow, I., Bengio, Y.,& Courville, A. (2016). Deep Learning. MIT Press.
Umfassende Grundlagen und fortgeschrittene Konzepte von neuronalen Netzen.

Schmidt-Hieber, J. (2020). "Nonparametric regression using deep neural networks with ReLU activation function". The Annals of Statistics.
Einblick in die Verwendung und Analyse von ReLU-Netzen.

Poggio, T., Mhaskar, H., Rosasco, L., Miranda, B.,& Liao, Q. (2017). Why and when can deep - but not shallow - networks avoid the curse of dimensionality: A review.
Vorteile tiefer Netzwerke und deren Fähigkeit, effizient zu arbeiten.

Raghu, M.,& Schmidt, E. (2018). "A Survey of Deep Learning for Scientific Discovery". Neural Information Processing Systems (NeurIPS).
Überblick über die Nutzung neuronaler Netze in der Wissenschaft.

Mhaskar et al. (2017). "Deep vs. Shallow Networks: An Approximation Theory Perspective".
Analyse der Unterschiede in der Approximationstheorie zwischen tiefen und flachen Netzwerken.

Yarotsky (2017): "Error bounds for approximations with deep ReLU networks".
Fehlergrenzen für die Approximation mit tiefen ReLU-Netzen.

Frankle und Carbin (2018): "The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks".
Techniken zur Identifizierung sparsamer, trainierbarer Netzwerke.

He et al. (2016): "Deep Residual Learning for Image Recognition".
Untersuchung der ResNet-Architektur und ihrer Effizienz.
Diese Frage wurde automatisch geschlossen, da der Fragesteller kein Interesse mehr an der Frage gezeigt hat.