Man sollte sich frühzeitig überlegen, für welches Fach, welchen Bereich und welches Thema wirkliches Interesse besteht. Wenn man für eine „Sache brennt“, kann die Arbeit dann nur gut werden.
In dieser Arbeit wird das Konzept eines künstlichen neuronalen Netzwerks erklärt. Es wird ein Feedforward-Netzwerk in Python selbstständig implementiert und mithilfe des Backpropagation-Algorithmus auf 60000 Datensätzen in Form von Abbildungen handschriftlich gezeichneter Ziffern trainiert. Es werden mehrere Netze mit verschiedenen Strukturen erstellt und auf jeweils einem Sechstel der Daten trainiert. Hierbei wird jede Netzstruktur mit je drei verschiedenen Lernraten separat trainiert. Mit der Bibliothek TensorFlow werden ebenfalls Netze mit denselben Strukturen erstellt und auch auf jenen Daten trainiert. Es wird herausgefunden, dass größere Netze mit geringeren Lernraten eine höhere Genauigkeit erzielen als mit größeren Lernraten. Ebenfalls wird
festgestellt, dass es für jedes Problem eine optimale Netzstruktur geben muss, und dass ein komplexeres Netz nicht zwingend mit einer höheren Genauigkeit verbunden sein muss. Die eigene Implementierung unterscheidet sich von der modernen Bibliothek hauptsächlich im Kriterium Geschwindigkeit (Zeitkosten).
Download (PDF)2019, Informatik,
1. Platz,
Lara
Vrecar, Universität Wien
2012, Physik,
1. Platz,
Daniel
Kuna, Universität Münster
2017, Physik,
2. Platz,
Luca
Brilhaus, Universität Münster