FeedforwardNetze
FeedforwardNetze, auch Feedforward-Neuronale Netze genannt, sind eine Klasse künstlicher neuronaler Netze, bei denen Informationen streng vorwärts von Eingabe zu Ausgabe durch eine oder mehrere Schichten fließen, ohne Zyklen oder Schleifen. Sie sind die einfachste Form mehrschichtiger Netze und bilden die Grundlage vieler moderner Architekturen.
Eine typische Architektur besteht aus einer Eingabeschicht, einer oder mehreren versteckten Schichten und einer Ausgabeschicht. Jedes
Das Training erfolgt in der Regel überwacht. Das Netzwerk ordnet Eingaben Zielwerten zu, der Fehler wird mit
Zu den Varianten gehören das Mehrschicht-Perzeptron (MLP) als klassisches Beispiel. Convolutional Neural Networks (CNNs) und andere
Anwendungen umfassen Bild- und Spracherkennung, tabellarische Datenmodellierung und Funktionsapproximation. Zu den Einschränkungen gehören die Notwendigkeit festgelegter