Initialisierungsmethoden
Initialisierungsmethoden bezeichnen Verfahren zur Bestimmung des Startzustands, von dem ein Algorithmus, ein Optimierer oder ein neuronales Netz beginnt. Die Wahl der Startwerte beeinflusst Konvergenzgeschwindigkeit, Stabilität und das Risiko, in suboptimalen Bereichen zu landen. In der Praxis spielen sie eine zentrale Rolle in der numerischen Linearsystemlösung, bei Optimierungsprozessen, im maschinellen Lernen sowie bei stochastischen Verfahren.
Im maschinellen Lernen dienen Initialisierungen der Gewichte der Stabilität des Lernprozesses. Typische Ansätze umfassen zufällige Initialisierung
Für numerische Solver sind Startwerte entscheidend für Schnelligkeit und Robustheit; oft werden gute Startpunkte aus Vorwerten,
Historisch lässt sich der Fokus auf Xavier/Glorot (2010) und He et al. (2015) zurückführen; orthogonale Initialisierung