L2Normalisierung
Die L2-Normalisierung, auch als Normalisierung nach der L2-Norm bezeichnet, ist ein Verfahren zur Skalierung von Vektoren oder Merkmalsvektoren, sodass deren L2-Norm gleich eins ist. Die L2-Norm eines Vektors x ∈ R^n ist ||x||_2 = sqrt(x1^2 + x2^2 + ... + xn^2). Ein normalisierter Vektor lautet x̂ = x / ||x||_2. Falls ||x||_2 gleich null ist, ist die Normalisierung nicht definiert; in der Praxis wird häufig ein kleines epsilon verwendet: x̂ = x / max(||x||_2, ε).
Anwendungsgebiete umfassen die Vorverarbeitung von Merkmalen, damit Größenunterschiede die Merkmalsverteilung nicht dominieren, sowie die Betonung von
Der Begriff L2-Normalisierung unterscheidet sich von L2-Regularisierung (Gewichtsregularisierung). Letztere fügt der Verlustfunktion eine Strafe für große
Beispiele in Software: In vielen Bibliotheken kann L2-Normalisierung als normalisierende Funktion oder Layer implementiert werden, die