Kernnormen
Kernnormen bezeichnet in der Regel Normen, die durch Kerne in kernel-basierten Methoden des maschinellen Lernens, der Funktionalanalysis oder verwandten Bereichen definiert werden. Am geläufigsten ist die Kernernorm im Zusammenhang mit Reproducing Kernel Hilbert Spaces (RKHS), wo jedem positiven Kernel K eine eindeutige RKHS H_K zugeordnet ist.
Definition: Gegeben ein positives Kernel K: X × X → R, existiert eine eindeutige H_K mit der Reproduktions-Eigenschaft
Anwendung: In der Lernformulierung erscheinen oft Minimierungen der Form Loss(y_i, f(x_i)) + λ||f||_{H_K}^2, wodurch die Optimierung auf
Varianten: Neben der RKHS-Norm können auch andere kernelbasierte Normen definiert werden, je nach Wahl des Kerns
Anwendungsgebiete: kernelbasierte Regularisierung in Support Vector Machines, Kernel Ridge Regression und andere Kernel-Methoden. Kernnormen dienen somit