Kernelfunktionen
KernelFunktionen, auch Kernelfunktionen genannt, sind Funktionen k: X × X → R, die in vielen Lernverfahren die Ähnlichkeit zweier Eingaben x und y messen. In vielen Modellen gilt k(x,y) = ⟨φ(x), φ(y)⟩, wobei φ ein Merkmalsabildung in einen möglicherweise hohen oder unendlichen Raum ist. Dadurch lässt sich mit dem Kernel-Trick arbeiten: Man berechnet das innere Produkt im Merkmalsraum direkt über k, ohne φ explizit zu berechnen.
Zu den typischen Eigenschaften gehören Symmetrie k(x,y) = k(y,x) und positive Semidefinitheit. Die Gram-Matrix K mit Kij
Gängige Kernelfunktionen umfassen den linearen Kernel k(x,y) = xᵀy, den polynomiellen Kernel (xᵀy + c)ᵈ, den Gauß- oder
Anwendungen finden sich vor allem in Support-Vector-Machines, Kernel Ridge Regression, Kernel Principal Component Analysis sowie in