Kernelbaserede
Kernelbaserede metoder er en gruppe teknikker inden for maskinlæring og statistik, der bygger på kernelfunktioner til at måle lighed mellem data og til at lære i et implicit højdimensionelt featurerum uden eksplicit at beregne de nye featurevektorer.
Hovedideen er at erstatte beregninger i det eksplicit udvidede rum med beregninger i det indre produkt i
Eksempelkerner inkluderer lineær kerne K(x, y) = x^T y, polynomiel kerne, Gaussisk/RBF-kerne K(x, y) = exp(-||x - y||^2 / (2σ^2))
Anvendelser omfatter support vector machines (SVM) til klassifikation og regression, kernel ridge regression, kernel principal component
Fordele og begrænsninger: Kernelbaserede metoder tillader ikke-lineær læring uden eksplicit featureudvidelse og er generelt kraftfulde på
Tilnærminger til store datasæt omfatter Nyström-tilnærminger og Random Fourier Features, der reducerer beregnings- og hukommelsesomkostninger.
Historisk opstod kernelbaserede metoder og kerneltricket som centrale værktøjer i maskinlæring i løbet af 1990’erne med