Home

Kernefunktioner

Kernefunktioner (kernel functions) er funktioner, der måler lighed mellem to inputs og tilordner dem et tal. De gør det muligt at beregne indre produkter i et højdimensionelt feature-rum uden eksplicit at konstruere det rum, en egenskab kendt som kernel-trick. En kernefunktion k opfylder ofte k(x, y) = <phi(x), phi(y)>, hvor phi er en ikke nødvendigt kendt mapping til feature-rummet. Hvis k er symmetrisk og positiv semidefinit, findes der ifølge Mercers betingelse et such phi.

Eksempler på almindelige kernefunktioner:

- Lineær kerne: k(x, y) = x^T y

- Polynomiel kerne: k(x, y) = (gamma x^T y + coef0)^d

- Gaussian/RBF-kerne: k(x, y) = exp(-gamma ||x - y||^2)

- Laplace-kerne: k(x, y) = exp(-gamma ||x - y||_1)

Anvendelser og formål:

Kernefunktioner anvendes i mange maskinlæringsmetoder, herunder support vector machines, kernel ridge regression, kernel PCA og Gaussian

Relaterede begreber:

Hver PSD-kerne definerer et reproducerende Hilbert-rum (RKHS), hvor k fungerer som indre produkt. Beregning af k

process-regression.
De
udvider
modelleringsevnen
til
ikke-lineære
relationer
ved
at
arbejde
i
højere
dimensioner
uden
eksplicit
at
beregne
de
tilhørende
features.
over
et
datasæt
(kernel-matrixen
K
med
K_ij
=
k(x_i,
x_j))
er
centralt
for
træning
og
inferens.
Parametre
som
gamma,
d
og
coef0
styrer
fleksibiliteten
og
kompleksiteten
af
modellen.
Valg
af
kernel
og
parametre
påvirker
ydeevne
og
skalerbarhed
på
store
datasæt.