KNNKlassifikation
KNNKlassifikation ist ein instanzbasierter Lernalgorithmus des überwachten Lernens. Bei einem neuen Datenpunkt x wird die Klasse durch Berücksichtigung der k nächsten Trainingsbeispiele im Merkmalsraum vorhergesagt. Die Methode speichert das Trainingsset und führt die Vorhersage anhand der Nachbarn durch, ohne eine explizite Modellstruktur zu erlernen.
Dabei wählt man eine Distanzmetrik, üblicherweise den euklidischen Abstand, aber auch Manhattan oder Minkowski sind gebräuchlich.
Da kein Training im klassischen Sinn erfolgt, hängt die Vorhersage zeitlich stark von der Größe des Trainingssets
Vorteile sind Einfachheit, kein Annahmen über Verteilungen und gute Anpassungsfähigkeit an komplexe Trennflächen. Nachteile sind hohe
Anwendungen finden sich in Bereichen wie Mustererkennung, Bild- oder Textklassifikation und anderen Kontexten, in denen robuste