Hyperparametersuche
Hyperparametersuche bezeichnet den systematischen Prozess der Optimierung von Hyperparametern eines maschinellen Lernmodells. Hyperparameter sind Einstellungen, die den Lernprozess oder die Architektur festlegen, zum Beispiel Lernrate, Regularisierung, Baumtiefe, Anzahl der Neuronen oder Batch-Größe. Ziel der Suche ist es, die Leistungsmetrik auf einem Validierungssatz zu maximieren oder eine andere definierte Messgröße zu optimieren, während Rechenzeit und Ressourcen berücksichtigt werden.
Zu den gängigsten Suchstrategien gehören Grid Search, Random Search, Bayesian Optimization sowie adaptives Budgetieren mit Hyperband.
Bei der Festlegung des Suchraums müssen kontinuierliche, diskrete und konditionale Hyperparameter berücksichtigt werden. Konditionale Parameter hängen
Die Bewertung erfolgt meist über Cross-Validation oder eine separate Validierungsmenge. Typische Metriken sind Genauigkeit, F1-Score, ROC-AUC
Bekannte Tools für Hyperparameter-Suche sind scikit-learn GridSearchCV und RandomizedSearchCV, Optuna, Hyperopt, Ray Tune, SMAC und Auto-Sklearn.