hiperparametrami
Hiperparametry to parametry algorytmu uczenia maszynowego, które nie są uczone z danych, ale są ustawiane przed rozpoczęciem procesu treningu. Odgrywają kluczową rolę w definiowaniu architektury modelu, szybkości uczenia oraz jego zdolności do generalizacji. Różnią się od parametrów modelu, które są dostosowywane podczas treningu na podstawie danych wejściowych (np. wagi w sieci neuronowej).
Przykłady hiperparametrów obejmują współczynnik uczenia (learning rate), liczbę warstw w sieci neuronowej, liczbę neuronów w każdej
Proces dostrajania hiperparametrów, znany jako optymalizacja hiperparametrów, jest kluczowym etapem w budowaniu skutecznych modeli uczenia maszynowego.