Säännöllistämistekniikat
Säännöllistämistekniikat ovat menetelmiä, joita käytetään koneoppimisessa ylisovittumisen estämiseksi. Ylisovittuminen tapahtuu, kun malli oppii harjoitusdatan liian tarkasti, mukaan lukien sen kohinan, ja menettää kykynsä yleistää uuteen, näkemättömään dataan. Säännöllistäminen lisää malliin rajoituksia tai rangaistuksia, jotka vähentävät sen monimutkaisuutta ja parantavat sen yleistyskykyä.
Yksi yleisimmistä säännöllistämistekniikoista on L1-säännöllistäminen, joka tunnetaan myös nimellä Lasso. Se lisää mallin kustannusfunktioon painokertoimien itseisarvojen
Toinen suosittu tekniikka on L2-säännöllistäminen, eli Ridge-säännöllistäminen. Se lisää kustannusfunktioon painokertoimien neliöiden summan. L2-säännöllistäminen pyrkii pienentämään
Kolmas tekniikka on dropout, jota käytetään erityisesti neuroverkoissa. Dropout satunnaisesti "pudottaa pois" eli jättää huomiotta osan
Muita säännöllistämistekniikoita ovat esimerkiksi Early Stopping, jossa harjoitus lopetetaan, kun mallin suorituskyky validoinnissa alkaa heikentyä, sekä