informationskriterier
Informationskriterier är statistiska mått som används för att jämföra olika modeller och välja den som bäst balanserar god anpassning till data med förhållandevis låg komplexitet. De kombinerar modellens sannolikhet (log-sannolikhet) med ett straff för antalet parametrar, vilket gör att överanpassning motverkas. Vanligen används de för att rangordna kandidatmodeller baserade på samma dataset.
Vanliga informationskriterier är AIC, BIC, AICc, HQIC och DIC. AIC beräknas som AIC = -2 log-sannolikhet + 2k,
Användningen består i att beräkna kriteriet för varje kandidatmodell och välja modellen med lägst värde. Det
Historiskt utvecklades AIC av Akaike 1973 och BIC av Schwarz 1978; DIC introducerades i Bayesianska sammanhang