Home

regressionskoefficienterna

Regressionskoefficienterna är parametrarna i en regressionsmodell som kvantifierar sambandet mellan en eller flera oberoende variabler och den beroende variabeln. I enkel linjär regression y = β0 + β1 x är β1 regressionskoefficienten (slope) som beskriver hur mycket y förväntas ändras när x ökar med en enhet. I flera variabler regression y = β0 + β1 x1 + β2 x2 + … är βj partialregressionskoefficienterna som anger förändringen i y vid enhetsökningen av xj, medan övriga förklarande variabler hålls konstant.

Ordinära minstakvadraters metod (OLS) används vanligtvis för att uppskatta regressionskoefficienterna genom att minimera summan av kvadrerade

Följder för osäkerhet uppstår i form av standardfel, t-värden och konfidensintervall; signifikansnivåer används för att dra

Under Gauss-Markov-antaganden är OLS-estimatorerna av regressionskoefficienterna blåa (best linjära oförbyggda), men giltigheten av standardfel och konfidensintervall

residualer.
Koefficienterna
är
tolkbara
med
avseende
på
enhetsmåtten:
de
kan
översättas
till
förväntade
förändringar
i
y
vid
olika
nivåer
av
varje
förklarande
variabel.
Standardisering
av
variabler
ger
jämförbara
mått
på
relativa
effekter.
slutsatser
om
sambandet.
Vid
multikollinearitet
kan
tolkningen
av
enskilda
koefficienter
bli
opålitlig
eftersom
variablerna
är
korrelerade
med
varandra.
Koefficienterna
är
väsentligt
beroende
av
vilka
variabler
som
ingår
och
hur
de
skalas.
kräver
korrekt
modellering
av
felstrukturen
(linjäritet,
homoskedasticitet
och
normalfördelade
fel
i
enklare
fall).