Home

regresjonsdiskontinuitet

Regresjonsdiskontinuitet er en metode i statistikk og økonometrik som brukes for å identifisere kausale effekter når behandlingen blir tildelt basert på en tilfeldig eller bestemt grense i en pågående variabel, kalt utløsningsvariabelen. Ved en viss verdi av denne variabelen (cutoff) får enhetene behandling, mens de som ligger rett under ikke gjør det. Dette skaper et naturlig «grensernitt» hvor observasjoner på hver side kan sammenlignes mens de er relativt like ellers.

Det finnes to hovedvarianter: skarp regresjonsdiskontinuitet og fuzzy regresjonsdiskontinuitet. Ved skarp RD er tildelingen av behandling

Identifikasjonsforutsetningene er at potensielle utfall er kontinuerlige i utløsningsvariabelen rundt cut-off, og at det ikke er

Diagnostiske verktøy inkluderer tester for manipulering av utløsningsvariabelen (for eksempel McCrary-test), samt placebo-iterasjoner og sensitivitetsanalyse av

helt
deterministisk
ved
å
overstige
cutoff;
alle
over
får
behandling
og
alle
under
får
den
ikke.
Ved
fuzzy
RD
øker
sannsynligheten
for
behandling
ved
cutoff,
men
ikke
alle
på
riktig
side
følger
regelen,
slik
at
effekten
må
måles
som
forholdet
mellom
hoppet
i
utfaldene
og
hoppet
i
behandlingsandelen.
systematisk
manipulasjon
av
variabelen
ved
grensen.
Estimering
skjer
ofte
med
lokal
polynomregresjon
(vanligvis
lineær)
i
en
båndbredde
rundt
cut-off.
For
skarp
RD
estimeres
den
lokale
forskjellen
i
forventede
utfall
rett
ved
cut-off;
for
fuzzy
RD
brukes
en
Wald-tilnærming
som
tar
hensyn
til
hoppet
i
behandlingsandelen.
båndbreddevalg.
Begrensningene
inkluderer
at
konklusjoner
er
lokale
til
området
rundt
cut-off
og
kan
være
sensitive
for
antakelser
og
utvalgsstørrelse.
Regresjonsdiskontinuitet
brukes
i
politikk-
og
programvurderinger
der
tildelingskriterier
følger
en
terskel.