eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
MET4
Cheat Sheet
Formler, begreper og oppsummering
Empiriske metoder
eksamenssett.no
Symboloversikt
Regresjonsnotasjon
•
Y
i
Y_i
Y
i
= avhengig variabel |
X
i
X_i
X
i
= uavhengig variabel |
β
0
\beta_0
β
0
= konstantledd (intercept)
•
β
1
,
β
2
,
…
\beta_1, \beta_2, \ldots
β
1
,
β
2
,
…
= regresjonskoeffisienter |
β
^
\hat{\beta}
β
^
= estimert koeffisient |
u
i
u_i
u
i
= feilleddet
•
Y
^
i
\hat{Y}_i
Y
^
i
= predikert verdi |
u
^
i
\hat{u}_i
u
^
i
= residual |
R
2
R^2
R
2
= forklaringsgrad
Statistisk inferens
•
SE
(
β
^
)
\text{SE}(\hat{\beta})
SE
(
β
^
)
= standardfeil |
t
t
t
= testobservator |
p
p
p
= p-verdi
•
H
0
H_0
H
0
= nullhypotese |
H
1
H_1
H
1
= alternativ hypotese |
α
\alpha
α
= signifikansnivå
•
n
n
n
= antall observasjoner |
k
k
k
= antall forklaringsvariabler
Kausal inferens
•
D
i
D_i
D
i
= behandlingsindikator (1 = behandlet, 0 = kontroll)
•
Y
i
(
1
)
Y_i(1)
Y
i
(
1
)
= potensielt utfall med behandling |
Y
i
(
0
)
Y_i(0)
Y
i
(
0
)
= potensielt utfall uten behandling
•
τ
\tau
τ
= ATE = gjennomsnittlig behandlingseffekt |
τ
A
T
T
\tau_{ATT}
τ
A
TT
= ATT = behandlingseffekt på de behandlede
•
Z
i
Z_i
Z
i
= instrumentvariabel |
δ
\delta
δ
= DiD-estimator
Formler
OLS og regresjon
•
Y
i
=
β
0
+
β
1
X
1
i
+
⋯
+
β
k
X
k
i
+
u
i
Y_i = \beta_0 + \beta_1 X_{1i} + \cdots + \beta_k X_{ki} + u_i
Y
i
=
β
0
+
β
1
X
1
i
+
⋯
+
β
k
X
ki
+
u
i
•
β
^
=
(
X
′
X
)
−
1
X
′
Y
\hat{\beta} = (X'X)^{-1}X'Y
β
^
=
(
X
′
X
)
−
1
X
′
Y
•
t
=
β
^
j
/
SE
(
β
^
j
)
t = \hat{\beta}_j / \text{SE}(\hat{\beta}_j)
t
=
β
^
j
/
SE
(
β
^
j
)
•
F
=
(
R
U
R
2
−
R
R
2
)
/
q
(
1
−
R
U
R
2
)
/
(
n
−
k
−
1
)
\displaystyle F = \frac{(R^2_{UR} - R^2_R)/q}{(1-R^2_{UR})/(n-k-1)}
F
=
(
1
−
R
U
R
2
)
/
(
n
−
k
−
1
)
(
R
U
R
2
−
R
R
2
)
/
q
•
R
2
=
1
−
S
S
R
/
S
S
T
=
E
S
S
/
S
S
T
R^2 = 1 - SSR/SST = ESS/SST
R
2
=
1
−
SSR
/
SST
=
ESS
/
SST
•
R
ˉ
2
=
1
−
(
1
−
R
2
)
(
n
−
1
)
n
−
k
−
1
\displaystyle \bar{R}^2 = 1 - \frac{(1-R^2)(n-1)}{n-k-1}
R
ˉ
2
=
1
−
n
−
k
−
1
(
1
−
R
2
)
(
n
−
1
)
Kausal inferens
•
τ
=
E
[
Y
i
(
1
)
−
Y
i
(
0
)
]
\tau = E[Y_i(1) - Y_i(0)]
τ
=
E
[
Y
i
(
1
)
−
Y
i
(
0
)]
(ATE)
•
τ
A
T
T
=
E
[
Y
i
(
1
)
−
Y
i
(
0
)
∣
D
i
=
1
]
\tau_{ATT} = E[Y_i(1) - Y_i(0) | D_i = 1]
τ
A
TT
=
E
[
Y
i
(
1
)
−
Y
i
(
0
)
∣
D
i
=
1
]
•
Seleksjonsbias:
E
[
Y
i
(
0
)
∣
D
i
=
1
]
−
E
[
Y
i
(
0
)
∣
D
i
=
0
]
E[Y_i(0)|D_i=1] - E[Y_i(0)|D_i=0]
E
[
Y
i
(
0
)
∣
D
i
=
1
]
−
E
[
Y
i
(
0
)
∣
D
i
=
0
]
•
OVB:
Bias
=
β
2
⋅
Cov
(
X
1
,
X
2
)
/
Var
(
X
1
)
\text{Bias} = \beta_2 \cdot \text{Cov}(X_1,X_2)/\text{Var}(X_1)
Bias
=
β
2
⋅
Cov
(
X
1
,
X
2
)
/
Var
(
X
1
)
Instrumentvariabler
•
IV:
β
^
I
V
=
Cov
(
Z
,
Y
)
/
Cov
(
Z
,
X
)
\hat{\beta}^{IV} = \text{Cov}(Z,Y)/\text{Cov}(Z,X)
β
^
I
V
=
Cov
(
Z
,
Y
)
/
Cov
(
Z
,
X
)
•
2SLS trinn 1:
X
i
=
π
0
+
π
1
Z
i
+
v
i
X_i = \pi_0 + \pi_1 Z_i + v_i
X
i
=
π
0
+
π
1
Z
i
+
v
i
•
2SLS trinn 2:
Y
i
=
β
0
+
β
1
X
^
i
+
ε
i
Y_i = \beta_0 + \beta_1 \hat{X}_i + \varepsilon_i
Y
i
=
β
0
+
β
1
X
^
i
+
ε
i
•
Svakt instrument: førstesteg
F
>
10
F > 10
F
>
10
Paneldata
•
FE:
Y
i
t
=
β
1
X
i
t
+
α
i
+
u
i
t
Y_{it} = \beta_1 X_{it} + \alpha_i + u_{it}
Y
i
t
=
β
1
X
i
t
+
α
i
+
u
i
t
•
Within:
Y
¨
i
t
=
β
1
X
¨
i
t
+
u
¨
i
t
\ddot{Y}_{it} = \beta_1 \ddot{X}_{it} + \ddot{u}_{it}
Y
¨
i
t
=
β
1
X
¨
i
t
+
u
¨
i
t
•
Hausman:
H
=
(
β
^
F
E
−
β
^
R
E
)
′
[
V
F
E
−
V
R
E
]
−
1
(
β
^
F
E
−
β
^
R
E
)
H = (\hat{\beta}_{FE}-\hat{\beta}_{RE})'[V_{FE}-V_{RE}]^{-1}(\hat{\beta}_{FE}-\hat{\beta}_{RE})
H
=
(
β
^
FE
−
β
^
RE
)
′
[
V
FE
−
V
RE
]
−
1
(
β
^
FE
−
β
^
RE
)
Difference-in-differences
•
δ
^
D
i
D
=
(
Y
ˉ
B
,
e
t
t
e
r
−
Y
ˉ
B
,
f
ø
r
)
−
(
Y
ˉ
K
,
e
t
t
e
r
−
Y
ˉ
K
,
f
ø
r
)
\hat{\delta}_{DiD} = (\bar{Y}_{B,etter}-\bar{Y}_{B,før}) - (\bar{Y}_{K,etter}-\bar{Y}_{K,før})
δ
^
D
i
D
=
(
Y
ˉ
B
,
e
tt
er
−
Y
ˉ
B
,
f
ø
r
)
−
(
Y
ˉ
K
,
e
tt
er
−
Y
ˉ
K
,
f
ø
r
)
•
Y
i
t
=
β
0
+
β
1
D
i
+
β
2
P
t
+
δ
(
D
i
×
P
t
)
+
u
i
t
Y_{it} = \beta_0 + \beta_1 D_i + \beta_2 P_t + \delta(D_i \times P_t) + u_{it}
Y
i
t
=
β
0
+
β
1
D
i
+
β
2
P
t
+
δ
(
D
i
×
P
t
)
+
u
i
t
•
TWFE:
Y
i
t
=
α
i
+
λ
t
+
δ
D
i
t
+
u
i
t
Y_{it} = \alpha_i + \lambda_t + \delta D_{it} + u_{it}
Y
i
t
=
α
i
+
λ
t
+
δ
D
i
t
+
u
i
t
Regresjonsdiskontinuitet
•
Sharp RDD:
τ
=
lim
x
↓
c
E
[
Y
∣
X
=
x
]
−
lim
x
↑
c
E
[
Y
∣
X
=
x
]
\tau = \lim_{x \downarrow c}E[Y|X=x] - \lim_{x \uparrow c}E[Y|X=x]
τ
=
lim
x
↓
c
E
[
Y
∣
X
=
x
]
−
lim
x
↑
c
E
[
Y
∣
X
=
x
]
•
Fuzzy RDD:
τ
=
hopp i
E
[
Y
∣
X
]
hopp i
E
[
D
∣
X
]
\displaystyle \tau = \frac{\text{hopp i }E[Y|X]}{\text{hopp i }E[D|X]}
τ
=
hopp i
E
[
D
∣
X
]
hopp i
E
[
Y
∣
X
]
ved
c
c
c
•
Lokal lineær:
Y
i
=
α
+
τ
D
i
+
β
1
(
X
i
−
c
)
+
β
2
D
i
(
X
i
−
c
)
+
u
i
Y_i = \alpha + \tau D_i + \beta_1(X_i-c) + \beta_2 D_i(X_i-c) + u_i
Y
i
=
α
+
τ
D
i
+
β
1
(
X
i
−
c
)
+
β
2
D
i
(
X
i
−
c
)
+
u
i
Logistisk regresjon
•
Logit:
P
(
Y
=
1
∣
X
)
=
1
1
+
e
−
X
′
β
\displaystyle P(Y=1|X) = \frac{1}{1+e^{-X'\beta}}
P
(
Y
=
1∣
X
)
=
1
+
e
−
X
′
β
1
•
Log-odds:
ln
(
P
/
(
1
−
P
)
)
=
X
′
β
\ln(P/(1-P)) = X'\beta
ln
(
P
/
(
1
−
P
))
=
X
′
β
•
Odds-ratio:
O
R
j
=
e
β
j
OR_j = e^{\beta_j}
O
R
j
=
e
β
j
•
Marginaleffekt:
Λ
(
X
′
β
)
[
1
−
Λ
(
X
′
β
)
]
⋅
β
j
\Lambda(X'\beta)[1-\Lambda(X'\beta)] \cdot \beta_j
Λ
(
X
′
β
)
[
1
−
Λ
(
X
′
β
)]
⋅
β
j
Tidsserier
•
AR(1):
Y
t
=
ϕ
0
+
ϕ
1
Y
t
−
1
+
u
t
Y_t = \phi_0 + \phi_1 Y_{t-1} + u_t
Y
t
=
ϕ
0
+
ϕ
1
Y
t
−
1
+
u
t
, stasjonær hvis
∣
ϕ
1
∣
<
1
|\phi_1|<1
∣
ϕ
1
∣
<
1
•
ADF:
Δ
Y
t
=
α
+
γ
Y
t
−
1
+
∑
δ
j
Δ
Y
t
−
j
+
u
t
\displaystyle \Delta Y_t = \alpha + \gamma Y_{t-1} + \sum \delta_j \Delta Y_{t-j} + u_t
Δ
Y
t
=
α
+
γ
Y
t
−
1
+
∑
δ
j
Δ
Y
t
−
j
+
u
t
•
Random walk:
Y
t
=
Y
t
−
1
+
u
t
Y_t = Y_{t-1} + u_t
Y
t
=
Y
t
−
1
+
u
t
Nøkkelformler per tema
Kausalitet og forskningsdesign
•
ATE:
τ
=
E
[
Y
i
(
1
)
−
Y
i
(
0
)
]
\tau = E[Y_i(1) - Y_i(0)]
τ
=
E
[
Y
i
(
1
)
−
Y
i
(
0
)]
•
ATT:
τ
A
T
T
=
E
[
Y
i
(
1
)
−
Y
i
(
0
)
∣
D
i
=
1
]
\tau_{ATT} = E[Y_i(1) - Y_i(0) | D_i = 1]
τ
A
TT
=
E
[
Y
i
(
1
)
−
Y
i
(
0
)
∣
D
i
=
1
]
•
Observert forskjell:
ATT
+
seleksjonsbias
\text{ATT} + \text{seleksjonsbias}
ATT
+
seleksjonsbias
Multippel regresjon og tolkning
•
OLS-modell:
Y
i
=
β
0
+
β
1
X
1
i
+
⋯
+
β
k
X
k
i
+
u
i
Y_i = \beta_0 + \beta_1 X_{1i} + \cdots + \beta_k X_{ki} + u_i
Y
i
=
β
0
+
β
1
X
1
i
+
⋯
+
β
k
X
ki
+
u
i
•
t-test:
t
=
β
^
j
/
SE
(
β
^
j
)
t = \hat{\beta}_j / \text{SE}(\hat{\beta}_j)
t
=
β
^
j
/
SE
(
β
^
j
)
•
F-test:
F
=
(
R
U
R
2
−
R
R
2
)
/
q
(
1
−
R
U
R
2
)
/
(
n
−
k
−
1
)
\displaystyle F = \frac{(R^2_{UR} - R^2_R)/q}{(1-R^2_{UR})/(n-k-1)}
F
=
(
1
−
R
U
R
2
)
/
(
n
−
k
−
1
)
(
R
U
R
2
−
R
R
2
)
/
q
•
OVB:
Bias
(
β
^
1
)
=
β
2
⋅
Cov
(
X
1
,
X
2
)
/
Var
(
X
1
)
\text{Bias}(\hat{\beta}_1) = \beta_2 \cdot \text{Cov}(X_1,X_2)/\text{Var}(X_1)
Bias
(
β
^
1
)
=
β
2
⋅
Cov
(
X
1
,
X
2
)
/
Var
(
X
1
)
•
Interaksjonseffekt:
∂
Y
/
∂
X
1
=
β
1
+
β
3
X
2
\partial Y/\partial X_1 = \beta_1 + \beta_3 X_2
∂
Y
/
∂
X
1
=
β
1
+
β
3
X
2
Instrumentvariabler
•
IV-estimator:
β
^
I
V
=
Cov
(
Z
,
Y
)
/
Cov
(
Z
,
X
)
\hat{\beta}^{IV} = \text{Cov}(Z,Y) / \text{Cov}(Z,X)
β
^
I
V
=
Cov
(
Z
,
Y
)
/
Cov
(
Z
,
X
)
•
Svakt instrument-regel: Førstesteg
F
>
10
F > 10
F
>
10
Paneldata og faste effekter
•
FE-modell:
Y
i
t
=
β
1
X
i
t
+
α
i
+
u
i
t
Y_{it} = \beta_1 X_{it} + \alpha_i + u_{it}
Y
i
t
=
β
1
X
i
t
+
α
i
+
u
i
t
•
Within-transformasjon:
Y
¨
i
t
=
β
1
X
¨
i
t
+
u
¨
i
t
\ddot{Y}_{it} = \beta_1 \ddot{X}_{it} + \ddot{u}_{it}
Y
¨
i
t
=
β
1
X
¨
i
t
+
u
¨
i
t
•
Hausman-test:
H
=
(
β
^
F
E
−
β
^
R
E
)
′
[
V
F
E
−
V
R
E
]
−
1
(
β
^
F
E
−
β
^
R
E
)
H = (\hat{\beta}_{FE} - \hat{\beta}_{RE})' [V_{FE} - V_{RE}]^{-1} (\hat{\beta}_{FE} - \hat{\beta}_{RE})
H
=
(
β
^
FE
−
β
^
RE
)
′
[
V
FE
−
V
RE
]
−
1
(
β
^
FE
−
β
^
RE
)
Difference-in-differences
•
DiD:
δ
^
=
(
Y
ˉ
B
,
e
t
t
e
r
−
Y
ˉ
B
,
f
ø
r
)
−
(
Y
ˉ
K
,
e
t
t
e
r
−
Y
ˉ
K
,
f
ø
r
)
\hat{\delta} = (\bar{Y}_{B,etter} - \bar{Y}_{B,før}) - (\bar{Y}_{K,etter} - \bar{Y}_{K,før})
δ
^
=
(
Y
ˉ
B
,
e
tt
er
−
Y
ˉ
B
,
f
ø
r
)
−
(
Y
ˉ
K
,
e
tt
er
−
Y
ˉ
K
,
f
ø
r
)
•
DiD-regresjon:
Y
i
t
=
β
0
+
β
1
D
i
+
β
2
P
t
+
δ
(
D
i
×
P
t
)
+
u
i
t
Y_{it} = \beta_0 + \beta_1 D_i + \beta_2 P_t + \delta (D_i \times P_t) + u_{it}
Y
i
t
=
β
0
+
β
1
D
i
+
β
2
P
t
+
δ
(
D
i
×
P
t
)
+
u
i
t
Regresjonsdiskontinuitet
•
Sharp RDD:
τ
=
lim
x
↓
c
E
[
Y
∣
X
=
x
]
−
lim
x
↑
c
E
[
Y
∣
X
=
x
]
\tau = \lim_{x \downarrow c} E[Y|X=x] - \lim_{x \uparrow c} E[Y|X=x]
τ
=
lim
x
↓
c
E
[
Y
∣
X
=
x
]
−
lim
x
↑
c
E
[
Y
∣
X
=
x
]
•
Fuzzy RDD:
τ
=
hopp i
E
[
Y
∣
X
]
hopp i
E
[
D
∣
X
]
\displaystyle \tau = \frac{\text{hopp i } E[Y|X]}{\text{hopp i } E[D|X]}
τ
=
hopp i
E
[
D
∣
X
]
hopp i
E
[
Y
∣
X
]
ved
c
c
c
•
Lokal lineær:
Y
i
=
α
+
τ
D
i
+
β
1
(
X
i
−
c
)
+
β
2
D
i
(
X
i
−
c
)
+
u
i
Y_i = \alpha + \tau D_i + \beta_1(X_i - c) + \beta_2 D_i(X_i - c) + u_i
Y
i
=
α
+
τ
D
i
+
β
1
(
X
i
−
c
)
+
β
2
D
i
(
X
i
−
c
)
+
u
i
Logistisk regresjon og diskrete valg
•
Logit:
P
(
Y
=
1
∣
X
)
=
1
1
+
e
−
X
′
β
\displaystyle P(Y=1|X) = \frac{1}{1 + e^{-X'\beta}}
P
(
Y
=
1∣
X
)
=
1
+
e
−
X
′
β
1
•
Odds-ratio:
e
β
j
e^{\beta_j}
e
β
j
•
Pseudo-
R
2
R^2
R
2
:
1
−
ℓ
(
β
^
)
/
ℓ
(
β
^
0
)
1 - \ell(\hat{\beta})/\ell(\hat{\beta}_0)
1
−
ℓ
(
β
^
)
/
ℓ
(
β
^
0
)
Tidsserieanalyse
•
Førstedifferens:
Δ
Y
t
=
Y
t
−
Y
t
−
1
\Delta Y_t = Y_t - Y_{t-1}
Δ
Y
t
=
Y
t
−
Y
t
−
1
Vanlige feil å unngå
Kausalitet og forskningsdesign
•
Tolker korrelasjon som kausalitet uten å diskutere identifikasjonsstrategien
•
Glemmer å diskutere seleksjonsbias når man sammenligner gjennomsnitt mellom grupper
•
Forveksler ATE og ATT — disse er like bare under spesielle forutsetninger
•
Tror at kontrollvariabler alltid fjerner all seleksjonsbias — det gjør de bare hvis de fanger opp alle confoundere
Multippel regresjon og tolkning
•
Glemmer «alt annet likt» i tolkningen — koeffisienten er den partielle effekten
•
Tolker log-koeffisienter som absolutte endringer i stedet for prosentvise
•
Tror høy
R
2
R^2
R
2
automatisk betyr en god modell —
R
2
R^2
R
2
sier ingenting om kausalitet
•
Forveksler statistisk signifikans med praktisk/økonomisk signifikans
•
Glemmer at OVB-retningen bestemmes av to ting: effekten av utelatt variabel OG korrelasjonen
Instrumentvariabler
•
Glemmer å argumentere for eksklusjonsrestriksjonen — den kan ikke testes direkte med bare ett instrument
•
Rapporterer standardfeil fra trinn 2 manuelt — disse er feil; bruk en dedikert 2SLS-prosedyre
•
Tror IV alltid gir bedre estimater enn OLS — IV har større varians og kan være skjev med svake instrumenter
•
Glemmer at IV identifiserer LATE, ikke nødvendigvis ATE
Paneldata og faste effekter
•
Glemmer at FE fjerner all mellom-enhets variasjon — kan ikke estimere effekten av tidskonstante variabler
•
Bruker RE uten å teste antagelsen om
Cov
(
α
i
,
X
i
t
)
=
0
\text{Cov}(\alpha_i, X_{it}) = 0
Cov
(
α
i
,
X
i
t
)
=
0
med Hausman-testen
•
Tolker FE som å «kontrollere for alt» — FE fjerner bare tidskonstante uobserverte forskjeller
•
Glemmer å clustre standardfeil på enhetsnivå i paneldata
Difference-in-differences
•
Glemmer å diskutere parallelle trender-antagelsen — dette er den viktigste forutsetningen
•
Viser parallelle trender i nivåer i stedet for trender — gruppene trenger ikke ha samme nivå, bare samme trend
•
Bruker standard TWFE med forskjøvet behandling uten å diskutere heterogenitetsproblemet
•
Glemmer å clustre standardfeil — minimum på gruppenivå
Regresjonsdiskontinuitet
•
Bruker observasjoner langt fra terskelen — RDD er en lokal metode
•
Glemmer McCrary-testen for manipulasjon av running variable
•
Bruker høy polynomgrad som gir ustabile og misvisende resultater
•
Generaliserer RDD-resultater til hele populasjonen — effekten gjelder bare nær terskelen
Logistisk regresjon og diskrete valg
•
Tolker logit-koeffisienter direkte som marginaleffekter — de er log-odds, ikke sannsynlighetsendringer
•
Glemmer at marginaleffekten varierer med
X
X
X
— rapporter AME (gjennomsnittlig marginaleffekt) eller MEM (marginaleffekt ved gjennomsnittet)
•
Bruker
R
2
R^2
R
2
fra lineær regresjon for logit — bruk pseudo-
R
2
R^2
R
2
eller AUC
•
Sammenligner koeffisienter på tvers av modeller med ulike kontrollvariabler uten å justere
Tidsserieanalyse
•
Kjører regresjon på ikke-stasjonære tidsserier uten å teste for enhetsrot — risiko for spuriøs regresjon
•
Bruker vanlige standardfeil i stedet for HAC ved autokorrelasjon
•
Tolker Granger-kausalitet som ekte kausalitet — det er bare prediktiv sammenheng
•
Glemmer at ADF-testen bruker egne kritiske verdier, ikke standard
t
t
t
-fordeling
Eksamenstips
Kausalitet og forskningsdesign
•
Formuler alltid det kontrafaktiske eksplisitt: «Hva ville skjedd uten behandlingen?»
•
Når du vurderer en studie, start med å identifisere potensielle kilder til seleksjonsbias
•
Bruk notasjonen
Y
i
(
1
)
Y_i(1)
Y
i
(
1
)
og
Y
i
(
0
)
Y_i(0)
Y
i
(
0
)
for å vise at du forstår rammeverket
Multippel regresjon og tolkning
•
Angi alltid «kontrollert for ...» når du tolker koeffisienter i multippel regresjon
•
Ved OVB-spørsmål: sett opp formelen og argumenter for fortegnene på begge komponentene
•
Husk å bruke robuste standardfeil (heteroskedastisitet-konsistente) i praksis
Instrumentvariabler
•
Beskriv alltid hvorfor instrumentet oppfyller både relevans- og eksklusjonskriteriet
•
Rapporter alltid førstesteg F-statistikk for å sjekke instrumentstyrke
•
Vurder om LATE-tolkningen er meningsfull i den gitte konteksten
Paneldata og faste effekter
•
Forklar intuitivt hva within-transformasjonen gjør: «sammenligner enheten med seg selv over tid»
•
Begrunn alltid valget mellom FE og RE — vis at du forstår Hausman-testen
•
Husk at toveis faste effekter (enhet + tid) kontrollerer for felles tidssjokk
Difference-in-differences
•
Tegn alltid et DiD-diagram med fire gjennomsnitt og vis den kontrafaktiske trenden
•
Forklar parallelle trender-antagelsen med egne ord og drøft om den er rimelig i konteksten
•
Ved event-studie: forklar at pre-treatment koeffisientene bør være nær null
Regresjonsdiskontinuitet
•
Tegn alltid en figur med running variable på x-aksen og utfall på y-aksen, med en klar diskontinuitet ved terskelen
•
Drøft om manipulasjon av running variable er sannsynlig i den gitte konteksten
•
Vis at du forstår forskjellen mellom sharp og fuzzy RDD — fuzzy er IV med terskelen som instrument
Logistisk regresjon og diskrete valg
•
Start alltid med å tolke fortegnet, deretter odds-ratio, og til slutt beregn marginaleffekten
•
Vis at du forstår at marginaleffekten avhenger av evalueringspunktet
•
Ved modellsammenligning: bruk LR-test for nestede modeller, AIC/BIC for ikke-nestede
Tidsserieanalyse
•
Start alltid med å teste for stasjonaritet før du kjører regresjoner på tidsseriedata
•
Hvis
R
2
>
D
W
R^2 > DW
R
2
>
D
W
-statistikken, mistenk spuriøs regresjon
•
Velg antall lags i ADF basert på informasjonskriterier (AIC/BIC)
MET4 Formelark | Eksamenssett