eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
eksamenssett
.no
Tren målrettet
Ungdomsskole/VGS
Høyskole
Ressurser
Skolenyttig
Forum
MET 2920 Formelark | Eksamenssett
MET 2920
Cheat Sheet
Formler, begreper og oppsummering
Statistikk for økonomer
eksamenssett.no
Formler
Sannsynlighet og fordelinger
•
P
(
A
∪
B
)
=
P
(
A
)
+
P
(
B
)
−
P
(
A
∩
B
)
P(A \cup B) = P(A) + P(B) - P(A \cap B)
P
(
A
∪
B
)
=
P
(
A
)
+
P
(
B
)
−
P
(
A
∩
B
)
Nøkkelformler per tema
Sannsynlighet
•
P
(
A
∪
B
)
=
P
(
A
)
+
P
(
B
)
−
P
(
A
∩
B
)
P(A \cup B) = P(A) + P(B) - P(A \cap B)
P
(
A
∪
B
)
=
P
(
A
)
+
P
(
B
)
−
P
(
A
∩
B
)
(Addisjonsregelen)
Vanlige feil å unngå
Sannsynlighet
•
Glemme at uavhengighetssjekken krever at P(X=x,Y=y) = P(X=x)*P(Y=y) for ALLE kombinasjoner -- det holder ikke a sjekke bare en.
•
Forveksle Cov(X,Y) og Cor(X,Y). Kovarians har enheter, korrelasjon er dimensjonslos mellom -1 og 1.
•
Glemme at E(aX + bY) = aE(X) + bE(Y) gjelder ALLTID, men Var(X+Y) = Var(X) + Var(Y) bare nar X og Y er uavhengige.
•
Summere feil i simultanfordelingstabellen -- kontroller alltid at alle sannsynligheter summerer til 1.
Fordelinger
•
Blande binomisk (med tilbakelegging) og hypergeometrisk (uten tilbakelegging). Eksamen V2024 hadde begge i samme oppgave.
•
Glemme a dele standardavviket pa sqrt(n) nar du standardiserer et gjennomsnitt i stedet for en enkeltobservasjon.
•
Sla opp feil i Z-tabellen. Husk: Tabell A gir P(Z <= z) for positive z-verdier, Tabell B for negative.
•
Bruke normalapproksimasjon uten a nevne at n er stor nok -- pa eksamen bor du nevne dette.
Konfidensintervall
•
Bruke z-verdi i stedet for t-verdi nar du lager KI for gjennomsnitt med ukjent sigma. For andeler brukes z.
•
Glemme a oppgi frihetsgrader (df) nar du leser av t-tabellen.
•
Gi bare tallet uten praktisk tolkning. Eksamen gir 0 poeng for 'vi forkaster/beholder' uten kontekstuell forklaring.
Eksamenstips
Sannsynlighet
•
Simultanfordelingsoppgaver kommer pa nesten hver eksamen. Lag marginaler forst, beregn deretter E(X), E(Y), E(XY) systematisk.
•
Uavhengighetssjekken er et ja/nei-sporsmal: sjekk EN celle og vis at likheten brytes.
•
Nar du finner Var(X+Y) med avhengige variabler, bruk Var(X+Y) = Var(X) + Var(Y) + 2*Cov(X,Y).
•
Eksamensoppgaver (V2024, V2025) kombinerer simultanfordeling med okonomisk tolkning -- forventet nettogevinst, forventet omsetning etc.
Fordelinger
•
Kombinasjonen normalfordeling + binomisk kommer pa HVER eksamen. Forst beregn p fra normalfordelingen, sa bruk binomisk.
•
Nar oppgaven spor om 'minst k', bruk P(X >= k) = 1 - P(X <= k-1). Regn ut hvert ledd for hand.
•
For store n (f.eks. n=150 eller n=350) er binomisk utregning umulig for hand -- bruk normalapproksimasjon.
•
Persentiler: Finn z-verdi fra tabell, regn tilbake: X = mu + z*sigma. F.eks. 99-persentilen: X = mu + 2.33*sigma.
Konfidensintervall
•
Mye brukte tabellverdier: z*_0.025 = 1.96 (95% KI), z*_0.05 = 1.65, z*_0.005 = 2.58 (99% KI).
•
Nar oppgaven spor 'hva kan du gjore for a fa et smalere KI?': oke utvalgsstorrelsen n.
•
Dualitet: Et 95% KI som ikke inneholder 0 (for differanse) tilsvarer forkastning av H0 pa 5% signifikansniva.
•
P
(
A
∣
B
)
=
P
(
A
∩
B
)
P
(
B
)
P(A|B) = \frac{P(A \cap B)}{P(B)}
P
(
A
∣
B
)
=
P
(
B
)
P
(
A
∩
B
)
•
E
(
X
)
=
∑
x
i
⋅
P
(
X
=
x
i
)
E(X) = \sum x_i \cdot P(X = x_i)
E
(
X
)
=
∑
x
i
⋅
P
(
X
=
x
i
)
•
Var
(
X
)
=
E
(
X
2
)
−
[
E
(
X
)
]
2
\text{Var}(X) = E(X^2) - [E(X)]^2
Var
(
X
)
=
E
(
X
2
)
−
[
E
(
X
)
]
2
•
Cov
(
X
,
Y
)
=
E
(
X
Y
)
−
E
(
X
)
⋅
E
(
Y
)
\text{Cov}(X,Y) = E(XY) - E(X) \cdot E(Y)
Cov
(
X
,
Y
)
=
E
(
X
Y
)
−
E
(
X
)
⋅
E
(
Y
)
•
P
(
X
=
k
)
=
(
n
k
)
p
k
(
1
−
p
)
n
−
k
P(X = k) = \binom{n}{k} p^k(1-p)^{n-k}
P
(
X
=
k
)
=
(
k
n
)
p
k
(
1
−
p
)
n
−
k
(Binomisk)
•
Z
=
X
−
μ
σ
Z = \frac{X - \mu}{\sigma}
Z
=
σ
X
−
μ
(Standardisering)
Konfidensintervall
•
x
ˉ
±
t
(
1
−
c
)
/
2
∗
⋅
s
n
\bar{x} \pm t^*_{(1-c)/2} \cdot \frac{s}{\sqrt{n}}
x
ˉ
±
t
(
1
−
c
)
/2
∗
⋅
n
s
(ett gj.snitt, df=n-1)
•
x
ˉ
1
−
x
ˉ
2
±
t
(
1
−
c
)
/
2
∗
⋅
s
1
2
n
1
+
s
2
2
n
2
\bar{x}_1 - \bar{x}_2 \pm t^*_{(1-c)/2} \cdot \sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}
x
ˉ
1
−
x
ˉ
2
±
t
(
1
−
c
)
/2
∗
⋅
n
1
s
1
2
+
n
2
s
2
2
(to gj.snitt, df=min(n1-1,n2-1))
•
p
^
±
z
(
1
−
c
)
/
2
∗
⋅
p
^
(
1
−
p
^
)
n
\hat{p} \pm z^*_{(1-c)/2} \cdot \sqrt{\frac{\hat{p}(1-\hat{p})}{n}}
p
^
±
z
(
1
−
c
)
/2
∗
⋅
n
p
^
(
1
−
p
^
)
(en andel)
•
p
^
1
−
p
^
2
±
z
(
1
−
c
)
/
2
∗
⋅
p
^
1
(
1
−
p
^
1
)
n
1
+
p
^
2
(
1
−
p
^
2
)
n
2
\hat{p}_1 - \hat{p}_2 \pm z^*_{(1-c)/2} \cdot \sqrt{\frac{\hat{p}_1(1-\hat{p}_1)}{n_1} + \frac{\hat{p}_2(1-\hat{p}_2)}{n_2}}
p
^
1
−
p
^
2
±
z
(
1
−
c
)
/2
∗
⋅
n
1
p
^
1
(
1
−
p
^
1
)
+
n
2
p
^
2
(
1
−
p
^
2
)
(to andeler)
Hypotesetesting
•
t
=
x
ˉ
−
μ
0
s
/
n
t = \frac{\bar{x} - \mu_0}{s/\sqrt{n}}
t
=
s
/
n
x
ˉ
−
μ
0
(ett gj.snitt, df=n-1)
•
t
=
x
ˉ
1
−
x
ˉ
2
s
1
2
/
n
1
+
s
2
2
/
n
2
t = \frac{\bar{x}_1 - \bar{x}_2}{\sqrt{s_1^2/n_1 + s_2^2/n_2}}
t
=
s
1
2
/
n
1
+
s
2
2
/
n
2
x
ˉ
1
−
x
ˉ
2
(to gj.snitt, df=min(n1-1,n2-1))
•
z
=
p
^
−
p
0
p
0
(
1
−
p
0
)
/
n
z = \frac{\hat{p} - p_0}{\sqrt{p_0(1-p_0)/n}}
z
=
p
0
(
1
−
p
0
)
/
n
p
^
−
p
0
(en andel, bruk p0 i nevner!)
•
z
=
p
^
1
−
p
^
2
p
^
(
1
−
p
^
)
(
1
/
n
1
+
1
/
n
2
)
z = \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{\hat{p}(1-\hat{p})(1/n_1 + 1/n_2)}}
z
=
p
^
(
1
−
p
^
)
(
1/
n
1
+
1/
n
2
)
p
^
1
−
p
^
2
(to andeler, \(\hat{p} = (X_1+X_2)/(n_1+n_2)\))
•
Forkast
H
0
H_0
H
0
dersom P-verdi
<
α
< \alpha
<
α
Regresjon
•
β
^
1
=
s
x
y
s
x
2
=
r
x
y
⋅
s
y
s
x
\hat{\beta}_1 = \frac{s_{xy}}{s_x^2} = r_{xy} \cdot \frac{s_y}{s_x}
β
^
1
=
s
x
2
s
x
y
=
r
x
y
⋅
s
x
s
y
•
β
^
0
=
y
ˉ
−
β
^
1
⋅
x
ˉ
\hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \cdot \bar{x}
β
^
0
=
y
ˉ
−
β
^
1
⋅
x
ˉ
•
R
2
=
r
x
y
2
=
S
S
E
S
S
T
=
1
−
S
S
R
S
S
T
R^2 = r_{xy}^2 = \frac{SSE}{SST} = 1 - \frac{SSR}{SST}
R
2
=
r
x
y
2
=
SST
SSE
=
1
−
SST
SSR
•
σ
^
e
=
S
S
R
n
−
2
\hat{\sigma}_e = \sqrt{\frac{SSR}{n-2}}
σ
^
e
=
n
−
2
SSR
(Residual standard error)
•
S
E
(
β
^
1
)
=
s
e
s
x
n
−
1
SE(\hat{\beta}_1) = \frac{s_e}{s_x\sqrt{n-1}}
SE
(
β
^
1
)
=
s
x
n
−
1
s
e
•
t
=
β
^
1
S
E
(
β
^
1
)
t = \frac{\hat{\beta}_1}{SE(\hat{\beta}_1)}
t
=
SE
(
β
^
1
)
β
^
1
(df = n-2)
Kji-kvadrat
•
χ
2
=
∑
(
obs
−
forv
)
2
forv
\chi^2 = \sum \frac{(\text{obs} - \text{forv})^2}{\text{forv}}
χ
2
=
∑
forv
(
obs
−
forv
)
2
•
Forv
i
j
=
radsum
i
⋅
kolonnesum
j
totalsum
\text{Forv}_{ij} = \frac{\text{radsum}_i \cdot \text{kolonnesum}_j}{\text{totalsum}}
Forv
ij
=
totalsum
radsum
i
⋅
kolonnesum
j
•
d
f
=
(
r
−
1
)
(
k
−
1
)
df = (r-1)(k-1)
df
=
(
r
−
1
)
(
k
−
1
)
(uavhengighetstest)
Mye brukte tabellverdier
•
z
0.10
∗
=
1.29
,
z
0.05
∗
=
1.65
,
z
0.025
∗
=
1.96
,
z
0.01
∗
=
2.33
,
z
0.005
∗
=
2.58
z^*_{0.10} = 1.29, \quad z^*_{0.05} = 1.65, \quad z^*_{0.025} = 1.96, \quad z^*_{0.01} = 2.33, \quad z^*_{0.005} = 2.58
z
0.10
∗
=
1.29
,
z
0.05
∗
=
1.65
,
z
0.025
∗
=
1.96
,
z
0.01
∗
=
2.33
,
z
0.005
∗
=
2.58
•
P
(
A
∣
B
)
=
P
(
A
∩
B
)
P
(
B
)
P(A|B) = \frac{P(A \cap B)}{P(B)}
P
(
A
∣
B
)
=
P
(
B
)
P
(
A
∩
B
)
(Betinget sannsynlighet)
•
E
(
X
)
=
∑
x
i
⋅
P
(
X
=
x
i
)
E(X) = \sum x_i \cdot P(X = x_i)
E
(
X
)
=
∑
x
i
⋅
P
(
X
=
x
i
)
(Forventning)
•
Var
(
X
)
=
E
(
X
2
)
−
[
E
(
X
)
]
2
\text{Var}(X) = E(X^2) - [E(X)]^2
Var
(
X
)
=
E
(
X
2
)
−
[
E
(
X
)
]
2
(Varians)
•
Cov
(
X
,
Y
)
=
E
(
X
Y
)
−
E
(
X
)
⋅
E
(
Y
)
\text{Cov}(X,Y) = E(XY) - E(X) \cdot E(Y)
Cov
(
X
,
Y
)
=
E
(
X
Y
)
−
E
(
X
)
⋅
E
(
Y
)
(Kovarians)
•
E
(
a
X
+
b
Y
)
=
a
E
(
X
)
+
b
E
(
Y
)
E(aX + bY) = aE(X) + bE(Y)
E
(
a
X
+
bY
)
=
a
E
(
X
)
+
b
E
(
Y
)
(Linearitet)
Fordelinger
•
P
(
X
=
x
)
=
(
n
x
)
p
x
(
1
−
p
)
n
−
x
P(X = x) = \binom{n}{x} p^x (1-p)^{n-x}
P
(
X
=
x
)
=
(
x
n
)
p
x
(
1
−
p
)
n
−
x
(Binomisk)
•
P
(
X
=
k
)
=
(
K
k
)
(
N
−
K
n
−
k
)
(
N
n
)
P(X = k) = \frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}
P
(
X
=
k
)
=
(
n
N
)
(
k
K
)
(
n
−
k
N
−
K
)
(Hypergeometrisk)
•
X
ˉ
∼
N
(
μ
,
σ
n
)
\bar{X} \sim N\left(\mu, \frac{\sigma}{\sqrt{n}}\right)
X
ˉ
∼
N
(
μ
,
n
σ
)
(Gjennomsnitt av normalfordelte)
•
Bin
(
n
,
p
)
≈
N
(
n
p
,
n
p
(
1
−
p
)
)
\text{Bin}(n,p) \approx N(np, \sqrt{np(1-p)})
Bin
(
n
,
p
)
≈
N
(
n
p
,
n
p
(
1
−
p
)
)
(Normalapproksimasjon)
Konfidensintervall
•
x
ˉ
±
t
(
1
−
c
)
/
2
∗
⋅
s
n
\bar{x} \pm t^*_{(1-c)/2} \cdot \frac{s}{\sqrt{n}}
x
ˉ
±
t
(
1
−
c
)
/2
∗
⋅
n
s
(KI for ett gjennomsnitt, df = n-1)
•
x
ˉ
1
−
x
ˉ
2
±
t
(
1
−
c
)
/
2
∗
⋅
s
1
2
n
1
+
s
2
2
n
2
\bar{x}_1 - \bar{x}_2 \pm t^*_{(1-c)/2} \cdot \sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}
x
ˉ
1
−
x
ˉ
2
±
t
(
1
−
c
)
/2
∗
⋅
n
1
s
1
2
+
n
2
s
2
2
(KI for differanse gjennomsnitt, df = min(n1-1, n2-1))
•
p
^
±
z
(
1
−
c
)
/
2
∗
⋅
p
^
(
1
−
p
^
)
n
\hat{p} \pm z^*_{(1-c)/2} \cdot \sqrt{\frac{\hat{p}(1-\hat{p})}{n}}
p
^
±
z
(
1
−
c
)
/2
∗
⋅
n
p
^
(
1
−
p
^
)
(KI for andel)
•
p
^
1
−
p
^
2
±
z
(
1
−
c
)
/
2
∗
⋅
p
^
1
(
1
−
p
^
1
)
n
1
+
p
^
2
(
1
−
p
^
2
)
n
2
\hat{p}_1 - \hat{p}_2 \pm z^*_{(1-c)/2} \cdot \sqrt{\frac{\hat{p}_1(1-\hat{p}_1)}{n_1} + \frac{\hat{p}_2(1-\hat{p}_2)}{n_2}}
p
^
1
−
p
^
2
±
z
(
1
−
c
)
/2
∗
⋅
n
1
p
^
1
(
1
−
p
^
1
)
+
n
2
p
^
2
(
1
−
p
^
2
)
(KI for differanse andeler)
Hypotesetesting
•
t
=
x
ˉ
−
μ
0
s
/
n
t = \frac{\bar{x} - \mu_0}{s/\sqrt{n}}
t
=
s
/
n
x
ˉ
−
μ
0
(t-test for ett gjennomsnitt, df = n-1)
•
t
=
x
ˉ
1
−
x
ˉ
2
s
1
2
/
n
1
+
s
2
2
/
n
2
t = \frac{\bar{x}_1 - \bar{x}_2}{\sqrt{s_1^2/n_1 + s_2^2/n_2}}
t
=
s
1
2
/
n
1
+
s
2
2
/
n
2
x
ˉ
1
−
x
ˉ
2
(t-test for to gjennomsnitt, df = min(n1-1, n2-1))
•
z
=
p
^
−
p
0
p
0
(
1
−
p
0
)
/
n
z = \frac{\hat{p} - p_0}{\sqrt{p_0(1-p_0)/n}}
z
=
p
0
(
1
−
p
0
)
/
n
p
^
−
p
0
(z-test for en andel)
•
z
=
p
^
1
−
p
^
2
p
^
(
1
−
p
^
)
(
1
/
n
1
+
1
/
n
2
)
z = \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{\hat{p}(1-\hat{p})(1/n_1 + 1/n_2)}}
z
=
p
^
(
1
−
p
^
)
(
1/
n
1
+
1/
n
2
)
p
^
1
−
p
^
2
(z-test for to andeler, \(\hat{p} = (X_1+X_2)/(n_1+n_2)\))
•
Forkast \(H_0\) hvis P-verdi \(< \alpha\)
Regresjon
•
β
^
1
=
s
x
y
s
x
2
=
r
x
y
⋅
s
y
s
x
\hat{\beta}_1 = \frac{s_{xy}}{s_x^2} = r_{xy} \cdot \frac{s_y}{s_x}
β
^
1
=
s
x
2
s
x
y
=
r
x
y
⋅
s
x
s
y
(Stigningstall)
•
β
^
0
=
y
ˉ
−
β
^
1
⋅
x
ˉ
\hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \cdot \bar{x}
β
^
0
=
y
ˉ
−
β
^
1
⋅
x
ˉ
(Konstantledd)
•
R
2
=
r
x
y
2
R^2 = r_{xy}^2
R
2
=
r
x
y
2
(Forklaringskraft)
•
t
=
β
^
1
S
E
(
β
^
1
)
,
d
f
=
n
−
2
t = \frac{\hat{\beta}_1}{SE(\hat{\beta}_1)}, \quad df = n-2
t
=
SE
(
β
^
1
)
β
^
1
,
df
=
n
−
2
(Test for beta_1)
•
S
E
(
β
^
1
)
=
s
e
s
x
n
−
1
SE(\hat{\beta}_1) = \frac{s_e}{s_x \sqrt{n-1}}
SE
(
β
^
1
)
=
s
x
n
−
1
s
e
(Standardfeil for beta_1)
Korrelasjon
•
s
x
y
=
1
n
−
1
∑
(
x
i
−
x
ˉ
)
(
y
i
−
y
ˉ
)
s_{xy} = \frac{1}{n-1}\sum(x_i - \bar{x})(y_i - \bar{y})
s
x
y
=
n
−
1
1
∑
(
x
i
−
x
ˉ
)
(
y
i
−
y
ˉ
)
(Utvalgskovarians)
•
r
x
y
=
s
x
y
s
x
⋅
s
y
r_{xy} = \frac{s_{xy}}{s_x \cdot s_y}
r
x
y
=
s
x
⋅
s
y
s
x
y
(Utvalgskorrelasjon)
•
r
x
y
=
±
R
2
r_{xy} = \pm\sqrt{R^2}
r
x
y
=
±
R
2
(Sammenheng med R-squared)
•
ρ
X
Y
=
Cov
(
X
,
Y
)
σ
X
⋅
σ
Y
\rho_{XY} = \frac{\text{Cov}(X,Y)}{\sigma_X \cdot \sigma_Y}
ρ
X
Y
=
σ
X
⋅
σ
Y
Cov
(
X
,
Y
)
(Populasjonskorrelasjon)
Kji-kvadrat-test
•
χ
2
=
∑
(
observert
−
forventet
)
2
forventet
\chi^2 = \sum \frac{(\text{observert} - \text{forventet})^2}{\text{forventet}}
χ
2
=
∑
forventet
(
observert
−
forventet
)
2
(Testobservator)
•
Forv
i
j
=
(
radsum
i
)
⋅
(
kolonnesum
j
)
totalsum
\text{Forv}_{ij} = \frac{(\text{radsum}_i) \cdot (\text{kolonnesum}_j)}{\text{totalsum}}
Forv
ij
=
totalsum
(
radsum
i
)
⋅
(
kolonnesum
j
)
(Forventede verdier)
•
d
f
=
(
r
−
1
)
(
k
−
1
)
df = (r-1)(k-1)
df
=
(
r
−
1
)
(
k
−
1
)
(Frihetsgrader for uavhengighetstest)
•
d
f
=
m
−
1
df = m - 1
df
=
m
−
1
(Frihetsgrader for goodness-of-fit)
Variansanalyse (ANOVA)
•
F
=
S
S
B
/
(
k
−
1
)
S
S
W
/
(
n
−
k
)
F = \frac{SSB/(k-1)}{SSW/(n-k)}
F
=
SS
W
/
(
n
−
k
)
SSB
/
(
k
−
1
)
(ANOVA F-test)
•
S
S
T
=
S
S
B
+
S
S
W
SST = SSB + SSW
SST
=
SSB
+
SS
W
(Dekomponering av variasjon)
•
For to grupper: \(F = t^2\) (ekvivalens med t-test)
•
I R-utskrift for regresjon: F-statistic tester \(H_0: \beta_1 = 0\)
•
Bruke feil formel for standardfeil: SE for gjennomsnitt (s/sqrt(n)) vs. SE for andel (sqrt(p*(1-p)/n)).
Hypotesetesting
•
Bruke p-hat i nevneren for test av en andel i stedet for p0 fra nullhypotesen. Ved KI bruker vi p-hat, ved test bruker vi p0!
•
Sette opp feil retning pa H_A. Les oppgaveteksten noyaktig: 'storre enn' = ensidig ovre, 'forskjell' = tosidig.
•
Gi null poeng-konklusjon: 'forkaster H0'. Eksamen krever ALLTID praktisk tolkning i kontekst.
•
Forveksle Type I og Type II feil. Husk: Type I = forkaste sann H0 (falsk alarm). Type II = beholde gal H0 (bom).
Regresjon
•
Glemme at P-verdien i R-utskriften er TOSIDIG. Del pa 2 for ensidig test!
•
Forveksle SSE og SSR. SSR = sum av kvadrerte residualer. SSE = sum av forklart variasjon. SST = SSE + SSR.
•
Konkludere med arsakssammenheng bare fordi regresjonen er signifikant. Husk konfunderende variabler!
•
Bruke feil frihetsgrader: df = n-2 for regresjon (ikke n-1 som for t-test av gjennomsnitt).
Korrelasjon
•
Glemme fortegnet nar du beregner r fra R-squared. Fortegnet folger beta_1-hat!
•
Blande kovarians (dimensjonsbeheftet) og korrelasjon (dimensjonslos). Pa eksamen kan du fa begge.
•
Tro at r nart 0 betyr 'ingen sammenheng'. Det betyr bare ingen LINEAR sammenheng.
•
Dele pa n i stedet for n-1 i utvalgskovarians/korrelasjon.
Kji-kvadrat-test
•
Bruke feil frihetsgrader. For 2x4-tabell er df = (2-1)(4-1) = 3, ikke 7.
•
Glemme a beregne ALLE cellene i kji-kvadrat-summen -- bade rad 1 og rad 2.
•
Bruke observerte verdier i stedet for forventede verdier i nevneren.
•
Forveksle kji-kvadrat-tabell (ensidig, hoyrehale) med t- eller z-tabell.
Variansanalyse (ANOVA)
•
Forveksle SSB (mellom grupper) og SSW (innad i grupper).
•
Bruke feil frihetsgrader: df1 = k-1 (teller), df2 = n-k (nevner).
•
Tro at ANOVA forteller HVILKE grupper som er ulike -- den sier bare at minst to er ulike.
•
Forveksle F-tabellen med kji-kvadrat-tabellen. F har to frihetsgrader (teller og nevner).
•
Pa eksamen H2024 og V2025 var det KI-oppgave for bade ett gjennomsnitt, to gjennomsnitt OG andel -- alt i samma eksamen.
Hypotesetesting
•
Oppgaven sier alltid hvilket signifikansniva du skal bruke. Sjekk dette for du starter!
•
Skriv alltid de 5 stegene: H0, HA, testobservator, P-verdi, konklusjon med tolkning.
•
Ved ensidig test: P-verdien er HALV sa stor som ved tosidig. Husk a dele/ikke dele avhengig av retning.
•
Oppgave 2g (H2025): 'Hva er det laveste signifikansniva for a IKKE forkaste H0?' Svar: Ethvert alfa <= P-verdien.
Regresjon
•
Regresjonsoppgaven er den storste pa eksamen (typisk 9-12 poeng). Oev pa a lese R-utskrifter raskt.
•
For a finne korrelasjon r fra R-utskriften: r = +/-sqrt(R-squared). Fortegnet er det samme som beta_1-hat.
•
Tolkning av beta_1 MED kontekst gir ekstra poeng. Skriv: 'For hvert ar eldre bygningen er, oker Prom med 0.58 kvm i gjennomsnitt.'
•
Pa eksamen H2024 og V2025 matte du bade beregne for hand OG lese R-utskrift. Forbered begge deler!
Korrelasjon
•
Korrelasjon beregnes nesten alltid i forbindelse med regresjonsoppgaven. Ha formelen r = s_xy / (s_x * s_y) klar.
•
Kontrollen r^2 = R-squared fra R-utskriften er en god sjakk pa beregningene dine.
•
Oev pa a beregne kovarians og korrelasjon fra sma datasett (n=3 eller n=4) for hand -- dette gis pa nesten hver eksamen.
Kji-kvadrat-test
•
Kji-kvadrat-testen dukket opp pa H2023-eksamen. Forventede verdier er ofte oppgitt i parentes i oppgaveteksten.
•
Vis utregningen for minst 2-3 celler eksplisitt, og skriv sa totalsum.
•
Forkastningsregelen er alltid hoyrehale: forkast hvis chi^2 > kritisk verdi.
•
Det er bare noen fa kritiske verdier du trenger fra kji-kvadrat-tabellen (df = 1,2,3 for alfa = 0.01, 0.05).
•
Kji-kvadrat-testen er alltid ensidig (hoyrehale). Stor chi^2 betyr stor avstand mellom observert og forventet.
Variansanalyse (ANOVA)
•
ANOVA i ren form har ikke dominert eksamen, men F-statistikken i R-utskriften er viktig a forstaa.
•
Nar du har bare to grupper, bruk t-test -- det er det eksamen fokuserer pa.
•
Forstaa prinsippet: vi sammenligner variasjon mellom grupper med variasjon innad. Stort F-forhold = store forskjeller.
•
Les F-statistikk og p-value i R-utskriften for a avgjore om modellen har forklaringskraft.