Föreläsning 25
Hypotesprövning
13.1
Vi har en ESP-man (ExtraSensory Perception) som påstår sig kunna känna av om det blir krona eller klave på myntet.
Hypotes: Alex har ESP.
Singla en femkrona 12 gånger. Alex berättar efter varje singling vad han tror det blev.
overline(underline(x))=
antal rätt.
overline(underline(x)) in "Bin"(12, p)
Utgångsresultatet är att inget har hänt, att allt är som "normalt".
Dvs
H_0:
Alex gissar,
H_1:
Alex har ESP.
Nollhypotesen är ekvilalent mot
p=1/2
, medans
H_1 iff p>t,
där
t
är någon gräns som vi kan bestämma i förväg.
Mats anser att
t = 1/2
är för generöst och Mattias anser att
t = 98%
är bättre, vilket om vi kollar i tabellen översätts till ungefär 10 gånger rätt på 12.
Vi prövar med lite siffror:
Förkasta
H_0
om
x>=9 =>
Signifikansnivån
alpha = P(overline(underline(x)) >= 9) = 1-P(overline(underline(x)) <= 9) = 1-0.927 = 0.073
Förkasta
H_0
om
x>=10 =>
Signifikansnivån
alpha = P(overline(underline(x)) >= 10) = 1-P(overline(underline(x)) <= 10) = 1-0.98071 = 0.019
Om Alex får 10 rätt av 12 försök så kan vi säga att han har ESP med
1.9%
felrisk.
Experiment
1 = Krona, 0 = Klave
Data: 0 1 1 0 0 1 0 0 1 0 0 1 = 7st 0, 5st 1
Alex: 1 1 0 1 1 0 0 1 0 0 1 0 = 6st 0, 6st 1
XNOR: 0 1 0 0 0 0 1 0 0 1 0 0 = 9st 0, 3st 1
p_"Alex"^(**) = 3/12 = 0.25
:. H_0
kan inte förkastas helt enkelt.
Hade vi fått
x >= 10 => alpha = 1.1% => H_0
förkastas eftersom det är så osannolikt att
H_0
är sant.
alpha = P(
förkasta
H_0 | H_0
sann
),
signifikansnivå.
1-beta = P(
förkasta
H_0 | H_1
sann
),
testets styrka
Ett bra test har
alpha
litet och
beta
stort.
Ex Stickprov
overline(underline(x))_i in N(mu, sigma)
där
sigma
är känd.
mu^(**) = overline(overline(underline(x))) in N(mu, sigma/sqrt(n))
H_0: mu = mu_0, H_1: mu > mu_0
H_0
är det sannolika,
H_1
är det osannolika.
Testvariabel
t(overline(underline(x))) = ( overline(overline(underline(x))) - mu )/(sigma/sqrt(n))
Exempel
overline(underline(x))_i=
livslängd av en brytpinne
overline(underline(x))_i in N(mu, 10), n=15
Person A:s hypoteser:
H_0: mu = 190, H_1: mu = 200
alpha = 0.01(0.05, 0.001)
Testvariabel
t(overline(underline(x))) = (overline(overline(underline(x)))-190) / (10/sqrt(15)) in N(0,1)
Förkasta
H_0
om
t(x) > lambda_0.01
, dvs testvariabeln hamnar utanför gränsen för 1% chans på normalfördelningen.
Kolla upp
lambda_0.01
i lilla tabellen.
t(x) = (194.8-190)/(10/sqrt(15)) = 1.85 < 2.3263 =>
Förkasta
H_0
.
P(overline(overline(underline(x))) > 194.8 | mu = 190) = 1-phi( (194.8-190)/(10/sqrt(15)) ) = 1-0.9678 = 0.0322 > 0.01
Dvs minsta signifikansnivå där vi förkastar
H_0
är
alpha = 0.01
overline(overline(underline(x))) > 190+2.3263*10/sqrt(15) ~~ 196.01 > 194.8 => H_0
förkastas inte.
Styrkan på testet
1-beta
, dvs hur stor är sannolikheten att upptäcka att
H_1
är sann?
1-beta = P(
förkasta
H_0 | H_1
sann
)
= P(overline(overline(underline(x))) > 196.01 | mu = 200) = 1-phi( (196.01-200)/(10/sqrt(15)) ) = phi(1.55) = 0.9394 ~~ 94%. :.
Typ 2-felet
= 6%
.
Det är väldigt hög styrka! Bra test helt enkelt.
Person B:s hypoteser
H_0: mu = 200, H_1: mu = 190
alpha = 0.01
Testvariabel
t(overline(underline(x))) = ( overline(overline(underline(x)))-200 )/(10/sqrt(15))
Förkasta
H_0
om
t(x) < -lambda_0.01 = -2.3263
t(x) = (194.8 - 200)/(10/sqrt(15)) = -2.01 > -2.3263 => H_0
förkastas inte.
H_0
förkastas om
overline(x) < 200 - 2.3263*10/sqrt(15) = 193.99 < 194.8 => H_0
förkastas inte.
P(overline(underline(x)) < 194.8 | mu=200) = 1-0.9788 ~~ 0.022 > 0.01 => H_0
förkastas inte.
H_0
inte förkastad
!=
H_0
sann.
overline(underline(x))_i in N(mu, 10), n = 15, overline(x) = 194.8
Bestäm ett 98% konfidensintervall för
mu
.
mu in (194.8+- 2.3263*10/sqrt(15)) (98%)
mu in (188.79, 200.81) (98%)
Alltså. Både
mu=190
och
mu=200
kan vara sant.
(98%)