Föreläsning 25

Hypotesprövning

13.1

Vi har en ESP-man (ExtraSensory Perception) som påstår sig kunna känna av om det blir krona eller klave på myntet.

Hypotes: Alex har ESP.

Singla en femkrona 12 gånger. Alex berättar efter varje singling vad han tror det blev.
overline(underline(x))= antal rätt. overline(underline(x)) in "Bin"(12, p)

Utgångsresultatet är att inget har hänt, att allt är som "normalt".
Dvs H_0: Alex gissar, H_1: Alex har ESP.

Nollhypotesen är ekvilalent mot p=1/2 , medans H_1 iff p>t, där t är någon gräns som vi kan bestämma i förväg.
Mats anser att t = 1/2 är för generöst och Mattias anser att t = 98% är bättre, vilket om vi kollar i tabellen översätts till ungefär 10 gånger rätt på 12.

Vi prövar med lite siffror:

Förkasta H_0 om x>=9 => Signifikansnivån alpha = P(overline(underline(x)) >= 9) = 1-P(overline(underline(x)) <= 9) = 1-0.927 = 0.073

Förkasta H_0 om x>=10 => Signifikansnivån alpha = P(overline(underline(x)) >= 10) = 1-P(overline(underline(x)) <= 10) = 1-0.98071 = 0.019

Om Alex får 10 rätt av 12 försök så kan vi säga att han har ESP med 1.9% felrisk.

Experiment

1 = Krona, 0 = Klave

Data: 0 1 1 0 0 1 0 0 1 0 0 1 = 7st 0, 5st 1
Alex: 1 1 0 1 1 0 0 1 0 0 1 0 = 6st 0, 6st 1
XNOR: 0 1 0 0 0 0 1 0 0 1 0 0 = 9st 0, 3st 1

p_"Alex"^(**) = 3/12 = 0.25
:. H_0 kan inte förkastas helt enkelt.

Hade vi fått x >= 10 => alpha = 1.1% => H_0 förkastas eftersom det är så osannolikt att H_0 är sant.

alpha = P( förkasta H_0 | H_0 sann ), signifikansnivå.
1-beta = P( förkasta H_0 | H_1 sann ), testets styrka

Ett bra test har alpha litet och beta stort.

Ex Stickprov

overline(underline(x))_i in N(mu, sigma) där sigma är känd.
mu^(**) = overline(overline(underline(x))) in N(mu, sigma/sqrt(n))

H_0: mu = mu_0, H_1: mu > mu_0

H_0 är det sannolika, H_1 är det osannolika.

Testvariabel t(overline(underline(x))) = ( overline(overline(underline(x))) - mu )/(sigma/sqrt(n))

Exempel

overline(underline(x))_i= livslängd av en brytpinne
overline(underline(x))_i in N(mu, 10), n=15

Person A:s hypoteser:

H_0: mu = 190, H_1: mu = 200

alpha = 0.01(0.05, 0.001)

Testvariabel t(overline(underline(x))) = (overline(overline(underline(x)))-190) / (10/sqrt(15)) in N(0,1)

Förkasta H_0 om t(x) > lambda_0.01 , dvs testvariabeln hamnar utanför gränsen för 1% chans på normalfördelningen.
Kolla upp lambda_0.01 i lilla tabellen.

t(x) = (194.8-190)/(10/sqrt(15)) = 1.85 < 2.3263 => Förkasta H_0 .
P(overline(overline(underline(x))) > 194.8 | mu = 190) = 1-phi( (194.8-190)/(10/sqrt(15)) ) = 1-0.9678 = 0.0322 > 0.01

Dvs minsta signifikansnivå där vi förkastar H_0 är alpha = 0.01

overline(overline(underline(x))) > 190+2.3263*10/sqrt(15) ~~ 196.01 > 194.8 => H_0 förkastas inte.

Styrkan på testet 1-beta , dvs hur stor är sannolikheten att upptäcka att H_1 är sann?

1-beta = P( förkasta H_0 | H_1 sann )

= P(overline(overline(underline(x))) > 196.01 | mu = 200) = 1-phi( (196.01-200)/(10/sqrt(15)) ) = phi(1.55) = 0.9394 ~~ 94%. :. Typ 2-felet = 6% .

Det är väldigt hög styrka! Bra test helt enkelt.

Person B:s hypoteser

H_0: mu = 200, H_1: mu = 190
alpha = 0.01

Testvariabel t(overline(underline(x))) = ( overline(overline(underline(x)))-200 )/(10/sqrt(15))
Förkasta H_0 om t(x) < -lambda_0.01 = -2.3263

t(x) = (194.8 - 200)/(10/sqrt(15)) = -2.01 > -2.3263 => H_0 förkastas inte.
H_0 förkastas om overline(x) < 200 - 2.3263*10/sqrt(15) = 193.99 < 194.8 => H_0 förkastas inte.

P(overline(underline(x)) < 194.8 | mu=200) = 1-0.9788 ~~ 0.022 > 0.01 => H_0 förkastas inte.

H_0 inte förkastad != H_0 sann.

overline(underline(x))_i in N(mu, 10), n = 15, overline(x) = 194.8
Bestäm ett 98% konfidensintervall för mu .

mu in (194.8+- 2.3263*10/sqrt(15)) (98%)
mu in (188.79, 200.81) (98%)

Alltså. Både mu=190 och mu=200 kan vara sant. (98%)