Föreläsning 13
Beroendemått
Kovarians för
X
och
Y
definieras som
C(X,Y) = E((X-mu_1)(Y-mu_2)) = E(XY)-E(X)E(Y)
Om
C(X,Y)=0
sägs
X
och
Y
vara okorrelerade, dvs
E(XY)=E(X)E(Y)
Kollerationskoefficient
rho
rho(X,Y)=(C(X,Y))/(D(X)D(Y)); -1 <= rho <= 1
Exempel beroendemått
En stokastisk variabel
(overline(underline(x)), Y)
beskrivs av
p(x,y)
enligt
y\x
-1
0
1
p_y(y)
-1
0.05
0.1
0.05
0.12
0
0.1
0.4
0.1
0.6
1
0.05
0.1
0.15
0.2
1
0.05
0.1
0.15
0.2
p_overline(underline(x))(x)
0.2
0.6
0.2
1
Beräkna
C(overline(underline(x)), Y)
.
C(overline(underline(x)),Y)=E(overline(underline(x)) Y)-E(overline(underline(x)))E(Y)
E(overline(underline(x))) = E(Y) = sum_-1^1 x p(x) = 0
E(overline(underline(x)) Y) = sum_(y=-1)^1 sum_(x=-1)^1 x*y*p(x,y) = (-1)(-1)*0.05 + 0+ (-1)*1*0.05 + 0 + 0 + 0 + 1-1*0.05 + 0 + 1*1*0.05 = 0
C(overline(underline(x)), Y)=0, :.
okorrelerade.
Är
overline(underline(x)), Y
oberoende? Vi tar oss en titt på formeln för oberoende:
Oberoende
overline(underline(x))
och
Y
är oberoende om
P(x,y) = P_overline(underline(x))(x)*P_Y(y)
Dvs
P(-1,-1)=P_overline(underline(x))(-1)*P_Y(-1) iff 0.05=0.2*0.2
. Alltså är
overline(underline(x))
och
Y
beroende.
En kul implikation
overline(underline(x)), Y
oberoende
=> overline(underline(x)), Y
okorrelerade.
P(x,y) = P_overline(underline(x))(x)*P_Y(y) => C(overline(underline(x)), Y)=0
Ex. Slå en 4-sidig tärning två gånger
overline(underline(x))=1:a
slaget
Y=2:a
slaget
z_1=overline(underline(x))+Y
z_2=overline(underline(x))-Y
(y)x
1
2
3
4
p_Y(y)=p_overline(underline(x))(x)
1/4
1/4
1/4
1/4
z_1
2
3
4
5
6
7
8
p(z_1)
1/16
2/16
3/16
4/16
3/16
2/16
1/16
z_2
-3
-2
-1
0
1
2
3
p(z_1)
1/16
2/16
3/16
4/16
3/16
2/16
1/16
Vad har vi för väntevärde/varians?
E(z_1)=sum_2^8 z_1 p(z_1) = 5
E(z_2)=sum_-3^3 z_2 p(z_2) = 0
Spridningen bör vara exakt samma. Vi utnyttjar den smidiga omskrivningen som vi känner till sen innan:
Varians
V(x)=E((X-mu)^2) = E(X^2)-mu^2
V(z_1)=V(z_2) = sum_(z_1=2)^8 z_1^2 p(z_1)-5^2=sum_(z_2=-3)^3 z_2^2 p(z_2)-0^2 = … = 5/2
Vi kan utnyttja lite definitioner för att skriva om uttrycken.
E(aX+b)=aE(x)+b
V(aX+b)=a^2E(x)+b
D(aX+b)=a^2E(x)+b
????
E(overline(underline(x))+Y)=5, V(overline(underline(x))+Y)=5/2
E(overline(underline(x))-Y)=0, V(overline(underline(x))-Y)=5/2
E(overline(underline(x))+Y)=E(overline(underline(x)))+E(Y) = 5/2+5/2 = 5
E(overline(underline(x))-Y)=E(overline(underline(x)))-E(Y) = 0
V(overline(underline(x))+Y)obrace(=)^("oberoende")=V(overline(underline(x)))+V(Y)=5/4+5/4=5/2
V(overline(underline(x))-Y)obrace(=)^("oberoende")=V(overline(underline(x)))+V(-1*Y)=V(x)+(-1)^2*V(Y) = V(overline(underline(x)))+V(Y)=5/2
5.28
Visa att om
V(overline(underline(x)))=1
och
V(Y)=16
så gäller
9 <= V(overline(underline(x))+Y) <= 25
Om
overline(underline(x))
och
Y
oberoende så är
V(overline(underline(x))+Y)=V(overline(underline(x)))+V(Y)=17
.
Om vi föreställer oss standardavvikelserna för
overline(underline(x))
och
Y
som kateterna på en triangel så får vi en rätvinklig om
overline(underline(x))
och
Y
är oberoende; ungefär som basvektorer.
Cosinussatsen
c^2=a^2+b^2-2ab*cos(v), 0° <= v <= 180°
V(X+-Y)=V(X)+V(Y)+-C(X,Y) iff c^2=a^2+b^2-2ab*cos()
5.22
overline(underline(x))_1, overline(underline(x))_2
och
overline(underline(x))_3
oberoende stokastiska variabler med
E(overline(underline(x))_i)=2, D(overline(underline(x))_i)=3, Y=3_overline(underline(x))_1 - 2overline(underline(x))_2 + overline(underline(x))_3 - 6
Bestäm väntevärdet och standardavvikelsen för
Y
.
E(Y) = E(3overline(underline(x))_1 - 2overline(underline(x))_2 + overline(underline(x))_3 - 6) = 3E(overline(underline(x))_1) - 2E(overline(underline(x))_2) + E(overline(underline(x))_3) - 6
V(Y) = V(3overline(underline(x))_1 - 2overline(underline(x))_2 + overline(underline(x))_3 - 6) obrace(=)("ober") 3^2 V(overline(underline(x))_1) + (-2)^2V(overline(underline(x))_2) + V(overline(underline(x))_3)
5.31
overline(underline(x))_i
smältpunkten,
D(overline(underline(x))_i) = 2 = sigma
Hur stort
n
krävs för att
D(overline(underline(x))_n) <= 0.4
?
overline(underline(x))_n=1/n sum_1^n overline(underline(x))_i
V(overline(underline(x))_n) = sigma^2/n
Bestäm
n
så att
V(overline(underline(x))_n) = 2^2/n <= 0.4^2 => n >= 4/0.4^2 = 25
Stora talens lag
Om vi har
n
stokastiska variabler
X_1,X_2,…,X_n
där
E(X_i)=mu
. Sätt
overline(X)n = 1/n sum(i=1)^n X_i
, då gäller för
epsilon>0
P(mu-epsilon < overline(X)_n < mu + epsilon) -> 1, n -> oo
Normalfördelning
X in N(mu, sigma), Y=(X-mu)/sigma => Y in N(0,1)
Exempel på det.
overline(underline(x))
s.v. med
E(overline(underline(x)))=mu, D(overline(underline(x)))=sigma
Y=(overline(underline(x))-mu)/sigma => E(Y) = E((overline(underline(x))-mu)/sigma)) = E(1/sigma*overline(underline(x)) - mu/sigma) = 1/sigma(mu-mu) = 0 => V(Y) = V((overline(underline(x))-mu)/sigma) = 1/sigma^2 V(overline(underline(x))) = 1/sigma
X in N(mu, sigma) iff E(X)=mu, D(X)=sigma
Y = aX+b in N(a*mu+b, |a|sigma)
Fördelningsfunktionen för en normerad normalfördelning (
N(0,1)
) är
F(x)=P(overline(underline(x))<=x)=Phi((x-mu)/sigma)
X_1 in N(mu_1,sigma_1), X_2 in N(mu_2,sigma_2), X_1
och
X_2
oberoende
=>
X_1+X_2 in N(mu_1+mu_2, sqrt(sigma_1^2+sigma_2^2))
X_1-X_2 in N(mu_1-mu_2, sqrt(sigma_1^2+sigma_2^2))
Centrala gränsvärdessatsen.
X_1,X_2,…,X_n
oberoende likafördelade s.v med
E(X_i)=mu, D(X_i)=sigma
=> P((sum_(i=1)^n X_i - n*mu)/(sigma*sqrtn) <= x) -> Phi(x), n->oo
Dvs att om man har tillräckligt mycket stickprov så kommer summan av fördelningen att tendera till slut till en normerad normalfördelning med samma
mu
och
sigma
som originalfördelningen.
overline(underline(x))_25 ~~ N(mu, 2/5)