Treść książki

Przejdź do opcji czytnikaPrzejdź do nawigacjiPrzejdź do informacjiPrzejdź do stopki
20
Rozdział1.Probabilistycznemetodyklasyfikacyjne
jestkowariancjąmiędzyskładowymiXiorazXjwektoralosowegoX,
ź,j=1,2,
...,p.
PonieważelementamimacierzykwadratowejVar(X)kowariancje
międzyskładowymiwektoraX,więcjestonanazywanamacierząkowa-
riancji.MacierzkowariancjiVar(X)możemyrównoważniezapisaćwzorem
Var(X)=E{[XE(X)][XE(X)]
}.
(1.1)
Zauważmy,żeCov(Xi,Xi)=Var(Xi),ź=1,2,
...,p,gdzieVar(X)
oznaczawariancjęzmiennejlosowejX.
Stądnagłównejprzekątnejmacierzykowariancjiznajdująsięwarian-
cjeposzczególnychskładowychwektoralosowegoX.Wiemyrównież,że
Cov(Xi,Xj)=Cov(Xj,Xi),dlaź,j=1,2,
...,p,j/=ź.Zatemmacierz
kowariancjijestmacierząsymetryczną.Możnarównieżudowodnić(patrz
np.Krzyśko(2000),s.15),żemacierzkowariancjijestnieujemnieokreślo-
na,tj.dlakażdegowektoraaRp,aVar(X)a0.
Zauważmyjeszcze,żejeżeliwszystkieskładowewektoralosowegoX
zmiennymilosowyminiezależnymi,toCov(Xi,Xj)=0,dlaź,j=1,
2,
...,p,j/=ź.Wtymprzypadkumacierzkowariancjijestmacierządiago-
nalnąoelementachdiagonalnychrównychwariancjomposzczególnychskła-
dowychwektoralosowegoX.
Łatwomożnapokazać(patrznp.Krzyśko(2000),s.17),żejeżeli
Var(X)=ΣiY=CX,gdzieCjestmacierząstałąrozmiarur×p,to
Var(Y)=CΣCjestmacierząstopniar.
Mówimy,żewektorlosowyX=(X1,X2,
...,Xp)map-wymiarowy
rozkładnormalny,jeżelikażdafunkcjaliniowaa1X1+a2X2+···+apXp
majednowymiarowyrozkładnormalny.
Dowodzisię,żejeżeliwektorlosowyXmap-wymiarowyrozkładnor-
malny,toE(X)=µorazVar(X)=Σistniejąirozkładprawdopodobień-
stwawektoraXjestjednoznaczniewyznaczonyprzezµiΣ.Fakt,żewektor
X=(X1,X2,
...,Xp)map-wymiarowyrozkładnormalnyzE(X)=µ
iVar(X)=Σzapisywaćbędziemynastępująco:XNp(µ,Σ).
JeżeliXNp(µ,Σ)imacierzkowariancjiΣjestdodatniookreślona,
tj.dlakażdegoniezerowegowektoraaRp,aΣa>0,togęstośćwektora
losowegoXjestrówna
f(x)=(2π)-
p
2|Σ|-
2exp[
1
1
2
(xµ)Σ-1(xµ)],
(1.2)
gdzie|Σ|oznaczawyznacznikmacierzyΣ,natomiastΣ-1jestmacierząod-
wrotnąmacierzyΣ,tj.taką,żeΣΣ-1=Σ-1Σ=Ip,gdzieIpjestmacierzą
jednostkowąstopniap.