Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec,
Symbolika A B Jev jistý S (nastane vždy) P(S) = 1 Jev nemožný (nenastane nikdy ) P( ) =0 Doplňkový jev k jevu A (označení D) je D= S - A a tedy P(D) = 1 - P(A) Sjednocení jevů A a B (nastane A nebo B nebo oba současně) C = A B. To znamená, že C je jev, kdy nastane alespoň jeden z jevů A, B. Průnik jevů A a B (nastanou oba jevy současně) C = A B. To znamená, že C je jev, kdy nastanou právě oba jevy. Neslučitelné (vzájemně se vylučující resp. disjunktní ) jevy A a B (nemohou nastat současně) A B = Elementární jev ei.(.nelze ho vyjádřit sjednocením jiných jevů - není dále dělitelný). 0 P(e i ) 1
Pravidla I A B Pravděpodobnost sjednocení dvou jevů A a B je obecně P(A B) = P(A) + P(B) - P(A B) Vylučující se jevy A B = je P(A B) = P(A) + P(B) Pravidlo sčítání pravděpodobností p :Pravděpodobnost, p, že nastane alespoň jeden z neslučitelných jevů A i je rovna součtu pravděpodobností P(A i ). Podmíněná pravděpodobnost je pravděpodobnost P(A/B), že nastane jev A za podmínky, že nastal jev B P(A/B) = P(A B) / P(B) Pravděpodobnost P(A B) současného výskytu A a B P(A B) = P(A/B). P(B) = P(B/A). P(A),
Pravidla II Pro spojité náhodné veličiny platí analogické vztahy vta ypo pro hustoty ustotypavděpodob pravděpodobnosti. ost Tedy pro nezávislé veličiny f(x,y) = f(x)f(y), f(x y) = f(x), f(y x) = f(y) Nezávislé jevy A a B ( výskyt A není ovlivněn výskytem B) tedy P(A/B) = P(A) a pak P(A B) = P(A) P(B) Pravidlo násobení pravděpodobností: pravděpodobnost současného č výskytu nezávislých jevů. ů A i je rovna součinu pravděpodobností P(A i ) Pravděpodobnost výskytu jevu A,,pokud nastal jev B se označuje jako podmíněná pravděpodobnost P(A/B) a (pro P(B)>0): Bayesův vztah P ( A B ) = P( A B) P( B) P(B/A) = P(A/B) P(B) / P(A) P(B) apriorní informace, P(B/A) aposteriorní informace, P(A/B) informace z dat
Náhodný vektor Vícerozměrná náhodná veličina ξ je určena svou sdruženou distribuční funkcí F(x). Pravděpodobnost, že všechny složky ξi vektoru ξ budou menší než složky yxx i zadaného o( (nenáhodného) o)vektoru uxx F(x) = P( ξ x ξ x... ξ x ) 1 1 m m je logický součin (současná platnost uvedených podmínek). Sdružená distribuční funkce F(x) je neklesající funkcí svých argumentů, je nezáporná a maximálně rovna jedné. Marginální (okrajová) distribuční funkce F(x i )složkyξ i je zvláštním případem simultánní distribuční funkce F(x), u které jsou všechny ostatní složky náhodného vektoru na horní mezi svého definičního intervalu; obyčejněξ j = pro j i.
Podmíněná distribuční funkce Podmíněná distribuční funkce F(x/x i ), vyjadřuje pravděpodobnost, že všechny složky vektoru ξ kromě i- té budou menší než odpovídající složka vektoru x. Pro složku ξi platí, že je přibližně konstantní, tj. leží v nekonečně malém intervalu x i ξ i dx i + x i. F( x / x ) = P( ξ x... x ξ ( x + d x... ξ x ) i 1 1 i i i i m m Nezávislé složky vektoru ξ, podmíněné distribuční funkce nezávisí na podmínce. m F(x) = F( xi) Derivace distribučních funkcí jsou hustoty pravděpodobnosti f(x i ), f(x), resp. f(x/x i ) i=1
y Standard Gaussian density Normální rozdělení 0.0 0.1 0. 0.3 0.4-3 - -1 0 1 3 Pro spojitou náhodnou veličinu x, - < x <. Unimodální a symetrické. μ = střední hodnota σ = směrodatná odchylka Hustota pravděpodobnosti f(x) = 1 πσ e ( μ ) - x- Distribuční funkce t F(t) = f (x)dx s x
Vícerozměrné normální rozdělení I Zobecnění na p rozměrů: 1 f( x) = exp - x-μ Σ x - μ / p 1 π det Σ ( ) ( ) kde - x i, i = 1,,p. ( ( ) T -1 ( ) ) Čtverec zobecněné ě vzdálenosti mezi x a μ μ σ11 σ1 σ 1 1p μ σ σ σ Označení N p (μ, Σ) 1 p μ=, Σ = μ p σp1 σp σpp σ 11 =σ 1
Vícerozměrné normální rozdělení II Sdružená hustota pravděpodobnosti vícerozměrného normálního rozdělení / 1/ 1 T -p/ -1/ T -1 f(x) = ( π) (det C ) exp - (x - μ) C (x - μ) det(c)označuje determinant matice C a x T označuje transponovaný vektor x. Parametry tohoto rozdělení jsou vektor stěedních hodnot o μ a kovarianční č matice C s prvky pv yc ij = cov(ξ i, ξ j ) Koznačení vícerozměrného normálního rozdělení se používá symbol N(μ, C). Pokud vektor x pochází z rozdělení N(μ, C), platí, že veličina T -1 Q(x) = (x - μ (x - μ) ) C má χ rozdělení s m stupni volnosti
D normální rozdělení -1 1 Inverze kovarianční matice: Σ = σ σ -σ Kovariance: σ 1 = ρ1 σ11 σ σ σ - σ = σ σ 1-ρ 11 1 ( ) Determinant: 11 1 11 1 σ -σ -σ σ 1 1 11 T 1 σ -ρ1 σ11 σ x-μ 1 1 - - = x1-μ 1 x-μ σσ ( ) x-μ 11 1-ρ 1 -ρ1 σ11 σ σ11 μ -1 ( x μ) Σ ( x μ) ( ) ( ) ( )( ) σ x-μ +σ x-μ -ρ σ σ x-μ x-μ = σσ 1-ρ 1 1 11 1 11 1 1 ( ) 11 1 μ 1 x μ μ 1-μ 1 x-μ x1-μ 1 x-μ = + -ρ 1 1-ρ 1 σ 11 σ σ 11 σ
PDF pro D normální rozdělení 1 f( x)= exp - x-μ Σ x- μ / ( π) det ( Σ) 1 ( ) ( ) ( ) π σ11σ 1-ρ 1-ρ1 1 ( ( ) T -1 ( ) ) 1 1 x-μ 1 1 x-μ x-μ 1 1 x-μ exp + -ρ 1 σ 11 σ σ 11 σ =
Graf pdf D normálního rozdělení f(x 1, X ) Linie úrovní X X 1 Všechny body stejné hustoty pravděpodobnosti se označují jako linie úrovní T -1 ( ) ( ) x μ Σ x μ = c
μ μ = μ Linie úrovní 1 μ linie konstantního c X f(x 1, X ) Koncentrické elipsoidy se středem μ a osami ±c λ e i ±c λ e i f(x 1, X ) ±c λ e 1 1 T ( x-μ ) Σ -1 ( x-μ ) χ α resp. χ ( ) ( ) p p,α X 1 T -1 ( ) ( ) ( ) Pr x μ Σ x μ χ α p = 1 - α
Speciální případ Pro stejné rozptyly (σ 11 = σ ): det ( Σ- λe) =0 resp. σ11-λ σ 0=det 1 = ( σ -λ) -σ σ1 σ11-λ ( ) ( ) = λ-σ -σ λ-σ +σ 11 1 11 1 11 1 takže λ 1=σ 11+σ 1, λ =σ11-σ1
Speciální struktury Sféricita N(μ,Σ=σ E) Σ = σ 0 0 0 σ 4 0 1 0 Σ = 0 1 Σ = 0 1 1 Σ = 1
Σ e Vlastní vektory ~ matice Σ i = λ e resp. i i σ11 σ1 e1 e =λ 1 σ 1 1 σ 11 e e ( ) nebo σ e+σ e = σ +σ e 11 1 1 11 1 1 ( ) σ e+σ e = σ +σ e 1 1 11 11 1 což znamená λ =σ + σ a 1 1 11 1 e = 1 1 a λ =σ - σ podobně platí,že = 1 11 1 e -1
Kladná kovariance linie T ( ) -1 ( ) c= x μ Σ x μ f(x 1, x ) X f(x 1, X ) - pro kladnou kovarianci σ 1, leží vlastní vektor na přímce pootočené o 45 0, která prochází středem μ: c σ -σ 11 1 c σ 11 + σ1 X 1
Záporná kovariance linie T ( μ) -1 ( μ) c= x Σ x X f(x 1, X ) - pro zápornou kovarianci i σ 1, leží druhý vlastní vektor v prvém úhlu k přímce pootočené o 45 0, která prochází středem μ: c σ11-σ 1 f(x 1, X ) c σ 11+σ 1 X 1
X 1 a X nekorelované 1 f( x)= exp x μ Σ x μ 1 π Σ ( ( ) T -1 ( )/ ) ( ) (r 1 = 0) 1 1 x 1-μμ 1 x -μμ x 1-μμ 1 x -μμ = exp ( ) ( ) + -ρ ( ) 1 π σσ 11 1-ρ 1-ρ 1 1 σ11 σ σ11 σ 1 1 x-μ 1 1 x-μ = exp + ( π ) σσ 11 σ11 σ f(x 1 ) f(x ) 1 ( ) / ( ) / 1 = exp( x 1 11 μ σ ) exp( 1 x μ σ ) π σ11 π σ
Vlastnosti vícerozměrného normálního rozdělení I Pro libovolný náhodný vektor x s normálním rozdělením platí, že pdf 1 f ( x ) = exp - x-μ Σ x - μ / p 1 π Σ ( ) ( ( μ ) T -1 ( μ ) ) má maximum v místě μ 1 μ μ = μ p Medián, modus a střední hodnota jsou totožné ~
Hustota pravděpodobnosti 1 f( x ) = exp x μ Σ x μ p 1 π ~ Σ ( ) ( ( ) T -1 ( ) /) Je symetrická se středem v μ Lineární kombinace složek vektoru X má normální rozdělení Všechny podmnožiny složek X mají (vícerozměrné) normální rozdělení Nulová kovariance znamená, že odpovídající složky vektoru X jsou nezávislé. Podmíněné rozdělení složek X je (vícerozměrné) normální
Vlastnosti vícerozměrného normálního rozdělení II Pokud X ~ N p (μ, Σ), pak všechny lineární kombinace T p = a ix i~n p T, T i=1 a X ( a μ a Σ a ) Pokud X ~ N p p(μ, (μ,σ), pak libovolná q lineární kombinace p a1ixi i=1 p Pokud d je vhodný T aixi T T ~N vektor konstant, pak AX= ( ) i=1 q Aμ, A ΣA X + d ~N p (μ + d, Σ) p aqixi i=1
Vlastnosti vícerozměrného normálního rozdělení III Pokud X ~ N p (μ, Σ), jsou všechny podmnožiny X normálně rozděleny X Σ11 Σ1 1 μ 1 ( qx1) ( qx1) ( qxq) ( qx( p-q) ) X =, μ =, Σ = px1 pxp X μ Σ1 Σ (( ) ) (( ) ) p-q x1 p-q x1 (( p-q ) xq ) (( p-q ) x( p-q )) ( px1) ( ) ( ) Pak X 1 ~ N q (μ 1, Σ 11 ) a X ~ N p-q (μ, Σ )
Vlastnosti vícerozměrného normálního rozdělení V Společná kovarianční matice Nechť X j ~ N p (μ j, Σ), j = 1,,n jsou vzájemně nezávislé. Pak ~ ~ n n n v 1 = cjxj~n p cjμ j, cj Σ ~ j=1 j=1 j=1 n n n v = b~ jxj~n p bjμ j, bj Σ j= 1 j= 1 j= 1 mají sdružené normální rozdělení s kovariační maticí n ( T c ) j Σ bc Σ V 1 and V jsou nezávislé, pokud n T b bc Σ bj Σ T c = 0! j=1 j=1 ( )
Souhrn Mezi důležité vlastnosti vícerozměrného normálního rozdělení patří: a) odpovídající marginální i podmíněná rozdělení jsou také normální, b) jsou-li všechny složky vektoru ξ vzájemně nekorelované (tj. všechny párové ékorelační č íkoeficienty i jsou nulové), znamená áto, že složky ξj, j = 1,..., m, jsou nezávislé, c) pokud má vektor ξ vícerozměrné normální rozdělení, mají libovolné lineární kombinace jeho složek ξ j také normální rozdělení. Z uvedeného plyne, že předpoklad normality usnadňuje analýzu aumožňuje poměrně jednoduché zpracování úloh souvisejících snáhodným áhdý vektorem ξ.
Charakteristiky vícerozměrných rozdělení Náhodný vektor X 1 x = X m Střed rozdělení je vektor středních hodnot Míra variability je kovarianční matice: ( ) ( ) EX 1 μ = Ex = EX m var x1 cov x 1,x m Σ = cov( X) = cov( x 1) m,x var ( x m )
Pojmy Náhodný vektor vektor, jehož elementy jsou náhodné proměnné nebo jejich funkce. Náhodná matice matice, jejíž elementy jsou náhodné proměnné ě nebo jejich ji funkce. Střední hodnota E x 11 E x1 E x1m E x1 E x E xm E X = E xn1 E xn E xnm ( x ) xp ij ij ij all xij E x ij = ( ) xf ij ij xij dxij E(cX) =ce(x) E(X+Y) = E(X) + E(Y) E(AXB)= AE(X)B
Kovarianční matice Pozitivně semi definitní (všechny rozptyly jsou 0) ( x )( ) ( )( ) 1 μ1 x1 μ1 x1 μ1 xm μm Σ = cov( x ) = E = ( x )( ) ( )( ) d μm x1 μ1 xm μm x m μm = E( )( ) T Σ x μ x μ σ σ σ T Var c X = T σ σ σ ( )( ) = = 1 m E X -μ X - μ = T σm1 σm σmm c Σc 11 1 1m
Korelační matice Populační kovarianční matice Σ se snadno převede na korelační matici ρ. Platí = V 1 ρ V 1 σ 11 0 0 σ 1 0 0 V = σ 0 0 mm ρ= covik ρ ik = σ σ 1 ii kk ( V 1 ) ( V 1 ) 1
Kovariance I Mírou intenzity vztahu mezi složkami ξ i a ξ j, j # i je druhý smíšený centrální moment, nazývaný kovariance cov(ξ i, ξ j ), cov( ξ, ξ) = E( ξ ξ) - E( ξ) E( ξ) i j i j i j a) Kovariance je kladná resp. záporná resp.nulová. b) Kovariance je v absolutní hodnotě shora ohraničená součinem σ i σj, tj. tjabs(cov(ξ i, ξ j )) σ i σ j. c) Kovariance je symetrickou funkcí svých argumentů. d) Kovariance se nemění posunem počátku, ale změna měřítka se projeví úměrně jeho velikosti. Pro čísla a 1, a, b 1, b platí cov( a ξ + b, a ξ + b ) = a a cov( ξ, ξ) 1 i 1 j 1 i j
Kovariance II e) Pro nekorelované náhodné veličiny je cov(ξ i, ξ j ) = 0 a mohou nastat dva případy: 1. E(ξ i ξ j ) = 0 a zároveň E(ξ i ) = E(ξ j ) = 0, což je případ centrovaných ortogonálních náhodných veličin.. E(ξ i ξ j ) = E(ξ i ) E(ξ j ), což je případ nezávislých náhodných veličin. Je tedy patrné, že nekorelovanost neznamená vždy nezávislost. f) Kovariance je mírou intenzity lineární závislosti. Limitní it je případ, kdy jsou ξ i, ξ j lineárně ě závislé, takže ξ j = a ξ i + b, a cov(ξ i, ξ j ) = E(a ξ i+bξ ξ i ) - E(ξ i )E(aξ ξ i +b)=a σii σ
Korelace I Hodnoty kovariance závisí na měřítku, ve kterém jsou vyjádřeny ξ 1 a ξ. Její velikost lze hodnotit vzhledem k součinu σ i σ j. Proto je přirozené provést standardizaci dělením tímto součinem. Vzniklá veličina ρ ij = ρ(ξ i, ξ j ) se nazývá párový korelační koeficient cov( ξi, ξj) ρ( ξi, ξj) = ρij = σi σj Korelační koeficient ležívrozmezí -1 ρ ij 1. Pokud je ρij > 0jde 0, o pozitivně korelované náhodné veličiny, a pokud je ρij < 0, jde o negativně korelované náhodné veličiny a) abs(ρ ij ) = 1 znamená, že mezi ξ i a ξ j existuje přesně lineární vztah. b) Pro vzájemně nekorelované náhodné veličiny ξ i a ξ j, je ρ ij = 0.
Korelace II c) V případě, že ξ i a ξ j pocházejí z vícerozměrného normálního rozdělení a ρ ij = 0, znamená áto, že jsou vzájemně ě nezávislé. áilé d) I pro nelineárně závislé náhodné veličiny může být ρ ij = 0 e) Korelační koeficient ρ ii náhodné veličiny ξ i samotné se sebou je roven jedné. f) Korelační koeficient je invariantní vůči lineární transformaci náhodných proměnných ξ i, ξ j. Pro čísla a 1, a, b 1, b platí ρ(a ξ + b, a ξ + b ) = sign(a a ) ρ( ξ, ξ) 1 i 1 j 1 i j -1 pro x < 0 sign(x) = 0 pro x = 0 1 pro x > 1
Šikmost a špičatost Pro dva vektory, ξ 1 ξ, které jsou nezávislé a stejně rozdělené se střední hodnotou μ a kovarianční maticí Σ = C, je vícerozměrná šikmost g = 1m 1,m E[( ξ - μ ) ( - μ) ] a vícerozměrná špičatost T -1 3 1 C ξ g =E[(,m ξ - μ ) ( - μ) ] T -1 1 C ξ1 Pokud m = 1, přecházejí tyto vztahy na šikmosti a špičatosti jednorozměrných dat,. K vyjádření funkcí g 1,m ag,m lze využít i vícerozměrných centrálních momentů. Pro případ vícerozměrného normálního rozdělení je 1,m = 0 g g =,m m (m + )
Vícerozměrná data Nestrukturovaná vícerozměrná data jsou běžně v maticovém uspořádání, kde pozorování (objekty) jsou v řádcích a proměnné (rysy) ve sloupcích proměnná 1 proměnná proměnná m pozorování 1 x11 x1 x1m pozorování x1 x xm pozorování n x x x n1 n nm Pokud se znaky rozdělují na skupinu vysvětlovaných proměnných Pokud se znaky rozdělují na skupinu vysvětlovaných proměnných (závisle proměnných) a proměnných vysvětlujících (nezávisle proměnných), označuje se submatice vysvětlovaných proměnných jako Y (n k) a matice Z rozměru n (m k) pak tvoří skupinu vysvětlujících proměnných.
Odhady parametrů I Z vícerozměrného výběru velikosti n, definovaného n-ticí m- rozměrných vektorů x = T i (x i1,..., x im ), i = 1,..., n, který lze vyjádřit maticí měřených hodnot X (n x m), je možno určit výběrový vektor středních hodnot μˆμ x1 S využitím matice X lze vyjádřit n 1 μˆ = x= = x výběrovou střední hodnotu jako i n i = 1 1 m x ˆ = T n μ X 1 n kde l n je vektor rozměru (n x 1), obsahující jako prvky samé jedničky. Pro vektor výběrových středních hodnot platí E( ˆ) = a D( ˆ) = / n μ μ μ Σ Odhad ˆμ je tedy nevychýlený.
Odhady parametrů II Pro odhad kovarianční matice S 0 platí rovnice n 0 1 T S = ( i - ˆ) ( ˆ i - ) n x μ x μ n i = 1 n ( x i1 x1) ( xi1 x1 )( xid xd ) i= 1 i= 1 0 1 S = n n n ( xid xd )( xi1 x1) ( xid xd ) i= 1 i= 1 Pro odhad kovarianční matice platí E jednotková 0 1 T S = X UX 1 T n je ová U = n n n n E 1 1 matice řádu (n x n). n
Odhady parametrů III Pro odhad kovarianční matice platí, že 0 n -1 E( S ) = n Σ Jde tedy ovychýlený ýodhad. Proto se podobně jako u jednorozměrných dat používá výběrová korigovaná kovarianční matice S = n S n - 1 0 která je již nevychýleným odhadem kovarianční matice Σ = C. Matice S 0 je výběrová kovarianční matice. Odhady ˆμ a S 0 jsou maximálně věrohodné pro případ, že náhodný áhdývýběr charakterizovaný maticí íxx pochází z normálního rozdělení N(μ, C).
Zobecněný rozptyl Náhodný výběr X pochází z normálního rozdělení N(μ, C). Odhad μˆμ má rozdělení N(μ, C /n) n). n - 1 Veličina V = n S 0 T je rozdělená jako suma y y i i kde y i jsou nezávislé áilénáhodné áhdévektory s rozdělením N(0, C). Tento typ rozdělení se nazývá Wishartův Zobecněný rozptyl je definován jako det(c) a jeho výběrový odhad je det(s). Symbolem det(s) je označen determinant matice S. Asymptotické rozdělení výběrového zobecněného rozptylu det(s) je normální se střední hodnotou det(c) a rozptylem n - 1 det(s) m náhodná veličina U = - 1 D[det(S)] = [det(c)] m det(c) n - 1 má normální rozdělení N(0, 1). i = 1
James Steinův odhad James a Stein ukázali, že pro m 3 existuje odhad který má menší kvadratickou ztrátovou funkci a je ze statistického hlediska lepší než klasický výběrový průměr Kvadratická ztrátová funkce pro obecný odhad ΘˆΘ střední hodnoty ˆ T -1 L = n ( Θ - μ) C ( Θˆ - μ) Jde o čtverec Mahalanobisovy vzdálenosti mezi vektory ΘˆΘ a μ Jamesův-Steinův odhad střední hodnoty vícerozměrného normálního rozdělení N( μ,, C) (n - 1) (m - ) μˆ ˆ J = 1 - T -1 n (n - m + ) ˆ ˆ μ μ S μ Čím je μ blížeknulovému vektoru, tím je tento odhad lepší. Na druhé straně je tento odhad vychýlený. ˆμ J
Robustní odhady Podobně jako u jednorozměrných dat je výhodné použít robustních metod odhadu vektoru středních hodnot a kovarianční matice. Robustní odhady složek vektoru středních hodnot lze získat např. použitím 10%ních uřezaných průměrů. K určení robustního odhadu kovariance se dá přímo využít 1 robustních odhadů, rozptylů, protože 1 cov(x, x ) = [D(x + x ) - D(x - x )] 1 1 1 4 Místo rozptylů py D(x) () se pak používá jejich jj robustních odhadů. Jiný postup určování robustních odhadů spočívá ve vícerozměrném uřezáníř ítk tak, aby byl blzachován tvar rozptylového tl diagramu bodů bdů v prostoru E m.
Robustifikace pomocí zobecněné vzdálenosti Vlastní proces je iterační a vychází z Mahalanobisovy vzdálenosti * T * -1 * i = ( i - ) ( ) ( i- ) d x μ S x μ * μ a S * jsou odhady vektoru středních hodnot a kovarianční matice, určené z předchozích iterací. Zvolený podíl γ (obyčejně γ = 0.1) bodů x i s největšími hodnotami d i je v každé iteraci vypuštěn z výpočtu. Není automaticky zajištěna pozitivní definitnost a nevychýlenost odhadu kovarianční matice S resp. korelační matice R.
Odlehlé body I Robustní varianta Mahalanobisovy vzdálenosti MD( x ) = ( x - R( x) R( S ( x - R( x)) T -1 i i ) ) i R( x ) R( S ) kde je robustní verze výběrových ýhprůměrů ů ě ů a je robustní verze kovarianční matice. Poměrně dobré robustní vlastnosti (asymptoticky může být téměř polovina dat vybočujících) má odhad, založený na elipsoidu minimálního objemu (MVE), což je nejmenší elipsoid, pokrývající alespoň polovinu bodů. Elipsoid je definován rovnicí T -1 ( x - R( x) ) R( S) ( x - R( x)) = m Objem tohoto elipsoidu je det(r(s)), kde det(.) je determinant. Pro robustní odhady polohy a kovarianční matice se bere podmnožina h bodů x, i = 1..h kde h = int (n + m + 1)/) * i
Odlehlé body II Robustní odhady jsou speciálně vážené odhady z podmnožiny h bodůç, počítané ze vztahç h * * i xi i=1 R( x ) = w * * T ( - R( ))( - R( )) h * RS ) = w i x i x x i x i=1 (0) wi = 1/h, i = 1,..., h V první iteraci se volí váhy Pokud vyjde pro všechny robustní Mahalanobisovy vzdálenosti že MD( xi) m pokrývá elipsoid všechny body. Pokud však vyjde že MD( xi ) je pro některá xi větší mež m, je třeba provést úpravu vah w = w (MD( x )/m) (k+1) (k) i i i a znovu určit opravené robustní odhady
Odlehlé body III T -1 T H X X X X = ( ) * Určení podmnožiny x i, i = 1..haby jí odpovídající elipsoid měl minimální objem. Použití všech možných podmnožin může být časově velmi náročné. Pro sestavení vhodné podmnožiny dat je možné použít postup, p, založený na vektoru EID (i-tý ýprvek odpovídá příspěvku i-tého bodu ke všem vlastním číslům informační matice). Postup je shodný s výpočtem prvků H ii projekční matice H Pokud se vypustí z dat i-tý bod, dojde ke změně determinantu matic X T X, vyjádřené vztahem T T det( (-i) X(-i) ) = (1 - EID i) det( X X) X ProtožejeMVE úměrné determinantu kovarianční matice, stačí místo Protože je MVE úměrné determinantu kovarianční matice, stačí místo X použít centrované matice X C a postupně vypouštět body s maximálním EID i až do nalezení podmnožiny h všech bodů.
Výběrové šikmosti a špičatosti I Pro vyjádření výběrových vícerozměrných šikmostí a špičatostí se vychází z veličin T -1 wij = ( xi - μˆ ) V ( xj - μˆ ) μ kde V = S n je výběrová kovarianční matice a ˆμ je výběrový průměr w ii je čtverec zobecněné Mahalanobisovy vzdálenosti. Odhad výběrové šikmosti a špičatosti gˆ = n 1,m n n n 3 wij gˆ,m = n i = 1 j = 1 i = 1 w m (m +) E( gˆ 1,m) = [(n + 1) (m + 1) - 6] (n + 1) (n + 3) 8m(m+)(n (n - 3) E( gˆ,m) = (n - m - 1) (n - m + 1) (n + 1 ) (n + 3) (n + 5) ii
Výběrové šikmosti a špičatosti II 1 w w w d = ( + - ) Snadno lze určit, že ij ii jj ij Lze také definovat tzv. Mahalanobisovy úhly θ ij mezi vektory x i - μˆ a ˆ x μ a x - = j μ pro které platí cos θij wij / w ii w jj n n 1 Pro výběrovou šikmost pak platí g ˆ 1,m = ( Wii Wjj cos θij) n i=1 i=1 Pokud jsou jednotlivé znaky x i rovnoměrně rozděleny na m-rozměrné kouli je gˆ 1,m = 0 To samé platí pro všechna kulově symetrická rozdělení. Pokud však dojde k narušení sférické symetrie, např. shlukováním části dat, vyjde ĝg 1,m vysoké.
Rozdělení šikmosti a špičatosti ˆμ Pro případ, že a S jsou určeny na základě náhodného výběru velikosti n z m-rozměrného normálního rozdělení N(μ, C) s pozitivně definitní kovarianční maticí C, platí, že náhodná veličina U 1 = n gˆ 1,m 6 má asymptoticky χ -rozdělení sm(m + 1)(m + )/6 stupni volnosti. Náhodná veličina U U = gˆ - g,m,m 8 m m + n má pak asymptoticky standardizované normální rozdělení N(0, 1)
Ověření normality U vícerozměrných výběrů hraje hlavní roli předpoklad, že data pocházejí z vícerozměrného normálního rozdělení.tentopředpoklad usnadňuje zejména statistickou analýzu vektoru středních hodnot nebo kovarianční matice. Problém testování vícerozměrné normality spočívá ve faktu, že m-rozměrný náhodný vektor x má normální rozdělení jen tehdy, když pro všechny možné nenulové vektory a platí, že a T x je náhodná veličina s jednorozměrným normálním rozdělením. Pokud oudvšechny yso složky x j vektoru x mají normální rozdělení, nelze e ještě tvrdit, že vektor x má vícerozměrné normální rozdělení. Podobně jako v jednorozměrném případě, existuje i zde řada testů, které jsou více či méně citlivé vůči různým typům narušení normality.
Grafické techniky I Grafické techniky ověřování vícerozměrné normality využívají normalizační transformace -1/ y ˆ i = S ( xi - μ) V případě, že výběr pochází z vícerozměrného normálního rozdělení, mají y i přibližně normované normální rozdělení N(0, E). Skalární T součin d i = yy i i má přibližně χ - rozdělení s m stupni volnosti Tento součin je vlastně čtverec Mahalanobisovy vzdálenosti. Pro větší rozsahy výběru lze vynášet nebo proti odpovídajícím pořádkovým statistikám χ -rozdělení. Jde o případ Q-Q grafu pro teoretické rozdělení di χ m /3 di Přibližně lineární závislost zde indikuje vícerozměrnou normalitu.
Grafické techniky II n di Výhodné je použití veličiny Zi = (n - 1) která má beta-rozdělení rozděleníb[05m B[0.5 m, 0.5 05(n - m - 1)]. Při konstrukci Q-Q grafu se pak vynášejí pořádkové statistiky Z (i), pro které platí Z (i) Z (i+1), i= 1,..., n - 1 proti hodnotám * i - α 0.5 m - 1 0.5 (n - m - 1) - 1 Z i = kde α = a β = m n - m - 1 n - α - β + 1 Pro rozsah výběru n > 50 lze také použít přibližné rovnosti platné pro případ, že data pocházejí z vícerozměrného normálního rozdělení i + 0.5 n Z(i) log 1-0.5 (n - m - 1) log 1 - n (n - 1) vícerozměrná * i+05 0.5 (i) * n Z yi = log 1 - proti x i = log 1 - normalita n (n - 1)
Testy normality I Na základě hlavních komponent Y = X V lze počítat koeficienty vícerozměrné šikmosti respektive špičatosti 1 g y ) m m n -3/ 3 ˆ = 1s, m L ii ( ij- y / n i j=1 i=1 m n 1-4 gˆ = s, m Lii ( y ij - y ) i n m j=1 i=1 L ii jsou vlastní čísla kovarianční matice S. Za předpokladu 6 vícerozměrné normality platí, že E( gˆ ˆ 1s, m) 0, D( g1s, m) n m Statistika n m Q ˆ má přibližně rozdělení 1s = g áp ě χ odě s m 1s, m stupni volnosti. 6
Testy normality II E( gˆ ) 3, D( gˆ ) 4 n m Platí, že s, m s, m Q n m = g ˆ Statistika s s, m 4 má normované normální rozdělení N(0, 1). Jestliže nebyla prokázána vícerozměrná normalita, může to znamenat, že v datech jsou vybočující skupiny bodů respektive jejich rozdělení se liší tvarem od vícerozměrného normálního rozdělení. Pokud lze vyloučit přítomnost t vybočujících č í bodů a skupin je možné použít ke zlepšení rozdělení dat mocninné transformace. Je vhodné provést nejdříve mocninné transformace všech znaků, tj. sloupců zdrojové matice X a přesvědčit se testem, zda je již vícerozměrná normalita akceptována.
Box Coxova transformace I Účelem je nalézt vektor parametrů λ = (λ 1,..., λ m ), pro které bude přibližně platit, že matice X vboxcoxově Box-Coxově transformaci ( λ) ( λ1) ( λm) X = ( X1,..., Xm ) x(λ) = ( x λ -1)/λ resp. bude mít normální rozdělení N(μ, C) x(λ) = ln x označuje Box- Coxovu transformaci Logaritmus věrohodnostní funkce a je až na konstantu vyjádřitelný ve tvaru n ( λ), T ( λ) n ( λ) Lmax ( x ) = - ln det ( Z T Z ) - ln det ( S ) V této rovnici je S(λ) kovarianční matice odpovídající matici X (λ) znaků v mocninné transformaci a transformační matice je T Τ = En - ln ln /n E n je jednotková matice řádu n a 1 n je vektor rozměru (n x 1), obsahující samé jedničky.
Box Coxova transformace II Matice Z(λ) má prvky Z ( λj) ( ) ij -1/n λj = J( λ j) (j) xij, i = 1,..., n, j = 1,..., p Symbol J označuje složky Jakobiánu transformace, pro který platí, že J ( λ ) j (j) = n Π i=1 x ij ( λ - 1) Maximálně věrohodný odhad vektoru parametrů λ = (λ..., λ m T 1, m) pak tedy vede k minimalizaci determinantu matice S(λ) respektive matice Z(λ) T T Z(λ). Při minimalizaci je v tomto případě výhodné m m využít rozkladu ( λ) T ( λ) ( λ) T ( λ) det ( Z T Z ) = Π Z k T Z k ) Π (1 - r k ) k=1 k=1 kde Z (λk) k je k-tý ýsloupec matice Z (λ), r 1 = 0 a r k pro k =,..., m je vícenásobný korelační koeficient regrese Z (λk) k na proměnných (Z (λ1) 1,..., Z (λm) m. j
Box Coxova transformace III Protože se v průběhu optimalizace korelační koeficienty příliš nemění, je obyčejně vektor λ blízký vektoru λ M, jehož složky jsou určeny použitím jednoduché Box-Coxovy transformace pro jednotlivé sloupce zdrojové matice X zvlášť. Při náhradě matice S(λ) vhodným robustním odhadem lze získat parametry robustní Box.Coxovy transformace. Jak je patrné, lze pro účely zlepšení rozdělení ídat tčasto t pracovat s jednotlivými i znaky izolovaně. S výhodou se dá i zde použít místo původních dat X transformace do hlavních komponent Y = X V. Pro tento případ již bude korelační matice S diagonální a všechny korelační č íkoeficienty i r 0tkž bd ˆ ˆ k = 0, takže bude možné psát λ = λm Pak zcela postačí Box-Coxovy transformace jednotlivých znaků
Hypotézy o střední hodnotě Testování nulové hypotézy H 0 : μ = μ 0 proti alternativní H 1 : μ μ 0. Vychází se z předpokladu, žedatax x i, i = 1,..., n, jsou náhodným výběrem z m-rozměrného normálního rozdělení N(μ, C). Parametry μ a C jsou neznámé a odhadují duj se pomocí oc výběrových charakteristik ˆμ a S Hotellingova T T -1 statistika T = n ( μ ˆ - μ ˆ 0) S ( μ - μ0) Statistika T má tzv. Hotellingovo rozdělení s kvantilovou funkcí T (α). Vyjde-li testováním, že T T (1 - α / ), je na hladině významnosti α hypotéza H 0 přijata. Za předpokladu platnosti hypotézy H 0 má veličina C = (n - m) T / (m (n - 1)) F-rozdělení s m a (n - m) stupni volnosti. Pokud je H 0 neplatná, ltámá veličina C necentrální F-rozdělení.
Konfidenční oblast S využitím statistiky T lze konstruovat konfidenční oblasti pro vektor μ. Platí,že 100(1 - α)%ní oblast m-rozměrného vektoru je ohraničena povrchem T -1 m (n - 1) ( μˆ - μ ) S ( μˆ - μ ) = Fm,n-m(1- α ) n (n - m) kde F m,n-m (1 - α) je kvantil F- rozdělení s man-m stupni volnosti. Jde o m-rozměrný elipsoid se středem v místě μˆμ
Shoda více středních hodnot Úlohou je testovat shodu celkem r středních hodnot μ i. Nulová hypotéza H 0 : μ 1 = μ =... μ r proti alternativní H A : μ i μ j. Vychází se z r-tice náhodných výběrů x (j)i, i = 1,...n j, j = 1,..., r, o kterých se předpokládá, ř že pocházejí zrozdělení N(μ i, C), lišících í se pouze středními hodnotami. Z těchto výběrů jsou vypočteny odhady ˆμ r r j a S j = V j / n j -1. μ V, n = = V n j j j S j j r j = 1 j = 1 r = n i μ ˆ i V C ni μˆ μ ˆ μ i μ i i = 1 n i = 1 = ( - ) ( - ) Wilcoxovo λ kritérium λ =det(v S )/det(v S + V C ) T
Testy kovariančních matic I Při analýze kovariančních matic se vychází z výběru (x i ), i = 1,..., n, o kterém se předpokládá, že pochází z m-rozměrného normálního rozdělení N(μ, C). Test sféricity -testuje se nulová hypotéza H 0: C = σ E proti alternativě H A : C σ E, kde σ > 0 je rozptyl a E je jednotková matice. -m + m + tr ( V) m TS = det ( V) ST = - n - ln ( TS) m 6 m S T má χ -rozdělení s {m (m + 1) / - 1} stupni volnosti. Test nezávislost složek vícerozměrného normálního rozdělení. Nulová hypotéza H 0 : R = E, alternativní H A : R E. m + 11 Q = - n - ln (det( )) 6 R má χ -rozdělení s {m (m - 1) / } stupni volnosti.
Testy kovariančních matic II Testování nulové hypotézy H 0 : C = C 0 proti alternativní H A : C C 0. Lc = (n - 1) ln (det( C0)) - (n - 1) m - (n - 1) ln (det( S)) + T + (n + 1) tr ( SC ) Platí, žel= L )mápřibližně c (1 - D 1 χ -rozdělení s {m (m + 1) / } stupni volnosti. Pro parametr D 1 platí D 1 m+1- = m + 1 6 (n - 1) Analogicky lze testovat i hypotézu, že korelační matice R se rovná známé korelační matici R 0 0
Shoda kovariančních matic 1 1 m + 3 m - 1 b = 1 - - j = 1 n j - 1 6( (m +1) ( n j - 1) j = 1 Test shody dvou kovariančních matic, C 1 = C. Vychází se ze dvou výběrů (x i ), i = 1,..., n 1, a (y i ), i = 1,..., n, o kterých se předpokládá, že pocházejí z normálních rozdělení x N( μ, C) a y N( μ, C ) 1 1 Používá se opět odhadů S 1, S a společné kovarianční matice S p, ( n1-1) S1 + ( n- 1) S S p = n1+ n- K testování hypotézy H0: C 1 = C (HA: C 1 C ) lze použít testovací statistiku 1 LU= ( nj- 1) ln (det ( Sp)) - ( nj- 1) ln (det ( Sj)) b j = 1 j = 1 Rozdělení L U je přibližně χ s {(m + 1) m / } stupni volnosti