Náhodné vektory a matice. Katedra textilních materiálů Technická Universita Liberec,

Podobné dokumenty
Náhodné vektory a matice

Charakterizace rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení

4 STATISTICKÁ ANALÝZA VÍCEROZMĚRNÝCH DAT

Statistická analýza jednorozměrných dat

Pravděpodobnost a aplikovaná statistika

Úloha E301 Čistota vody v řece testem BSK 5 ( Statistická analýza jednorozměrných dat )

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Téma 22. Ondřej Nývlt

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Statistická analýza jednorozměrných dat

Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé.

Regresní analýza 1. Regresní analýza

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

AVDAT Klasický lineární model, metoda nejmenších

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

Regresní a korelační analýza

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

Testování hypotéz o parametrech regresního modelu

Testování hypotéz o parametrech regresního modelu

Úvodem Dříve les než stromy 3 Operace s maticemi

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

Regresní a korelační analýza

Výběrové charakteristiky a jejich rozdělení

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady

PRAVDĚPODOBNOST A STATISTIKA

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

MATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT

I. D i s k r é t n í r o z d ě l e n í

MATEMATICKÁ STATISTIKA - XP01MST

p(x) = P (X = x), x R,

Vícerozměrná rozdělení

Statistika II. Jiří Neubauer

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace

NMAI059 Pravděpodobnost a statistika

Předpoklad o normalitě rozdělení je zamítnut, protože hodnota testovacího kritéria χ exp je vyšší než tabulkový 2

Definice spojité náhodné veličiny zjednodušená verze

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!

UNIVERZITA PARDUBICE

Pravděpodobnost a matematická statistika

Statistická analýza jednorozměrných dat

Základy maticového počtu Matice, determinant, definitnost

Úvod do lineární algebry

PRAVDĚPODOBNOST A STATISTIKA

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

15. T e s t o v á n í h y p o t é z

Univerzita Pardubice Fakulta chemicko-technologická Katedra analytické chemie STATISTICKÉ ZPRACOVÁNÍ EXPERIMENTÁLNÍCH DAT

ANOVA. Semestrální práce UNIVERZITA PARDUBICE. Fakulta chemicko-technologická Katedra analytické chemie

IDENTIFIKACE BIMODALITY V DATECH

NÁHODNÝ VEKTOR. 4. cvičení

PRAVDĚPODOBNOST A STATISTIKA

Statistická analýza jednorozměrných dat

Kvantily a písmenové hodnoty E E E E-02

Statistická analýza. jednorozměrných dat

6. Lineární regresní modely

Příklady ke čtvrtému testu - Pravděpodobnost

odpovídá jedna a jen jedna hodnota jiných

Intervalové Odhady Parametrů

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Základy teorie odhadu parametrů bodový odhad

Odhady Parametrů Lineární Regrese

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D.

Porovnání dvou výběrů

15. T e s t o v á n í h y p o t é z

UNIVERZITA PARDUBICE CHEMICKO-TECHNOLOGICKÁ FAKULTA KATEDRA ANALYTICKÉ CHEMIE

Normální rozložení a odvozená rozložení

AVDAT Mnohorozměrné metody, metody klasifikace

Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D.

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

8.1. Definice: Normální (Gaussovo) rozdělení N(µ, σ 2 ) s parametry µ a. ( ) ϕ(x) = 1. označovat písmenem U. Její hustota je pak.

Dva případy chybného rozhodnutí při testování: a) Testační statistika padne mimo obor přijetí nulové H hypotézy O, tj.

Poznámky k předmětu Aplikovaná statistika, 4. téma

MATEMATICKÁ STATISTIKA

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7

PRAVDĚPODOBNOST A STATISTIKA

Vlastnosti odhadů ukazatelů způsobilosti

5. T e s t o v á n í h y p o t é z

Odhad parametrů N(µ, σ 2 )

12. cvičení z PST. 20. prosince 2017

Pravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1

Statistika. Regresní a korelační analýza Úvod do problému. Roman Biskup

Odhad parametrů N(µ, σ 2 )

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Závislost obsahu lipoproteinu v krevním séru na třech faktorech ( Lineární regresní modely )

5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

Charakteristika datového souboru

Jarqueův a Beryho test normality (Jarque-Bera Test, JB test)

Faktorová analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel

Poznámky k předmětu Aplikovaná statistika, 4. téma

Testování statistických hypotéz

AVDAT Geometrie metody nejmenších čtverců

PRŮZKUMOVÁ ANALÝZA JEDNOROZMĚRNÝCH DAT Exploratory Data Analysis (EDA)

S E M E S T R Á L N Í

Náhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost

Transkript:

Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec,

Symbolika A B Jev jistý S (nastane vždy) P(S) = 1 Jev nemožný (nenastane nikdy ) P( ) =0 Doplňkový jev k jevu A (označení D) je D= S - A a tedy P(D) = 1 - P(A) Sjednocení jevů A a B (nastane A nebo B nebo oba současně) C = A B. To znamená, že C je jev, kdy nastane alespoň jeden z jevů A, B. Průnik jevů A a B (nastanou oba jevy současně) C = A B. To znamená, že C je jev, kdy nastanou právě oba jevy. Neslučitelné (vzájemně se vylučující resp. disjunktní ) jevy A a B (nemohou nastat současně) A B = Elementární jev ei.(.nelze ho vyjádřit sjednocením jiných jevů - není dále dělitelný). 0 P(e i ) 1

Pravidla I A B Pravděpodobnost sjednocení dvou jevů A a B je obecně P(A B) = P(A) + P(B) - P(A B) Vylučující se jevy A B = je P(A B) = P(A) + P(B) Pravidlo sčítání pravděpodobností p :Pravděpodobnost, p, že nastane alespoň jeden z neslučitelných jevů A i je rovna součtu pravděpodobností P(A i ). Podmíněná pravděpodobnost je pravděpodobnost P(A/B), že nastane jev A za podmínky, že nastal jev B P(A/B) = P(A B) / P(B) Pravděpodobnost P(A B) současného výskytu A a B P(A B) = P(A/B). P(B) = P(B/A). P(A),

Pravidla II Pro spojité náhodné veličiny platí analogické vztahy vta ypo pro hustoty ustotypavděpodob pravděpodobnosti. ost Tedy pro nezávislé veličiny f(x,y) = f(x)f(y), f(x y) = f(x), f(y x) = f(y) Nezávislé jevy A a B ( výskyt A není ovlivněn výskytem B) tedy P(A/B) = P(A) a pak P(A B) = P(A) P(B) Pravidlo násobení pravděpodobností: pravděpodobnost současného č výskytu nezávislých jevů. ů A i je rovna součinu pravděpodobností P(A i ) Pravděpodobnost výskytu jevu A,,pokud nastal jev B se označuje jako podmíněná pravděpodobnost P(A/B) a (pro P(B)>0): Bayesův vztah P ( A B ) = P( A B) P( B) P(B/A) = P(A/B) P(B) / P(A) P(B) apriorní informace, P(B/A) aposteriorní informace, P(A/B) informace z dat

Náhodný vektor Vícerozměrná náhodná veličina ξ je určena svou sdruženou distribuční funkcí F(x). Pravděpodobnost, že všechny složky ξi vektoru ξ budou menší než složky yxx i zadaného o( (nenáhodného) o)vektoru uxx F(x) = P( ξ x ξ x... ξ x ) 1 1 m m je logický součin (současná platnost uvedených podmínek). Sdružená distribuční funkce F(x) je neklesající funkcí svých argumentů, je nezáporná a maximálně rovna jedné. Marginální (okrajová) distribuční funkce F(x i )složkyξ i je zvláštním případem simultánní distribuční funkce F(x), u které jsou všechny ostatní složky náhodného vektoru na horní mezi svého definičního intervalu; obyčejněξ j = pro j i.

Podmíněná distribuční funkce Podmíněná distribuční funkce F(x/x i ), vyjadřuje pravděpodobnost, že všechny složky vektoru ξ kromě i- té budou menší než odpovídající složka vektoru x. Pro složku ξi platí, že je přibližně konstantní, tj. leží v nekonečně malém intervalu x i ξ i dx i + x i. F( x / x ) = P( ξ x... x ξ ( x + d x... ξ x ) i 1 1 i i i i m m Nezávislé složky vektoru ξ, podmíněné distribuční funkce nezávisí na podmínce. m F(x) = F( xi) Derivace distribučních funkcí jsou hustoty pravděpodobnosti f(x i ), f(x), resp. f(x/x i ) i=1

y Standard Gaussian density Normální rozdělení 0.0 0.1 0. 0.3 0.4-3 - -1 0 1 3 Pro spojitou náhodnou veličinu x, - < x <. Unimodální a symetrické. μ = střední hodnota σ = směrodatná odchylka Hustota pravděpodobnosti f(x) = 1 πσ e ( μ ) - x- Distribuční funkce t F(t) = f (x)dx s x

Vícerozměrné normální rozdělení I Zobecnění na p rozměrů: 1 f( x) = exp - x-μ Σ x - μ / p 1 π det Σ ( ) ( ) kde - x i, i = 1,,p. ( ( ) T -1 ( ) ) Čtverec zobecněné ě vzdálenosti mezi x a μ μ σ11 σ1 σ 1 1p μ σ σ σ Označení N p (μ, Σ) 1 p μ=, Σ = μ p σp1 σp σpp σ 11 =σ 1

Vícerozměrné normální rozdělení II Sdružená hustota pravděpodobnosti vícerozměrného normálního rozdělení / 1/ 1 T -p/ -1/ T -1 f(x) = ( π) (det C ) exp - (x - μ) C (x - μ) det(c)označuje determinant matice C a x T označuje transponovaný vektor x. Parametry tohoto rozdělení jsou vektor stěedních hodnot o μ a kovarianční č matice C s prvky pv yc ij = cov(ξ i, ξ j ) Koznačení vícerozměrného normálního rozdělení se používá symbol N(μ, C). Pokud vektor x pochází z rozdělení N(μ, C), platí, že veličina T -1 Q(x) = (x - μ (x - μ) ) C má χ rozdělení s m stupni volnosti

D normální rozdělení -1 1 Inverze kovarianční matice: Σ = σ σ -σ Kovariance: σ 1 = ρ1 σ11 σ σ σ - σ = σ σ 1-ρ 11 1 ( ) Determinant: 11 1 11 1 σ -σ -σ σ 1 1 11 T 1 σ -ρ1 σ11 σ x-μ 1 1 - - = x1-μ 1 x-μ σσ ( ) x-μ 11 1-ρ 1 -ρ1 σ11 σ σ11 μ -1 ( x μ) Σ ( x μ) ( ) ( ) ( )( ) σ x-μ +σ x-μ -ρ σ σ x-μ x-μ = σσ 1-ρ 1 1 11 1 11 1 1 ( ) 11 1 μ 1 x μ μ 1-μ 1 x-μ x1-μ 1 x-μ = + -ρ 1 1-ρ 1 σ 11 σ σ 11 σ

PDF pro D normální rozdělení 1 f( x)= exp - x-μ Σ x- μ / ( π) det ( Σ) 1 ( ) ( ) ( ) π σ11σ 1-ρ 1-ρ1 1 ( ( ) T -1 ( ) ) 1 1 x-μ 1 1 x-μ x-μ 1 1 x-μ exp + -ρ 1 σ 11 σ σ 11 σ =

Graf pdf D normálního rozdělení f(x 1, X ) Linie úrovní X X 1 Všechny body stejné hustoty pravděpodobnosti se označují jako linie úrovní T -1 ( ) ( ) x μ Σ x μ = c

μ μ = μ Linie úrovní 1 μ linie konstantního c X f(x 1, X ) Koncentrické elipsoidy se středem μ a osami ±c λ e i ±c λ e i f(x 1, X ) ±c λ e 1 1 T ( x-μ ) Σ -1 ( x-μ ) χ α resp. χ ( ) ( ) p p,α X 1 T -1 ( ) ( ) ( ) Pr x μ Σ x μ χ α p = 1 - α

Speciální případ Pro stejné rozptyly (σ 11 = σ ): det ( Σ- λe) =0 resp. σ11-λ σ 0=det 1 = ( σ -λ) -σ σ1 σ11-λ ( ) ( ) = λ-σ -σ λ-σ +σ 11 1 11 1 11 1 takže λ 1=σ 11+σ 1, λ =σ11-σ1

Speciální struktury Sféricita N(μ,Σ=σ E) Σ = σ 0 0 0 σ 4 0 1 0 Σ = 0 1 Σ = 0 1 1 Σ = 1

Σ e Vlastní vektory ~ matice Σ i = λ e resp. i i σ11 σ1 e1 e =λ 1 σ 1 1 σ 11 e e ( ) nebo σ e+σ e = σ +σ e 11 1 1 11 1 1 ( ) σ e+σ e = σ +σ e 1 1 11 11 1 což znamená λ =σ + σ a 1 1 11 1 e = 1 1 a λ =σ - σ podobně platí,že = 1 11 1 e -1

Kladná kovariance linie T ( ) -1 ( ) c= x μ Σ x μ f(x 1, x ) X f(x 1, X ) - pro kladnou kovarianci σ 1, leží vlastní vektor na přímce pootočené o 45 0, která prochází středem μ: c σ -σ 11 1 c σ 11 + σ1 X 1

Záporná kovariance linie T ( μ) -1 ( μ) c= x Σ x X f(x 1, X ) - pro zápornou kovarianci i σ 1, leží druhý vlastní vektor v prvém úhlu k přímce pootočené o 45 0, která prochází středem μ: c σ11-σ 1 f(x 1, X ) c σ 11+σ 1 X 1

X 1 a X nekorelované 1 f( x)= exp x μ Σ x μ 1 π Σ ( ( ) T -1 ( )/ ) ( ) (r 1 = 0) 1 1 x 1-μμ 1 x -μμ x 1-μμ 1 x -μμ = exp ( ) ( ) + -ρ ( ) 1 π σσ 11 1-ρ 1-ρ 1 1 σ11 σ σ11 σ 1 1 x-μ 1 1 x-μ = exp + ( π ) σσ 11 σ11 σ f(x 1 ) f(x ) 1 ( ) / ( ) / 1 = exp( x 1 11 μ σ ) exp( 1 x μ σ ) π σ11 π σ

Vlastnosti vícerozměrného normálního rozdělení I Pro libovolný náhodný vektor x s normálním rozdělením platí, že pdf 1 f ( x ) = exp - x-μ Σ x - μ / p 1 π Σ ( ) ( ( μ ) T -1 ( μ ) ) má maximum v místě μ 1 μ μ = μ p Medián, modus a střední hodnota jsou totožné ~

Hustota pravděpodobnosti 1 f( x ) = exp x μ Σ x μ p 1 π ~ Σ ( ) ( ( ) T -1 ( ) /) Je symetrická se středem v μ Lineární kombinace složek vektoru X má normální rozdělení Všechny podmnožiny složek X mají (vícerozměrné) normální rozdělení Nulová kovariance znamená, že odpovídající složky vektoru X jsou nezávislé. Podmíněné rozdělení složek X je (vícerozměrné) normální

Vlastnosti vícerozměrného normálního rozdělení II Pokud X ~ N p (μ, Σ), pak všechny lineární kombinace T p = a ix i~n p T, T i=1 a X ( a μ a Σ a ) Pokud X ~ N p p(μ, (μ,σ), pak libovolná q lineární kombinace p a1ixi i=1 p Pokud d je vhodný T aixi T T ~N vektor konstant, pak AX= ( ) i=1 q Aμ, A ΣA X + d ~N p (μ + d, Σ) p aqixi i=1

Vlastnosti vícerozměrného normálního rozdělení III Pokud X ~ N p (μ, Σ), jsou všechny podmnožiny X normálně rozděleny X Σ11 Σ1 1 μ 1 ( qx1) ( qx1) ( qxq) ( qx( p-q) ) X =, μ =, Σ = px1 pxp X μ Σ1 Σ (( ) ) (( ) ) p-q x1 p-q x1 (( p-q ) xq ) (( p-q ) x( p-q )) ( px1) ( ) ( ) Pak X 1 ~ N q (μ 1, Σ 11 ) a X ~ N p-q (μ, Σ )

Vlastnosti vícerozměrného normálního rozdělení V Společná kovarianční matice Nechť X j ~ N p (μ j, Σ), j = 1,,n jsou vzájemně nezávislé. Pak ~ ~ n n n v 1 = cjxj~n p cjμ j, cj Σ ~ j=1 j=1 j=1 n n n v = b~ jxj~n p bjμ j, bj Σ j= 1 j= 1 j= 1 mají sdružené normální rozdělení s kovariační maticí n ( T c ) j Σ bc Σ V 1 and V jsou nezávislé, pokud n T b bc Σ bj Σ T c = 0! j=1 j=1 ( )

Souhrn Mezi důležité vlastnosti vícerozměrného normálního rozdělení patří: a) odpovídající marginální i podmíněná rozdělení jsou také normální, b) jsou-li všechny složky vektoru ξ vzájemně nekorelované (tj. všechny párové ékorelační č íkoeficienty i jsou nulové), znamená áto, že složky ξj, j = 1,..., m, jsou nezávislé, c) pokud má vektor ξ vícerozměrné normální rozdělení, mají libovolné lineární kombinace jeho složek ξ j také normální rozdělení. Z uvedeného plyne, že předpoklad normality usnadňuje analýzu aumožňuje poměrně jednoduché zpracování úloh souvisejících snáhodným áhdý vektorem ξ.

Charakteristiky vícerozměrných rozdělení Náhodný vektor X 1 x = X m Střed rozdělení je vektor středních hodnot Míra variability je kovarianční matice: ( ) ( ) EX 1 μ = Ex = EX m var x1 cov x 1,x m Σ = cov( X) = cov( x 1) m,x var ( x m )

Pojmy Náhodný vektor vektor, jehož elementy jsou náhodné proměnné nebo jejich funkce. Náhodná matice matice, jejíž elementy jsou náhodné proměnné ě nebo jejich ji funkce. Střední hodnota E x 11 E x1 E x1m E x1 E x E xm E X = E xn1 E xn E xnm ( x ) xp ij ij ij all xij E x ij = ( ) xf ij ij xij dxij E(cX) =ce(x) E(X+Y) = E(X) + E(Y) E(AXB)= AE(X)B

Kovarianční matice Pozitivně semi definitní (všechny rozptyly jsou 0) ( x )( ) ( )( ) 1 μ1 x1 μ1 x1 μ1 xm μm Σ = cov( x ) = E = ( x )( ) ( )( ) d μm x1 μ1 xm μm x m μm = E( )( ) T Σ x μ x μ σ σ σ T Var c X = T σ σ σ ( )( ) = = 1 m E X -μ X - μ = T σm1 σm σmm c Σc 11 1 1m

Korelační matice Populační kovarianční matice Σ se snadno převede na korelační matici ρ. Platí = V 1 ρ V 1 σ 11 0 0 σ 1 0 0 V = σ 0 0 mm ρ= covik ρ ik = σ σ 1 ii kk ( V 1 ) ( V 1 ) 1

Kovariance I Mírou intenzity vztahu mezi složkami ξ i a ξ j, j # i je druhý smíšený centrální moment, nazývaný kovariance cov(ξ i, ξ j ), cov( ξ, ξ) = E( ξ ξ) - E( ξ) E( ξ) i j i j i j a) Kovariance je kladná resp. záporná resp.nulová. b) Kovariance je v absolutní hodnotě shora ohraničená součinem σ i σj, tj. tjabs(cov(ξ i, ξ j )) σ i σ j. c) Kovariance je symetrickou funkcí svých argumentů. d) Kovariance se nemění posunem počátku, ale změna měřítka se projeví úměrně jeho velikosti. Pro čísla a 1, a, b 1, b platí cov( a ξ + b, a ξ + b ) = a a cov( ξ, ξ) 1 i 1 j 1 i j

Kovariance II e) Pro nekorelované náhodné veličiny je cov(ξ i, ξ j ) = 0 a mohou nastat dva případy: 1. E(ξ i ξ j ) = 0 a zároveň E(ξ i ) = E(ξ j ) = 0, což je případ centrovaných ortogonálních náhodných veličin.. E(ξ i ξ j ) = E(ξ i ) E(ξ j ), což je případ nezávislých náhodných veličin. Je tedy patrné, že nekorelovanost neznamená vždy nezávislost. f) Kovariance je mírou intenzity lineární závislosti. Limitní it je případ, kdy jsou ξ i, ξ j lineárně ě závislé, takže ξ j = a ξ i + b, a cov(ξ i, ξ j ) = E(a ξ i+bξ ξ i ) - E(ξ i )E(aξ ξ i +b)=a σii σ

Korelace I Hodnoty kovariance závisí na měřítku, ve kterém jsou vyjádřeny ξ 1 a ξ. Její velikost lze hodnotit vzhledem k součinu σ i σ j. Proto je přirozené provést standardizaci dělením tímto součinem. Vzniklá veličina ρ ij = ρ(ξ i, ξ j ) se nazývá párový korelační koeficient cov( ξi, ξj) ρ( ξi, ξj) = ρij = σi σj Korelační koeficient ležívrozmezí -1 ρ ij 1. Pokud je ρij > 0jde 0, o pozitivně korelované náhodné veličiny, a pokud je ρij < 0, jde o negativně korelované náhodné veličiny a) abs(ρ ij ) = 1 znamená, že mezi ξ i a ξ j existuje přesně lineární vztah. b) Pro vzájemně nekorelované náhodné veličiny ξ i a ξ j, je ρ ij = 0.

Korelace II c) V případě, že ξ i a ξ j pocházejí z vícerozměrného normálního rozdělení a ρ ij = 0, znamená áto, že jsou vzájemně ě nezávislé. áilé d) I pro nelineárně závislé náhodné veličiny může být ρ ij = 0 e) Korelační koeficient ρ ii náhodné veličiny ξ i samotné se sebou je roven jedné. f) Korelační koeficient je invariantní vůči lineární transformaci náhodných proměnných ξ i, ξ j. Pro čísla a 1, a, b 1, b platí ρ(a ξ + b, a ξ + b ) = sign(a a ) ρ( ξ, ξ) 1 i 1 j 1 i j -1 pro x < 0 sign(x) = 0 pro x = 0 1 pro x > 1

Šikmost a špičatost Pro dva vektory, ξ 1 ξ, které jsou nezávislé a stejně rozdělené se střední hodnotou μ a kovarianční maticí Σ = C, je vícerozměrná šikmost g = 1m 1,m E[( ξ - μ ) ( - μ) ] a vícerozměrná špičatost T -1 3 1 C ξ g =E[(,m ξ - μ ) ( - μ) ] T -1 1 C ξ1 Pokud m = 1, přecházejí tyto vztahy na šikmosti a špičatosti jednorozměrných dat,. K vyjádření funkcí g 1,m ag,m lze využít i vícerozměrných centrálních momentů. Pro případ vícerozměrného normálního rozdělení je 1,m = 0 g g =,m m (m + )

Vícerozměrná data Nestrukturovaná vícerozměrná data jsou běžně v maticovém uspořádání, kde pozorování (objekty) jsou v řádcích a proměnné (rysy) ve sloupcích proměnná 1 proměnná proměnná m pozorování 1 x11 x1 x1m pozorování x1 x xm pozorování n x x x n1 n nm Pokud se znaky rozdělují na skupinu vysvětlovaných proměnných Pokud se znaky rozdělují na skupinu vysvětlovaných proměnných (závisle proměnných) a proměnných vysvětlujících (nezávisle proměnných), označuje se submatice vysvětlovaných proměnných jako Y (n k) a matice Z rozměru n (m k) pak tvoří skupinu vysvětlujících proměnných.

Odhady parametrů I Z vícerozměrného výběru velikosti n, definovaného n-ticí m- rozměrných vektorů x = T i (x i1,..., x im ), i = 1,..., n, který lze vyjádřit maticí měřených hodnot X (n x m), je možno určit výběrový vektor středních hodnot μˆμ x1 S využitím matice X lze vyjádřit n 1 μˆ = x= = x výběrovou střední hodnotu jako i n i = 1 1 m x ˆ = T n μ X 1 n kde l n je vektor rozměru (n x 1), obsahující jako prvky samé jedničky. Pro vektor výběrových středních hodnot platí E( ˆ) = a D( ˆ) = / n μ μ μ Σ Odhad ˆμ je tedy nevychýlený.

Odhady parametrů II Pro odhad kovarianční matice S 0 platí rovnice n 0 1 T S = ( i - ˆ) ( ˆ i - ) n x μ x μ n i = 1 n ( x i1 x1) ( xi1 x1 )( xid xd ) i= 1 i= 1 0 1 S = n n n ( xid xd )( xi1 x1) ( xid xd ) i= 1 i= 1 Pro odhad kovarianční matice platí E jednotková 0 1 T S = X UX 1 T n je ová U = n n n n E 1 1 matice řádu (n x n). n

Odhady parametrů III Pro odhad kovarianční matice platí, že 0 n -1 E( S ) = n Σ Jde tedy ovychýlený ýodhad. Proto se podobně jako u jednorozměrných dat používá výběrová korigovaná kovarianční matice S = n S n - 1 0 která je již nevychýleným odhadem kovarianční matice Σ = C. Matice S 0 je výběrová kovarianční matice. Odhady ˆμ a S 0 jsou maximálně věrohodné pro případ, že náhodný áhdývýběr charakterizovaný maticí íxx pochází z normálního rozdělení N(μ, C).

Zobecněný rozptyl Náhodný výběr X pochází z normálního rozdělení N(μ, C). Odhad μˆμ má rozdělení N(μ, C /n) n). n - 1 Veličina V = n S 0 T je rozdělená jako suma y y i i kde y i jsou nezávislé áilénáhodné áhdévektory s rozdělením N(0, C). Tento typ rozdělení se nazývá Wishartův Zobecněný rozptyl je definován jako det(c) a jeho výběrový odhad je det(s). Symbolem det(s) je označen determinant matice S. Asymptotické rozdělení výběrového zobecněného rozptylu det(s) je normální se střední hodnotou det(c) a rozptylem n - 1 det(s) m náhodná veličina U = - 1 D[det(S)] = [det(c)] m det(c) n - 1 má normální rozdělení N(0, 1). i = 1

James Steinův odhad James a Stein ukázali, že pro m 3 existuje odhad který má menší kvadratickou ztrátovou funkci a je ze statistického hlediska lepší než klasický výběrový průměr Kvadratická ztrátová funkce pro obecný odhad ΘˆΘ střední hodnoty ˆ T -1 L = n ( Θ - μ) C ( Θˆ - μ) Jde o čtverec Mahalanobisovy vzdálenosti mezi vektory ΘˆΘ a μ Jamesův-Steinův odhad střední hodnoty vícerozměrného normálního rozdělení N( μ,, C) (n - 1) (m - ) μˆ ˆ J = 1 - T -1 n (n - m + ) ˆ ˆ μ μ S μ Čím je μ blížeknulovému vektoru, tím je tento odhad lepší. Na druhé straně je tento odhad vychýlený. ˆμ J

Robustní odhady Podobně jako u jednorozměrných dat je výhodné použít robustních metod odhadu vektoru středních hodnot a kovarianční matice. Robustní odhady složek vektoru středních hodnot lze získat např. použitím 10%ních uřezaných průměrů. K určení robustního odhadu kovariance se dá přímo využít 1 robustních odhadů, rozptylů, protože 1 cov(x, x ) = [D(x + x ) - D(x - x )] 1 1 1 4 Místo rozptylů py D(x) () se pak používá jejich jj robustních odhadů. Jiný postup určování robustních odhadů spočívá ve vícerozměrném uřezáníř ítk tak, aby byl blzachován tvar rozptylového tl diagramu bodů bdů v prostoru E m.

Robustifikace pomocí zobecněné vzdálenosti Vlastní proces je iterační a vychází z Mahalanobisovy vzdálenosti * T * -1 * i = ( i - ) ( ) ( i- ) d x μ S x μ * μ a S * jsou odhady vektoru středních hodnot a kovarianční matice, určené z předchozích iterací. Zvolený podíl γ (obyčejně γ = 0.1) bodů x i s největšími hodnotami d i je v každé iteraci vypuštěn z výpočtu. Není automaticky zajištěna pozitivní definitnost a nevychýlenost odhadu kovarianční matice S resp. korelační matice R.

Odlehlé body I Robustní varianta Mahalanobisovy vzdálenosti MD( x ) = ( x - R( x) R( S ( x - R( x)) T -1 i i ) ) i R( x ) R( S ) kde je robustní verze výběrových ýhprůměrů ů ě ů a je robustní verze kovarianční matice. Poměrně dobré robustní vlastnosti (asymptoticky může být téměř polovina dat vybočujících) má odhad, založený na elipsoidu minimálního objemu (MVE), což je nejmenší elipsoid, pokrývající alespoň polovinu bodů. Elipsoid je definován rovnicí T -1 ( x - R( x) ) R( S) ( x - R( x)) = m Objem tohoto elipsoidu je det(r(s)), kde det(.) je determinant. Pro robustní odhady polohy a kovarianční matice se bere podmnožina h bodů x, i = 1..h kde h = int (n + m + 1)/) * i

Odlehlé body II Robustní odhady jsou speciálně vážené odhady z podmnožiny h bodůç, počítané ze vztahç h * * i xi i=1 R( x ) = w * * T ( - R( ))( - R( )) h * RS ) = w i x i x x i x i=1 (0) wi = 1/h, i = 1,..., h V první iteraci se volí váhy Pokud vyjde pro všechny robustní Mahalanobisovy vzdálenosti že MD( xi) m pokrývá elipsoid všechny body. Pokud však vyjde že MD( xi ) je pro některá xi větší mež m, je třeba provést úpravu vah w = w (MD( x )/m) (k+1) (k) i i i a znovu určit opravené robustní odhady

Odlehlé body III T -1 T H X X X X = ( ) * Určení podmnožiny x i, i = 1..haby jí odpovídající elipsoid měl minimální objem. Použití všech možných podmnožin může být časově velmi náročné. Pro sestavení vhodné podmnožiny dat je možné použít postup, p, založený na vektoru EID (i-tý ýprvek odpovídá příspěvku i-tého bodu ke všem vlastním číslům informační matice). Postup je shodný s výpočtem prvků H ii projekční matice H Pokud se vypustí z dat i-tý bod, dojde ke změně determinantu matic X T X, vyjádřené vztahem T T det( (-i) X(-i) ) = (1 - EID i) det( X X) X ProtožejeMVE úměrné determinantu kovarianční matice, stačí místo Protože je MVE úměrné determinantu kovarianční matice, stačí místo X použít centrované matice X C a postupně vypouštět body s maximálním EID i až do nalezení podmnožiny h všech bodů.

Výběrové šikmosti a špičatosti I Pro vyjádření výběrových vícerozměrných šikmostí a špičatostí se vychází z veličin T -1 wij = ( xi - μˆ ) V ( xj - μˆ ) μ kde V = S n je výběrová kovarianční matice a ˆμ je výběrový průměr w ii je čtverec zobecněné Mahalanobisovy vzdálenosti. Odhad výběrové šikmosti a špičatosti gˆ = n 1,m n n n 3 wij gˆ,m = n i = 1 j = 1 i = 1 w m (m +) E( gˆ 1,m) = [(n + 1) (m + 1) - 6] (n + 1) (n + 3) 8m(m+)(n (n - 3) E( gˆ,m) = (n - m - 1) (n - m + 1) (n + 1 ) (n + 3) (n + 5) ii

Výběrové šikmosti a špičatosti II 1 w w w d = ( + - ) Snadno lze určit, že ij ii jj ij Lze také definovat tzv. Mahalanobisovy úhly θ ij mezi vektory x i - μˆ a ˆ x μ a x - = j μ pro které platí cos θij wij / w ii w jj n n 1 Pro výběrovou šikmost pak platí g ˆ 1,m = ( Wii Wjj cos θij) n i=1 i=1 Pokud jsou jednotlivé znaky x i rovnoměrně rozděleny na m-rozměrné kouli je gˆ 1,m = 0 To samé platí pro všechna kulově symetrická rozdělení. Pokud však dojde k narušení sférické symetrie, např. shlukováním části dat, vyjde ĝg 1,m vysoké.

Rozdělení šikmosti a špičatosti ˆμ Pro případ, že a S jsou určeny na základě náhodného výběru velikosti n z m-rozměrného normálního rozdělení N(μ, C) s pozitivně definitní kovarianční maticí C, platí, že náhodná veličina U 1 = n gˆ 1,m 6 má asymptoticky χ -rozdělení sm(m + 1)(m + )/6 stupni volnosti. Náhodná veličina U U = gˆ - g,m,m 8 m m + n má pak asymptoticky standardizované normální rozdělení N(0, 1)

Ověření normality U vícerozměrných výběrů hraje hlavní roli předpoklad, že data pocházejí z vícerozměrného normálního rozdělení.tentopředpoklad usnadňuje zejména statistickou analýzu vektoru středních hodnot nebo kovarianční matice. Problém testování vícerozměrné normality spočívá ve faktu, že m-rozměrný náhodný vektor x má normální rozdělení jen tehdy, když pro všechny možné nenulové vektory a platí, že a T x je náhodná veličina s jednorozměrným normálním rozdělením. Pokud oudvšechny yso složky x j vektoru x mají normální rozdělení, nelze e ještě tvrdit, že vektor x má vícerozměrné normální rozdělení. Podobně jako v jednorozměrném případě, existuje i zde řada testů, které jsou více či méně citlivé vůči různým typům narušení normality.

Grafické techniky I Grafické techniky ověřování vícerozměrné normality využívají normalizační transformace -1/ y ˆ i = S ( xi - μ) V případě, že výběr pochází z vícerozměrného normálního rozdělení, mají y i přibližně normované normální rozdělení N(0, E). Skalární T součin d i = yy i i má přibližně χ - rozdělení s m stupni volnosti Tento součin je vlastně čtverec Mahalanobisovy vzdálenosti. Pro větší rozsahy výběru lze vynášet nebo proti odpovídajícím pořádkovým statistikám χ -rozdělení. Jde o případ Q-Q grafu pro teoretické rozdělení di χ m /3 di Přibližně lineární závislost zde indikuje vícerozměrnou normalitu.

Grafické techniky II n di Výhodné je použití veličiny Zi = (n - 1) která má beta-rozdělení rozděleníb[05m B[0.5 m, 0.5 05(n - m - 1)]. Při konstrukci Q-Q grafu se pak vynášejí pořádkové statistiky Z (i), pro které platí Z (i) Z (i+1), i= 1,..., n - 1 proti hodnotám * i - α 0.5 m - 1 0.5 (n - m - 1) - 1 Z i = kde α = a β = m n - m - 1 n - α - β + 1 Pro rozsah výběru n > 50 lze také použít přibližné rovnosti platné pro případ, že data pocházejí z vícerozměrného normálního rozdělení i + 0.5 n Z(i) log 1-0.5 (n - m - 1) log 1 - n (n - 1) vícerozměrná * i+05 0.5 (i) * n Z yi = log 1 - proti x i = log 1 - normalita n (n - 1)

Testy normality I Na základě hlavních komponent Y = X V lze počítat koeficienty vícerozměrné šikmosti respektive špičatosti 1 g y ) m m n -3/ 3 ˆ = 1s, m L ii ( ij- y / n i j=1 i=1 m n 1-4 gˆ = s, m Lii ( y ij - y ) i n m j=1 i=1 L ii jsou vlastní čísla kovarianční matice S. Za předpokladu 6 vícerozměrné normality platí, že E( gˆ ˆ 1s, m) 0, D( g1s, m) n m Statistika n m Q ˆ má přibližně rozdělení 1s = g áp ě χ odě s m 1s, m stupni volnosti. 6

Testy normality II E( gˆ ) 3, D( gˆ ) 4 n m Platí, že s, m s, m Q n m = g ˆ Statistika s s, m 4 má normované normální rozdělení N(0, 1). Jestliže nebyla prokázána vícerozměrná normalita, může to znamenat, že v datech jsou vybočující skupiny bodů respektive jejich rozdělení se liší tvarem od vícerozměrného normálního rozdělení. Pokud lze vyloučit přítomnost t vybočujících č í bodů a skupin je možné použít ke zlepšení rozdělení dat mocninné transformace. Je vhodné provést nejdříve mocninné transformace všech znaků, tj. sloupců zdrojové matice X a přesvědčit se testem, zda je již vícerozměrná normalita akceptována.

Box Coxova transformace I Účelem je nalézt vektor parametrů λ = (λ 1,..., λ m ), pro které bude přibližně platit, že matice X vboxcoxově Box-Coxově transformaci ( λ) ( λ1) ( λm) X = ( X1,..., Xm ) x(λ) = ( x λ -1)/λ resp. bude mít normální rozdělení N(μ, C) x(λ) = ln x označuje Box- Coxovu transformaci Logaritmus věrohodnostní funkce a je až na konstantu vyjádřitelný ve tvaru n ( λ), T ( λ) n ( λ) Lmax ( x ) = - ln det ( Z T Z ) - ln det ( S ) V této rovnici je S(λ) kovarianční matice odpovídající matici X (λ) znaků v mocninné transformaci a transformační matice je T Τ = En - ln ln /n E n je jednotková matice řádu n a 1 n je vektor rozměru (n x 1), obsahující samé jedničky.

Box Coxova transformace II Matice Z(λ) má prvky Z ( λj) ( ) ij -1/n λj = J( λ j) (j) xij, i = 1,..., n, j = 1,..., p Symbol J označuje složky Jakobiánu transformace, pro který platí, že J ( λ ) j (j) = n Π i=1 x ij ( λ - 1) Maximálně věrohodný odhad vektoru parametrů λ = (λ..., λ m T 1, m) pak tedy vede k minimalizaci determinantu matice S(λ) respektive matice Z(λ) T T Z(λ). Při minimalizaci je v tomto případě výhodné m m využít rozkladu ( λ) T ( λ) ( λ) T ( λ) det ( Z T Z ) = Π Z k T Z k ) Π (1 - r k ) k=1 k=1 kde Z (λk) k je k-tý ýsloupec matice Z (λ), r 1 = 0 a r k pro k =,..., m je vícenásobný korelační koeficient regrese Z (λk) k na proměnných (Z (λ1) 1,..., Z (λm) m. j

Box Coxova transformace III Protože se v průběhu optimalizace korelační koeficienty příliš nemění, je obyčejně vektor λ blízký vektoru λ M, jehož složky jsou určeny použitím jednoduché Box-Coxovy transformace pro jednotlivé sloupce zdrojové matice X zvlášť. Při náhradě matice S(λ) vhodným robustním odhadem lze získat parametry robustní Box.Coxovy transformace. Jak je patrné, lze pro účely zlepšení rozdělení ídat tčasto t pracovat s jednotlivými i znaky izolovaně. S výhodou se dá i zde použít místo původních dat X transformace do hlavních komponent Y = X V. Pro tento případ již bude korelační matice S diagonální a všechny korelační č íkoeficienty i r 0tkž bd ˆ ˆ k = 0, takže bude možné psát λ = λm Pak zcela postačí Box-Coxovy transformace jednotlivých znaků

Hypotézy o střední hodnotě Testování nulové hypotézy H 0 : μ = μ 0 proti alternativní H 1 : μ μ 0. Vychází se z předpokladu, žedatax x i, i = 1,..., n, jsou náhodným výběrem z m-rozměrného normálního rozdělení N(μ, C). Parametry μ a C jsou neznámé a odhadují duj se pomocí oc výběrových charakteristik ˆμ a S Hotellingova T T -1 statistika T = n ( μ ˆ - μ ˆ 0) S ( μ - μ0) Statistika T má tzv. Hotellingovo rozdělení s kvantilovou funkcí T (α). Vyjde-li testováním, že T T (1 - α / ), je na hladině významnosti α hypotéza H 0 přijata. Za předpokladu platnosti hypotézy H 0 má veličina C = (n - m) T / (m (n - 1)) F-rozdělení s m a (n - m) stupni volnosti. Pokud je H 0 neplatná, ltámá veličina C necentrální F-rozdělení.

Konfidenční oblast S využitím statistiky T lze konstruovat konfidenční oblasti pro vektor μ. Platí,že 100(1 - α)%ní oblast m-rozměrného vektoru je ohraničena povrchem T -1 m (n - 1) ( μˆ - μ ) S ( μˆ - μ ) = Fm,n-m(1- α ) n (n - m) kde F m,n-m (1 - α) je kvantil F- rozdělení s man-m stupni volnosti. Jde o m-rozměrný elipsoid se středem v místě μˆμ

Shoda více středních hodnot Úlohou je testovat shodu celkem r středních hodnot μ i. Nulová hypotéza H 0 : μ 1 = μ =... μ r proti alternativní H A : μ i μ j. Vychází se z r-tice náhodných výběrů x (j)i, i = 1,...n j, j = 1,..., r, o kterých se předpokládá, ř že pocházejí zrozdělení N(μ i, C), lišících í se pouze středními hodnotami. Z těchto výběrů jsou vypočteny odhady ˆμ r r j a S j = V j / n j -1. μ V, n = = V n j j j S j j r j = 1 j = 1 r = n i μ ˆ i V C ni μˆ μ ˆ μ i μ i i = 1 n i = 1 = ( - ) ( - ) Wilcoxovo λ kritérium λ =det(v S )/det(v S + V C ) T

Testy kovariančních matic I Při analýze kovariančních matic se vychází z výběru (x i ), i = 1,..., n, o kterém se předpokládá, že pochází z m-rozměrného normálního rozdělení N(μ, C). Test sféricity -testuje se nulová hypotéza H 0: C = σ E proti alternativě H A : C σ E, kde σ > 0 je rozptyl a E je jednotková matice. -m + m + tr ( V) m TS = det ( V) ST = - n - ln ( TS) m 6 m S T má χ -rozdělení s {m (m + 1) / - 1} stupni volnosti. Test nezávislost složek vícerozměrného normálního rozdělení. Nulová hypotéza H 0 : R = E, alternativní H A : R E. m + 11 Q = - n - ln (det( )) 6 R má χ -rozdělení s {m (m - 1) / } stupni volnosti.

Testy kovariančních matic II Testování nulové hypotézy H 0 : C = C 0 proti alternativní H A : C C 0. Lc = (n - 1) ln (det( C0)) - (n - 1) m - (n - 1) ln (det( S)) + T + (n + 1) tr ( SC ) Platí, žel= L )mápřibližně c (1 - D 1 χ -rozdělení s {m (m + 1) / } stupni volnosti. Pro parametr D 1 platí D 1 m+1- = m + 1 6 (n - 1) Analogicky lze testovat i hypotézu, že korelační matice R se rovná známé korelační matici R 0 0

Shoda kovariančních matic 1 1 m + 3 m - 1 b = 1 - - j = 1 n j - 1 6( (m +1) ( n j - 1) j = 1 Test shody dvou kovariančních matic, C 1 = C. Vychází se ze dvou výběrů (x i ), i = 1,..., n 1, a (y i ), i = 1,..., n, o kterých se předpokládá, že pocházejí z normálních rozdělení x N( μ, C) a y N( μ, C ) 1 1 Používá se opět odhadů S 1, S a společné kovarianční matice S p, ( n1-1) S1 + ( n- 1) S S p = n1+ n- K testování hypotézy H0: C 1 = C (HA: C 1 C ) lze použít testovací statistiku 1 LU= ( nj- 1) ln (det ( Sp)) - ( nj- 1) ln (det ( Sj)) b j = 1 j = 1 Rozdělení L U je přibližně χ s {(m + 1) m / } stupni volnosti