Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE. Eduard Hybler

Rozměr: px
Začít zobrazení ze stránky:

Download "Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE. Eduard Hybler"

Transkript

1 Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE Eduard Hybler Moderní přístupy k analýze finančních časových řad Katedra pravděpodobnosti a matematické statistiky Vedoucí diplomové práce: RNDr. Jitka Zichová, Dr. Studijní program: Matematika Studijní obor: Finanční a pojistná matematika

2 Rád bych na tomto místě poděkoval vedoucí mé diplomové práce RNDr. Jitce Zichové, Dr., za cenné připomínky a podněty k této práci, poskytnutí potřebné literatury, za umožnění práce s potřebným softwarem a za její čas strávený na konzultacích. Prohlašuji, že jsem svou diplomovou práci napsal samostatně a výhradně s použitím citovaných pramenů. Souhlasím se zapůjčováním práce. V Praze dne Eduard Hybler 2

3 Obsah Úvod 6 1 Korelace a regrese Podmíněná nezávislost Korelační analýza Odhady parametrů u mnohorozměrného rozdělení Lineární regrese Grafické modely Základní pojmy z teorie grafů Graf podmíněných nezávislostí Markovské vlastnosti Grafické modely a modelování Orientované acyklické grafy nezávislosti Wermuthova podmínka a morální graf Deviance Mnohorozměrné časové řady Základní charakteristiky mnohorozměrného náhodného procesu Mnohorozměrný ARMA model Stacionarita a invertibilita posloupností ARMA Identifikace ARMA modelu Výběrová autokovarianční a autokorelační matice Výběrová parciální autokorelační matice Shrnutí volby řádu modelu Odhad parametrů modelu Verifikace modelu Grafické modely a vektorová autoregrese Vektorová autoregrese Identifikace strukturálních autoregresí Zpracování finančních dat Identifikace kanonického ARMA modelu Identifikace strukturální autoregrese pomocí grafických modelů Závěr 50 3

4 Literatura 51 Přílohy 52 Příloha č.1: Soubor vstupních dat Příloha č.2: Obsah přiloženého CD

5 Název práce: Moderní přístupy k analýze finančních časových řad Autor: Eduard Hybler Katedra: Katedra pravděpodobnosti a matematické statistiky Vedoucí diplomové práce: RNDr. Jitka Zichová, Dr. vedoucího: zichova@karlin.mff.cuni.cz Abstrakt: Práce se zabývá identifikací mnohorozměrného kanonického ARM A modelu a dále pak určením grafického modelu, který obsahuje i vztahy mezi proměnnými v současnosti, nikoli jenom závislost na zpožděných proměnných. V praktické části je pomocí výpočtů v softwaru Mathematica identifikovaný kanonický AR model, u kterého se pomocí metodologie grafických modelů určí strukturální autoregrese. Zpracována byla časová řada měnových kurzů, která je spolu s programem obsažena na přiloženém CD. Klíčová slova: Mnohorozměrný ARM A model, graf podmíněných nezávislostí, grafický model. Title: Modern Approach To Financial Time Series Analysis Author: Eduard Hybler Department: Department of probability and mathematical statistics Supervisor: RNDr. Jitka Zichová, Dr. Supervisor s e mail address: zichova@karlin.mff.cuni.cz Abstract: This thesis is devoted to the multivariate canonical ARM A model and then continues with determination of a graphical model. Graphical model includes also relations between contemporaneous variables, not only dependence on past variables. In the practical part of this work canonical AR model is identified using software Mathematica. In this model we specify structural autoregresion according to the graphical models methodology. A time series of exchange rates was processed. It is together with program included on the enclosed CD. Keywords: Multivariate ARM A model, conditional independence graph, graphical model. 5

6 Úvod Zpracování časových řad je jedním z úkolů řešených ve finanční analýze. Jedná se např. o studium vývoje cen akcií, měnových kurzů či hodnoty burzovních indexů. Finanční časové řady vykazují značnou nestabilitu, a proto u nich většinou dobře nefungují klasické přístupy. V posledních letech byly vyvinuty nové modely vhodné právě pro práci s finančními časovými řadami, a to jak v jednorozměrném, tak v mnohorozměrném případě. Navíc v mnohorozměrném případě nás zajímají nejen vlivy minulých pozorování, ale i vztahy mezi jednotlivými složkami pozorovaného vektoru ve stejném čase. Práce je rozdělena do pěti kapitol. V prvních čtyřech je vyložena teorie, která je pak v poslední kapitole aplikována na konkrétní data z finanční praxe. První kapitola se zabývá teorií korelace a regrese. Připomíná pojmy a metody potřebné v nasledujícím textu. Druhá kapitola obsahuje základy z teorie grafů, které jsou pak využité ve spojitosti s grafem podmíněných nezávislostí a jeho dalšími vlastnostmi. Třetí kapitola pojednává o mnohorozměrných časových řadách s důrazem na mnohorozměrný ARM A proces - zavedení základních pojmů, vlastností, způsoby identifikace, odhad parametrů a verifikace modelu. Čtvrtá kapitola uvádí postup kontrukce strukturálního AR modelu, jak je uvedeno v [9]. Poslední pátá kapitola aplikuje tento postup na časovou řadu - napozorovaných hodnot dvourozměrného vektoru kurzu eura a dolaru vůči české koruně - a popisuje získané výsledky. 6

7 Kapitola 1 Korelace a regrese V první kapitole připomeneme základní statistické pojmy jako jsou nezávislost, korelace a regrese - všechno se zřetelem na vícerozměrný případ - tj. uvažováním náhodných vektorů. Bez důkazů uvedeme některé vztahy potřebné pro naše další účely. Důkazy či podrobnější odvození vět a lemmat jsou uvedena např. v knize [2], kapitoly 2, 5 a 6 nebo v [4], zejména kapitoly 3 a 7. Důkazy vět a lemmat o parciálních kovariancích jsou v knize [11]. Poznamenejme ještě, že v celé práci budeme uvažovat sloupcové vektory. Transpozici vektoru X budeme značit X T. 1.1 Podmíněná nezávislost Definice 1.1: Nezávislost náhodných veličin Věta 1.2: Náhodné veličiny X 1,... X n, jsou nezávislé právě když F X (x 1,... x n ) = F X1 (x 1 )... F Xn (x n ) (x 1,..., x n ) T R n (tj. sdružená distribuční funkce se rovná součinu marginálních distribučních funkcí). Nechť náhodné veličiny X 1,..., X n mají sdruženou hustotu f X a marginální hustoty f X1,..., f Xn. Pak X 1,..., X n jsou nezávislé tehdy a jen tehdy, platí-li n f X (x 1,... x n ) = f Xi (x i ). Definice 1.3: Nezávislost náhodných vektorů Náhodné vektory X = (X 1,... X n ) T a Y = (Y 1,... Y k ) T jsou nezávislé, právě když X i a Y j jsou nezávislé náhodné veličiny i = 1,... n a j = 1,... k. Nezávislost budeme dále značit X Y. Definici 1.3 můžeme ekvivalentně zapsat pomocí podmíněné hustoty: i=1 X Y f X Y (x; y) = f X (x) x. 7

8 Definice 1.4: Podmíněná nezávislost Náhodné vektory Y a Z jsou podmíněně nezávislé při pevné hodnotě vektoru X, právě tehdy když f Y Z X (y, z; x) = f Y X (y; x)f Z X (z; x) pro všechny hodnoty y, z a pro všechna x taková, že f X (x) > 0. Podmíněnou nezávislost budeme dále značit Y Z X. Lemma 1.5: Nechť Y Z X. Potom jsou následující tvrzení ekvivalentní: (i) f Y,Z X (y, z; x) = f Y X (y; x)f Z X (z; x) (ii) f Y X,Z (y; x, z) = f Y X (y; x) a analogicky f Z X,Y (z; x, y) = f Z X (z; x) (iii) f X,Y,Z (x, y, z) = f X,Y (x,y)f X,Z (x,z) f X (x) (iv) f X,Y,Z (x, y, z) = f X,Y (x, y)f Z X (z; x) = f X,Z (x, z)f Y X (y; x) (v) f X,Y,Z (x, y, z) = f Y X (y; x)f Z X (z; x)f X (x). 1.2 Korelační analýza Definice 1.6: Kovariance Kovarianci dvou náhodných vektorů X, Y s konečnými druhými momenty definujeme předpisem Pro praktické výpočty se používá vzorec Definice 1.7: Varianční matice cov(x, Y ) = E(X EX)(Y EY ) T. cov(x, Y ) = EXY T (EX)(EY ) T. Mějme náhodný vektor X = (X 1,..., X n ) T. Matici V = varx = (cov(x i, X j )), která je typu n n, nazýváme varianční maticí vektoru X. Platí pro ni varx = cov(x, X) = E(X EX)(X EX) T = EXX T (EX)(EX) T. Definice 1.8: Korelační koeficient Nechť X, Y jsou náhodné veličiny s konečnými druhými momenty a kladnými rozptyly. Pak definujeme korelační koeficient cor(x, Y ) = cov(x, Y ) varxvary. 8

9 Definice 1.9: Korelační matice Mějme náhodné vektory X = (X 1,..., X n ) T a Y = (Y 1,..., Y m ) T s konečnými druhými momenty. Nechť všechny složky těchto dvou vektorů mají kladné rozptyly. Matici typu n m, jejíž (i, j)-tý prvek je roven korelačnímu koeficientu veličin X i a Y j, nazveme korelační maticí vektorů X a Y a označíme ji cor(x, Y ). Matice cor(x, X) se nazývá korelační matice vektoru X a značí se corx. Definice 1.10: Parciální kovariance Nechť X, Y, Z jsou náhodné vektory s konečnými druhými momenty a varianční matice varx je regulární matice. Pak parciální kovarianci Y a Z při pevném X počítáme jako cov(y, Z X) = cov(y Ŷ, Z Ẑ), kde Ŷ, Ẑ jsou nejlepší lineární odhady Y, Z získané z X. Je tedy Ŷ = α 1 + β1 T X, kde α 1 = EY β1 T EX, β 1 = (varx) 1 cov(x, Y ) Ẑ = α 2 + β2 T X, kde α 2 = EZ β2 T EX, β 2 = (varx) 1 cov(x, Z). Vektory Y Ŷ, Z Ẑ (tj. ty části Y a Z, které vektor X nevysvětlí) nazýváme vektory reziduí. Definice 1.11: Parciální rozptyl Nechť X a Y jsou náhodné vektory. Pak parciální rozptyl Y při pevném X definujeme jako var(y X) = cov(y, Y X). Definice 1.12: Parciální korelační koeficient Nechť Y, Z jsou náhodné veličiny s konečnými druhými momenty a X náhodný vektor. Za předpokladu var(y Ŷ ) > 0 a var(z Ẑ) > 0 definujeme parciální korelační koeficient veličin Y a Z při pevném X jako cor(y, Z X) = Definice 1.13: Parciální korelační matice cov(y, Z X) var(y X)var(Z X). Nechť X, Y = (Y 1,..., Y m ) T a Z = (Z 1,..., Z k ) T jsou náhodné vektory s konečnými druhými momenty. Matici typu m k, jejíž (i, j)-tý prvek je roven koeficientu parciální korelace veličin Y i a Z j při pevném X, nazveme parciální korelační maticí vektorů Y a Z při pevném X a označíme ji cor(y, Z X). Platí, že cor(y, Z X) = cor(y Ŷ, Z Ẑ). 9

10 Protože na hodnotách α 1 a α 2, jak byly zavedeny v definici 1.10, parciální korelační matice cor(y Ŷ, Z Ẑ) nezávisí, platí rovněž cor(y, Z X) = cor(y β T 1 X, Z β T 2 X). Lemma 1.14: Platí cov(y, Z X) = cov(y, Z) cov(y, X)var(X) 1 cov(x, Z). Lemma 1.15: Platí var(y X) = var(y ) var(ŷ ) = cov(y, Y ) cov(y, X)var(X) 1 cov(x, Y ) = var(y Ŷ ) a číslo var(y Ŷ ) se nazývá reziduální rozptyl. Věta 1.16: Nechť X, Y, Z jsou náhodné vektory s normálním rozdělením. Pak platí X Y cov(x, Y ) = 0 X Y Z cov(x, Y Z) = 0. Věta 1.17: Nechť X = (X 1,..., X n ) T je náhodný vektor s konečnými druhými momenty, jehož všechny složky mají kladné rozptyly. Označme V = varx, P = corx, σ i = varx i pro i = 1,..., n a Pak P = D 1 V D 1. D = Diag{σ 1,..., σ n } = Věta 1.18: Lemma o inverzní varianci σ σ n Mějme náhodné vektory X a Y s konečnými ( ) druhými momenty. Inverzní X varianční matici náhodného vektoru lze za předpokladu regularity Y matic varx a var(y X) psát ve tvaru ( ) var(x) (var(x T, Y T ) T ) 1 = 1 + B T var(y X) 1 B B T var(y X) 1 var(y X) 1 B var(y X) 1, kde B = cov(x, Y )(varx)

11 Důsledek 1.19: Mějme k-rozměrný náhodný vektor X, K = {1, 2,..., k}. Pak každý diagonální prvek inverzní varianční matice V 1 = (w ij ) je převrácenou hodnotou parciálního rozptylu. Tedy w ii = 1 var(x i X K\{i} ) i K. A dále každý mimodiagonální prvek inverzní varianční matice škálované tak, aby na diagonále byly jedničky, je záporně vzatá parciální korelace odpovídajících složek vektoru X při pevně daných ostatních složkách. Tj. C = DV 1 D = (c ij ), kde { 1 1 D = Diag,..., }. w11 wnn c ij = w ij wii w jj = cor(x i, X j X K\{i,j} ) i K, j K, i j. Odhady parciálních korelací získáme škálováním výběrové varianční matice. Důsledek 1.20: Mějme k-rozměrný náhodný vektor X s normálním rozdělením, K = {1, 2,..., k}. Pak X i X j X K\{i,j} c ij = 0 i K, j K, i j, kde c ij je jako v důsledku Jestliže pro parciální korelační koeficient platí ρ = 0 a pro počet pozorování N > p + 2, kde p je rozměr podmiňujíciho vektoru, pak T = r 1 r 2 N p 2 tn p 2. (1.1) Vztah (1.1) nám umožňuje testovat nulovost parciálních korelačních koeficientů. 1.3 Odhady parametrů u mnohorozměrného rozdělení Mějme nějaké m-rozměrné rozdělení se střední hodnotou µ = (µ 1,..., µ m ) T maticí V typu m m. Nechť x 1 = x 1,1. x 1,m,..., x N = x N,1. x N,m a varianční 11

12 je náhodný výběr z tohoto rozdělení. Omezíme se na případ N > m. Zaveďme výběrový průměr x a výběrovou varianční maticí ˆV = (ˆv ij ) pomocí vzorců: N x = 1 N i=1 x i ˆV = 1 N 1 N i=1 (x i x)(x i x) T = 1 ( N x i x T i N x x ). T N 1 i=1 V případě nulové střední hodnoty můžeme uvedený vztah přepsat na kde X = ˆV = 1 N 1 XXT, (1.2) x 1,1... x N,1.. x 1,m... x N,m Jsou-li všechny diagonální prvky matice ˆV kladné, definujeme výběrovou korelační matici ˆR XX = ( ˆvij ˆviiˆv jj ) m i,j=1.. Dále zavedeme výběrovou kovarianční matici vektorů X a Y : ˆV XY = 1 N Lineární regrese N (x i x)(y i ȳ) T. i=1 Mějme náhodné veličiny Y 1,..., Y n a matici daných čísel X = (x i,j ) typu n k, kde k < n. Požaduje se, aby matice X měla lineárně nezávislé sloupce. Předpokládejme, že pro náhodný vektor Y = (Y 1,..., Y n ) T platí Y = Xβ + e (1.3) kde β = (β 1,..., β k ) T je vektor neznámých parametrů a e = (e 1,..., e n ) T je vektor náhodných chyb s normálním rozdělením s parametry (0, σ 2 I), kde 0 je nulový vektor, σ 2 > 0 je neznámý parametr a I je jednotková matice typu n n. Tento model budeme nazývat regresní. Protože Y závisí na β lineárně, mluvíme o lineárním regresním modelu. Parametry (β 1,..., β k ) T se odhadují metodou nejmenších čtverců, tj. minimalizací výrazu (Y Xβ) T (Y Xβ) jakožto funkce β. Tento odhad označme b = (b 1,..., b k ) T. Velmi často se stává, že první sloupec matice X je tvořen samými jedničkami. Položme r = k 1. Pak můžeme psát X = (1, X 1 ), kde X 1 je matice typu n r a 1 je sloupcový vektor jedniček. Vektory β a b se pak zapisují ve tvaru β = (β 0, β 1,..., β r ) T a b = (b 0, b 1,..., b r ) T. 12

13 Věta 1.21: Odhad vektoru parametrů β metodou nejmenších čtvrců je b = (X T X) 1 X T Y. Pro tento odhad platí E(b) = β, var(b) = σ 2 (X T X) 1. Vektor Ŷ = Xb = X(XT X) 1 X T Y může být považován za nejlepší aproximaci vektoru Y, jaká se dá vytvořit lineární kombinací sloupců matice X. Ještě uveďme, že se veličině S e = (Y Ŷ )T (Y Ŷ ) říká reziduální součet čtverců. Věta 1.22: Pro reziduální součet čtverců S e platí Věta 1.23: S e = Y T (I X(X T X) 1 X T )Y = Y T Y b T X T Y. Náhodná veličina s 2 = S e /(n k) je nestranným odhadem parametru σ 2. Věta 1.24: Rozdělení a vlastnosti odhadnutých parametrů Platí: (i) b N(β, σ 2 (X T X) 1 ) (ii) S e /σ 2 χ 2 n k (iii) vektor b a veličina s 2 jsou nezávislé. Označme S T = n (Y i Ȳ )2 = i=1 n i=1 Y 2 i nȳ 2. Kvalitu odhadu Ŷ náhodné veličiny Y posuzujeme například koeficientem determinace R 2 a korigovaným koeficientem determinace R 2, které jsou dány vzorci R 2 = 1 S e, S R2 = 1 n 1 T n r 1 S e S T. Čím jsou tyto koeficienty blíže jedné, tím těsnější je regresní závislost. 13

14 T-test pro jeden regresní parametr Věta 1.25: Označme si u ij prvky matice (X T X) 1. Potom T i = b i β i t n k, i = 1,..., k. s2 u ii Předchozí věta umožňuje testovat hypotézy tvaru H 0 : β i = βi 0 proti alternativám H 1 : β i βi 0, kde i {1, 2,..., k} a βi 0 je dané reálné číslo. Jako testovou statistiku použijeme T i = b i βi 0. s2 u ii V případě, že T i t n k (α), zamítáme hypotézu H 0 na hladině α. Nejčastěji volíme βi 0 = 0 a ověřujeme, zda Y vůbec závisí na X i. t n k (α) je kritická hodnota příslušného Studentova rozdělení. 14

15 Kapitola 2 Grafické modely Druhá kapitola je věnovaná připomenutí základních pojmů z teorie grafů, o kterých najdeme více např. v knize [7]. Tyto poznatky pak tvoří základ pro další teorii týkající se např. grafu podmíněných nezávislostí, markovských vlastností či grafických modelů. Věty jsou opět uváděny bez důkazu, s odvoláním se na [11], kapitoly 3 a 5. Poslední část se zabývá deviancí, jak je vyložena v článku [9]. 2.1 Základní pojmy z teorie grafů Definice 2.1: Graf Graf G je uspořádaná dvojice (K, E), kde K je nějaká neprázdná množina a E je podmnožina kartézského součinu K K. Prvky množiny K se jmenují vrcholy grafu G a prvky množiny E hrany grafu G. Říkáme, že vrcholy i, j jsou spojeny hranou právě tehdy, když (i, j) E. Množina K je obvykle podmnožina přirozených čísel, K = {1, 2,..., k}. Definice 2.2: Úplný graf Graf označujeme jako úplný, jsou-li všechny dvojice vrcholů spojené hranou, tj. i, j K; (i, j) E. Definice 2.3: Orientovaný graf Orientovaný graf G je dvojice (K, E), kde E je podmnožina kartézského součinu K K. Prvky E nazýváme šipky (nebo orientované hrany). Šipka e má tvar (i, j). Říkáme, že tato šipka vychází z i a končí v j. O vrcholu i pak mluvíme jako o rodiči vrcholu j. Je-li alespoň jedna hrana grafu orientovaná, mluvíme o orientovaném grafu. Definice 2.4: Podgraf, faktor, klika Řekneme, že graf G 1 = (K 1, E 1 ) je podgrafem grafu G = (K, E), jestliže K 1 K a E 1 E. Pokud platí K 1 = K říkáme, že graf G 1 je faktorem grafu G. Klika je maximální úplný podgraf. 15

16 Definice 2.5: Hranice vrcholu Hranice vrcholu i je podmnožina množiny vrcholů K obsahující všechny vrcholy, které jsou s vrcholem i spojeny hranou. Tuto hranici vrcholu budeme značit bd(i). Definice 2.6: Cesta, dostupnost, souvislost Cesta je posloupnost vrcholů i 1, i 2,..., i m takových, že (i l, i l+1 ) E l = 1, 2,..., m 1. Nejkratší cesta je cesta s nejmenším počtem hran. Vrcholy označujeme jako dostupné právě tehdy, když existuje cesta z i do j a z j do i. Graf označujeme jako souvislý právě tehdy, když všechny dvojice vrcholů jsou navzájem dostupné. Definice 2.7: Cyklus Orientovaný graf G = (K, E) s množinou vrcholů K = k 1,..., k n a množinou orientovaných hran E = (e 1,..., e n ) nazýváme cyklus, jestliže platí e i = (k i, k i+1 ) pro i = 1,..., n 1 a e n = (k n, k 1 ). Definice 2.8: Acyklický graf Orientovaný graf neobsahující cykly nazveme acyklický. Definice 2.9: Separace Říkáme, že A K separuje dva vrcholy i, j právě tehdy, když každá cesta z i do j (z j do i) obsahuje alespoň jeden vrchol ze separující množiny A. Množina A separuje dvě podmnožiny vrcholů B a C právě tehdy, když separuje každou dvojici vrcholů i B, j C. 2.2 Graf podmíněných nezávislostí Definice 2.10: Graf podmíněných nezávislostí Grafem podmíněných nezávislostí náhodného vektoru X = (X 1,..., X k ) T nazýváme takový graf G = (K, E), v němž K = {1, 2,..., k} a (i, j) / E X i X j X K\{i,j} i, j K. Graf podmíněných nezávislostí se označuje CIG (z ang. conditional independence graph). 16

17 Lemma 2.11: Předpokládejme, že množina vrcholů K = {1, 2,..., k} může být rozdělena do dvou podmnožin B, C takových, že neexistuje žádná cesta spojující libovolný vrchol z B s libovolným vrcholem z C. Potom Lemma 2.12: X i X j i B, j C. Předpokládejme, že množina vrcholů K = {1, 2,..., k} může být rozdělena do dvou podmnožin B, C takových, že neexistuje žádná cesta spojující libovolný vrchol z B s libovolným vrcholem z C. Potom X i X j X A i B, j C a A je libovolná podmnožina K neobsahující i ani j. Lemma 2.13: Je-li A podmnožina vrcholů K, která separuje dva vrcholy i a j, pak X i X j X A. Věta 2.14: Věta o separaci Nechť X A, X B a X C jsou vektory obsahující disjunktní podmnožiny složek náhodného vektoru X a nechť v grafu podmíněných nezávislostí vektoru X každý vrchol v B je separován od všech vrcholů z C podmnožinou A. Potom X B X C X A. Definice 2.15: Minimální podmíněná nezávislost, minimální separační množina Říkáme, že podmíněná nezávislost mezi dvěma proměnnými je minimální, pokud není možné eliminovat jakoukoliv proměnnou z podmiňujícího vektoru X A. Množinu A jakožto separační množinu nazýváme minimální. 17

18 2.3 Markovské vlastnosti V grafických modelech zavádíme 3 typy markovských vlastností: Definice 2.16: Lokální markovská vlastnost Říkáme, že náhodný vektor X s grafem podmíněných nezávislostí G = (K, E) má lokální markovskou vlastnost pokud platí X i X B X A, kde i K je libovolný vrchol, A = bd(i) je hranice vrcholu i a B = K \ ({i} A). Zjednodušeně můžeme psát Definice 2.17: Párová markovská vlastnost i zbytek hranice. Pro všechny vrcholy i, j, které nejsou spojeny hranou, platí X i X j X A, kde A = K \ {i, j}. Definice 2.18: Globální markovská vlastnost Nechť A, B, C jsou po dvou disjunktní podmnožiny K. Pokud A separuje B a C, pak platí X B X C X A. Věta 2.19: Ekvivalence markovských vlastností Uvedené tři markovské vlastnosti jsou ekvivalentní. 2.4 Grafické modely a modelování Definice 2.20: Obecný grafický model Uvažujme k-rozměrný náhodný vektor X = (X 1, X 2,..., X k ) T a graf podmíněných nezávislostí G = (K, E). Grafický model pro náhodný vektor X je rodina pravděpodobnostních rozdělení vektoru X, která splňuje podmíněné nezávislosti dané grafem G. 18

19 Definice 2.21: Grafický Gausovský model V případě, že vektor X z definice 2.20 má mnohorozměrné normální rozdělení, mluvíme o grafickém Gausovském modelu. V tomto případě platí, že podmínky podmíněné nezávislosti jsou ekvivalentní s určením nulových prvků v inverzní varianční matici. Jednoduchá procedura pro nalezení grafu podmíněných nezávislostí má nasledující kroky: 1. Odhadne se varianční matice V = var(x) pomocí výběrové varianční matice ˆV. 2. Spočte se inverzní matice ˆV Škálováním inverzní matice, jak je uvedeno v důsledku 1.19, získáme diagonální matici, ze které určíme výběrové parciální korelace cor(x i, X j zbytek). 4. Testujeme nulovost prvků výběrové parciální korelační matice. Nakreslí se výsledný graf podmíněných nezávislostí. Definice 2.22: Saturovaný model Saturovaný model je grafický model určený úplným grafem. 2.5 Orientované acyklické grafy nezávislosti Dostáváme se k situaci, kdy X ovlivňuje Y, ale Y neovlivňuje X. To můžeme vyjádřit orientovaným grafem na obrázku X Y Obrázek 2.23: Jednoduchý orientovaný graf Pokud se budeme těmito modely dále zabývat, můžeme se dostat i k situacím znázorněnými na obrázku Y X Z W Z X Y Obrázek 2.24: Cyklické grafy 19

20 Tyto cykly nebudeme v dalším textu uvažovat, neboť neumožňují dobře modelovat sdružené rozdělení příslušných proměnných pomocí podmíněných rozdělení. Potřeba vyloučit orientované cykly nás vede k následujícímu: Na prvky množiny K zavedeme relaci úplného uspořádání splňující (pro i K, j K): (i) buď i j nebo i j (ii) relace je ireflexivní, tj. non(i i), (iii) relace je tranzitivní, tj. jestliže (i j) (j k) (i k). Pokud uvedené aplikujeme na orientovaný graf, dostáváme, že každá strana grafu může mít jen jednu možnou orientaci. Lemma 2.25: V orientovaném grafu jsou následující podmínky ekvivalentní: (i) graf neobsahuje orientované cykly (ii) existuje úplné uspořádání vrcholů grafu. Definice 2.26: Orientovaný graf podmíněných nezávislostí Orientovaným grafem podmíněných nezávislostí náhodného vektoru X nazýváme orientovaný graf G = (K, E ), kde K = {1, 2,..., k}, K(j) = {1, 2,..., j} a hrana (i, j), i j, není obsažena v množině hran právě tehdy když X j X i X K(j)\{i,j}. Orientovaný graf podmíněných nezávislosti se označuje DAG (z ang. directed acyclic graph). Poznámka 2.27: DAG implikuje jediný CIG pro složky vektor X. Naopak k danému CIG může existovat více DAG, nebo nemusí existovat žádný. 2.6 Wermuthova podmínka a morální graf Definice 2.28: Asociovaný neorientovaný graf Je-li G = (K, E ) jako v definici 2.26, potom asociovaný neorientovaný graf definujeme jako G u = (K, E u ) se stejnou množinou vrcholů, v němž orientované hrany jsou nahrazeny neorientovanými. Definice 2.29: Wermuthova podmínka Říkáme, že orientovaný graf splňuje Wermuthovu podmínku jestliže neobsahuje podgraf znázorněný na obrázku

21 Obrázek 2.30: Podgraf porušující Wermuthovu podmínku Definice 2.31: Morální graf Morální graf k orientovanému grafu G = (K, E ) je takový neorientovaný graf G m = (K, E m ), který má stejnou množinu vrcholů K a obsahuje množinu hran E a navíc obsahuje všechny hrany, tzv. morální, nezbytné k tomu, aby byla v G splněna Wermuthova podmínka. Název morální vystihuje skutečnost, že tento graf sezdává rodiče vrcholu. Příklad 2.32: Uvažujme orientovaný graf G 1 = (K 1, E 1 ), kde K 1 = {1, 2, 3, 4} a E 1 = {(1, 4)(2, 4)(2, 3)} (obrázek 2.33a) (a) 2 3 (b) 2 3 (c) Obrázek 2.33: (a) graf G 1, (b) asociovaný graf G u 1 k (a), (c) morální graf G m 1 odvozený od (b) Sestrojme si jeho asociovaný graf G u 1 (obrázek 2.33b). V grafu G 1 nám vrcholy 1, 2, 4 porušují Wermuthovu podmínku. Při konstrukci morálního grafu tedy musíme přidat hranu (1, 2). Morální graf je na obrázku 2.33(c). Markovské vlastnosti Věta 2.34: Markovský teorém pro orientované grafy podmíněných nezávislostí Orientovaný graf G má markovské vlastnosti svého morálního grafu G m. 21

22 Důsledek 2.35: Pro G m = G u má orientovaný graf G právě jenom markovské vlastnosti svého morálního grafu G m. Pokud má totiž morální graf více hran než asociovaný, obsahuje graf G i některé nezávislosti, které nelze z markovských vlastností morálního grafu odvodit. Vraťme se k příkladu 2.32: Z markovských vlastností morálního grafu dostáváme X 1 X 3 X 2, X 4 X 3 X 4 X 1, X 2. V grafu G 1 nejsou vrcholy 1, 2 spojeny hranou a z definice 2.10 tedy pro G u 1 vyplývá, že a odtud dle definice 2.26 pak X 1 X 2 X 3, X 4 X 1 X 2 pro graf G 1 navíc k podmíněným nezávislostem odvozeným z morálního grafu. 2.7 Deviance Deviance představuje základní způsob, jak měřit shodu grafického modelu s daty, případně způsob, jak mezi sebou porovnat dva grafické modely, pokud je jeden faktorem druhého. Definice 2.36: Deviance Mějme náhodný vektor X = (X 1,..., X k ) T s rozdělením N(0, V ) a pozorované realizace x 1,..., x N. Devianci modelu DAG definujeme vztahem Dev = N r log s 2 r, kde N je rozsah výběru, r je počet regresních rovnic (pro popis závislostí každé ze složek mnohorozměrné časové řady v čase t na ostatních složkách v čase t a na zpožděných hodnotách. Tyto rovnice jsou dány modelem DAG, jak bude popsáno v kapitolách 4 a 5) a s 2 r je odhad reziduálního rozptylu jednotlivých rovnic. Saturovaný model má pak devianci Dev = N log det ˆV, kde ˆV je výběrová varianční matice vektoru X. Model s méně hranami má větší devianci. Pokud dojde po vynechání hrany k výraznímu nárůstu deviance, neměli bychom ji z modelu vynechávat. 22

23 Kapitola 3 Mnohorozměrné časové řady V kapitole o mnohorozměrných časových řadách jsou nejprve uvedeny základní definice jako střední hodnota, autokorelační a autokovarianční maticové funkce. Následuje podrobnější popis mnohorozměrných ARM A posloupností. Věty jsou opět uváděné bez důkazů. Ty je možné najít v [10], kapitoly 2 a 3, nebo [3], 11. a 12. kapitola, a také v [8]. 3.1 Základní charakteristiky mnohorozměrného náhodného procesu Definice 3.1: Náhodný proces Nechť X t = (X t,1,..., X t,m ) T je m-rozměrný náhodný vektor. Systém {X t, t T } se nazývá m-rozměrný náhodný proces. Je-li speciálně T podmnožina celých čísel, nazývá se {X t, t T } proces s diskrétním časem nebo také časová řada. Pokud je z kontextu zřejmé, o jakou množinu T se jedná, budeme psát pouze {X t }. Definice 3.2: Střední hodnota Nechť {X t, t T } je m-rozměrný náhodný proces takový, že pro každé t T existuje střední hodnota EX t. Potom vektorová funkce µ t = EX t definovaná na T nazývá střední hodnota procesu {X t }. Proces, jehož střední hodnota je identicky rovna nule, se nazývá centrovaný. Platí-li E X t,k 2 < pro všechna t T a k = 1, 2,..., m, říká se, že proces {X t, t T } má konečné druhé momenty. Je-li tato podmínka splněna, existuje i střední hodnota procesu. Definice 3.3: Autokovarianční maticová funkce procesu Jestliže {X t, t T } je m-rozměrný náhodný proces s konečnými druhými momenty, potom maticová funkce dvou proměnných definována na T T předpisem R(s, t) = E(X s µ s )(X t µ t ) T 23

24 se nazývá autokovarianční funkce procesu {X t }. Funkce R(t, t) se nazývá rozptylová maticová funkce náhodného procesu {X t } v čase t. V některých případech se stává, že funkce R(s, t) závisí na svých argumentech pouze prostřednictvím jejich rozdílu. V tomto případě zavádíme funkci jedné proměnné vztahem R(s t) = R(s, t). Definice 3.4: Slabá stacionarita Náhodný proces {X t, t T } s konečnými druhými momenty se nazývá slabě stacionární, má-li konstantí střední hodnotu µ t = µ pro všechna t T a je-li jeho autokovarianční funkce R(s, t) funkcí pouze rozdílu s t. Pak zkráceně píšeme R(k) = R(t, t + k) a R(0) nazýváme rozptyl procesu. Je-li splněna pouze podmínka na autokovarianční funkci, mluvíme o kovarianční stacionaritě. Autokovarianční funkci slabě stacionárních procesů lze definovat jako funkci jedné proměnné vztahem R(t) := R(t, 0), t T ; autokorelační funkce je potom definována předpisem r(t) = R(t)/R(0). Pro t Z zřejmě platí R( k) = R(k) T, proto často matici R(k) počítáme pouze pro t N 0. Definice 3.5: Autokorelační maticová funkce procesu Nechť {X t, t T } je slabě stacionární náhodná posloupnost s autokovarianční maticovou funkcí R(k) = [R ij (k)] i,j=1,2,...,m. Označme D diagonální matici { 1 = Diag R11 (0), 1 R22 (0),..., 1 }. Rmm (0) Pak pro každé k Z definujeme autokorelační maticovou funkci r(k) jako r(k) = R(k). Definice 3.6: Parciální autokorelační maticová funkce Nechť {X t } je slabě stacionární náhodná posloupnost, mějme t Z a k N a zaveďme vektory u k 1,t+k = X t+k α k 1,1 X t+k 1 α k 1,2 X t+k 2... α k 1,k 1 X t+1 v k 1,t = X t β k 1,1 X t+1 β k 1,2 X t+2... β k 1,k 1 X t+k 1, kde α k 1,s, β k 1,s pro s = 1, 2,..., k 1 jsou matice minimalizující E(u k 1,t+k ) 2, resp. E(v k 1,t ) 2. Dále označíme V u (k) = var(u k 1,t+k ) V v (k) = var(v k 1,t ) V vu (k) = cov(u k 1,t+k, v k 1,t ). 24

25 Označme D v (k) diagonální matici, která má na diagonále odmocniny příslušných diagonálních prvků matice V v (k), a D u (k) diagonální matici analogicky odvozenou z V u (k). Pak se funkce ξ(k) = (D v (k)) 1 V vu (k)(d u (k)) 1 definovaná pro k = 1, 2,... nazývá parciální autokorelační maticová funkce náhodné posloupnosti {X t }. Parciální autokorelační maticová funkce ξ(k) posloupnosti {X t, t Z} je mnohorozměrnou analogií parciálního autokorelačního koeficientu, a to v tom smyslu, že parciální autokorelační maticová funkce v bodě k je korelační maticí mezi X t a X t+k při pevných hodnotách X t+1,..., X t+k Mnohorozměrný ARMA model Definice 3.7: Bílý šum Bílý šum {Y t, t Z} je náhodná posloupnost, EY t = 0 pro všechna t Z, autokovarianční maticová funkce R(s, t) je nulová matice pro všechna s t, s, t Z a R(t, t) je konečná, symetrická, pozitivně definitní matice a je stejná pro všechna t Z. Úmluva 3.8: Pro bílý šum se někdy zavádí označení W N(0, Σ) (z anglického white noise), kde Σ značí varianční matici bílého šumu R(0). Definice 3.9: Operátor zpětného posunutí Nechť {X t, t Z} je systém m-rozměrných náhodných vektorů. Pak se operátor B, který pro všechna t Z vektoru X t přirazuje vektor X t 1, nazývá operátor zpětného posunutí. Pro n = 1, 2,... definujeme rekurentně operátor n-násobného zpětného posunutí: Nejprve položíme B 1 X t = BX t = X t 1, dále pak B n X t = B(B n 1 X t ) =... = X t n. Definice 3.10: Klouzavé součty Náhodná centrovaná m-rozměrná posloupnost {X t, t Z} definovaná předpisem X t = Y t + Θ 1 Y t 1 + Θ 2 Y t Θ q Y t q, t Z kde {Y t, t Z} je m-rozměrný bílý šum a Θ 1, Θ 2,..., Θ q jsou matice typu m m, přičemž Θ q je nenulová, se nazývá posloupnost klouzavých součtů řádu q, značíme MA(q). Označíme-li Θ(B) = q i=0 Θ ib i, kde B je operátor zpětného posunutí a Θ 0 = I je jednotková matice, lze ekvivalentně psát X t = Θ(B)Y t. 25

26 Definice 3.11: Autoregresní posloupnost Náhodná centrovaná m-rozměrná posloupnost {X t, t Z} se nazývá autoregresní posloupnost řádu p (značíme AR(p)), jestliže vyhovuje rovnici X t = Y t Φ 1 X t 1 Φ 2 X t 2... Φ p X t p, t Z, kde Φ 1, Φ 2,..., Φ p jsou matice typu m m, přičemž Φ p je nenulová a {Y t, t Z} je m-rozměrný bílý šum. Označíme-li Φ(B) = p i=0 Φ ib i, kde Φ 0 = I je jednotková matice, lze ekvivaletně psát Definice 3.12: Posloupnost ARMA Φ(B)X t = Y t. Náhodná centrovaná posloupnost {X t, t Z} se řídí modelem ARMA(p, q), jestliže Φ(B)X t = Θ(B)Y t, kde p, q, Θ 0, Θ 1,..., Θ q, Φ 0, Φ 1,..., Φ p, Θ(B) a Φ(B) jsou jako v předchozích definicích. Model ARM A(p, q) je tedy smíšený model autoregrese a klouzavých součtů. Odtud plyne i označení a je zřejmé, že posloupnosti AR(p) a MA(q) lze považovat za jeho speciální případy Stacionarita a invertibilita posloupností ARMA Definice 3.13: Sčitatelnost v absolutní hodnotě Posloupnost matic {Ψ s, s N 0 }, kde Ψ s = [ψ ij,s ] i,j=1,2,...,m se nazývá sčitatelná v absolutní hodnotě, jestliže s=0 ψ ij,s < pro všechna i a j. Definice 3.14: Stacionarita Nechť {X t } je posloupnost ARMA(p, q). Posloupnost {X t } se nazývá stacionární, jestliže existuje posloupnost matic {Ψ s, s N 0 } sčitatelná v absolutní hodnotě a taková, že X t = s=0 Ψ sy t s. Nejjednodušším příkladem stacionární posloupnosti je libovolná posloupnost M A(q). Věta 3.15: Stacionární posloupnost ARM A(p, q) je centrovaná slabě stacionární náhodná posloupnost. Věta 3.16: Podmínka stacionarity Posloupnost ARMA(p, q) daná rovnicí Φ(B)X t = Θ(B)Y t je stacionární, pokud kořeny polynomu det(φ(b)) leží vně jednotkového kruhu. 26

27 Definice 3.17: Invertibilita Nechť {X t } je posloupnost ARMA(p, q). Posloupnost {X t } se nazývá invertibilní, jestliže existuje posloupnost matic {Π s, s N 0 } sčitatelná v absolutní hodnotě a taková, že Y t = s=0 Π sx t s. Věta 3.18: Podmínka invertibility Posloupnost ARM A(p, q) s konečnou kovarianční maticovou funkcí daná rovnicí Φ(B)X t = Θ(B)Y t je invertibilní, pokud kořeny polynomu det(θ(b)) leží vně jednotkového kruhu. 3.3 Identifikace ARMA modelu Identifikace modelu je první fází výstavby modelu a jejím úkolem je rozhodnout, jaký typ modelu vybrat (tj. zda AR, MA nebo ARMA) a explicitně určit řád modelu. Výsledkem identifikační fáze je tedy např. stanovení modelu AR(2) jako vhodného modelu pro modelování předložené časové řady. Určení řádů p a q modelu je založeno na zkoumání výběrové autokorelační maticové funkce a výběrové parciální autokorelační maticové funkce. Obvykle stačí použít jen několik prvních hodnot těchto funkcí, například 10 až 20, přitom by se jich nemělo používat víc než N. V případě nejasné volby mezi několika modely je vhodné pokračovat se všemi 4 modely a pro ten správný se rozhodnout až ve fázi verifikace modelu. Dále budeme pojmem časová řada rozumět řadu pozorovaných hodnot, přičemž hodnotu v čase t budeme značit x t. Pro teoretický popis budeme i nadále používat pojem náhodná posloupnost a příslušné náhodné vektory značit X t. Složky těchto jednotlivých vektorů budeme značit x t,i, resp. X t,i pro i = 1, 2,..., m. Rozsah výběru x t budeme označovat N, tzn. předpokládáme, že známe vektory x t pro t = 1, 2,..., N Výběrová autokovarianční a autokorelační matice Úmluva 3.19: V dalším textu bude x i = 1 N N x t,i, t=1 i = 1, 2,..., m značit odhad i-té složky vektoru středních hodnot časové řady. 27

28 Definice 3.20: Výběrová autokovarianční matice Nechť časová řada {x t, t = 1, 2,..., N}, N N je realizací náhodné posloupnosti {X t, t N}. Pak se matice ˆR(k) s prvky ˆR ij (k) = 1 N N k t=1 (x t,i x i )(x t+k,j x j ) nazývá výběrová autokovarianční matice. Definice 3.21: Výběrová autokorelační matice Nechť časová řada {x t, t = 1, 2,..., N}, N N je realizací náhodné posloupnosti {X t, t N}. Pak se matice ˆr(k) s prvky ˆr ij (k) = N k t=1 (x t,i x i )(x t+k,j x j ) N t=1 (x t,i x i ) 2 N t=1 (x t,j x j ) 2 nazývá výběrová korelační matice. Autokovarianční maticová funkce je vhodným nástrojem pro určení řádu q, chceme-li popsat pozorovanou časovou řadou modelem M A(q). Věta 3.22: Autokovarianční maticová funkce R(k) posloupnosti M A(q) je nulová pro všechna k > q. Řád q se tedy volí takový, jaké je poslední k, pro které je ještě výběrová autokovarianční matice ˆR(k) statisticky významně nenulová. Věta 3.23: Asymptotické vlastnosti výběrové autokorelační matice Pokud pro prvky autokorelační maticové fuknce platí r ij (k) = 0 pro k > q pro nějaké q, pak pro k > q a pro velká N má ˆr ij (k) asymptoticky normální rozdělení s nulovou střední hodnotou a rozptylem Navíc pro k > q má statistika σ ij (k) 2 = 1 ( N k m i=1 m j=1 k s=1 ( ˆrij (k) ) 2 σ ij (k) ) r ii (s)r jj (s). asymptoticky χ 2 rozdělení o m 2 stupních volnosti. 28

29 Test nulovosti prvků autokorelační matice S využitím věty 3.23 můžeme testovat hypotézu o nulovosti jednotlivých autokorelačních koeficientů. Testujeme nulovou hypotézu, že r ij (k) = 0 pro k > q pro zvolené q, proti alternativě r ij (k) 0 pro nějaké k > q. Pak vzhledem k asymptoticky normálnímu rozdělení ˆr ij (k) zamítáme na hladině α nulovou hypotézu ve prospěch alternativy, pokud ˆr ij (k) ˆσ ij (k) > u 1 α 2 pro některé k, kde u β je β-kvantil standardního normálního rozdělení a ˆσ ij (k) = 1 N k (1 + 2 k 1/2. ˆr ii (s)ˆr jj (s)) Vzhledem k tomu, že r ij (k) = r ij ( k) pro k 0, stačí ˆr ij (k) uvažovat pro kladná k. Test nulovosti autokorelační matice S využitím věty 3.23 lze také testovat nulovost celé výběrové autokorelační matice. Její nulovost zamítáme, pokud m i=1 m j=1 s=1 ( ˆrij (k) ) 2 > χ 2 m2(1 α), ˆσ ij (k) kde χ 2 m 2 (β) je β-kvantil χ 2 rozdělení o m 2 stupních volnosti Výběrová parciální autokorelační matice Definice 3.24: Výběrová parciální autokorelační matice Nechť časová řada {x t, t = 1, 2,..., N}, N N je realizací náhodné posloupnosti {X t, t N}. Pak se matice ˆξ(k) vypočtená podle následujícího rekurentního algoritmu nazývá výběrová parciální autokorelační matice. V [10] na str je uvedený algoritmus výpočtu výběrové parciání autokorelační matice. Pro k = 1 je Dále pro k 2 a s = 1, 2,..., k 1 je V u (1) = V v (1) = ˆR(0), V vu (1) = ˆR(1), α 1,1 = ˆR(1) T ( ˆR(0)) 1, β 1,1 = ˆR(1)( ˆR(0)) 1. V u (k) = ˆR(0) k 1 α k 1,s ˆR(s), s=1 V v (k) = ˆR(0) k 1 β k 1,s ˆR(s) T, 29 s=1

30 V vu (k) = ˆR(k) k 1 s=1 α k,k = V vu (k) T (V v (k)) 1, ˆR(k s)α T k 1,s, α k,s = α k 1,s α k,k β k 1,k s, β k,k = V vu (k)(v u (k)) 1, β k,s = β k 1,s β k,k β k 1,k s. Nechť D v (k) a D u (k) jsou jako v definici 3.6. Pak ˆξ(k) = (D v (k)) 1 V vu (k)(d u (k)) 1. Parciální autokorelační funkce je vhodným nástrojem pro určení řádu p, chceme-li popsat pozorovanou časovou řadou modelem AR(p). Věta 3.25: Parciální autokorelační maticová funkce ξ(k) posloupnosti AR(p) je nulová pro k > p. Řád p se tedy volí takový, jaké je poslední k, pro které je ještě výběrová parciální autokovarianční matice ˆξ(k) statisticky významně nenulová. Věta 3.26: Asymptotické vlastnosti výběrové parciální autokorelační matice Nechť časová řada {x t, t = 1, 2,..., N}, N N je realizací posloupnosti AR(p). Pak pro k > p a pro velká N má ˆξ ij (k) asymptoticky normální rozdělení s nulovou střední hodnotou a rozptylem 1. Navíc pro k > p má N k statistika m m 2 (N k) (ˆξij (k)) i=1 j=1 asymptoticky χ 2 rozdělení o m 2 stupních volnosti. Test nulovosti prvků parciální autokorelační matice Test nulovosti jednotlivých prvků parciální autokorelační matice využívá jejich asymptoticky normálního rozdělení. Nulovost zamítáme na hladině α, pokud 1 ˆξ ij (k) > u 1 α. 2 n k Test nulovosti parciální autokorelační matice Test nulovosti celé parciální autokorelační matice je také založen na větě Nulovost zamítáme na hladině α, pokud (N k) m i=1 m j=1 ) 2 (ˆξij (k) > χ 2 m2(1 α). 30

31 3.3.3 Shrnutí volby řádu modelu Přestože výpočet výběrové autokorelační matice a výběrové parciální autokorelační matice je k odhadu řádu příslušné posloupnosti nezbytný, univerzální návod k volbě řádů p a q obvykle nedává. Zřejmým nedostatkem výše popsaných metod je fakt, že nedávají návod, jak volit řády smíšeného modelu ARMA(p, q). Navíc i v případě, že se podaří zvolit konkrétní model AR, MA nebo ARMA, jedná se do značné míry o subjektivní odhad. Volba řádů smíšeného modelu ARMA Jednou z možností vhodnou zejména pro mnohorozměrné časové řady s méně složkami je zkoumat korelační strukturu po složkách a přistupovat k ní jako v případě jednorozměrných časových řad. Proto tu zapíšeme shrnutí poznatků o tvaru autokorelační a parciální autokorelační funkce, jak je uvedena v [3] na straně 120. AR(p) M A(q) ARM A(p, q) r(k) neexistuje k 0, k 0 = q neexistuje k 0, r(k) ve tvaru U r(k) ve tvaru U po prvních q p krocích ξ(k) k 0 = p neexistuje k 0, neexistuje k 0, ξ(k) omezená křivkou U ξ(k) omezená křivkou U po prvních p q krocích Tabulka 3.27: Tvar autokorelační a parciální autokorelační funkce procesů AR(p), MA(q) a ARMA(p, q) V tabulce uvedený symbol U označuje křivku ve tvaru lineární kombinace klesajících geometrických posloupností a sinusoid s geometricky klesající amplitudou. Dále k 0 je takové, že pro k > k 0 je r(k) = 0, resp. ξ(k) = 0. Za p a q pro zkoumanou mnohorozměrnou řadu pak volíme maximální hodnoty z p a q nalezených pro jednotlivé složky. Další možností v případě, že se nepodařilo zvolit žádný AR ani MA model, je zvolit například model ARMA(1, 1), nebo ARMA(1, 2) či ARMA(2, 1). Pro tento model by se pak provedl odhad parametrů a verifikace modelu. Pokud by byly zvolené řády příliš vysoké, projeví se to při odhadech parametrů. Volba příliš nízkých řádů se odhalí ve fázi verifikace. Jiným možným postupem při identifikaci modelu jsou statistická rozhodovací kritéria. Statistická rozhodovací kritéria Nejpoužívanějším kritériem je Akaikeho informační kritérium, které má tvar ( ) AIC(p, q) = log det(ˆσ p,q ) + 2m2 (p + q), (3.1) N kde p a q jsou řády modelu a ˆΣ p,q příslušný odhad varianční matice bílého šumu. Za optimální model by pak měl být považovám ten, který AIC minimalizuje. 31

32 Z dalších kritérií připomeňme Baysovské informační kritérium, které má tvar ( ) BIC(p, q) = log det(ˆσ p,q ) + 2m 2 (p + q) log N N a se kterým se zachází stejně jako s AIC Odhad parametrů modelu V případě, že jsou již určeny řády modelu, je možno přistoupit k odhadu parametrů Θ 1, Θ 2,..., Θ q, Φ 1, Φ 2,..., Φ p a Σ modelu ARMA(p, q). V praxi se nejčastěji používá odhad momentovou metodou a metodou maximální věrohodnosti. Podrobněji se těmito metodami nebudeme zabývat, více o tom např. v [10], kapitola 7 nebo [6] strany Verifikace modelu Verifikace modelu spočívá v analýze reziduí ŷ t = x t + ˆΦ 1 x t ˆΦ p x t p ˆΘ 1 ŷ t 1... ˆΘ q ŷ t p. Pokud je model zvolen správně, rezidua ŷ t budou realizacemi mnohorozměrného bílého šumu, tudíž by měla mít nulovou střední hodnotu a nebýt navzájem korelovaná. Jednotlivé složky vektoru ŷ t však korelované být mohou. K dispozici máme pozorování x t pro t = 1, 2,..., N, proto je možné vypočítat rezidua ŷ t pouze pro t = r + 1, r + 2,..., N, kde r = max(p, q). Test nulovosti střední hodnoty reziduí Test nulovosti reziduí je založen na skutečnosti, že za nulové hypotézy jsou rezidua ŷ t realizacemi bílého šumu W N(0, Σ). Předpokládáme také nekorelovanost pro různá t. Máme odhad ˆΣ rozptylové matice Σ (jejich prvky označme ˆσ ij, resp. σ ij ). Za předpokladu normality a za nulové hypotézy mají výběrové průměry ȳ i = 1 N r N i=r+1 ŷ t,i i = 1, 2,..., m asymptoticky normální rozdělení s nulovou střední hodnotou a rozptylem σ ii. Nulovost N r střední hodnoty reziduí zamítáme na hladině α, když pro nějaké i je ȳ i > u 1 α 2 ˆσii N r, resp. ȳ i > 2 ˆσii N r pro α = 0, 05. Test normality reziduí Testování normality reziduí je do značné míry subjektivním procesem. Je možné například posuzovat histogramy jednotlivých složek reziduí, porovnávat výběrovou šikmost 32

33 a špičatost s příslušnými ukazateli normálního rozdělení. Test nekorelovanosti reziduí Testování nekorelovanosti reziduí se provádí pomocí výběrové autokorelační matice řady {ŷ t }. Za nulové hypotézy jsou rezidua realizací bílého šumu, jehož autokorelační maticová funkce r(k) je nulová pro k 0. Z věty 3.23 pak plyne, že ˆr ij (k) mají asymptoticky normální rozdělení s nulovou střední hodnotou a rozptylem 1. N k Nulovost r ij (k) zamítáme na hladině α, pokud ˆr ij (k) > u 1 α 2 1 N k, resp. ˆr ij (k) > 2 N k pro α = 0,

34 Kapitola 4 Grafické modely a vektorová autoregrese Tato kapitola popisuje identifikaci a odhad strukturální vektorové autoregrese s použitím metodologie grafických modelů. Citujeme zde pouze z článku [9]. 4.1 Vektorová autoregrese Definice 4.1: Vektorová autoregrese Kanonický vektorový autoregresní model p-tého řádu, AR(p), stacionární m- rozměrné časové řady X t = (X t,1, X t,2,..., X t,m ) T má tvar: X t = c Φ 1 X t 1 Φ 2 X t 2... Φ p X t p + e t, (4.1) kde e t je mnohorozměrný bílý šum s varianční maticí V. Kostanta c je pro centrovaný proces nulová. V dalším budeme předpokládat, že jde o centrovanou Gaussovskou časovou řadu a že e t jsou nezávislé, stejně rozdělené náhodné vektory. Řád autoregrese p může být určen různými metodami, včetně zkoumání výběrové parciální autokorelační matice, nebo minimalizací některého rozhodovacího kritéria, např. AIC, jak bylo zmíněno v kapitole 3. Kanonický model však neodhalí vztahy mezi složkami vektoru X t. Proto se uvažuje strukturální model AR(p) ve tvaru, jak je uveden v (4.1), ale s přidáním závislostí mezi promněnnými v čase t pomocí matice Φ 0 : Φ 0 X t = d Φ 1X t 1 Φ 2X t 2... Φ px t p + a t. (4.2) Vztah mezi tvarem (4.1) a (4.2) je dán rovnicemi Φ i = Φ 0 Φ i a Φ 0 e t = a t. V centrované řadě je d = 0. Ve vztahu (4.2) je požadováno, aby varianční matice D vektoru a t byla diagonální. Další podmínka na Φ 0 je, že reprezentuje závislost každé složky 34

35 vektoru X t na ostatních současných složkách. To je ekvivalentní s existencí permutace složek vektoru X t tak, aby matice Φ 0 byla trojúhelníková s jedničkami na diagonále. Každé možné přeuspořádání složek X t proto může dávat odlišný tvar (4.2), ale všechny jsou statisticky ekvivalentní, odpovídají vztahu: V 1 = Φ T 0 D 1 Φ 0. Význam (4.2) spočívá v možnosti, že existuje vztah, který obsahuje méně parametrů než buď (4.1) nebo jiný tvar (4.2). To je zohledněno v možnosti vyloučit mnohé prvky Φ 0 a Φ i. V dalším textu se budeme zabývat identifikací strukturálního modelu s využitím teorie grafických modelů 4.2 Identifikace strukturálních autoregresí Předpokládejme, že k dané časové řadě máme určený řád p kanonického autoregresního modelu AR(p). Identifikace strukturální vektorové autoregrese začíná sestrojením CIG. Využijeme při tom matici dat X typu (N p) (p + 1)m tvořenou sloupci (X p+1 k,i,..., X N k,i ) T pro každé i = 1,..., m a k = 0,..., p. Předpokládáme, že časová řada je centrovaná, proto pro výpočet výběrové varianční matice můžeme použít vztah (1.2), kde N nahradíme N p. Podle postupu uvedeného v kapitole 2.4 zkonstruujeme CIG s tím rozdílem, že nás zajímají pouze hrany mezi proměnnými v čase t a hrany směřující ze zpožděných proměnných do přítomnosti. Pro stacionární AR(p) model CIG sestávající pouze z výše specifikovaných hran se nezmění, pokud maximální zpoždění použité při konstrukci grafu je větší než řád p. Ovšem může zde dojít ke snížení efektivnosti v statistickém usuzování. K nalezenému CIG určíme DAG. Orientaci hran volíme z minulosti do přítomnosti. Problémem je volba orientace hran mezi současnými proměnnými v DAG. Vycházet by se mělo z logických souvislostí, přičemž se snažíme zabránit nutnosti moralizace. DAG určí regresní rovnice, u nichž odhadneme parametry. Testování nulovosti regresních koeficientů naznačí možné zjednodušení modelu. Kvalitu modelu pak posuzujeme pomocí deviance Dev = N log ˆσ 2 r, kde N = N p a ˆσ 2 r jsou odhady reziduálních rozptylů v jednotlivých regresních rovnicích. Jako příklad uvažujme strukturální AR(1) model pro řadu X t = (x t, y t, z t ) T. Φ 0 (x t, y t, z t ) T = Φ 1(x t 1, y t 1, z t 1 ) T, kde matice Φ 0 = [φ ij0 ] i,j=1,2,3 a Φ 1 = [φ ij1] i,j=1,2,3 jsou uvedené ve vztahu (4.3) x t φ φ 131 x t 1 φ y t = 0 φ y t 1 (4.3) 0 φ z t 0 0 φ 331 z t 1 35

36 Rozepsáním po složkách pak získáváme rovnice: x t = φ 111x t 1 + φ 131z t 1 y t = φ 210 x t + φ 221y t 1 z t = φ 320 y t + φ 331z t 1 Příslušný DAG je na obrázku 4.2(a). Orientace hran v něm byla zavedena následujícím způsobem. Situace dovoluje 3 možné orientace hran v DAG, x t y t z t, x t y t z t a x t y t z t, se 4 možností x t y t z t vyloučenou kvůli nutnosti přidat morální hranu mezi x t a z t v CIG. Hrana x t 1 x t určitě není morální hrana. To implikuje orientaci x t y t, jinak by musela být přidána morální hrana mezi x t 1 a y t. Pak x t y t z t je jediná možná orientace hran mezi současnými proměnnými. CIG, který jsme obdrželi moralizací DAG, je na obrázku 4.2(b). Poznamenejme ještě, že hranu mezi x t 1 a z t 1, která by měla být při moralizaci přidána, nebudeme uvažovat. Finální DAG je na obrázku 4.2(c). x t x t 1 y t y t 1 z t z t 1 (a) x t x t 1 y t y t 1 z t z t 1 (b) x t x t 1 y t y t 1 z t z t 1 (c) Obrázek 4.2: (a) DAG reprezentující model (4.3), (b) morální graf odvozený od (a), (c) DAG reprezentující model (b) Orientované hrany x t 1 x t, y t 1 y t a z t 1 z t nemohou být interpretovány jako morální hrany. Každá ze zbývajících hran y t 1 x t, z t 1 x t a z t 1 y t může být takto interpretována. Odhady parametrů ve vybraném modelu jsou konstruovány na základě jednotlivých regresních rovnic vytvořených podle DAG z obrázku 4.2(c). V našem případě jsou to rovnice: x t = β (1) 1X x t 1 + β (1) 1Y y t 1 + β (1) 1Z z t 1 y t = β (2) 0X x t + β (2) 1Y y t 1 + β (2) 1Z z t 1 z t = β (3) 0Y y t + β (3) 1Z z t 1 Konkrétně ukážeme popsaný přístup včetně odhadů a testování nulovosti v regresních rovnicích na zpracování finančních dat v následující kapitole. 36

37 Kapitola 5 Zpracování finančních dat V této kapitole aplikujeme dosud popsanou teorii na konkrétní mnohorozměrnou časovou řadu. Nejprve se budeme zabývat identifikováním mnohorozměrného kanonického ARM A modelu. Pro další účely nám postačí jenom určení řádu modelu, explicitní odhad parametrů nebudeme potřebovat (jen pro výpočty ve fázi verifikace). K samotné identifikaci kanonického modelu využijeme část programu uvedeného v [6], který jsme doplnili o identifikaci strukturálních modelů. A v dalším budeme pokračovat s grafickými modely. Všechny potřebné výpočty budou prováděné v systému Mathematica 5.0, část programu na identifikaci ARM A modelu vyžaduje speciální knihovnu Time Series Pack. Pro práci v této knihovně je užitečná příručka [5]. Pracovat budeme s dvourozměrnou časovou řadou tvořenou měsíčními průměrnými kurzy CZK/EUR a CZK/USD od ledna 1999 (zavedení eura) do srpna Data pocházejí z internetových stránek ČNB [12]. Celkem máme k dispozici 104 pozorování vektoru (CZK/EUR, CZK/USD) T. Složky vektoru jsou znázorněné na obrázku 5.1. Obrázek 5.1: Měsíční průměrné kurzy CZK/EUR a CZK/USD Značení 5.2: Měsíční průměrné kurzy CZK/EUR (později pak transformované) budeme značit y t, t = 1,..., 104 (po transformaci t = 1,..., 103). Měsíční průměrné kurzy CZK/USD (později pak transformované) budeme značit z t, t = 1,..., 104 (po transformaci t = 1,..., 103) Dvourozměrný vektor (y t, z t ) T budeme značit X t pro t = 1,...,

Úvod do analýzy časových řad

Úvod do analýzy časových řad Přednáška STATISTIKA II - EKONOMETRIE Katedra ekonometrie FEM UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Posloupnost náhodných veličin {Y t, t = 0, ±1, ±2... } se nazývá stochastický

Více

Časové řady, typy trendových funkcí a odhady trendů

Časové řady, typy trendových funkcí a odhady trendů Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel 973 442029 email:jirineubauer@unobcz Stochastický proces Posloupnost náhodných veličin {Y t, t = 0, ±1, ±2 } se nazývá stochastický proces

Více

Testování hypotéz o parametrech regresního modelu

Testování hypotéz o parametrech regresního modelu Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Lineární regresní model kde Y = Xβ + e, y 1 e 1 β y 2 Y =., e = e 2 x 11 x 1 1k., X =....... β 2,

Více

Časové řady, typy trendových funkcí a odhady trendů

Časové řady, typy trendových funkcí a odhady trendů Časové řady, typy trendových funkcí a odhady trendů Jiří Neubauer Katedra ekonometrie FVL UO Brno kancelář 69a, tel 973 442029 email:jirineubauer@unobcz Jiří Neubauer (Katedra ekonometrie UO Brno) Časové

Více

Testování hypotéz o parametrech regresního modelu

Testování hypotéz o parametrech regresního modelu Testování hypotéz o parametrech regresního modelu Ekonometrie Jiří Neubauer Katedra kvantitativních metod FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Jiří Neubauer (Katedra UO

Více

5 Časové řady. Definice 16 Posloupnost náhodných veličin {X t, t T } nazveme slabě stacionární, pokud

5 Časové řady. Definice 16 Posloupnost náhodných veličin {X t, t T } nazveme slabě stacionární, pokud 5 Časové řady Časovou řadou rozumíme posloupnost reálných náhodných veličin X 1,..., X n, přičemž indexy t = 1,..., n interpretujeme jako časové okamžiky. Někdy však uvažujeme i nekonečné posloupnosti

Více

Modely stacionárních časových řad

Modely stacionárních časových řad Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Proces bílého šumu Proces {ɛ t} nazveme bílým šumem s nulovou střední hodnotou a rozptylem σ 2 a

Více

MATEMATICKÁ STATISTIKA - XP01MST

MATEMATICKÁ STATISTIKA - XP01MST MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného

Více

Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE. Martin Hrba

Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE. Martin Hrba Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE Martin Hrba Aplikace modelů mnohorozměrných časových řad ve finanční analýze Katedra pravděpodobnosti a matematické statistiky Vedoucí

Více

Statistika II. Jiří Neubauer

Statistika II. Jiří Neubauer Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Zaměříme se především na popis dvourozměrných náhodných veličin (vektorů). Definice Nechť X a Y jsou

Více

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

MATEMATICKÁ STATISTIKA.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

Regresní a korelační analýza

Regresní a korelační analýza Regresní a korelační analýza Mějme dvojici proměnných, které spolu nějak souvisí. x je nezávisle (vysvětlující) proměnná y je závisle (vysvětlovaná) proměnná Chceme zjistit funkční závislost y = f(x).

Více

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme

Více

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu. 6. NÁHODNÝ VEKTOR Průvodce studiem V počtu pravděpodobnosti i v matematické statistice se setkáváme nejen s náhodnými veličinami, jejichž hodnotami jsou reálná čísla, ale i s takovými, jejichž hodnotami

Více

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou

Více

Pravděpodobnost a aplikovaná statistika

Pravděpodobnost a aplikovaná statistika Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

Regresní analýza 1. Regresní analýza

Regresní analýza 1. Regresní analýza Regresní analýza 1 1 Regresní funkce Regresní analýza Důležitou statistickou úlohou je hledání a zkoumání závislostí proměnných, jejichž hodnoty získáme při realizaci experimentů Vzhledem k jejich náhodnému

Více

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace Vektory a matice Aplikovaná matematika I Dana Říhová Mendelu Brno Obsah 1 Vektory Základní pojmy a operace Lineární závislost a nezávislost vektorů 2 Matice Základní pojmy, druhy matic Operace s maticemi

Více

0.1 Úvod do lineární algebry

0.1 Úvod do lineární algebry Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Lineární rovnice o 2 neznámých Definice 011 Lineární rovnice o dvou neznámých x, y je rovnice, která může být vyjádřena ve tvaru ax + by = c, kde

Více

NÁHODNÝ VEKTOR. 4. cvičení

NÁHODNÝ VEKTOR. 4. cvičení NÁHODNÝ VEKTOR 4. cvičení Náhodný vektor Náhodným vektorem rozumíme sloupcový vektor X=(X, X,, X n ) složený z náhodných veličin X, X,, X n, který je charakterizován sdruženým rozdělením pravděpodobnosti.

Více

Faktorová analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel

Faktorová analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel Ekonometrie Jiří Neubauer Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz J. Neubauer, J. Michálek (Katedra ekonometrie UO) 1 / 27 úvod Na sledovaných objektech

Více

Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé.

Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé. 1. Korelační analýza V životě většinou nesledujeme pouze jeden statistický znak. Sledujeme více statistických znaků zároveň. Kromě vlastností statistických znaků nás zajímá také jejich těsnost (velikost,

Více

Regresní a korelační analýza

Regresní a korelační analýza Regresní a korelační analýza Mějme dvojici proměnných, které spolu nějak souvisí. x je nezávisle (vysvětlující) proměnná y je závisle (vysvětlovaná) proměnná Chceme zjistit funkční závislost y = f(x).

Více

Regresní analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel

Regresní analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel Regresní analýza Ekonometrie Jiří Neubauer Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Jiří Neubauer (Katedra ekonometrie UO Brno) Regresní analýza 1 / 23

Více

5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza

5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza 5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza 5.1 Vícerozměrná data a vícerozměrná rozdělení Při zpracování vícerozměrných dat se hledají souvislosti mezi dvěma, případně

Více

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně 7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

0.1 Úvod do lineární algebry

0.1 Úvod do lineární algebry Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Vektory Definice 011 Vektorem aritmetického prostorur n budeme rozumět uspořádanou n-tici reálných čísel x 1, x 2,, x n Definice 012 Definice sčítání

Více

10. N á h o d n ý v e k t o r

10. N á h o d n ý v e k t o r 10. N á h o d n ý v e k t o r 10.1. Definice: Náhodný vektor. Uspořádanou n tici (X 1, X 2,..., X n ) náhodných veličin X i, 1 i n, nazýváme náhodným vektorem. Poznámka: Pro jednoduchost budeme zavádět

Více

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je

Více

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}. VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:

Více

Vícerozměrná rozdělení

Vícerozměrná rozdělení Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.

Více

7. Analýza rozptylu.

7. Analýza rozptylu. 7. Analýza rozptylu. Uvedeme obecnou ideu, která je založena na minimalizaci chyby metodou nejmenších čtverců. Nejdříve uvedeme několik základních tvrzení. Uvažujeme náhodný vektor Y = (Y, Y,..., Y n a

Více

Maximálně věrohodné odhady v časových řadách

Maximálně věrohodné odhady v časových řadách Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁŘSKÁ PRÁCE Hana Tritová Maximálně věrohodné odhady v časových řadách Katedra pravděpodobnosti a matematické statistiky Vedoucí bakalářské

Více

Úlohy nejmenších čtverců

Úlohy nejmenších čtverců Úlohy nejmenších čtverců Petr Tichý 7. listopadu 2012 1 Problémy nejmenších čtverců Ax b Řešení Ax = b nemusí existovat, a pokud existuje, nemusí být jednoznačné. Často má smysl hledat x tak, že Ax b.

Více

Výběrové charakteristiky a jejich rozdělení

Výběrové charakteristiky a jejich rozdělení Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový

Více

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7 Pravděpodobnost a statistika (BI-PST) Cvičení č. 7 R. Blažek, M. Jiřina, J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení

Více

AVDAT Klasický lineární model, metoda nejmenších

AVDAT Klasický lineární model, metoda nejmenších AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

1 Vektorové prostory.

1 Vektorové prostory. 1 Vektorové prostory DefiniceMnožinu V, jejíž prvky budeme označovat a, b, c, z, budeme nazývat vektorovým prostorem právě tehdy, když budou splněny následující podmínky: 1 Je dáno zobrazení V V V, které

Více

Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D.

Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D. Ing. Michal Dorda, Ph.D. 1 Př. 1: Cestující na vybraném spoji linky MHD byli dotazováni za účelem zjištění spokojenosti s kvalitou MHD. Legenda 1 Velmi spokojen Spokojen 3 Nespokojen 4 Velmi nespokojen

Více

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru 2. Systémy lineárních rovnic V této kapitole se budeme zabývat soustavami lineárních rovnic s koeficienty z pole reálných případně komplexních čísel. Uvádíme podmínku pro existenci řešení systému lineárních

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

Univerzita Karlova v Praze procesy II. Zuzana. Predikce

Univerzita Karlova v Praze   procesy II. Zuzana. Predikce ne ve Náhodné 1 1 Katedra pravděpodobnosti a matematické statistiky Univerzita Karlova v Praze email: praskova@karlin.mff.cuni.cz 23.4.-7.5. 2010 ne ve 1 ne Outline 2 ve ne ve Definice: Nechť H je Hilbertův

Více

Problematika analýzy rozptylu. Ing. Michael Rost, Ph.D.

Problematika analýzy rozptylu. Ing. Michael Rost, Ph.D. Problematika analýzy rozptylu Ing. Michael Rost, Ph.D. Úvod do problému Již umíte testovat shodu dvou středních hodnot prostřednictvím t-testů. Otázka: Jaké předpoklady musí být splněny, abyste mohli použít

Více

Náhodný vektor a jeho charakteristiky

Náhodný vektor a jeho charakteristiky Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich

Více

Kontingenční tabulky, korelační koeficienty

Kontingenční tabulky, korelační koeficienty Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel 973 442029 email:jirineubauer@unobcz Budeme předpokládat, že X a Y jsou kvalitativní náhodné veličiny, obor hodnot X obsahuje r hodnot (kategorií,

Více

Náhodné chyby přímých měření

Náhodné chyby přímých měření Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.

Více

Testování statistických hypotéz

Testování statistických hypotéz Testování statistických hypotéz 1 Testování statistických hypotéz 1 Statistická hypotéza a její test V praxi jsme nuceni rozhodnout, zda nějaké tvrzeni o parametrech náhodných veličin nebo o veličině samotné

Více

I. D i s k r é t n í r o z d ě l e n í

I. D i s k r é t n í r o z d ě l e n í 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Operace s maticemi. 19. února 2018

Operace s maticemi. 19. února 2018 Operace s maticemi Přednáška druhá 19. února 2018 Obsah 1 Operace s maticemi 2 Hodnost matice (opakování) 3 Regulární matice 4 Inverzní matice 5 Determinant matice Matice Definice (Matice). Reálná matice

Více

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u

Více

p(x) = P (X = x), x R,

p(x) = P (X = x), x R, 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Jan Slovák Masarykova univerzita Fakulta informatiky 28. 11 2. 12. 2016 Obsah přednášky 1 Literatura 2 Střední

Více

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru: 3 Maticový počet 3.1 Zavedení pojmu matice Maticí typu (m, n, kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru: a 11 a 12... a 1k... a 1n a 21 a 22...

Více

12. cvičení z PST. 20. prosince 2017

12. cvičení z PST. 20. prosince 2017 1 cvičení z PST 0 prosince 017 11 test rozptylu normálního rozdělení Do laboratoře bylo odesláno n = 5 stejných vzorků krve ke stanovení obsahu alkoholu X v promilích alkoholu Výsledkem byla realizace

Více

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y) 5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Testování hypotéz Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr

Více

(Cramerovo pravidlo, determinanty, inverzní matice)

(Cramerovo pravidlo, determinanty, inverzní matice) KMA/MAT1 Přednáška a cvičení, Lineární algebra 2 Řešení soustav lineárních rovnic se čtvercovou maticí soustavy (Cramerovo pravidlo, determinanty, inverzní matice) 16 a 21 října 2014 V dnešní přednášce

Více

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní ..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X

Více

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin Příklady k procvičení z Matematické statistiky Poslední úprava. listopadu 207. Konvergence posloupnosti náhodných veličin. Necht X, X 2... jsou nezávislé veličiny s rovnoměrným rozdělením na [0, ]. Definujme

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).

Více

Testování hypotéz testy o tvaru rozdělení. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Testování hypotéz testy o tvaru rozdělení. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistickou hypotézou se rozumí určité tvrzení o parametrech rozdělení zkoumané náhodné veličiny (µ, σ 2, π,

Více

15. T e s t o v á n í h y p o t é z

15. T e s t o v á n í h y p o t é z 15. T e s t o v á n í h y p o t é z Na základě hodnot náhodného výběru činíme rozhodnutí o platnosti hypotézy o hodnotách parametrů rozdělení nebo o jeho vlastnostech. Rozeznáváme dva základní typy testů:

Více

1 Linearní prostory nad komplexními čísly

1 Linearní prostory nad komplexními čísly 1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)

Více

Interpolace Uvažujme třídu funkcí jedné proměnné ψ(x; a 0,..., a n ), kde a 0,..., a n jsou parametry, které popisují jednotlivé funkce této třídy. Mějme dány body x 0, x 1,..., x n, x i x k, i, k = 0,

Více

Bakalářské studium na MFF UK v Praze Obecná matematika Zaměření: Stochastika. 1 Úvodní poznámky. Verze: 13. června 2013

Bakalářské studium na MFF UK v Praze Obecná matematika Zaměření: Stochastika. 1 Úvodní poznámky. Verze: 13. června 2013 Bakalářské studium na MFF UK v Praze Obecná matematika Zaměření: Stochastika Podrobnější rozpis okruhů otázek pro třetí část SZZ Verze: 13. června 2013 1 Úvodní poznámky 6 Smyslem SZZ by nemělo být toliko

Více

8 Matice a determinanty

8 Matice a determinanty M Rokyta, MFF UK: Aplikovaná matematika II kap 8: Matice a determinanty 1 8 Matice a determinanty 81 Matice - definice a základní vlastnosti Definice Reálnou resp komplexní maticí A typu m n nazveme obdélníkovou

Více

1. Přednáška. Ing. Miroslav Šulai, MBA

1. Přednáška. Ing. Miroslav Šulai, MBA N_OFI_2 1. Přednáška Počet pravděpodobnosti Statistický aparát používaný ve financích Ing. Miroslav Šulai, MBA 1 Počet pravděpodobnosti -náhodné veličiny 2 Počet pravděpodobnosti -náhodné veličiny 3 Jevy

Více

1 Determinanty a inverzní matice

1 Determinanty a inverzní matice Determinanty a inverzní matice Definice Necht A = (a ij ) je matice typu (n, n), n 2 Subdeterminantem A ij matice A příslušným pozici (i, j) nazýváme determinant matice, která vznikne z A vypuštěním i-tého

Více

Normální rozložení a odvozená rozložení

Normální rozložení a odvozená rozložení I Normální rozložení a odvozená rozložení I.I Normální rozložení Data, se kterými pracujeme, pocházejí z různých rozložení. Mohou být vychýlena (doleva popř. doprava, nebo v nich není na první pohled vidět

Více

Kolik existuje různých stromů na pevně dané n-prvkové množině vrcholů?

Kolik existuje různých stromů na pevně dané n-prvkové množině vrcholů? Kapitola 9 Matice a počet koster Graf (orientovaný i neorientovaný) lze popsat maticí, a to hned několika různými způsoby. Tématem této kapitoly jsou incidenční matice orientovaných grafů a souvislosti

Více

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Testy hypotéz na základě více než 2 výběrů 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Testy hypotéz na základě více než 2 výběrů Na analýzu rozptylu lze pohlížet v podstatě

Více

Normální (Gaussovo) rozdělení

Normální (Gaussovo) rozdělení Normální (Gaussovo) rozdělení Normální (Gaussovo) rozdělení popisuje vlastnosti náhodné spojité veličiny, která vzniká složením různých náhodných vlivů, které jsou navzájem nezávislé, kterých je velký

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota závisí nějakým způsobem na vstupní, je její funkcí = f(x). Pokud

Více

1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností,

1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností, KMA/SZZS1 Matematika 1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností, operace s limitami. 2. Limita funkce

Více

AKM CVIČENÍ. Opakování maticové algebry. Mějme matice A, B regulární, potom : ( AB) = B A

AKM CVIČENÍ. Opakování maticové algebry. Mějme matice A, B regulární, potom : ( AB) = B A AKM - 1-2 CVIČENÍ Opakování maticové algebry Mějme matice A, B regulární, potom : ( AB) = B A 1 1 ( A ) = ( A ) ( A ) = A ( A + B) = A + B 1 1 1 ( AB) = B A, kde A je řádu mxn a B nxk Čtvercová matice

Více

15 Maticový a vektorový počet II

15 Maticový a vektorový počet II M. Rokyta, MFF UK: Aplikovaná matematika III kap. 15: Maticový a vektorový počet II 1 15 Maticový a vektorový počet II 15.1 Úvod Opakování z 1. ročníku (z kapitoly 8) Označení. Množinu všech reálných resp.

Více

Aplikovaná numerická matematika - ANM

Aplikovaná numerická matematika - ANM Aplikovaná numerická matematika - ANM 3 Řešení soustav lineárních rovnic iterační metody doc Ing Róbert Lórencz, CSc České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových

Více

10 Funkce více proměnných

10 Funkce více proměnných M. Rokyta, MFF UK: Aplikovaná matematika II kap. 10: Funkce více proměnných 16 10 Funkce více proměnných 10.1 Základní pojmy Definice. Eukleidovskou vzdáleností bodů x = (x 1,...,x n ), y = (y 1,...,y

Více

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOS A SAISIKA Regresní analýza - motivace Základní úlohou regresní analýzy je nalezení vhodného modelu studované závislosti. Je nutné věnovat velkou pozornost tomu aby byla modelována REÁLNÁ

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristik často potřebujeme všetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

1 Řešení soustav lineárních rovnic

1 Řešení soustav lineárních rovnic 1 Řešení soustav lineárních rovnic 1.1 Lineární rovnice Lineární rovnicí o n neznámých x 1,x 2,..., x n s reálnými koeficienty rozumíme rovnici ve tvaru a 1 x 1 + a 2 x 2 +... + a n x n = b, (1) kde koeficienty

Více

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení 2 Zpracování naměřených dat Důležitou součástí každé experimentální práce je statistické zpracování naměřených dat. V této krátké kapitole se budeme věnovat určení intervalů spolehlivosti získaných výsledků

Více

Univerzita Karlova v Praze procesy II. Zuzana. funkce

Univerzita Karlova v Praze   procesy II. Zuzana. funkce Náhodné 1 1 Katedra pravděpodobnosti a matematické statistiky Univerzita Karlova v Praze email: praskova@karlin.mff.cuni.cz 11.-12.3. 2010 1 Outline Lemma 1: 1. Nechť µ, ν jsou konečné míry na borelovských

Více

VI. Maticový počet. VI.1. Základní operace s maticemi. Definice. Tabulku

VI. Maticový počet. VI.1. Základní operace s maticemi. Definice. Tabulku VI Maticový počet VI1 Základní operace s maticemi Definice Tabulku a 11 a 12 a 1n a 21 a 22 a 2n, a m1 a m2 a mn kde a ij R, i = 1,, m, j = 1,, n, nazýváme maticí typu m n Zkráceně zapisujeme (a ij i=1m

Více

odpovídá jedna a jen jedna hodnota jiných

odpovídá jedna a jen jedna hodnota jiných 8. Regresní a korelační analýza Problém: hledání, zkoumání a hodnocení souvislostí, závislostí mezi dvěma a více statistickými znaky (veličinami). Typy závislostí: pevné a volné Pevná závislost každé hodnotě

Více

Regresní a korelační analýza

Regresní a korelační analýza Regresní a korelační analýza Mějme dvojici proměnných, které spolu nějak souvisí. x je nezávisle (vysvětlující) proměnná y je závisle (vysvětlovaná) proměnná Chceme zjistit funkční závislost y = f(x).

Více

EUKLIDOVSKÉ PROSTORY

EUKLIDOVSKÉ PROSTORY EUKLIDOVSKÉ PROSTORY Necht L je lineární vektorový prostor nad tělesem reálných čísel R. Zobrazení (.,.) : L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx,

Více

9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1

9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1 9 přednáška 6 listopadu 007 Věta 11 Nechť f C U, kde U R m je otevřená množina, a a U je bod Pokud fa 0, nemá f v a ani neostrý lokální extrém Pokud fa = 0 a H f a je pozitivně negativně definitní, potom

Více

Testování předpokladů pro metodu chain-ladder. Seminář z aktuárských věd Petra Španihelová

Testování předpokladů pro metodu chain-ladder. Seminář z aktuárských věd Petra Španihelová Testování předpokladů pro metodu chain-ladder Seminář z aktuárských věd 4. 11. 2016 Petra Španihelová Obsah Datová struktura Posouzení dat Předpoklady metody chain-ladder dle T. Macka Běžná lineární regrese

Více

UNIVERSITA PALACKÉHO V OLOMOUCI PŘÍRODOVĚDECKÁ FAKULTA. KATEDRA MATEMATICKÉ ANALÝZY A APLIKACÍ MATEMATIKY školní rok 2009/2010 BAKALÁŘSKÁ PRÁCE

UNIVERSITA PALACKÉHO V OLOMOUCI PŘÍRODOVĚDECKÁ FAKULTA. KATEDRA MATEMATICKÉ ANALÝZY A APLIKACÍ MATEMATIKY školní rok 2009/2010 BAKALÁŘSKÁ PRÁCE UNIVERSITA PALACKÉHO V OLOMOUCI PŘÍRODOVĚDECKÁ FAKULTA KATEDRA MATEMATICKÉ ANALÝZY A APLIKACÍ MATEMATIKY školní rok 2009/2010 BAKALÁŘSKÁ PRÁCE Testy dobré shody Vedoucí diplomové práce: RNDr. PhDr. Ivo

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

STATISTICKÁ VAZBA. 1.1 Statistická vazba Charakteristiky statistické vazby dvou náhodných veličin Literatura 9

STATISTICKÁ VAZBA. 1.1 Statistická vazba Charakteristiky statistické vazby dvou náhodných veličin Literatura 9 STATISTICKÁ VAZBA Obsah 1 Korelační analýza 1 1.1 Statistická vazba.................................... 1 1.2 Motivační příklady................................... 1 1.3 Sdružená distribuční funkce a nezávislost

Více

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B. Zkouška z předmětu KMA/PST. Anotace předmětu Náhodné jevy, pravděpodobnost, podmíněná pravděpodobnost. Nezávislé náhodné jevy. Náhodná veličina, distribuční funkce. Diskrétní a absolutně spojitá náhodná

Více

10. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo

10. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo 0. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo (PEF PaA) Petr Gurka aktualizováno 9. prosince 202 Obsah Základní pojmy. Motivace.................................2 Aritmetický vektorový

Více