Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE. Eduard Hybler

Podobné dokumenty
Úvod do analýzy časových řad

Časové řady, typy trendových funkcí a odhady trendů

Testování hypotéz o parametrech regresního modelu

Časové řady, typy trendových funkcí a odhady trendů

Testování hypotéz o parametrech regresního modelu

5 Časové řady. Definice 16 Posloupnost náhodných veličin {X t, t T } nazveme slabě stacionární, pokud

Modely stacionárních časových řad

MATEMATICKÁ STATISTIKA - XP01MST

Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE. Martin Hrba

Statistika II. Jiří Neubauer

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

AVDAT Náhodný vektor, mnohorozměrné rozdělení

Regresní a korelační analýza

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

Pravděpodobnost a aplikovaná statistika

Poznámky k předmětu Aplikovaná statistika, 4. téma

Regresní analýza 1. Regresní analýza

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace

0.1 Úvod do lineární algebry

NÁHODNÝ VEKTOR. 4. cvičení

Faktorová analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel

Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé.

Regresní a korelační analýza

Regresní analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel

5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Poznámky k předmětu Aplikovaná statistika, 4. téma

0.1 Úvod do lineární algebry

10. N á h o d n ý v e k t o r

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

Vícerozměrná rozdělení

7. Analýza rozptylu.

Maximálně věrohodné odhady v časových řadách

Úlohy nejmenších čtverců

Výběrové charakteristiky a jejich rozdělení

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7

AVDAT Klasický lineární model, metoda nejmenších

Odhad parametrů N(µ, σ 2 )

1 Vektorové prostory.

Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D.

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Univerzita Karlova v Praze procesy II. Zuzana. Predikce

Problematika analýzy rozptylu. Ing. Michael Rost, Ph.D.

Náhodný vektor a jeho charakteristiky

Kontingenční tabulky, korelační koeficienty

Náhodné chyby přímých měření

Testování statistických hypotéz

I. D i s k r é t n í r o z d ě l e n í

Operace s maticemi. 19. února 2018

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

p(x) = P (X = x), x R,

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:

12. cvičení z PST. 20. prosince 2017

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

PRAVDĚPODOBNOST A STATISTIKA

(Cramerovo pravidlo, determinanty, inverzní matice)

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

Testování hypotéz testy o tvaru rozdělení. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

15. T e s t o v á n í h y p o t é z

1 Linearní prostory nad komplexními čísly


Bakalářské studium na MFF UK v Praze Obecná matematika Zaměření: Stochastika. 1 Úvodní poznámky. Verze: 13. června 2013

8 Matice a determinanty

1. Přednáška. Ing. Miroslav Šulai, MBA

1 Determinanty a inverzní matice

Normální rozložení a odvozená rozložení

Kolik existuje různých stromů na pevně dané n-prvkové množině vrcholů?

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

Normální (Gaussovo) rozdělení

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností,

AKM CVIČENÍ. Opakování maticové algebry. Mějme matice A, B regulární, potom : ( AB) = B A

15 Maticový a vektorový počet II

Aplikovaná numerická matematika - ANM

10 Funkce více proměnných

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

PRAVDĚPODOBNOST A STATISTIKA

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

1 Řešení soustav lineárních rovnic

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

Univerzita Karlova v Praze procesy II. Zuzana. funkce

VI. Maticový počet. VI.1. Základní operace s maticemi. Definice. Tabulku

odpovídá jedna a jen jedna hodnota jiných

Regresní a korelační analýza

EUKLIDOVSKÉ PROSTORY

9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1

Testování předpokladů pro metodu chain-ladder. Seminář z aktuárských věd Petra Španihelová

UNIVERSITA PALACKÉHO V OLOMOUCI PŘÍRODOVĚDECKÁ FAKULTA. KATEDRA MATEMATICKÉ ANALÝZY A APLIKACÍ MATEMATIKY školní rok 2009/2010 BAKALÁŘSKÁ PRÁCE

Odhad parametrů N(µ, σ 2 )

STATISTICKÁ VAZBA. 1.1 Statistická vazba Charakteristiky statistické vazby dvou náhodných veličin Literatura 9

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

10. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo

Transkript:

Univerzita Karlova v Praze Matematicko-fyzikální fakulta DIPLOMOVÁ PRÁCE Eduard Hybler Moderní přístupy k analýze finančních časových řad Katedra pravděpodobnosti a matematické statistiky Vedoucí diplomové práce: RNDr. Jitka Zichová, Dr. Studijní program: Matematika Studijní obor: Finanční a pojistná matematika

Rád bych na tomto místě poděkoval vedoucí mé diplomové práce RNDr. Jitce Zichové, Dr., za cenné připomínky a podněty k této práci, poskytnutí potřebné literatury, za umožnění práce s potřebným softwarem a za její čas strávený na konzultacích. Prohlašuji, že jsem svou diplomovou práci napsal samostatně a výhradně s použitím citovaných pramenů. Souhlasím se zapůjčováním práce. V Praze dne 10. 12. 2007 Eduard Hybler 2

Obsah Úvod 6 1 Korelace a regrese 7 1.1 Podmíněná nezávislost............................ 7 1.2 Korelační analýza............................... 8 1.3 Odhady parametrů u mnohorozměrného rozdělení............. 11 1.4 Lineární regrese................................ 12 2 Grafické modely 15 2.1 Základní pojmy z teorie grafů........................ 15 2.2 Graf podmíněných nezávislostí........................ 16 2.3 Markovské vlastnosti............................. 18 2.4 Grafické modely a modelování........................ 18 2.5 Orientované acyklické grafy nezávislosti................... 19 2.6 Wermuthova podmínka a morální graf................... 20 2.7 Deviance.................................... 22 3 Mnohorozměrné časové řady 23 3.1 Základní charakteristiky mnohorozměrného náhodného procesu...... 23 3.2 Mnohorozměrný ARMA model........................ 25 3.2.1 Stacionarita a invertibilita posloupností ARMA.......... 26 3.3 Identifikace ARMA modelu......................... 27 3.3.1 Výběrová autokovarianční a autokorelační matice......... 27 3.3.2 Výběrová parciální autokorelační matice.............. 29 3.3.3 Shrnutí volby řádu modelu...................... 31 3.3.4 Odhad parametrů modelu...................... 32 3.3.5 Verifikace modelu........................... 32 4 Grafické modely a vektorová autoregrese 34 4.1 Vektorová autoregrese............................ 34 4.2 Identifikace strukturálních autoregresí.................... 35 5 Zpracování finančních dat 37 5.1 Identifikace kanonického ARMA modelu.................. 38 5.2 Identifikace strukturální autoregrese pomocí grafických modelů...... 43 Závěr 50 3

Literatura 51 Přílohy 52 Příloha č.1: Soubor vstupních dat......................... 53 Příloha č.2: Obsah přiloženého CD........................ 55 4

Název práce: Moderní přístupy k analýze finančních časových řad Autor: Eduard Hybler Katedra: Katedra pravděpodobnosti a matematické statistiky Vedoucí diplomové práce: RNDr. Jitka Zichová, Dr. e-mail vedoucího: zichova@karlin.mff.cuni.cz Abstrakt: Práce se zabývá identifikací mnohorozměrného kanonického ARM A modelu a dále pak určením grafického modelu, který obsahuje i vztahy mezi proměnnými v současnosti, nikoli jenom závislost na zpožděných proměnných. V praktické části je pomocí výpočtů v softwaru Mathematica identifikovaný kanonický AR model, u kterého se pomocí metodologie grafických modelů určí strukturální autoregrese. Zpracována byla časová řada měnových kurzů, která je spolu s programem obsažena na přiloženém CD. Klíčová slova: Mnohorozměrný ARM A model, graf podmíněných nezávislostí, grafický model. Title: Modern Approach To Financial Time Series Analysis Author: Eduard Hybler Department: Department of probability and mathematical statistics Supervisor: RNDr. Jitka Zichová, Dr. Supervisor s e mail address: zichova@karlin.mff.cuni.cz Abstract: This thesis is devoted to the multivariate canonical ARM A model and then continues with determination of a graphical model. Graphical model includes also relations between contemporaneous variables, not only dependence on past variables. In the practical part of this work canonical AR model is identified using software Mathematica. In this model we specify structural autoregresion according to the graphical models methodology. A time series of exchange rates was processed. It is together with program included on the enclosed CD. Keywords: Multivariate ARM A model, conditional independence graph, graphical model. 5

Úvod Zpracování časových řad je jedním z úkolů řešených ve finanční analýze. Jedná se např. o studium vývoje cen akcií, měnových kurzů či hodnoty burzovních indexů. Finanční časové řady vykazují značnou nestabilitu, a proto u nich většinou dobře nefungují klasické přístupy. V posledních letech byly vyvinuty nové modely vhodné právě pro práci s finančními časovými řadami, a to jak v jednorozměrném, tak v mnohorozměrném případě. Navíc v mnohorozměrném případě nás zajímají nejen vlivy minulých pozorování, ale i vztahy mezi jednotlivými složkami pozorovaného vektoru ve stejném čase. Práce je rozdělena do pěti kapitol. V prvních čtyřech je vyložena teorie, která je pak v poslední kapitole aplikována na konkrétní data z finanční praxe. První kapitola se zabývá teorií korelace a regrese. Připomíná pojmy a metody potřebné v nasledujícím textu. Druhá kapitola obsahuje základy z teorie grafů, které jsou pak využité ve spojitosti s grafem podmíněných nezávislostí a jeho dalšími vlastnostmi. Třetí kapitola pojednává o mnohorozměrných časových řadách s důrazem na mnohorozměrný ARM A proces - zavedení základních pojmů, vlastností, způsoby identifikace, odhad parametrů a verifikace modelu. Čtvrtá kapitola uvádí postup kontrukce strukturálního AR modelu, jak je uvedeno v [9]. Poslední pátá kapitola aplikuje tento postup na časovou řadu - napozorovaných hodnot dvourozměrného vektoru kurzu eura a dolaru vůči české koruně - a popisuje získané výsledky. 6

Kapitola 1 Korelace a regrese V první kapitole připomeneme základní statistické pojmy jako jsou nezávislost, korelace a regrese - všechno se zřetelem na vícerozměrný případ - tj. uvažováním náhodných vektorů. Bez důkazů uvedeme některé vztahy potřebné pro naše další účely. Důkazy či podrobnější odvození vět a lemmat jsou uvedena např. v knize [2], kapitoly 2, 5 a 6 nebo v [4], zejména kapitoly 3 a 7. Důkazy vět a lemmat o parciálních kovariancích jsou v knize [11]. Poznamenejme ještě, že v celé práci budeme uvažovat sloupcové vektory. Transpozici vektoru X budeme značit X T. 1.1 Podmíněná nezávislost Definice 1.1: Nezávislost náhodných veličin Věta 1.2: Náhodné veličiny X 1,... X n, jsou nezávislé právě když F X (x 1,... x n ) = F X1 (x 1 )... F Xn (x n ) (x 1,..., x n ) T R n (tj. sdružená distribuční funkce se rovná součinu marginálních distribučních funkcí). Nechť náhodné veličiny X 1,..., X n mají sdruženou hustotu f X a marginální hustoty f X1,..., f Xn. Pak X 1,..., X n jsou nezávislé tehdy a jen tehdy, platí-li n f X (x 1,... x n ) = f Xi (x i ). Definice 1.3: Nezávislost náhodných vektorů Náhodné vektory X = (X 1,... X n ) T a Y = (Y 1,... Y k ) T jsou nezávislé, právě když X i a Y j jsou nezávislé náhodné veličiny i = 1,... n a j = 1,... k. Nezávislost budeme dále značit X Y. Definici 1.3 můžeme ekvivalentně zapsat pomocí podmíněné hustoty: i=1 X Y f X Y (x; y) = f X (x) x. 7

Definice 1.4: Podmíněná nezávislost Náhodné vektory Y a Z jsou podmíněně nezávislé při pevné hodnotě vektoru X, právě tehdy když f Y Z X (y, z; x) = f Y X (y; x)f Z X (z; x) pro všechny hodnoty y, z a pro všechna x taková, že f X (x) > 0. Podmíněnou nezávislost budeme dále značit Y Z X. Lemma 1.5: Nechť Y Z X. Potom jsou následující tvrzení ekvivalentní: (i) f Y,Z X (y, z; x) = f Y X (y; x)f Z X (z; x) (ii) f Y X,Z (y; x, z) = f Y X (y; x) a analogicky f Z X,Y (z; x, y) = f Z X (z; x) (iii) f X,Y,Z (x, y, z) = f X,Y (x,y)f X,Z (x,z) f X (x) (iv) f X,Y,Z (x, y, z) = f X,Y (x, y)f Z X (z; x) = f X,Z (x, z)f Y X (y; x) (v) f X,Y,Z (x, y, z) = f Y X (y; x)f Z X (z; x)f X (x). 1.2 Korelační analýza Definice 1.6: Kovariance Kovarianci dvou náhodných vektorů X, Y s konečnými druhými momenty definujeme předpisem Pro praktické výpočty se používá vzorec Definice 1.7: Varianční matice cov(x, Y ) = E(X EX)(Y EY ) T. cov(x, Y ) = EXY T (EX)(EY ) T. Mějme náhodný vektor X = (X 1,..., X n ) T. Matici V = varx = (cov(x i, X j )), která je typu n n, nazýváme varianční maticí vektoru X. Platí pro ni varx = cov(x, X) = E(X EX)(X EX) T = EXX T (EX)(EX) T. Definice 1.8: Korelační koeficient Nechť X, Y jsou náhodné veličiny s konečnými druhými momenty a kladnými rozptyly. Pak definujeme korelační koeficient cor(x, Y ) = cov(x, Y ) varxvary. 8

Definice 1.9: Korelační matice Mějme náhodné vektory X = (X 1,..., X n ) T a Y = (Y 1,..., Y m ) T s konečnými druhými momenty. Nechť všechny složky těchto dvou vektorů mají kladné rozptyly. Matici typu n m, jejíž (i, j)-tý prvek je roven korelačnímu koeficientu veličin X i a Y j, nazveme korelační maticí vektorů X a Y a označíme ji cor(x, Y ). Matice cor(x, X) se nazývá korelační matice vektoru X a značí se corx. Definice 1.10: Parciální kovariance Nechť X, Y, Z jsou náhodné vektory s konečnými druhými momenty a varianční matice varx je regulární matice. Pak parciální kovarianci Y a Z při pevném X počítáme jako cov(y, Z X) = cov(y Ŷ, Z Ẑ), kde Ŷ, Ẑ jsou nejlepší lineární odhady Y, Z získané z X. Je tedy Ŷ = α 1 + β1 T X, kde α 1 = EY β1 T EX, β 1 = (varx) 1 cov(x, Y ) Ẑ = α 2 + β2 T X, kde α 2 = EZ β2 T EX, β 2 = (varx) 1 cov(x, Z). Vektory Y Ŷ, Z Ẑ (tj. ty části Y a Z, které vektor X nevysvětlí) nazýváme vektory reziduí. Definice 1.11: Parciální rozptyl Nechť X a Y jsou náhodné vektory. Pak parciální rozptyl Y při pevném X definujeme jako var(y X) = cov(y, Y X). Definice 1.12: Parciální korelační koeficient Nechť Y, Z jsou náhodné veličiny s konečnými druhými momenty a X náhodný vektor. Za předpokladu var(y Ŷ ) > 0 a var(z Ẑ) > 0 definujeme parciální korelační koeficient veličin Y a Z při pevném X jako cor(y, Z X) = Definice 1.13: Parciální korelační matice cov(y, Z X) var(y X)var(Z X). Nechť X, Y = (Y 1,..., Y m ) T a Z = (Z 1,..., Z k ) T jsou náhodné vektory s konečnými druhými momenty. Matici typu m k, jejíž (i, j)-tý prvek je roven koeficientu parciální korelace veličin Y i a Z j při pevném X, nazveme parciální korelační maticí vektorů Y a Z při pevném X a označíme ji cor(y, Z X). Platí, že cor(y, Z X) = cor(y Ŷ, Z Ẑ). 9

Protože na hodnotách α 1 a α 2, jak byly zavedeny v definici 1.10, parciální korelační matice cor(y Ŷ, Z Ẑ) nezávisí, platí rovněž cor(y, Z X) = cor(y β T 1 X, Z β T 2 X). Lemma 1.14: Platí cov(y, Z X) = cov(y, Z) cov(y, X)var(X) 1 cov(x, Z). Lemma 1.15: Platí var(y X) = var(y ) var(ŷ ) = cov(y, Y ) cov(y, X)var(X) 1 cov(x, Y ) = var(y Ŷ ) a číslo var(y Ŷ ) se nazývá reziduální rozptyl. Věta 1.16: Nechť X, Y, Z jsou náhodné vektory s normálním rozdělením. Pak platí X Y cov(x, Y ) = 0 X Y Z cov(x, Y Z) = 0. Věta 1.17: Nechť X = (X 1,..., X n ) T je náhodný vektor s konečnými druhými momenty, jehož všechny složky mají kladné rozptyly. Označme V = varx, P = corx, σ i = varx i pro i = 1,..., n a Pak P = D 1 V D 1. D = Diag{σ 1,..., σ n } = Věta 1.18: Lemma o inverzní varianci σ 1 0... 0............ 0 0... σ n Mějme náhodné vektory X a Y s konečnými ( ) druhými momenty. Inverzní X varianční matici náhodného vektoru lze za předpokladu regularity Y matic varx a var(y X) psát ve tvaru ( ) var(x) (var(x T, Y T ) T ) 1 = 1 + B T var(y X) 1 B B T var(y X) 1 var(y X) 1 B var(y X) 1, kde B = cov(x, Y )(varx) 1. 10.

Důsledek 1.19: Mějme k-rozměrný náhodný vektor X, K = {1, 2,..., k}. Pak každý diagonální prvek inverzní varianční matice V 1 = (w ij ) je převrácenou hodnotou parciálního rozptylu. Tedy w ii = 1 var(x i X K\{i} ) i K. A dále každý mimodiagonální prvek inverzní varianční matice škálované tak, aby na diagonále byly jedničky, je záporně vzatá parciální korelace odpovídajících složek vektoru X při pevně daných ostatních složkách. Tj. C = DV 1 D = (c ij ), kde { 1 1 D = Diag,..., }. w11 wnn c ij = w ij wii w jj = cor(x i, X j X K\{i,j} ) i K, j K, i j. Odhady parciálních korelací získáme škálováním výběrové varianční matice. Důsledek 1.20: Mějme k-rozměrný náhodný vektor X s normálním rozdělením, K = {1, 2,..., k}. Pak X i X j X K\{i,j} c ij = 0 i K, j K, i j, kde c ij je jako v důsledku 1.19. Jestliže pro parciální korelační koeficient platí ρ = 0 a pro počet pozorování N > p + 2, kde p je rozměr podmiňujíciho vektoru, pak T = r 1 r 2 N p 2 tn p 2. (1.1) Vztah (1.1) nám umožňuje testovat nulovost parciálních korelačních koeficientů. 1.3 Odhady parametrů u mnohorozměrného rozdělení Mějme nějaké m-rozměrné rozdělení se střední hodnotou µ = (µ 1,..., µ m ) T maticí V typu m m. Nechť x 1 = x 1,1. x 1,m,..., x N = x N,1. x N,m a varianční 11

je náhodný výběr z tohoto rozdělení. Omezíme se na případ N > m. Zaveďme výběrový průměr x a výběrovou varianční maticí ˆV = (ˆv ij ) pomocí vzorců: N x = 1 N i=1 x i ˆV = 1 N 1 N i=1 (x i x)(x i x) T = 1 ( N x i x T i N x x ). T N 1 i=1 V případě nulové střední hodnoty můžeme uvedený vztah přepsat na kde X = ˆV = 1 N 1 XXT, (1.2) x 1,1... x N,1.. x 1,m... x N,m Jsou-li všechny diagonální prvky matice ˆV kladné, definujeme výběrovou korelační matici ˆR XX = ( ˆvij ˆviiˆv jj ) m i,j=1.. Dále zavedeme výběrovou kovarianční matici vektorů X a Y : ˆV XY = 1 N 1 1.4 Lineární regrese N (x i x)(y i ȳ) T. i=1 Mějme náhodné veličiny Y 1,..., Y n a matici daných čísel X = (x i,j ) typu n k, kde k < n. Požaduje se, aby matice X měla lineárně nezávislé sloupce. Předpokládejme, že pro náhodný vektor Y = (Y 1,..., Y n ) T platí Y = Xβ + e (1.3) kde β = (β 1,..., β k ) T je vektor neznámých parametrů a e = (e 1,..., e n ) T je vektor náhodných chyb s normálním rozdělením s parametry (0, σ 2 I), kde 0 je nulový vektor, σ 2 > 0 je neznámý parametr a I je jednotková matice typu n n. Tento model budeme nazývat regresní. Protože Y závisí na β lineárně, mluvíme o lineárním regresním modelu. Parametry (β 1,..., β k ) T se odhadují metodou nejmenších čtverců, tj. minimalizací výrazu (Y Xβ) T (Y Xβ) jakožto funkce β. Tento odhad označme b = (b 1,..., b k ) T. Velmi často se stává, že první sloupec matice X je tvořen samými jedničkami. Položme r = k 1. Pak můžeme psát X = (1, X 1 ), kde X 1 je matice typu n r a 1 je sloupcový vektor jedniček. Vektory β a b se pak zapisují ve tvaru β = (β 0, β 1,..., β r ) T a b = (b 0, b 1,..., b r ) T. 12

Věta 1.21: Odhad vektoru parametrů β metodou nejmenších čtvrců je b = (X T X) 1 X T Y. Pro tento odhad platí E(b) = β, var(b) = σ 2 (X T X) 1. Vektor Ŷ = Xb = X(XT X) 1 X T Y může být považován za nejlepší aproximaci vektoru Y, jaká se dá vytvořit lineární kombinací sloupců matice X. Ještě uveďme, že se veličině S e = (Y Ŷ )T (Y Ŷ ) říká reziduální součet čtverců. Věta 1.22: Pro reziduální součet čtverců S e platí Věta 1.23: S e = Y T (I X(X T X) 1 X T )Y = Y T Y b T X T Y. Náhodná veličina s 2 = S e /(n k) je nestranným odhadem parametru σ 2. Věta 1.24: Rozdělení a vlastnosti odhadnutých parametrů Platí: (i) b N(β, σ 2 (X T X) 1 ) (ii) S e /σ 2 χ 2 n k (iii) vektor b a veličina s 2 jsou nezávislé. Označme S T = n (Y i Ȳ )2 = i=1 n i=1 Y 2 i nȳ 2. Kvalitu odhadu Ŷ náhodné veličiny Y posuzujeme například koeficientem determinace R 2 a korigovaným koeficientem determinace R 2, které jsou dány vzorci R 2 = 1 S e, S R2 = 1 n 1 T n r 1 S e S T. Čím jsou tyto koeficienty blíže jedné, tím těsnější je regresní závislost. 13

T-test pro jeden regresní parametr Věta 1.25: Označme si u ij prvky matice (X T X) 1. Potom T i = b i β i t n k, i = 1,..., k. s2 u ii Předchozí věta umožňuje testovat hypotézy tvaru H 0 : β i = βi 0 proti alternativám H 1 : β i βi 0, kde i {1, 2,..., k} a βi 0 je dané reálné číslo. Jako testovou statistiku použijeme T i = b i βi 0. s2 u ii V případě, že T i t n k (α), zamítáme hypotézu H 0 na hladině α. Nejčastěji volíme βi 0 = 0 a ověřujeme, zda Y vůbec závisí na X i. t n k (α) je kritická hodnota příslušného Studentova rozdělení. 14

Kapitola 2 Grafické modely Druhá kapitola je věnovaná připomenutí základních pojmů z teorie grafů, o kterých najdeme více např. v knize [7]. Tyto poznatky pak tvoří základ pro další teorii týkající se např. grafu podmíněných nezávislostí, markovských vlastností či grafických modelů. Věty jsou opět uváděny bez důkazu, s odvoláním se na [11], kapitoly 3 a 5. Poslední část se zabývá deviancí, jak je vyložena v článku [9]. 2.1 Základní pojmy z teorie grafů Definice 2.1: Graf Graf G je uspořádaná dvojice (K, E), kde K je nějaká neprázdná množina a E je podmnožina kartézského součinu K K. Prvky množiny K se jmenují vrcholy grafu G a prvky množiny E hrany grafu G. Říkáme, že vrcholy i, j jsou spojeny hranou právě tehdy, když (i, j) E. Množina K je obvykle podmnožina přirozených čísel, K = {1, 2,..., k}. Definice 2.2: Úplný graf Graf označujeme jako úplný, jsou-li všechny dvojice vrcholů spojené hranou, tj. i, j K; (i, j) E. Definice 2.3: Orientovaný graf Orientovaný graf G je dvojice (K, E), kde E je podmnožina kartézského součinu K K. Prvky E nazýváme šipky (nebo orientované hrany). Šipka e má tvar (i, j). Říkáme, že tato šipka vychází z i a končí v j. O vrcholu i pak mluvíme jako o rodiči vrcholu j. Je-li alespoň jedna hrana grafu orientovaná, mluvíme o orientovaném grafu. Definice 2.4: Podgraf, faktor, klika Řekneme, že graf G 1 = (K 1, E 1 ) je podgrafem grafu G = (K, E), jestliže K 1 K a E 1 E. Pokud platí K 1 = K říkáme, že graf G 1 je faktorem grafu G. Klika je maximální úplný podgraf. 15

Definice 2.5: Hranice vrcholu Hranice vrcholu i je podmnožina množiny vrcholů K obsahující všechny vrcholy, které jsou s vrcholem i spojeny hranou. Tuto hranici vrcholu budeme značit bd(i). Definice 2.6: Cesta, dostupnost, souvislost Cesta je posloupnost vrcholů i 1, i 2,..., i m takových, že (i l, i l+1 ) E l = 1, 2,..., m 1. Nejkratší cesta je cesta s nejmenším počtem hran. Vrcholy označujeme jako dostupné právě tehdy, když existuje cesta z i do j a z j do i. Graf označujeme jako souvislý právě tehdy, když všechny dvojice vrcholů jsou navzájem dostupné. Definice 2.7: Cyklus Orientovaný graf G = (K, E) s množinou vrcholů K = k 1,..., k n a množinou orientovaných hran E = (e 1,..., e n ) nazýváme cyklus, jestliže platí e i = (k i, k i+1 ) pro i = 1,..., n 1 a e n = (k n, k 1 ). Definice 2.8: Acyklický graf Orientovaný graf neobsahující cykly nazveme acyklický. Definice 2.9: Separace Říkáme, že A K separuje dva vrcholy i, j právě tehdy, když každá cesta z i do j (z j do i) obsahuje alespoň jeden vrchol ze separující množiny A. Množina A separuje dvě podmnožiny vrcholů B a C právě tehdy, když separuje každou dvojici vrcholů i B, j C. 2.2 Graf podmíněných nezávislostí Definice 2.10: Graf podmíněných nezávislostí Grafem podmíněných nezávislostí náhodného vektoru X = (X 1,..., X k ) T nazýváme takový graf G = (K, E), v němž K = {1, 2,..., k} a (i, j) / E X i X j X K\{i,j} i, j K. Graf podmíněných nezávislostí se označuje CIG (z ang. conditional independence graph). 16

Lemma 2.11: Předpokládejme, že množina vrcholů K = {1, 2,..., k} může být rozdělena do dvou podmnožin B, C takových, že neexistuje žádná cesta spojující libovolný vrchol z B s libovolným vrcholem z C. Potom Lemma 2.12: X i X j i B, j C. Předpokládejme, že množina vrcholů K = {1, 2,..., k} může být rozdělena do dvou podmnožin B, C takových, že neexistuje žádná cesta spojující libovolný vrchol z B s libovolným vrcholem z C. Potom X i X j X A i B, j C a A je libovolná podmnožina K neobsahující i ani j. Lemma 2.13: Je-li A podmnožina vrcholů K, která separuje dva vrcholy i a j, pak X i X j X A. Věta 2.14: Věta o separaci Nechť X A, X B a X C jsou vektory obsahující disjunktní podmnožiny složek náhodného vektoru X a nechť v grafu podmíněných nezávislostí vektoru X každý vrchol v B je separován od všech vrcholů z C podmnožinou A. Potom X B X C X A. Definice 2.15: Minimální podmíněná nezávislost, minimální separační množina Říkáme, že podmíněná nezávislost mezi dvěma proměnnými je minimální, pokud není možné eliminovat jakoukoliv proměnnou z podmiňujícího vektoru X A. Množinu A jakožto separační množinu nazýváme minimální. 17

2.3 Markovské vlastnosti V grafických modelech zavádíme 3 typy markovských vlastností: Definice 2.16: Lokální markovská vlastnost Říkáme, že náhodný vektor X s grafem podmíněných nezávislostí G = (K, E) má lokální markovskou vlastnost pokud platí X i X B X A, kde i K je libovolný vrchol, A = bd(i) je hranice vrcholu i a B = K \ ({i} A). Zjednodušeně můžeme psát Definice 2.17: Párová markovská vlastnost i zbytek hranice. Pro všechny vrcholy i, j, které nejsou spojeny hranou, platí X i X j X A, kde A = K \ {i, j}. Definice 2.18: Globální markovská vlastnost Nechť A, B, C jsou po dvou disjunktní podmnožiny K. Pokud A separuje B a C, pak platí X B X C X A. Věta 2.19: Ekvivalence markovských vlastností Uvedené tři markovské vlastnosti jsou ekvivalentní. 2.4 Grafické modely a modelování Definice 2.20: Obecný grafický model Uvažujme k-rozměrný náhodný vektor X = (X 1, X 2,..., X k ) T a graf podmíněných nezávislostí G = (K, E). Grafický model pro náhodný vektor X je rodina pravděpodobnostních rozdělení vektoru X, která splňuje podmíněné nezávislosti dané grafem G. 18

Definice 2.21: Grafický Gausovský model V případě, že vektor X z definice 2.20 má mnohorozměrné normální rozdělení, mluvíme o grafickém Gausovském modelu. V tomto případě platí, že podmínky podmíněné nezávislosti jsou ekvivalentní s určením nulových prvků v inverzní varianční matici. Jednoduchá procedura pro nalezení grafu podmíněných nezávislostí má nasledující kroky: 1. Odhadne se varianční matice V = var(x) pomocí výběrové varianční matice ˆV. 2. Spočte se inverzní matice ˆV 1. 3. Škálováním inverzní matice, jak je uvedeno v důsledku 1.19, získáme diagonální matici, ze které určíme výběrové parciální korelace cor(x i, X j zbytek). 4. Testujeme nulovost prvků výběrové parciální korelační matice. Nakreslí se výsledný graf podmíněných nezávislostí. Definice 2.22: Saturovaný model Saturovaný model je grafický model určený úplným grafem. 2.5 Orientované acyklické grafy nezávislosti Dostáváme se k situaci, kdy X ovlivňuje Y, ale Y neovlivňuje X. To můžeme vyjádřit orientovaným grafem na obrázku 2.23. X Y Obrázek 2.23: Jednoduchý orientovaný graf Pokud se budeme těmito modely dále zabývat, můžeme se dostat i k situacím znázorněnými na obrázku 2.24. Y X Z W Z X Y Obrázek 2.24: Cyklické grafy 19

Tyto cykly nebudeme v dalším textu uvažovat, neboť neumožňují dobře modelovat sdružené rozdělení příslušných proměnných pomocí podmíněných rozdělení. Potřeba vyloučit orientované cykly nás vede k následujícímu: Na prvky množiny K zavedeme relaci úplného uspořádání splňující (pro i K, j K): (i) buď i j nebo i j (ii) relace je ireflexivní, tj. non(i i), (iii) relace je tranzitivní, tj. jestliže (i j) (j k) (i k). Pokud uvedené aplikujeme na orientovaný graf, dostáváme, že každá strana grafu může mít jen jednu možnou orientaci. Lemma 2.25: V orientovaném grafu jsou následující podmínky ekvivalentní: (i) graf neobsahuje orientované cykly (ii) existuje úplné uspořádání vrcholů grafu. Definice 2.26: Orientovaný graf podmíněných nezávislostí Orientovaným grafem podmíněných nezávislostí náhodného vektoru X nazýváme orientovaný graf G = (K, E ), kde K = {1, 2,..., k}, K(j) = {1, 2,..., j} a hrana (i, j), i j, není obsažena v množině hran právě tehdy když X j X i X K(j)\{i,j}. Orientovaný graf podmíněných nezávislosti se označuje DAG (z ang. directed acyclic graph). Poznámka 2.27: DAG implikuje jediný CIG pro složky vektor X. Naopak k danému CIG může existovat více DAG, nebo nemusí existovat žádný. 2.6 Wermuthova podmínka a morální graf Definice 2.28: Asociovaný neorientovaný graf Je-li G = (K, E ) jako v definici 2.26, potom asociovaný neorientovaný graf definujeme jako G u = (K, E u ) se stejnou množinou vrcholů, v němž orientované hrany jsou nahrazeny neorientovanými. Definice 2.29: Wermuthova podmínka Říkáme, že orientovaný graf splňuje Wermuthovu podmínku jestliže neobsahuje podgraf znázorněný na obrázku 2.30. 20

Obrázek 2.30: Podgraf porušující Wermuthovu podmínku Definice 2.31: Morální graf Morální graf k orientovanému grafu G = (K, E ) je takový neorientovaný graf G m = (K, E m ), který má stejnou množinu vrcholů K a obsahuje množinu hran E a navíc obsahuje všechny hrany, tzv. morální, nezbytné k tomu, aby byla v G splněna Wermuthova podmínka. Název morální vystihuje skutečnost, že tento graf sezdává rodiče vrcholu. Příklad 2.32: Uvažujme orientovaný graf G 1 = (K 1, E 1 ), kde K 1 = {1, 2, 3, 4} a E 1 = {(1, 4)(2, 4)(2, 3)} (obrázek 2.33a). 1 4 1 4 1 4 2 3 (a) 2 3 (b) 2 3 (c) Obrázek 2.33: (a) graf G 1, (b) asociovaný graf G u 1 k (a), (c) morální graf G m 1 odvozený od (b) Sestrojme si jeho asociovaný graf G u 1 (obrázek 2.33b). V grafu G 1 nám vrcholy 1, 2, 4 porušují Wermuthovu podmínku. Při konstrukci morálního grafu tedy musíme přidat hranu (1, 2). Morální graf je na obrázku 2.33(c). Markovské vlastnosti Věta 2.34: Markovský teorém pro orientované grafy podmíněných nezávislostí Orientovaný graf G má markovské vlastnosti svého morálního grafu G m. 21

Důsledek 2.35: Pro G m = G u má orientovaný graf G právě jenom markovské vlastnosti svého morálního grafu G m. Pokud má totiž morální graf více hran než asociovaný, obsahuje graf G i některé nezávislosti, které nelze z markovských vlastností morálního grafu odvodit. Vraťme se k příkladu 2.32: Z markovských vlastností morálního grafu dostáváme X 1 X 3 X 2, X 4 X 3 X 4 X 1, X 2. V grafu G 1 nejsou vrcholy 1, 2 spojeny hranou a z definice 2.10 tedy pro G u 1 vyplývá, že a odtud dle definice 2.26 pak X 1 X 2 X 3, X 4 X 1 X 2 pro graf G 1 navíc k podmíněným nezávislostem odvozeným z morálního grafu. 2.7 Deviance Deviance představuje základní způsob, jak měřit shodu grafického modelu s daty, případně způsob, jak mezi sebou porovnat dva grafické modely, pokud je jeden faktorem druhého. Definice 2.36: Deviance Mějme náhodný vektor X = (X 1,..., X k ) T s rozdělením N(0, V ) a pozorované realizace x 1,..., x N. Devianci modelu DAG definujeme vztahem Dev = N r log s 2 r, kde N je rozsah výběru, r je počet regresních rovnic (pro popis závislostí každé ze složek mnohorozměrné časové řady v čase t na ostatních složkách v čase t a na zpožděných hodnotách. Tyto rovnice jsou dány modelem DAG, jak bude popsáno v kapitolách 4 a 5) a s 2 r je odhad reziduálního rozptylu jednotlivých rovnic. Saturovaný model má pak devianci Dev = N log det ˆV, kde ˆV je výběrová varianční matice vektoru X. Model s méně hranami má větší devianci. Pokud dojde po vynechání hrany k výraznímu nárůstu deviance, neměli bychom ji z modelu vynechávat. 22

Kapitola 3 Mnohorozměrné časové řady V kapitole o mnohorozměrných časových řadách jsou nejprve uvedeny základní definice jako střední hodnota, autokorelační a autokovarianční maticové funkce. Následuje podrobnější popis mnohorozměrných ARM A posloupností. Věty jsou opět uváděné bez důkazů. Ty je možné najít v [10], kapitoly 2 a 3, nebo [3], 11. a 12. kapitola, a také v [8]. 3.1 Základní charakteristiky mnohorozměrného náhodného procesu Definice 3.1: Náhodný proces Nechť X t = (X t,1,..., X t,m ) T je m-rozměrný náhodný vektor. Systém {X t, t T } se nazývá m-rozměrný náhodný proces. Je-li speciálně T podmnožina celých čísel, nazývá se {X t, t T } proces s diskrétním časem nebo také časová řada. Pokud je z kontextu zřejmé, o jakou množinu T se jedná, budeme psát pouze {X t }. Definice 3.2: Střední hodnota Nechť {X t, t T } je m-rozměrný náhodný proces takový, že pro každé t T existuje střední hodnota EX t. Potom vektorová funkce µ t = EX t definovaná na T nazývá střední hodnota procesu {X t }. Proces, jehož střední hodnota je identicky rovna nule, se nazývá centrovaný. Platí-li E X t,k 2 < pro všechna t T a k = 1, 2,..., m, říká se, že proces {X t, t T } má konečné druhé momenty. Je-li tato podmínka splněna, existuje i střední hodnota procesu. Definice 3.3: Autokovarianční maticová funkce procesu Jestliže {X t, t T } je m-rozměrný náhodný proces s konečnými druhými momenty, potom maticová funkce dvou proměnných definována na T T předpisem R(s, t) = E(X s µ s )(X t µ t ) T 23

se nazývá autokovarianční funkce procesu {X t }. Funkce R(t, t) se nazývá rozptylová maticová funkce náhodného procesu {X t } v čase t. V některých případech se stává, že funkce R(s, t) závisí na svých argumentech pouze prostřednictvím jejich rozdílu. V tomto případě zavádíme funkci jedné proměnné vztahem R(s t) = R(s, t). Definice 3.4: Slabá stacionarita Náhodný proces {X t, t T } s konečnými druhými momenty se nazývá slabě stacionární, má-li konstantí střední hodnotu µ t = µ pro všechna t T a je-li jeho autokovarianční funkce R(s, t) funkcí pouze rozdílu s t. Pak zkráceně píšeme R(k) = R(t, t + k) a R(0) nazýváme rozptyl procesu. Je-li splněna pouze podmínka na autokovarianční funkci, mluvíme o kovarianční stacionaritě. Autokovarianční funkci slabě stacionárních procesů lze definovat jako funkci jedné proměnné vztahem R(t) := R(t, 0), t T ; autokorelační funkce je potom definována předpisem r(t) = R(t)/R(0). Pro t Z zřejmě platí R( k) = R(k) T, proto často matici R(k) počítáme pouze pro t N 0. Definice 3.5: Autokorelační maticová funkce procesu Nechť {X t, t T } je slabě stacionární náhodná posloupnost s autokovarianční maticovou funkcí R(k) = [R ij (k)] i,j=1,2,...,m. Označme D diagonální matici { 1 = Diag R11 (0), 1 R22 (0),..., 1 }. Rmm (0) Pak pro každé k Z definujeme autokorelační maticovou funkci r(k) jako r(k) = R(k). Definice 3.6: Parciální autokorelační maticová funkce Nechť {X t } je slabě stacionární náhodná posloupnost, mějme t Z a k N a zaveďme vektory u k 1,t+k = X t+k α k 1,1 X t+k 1 α k 1,2 X t+k 2... α k 1,k 1 X t+1 v k 1,t = X t β k 1,1 X t+1 β k 1,2 X t+2... β k 1,k 1 X t+k 1, kde α k 1,s, β k 1,s pro s = 1, 2,..., k 1 jsou matice minimalizující E(u k 1,t+k ) 2, resp. E(v k 1,t ) 2. Dále označíme V u (k) = var(u k 1,t+k ) V v (k) = var(v k 1,t ) V vu (k) = cov(u k 1,t+k, v k 1,t ). 24

Označme D v (k) diagonální matici, která má na diagonále odmocniny příslušných diagonálních prvků matice V v (k), a D u (k) diagonální matici analogicky odvozenou z V u (k). Pak se funkce ξ(k) = (D v (k)) 1 V vu (k)(d u (k)) 1 definovaná pro k = 1, 2,... nazývá parciální autokorelační maticová funkce náhodné posloupnosti {X t }. Parciální autokorelační maticová funkce ξ(k) posloupnosti {X t, t Z} je mnohorozměrnou analogií parciálního autokorelačního koeficientu, a to v tom smyslu, že parciální autokorelační maticová funkce v bodě k je korelační maticí mezi X t a X t+k při pevných hodnotách X t+1,..., X t+k 1. 3.2 Mnohorozměrný ARMA model Definice 3.7: Bílý šum Bílý šum {Y t, t Z} je náhodná posloupnost, EY t = 0 pro všechna t Z, autokovarianční maticová funkce R(s, t) je nulová matice pro všechna s t, s, t Z a R(t, t) je konečná, symetrická, pozitivně definitní matice a je stejná pro všechna t Z. Úmluva 3.8: Pro bílý šum se někdy zavádí označení W N(0, Σ) (z anglického white noise), kde Σ značí varianční matici bílého šumu R(0). Definice 3.9: Operátor zpětného posunutí Nechť {X t, t Z} je systém m-rozměrných náhodných vektorů. Pak se operátor B, který pro všechna t Z vektoru X t přirazuje vektor X t 1, nazývá operátor zpětného posunutí. Pro n = 1, 2,... definujeme rekurentně operátor n-násobného zpětného posunutí: Nejprve položíme B 1 X t = BX t = X t 1, dále pak B n X t = B(B n 1 X t ) =... = X t n. Definice 3.10: Klouzavé součty Náhodná centrovaná m-rozměrná posloupnost {X t, t Z} definovaná předpisem X t = Y t + Θ 1 Y t 1 + Θ 2 Y t 2 +... + Θ q Y t q, t Z kde {Y t, t Z} je m-rozměrný bílý šum a Θ 1, Θ 2,..., Θ q jsou matice typu m m, přičemž Θ q je nenulová, se nazývá posloupnost klouzavých součtů řádu q, značíme MA(q). Označíme-li Θ(B) = q i=0 Θ ib i, kde B je operátor zpětného posunutí a Θ 0 = I je jednotková matice, lze ekvivalentně psát X t = Θ(B)Y t. 25

Definice 3.11: Autoregresní posloupnost Náhodná centrovaná m-rozměrná posloupnost {X t, t Z} se nazývá autoregresní posloupnost řádu p (značíme AR(p)), jestliže vyhovuje rovnici X t = Y t Φ 1 X t 1 Φ 2 X t 2... Φ p X t p, t Z, kde Φ 1, Φ 2,..., Φ p jsou matice typu m m, přičemž Φ p je nenulová a {Y t, t Z} je m-rozměrný bílý šum. Označíme-li Φ(B) = p i=0 Φ ib i, kde Φ 0 = I je jednotková matice, lze ekvivaletně psát Definice 3.12: Posloupnost ARMA Φ(B)X t = Y t. Náhodná centrovaná posloupnost {X t, t Z} se řídí modelem ARMA(p, q), jestliže Φ(B)X t = Θ(B)Y t, kde p, q, Θ 0, Θ 1,..., Θ q, Φ 0, Φ 1,..., Φ p, Θ(B) a Φ(B) jsou jako v předchozích definicích. Model ARM A(p, q) je tedy smíšený model autoregrese a klouzavých součtů. Odtud plyne i označení a je zřejmé, že posloupnosti AR(p) a MA(q) lze považovat za jeho speciální případy. 3.2.1 Stacionarita a invertibilita posloupností ARMA Definice 3.13: Sčitatelnost v absolutní hodnotě Posloupnost matic {Ψ s, s N 0 }, kde Ψ s = [ψ ij,s ] i,j=1,2,...,m se nazývá sčitatelná v absolutní hodnotě, jestliže s=0 ψ ij,s < pro všechna i a j. Definice 3.14: Stacionarita Nechť {X t } je posloupnost ARMA(p, q). Posloupnost {X t } se nazývá stacionární, jestliže existuje posloupnost matic {Ψ s, s N 0 } sčitatelná v absolutní hodnotě a taková, že X t = s=0 Ψ sy t s. Nejjednodušším příkladem stacionární posloupnosti je libovolná posloupnost M A(q). Věta 3.15: Stacionární posloupnost ARM A(p, q) je centrovaná slabě stacionární náhodná posloupnost. Věta 3.16: Podmínka stacionarity Posloupnost ARMA(p, q) daná rovnicí Φ(B)X t = Θ(B)Y t je stacionární, pokud kořeny polynomu det(φ(b)) leží vně jednotkového kruhu. 26

Definice 3.17: Invertibilita Nechť {X t } je posloupnost ARMA(p, q). Posloupnost {X t } se nazývá invertibilní, jestliže existuje posloupnost matic {Π s, s N 0 } sčitatelná v absolutní hodnotě a taková, že Y t = s=0 Π sx t s. Věta 3.18: Podmínka invertibility Posloupnost ARM A(p, q) s konečnou kovarianční maticovou funkcí daná rovnicí Φ(B)X t = Θ(B)Y t je invertibilní, pokud kořeny polynomu det(θ(b)) leží vně jednotkového kruhu. 3.3 Identifikace ARMA modelu Identifikace modelu je první fází výstavby modelu a jejím úkolem je rozhodnout, jaký typ modelu vybrat (tj. zda AR, MA nebo ARMA) a explicitně určit řád modelu. Výsledkem identifikační fáze je tedy např. stanovení modelu AR(2) jako vhodného modelu pro modelování předložené časové řady. Určení řádů p a q modelu je založeno na zkoumání výběrové autokorelační maticové funkce a výběrové parciální autokorelační maticové funkce. Obvykle stačí použít jen několik prvních hodnot těchto funkcí, například 10 až 20, přitom by se jich nemělo používat víc než N. V případě nejasné volby mezi několika modely je vhodné pokračovat se všemi 4 modely a pro ten správný se rozhodnout až ve fázi verifikace modelu. Dále budeme pojmem časová řada rozumět řadu pozorovaných hodnot, přičemž hodnotu v čase t budeme značit x t. Pro teoretický popis budeme i nadále používat pojem náhodná posloupnost a příslušné náhodné vektory značit X t. Složky těchto jednotlivých vektorů budeme značit x t,i, resp. X t,i pro i = 1, 2,..., m. Rozsah výběru x t budeme označovat N, tzn. předpokládáme, že známe vektory x t pro t = 1, 2,..., N. 3.3.1 Výběrová autokovarianční a autokorelační matice Úmluva 3.19: V dalším textu bude x i = 1 N N x t,i, t=1 i = 1, 2,..., m značit odhad i-té složky vektoru středních hodnot časové řady. 27

Definice 3.20: Výběrová autokovarianční matice Nechť časová řada {x t, t = 1, 2,..., N}, N N je realizací náhodné posloupnosti {X t, t N}. Pak se matice ˆR(k) s prvky ˆR ij (k) = 1 N N k t=1 (x t,i x i )(x t+k,j x j ) nazývá výběrová autokovarianční matice. Definice 3.21: Výběrová autokorelační matice Nechť časová řada {x t, t = 1, 2,..., N}, N N je realizací náhodné posloupnosti {X t, t N}. Pak se matice ˆr(k) s prvky ˆr ij (k) = N k t=1 (x t,i x i )(x t+k,j x j ) N t=1 (x t,i x i ) 2 N t=1 (x t,j x j ) 2 nazývá výběrová korelační matice. Autokovarianční maticová funkce je vhodným nástrojem pro určení řádu q, chceme-li popsat pozorovanou časovou řadou modelem M A(q). Věta 3.22: Autokovarianční maticová funkce R(k) posloupnosti M A(q) je nulová pro všechna k > q. Řád q se tedy volí takový, jaké je poslední k, pro které je ještě výběrová autokovarianční matice ˆR(k) statisticky významně nenulová. Věta 3.23: Asymptotické vlastnosti výběrové autokorelační matice Pokud pro prvky autokorelační maticové fuknce platí r ij (k) = 0 pro k > q pro nějaké q, pak pro k > q a pro velká N má ˆr ij (k) asymptoticky normální rozdělení s nulovou střední hodnotou a rozptylem Navíc pro k > q má statistika σ ij (k) 2 = 1 ( 1 + 2 N k m i=1 m j=1 k s=1 ( ˆrij (k) ) 2 σ ij (k) ) r ii (s)r jj (s). asymptoticky χ 2 rozdělení o m 2 stupních volnosti. 28

Test nulovosti prvků autokorelační matice S využitím věty 3.23 můžeme testovat hypotézu o nulovosti jednotlivých autokorelačních koeficientů. Testujeme nulovou hypotézu, že r ij (k) = 0 pro k > q pro zvolené q, proti alternativě r ij (k) 0 pro nějaké k > q. Pak vzhledem k asymptoticky normálnímu rozdělení ˆr ij (k) zamítáme na hladině α nulovou hypotézu ve prospěch alternativy, pokud ˆr ij (k) ˆσ ij (k) > u 1 α 2 pro některé k, kde u β je β-kvantil standardního normálního rozdělení a ˆσ ij (k) = 1 N k (1 + 2 k 1/2. ˆr ii (s)ˆr jj (s)) Vzhledem k tomu, že r ij (k) = r ij ( k) pro k 0, stačí ˆr ij (k) uvažovat pro kladná k. Test nulovosti autokorelační matice S využitím věty 3.23 lze také testovat nulovost celé výběrové autokorelační matice. Její nulovost zamítáme, pokud m i=1 m j=1 s=1 ( ˆrij (k) ) 2 > χ 2 m2(1 α), ˆσ ij (k) kde χ 2 m 2 (β) je β-kvantil χ 2 rozdělení o m 2 stupních volnosti. 3.3.2 Výběrová parciální autokorelační matice Definice 3.24: Výběrová parciální autokorelační matice Nechť časová řada {x t, t = 1, 2,..., N}, N N je realizací náhodné posloupnosti {X t, t N}. Pak se matice ˆξ(k) vypočtená podle následujícího rekurentního algoritmu nazývá výběrová parciální autokorelační matice. V [10] na str. 359-361 je uvedený algoritmus výpočtu výběrové parciání autokorelační matice. Pro k = 1 je Dále pro k 2 a s = 1, 2,..., k 1 je V u (1) = V v (1) = ˆR(0), V vu (1) = ˆR(1), α 1,1 = ˆR(1) T ( ˆR(0)) 1, β 1,1 = ˆR(1)( ˆR(0)) 1. V u (k) = ˆR(0) k 1 α k 1,s ˆR(s), s=1 V v (k) = ˆR(0) k 1 β k 1,s ˆR(s) T, 29 s=1

V vu (k) = ˆR(k) k 1 s=1 α k,k = V vu (k) T (V v (k)) 1, ˆR(k s)α T k 1,s, α k,s = α k 1,s α k,k β k 1,k s, β k,k = V vu (k)(v u (k)) 1, β k,s = β k 1,s β k,k β k 1,k s. Nechť D v (k) a D u (k) jsou jako v definici 3.6. Pak ˆξ(k) = (D v (k)) 1 V vu (k)(d u (k)) 1. Parciální autokorelační funkce je vhodným nástrojem pro určení řádu p, chceme-li popsat pozorovanou časovou řadou modelem AR(p). Věta 3.25: Parciální autokorelační maticová funkce ξ(k) posloupnosti AR(p) je nulová pro k > p. Řád p se tedy volí takový, jaké je poslední k, pro které je ještě výběrová parciální autokovarianční matice ˆξ(k) statisticky významně nenulová. Věta 3.26: Asymptotické vlastnosti výběrové parciální autokorelační matice Nechť časová řada {x t, t = 1, 2,..., N}, N N je realizací posloupnosti AR(p). Pak pro k > p a pro velká N má ˆξ ij (k) asymptoticky normální rozdělení s nulovou střední hodnotou a rozptylem 1. Navíc pro k > p má N k statistika m m 2 (N k) (ˆξij (k)) i=1 j=1 asymptoticky χ 2 rozdělení o m 2 stupních volnosti. Test nulovosti prvků parciální autokorelační matice Test nulovosti jednotlivých prvků parciální autokorelační matice využívá jejich asymptoticky normálního rozdělení. Nulovost zamítáme na hladině α, pokud 1 ˆξ ij (k) > u 1 α. 2 n k Test nulovosti parciální autokorelační matice Test nulovosti celé parciální autokorelační matice je také založen na větě 3.26. Nulovost zamítáme na hladině α, pokud (N k) m i=1 m j=1 ) 2 (ˆξij (k) > χ 2 m2(1 α). 30

3.3.3 Shrnutí volby řádu modelu Přestože výpočet výběrové autokorelační matice a výběrové parciální autokorelační matice je k odhadu řádu příslušné posloupnosti nezbytný, univerzální návod k volbě řádů p a q obvykle nedává. Zřejmým nedostatkem výše popsaných metod je fakt, že nedávají návod, jak volit řády smíšeného modelu ARMA(p, q). Navíc i v případě, že se podaří zvolit konkrétní model AR, MA nebo ARMA, jedná se do značné míry o subjektivní odhad. Volba řádů smíšeného modelu ARMA Jednou z možností vhodnou zejména pro mnohorozměrné časové řady s méně složkami je zkoumat korelační strukturu po složkách a přistupovat k ní jako v případě jednorozměrných časových řad. Proto tu zapíšeme shrnutí poznatků o tvaru autokorelační a parciální autokorelační funkce, jak je uvedena v [3] na straně 120. AR(p) M A(q) ARM A(p, q) r(k) neexistuje k 0, k 0 = q neexistuje k 0, r(k) ve tvaru U r(k) ve tvaru U po prvních q p krocích ξ(k) k 0 = p neexistuje k 0, neexistuje k 0, ξ(k) omezená křivkou U ξ(k) omezená křivkou U po prvních p q krocích Tabulka 3.27: Tvar autokorelační a parciální autokorelační funkce procesů AR(p), MA(q) a ARMA(p, q) V tabulce uvedený symbol U označuje křivku ve tvaru lineární kombinace klesajících geometrických posloupností a sinusoid s geometricky klesající amplitudou. Dále k 0 je takové, že pro k > k 0 je r(k) = 0, resp. ξ(k) = 0. Za p a q pro zkoumanou mnohorozměrnou řadu pak volíme maximální hodnoty z p a q nalezených pro jednotlivé složky. Další možností v případě, že se nepodařilo zvolit žádný AR ani MA model, je zvolit například model ARMA(1, 1), nebo ARMA(1, 2) či ARMA(2, 1). Pro tento model by se pak provedl odhad parametrů a verifikace modelu. Pokud by byly zvolené řády příliš vysoké, projeví se to při odhadech parametrů. Volba příliš nízkých řádů se odhalí ve fázi verifikace. Jiným možným postupem při identifikaci modelu jsou statistická rozhodovací kritéria. Statistická rozhodovací kritéria Nejpoužívanějším kritériem je Akaikeho informační kritérium, které má tvar ( ) AIC(p, q) = log det(ˆσ p,q ) + 2m2 (p + q), (3.1) N kde p a q jsou řády modelu a ˆΣ p,q příslušný odhad varianční matice bílého šumu. Za optimální model by pak měl být považovám ten, který AIC minimalizuje. 31

Z dalších kritérií připomeňme Baysovské informační kritérium, které má tvar ( ) BIC(p, q) = log det(ˆσ p,q ) + 2m 2 (p + q) log N N a se kterým se zachází stejně jako s AIC. 3.3.4 Odhad parametrů modelu V případě, že jsou již určeny řády modelu, je možno přistoupit k odhadu parametrů Θ 1, Θ 2,..., Θ q, Φ 1, Φ 2,..., Φ p a Σ modelu ARMA(p, q). V praxi se nejčastěji používá odhad momentovou metodou a metodou maximální věrohodnosti. Podrobněji se těmito metodami nebudeme zabývat, více o tom např. v [10], kapitola 7 nebo [6] strany 29-30. 3.3.5 Verifikace modelu Verifikace modelu spočívá v analýze reziduí ŷ t = x t + ˆΦ 1 x t 1 +... + ˆΦ p x t p ˆΘ 1 ŷ t 1... ˆΘ q ŷ t p. Pokud je model zvolen správně, rezidua ŷ t budou realizacemi mnohorozměrného bílého šumu, tudíž by měla mít nulovou střední hodnotu a nebýt navzájem korelovaná. Jednotlivé složky vektoru ŷ t však korelované být mohou. K dispozici máme pozorování x t pro t = 1, 2,..., N, proto je možné vypočítat rezidua ŷ t pouze pro t = r + 1, r + 2,..., N, kde r = max(p, q). Test nulovosti střední hodnoty reziduí Test nulovosti reziduí je založen na skutečnosti, že za nulové hypotézy jsou rezidua ŷ t realizacemi bílého šumu W N(0, Σ). Předpokládáme také nekorelovanost pro různá t. Máme odhad ˆΣ rozptylové matice Σ (jejich prvky označme ˆσ ij, resp. σ ij ). Za předpokladu normality a za nulové hypotézy mají výběrové průměry ȳ i = 1 N r N i=r+1 ŷ t,i i = 1, 2,..., m asymptoticky normální rozdělení s nulovou střední hodnotou a rozptylem σ ii. Nulovost N r střední hodnoty reziduí zamítáme na hladině α, když pro nějaké i je ȳ i > u 1 α 2 ˆσii N r, resp. ȳ i > 2 ˆσii N r pro α = 0, 05. Test normality reziduí Testování normality reziduí je do značné míry subjektivním procesem. Je možné například posuzovat histogramy jednotlivých složek reziduí, porovnávat výběrovou šikmost 32

a špičatost s příslušnými ukazateli normálního rozdělení. Test nekorelovanosti reziduí Testování nekorelovanosti reziduí se provádí pomocí výběrové autokorelační matice řady {ŷ t }. Za nulové hypotézy jsou rezidua realizací bílého šumu, jehož autokorelační maticová funkce r(k) je nulová pro k 0. Z věty 3.23 pak plyne, že ˆr ij (k) mají asymptoticky normální rozdělení s nulovou střední hodnotou a rozptylem 1. N k Nulovost r ij (k) zamítáme na hladině α, pokud ˆr ij (k) > u 1 α 2 1 N k, resp. ˆr ij (k) > 2 N k pro α = 0, 05. 33

Kapitola 4 Grafické modely a vektorová autoregrese Tato kapitola popisuje identifikaci a odhad strukturální vektorové autoregrese s použitím metodologie grafických modelů. Citujeme zde pouze z článku [9]. 4.1 Vektorová autoregrese Definice 4.1: Vektorová autoregrese Kanonický vektorový autoregresní model p-tého řádu, AR(p), stacionární m- rozměrné časové řady X t = (X t,1, X t,2,..., X t,m ) T má tvar: X t = c Φ 1 X t 1 Φ 2 X t 2... Φ p X t p + e t, (4.1) kde e t je mnohorozměrný bílý šum s varianční maticí V. Kostanta c je pro centrovaný proces nulová. V dalším budeme předpokládat, že jde o centrovanou Gaussovskou časovou řadu a že e t jsou nezávislé, stejně rozdělené náhodné vektory. Řád autoregrese p může být určen různými metodami, včetně zkoumání výběrové parciální autokorelační matice, nebo minimalizací některého rozhodovacího kritéria, např. AIC, jak bylo zmíněno v kapitole 3. Kanonický model však neodhalí vztahy mezi složkami vektoru X t. Proto se uvažuje strukturální model AR(p) ve tvaru, jak je uveden v (4.1), ale s přidáním závislostí mezi promněnnými v čase t pomocí matice Φ 0 : Φ 0 X t = d Φ 1X t 1 Φ 2X t 2... Φ px t p + a t. (4.2) Vztah mezi tvarem (4.1) a (4.2) je dán rovnicemi Φ i = Φ 0 Φ i a Φ 0 e t = a t. V centrované řadě je d = 0. Ve vztahu (4.2) je požadováno, aby varianční matice D vektoru a t byla diagonální. Další podmínka na Φ 0 je, že reprezentuje závislost každé složky 34

vektoru X t na ostatních současných složkách. To je ekvivalentní s existencí permutace složek vektoru X t tak, aby matice Φ 0 byla trojúhelníková s jedničkami na diagonále. Každé možné přeuspořádání složek X t proto může dávat odlišný tvar (4.2), ale všechny jsou statisticky ekvivalentní, odpovídají vztahu: V 1 = Φ T 0 D 1 Φ 0. Význam (4.2) spočívá v možnosti, že existuje vztah, který obsahuje méně parametrů než buď (4.1) nebo jiný tvar (4.2). To je zohledněno v možnosti vyloučit mnohé prvky Φ 0 a Φ i. V dalším textu se budeme zabývat identifikací strukturálního modelu s využitím teorie grafických modelů 4.2 Identifikace strukturálních autoregresí Předpokládejme, že k dané časové řadě máme určený řád p kanonického autoregresního modelu AR(p). Identifikace strukturální vektorové autoregrese začíná sestrojením CIG. Využijeme při tom matici dat X typu (N p) (p + 1)m tvořenou sloupci (X p+1 k,i,..., X N k,i ) T pro každé i = 1,..., m a k = 0,..., p. Předpokládáme, že časová řada je centrovaná, proto pro výpočet výběrové varianční matice můžeme použít vztah (1.2), kde N nahradíme N p. Podle postupu uvedeného v kapitole 2.4 zkonstruujeme CIG s tím rozdílem, že nás zajímají pouze hrany mezi proměnnými v čase t a hrany směřující ze zpožděných proměnných do přítomnosti. Pro stacionární AR(p) model CIG sestávající pouze z výše specifikovaných hran se nezmění, pokud maximální zpoždění použité při konstrukci grafu je větší než řád p. Ovšem může zde dojít ke snížení efektivnosti v statistickém usuzování. K nalezenému CIG určíme DAG. Orientaci hran volíme z minulosti do přítomnosti. Problémem je volba orientace hran mezi současnými proměnnými v DAG. Vycházet by se mělo z logických souvislostí, přičemž se snažíme zabránit nutnosti moralizace. DAG určí regresní rovnice, u nichž odhadneme parametry. Testování nulovosti regresních koeficientů naznačí možné zjednodušení modelu. Kvalitu modelu pak posuzujeme pomocí deviance Dev = N log ˆσ 2 r, kde N = N p a ˆσ 2 r jsou odhady reziduálních rozptylů v jednotlivých regresních rovnicích. Jako příklad uvažujme strukturální AR(1) model pro řadu X t = (x t, y t, z t ) T. Φ 0 (x t, y t, z t ) T = Φ 1(x t 1, y t 1, z t 1 ) T, kde matice Φ 0 = [φ ij0 ] i,j=1,2,3 a Φ 1 = [φ ij1] i,j=1,2,3 jsou uvedené ve vztahu (4.3). 1 0 0 x t φ 111 0 φ 131 x t 1 φ 210 1 0 y t = 0 φ 221 0 y t 1 (4.3) 0 φ 320 1 z t 0 0 φ 331 z t 1 35

Rozepsáním po složkách pak získáváme rovnice: x t = φ 111x t 1 + φ 131z t 1 y t = φ 210 x t + φ 221y t 1 z t = φ 320 y t + φ 331z t 1 Příslušný DAG je na obrázku 4.2(a). Orientace hran v něm byla zavedena následujícím způsobem. Situace dovoluje 3 možné orientace hran v DAG, x t y t z t, x t y t z t a x t y t z t, se 4 možností x t y t z t vyloučenou kvůli nutnosti přidat morální hranu mezi x t a z t v CIG. Hrana x t 1 x t určitě není morální hrana. To implikuje orientaci x t y t, jinak by musela být přidána morální hrana mezi x t 1 a y t. Pak x t y t z t je jediná možná orientace hran mezi současnými proměnnými. CIG, který jsme obdrželi moralizací DAG, je na obrázku 4.2(b). Poznamenejme ještě, že hranu mezi x t 1 a z t 1, která by měla být při moralizaci přidána, nebudeme uvažovat. Finální DAG je na obrázku 4.2(c). x t x t 1 y t y t 1 z t z t 1 (a) x t x t 1 y t y t 1 z t z t 1 (b) x t x t 1 y t y t 1 z t z t 1 (c) Obrázek 4.2: (a) DAG reprezentující model (4.3), (b) morální graf odvozený od (a), (c) DAG reprezentující model (b) Orientované hrany x t 1 x t, y t 1 y t a z t 1 z t nemohou být interpretovány jako morální hrany. Každá ze zbývajících hran y t 1 x t, z t 1 x t a z t 1 y t může být takto interpretována. Odhady parametrů ve vybraném modelu jsou konstruovány na základě jednotlivých regresních rovnic vytvořených podle DAG z obrázku 4.2(c). V našem případě jsou to rovnice: x t = β (1) 1X x t 1 + β (1) 1Y y t 1 + β (1) 1Z z t 1 y t = β (2) 0X x t + β (2) 1Y y t 1 + β (2) 1Z z t 1 z t = β (3) 0Y y t + β (3) 1Z z t 1 Konkrétně ukážeme popsaný přístup včetně odhadů a testování nulovosti v regresních rovnicích na zpracování finančních dat v následující kapitole. 36

Kapitola 5 Zpracování finančních dat V této kapitole aplikujeme dosud popsanou teorii na konkrétní mnohorozměrnou časovou řadu. Nejprve se budeme zabývat identifikováním mnohorozměrného kanonického ARM A modelu. Pro další účely nám postačí jenom určení řádu modelu, explicitní odhad parametrů nebudeme potřebovat (jen pro výpočty ve fázi verifikace). K samotné identifikaci kanonického modelu využijeme část programu uvedeného v [6], který jsme doplnili o identifikaci strukturálních modelů. A v dalším budeme pokračovat s grafickými modely. Všechny potřebné výpočty budou prováděné v systému Mathematica 5.0, část programu na identifikaci ARM A modelu vyžaduje speciální knihovnu Time Series Pack. Pro práci v této knihovně je užitečná příručka [5]. Pracovat budeme s dvourozměrnou časovou řadou tvořenou měsíčními průměrnými kurzy CZK/EUR a CZK/USD od ledna 1999 (zavedení eura) do srpna 2007. Data pocházejí z internetových stránek ČNB [12]. Celkem máme k dispozici 104 pozorování vektoru (CZK/EUR, CZK/USD) T. Složky vektoru jsou znázorněné na obrázku 5.1. Obrázek 5.1: Měsíční průměrné kurzy CZK/EUR a CZK/USD Značení 5.2: Měsíční průměrné kurzy CZK/EUR (později pak transformované) budeme značit y t, t = 1,..., 104 (po transformaci t = 1,..., 103). Měsíční průměrné kurzy CZK/USD (později pak transformované) budeme značit z t, t = 1,..., 104 (po transformaci t = 1,..., 103) Dvourozměrný vektor (y t, z t ) T budeme značit X t pro t = 1,..., 103. 37