Pravděpodobnostní metody

Podobné dokumenty
Značení 1.1 (posloupnost výsledků pokusu). Mějme posloupnost opakovaných (i závislých) pokusů,

NMAI059 Pravděpodobnost a statistika

Téma 22. Ondřej Nývlt

Výběrové charakteristiky a jejich rozdělení

Pravděpodobnost a aplikovaná statistika

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

Pravděpodobnost a statistika (BI-PST) Cvičení č. 4

prof. RNDr. Roman Kotecký DrSc., Dr. Rudolf Blažek, PhD Pravděpodobnost a statistika Katedra teoretické informatiky Fakulta informačních technologií

Poznámky k předmětu Aplikovaná statistika, 5.téma

Přednáška. Další rozdělení SNP. Limitní věty. Speciální typy rozdělení. Další rozdělení SNP Limitní věty Speciální typy rozdělení

Náhodné vektory a matice

KGG/STG Statistika pro geografy

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

I. D i s k r é t n í r o z d ě l e n í

Definice spojité náhodné veličiny zjednodušená verze

p(x) = P (X = x), x R,

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

8.1. Definice: Normální (Gaussovo) rozdělení N(µ, σ 2 ) s parametry µ a. ( ) ϕ(x) = 1. označovat písmenem U. Její hustota je pak.

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

Náhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost

Vícerozměrná rozdělení

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!

1 Linearní prostory nad komplexními čísly

Charakterizace rozdělení

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

ROZDĚLENÍ SPOJITÝCH NÁHODNÝCH VELIČIN

15. T e s t o v á n í h y p o t é z

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace

Fakt. Každou soustavu n lineárních ODR řádů n i lze eliminací převést ekvivalentně na jednu lineární ODR

Náhodná veličina. Michal Fusek. 10. přednáška z ESMAT. Ústav matematiky FEKT VUT, Michal Fusek

INTEGRÁLY S PARAMETREM

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce

Úvod do lineární algebry

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace

E(X) = np D(X) = np(1 p) 1 2p np(1 p) (n + 1)p 1 ˆx (n + 1)p. A 3 (X) =

PRAVDĚPODOBNOST A STATISTIKA

MATEMATICKÁ STATISTIKA

12. cvičení z PSI prosince (Test střední hodnoty dvou normálních rozdělení se stejným neznámým rozptylem)

TEORIE MÍRY V některých předchozích kapitolách jste se setkali s měřením velikostí množin a víte, jaké byly těžkosti s měřením množin i na reálné ose.

PRAVDĚPODOBNOST A STATISTIKA aneb Krátký průvodce skripty [1] a [2]

VYBRANÁ ROZDĚLENÍ. DISKRÉTNÍ NÁH. VELIČINY Martina Litschmannová

Základy teorie pravděpodobnosti

Markovské metody pro modelování pravděpodobnosti

Intuitivní pojem pravděpodobnosti

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

VYBRANÁ ROZDĚLENÍ. SPOJITÉ NÁH. VELIČINY Martina Litschmannová

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

Bayesovské metody. Mnohorozměrná analýza dat

Náhodný vektor a jeho charakteristiky

LIMITNÍ VĚTY DALŠÍ SPOJITÁ ROZDĚLENÍ PR. 8. cvičení

5. Náhodná veličina. 2. Házíme hrací kostkou dokud nepadne šestka. Náhodná veličina nabývá hodnot z posloupnosti {1, 2, 3,...}.

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D.

18 Fourierovy řady Úvod, základní pojmy

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory

1 Rozptyl a kovariance

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

6.1 Normální (Gaussovo) rozdělení

Zavedení a vlastnosti reálných čísel

Pravděpodobnost a statistika

AVDAT Náhodný vektor, mnohorozměrné rozdělení

10. Soustavy lineárních rovnic, determinanty, Cramerovo pravidlo

Pravděpodobnost a statistika I KMA/K413

19 Hilbertovy prostory

Cvičení ze statistiky - 5. Filip Děchtěrenko

MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc.

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

Statistika II. Jiří Neubauer

Operace s maticemi. 19. února 2018

PŘEDNÁŠKA 2 POSLOUPNOSTI

Interpolace, ortogonální polynomy, Gaussova kvadratura

Posloupnosti a řady. 28. listopadu 2015

populace soubor jednotek, o jejichž vlastnostech bychom chtěli vypovídat letní semestr Definice subjektech.

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Pravděpodobnost a její vlastnosti

ALGEBRA. Téma 5: Vektorové prostory

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

PRAVDĚPODOBNOST A STATISTIKA

Základy maticového počtu Matice, determinant, definitnost

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

MKI Funkce f(z) má singularitu v bodě 0. a) Stanovte oblast, ve které konverguje hlavní část Laurentova rozvoje funkce f(z) v bodě 0.

AKM CVIČENÍ. Opakování maticové algebry. Mějme matice A, B regulární, potom : ( AB) = B A

Chyby měření 210DPSM

Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Hodíme dvěma kostkami jaký padl součet?

NÁHODNÉ VELIČINY JAK SE NÁHODNÁ ČÍSLA PŘEVEDOU NA HODNOTY NÁHODNÝCH VELIČIN?

Operace s maticemi

Diferenˇcní rovnice Diferenciální rovnice Matematika IV Matematika IV Program

Regresní a korelační analýza

Apriorní rozdělení. Jan Kracík.

Dnešní látka Variačně formulované okrajové úlohy zúplnění prostoru funkcí. Lineární zobrazení.

NÁHODNÁ ČÍSLA. F(x) = 1 pro x 1. Náhodná čísla lze generovat některým z následujících generátorů náhodných čísel:

PRIMITIVNÍ FUNKCE. Primitivní funkce primitivní funkce. geometrický popis integrály 1 integrály 2 spojité funkce konstrukce prim.

1 Determinanty a inverzní matice

Transkript:

Pravděpodobnostní metody Úvod. Zákl. definice Definice (Jevy) Pro diskrétní pozorování: Ω lib. konečná nebo spočetná množ. pravděpodobnostní prostor, ω i Ω elementární jevy A, B, Ω jevy, odp. nějakým reálným otázkám pokusu Definice (Pravděpodobnostní prostor) Pravděpodobnostní prostor (Ω, A, P ), kde A je mn. spočetných sjednocení a průniků jevů a P zobrazení: P (A) : A [0, ], t.ž. O P (A), P (Ω) =, P ( i A i ) = i P (A i) pro A i A j =, pro nedisjunktní používám PIE. Definice (Podmíněná pravděpodobnost) P (A B) = P (A B) P (B), pokud P (B) 0. Zmenším si tak soubor výsledků, zjednoduším úlohu. Definice (Nezávislost jevů) V prostoru (Ω, A, P ) jsou A a B nezávislé, pokud P (A B) = P (A), tj. P (A B) = P (A)P (B) A nastane se stejnou pravděpodobností, ať už B nastalo, nebo ne. A,..., A n jsou sdruženě nezávislé, pokud i,..., i k (k = 2,..., n) platí P (A i A ik ) = k j= P (A i j ), tj. jakákoliv podmnožina je nezávislá. Definice (Úplná pravděpodobnost) Uvažujeme dělení prostoru (Ω, A, P ) na mřížku, tj. Ω := n i= H i, kde H i H j = (i j); pak H i je úplný systém jevů. H i jsou disjunktní, ale nemusí být nezávislé. Potom platí: P (A) = P (A Ω) = P (A ( i H i )) = i P (A H i ) = i P (A H i )P (H i ) Věta (Bayesova věta) P (H i A) = P (H i A) P (A) = P (A H i)p (H i ) j P (A H j)p (H j ) Definice (Náhodná veličina) je zobrazení X : (Ω, A, P ) (R, B ) (kde B značí borellovské množiny), náhodná funkce. Zjednodušuje počítání, konstrukce prostoru pravděpodobnosti může v někt. případech dělat potíže..2 Rozdělení Definice (Rovnoměrné) P (X = i) = n i {,..., n} žádná z možností není pravděpodobnější než ostatní. Definice (Poissonovo(λ)) λ λk P (X = k) = e k! pro k = 0,... docela umělé, ale občas se objevuje jako limitní rozdělení, faktoriál rychle dotlačí pravděpodobnosti k 0 rozdělení řídkých jevů. Definice (Binomické rozdělení(p, n)) P (X = k) = ( n k) p k ( p) n k např. opakované tahání kuliček z osudí s vracením součet nezávislých jevů z alt. rozdělení.

Definice (Hypergeometrické rozdělení(n, M, n)) P (X = k) = (M k )( N M n k ) tahání bez vracení, tj. jevy jsou závislé. ( N n) Definice (Zobecněné binomické) P (n 0 = 0, n =,..., n k = k) = n 0!n!...n k! pn 0 0 pn k k provádím nezávislých n pokusů, které mohou dopadnout s hodnotou v rozmezí {0,..., k}. Zobecnění na vícerozměrné, tj. vektor. Definice (Geometrické rozdělení, negativně binomické rozdělení) geometrické P (X = n) = p( p) n čekání na. zdar pro alternativní rozdělení. negativně binomické P (X = r) = ( n r ) ( p) n r p r zobecnění, r-tý zdar v n pokusech pro alt. rozdělení..3 Vlastnosti rozdělení Definice (Distribuční funkce) je funkce F (x) : F (x) = P (X x) por nějakou náh. veličinu x. Platí: lim x F (x) = 0, lim x + F (x) =, funkce je neklesající a zprava spojitá. V diskrétním rozdělení lze definovat tabulkou. Definice (Vytvořující funkce) A(x) = i p ix i má jednoznačný vztah k distribuční funkci, ve spojitém případě je to její integrál, v diskrétním platí, že znám-li p i (např. při zadání distribuční funkce tabulkou), pak znám i vytv. funkci a naopak: A(n) (0) = p i. Definice (Střední hodnota) EX = i x ip i = ω X(ω)P (ω) vážený průměr hodnot, z hlediska opakování testu ale nic neříká. platí E(a + bx + cy ) = a + bex + cey a to i když X, Y jsou závislé Definice (Kovariance, korelace) kovariance cov(x, Y ) = E((X EX)(Y EY )) (a pro lineárně nezávislé jevy je nulová) cov(x,y ) korelace popis lin. závislosti X, Y : cor(x, Y ) = var(x) var(y ) Definice (Rozptyl) var(x) = E(X EX) 2 doplnění o další informaci, stř. hodnota čtverce odchylky od stř. hodnoty platí var(a + bx) = b 2 var(x) odmocnina z rozptylu je směrodatná odchylka platí var(a + bx + cy ) = b 2 var(x) + c 2 var(y ) + 2bc cov(x, Y ) Poznámka (Rozdělení součtů) Přesný výpočet pomocí konvolucí: P (X + Y = i) = P (X = j&y = i j) = i j=0 P (X = j)p (Y = i j) Pomocí vytvořujících funkcí X odp. A(X), Y odp. B(X) nezávislé, pak (X + Y ) odpovídá vytv. funkce A(x)B(x) (pro důkaz stačí porovnat koeficienty u jednotlivých x n, indukcí platí i pro součty více veličin). Poznámka (Náhodný součet náhodných veličin) Tj. mám-li náhodný počet náh. (stejně rozdělených) veličin, chci jejich součet (S N = X + + X N ) vytvořující funkce vyjde B(A(x)) (přes P (S N = k) odpovídá k-tému členu n-té konvoluce nez. vel. X i ). Z toho ES N = EX EN. Příklady použití přežití hadích vajíček (X i Alt(p), N P o(x)), n-tá generace / štěpění jader P (P (x)) je druhá generace..4 Věty Věta (Čebyševova nerovnost) P ( X EX ε) var(x) ε 2 plyne z ní konvergence v pravděpodonosti, tj. Xn (p)µ (při opakování pokusů a průměrování výsledku se nemění stř. hodnota, ale rozptyl klesá s n ) 2

Věta (Markovova nerovnost) P ( X EX 2 ε) E X 2 ε 2 Věta (Centrální limitní věta) Platí pro X, X 2... nezávislé a stejně rozdělené, EX i = µ, var(x i ) = σ 2 (konečný rozptyl!). Potom: n i= P ( X i nµ x x) = e t2 2 dt nσ 2 2π Tedy rozdělení součtu nezávislých stejně rozdělených náh. veličin mohu aproximovat Gaussovým rozdělením. Aproximace je dobrá už od n = 20, pro binom. rozdělení od n = 50, p [0., 0.9]. 2 Rekurentní jevy Motivace Mějme náh. veličinu, nabývající hodnot, + s pravděpodobnostmi p, p. V tomhle případě chceme simulovat součet n hodnot S n (např. stav konta po prohrách/výhrách). To nabývá hodnot po celém Z. Chceme zjistit, kdy se dostaneme zpět na 0, jednotlivé hodnoty jsou závislé S n přímo závisí na S n. Definice (Rekurentní jev) Mějme náhodný pokus, s postupnými výsledky E 0, E,... (stav konta) dodanými pomocnými pokusy E j0, E j,... (např. přičítání +, ). Řekneme, že jev ξ nastal v n-tém pokusu (jev ξ je nad E 0, E..., tj. např. stav konta se vrátil na 0 po n-tém pokusu), pokud nastal na konci posloupnosti {E j, E j2..., E jn }. Řeknu, že jev ξ nastal v m-tém a n + m-tém pokusu, pokud nastal na konci posloupnosti {E j, E j2..., E jm } a {E j(m+), E j(m+2)..., E j(m+n) }. Pokud pro takový jev platí P (E j,... E j(m+n) ) = P (E j,... E jm ) P (E j(m+),... E j(m+n) ), nazveme ho rekurentní jev. Neříkám tu nic o závislosti bezprostředně po sobě jdoucích výsledků. Definice (Pravděpodobnosti nastání) Označím pravděpodobnosti. u n = P (ξ nastal v kroku n), vytvořující funkce U(x) 2. f n = P (ξ nastal v kroku n POPRVÉ ), funkce F (x) 3. f r n = P (ξ nastal v kroku n PO r-té ) Poznámka (Vztah u n a f n ) Když jev ξ nastal v kroku n, tak někdy musel nastat poprvé. Pokud to bylo v k-tém kroku, pak lze uvažovat, že ξ nastal na konci posloupnosti délky n k. Podle věty o úplné pravděpodobnosti platí pro každé n : u n = f u n + f 2 u n 2 + + f n u 0 Takže dostávám konvoluci bez členu, dodefinuji u 0 =, f 0 = 0 (potom f n tvoří rozdělení pravděpodobnosti,ale u n ne). Věta (Vztah vytv. funkcí rek. jevů) Platí: U(x) = F (x). Důkaz Z předch. výpočtů dostanu rovnice tvaru u n = f 0 u n + f u n + + f n u 0 (pro každé n > 0, pro n = 0 neplatí!), vynásobím je x n a sečtu po sloupcích, takže dostanu U(x) = u 0 x 0 + U(x)F (x). Věta (Vytv. funkce pro r-tý návrat) Pro rekurentní jevy spočteme vytv. funkci r-tých návratů jako r-tou mocninu vytv. funkce prvních návratů. 3

Důkaz Pro r = 2 podobně jako v předchozí větě, uvažuju jenom, že f 2 n = f 0 f n + f f n + + f n f 0, tj. dostávám úplnou konvoluci pro každé n 0, z ní podobně vynásobením rovnic x n a sečtením po sloupcích dostávám výsledek. Pro r vyšší než 2 plyne zjevně indukcí. Poznámka Chová se podobně jako součet nezávislých náhodných veličin jde vlastně o nezávislé náhodné veličiny T, T 2,..., které představují doby mezi návraty jevu. Po nastání jevu se jede odznova, zapomínám předchozí pokusy, tj. veličiny jsou nezávislé. Proto se doba čekání na n-tý výskyt jevu ξ dá popsat náh. veličinou T + T 2 + T n, kde T i jsou nezávislé, stejně rozdělené a popisují dobu do prvního výskytu jevu. 3 Markovovy řetězce Přechod z rekurentních jevů, změna značení: f i f ii, u i p ii. 3. Definice Definice (Markovův řetězec s diskréním časem a množinou stavů S) Je dána posloupnost náh. veličin {X n, n N 0 } s celočíselnými hodnotami a stavový prostor S Z, definovaný předpisem i S n N : P (X n = i) 0. Potom posloupnost {X n } nazveme Markovův řetězec, pokud splňuje Markovovu vlastnost : P (X n+ = j X n = i, X n = i n,... X 0 = i 0 ) = P (X n+ = j X n = i) n N 0 přičemž musí platit i, j, i n,..., i 0 S : P (X n = i, X n = i n,..., X 0 = i 0 ) > 0. Definice (Pravděpodobnost přechodu) Označíme P ij (n, m + n) := P (X m+n = j X n = i), P ij (n) := P (X n+ = j X n = i). Definice (Pravděpodobnost a stř. hodnota podmíněná stavem) Označíme P j ( ) = P ( X 0 = j), kde znamená libovolný jev, tj. pravděpodobnost nastání mého jevu, za podmínky, že se nacházím ve stavu j. Označíme E j ( ) = E( X 0 = j) střední hodnotu nějakého jevu za předpokladu, že vycházím ze stavu j. Definice (Homogenní Markovův řetězec) Nezávisí-li P ij (n, m + n), potažmo P ij (n) := p ii na n, nazývá se řetězec homogenní. Poznámka Průchod počátečním stavem v Markovově řetězci je rekurentní jev. Průchod nějakým jiným stavem je rekurentní jev se zpožděním, způsobeným nutností poprvé dosáhnout onoho stavu z počátečního. Markovův řetězec lze reprezentovat maticí P = (p ij ) spolu s rozdělením počátečních pravděpodobností (udáním počátečního stavu) a = {a i }. 3.2 Klasifikace stavů Definice (Čas návratu) Označíme minimální čas návratu do stavu j τ j () = inf{n > 0, n N, X n = j} (s inf{ } = ) jako čas prvního návratu. k-tý návrat definujeme rekurentně τ j (k + ) = inf{n > τ j (k) : X n = j} a 0-tý návrat τ j (0) = 0. Definuji:. P i (τ j () = n) := f (n) ij, f (0) ij = 0 (pravděpodobnost prvního přechodu z i do j v čase n) 2. P i (τ j () < ) = n= f (n) ij := f ij (pravd. vůbec nějakého přechodu z i do j) 4

Definice (Trvalý a přechodný stav) Řeknu, že stav j je:. trvalý, když f jj = (v konečném čase se do něj jistě vrátím) 2. přechodný, když f jj < (existuje možnost, že čas návratu je nekonečný) Definice (Nulový a nenulový stav) Řeknu, že trvalý stav j je:. nenulový, když µ j := E j τ j () < + (tj. stř. hodnota času. návratu je konečná) 2. nulový, když µ j = Poznámka (O konvolucích v homogenních mark. řetězcích). p (n) jj 2. p (n) ij = n k=0 f (k) jj p(n k) jj (n ) (pravd. nějakého návratu =. návrat + zbytek) = n (n 0, i j) (. přechod do cíl. stavu + zbytek) k=0 f (k) ij p(n k) jj Věta (O trvalém stavu) Stav v homogením M. ř. je trvalý, právě když n=0 p(n) jj = (pravděpodobnosti návratu pro čas jdoucí k nekonečnu jdou k, tj. sčítám řadu jedniček). Podobně lze definovat, že stav je přechodný, když tato suma konverguje. Poznámka Do trvalého stavu vstoupí nějaká nekonečná markovovská posloupnost stavů nekonečně mnohokrát s pravděpodobností. Stav je přechodný, když počet vstupů do něj v takové posloupnosti je konečný s pravděpodobností. Definice (Periodický a neperiodický stav) Nechť d j je největší společný dělitel čísel n (n N) takových, že p (n) jj > 0. Potom. jestliže d j =, řekneme, že j je neperiodický stav, 2. jestliže d j >, řekneme, že j je periodický stav. Poznámka (Zjišťování stavů na základě konvergence p (n) ij ) V případě, že je stav j přechodný nebo trvalý a nulový, platí lim n p (n) ij nenulový, je tato limita pro nějaké i nenulová. Příklady = 0 i S. Jen je-li stav j trvalý a. Symetrická náh. procházka po přímce začínám z 0, s pravd. /2 jdu doleva a s /2 doprava z každého stavu. Pak je stav 0 trvalý, nulový a periodický s periodou 2. 2. Nesymetrická procházka doleva jdu s pravd. q, doprava s p. Pak stav 0 je přechodný! Používá se v generátorech náh. čísel. 3.3 Stacionární rozdělení Definice (Rozložitelný homogenní Markovův řetězec) Stav E j je dosažitelný ze stavu E i, když existuje n (čas) takové, že p (n) ij > 0. Markovův řetězec je nerozložitelný, jestliže všechny stavy jsou navzájem dosažitelné. 5

Věta (O rozložitelném řetězci) Máme-li homogenní M. řetězec s konečně mnoha stavy, potom je rozložitelný, právě když matice přechodu se dá vyjádřit jako ( ) P P = A B po případných (simultánních!) permutacích sloupců a řádků, a P a B jsou čtvercové. Věta (O dosažitelnosti a typu stavu). Je-li stav j dosažitelný z i a opačně, pak i a j jsou stejného typu (stejná nulovost a periodicita??). 2. Je-li j stav trvalý a k z něj dosažitelný, pak k je trvalý a zároveň j je dosažitelný z k (protože se do j a z něj zas do k určitě v konečném čase vrátím). Důsledek V konečném homogenním Markovově řetězci nemůžou všechny stavy být přechodné a neexistují nulové stavy. Po určité době pohyb v homogenním konečném M. řetězci dospěje do něčeho, čemu říkáme stacionární rozdělení. Definice (Stacionární pravděpodobnostní rozdělení) Mějme homogenní Markovův řetězec {X n }, množinu stavů S a matici pravděpodobností přechodů P. Pak je-li Π = {π, j S} nějaké pravděpodobnostní rozdělení na S (tj. π j 0 j S, j S π j = ), nazveme ho stacionárním rozdělením, platí-li Π T = Π T P (tj. zachovává pro jednotku času rozložení částic ). Poznámka Pro homogenní M. ř. se stacionárním (počátečním) rozdělením platí P (X 0 = i 0,..., X n = i n ) = P k (X 0 = i 0,... x n = i n ) k, i j, j =... k Věta (Vlastnosti nerozložitelného homogenního řetězce) Nerozložitelný homogenní M. řetězec:. má-li všechny stavy přechodné nebo trvale nulové, pak v něm stacionární rozdělení neexistuje 2. má-li všechny stavy tvale nenulové, pak v něm existuje právě jedno stacionární rozdělení. Jsou-li stavy neperiodické, potom navíc platí lim n p (n) ij a lim n p (n) jj = Π j (> 0), j S jsou-li stavy periodické, pak platí (Cauchyovsky) lim k a lim k n n i= p(k) jj = Π j (> 0), j S tj. stacionární rozdělení je limitní, existuje-li. Pro konečný počet stavů nastává určitě varianta 2. Příklady Markovův řetězec daný maticí q p 0 0... q 0 p 0... P = 0 q 0 p... 0 0 q 0.......... = Π j (> 0), i, j S n n i= p(k) ij = Π j (> 0), i, j S kde p + q =, 0 < p <. Je nerozložitelný, hledám stacionární rozdělení, najdu z (Π, Π 2... ) = (Π, Π 2... ) P pomocí rozepsání na nekonečno rovnic, vyjde (z rekurentního vztahu Π j = qπ j + pπ j+ ) vzorec Π j = ( p q )j Π 0 (j N 0 ), potom z nerozložitelnosti jsou stavy nenulové a trvalé; pokud j= Π j konverguje, stacionární řešení existuje. 6

Nějaký automat s posouváním konečné pásky délky n s pravidly 0, L a 0, R a, R (kde je jen na začátku a na konci), na počátku mám na pásce nějaké náh. číslo, kde prvních m (0 m n) jsou jedničky mám useknutě geometricky rozdělenou náh. veličinu. Hledání první jedničky se dá popsat M. ř. s konečně mnoha stavy. Mám N kuliček ve dvou pikslách A a B. V každém kroku náhodně vyberu jednu kuličku a z té piksly, ve které je, jí přesunu do druhé. Tohle se dá simulovat Markovovým řetězcem stav systému popíšu jako počet kuliček v piksle A. n Potom ze stavu E n, kdy v A je n kuliček, jdu s pravděpodobností N do stavu E n a s N n N do stavu E n+. Z toho si můžu udělat matici P a pak hledat Π tak, že Π T = Π T P (nebo P T Π = Π). To se dělá tak, že pro každý stav E n si napíšu rovnici π n = N (n ) N π n + n+ N π n+. (V té matici se podívám na příslušný sloupec jde o součet toho, s jakou pravděpodobností se z jakého stavu dostanu do E i. Když se na to podíváte, tady to platí i pro krajní stavy, kdy jeden z těch členů je prostě nulový.) Z toho můžu vyjádřit rekurentní vztah (protože π 0 = N π a takhle se dá dosazovat dál a dál a dál), vyjde π n = n N π n + n+ N π n+ a z toho dostanu π n+ = N n n+ π n. Z rekurentního vztahu jde pomocí π 0 vyjádřit úplně všechny členy, díky kouzlům s násobením pak vychází, že π n = ( N n) π0. Abych dostal platné pravděpodobnostní rozdělení, součet všech pravděpodobností všech stavů musí dávat jedničku, tj. N ( N ) i= i π0 =. Z binomické věty vyjde, že 2 N π 0 = a tedy π 0 =, a tak dostanu celé 2 N rozdělení. 4 Fronty 4. Exponenciální rozdělení Poznámka (Vztah Exp a Ge) Mezi exponenciálním a geometrickým rozdělením je oboustranný vztah: Exp(λ) Ge( e λ ) Ge(p) Exp( log( p)) Dá se to použít na generování náh. čísel z geom. rozdělení. Důkaz Pro Exp(λ) je hustota pravd. f(x) = λe λx, z toho F (i) = λe λi a potom F (i+) F (i) = ( e λ )(e λ ) i = pq i. Poznámka (Vlastnosti Exp) Nezáleží na tom, kolik už výrobek přežil, ptám-li se na jeho další přežití Exp nemá paměť. P (X > x + y X > x) = e λ(x+y) /e λx = P (X > y) V realitě je to trochu moc pesimistické, ale dobře se s tím počítá. Definice (Intenzita poruch) Jde o pravděpodobnost okamžitého selhání: P (x < X < x + δ X > x) = P (x X x + δ X > x) P (X > x) = δ F (x+δ) F (x) δ F (x) f(x) δ F (x) a právě f(x)/ F (x) je intenzita poruch. Poznámka Intenzita poruch exponenciálního rozdělení je konstantní λ a exponenciální je jediné spojité rozdělení, které má tuto vlastnost. Podobně geometrické rozdělení je jediné diskrétní rozdělení s konstatní intenzitou poruch. 7

4.2 Modely zrodu a zániku Definice (Model zrodu a zániku) Mějme nějaký systém s konečně nebo spočetně mnoha stavy E i, kde je možné se v kroku (v intervalu délky h) buď posunout k sousedním, nebo zůstat ve stejném: E i+ E i E i E i E i+k (k Z) λ i h + o(h) (λ i + µ i )h + o(h) µ i h + o(h) o(h) kde o(h) je libovolně malý člen vzhledem k h ( o(h) h 0 pro h 0). λ i h, µ i h ukazuje, že doby mezi událostmi se řídí exp. rozdělením. Označme P n (t) pravděpodobnost, že v čase t je systém ve stavu E n. Zajímá nás lim t P n (t) := p n, tj. pravděpodobnosti obsazení systému po té, co se stabilizoval. X i, Y i označíme nějaké náh. veličiny doby mezi přechody do vyššího, resp. nižšího stavu. Algoritmus (Výpočet obsazení modelu) Chci zjistit P n (t + h) pro nějaké malé h (tj. pravd., že v čase t + h budu ve stavu n). Potom P n (t + h) = P n (t)( λ n h µ n h + o(h)) +P n+ (t)(µ n+ h + o(h)) +P n (t)(λ n h + o(h)) +o(h) v čase t jsem byl v P n příchod z P n+ příchod z P n přechod o víc Z toho získám pro n (vydělím h a zahodím o(h) h ) P n(t) = (λ n + µ n )P n (t) + µ n+ P n+ (t) + λ n P n (t) Pro E 0 dostanu rovnici P 0(t) = λ 0 P 0 (t) + µ P (t) Z toho mám soustavu dif. rovnic, vezmu nějaké poč. podmínky (P i (0) =, P j (0) = 0, j i, tj. začátek ve stavu E i ) a spočítám. Limity v p n dostanu položením levé strany rovnice (derivací) rovné nule a nahrazením P n (t) přímo p n. Poznámka. Model lze charakterizovat jak počty událostí za daný časový úsek (očekávané λt pro délku T ), tak dobami mezi příchody požadavků tj. je vidět, že mezi těmito věcmi (P o(λ) a Exp(λ)) je nějaký vztah, že jsou převoditelná (viz dále). 2. Více strojů se stejnou intenzitou lze sesypat do jednoho, nezáleží na začátku práce strojů (exp. rozdělení nemá paměť). Definice (Lineární model zrodu a zániku) Mám n jedinců, v čase [t, t + h) každý z nich může umřít (s pravd. µ) nebo se rozdělit na 2 (s pravd. λ). Zvýšení počtu: binomické rozdělení vyberu dělícího se, ostatní se nedělí ( ) n (λh + o(h))( λh µh + o(h)) n = nλh + o(h) Snížení: podobně, vyjde nµh + o(h). Označím F (t, s) := n=0 P n(t)s n vytvořující funkce P n (t) pro nějaký pevný čas t. 8

Věta (O vytvořující funkci lineárního modelu) Pro případ lineárního modelu zrodu a zániku má F (t, s) tvar protože řešení diferenciálních rovnic dává F (t, s) = µ( e(λ µ)t ) (λ µe λ µ)t )s µ λe (λ µ)t λ( e (λ µ)t )s P n (t) = ( A(t))( B(t))(B(t)) n n P 0 (t) = A(t) kde A(t) = µ(eλ µ ) λe (λ µ)t µ a B(t) = λ(e(λ µ)t ) λe (λ µ)t µ Model (M Neomezená ústředna) Mějme tel. ústřednu s neomezeně mnoho linkami, potom µ n = nµ (intenzita ukončení hovoru) a λ n = λ (intenzita navázání hovoru) z exp. rozdělení. Narozdíl od předch. případu nezávisí příchozí hovory na počtu probíhajících. Dosadím do obecných rovnic moje µ n a λ n a dostanu limitní pravděpodobnosti p = λ µ p 0 atd., obecně p n = λn µ n p 0 = ( )( λ µ )n p 0 což odpovídá Poissonovu rozdělení. Najdu p 0, tak aby i= p i = ; z Taylora p 0 i=0 i! ( λ µ )i = p 0 e λ µ, takže p 0 = e λ µ a hledané řešení je P o( λ µ ). Model (M2 Dvojbudka s neomezenou frontou) Příchod zákazníka intenzita λ, obsluha intenzita µ, stav počet obsluhovaných + počet ve frontě. Potom λ n = λ 0 n = 0 a µ n = µ n =. 2µ n 2 p = λ µ p 0 p 2 = λ 2 2 µ 2 p 0 p 3 = 4 ( λ µ )3 p 0 p n = 2 n ( λ µ )n p 0 Dostanu nějaké Ge. Aby se netvořila nekonečně dlouhá fronta, je nutné zachovat podmínku µ > λ. Model (M3 Parkoviště bez fronty / konečná ústředna) N míst, vjezd a výjezd, nesmí se tvořit fronta. Potom λ n = λ (v krátké době projede jen auto), µ n = nµh + o(h) (vyberu auto a nechám ho odjet Bi(n, µh + o(h))) Rovnice pak vyjdou takhle, konkrétní řešení pro P n (t) máme dosazením do obecného vztahu pro dif. rovnice: P 0(t) = λp 0 (t) + µp (t) P n(t) = (λ + nµ)p n (t) + (n + )µp n+ (t) + λp n (t) P N(t) = NµP n (t) + λp N (t) n < N nemůže vzniknout odjezdem auta Limitní rozdělení dostaneme položením derivací nule a vyřešením soustavy za podmínky p i 0, N i= p i = (aby šlo o platné rozdělení pravděpodobnosti), z rekurzivních vztahů vyjde UP o( λ µ ) (useknuté Poissonovo rozdělení Poissonovo s normalizační konstantou přerozdělením chvostu, useknutí se ale v praxi často zanedbává): p = λ µ p 0 p n = ( λ µ )n p 0 n =,..., N p n = e λ µ ( λ µ )n e µ λ ( λ µ )j j=n+ j! 9

Model (M2a Budka s omezenou frontou) Intenzita příchodů a odchodů je konstantní (λ n = λ, µ n = m), tohle platí pro budku, bylo-li by jich víc, měl bych podobný, ale složitější výpočet. Dostávám pak rekurentní rovnici p n = ( λ µ )n p 0, podle které vidím, že jde o UGe( λ µ ) (p n = λ µ něco ). Z té rovnice pak (podle vzorce pro součet prvních N + členů geometrické posloupnosti) vyjde: N N p i = i=0 i=0 ( ) i λ p 0 = µ ( λ µ) N+ λ µ A tento součet musí být roven jedné, aby šlo o korektní rozdělení pravděpodobnosti, takže celkově dostávám: p 0 = µn (λ µ) λ N+ µ N+ Model (M4 opravář na M strojů) Jde v podstatě o inverzi parkoviště. Mám M strojů, intenzita poruch λ n = (M n) λ (protože pokud se už n strojů porouchalo, ještě se může porouchat M n) a doba obsluhy (opravy) je µ n = µ (konstantní). Dostávám také UP o, jen s prohozenými parametry UP o( µ λ ) a opačným počítáním indexů. Vychází p M k = k! ( µ λ )k p M a p M slouží jako normalizační konstanta. Model (M5 Líní svářeči) Mám a svářečů, pokud svářeč nepracuje, začne pracovat s intenzitou λ, při práci s intenzitou µ přestane. ( ) a µ λ n = (a n)λ µ n = nµ p n = ( n λ + µ )a n ( µ λ + µ )n Intenzity jdou proti sobě, ovlivňují se navzájem. Výsledné rozdělení je binomické.!tady chybí ještě model M/M/ s hodnotami W a L, probíraný na přednášce 8.2! 4.3 Poissonovo rozdělení Definice (Poissonovo rozdělení ( rozdělení řídkých jevů ) κ κn Náh. veličina X má Poissonovo rozdělení s parametrem κ, jestliže P (X = n) = e pro n = 0,.... Vytvořující funkce (z Taylora) A(x) = e κ e κx, stř. hodnota κ a rozptyl taky κ (z derivací vytv. funkce). Poznámka (Součet Poissonových rozdělení) Mám-li 2 veličiny X, Y a X P o(κ ), Y P o(κ 2 ) a jsou nezávislé, pak platí X + Y P o(κ + κ 2 ) (ze součinu vytvořujících funkcí). Poznámka (Aproximace binomického rozdělení normálním) Binomické rozdělení lze podle centrální limitní věty aproximovat rozdělením N o(np, np( p)), nejde ale dělat vždy (potřebuji pevné p). Poznámka (Aproximace binomického rozdělení Poissonovým) Mám Bi(n, p) jako součet S n nezávislých X + + X n z Alt(p). Pokud p 0 a n (hodnota p není pevná, záleží na n, platí np n κ), lze aproximovat (kam se podělo (n k)!)??): p k = (n k)!k! pk ( p) n k = np(n )p... (n k + )p k! ( p)n k κ k ( κ n )n k κ k e κ k! 0

4.4 Poissonův proces Definice (Poissonův proces) Pro nějaké události (proces příchodu) a náh. veličiny X i (doby mezi příchody) definuji čítací proces N(t), označující počet událostí v intervalu [0, t]. pak tento čítací proces nazvu (homogenní) Poissonův proces, pokud platí:. N(0) = 0 2. počet událostí v disjunktních čas. úsecích jsou nezávislé náh. veličiny 3. rozdělení počtu událostí v intervalu I záleží pouze na délce tohoto intervalu, nikoliv na hodnotě procesu v čase, kdy I začíná (stacionarita) 4. P (N(h) = ) = λh + o(h), P (N(h) = 2) = o(h) za krátký čas. úsek se stane povětšinou jen událost (podobně jako v předch. modelech) Věta (Exponenciální rozdělení pravděpodobnosti, že nenastane žádná událost) Platí P (N(t) = 0) = e λt, tj. pravděpodobnost, že se do času t nic nestane, klesá exponenciálně. Důkaz Označme P 0 (t) := P (N(t) = 0). Pak platí (ze vzorců) P 0 (t+h) = P 0 (t)( λh+o(h)), převedením P 0 (t) a vydělením h dostávám dif. rovnici 0(t) = λp 0 (t) a její řešení odpovídá (protože P 0 (0) = ). Věta (Doby mezi událostmi Exp(λ)) Doby mezi událostmi v homogenním Poissonově procesu se řídí exp. rozdělením s parametrem λ. Důkaz Vím, že P (X > t) = P (N(t) = 0) = e λt, takže P (X t) = e λt distrib. fce odpovídá exp. rozdělení. Potom pro P (X 2 > s + t X = s) vychází stejně. S odvoláním na nezávislost dostávám indukcí všechny X i. Věta (Doba čekání na n-tou událost Γ(n, λ)) Doba čekání na n-tou událost se řídí gamma-rozdělením s parametry n, λ. Důkaz Definujme čas do n-té události jako S n = X + +X n, z konvolucí vyjde, že hustota pravděpodobnosti náh. veličiny S n má tvar g(x, n, λ) = λn Γ(n) e λx x n, kde Γ(n) = e x x n dx, což pro přirozená n dává Γ(n) = (n )!. 0 Výsledná hustota pravděpodobnosti odpovídá gamma-rozdělení: g(x, n, λ) = λ e λx (λx) n (n )! Věta (Poissonovo rozdělení pravděpodobnosti, že nastane n událostí) Platí P (N(t) = n) = e λt (λt) n, tedy počet událostí v intervalu délky t se řídí P o(λt). Důkaz Plyne z N(t) n S n t: P (N(t) = n) = P (S n t) P (S n+ t) = I n I n+ pro I k = t λ k 0 Γ(k) e λx x k dt. Dokážu, že I n = I n+ + (λt)n e λt I n+ (rozdělím I n metodou per partes, kde u = e λx a v = x n ). 4.4. Hledání λ pro naměřené hodnoty Algoritmus (Nalezení λ) Mám nějaké naměřené hodnoty X, X 2... X n, hledám λ pro exponenciální rozdělení, jímž by se měly řídit (takovou, aby byly hodnoty nejpravděpodobnější). Spočtu X n = n n i= X i. Pro Exp(λ) platí EX = λ, takže z Čebyševovy nerovnosti (lim n P ( X n µ ε) = 0) dostanu λ X n. Nalezené ˆλ dále testuji pomocí testů dobré shody.

Algoritmus (Testování ˆλ Kolmogorov-Smirnovovým testem) Situace: Hypotéza: mám náhodný výběr z nějaké distr. funkce F (x). Alternativa: rozdělení výběru je jiné. Postup:. Odhadnu F (x) pomocí empirické distr. funkce ˆF n (x) = n n i= I(X i x), kde I je indikátorová funkce (pro každé X i dá, pokud je menší než x a 0 jinak). Tato funkce má všechny vlastnosti distribuční funkce a platí věta, že pro n jde ˆF n (x) F (x). 2. Spočtu KS = n sup X R ˆF n (x) F (x) a podle toho se rozhoduju. Problém: rozdělení této naší statistiky je zadané jen tabulkou, nelze parametr odhadovat a hned testovat vůči odhadu (vždy vyjde dobře)! Je nutné náhodně rozdělit data na 2 části, z odhadovat parametr a druhou testovat. Výběr jedné části lze provést např. postupným náh. generováním pořadí prvku, který vyjmu (a meze generování klesají s počtem kandidátů na vybrání). Algoritmus (Testování ˆλ pomocí χ 2 -testu (Pearsonova)) Postup: Máme naměřená data U,... U n, a R rozdělíme na J intervalů pevné délky. Potom n i skutečný je počet hodnot v i-tém intervalu a np i je očekávaný počet (podle testovaného rozdělení pravděpodobnosti). Sledujeme statistiku, která by se měla v případě, že máme správné rozdělení, řídit χ 2 rozdělením s J stupni volnosti: J X 2 (n i np i ) 2 = np i i= χ 2 J Pro nějakou hodnotu tolerance α správnost rozdělení odmítáme, když X 2 χ 2 J (α). Neznáme-li parametr λ z homogenního Poissonova procesu, musíme jej odhadnout a ve srovnávání použít modifikovanou metodu χ 2, kde se snižuje počet stupňů volnosti. 4.4.2 Testování změny λ Situace Mám nějaký Poissonův proces, kde se doby příchodů požadavků X,... X n řídí stále Exp(λ). Chci zjistit, jestli se v nějakém čas. okamžiku po nějakém X m (např. po úpravě stroje) hodnota λ nezměnila (tj. jestli je λ konstantní homogenní). Takže testuji: Hypotéza: X,... X n Exp(λ), tj. λ je konstantní Alternativa: existuje m tak, že X,... X m Exp(λ ) a X m+,... X n Exp(λ 2 ), tj. λ se změnila Máme 2 možnosti, jak změnu testovat. Buď OFF-LINE tj. na konci urč. období zkontroluji, zda se λ nemění jde o klasické testování hypotéz a odhad (viz výše), nebo ON-LINE s každým novým pozorováním (nebo každých n pozorování) zkontroluji, zda se něco nemění sekvenční metody. Výsledky obou přístupů se mohou lišit. Algoritmus (On-line testování) Cíle:. Běží-li proces požadavků stále s Exp(λ), tak nechat běžet co nejdéle 2. Dojde-li ke změně λ, co nejdříve ji odhalit Použijeme Stopping rule (zde podle Shewarta): τ s = inf{n log f (X n ) f 0 (X n ) > h} kde τ s značí čas změny a funkce f 0 a f určují podobnost původnímu, resp. změněnému rozdělení. h je potom zvolená hladina, kterou poměr nesmí překročit. Cíle jsou protichůdné, takže zvolím h, abych posloužil prvnímu a 2

testuji citlivost na druhý. Hodnoty τ s záleží jen na posledním pozorování, takže vlastně pro každé pozorování zjišťuji, zda log f (X n ) f 0 (X n ) > h, což dává booleanovské výsledky, tj. mám novou náhodnou veličinu s alternativním rozdělením. Čekám pak na její první zdar celkově dostávám geometricky rozdělenou náh. veličinu (s parametrem p pravděpodobností, že překročím hladinu h). Důsledek (Shewartovo pravidlo). Zafixuj f 0, f. (podobnost tomu co chci a čemu se bráním) 2. Stanov střední dobu mezi falešnými poplachy. (střední hodnota mého geom. rozdělení, volím sám) 3. K této hodnotě najdi h. 4. Pro dané h si spočítej, jak dlouho pro různá µ (parametry odpovídající f ) bude trvat odhalení změny (citlivost). Příklad Vezmeme f 0 : X i Exp(λ) a f : X i Exp(µ), předpokládejme, že µ = k λ. Potom log f (X n ) kλe kλxn = log = log k + λx n ( k) f 0 (X n ) λe λxn Ze střední doby mezi poplachy Υ (pro Geom. rozdělení odpovídá /p) vypočítám h: Υ = p = P (log k + λx n( k) > h) = P (X n > h log k h log k ) = P (Exp(λ) λ( k) λ( k) ) = e h log k λ( k) Odhalení změny jde o to, s jakou pravděpodobností X n Exp(µ) překročí moje h: P (X n Exp(µ) > h) = h µe µx dx Poznámka (Simulace Markovovým řetězcem) Celý Shewartův proces je vlastně Markovův řetězec se 2 stavy E 0 (v pořádku) a E (chyba, pohlcující stav), kdy s pravd. p se dostanu z E 0 do E. L 0 očekávaná délka procházky z E 0 do E mi dává střední dobu mezi poplachy. Poznámka (Zesložitění) Chci-li brát v úvahu víc pozorování, zavedu warningový stav např. 2 pozorování z warning za sebou nebo pozorování z halt zastaví stroj. Mám tedy 3 stavy Markovova řetězce a jeden speciální, kam se dostanu po 2. pozorování hodnoty odpovídající warning. Z toho pak mohu počítat stř. doby mezi poplachy, Markovovy řetězce jsou nejjednodušší způsob modelování. Další zesložitění je stop-lo, stop-hi, warning-lo, warning-hi dostanu ještě víc stavů. 3