Bayesovské metody. Mnohorozměrná analýza dat

Podobné dokumenty
Markov Chain Monte Carlo. Jan Kracík.

NÁHODNÉ VELIČINY JAK SE NÁHODNÁ ČÍSLA PŘEVEDOU NA HODNOTY NÁHODNÝCH VELIČIN?

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady

STANOVENÍ SPOLEHLIVOSTI GEOTECHNICKÝCH KONSTRUKCÍ. J. Pruška, T. Parák

Statistika II. Jiří Neubauer

Pravděpodobnost a aplikovaná statistika

Apriorní rozdělení. Jan Kracík.

Generování pseudonáhodných. Ing. Michal Dorda, Ph.D.

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ

Základy teorie pravděpodobnosti

Náhodné vektory a matice

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti.

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D.

AVDAT Náhodný vektor, mnohorozměrné rozdělení

Odhady - Sdružené rozdělení pravděpodobnosti

Náhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost

Výběrové charakteristiky a jejich rozdělení

Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc.

Charakterizace rozdělení

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

Kombinatorická minimalizace

Definice spojité náhodné veličiny zjednodušená verze

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

Pravděpodobnost a statistika (BI-PST) Cvičení č. 4

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7

Poznámky k předmětu Aplikovaná statistika, 5.téma

PRAVDĚPODOBNOST A STATISTIKA

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

PRAVDĚPODOBNOST A STATISTIKA

Kapitola 8: Dvojný integrál 1/26

, 4. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

PRAVDĚPODOBNOST A STATISTIKA aneb Krátký průvodce skripty [1] a [2]

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

NMAI059 Pravděpodobnost a statistika

BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce

PRAVDĚPODOBNOST A STATISTIKA

Téma 22. Ondřej Nývlt

I. D i s k r é t n í r o z d ě l e n í

Pravděpodobnost, náhoda, kostky

oddělení Inteligentní Datové Analýzy (IDA)

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

Dnešní látka: Literatura: Kapitoly 3 a 4 ze skript Karel Rektorys: Matematika 43, ČVUT, Praha, Text přednášky na webové stránce přednášejícího.

p(x) = P (X = x), x R,

prof. RNDr. Roman Kotecký DrSc., Dr. Rudolf Blažek, PhD Pravděpodobnost a statistika Katedra teoretické informatiky Fakulta informačních technologií

, 1. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv

Řešení. Označme po řadě F (z) Odtud plyne, že

PRAVDĚPODOBNOST A STATISTIKA

AVDAT Mnohorozměrné metody, metody klasifikace

12. Křivkové integrály

ROVNICE NA ČASOVÝCH ŠKÁLÁCH A NÁHODNÉ PROCESY. Michal Friesl

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Pravděpodobnost a statistika I KMA/K413

Pravděpodobnost a statistika

E(X) = np D(X) = np(1 p) 1 2p np(1 p) (n + 1)p 1 ˆx (n + 1)p. A 3 (X) =

Vytěžování znalostí z dat

Stavový model a Kalmanův filtr

Cvičení ze statistiky - 5. Filip Děchtěrenko

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

Pravděpodobnost a statistika

a způsoby jejího popisu Ing. Michael Rost, Ph.D.

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory


Náhodná veličina. Michal Fusek. 10. přednáška z ESMAT. Ústav matematiky FEKT VUT, Michal Fusek

15. T e s t o v á n í h y p o t é z

Síla a významnost asociace mezi proměnnými v systému

Pravděpodobnost, náhoda, kostky

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

Úvod. Integrování je inverzní proces k derivování Máme zderivovanou funkci a integrací získáme původní funkci kterou jsme derivovali

naopak více variant odpovědí, bude otázka hodnocena jako nesprávně zodpovězená.

TECHNICKÁ UNIVERZITA V LIBERCI

Odhad stavu matematického modelu křižovatek

y = 0, ,19716x.

Subexponenciální algoritmus pro diskrétní logaritmus

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014

Numerické metody optimalizace - úvod

Základy matematiky pro FEK

populace soubor jednotek, o jejichž vlastnostech bychom chtěli vypovídat letní semestr Definice subjektech.

Kapitola 11: Lineární diferenciální rovnice 1/15

3. Podmíněná pravděpodobnost a Bayesův vzorec

S1P Příklady 02. Náhodná proměnná (veličina) Mějme krabičku o rozměrech 1 x 2 x 3 cm. Na stranách jsou obrázky: :

Základní spádové metody

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Intuitivní pojem pravděpodobnosti

Co jsme udělali: Au = f, u D(A)

Interpolace, ortogonální polynomy, Gaussova kvadratura

7. Derivace složené funkce. Budeme uvažovat složenou funkci F = f(g), kde některá z jejich součástí

Teorie informace: řešené příklady 2014 Tomáš Kroupa

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

10. N á h o d n ý v e k t o r

Transkript:

Mnohorozměrná analýza dat

Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A B) =. P(B) Poznámka: Podmíněná pravděpodobnost P(A B) je vlastně pravděpodobnost jevu A na prostoru B. Věta o úplné pravděpodobnosti: Necht Ω = i E i, kde E i jsou po dvou disjunktní jevy. Potom pro pravěpodobnost jevu A platí P(A) = i P(A E i ) P(E i ).

Bayesova věta Bayesova věta: Necht P(A) > 0 a Ω = i E i, kde E i jsou po dvou disjunktní jevy, P(E i ) > 0. Potom P(E j A) = P(A E j)p(e j ) i P(A E i)p(e i ) Příklad (Hebák, AOP, 2012): Tento příklad vychází z výuky základního kurzu z pravděpodobnosti na VŠE. Studentům se jako příprava ke zkoušce doporučuje spočítat 100 příkladů. Tohoto doporučení neuposlechne 95 % studentů. Pro úspěšné napsání testu je třeba získat alespoň polovinu bodů. Při prvním pokusu jsou pak dlouhodobě výsledky následující: 20 % ze studentů, kteří příklady nespočetli, uspěje a ze studentů, kteří se připravili, uspěje 99 %. Spočtěte pravděpodobnost úspěchu v testu a pravděpodobnost, že náhodně vybraný student se připravil (resp. nepřipravil), víme-li, že v testu uspěl.

Bayesova věta pro spojité náhodné veličiny Uvažujme náhodné veličiny X a Y. Potom f Y X (y x) = f Y (y)f X Y (x y) fy (z)f X Y (x z)dz. Funkce f Y X (y x) a f X Y (x y) jsou tzv. podmíněné hustoty. Na podmíněnou hustotu f Y X (y x) se můžeme (hrubě řečeno) dívat jako na hustotu rozdělení s pevně daným parametrem x. Funkce f Y je tzv. apriorní hustota veličiny Y a funkce f Y X (y x) tzv. aposteriorní hustota veličiny Y.

ve statistice Uvažujme nyní, že máme veličinu X, jejíž rozdělení závisí na parametru y (obecně vícerozměrného). Klasická statistika: Z náhodného výběru z rozdělení veličiny X odhadujeme hodnotu parametru y. : Parametr rozdělení veličiny X považujeme za náhodnou veličinu Y. Na základě nějaké předchozí (apriorní) informace či zkušenosti můžeme odhadnout aposteriorní podmíněnou hustotu veličiny Y (hustota po realizaci X) pomocí Bayesovy věty (podmíněné rozdělení X za podmínky Y = y považujeme za známé). Rozdíl: Při klasickém přístupu použijeme k závěrům o hodnotě parametru y pouze hustotu f X Y =y, kdežto v případě Bayesovském také apriorní informaci f Y.

-diskuze mají své příznivce i odpůrce. Výhody Využití apriorní informace Nevýhody: Parametr je náhodná veličina Volba a použití apriorního rozdělení - na něm závisí výsledné rozdělení f Y X! Je-li apriorní informace neurčitá (nebo dokonce žádná), vznikají problémy. Poznámka: Apriorní hustota dokonce nemusí být ani hustota. Je-li f Y obecně nezáporná integrovatelná funkce, aposteriorní rozdělení se nezmění. Někdy dokonce volíme za apriorní hustotu i nezápornou neintegrovatelnou funkci, ale s tím je třeba zacházet velice opatrně (někdy výsledky dávají dobrý smysl, někdy ne).

Některá využití Bayesovské statistiky Odhad parametru rozdělení y Simulace z cílového rozdělení, odhady parametrů (sekvenční MCMC metody)

Simulace z rozdělení - přímé metody Simulace NV s diskrétním rozdělením (x k, p k ), k = 1, 2,... Označme I 1 = [ 0, p 1 ], I n = ( n 1 k=1 p k, n k=1 p k]. Vygenerujeme náhodnou veličinu U R(0, 1). Najděme n takové, že U I n. Potom x n výběr z daného rozdělení. Poznámka: Pro některá rozdělení můžeme využít jejich interpretace (Binomické, Poissonovo,... ) Simulace NV se spojitým rozdělením (a) Inverzní metoda: Generujeme z rozdělení s distribuční funkcí F takovou, že k ní existuje F 1. Generuj U R(0, 1). Pak F 1 (U) má rozdělení s distribuční funkcí F. Poznámka: Normální rozdělení takhle nenagenerujeme :-(.

(b) Transformační metoda - příklad (normální rozdělení) Generujeme nezávisle náhodné veličiny U 1 R(0, 1) a U 2 R(0, 1). Potom náhodná veličiny Z 1 = 2 ln U 1 cos(2πu 2 ) Z 2 = 2 ln U 1 sin(2πu 2 ) mají normované normální rozdělení. Simulace náhodného vektoru (a) Transformací Náhodný vektor, jehož realizaci chceme nasimulovat, získáme transformací náhodného vektoru s rozdělením, ze kterého umíme generovat. Příklad: Uvažujme náhodný vektor Y N d (µ, Σ). Pokud umíme najít matici A takovou, že Σ = A A T, potom kde X N d (0, I d ). Y = µ + A X,

(b) Interpretací Viz. např. Wishartovo rozdělení: X 1,..., X n výběr z Y N d (µ, Σ), potom n (X i µ)(x i µ) T i=1 má rozdělení W d ( n 2, n 2 Σ 1 ).

Simulace z rozdělení - zamítací metoda Uvažujme náhodnou veličinu X s hustotou f. Potom simulace z rozdělení s hustotou f je ekvivalentní simulaci vektoru (X, U) z rovnoměrného rozdělení na množině A = {(x, u) : 0 < u < f (x)}. Postup: Generujeme z obdélníku, který "obalí" množinu A. Padne-li bod do této množiny, považujeme jeho x ovou souřadnici za realizaci X, pokud ne, pokračujeme dále, dokud se tak nestane. Density 0.000 0.001 0.002 0.003 200 400 600 800

Simulace z rozdělení - zamítací metoda Co když ale neznáme integrační konstantu hustoty, tj. místo f známe f = c f, kde konstantu c neznáme. Pomůžeme si hustotou g rozdělení, ze kterého umíme generovat a platí f Mg(x), x, M známé. Algoritmus: 1. generuj X g, 2. generuj U R(0, 1) nezávisle na X, 3. pokud U f (X) Mg(X), pak Z = X f. Jinak zpět na krok 1. Poznámka: Očekávaný počet iterací je M c.

Metody Markov Chain Monte Carlo Třída algoritmů k simulaci systémů. Nejčastěji slouží k počítání (zejména) mnohorozměrných integrálů simulacím z daného rozdělení dále například k numerickému řešení diferenciálních rovnic

Metody Markov Chain Monte Carlo Monte Carlo integrace Budeme chtít odhadnout střední hodnotu funkce h náhodné veličiny X s rozdělením daným hustotou f. Víme: Eh(X) = h(x)f (x)dx. Odhad: Budeme-li mít náhodný výběr o rozsahu n z rozdělení veličiny X, potom Eh(X) 1 n h(x i ). n My ovšem výběr nemáme, jen známe rozdělení X výběr si můžeme nagenerovat. Problém nastává, když z f neumíme generovat. R i=1

Metody Markov Chain Monte Carlo Importance Sampling - výběr na základě důležitosti Neumíme generovat přímo z rozdělení s hustotou f (nebo se nám to nehodí, např. je to zdlouhavé), ale umíme generovat z rozdělení s hustotou g. Myšlenka: Eh(X) = R h(x)f (x) g(x) ( dx = Eh(X) = h(x) f (x) ) g(x)dx. g(x) R g(x) Stačí nám tedy generovat z rozdělení s hustotou g (tzv. importance density) a poté odhadovat Eh(X) sumou 1 n Hustotu g volit s rozvahou! n i=1 h(x i ) f (x i) g(x i ).

Metody Markov Chain Monte Carlo Náhodný proces Uvažujme množinu T R. Náhodný proces je množina {X t, t T }, kde X t jsou náhodné veličiny. Index t většinou interpretujeme jako čas. Pro T = Z nebo T = N {0} mluvíme o náhodném procesu s diskrétním časem, popř. o časové řadě. Markovský řetězec {X n, n N 0 } je takový náhodný proces s diskrétním časem, že P(X n+1 = x n+1 X n = x n,..., X 0 = x 0 ) = P(X n+1 = x n+1 X n = x n )

Metody Markov Chain Monte Carlo Metody Markov Chain Monte Carlo Třída Monte Carlo algoritmů využívající Markovské vlastnosti řetězců. Uvedeme si Metropolisův Hastingsův algoritmus ke generování z cílového rozdělení s hustotou f.

Metody Markov Chain Monte Carlo Metropolisův Hastingsův algoritmus Algoritmus sloužící k simulaci z cílového rozdělení s hustotou f. Chceme generovat z rozdělení s hustotou f, ale nemuíme to, nebo je to z nějakého důvodu nevýhodné. Místo toho generujeme z rozdělení s hustotou q, ze kterého již generovat umíme. Algoritmus probíhá v t = 1,..., T iteracích.

Metody Markov Chain Monte Carlo Metropolisův Hastingsův algoritmus ALGORITMUS: 1. Zvol počáteční stav x 0 libovolně. Polož t = 0. 2. Generuj y z rozdělení s hustotou q( x t ). 3. Spočítej tzv. Hastingsův poměr (pravděpodobnost přijetí návrhu y): { } f (y)q(y xt ) α = min f (x t )q(x t y), 1, pokud f (x t )q(x t y) > 0, jinak α = 1. 4. S pravděpodobností α přijmi návrh y, tj. x t+1 = y. S pravděpodobností 1 α polož x t+1 = x t. 5. Pokud t < T polož t = t + 1.

Metody Markov Chain Monte Carlo Použitá literatura Zbyněk Pawlas: skripta k p v redmětu MCMC.