Bayesian Networks. The graph represents conditional independencies of the join probability distribution Π X V P(X pa(x)).

Podobné dokumenty
Výpočet marginálních podmíněných pravděpodobností v bayesovské síti

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny

Ústav teorie informace a automatizace. J. Vomlel (ÚTIA AV ČR) Úvod do bayesovských sítí 30/10/ / 28

Teorie užitku. Marta Vomlelová 14. prosince / 23

Bayesovská klasifikace

Cvičení 3. Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc.

Vysoká škola ekonomická Praha. Tato prezentace je k dispozici na:

Usuzování za neurčitosti

oddělení Inteligentní Datové Analýzy (IDA)

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

AVDAT Náhodný vektor, mnohorozměrné rozdělení

Vytěžování znalostí z dat

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Katedra kybernetiky, FEL, ČVUT v Praze.

Pravděpodobnost, náhoda, kostky

Dnešní program odvozování v Bayesovských sítích exaktní metody (enumerace, eliminace proměnných) aproximační metody y( (vzorkovací techniky)

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Vícerozměrná rozdělení

Zjednodušení generativního systému redukcí rozlišení

UČENÍ BEZ UČITELE. Václav Hlaváč

Umělá inteligence II

Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc.

A6M33SSL: Statistika a spolehlivost v lékařství Teorie spolehlivosti

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Příklady ke čtvrtému testu - Pravděpodobnost

Odhady - Sdružené rozdělení pravděpodobnosti

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017

Výběrové charakteristiky a jejich rozdělení

Aproximace binomického rozdělení normálním

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

1.1 Existence a jednoznačnost řešení. Příklad 1.1: [M2-P1] diferenciální rovnice (DR) řádu n: speciálně nás budou zajímat rovnice typu

Vzorová písemka č. 1 (rok 2015/2016) - řešení

Neurčitost: Bayesovské sítě

Testy. Pavel Provinský. 19. listopadu 2013

13.1. Úvod Cílem regresní analýzy je popsat závislost hodnot znaku Y na hodnotách

, 1. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Modely teorie grafů, min.kostra, max.tok, CPM, MPM, PERT

Stavový model a Kalmanův filtr

Genetické algoritmy. Vysoká škola ekonomická Praha. Tato prezentace je k dispozici na:

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7

Matematika I 12a Euklidovská geometrie

Praha, 24. listopadu 2014

Statistika II. Jiří Neubauer

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace


Cvičení ze statistiky - 5. Filip Děchtěrenko

Definice spojité náhodné veličiny zjednodušená verze

Zápočtová písemka z Matematiky III (BA04) skupina A

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést

Varianty Monte Carlo Tree Search

Informační systémy pro podporu rozhodování

Cvičení ze statistiky - 7. Filip Děchtěrenko

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.

Bodové odhady parametrů a výstupů

Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D.

MATEMATICKÁ STATISTIKA - XP01MST

Bayesovské metody. Mnohorozměrná analýza dat

Fyzikální korespondenční seminář MFF UK

Monte Carlo Lokalizace. Martin Skalský

DJ2 rekurze v SQL. slajdy k přednášce NDBI001. Jaroslav Pokorný

Náhodná veličina X má Poissonovo rozdělení se střední hodnotou lambda. Poissonovo rozdělení je definováno jako. P(X=k) = 0,036

, 4. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Stromy, haldy, prioritní fronty

Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Hodíme dvěma kostkami jaký padl součet?

6. prosince 2011 J. Vomlel (ÚTIA AV ČR) Aplikace bayesovských sítí 6. prosince / 3

Prohledávání svazu zjemnění

Asociační i jiná. Pravidla. (Ch )

Teorie rozhodování (decision theory)

Praha, 2. listopadu 2016

em do konce semestru. Obsah Vetknutý nosník, str. 8 Problém č.8: Průhyb nosníku - Ritzova metoda

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Charakterizace rozdělení

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

VK CZ.1.07/2.2.00/

Klasifikace a rozpoznávání. Lineární klasifikátory

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016

Kontingenční tabulky. (Analýza kategoriálních dat)

bfs, dfs, fronta, zásobník, prioritní fronta, halda

PŘEDNÁŠKA 9 KŘIVKOVÝ A PLOŠNÝ INTEGRÁL 1. DRUHU

Intervalová data a výpočet některých statistik

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

Pokročilé neparametrické metody. Klára Kubošová

Protokol č. 5. Vytyčovací údaje zkusných ploch

Využití metod strojového učení v bioinformatice David Hoksza

Rekonstrukce diskrétního rozdělení psti metodou maximální entropie

Soustavy. Terminologie. Dva pohledy na soustavu lin. rovnic. Definice: Necht A = (a i,j ) R m,n je matice, b R m,1 je jednosloupcová.

9. Vícerozměrná integrace

KGG/STG Statistika pro geografy

Metody analýzy dat I. Míry a metriky - pokračování

1.8.5 Dělení mnohočlenů

Transkript:

Bayesian Networks Definition (Bayesian Network) Bayesian network is a pair (G, P), where G = (V, E) is a DAG (directed acyclic graph with set of vertexes V and set of edges E) and P is a list of conditional probability distributions such that for every vertex X there is a probability table P(X pa(x)) where pa(x) denotes the set of parents of a vertex in G. The graph represents conditional independencies of the join probability distribution Π X V P(X pa(x)). Marta Vomlelová 10. října 2017 1 / 18

Příklad: Studfarm Existuje genetická nemoc, která je recesivní, tj. projeví se jen pokud jsou oba rodiče nosiči. Známe rodokmen, objevilo se nemocné dítě vytvořte model, který určí pravděpodobnost genetické chyby u všech členů rodokmenu. Rodokmen chcete modelovat do prarodičů nemocného. L Ann Brian Prior aa 0.01 AA 0.99 Fred Dorothy John Marta Vomlelová 10. října 2017 2 / 18

Nachlazení nebo Angína Nachlazení nebo angína Teplota, Bolest v krku, Skrvny v krku single nebo multiple faults Trobleshooting, Klasifikace dokumentů Marta Vomlelová 10. října 2017 3 / 18

Naive Bayes Klasifikátor Klasifikujeme do třídy C; sp(c) = {1,..., K} Pro každý atribut A 1,..., A n známe podmíněnou pravděpodobnost P(A i C = k) pro každou třídu k sp(c) Bernoulli (0-1): P(a 1,..., a n C = k) = Π n i=1p(a i C = k) Gaussovský p(x = v k) = 1 e (v µ k ) 2 2σ 2 k 2πσ 2 k Multinomial: P(x 1,..., x n C = k) = (Σn i=1 x i )! Π n i=1 x i! Πn i=1p(a i = 1 C = k) x i Predikce: ĝ = argmax k=1,...,k P(C = k)π n i=1p(a = a i C = k) Marta Vomlelová 10. října 2017 4 / 18

Příklad Snědli jsme 1000 bonbónů a zapsali, co jsme pozorovali: W=red W=green H=1 H=0 H=1 H=0 F=cherry 273 93 104 90 F=lime 79 100 94 167 Vytvořte naive bayes model s veličinou F jakožto cíl (nahoře). F=cherry 273 + 93 + 104 + 90 =560 0.56 F=lime 79 + 100 + 94 + 167 =440 0.44 P(W F ) P(H F ) F=cherry W=red 273+93 560 W=green 104+90 560 F=cherry H=1 273+104 560 H=0 93+90 560 F=lime 79+94 440 100+167 440 F=lime 79+100 440 94+167 440 Marta Vomlelová 10. října 2017 5 / 18

Tree augmented Naive Bayes Dovolíme stromovou strukturu na {A i } i místo podmíněné nezávislosti dáno C. Pr, Bt, Ut, Sc potřeba reprezentovat Ho Marta Vomlelová 10. října 2017 6 / 18

Ponožky dva páry ponožek různého vzoru a barvy výrazně sepravé do modelu přidáme podmínku, že každého typu jsou právě dvě ponožky Marta Vomlelová 10. října 2017 7 / 18

Příklad: Miny Navrhněte model, který spočte pravděpodobnost miny ve hře Minesweeper. Navrhněte aproximaci, která nebude mít uzel s více než 10 rodiči. Marta Vomlelová 10. října 2017 8 / 18

Parent divorsing - půjčka 11 atributů: příjem, typ práce, auta v rodině, finanční situace, počet dětí, počet adres v posledních 5 letech,... Při 5-ti hodnotových atributech 5 11 5M konfigurací. Pro snadný odhad pravděpodobnosti potřebuji aspoň 5 příkladů v nejméně časté kombinaci. Marta Vomlelová 10. října 2017 9 / 18

Poker Vytvořte zjednodušený model hry Poker s veličinou odhadující, jestli je lepší moje ruka nebo soupeřova. Marta Vomlelová 10. října 2017 10 / 18

Insurance Marta Vomlelová 10. října 2017 11 / 18

Čtení v bayesovské síti Typický dotaz: známe evidenci e o veličinách dom(e); ptáme se na jednorozměrné podmíněné pravděpodobnosti všech ostatních veličin X: P(X e). Struktura grafu nám umožnuje: Optimalizovat výpočet. Určit některé veličiny jako zbytečné, které je možno vypustit z modelu. Můžeme zkoumat nezávislost dvojice veličin dáno evidence. Marta Vomlelová 10. října 2017 12 / 18

Výpočet marginálních podmíněných pravděpodobností v bayesovské síti Úmluva: Zajímáme se pouze o bayesovské sítě, jejichž graf je spojitý. Jinak uvažujeme každou komponentu zvlášť. Algoritmus eliminace proměnných INIT Do seznamu Φ 1 dáme všechny tabulky P(e, A i pa(a i )), v každé tabulce odstraním "řádky"nekonzistentní s evidencí, tj. s nulovou pravděpodobností. Tj. předem evidencí vynásobíme a marginalizujeme přes proměnné s evidencí. ELIM Postupně budeme eliminovat (následujícím algoritmem) všechny proměnné bez evidence, které nás nezajímají (dostaneme P(A, e)). ORM Nakonec eliminujeme i zbývající proměnné bez evidence, čímž spočteme normalizační konstatnu α = P(e); touto konstantou vydělíme tabulku z předchozího kroku a dostaneme podmíněnou pravděpodobnost P(A e). Marta Vomlelová 10. října 2017 13 / 18

Eliminace proměnné X v kroku i znamená: 1 Vyber z Φ i všechny tabulky, které mají v doméně X, dej je do Φ X. 2 Spočti φ = X Π T Φ X T 3 Nové Φ i+1 se rovná: Φ i \ Φ X {φ} Pozn: Pokud v Φ last nakonec zbyde více tabulek, musíme je vynásobit. Pozn2: Ne-eliminované A může být buď veličina, nebo množina veličin. Marta Vomlelová 10. října 2017 14 / 18

Charakteristika algoritmu Eliminace proměnných Snadný na pochopení a implementaci. Otázka: v jakém pořadí eliminovat? Špatné pořadí vede ke zbytečně velkým tabulkám φ. Pokud nás zajímají všechny jednorozměrné marginály, tak bychom nemuseli počítat vše pro každou zvlášť, dost výpočtů se opakuje. Proto většina software používá jiné algoritmy, my se podíváme, co používá Hugin, ostatní mají různé modifikace. Miny: Špatné a lepší pořadí eliminace. patně Nejdřív nepozorované rodiče (např. v minách ). rávně Nejdřív barren tj. uzly bez dětí a bez evidence. becně Nejdřív simpliciální uzly. Marta Vomlelová 10. října 2017 15 / 18

d-separace Definition (d-separace) Dvě veličiny A, B V bayesovské sítě G = (V, E) jsou d-separované A d B C množinou C V \ {A, B} právě když pro každou (neorientovanou) cestu z A do B platí aspoň jedno z následujících: cesta obsahuje uzel Blocking C a hrany se v Blocking nesetkávají head-to-head, cesta obsahuje uzel Blocking kde se hrany setkávají head-to-head a ani on ani nikdo z jeho následníků není v C, {Blocking, succ(blocking)} C =. Theorem (d-separace) Pokud jsou A, B d-separované dáno C (A d B C) v BN B, pak jsou i podmíněně nezávislé (A B C). Marta Vomlelová 10. října 2017 16 / 18

Příklad d-separace Definition (d-separace) Dvě veličiny A, B V bayesovské sítě G = (V, E) jsou d-separované A d B C množinou C V \ {A, B} právě když pro každou (neorientovanou) cestu z A do B platí aspoň jedno z následujících: cesta obsahuje uzel Blocking C a hrany se v Blocking nesetkávají head-to-head, cesta obsahuje uzel Blocking kde se hrany setkávají head-to-head a ani on ani nikdo z jeho následníků není v C, {Blocking, succ(blocking)} C =. A C E B D F Platí následující? E d B ano E d D ne E d D A ne E d D C ano E d D {C, F } ne E d B F ne Marta Vomlelová 10. října 2017 17 / 18