Vysoká škola ekonomická Praha. Tato prezentace je k dispozici na:

Podobné dokumenty
Ústav teorie informace a automatizace. J. Vomlel (ÚTIA AV ČR) Úvod do bayesovských sítí 30/10/ / 28

6. prosince 2011 J. Vomlel (ÚTIA AV ČR) Aplikace bayesovských sítí 6. prosince / 3

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Usuzování za neurčitosti

Praha, 24. listopadu 2014


Bayesian Networks. The graph represents conditional independencies of the join probability distribution Π X V P(X pa(x)).

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

TECHNICKÁ UNIVERZITA V LIBERCI

Bayesovské sítě. Kamil Matoušek, Ph.D. Informační a znalostní systémy

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

NMAI059 Pravděpodobnost a statistika

Výpočet marginálních podmíněných pravděpodobností v bayesovské síti

Náhodné jevy. Teorie pravděpodobnosti. Náhodné jevy. Operace s náhodnými jevy

Pravděpodobnost a její vlastnosti

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

Pravděpodobnost a statistika

Cvičení ze statistiky - 5. Filip Děchtěrenko

Náhodný pokus Náhodným pokusem (stručněji pokusem) rozumíme každé uskutečnění určitého systému podmínek resp. pravidel.

Intuitivní pojem pravděpodobnosti

Síla a významnost asociace mezi proměnnými v systému

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady

Pravděpodobnost Podmíněná p. Úplná p. III. Pravděpodobnost. III. Pravděpodobnost Statistika A (ZS 2015)

Informační a znalostní systémy

III. Úplná pravděpodobnost. Nezávislé pokusy se dvěma výsledky. Úplná pravděpodobnost Nezávislé pokusy se dvěma výsledky Náhodná veličina

Motivace. Náhodný pokus, náhodný n jev. Pravděpodobnostn. podobnostní charakteristiky diagnostických testů, Bayesův vzorec

Základy teorie pravděpodobnosti

Bayesovská klasifikace

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2014

1 Linearní prostory nad komplexními čísly

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Vytěžování znalostí z dat

IB112 Základy matematiky

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016

Neurčitost: Bayesovské sítě

Teorie informace: řešené příklady 2014 Tomáš Kroupa

Zjednodušení generativního systému redukcí rozlišení

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

a způsoby jejího popisu Ing. Michael Rost, Ph.D.

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017

Zpracování neurčitosti

2. přednáška - PRAVDĚPODOBNOST

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

Teorie rozhodování (decision theory)

Bayesovské rozhodování - kritétium minimální střední ztráty

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2016

Pravděpodobnost a statistika (BI-PST) Cvičení č. 2

Náhodný jev a definice pravděpodobnosti

Základy teorie pravděpodobnosti

Pravděpodobnost, náhoda, kostky

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

Praha, 2. listopadu 2016

Kontingenční tabulky. (Analýza kategoriálních dat)

TOPOLOGIE A TEORIE KATEGORIÍ (2017/2018) 4. PREDNÁŠKA - SOUČIN PROSTORŮ A TICHONOVOVA VĚTA.

Pravděpodobnost a aplikovaná statistika

Počet pravděpodobnosti

Nestranný odhad Statistické vyhodnocování exp. dat M. Čada

PRAVDĚPODOBNOST A STATISTIKA

Cvičení 5. Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc.

Laboratoř inteligentních systemů, Praha a technickou diagnostiku (angl. troubleshooting). Nejprve stručně shrneme teoretické

5 Pravděpodobnost. Sestavíme pravděpodobnostní prostor, který modeluje vytažení dvou ponožek ze šuplíku. Elementární jevy

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2015

Pravděpodobnost, náhoda, kostky

Teorie pravěpodobnosti 1

Báze a dimenze vektorových prostorů

příkladů do cvičení. V textu se objeví i pár detailů, které jsem nestihl (na které jsem zapomněl) a(b u) = (ab) u, u + ( u) = 0 = ( u) + u.

Určete zákon rozložení náhodné veličiny, která značí součet ok při hodu a) jednou kostkou, b) dvěma kostkami, c) třemi kostkami.

AVDAT Náhodný vektor, mnohorozměrné rozdělení

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014

Příklad 1. Řešení 1 ŘEŠENÉ PŘÍKLADY Z MV2 ČÁST 11

Diskrétní náhodná veličina. November 12, 2008

10 Přednáška ze

5.1. Klasická pravděpodobnst

NÁHODNÝ VEKTOR. 4. cvičení

Přednáška II. Vztah pravděpodobnosti, statistiky a biostatistiky

PRAVDĚPODOBNOST A STATISTIKA

2 Hlavní charakteristiky v analýze přežití

Motivace. Náhodný pokus, náhodný n jev. pravděpodobnost. podobnostní charakteristiky diagnostických testů, Bayesův vzorec. Prof.RND. RND.

Výběrové charakteristiky a jejich rozdělení

UČENÍ BEZ UČITELE. Václav Hlaváč

Pravděpodobnost a statistika

Umělá inteligence II

PŘEDNÁŠKA 5 Konjuktivně disjunktivní termy, konečné distributivní svazy

3. Podmíněná pravděpodobnost a Bayesův vzorec

Pravděpodobnost a statistika (BI-PST) Cvičení č. 4

Dnešní program odvozování v Bayesovských sítích exaktní metody (enumerace, eliminace proměnných) aproximační metody y( (vzorkovací techniky)

Schéma identifikační procedury

5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza

Téma 22. Ondřej Nývlt

MYCIN, Prospector. Pseudodefinice [Expertní systémy, Feigenbaum a kol. 1988] oblasti kvality rozhodování na úrovni experta.

VK CZ.1.07/2.2.00/

Náhodné vektory a matice

Matematika I 2a Konečná pravděpodobnost

TEORIE PRAVDĚPODOBNOSTI. 2. cvičení

Pravděpodobnost (pracovní verze)

Uvod Modely n-tic Vyhodnocov an ı Vyhlazov an ı a stahov an ı Rozˇ s ıˇ ren ı model u n-tic Jazykov e modelov an ı Pavel Smrˇ z 27.

I. D i s k r é t n í r o z d ě l e n í

PRAVDĚPODOBNOST A STATISTIKA

7. Rozdělení pravděpodobnosti ve statistice

p(x) = P (X = x), x R,

Transkript:

Úvod do bayesovských sítí Jiří Vomlel Laboratoř inteligentních systémů Vysoká škola ekonomická Praha Tato prezentace je k dispozici na: http://www.utia.cas.cz/vomlel/

Obor hodnot Necht X je kartézský součin konečných množin hodnot nějakých náhodných veličin. Například mějme dvě dvouhodnotové veličiny Gender a Hair. Hodnoty veličiny Gender jsou male a f emale. Hodnoty veličiny Hair jsou long a short. Množina X = {male, f emale} {long, short} obsahuje čtyři prvky (male, long) (male, short) ( f emale, long) ( f emale, short) zkráceně (m, l) (m, s) ( f, l) ( f, s) 2

Potenční množina Potenční množina P(X ) množiny X je množina všech podmnožin množiny X. V našem příkladě X = {(m, l), (m, s), ( f, l), ( f, s)} { }, {(m, l)}, {(m, s)}, {( f, l)}, {( f, s)}, P(X ) = {(m, l), (m, s)}, {(m, l), ( f, l)}, {(m, l), ( f, s)}, {(m, s), ( f, l)}, {(m, s), ( f, s)}, {( f, l), ( f, s)} {(m, l), (m, s), ( f, l)}, {(m, l), (m, s), ( f, s)}, {(m, l), ( f, l), ( f, s)}, {(m, s), ( f, l), ( f, s)}, {(m, l), (m, s), ( f, l), ( f, s)} 3

Pravděpodobnostní distribuce Pravděpodobnostní distribuce P na X je zobrazení z potenční množiny P(X ) do uzavřeného intervalu 0, 1 splňující: P(X ) = 1 a A, B X, A B = 0 P(A B) = P(A) + P(B). V našem příkladě P({(m, l), ( f, l), (m, s)( f, s)}) = 1 P({(m, l), (m, s)}) = P({(m, l)}) + P({(m, s)}) atd. (m, l) (m, s) ( f, l) ( f, s) 4

Specifikace pravděpodobnostní distribuce Prvky potenční množiny P(X ) se nazývají jevy. Prvky množiny X se nazývají elementární jevy. V příkladě jsme měli čtyři elementární jevy: (m, l),(m, s),( f, l) a ( f, s). Pro úplnou specifikaci pravděpodobnostní distribuce P stačí definovat pravděpodobnosti elementárních jevů. Díky aditivitě máme definovanou pravděpodobnost všech jevů. V našem příkladě stačí definovat P({m, l}),p({m, s}),p({ f, l}) a P({ f, s}) tak, aby platilo: P({m, l}) + P({m, s}) + P({ f, l}) + P({ f, s}) = 1. Místo P({a, b}) budeme používat zkrácený zápis P(a, b). V případě, kdy budeme potřebovat zdůraznit proměnné budeme používat zápis P(A = a, B = b). 5

Specifikace pravděpodobnostní distribuce Pro úplnou specifikaci pravděpodobnostní distribuce P stačí definovat: P(male, long) = 0.1 P(male, short) = 0.4 P( f emale, long) = 0.3 P( f emale, short) = 0.2 male f emale long P(m, l) = 0.1 P( f, l) = 0.3 short P(m, s) = 0.4 P( f, s) = 0.2 Evidentně platí, že P(male, long) + P(male, short) + P( f emale, long) + P( f emale, short) = 1 6

Marginalizace Marginální distribuce veličiny B je pravděpodobnostní distribuce na B taková, že pro každou hodnotu b veličiny B platí, že P(b) = P({(a, b ) : b = b}) = a P(a, b). Zkráceně pro celou distribuci na B budeme psát P(B) = A P(A, B). P(m) = P(m, l) + P(m, s) = 0.1 + 0.4 P( f ) = P( f, l) + P( f, s) = 0.3 + 0.2 P(l) = P(m, l) + P( f, l) = 0.1 + 0.3 P(s) = P(m, s) + P( f, s) = 0.4 + 0.2 P(m, l) = 0.1 P( f, l) = 0.3 P(l) = 0.4 P(m, s) = 0.4 P( f, s) = 0.2 P(s) = 0.6 P(m) = 0.5 P( f ) = 0.5 7

Podmíněná pravděpodobnost Podmíněná pravděpodobnost P(A B) je pravděpodobnostní distribuce veličiny A splňující vztah P(A B) P(B) = P(A, B). Jestliže P(B) je nenulové pak P(A B) = P(A,B) P(B). P(male, long) = 0.1 P(male, short) = 0.4 P( f emale, long) = 0.3 P( f emale, short) = 0.2 male f emale long P(m, l) = 0.1 P( f, l) = 0.3 short P(m, s) = 0.4 P( f, s) = 0.2 P(male long) = P(male, long) P(long) = 0.1 0.4 = 1/4 8

Bayesův vzorec P(A B) = P(A, B) P(B) = Například mějme dvě veličiny: P(B A) P(A) A P(A, B) = P(B A) P(A) A P(B A) P(A) R - Rain... v noci pršelo s hodnotami y = yes a n = no. W - Wet grass... tráva je mokrá s hodnotami y = yes a n = no. Víme, že: jestliže v noci pršelo, pak je tráva mokrá s pravděpodobností 3 4, jestliže nepršelo, pak je tráva mokrá s pravděpodobností 1 8, pravděpodobnost, že bude v noci pršet je 1 3. Ráno vidíme, že tráva je mokrá. Jaká je pravděpodobnost, že v noci pršelo? 9

Použití Bayesova vzorce P(R = y W = y) = P(W = y R = y) P(R = y) P(W = y R = y) P(R = y) + P(W = y R = n) P(R = n) = 3 4 13 3 4 13 + 1 8 23 = 1 4 1 4 + 12 1 = 1 4 4 12 = 3 4 Pravděpodobnost, že v noci pršelo je 3 4. 10

Nezávislost Pravděpodobnost společného výskytu hodnot veličin je rovna součinu pravděpodobností jednotlivých pravděpodobností. P(Dime = head, Penny = head) = P(Dime = head) P(Penny = head) Též, zjistíme-li hodnotu jedné veličiny, nemá to vliv na hodnotu druhé veličiny. P(Dime = head Penny = head) = P(Dime = head) 11

Náhodně vybereme jednu minci pro dva hody. První hod má vliv na pravděpodobnost výsledku druhého hodu. 12

Nyní, předpokládejme, že známe vybranou minci. Jestliže víme, která mince bude použita pak výsledek prvního hodu nemá vliv na pravděpodobnost výsledku druhého hodu. 13

Podmíněná nezávislost Pravděpodobnost společného výskytu hodnot veličin při dané hodnotě třetí veličiny je rovna součinu pravděpodobností jednotlivých podmíněných pravděpodobností: P(First f lip = head, Second f lip = head Coin = dime) = P(First f lip = head Coin = dime) P(Second f lip = head Coin = dime) Jestliže neznáme minci, výsledek prvního hodu má vliv na pravděpodobnost výsledku druhého hodu. Jestliže známe minci, pak výsledek prvního hodu nemá vliv na pravděpodobnost výsledku druhého hodu. P(Second f lip = head Coin = dime, First f lip = head) = P(Second f lip = head Coin = dime) 14

Řetězcové pravidlo Z definice podmíněné pravděpodobnosti plyne, že můžeme psát: P(A, B, C, D) = P(A B, C, D) P(B, C, D) = P(A B, C, D) P(B C, D) P(C, D) = P(A B, C, D) P(B C, D) P(C D) P(D) 15

Proč je Holmesův trávník mokrý? Holm Rn Sprnk Wat Je Holmesův trávník mokrý? Pršelo v noci? Byl Holmesův postřikovač zapnutý? Je Watsonův trávník mokrý? Holmesův trávník může být mokrý bud protože pršelo, nebo protože měl zapnutý postřikovač. Watsonův trávník může být mokrý protože pršelo. Holmesův postřikovač nemá vliv na Watsonův trávník. Déšt nesouvisí s tím, jestli má Holmes zapnutý postřikovač. Řetězcové pravidlo a podmíněné nezávislosti uvedené výše dávají: P(Holm, Wat, Rn, Sprnk) = P(Holm Wat, Rn, Sprnk) P(Wat Rn, Sprnk) P(Rn Sprnk) P(Sprnk) = P(Holm Rn, Sprnk) P(Wat Rn) P(Rn) P(Sprnk) 16

Proč je Holmesův trávník mokrý? P(Holm, Wat, Rn, Sprnk) = P(Holm Rn, Sprnk) P(Wat Rn) P(Rn) P(Sprnk) 17

Definice bayesovské sítě acyklický orientovaný graf (DAG) G = (V, E) každý uzel i V odpovídá jedné náhodné veličině X i s konečným počtem navzájem disjunktních hodnot X i pa(i) bude označovat množinu rodičů uzlu i v grafu G ke každému uzlu i V odpovídá podmíněná pravděpodobnostní distribuce P(X i (X j ) j pa(i) ) acyklický orientovaný graf (DAG) reprezentuje podmíněné nezávislostní vztahy mezi veličinami (X i ) i V 18

Podmíněné nezávislost dané grafem Předpokládejme uspořádání veličin X i, i V takové, že jestliže j pa(i) pak j < i. X 1 X 2 X 3 X 4 X 5 X 6 X 7 X 8 X 9 Z grafu vyplývají následující podmíněné nezávislosti X i X k (X j ) j pa(i) for i V and k < i and k pa(i) Například X 6 X 1, X 2, X 5 X 3, X 4. 19

Podmíněné nezávislosti dané grafem A B C D E Otázky: Nalezněte pořadí splňující požadavek na uspořádání: jestliže j pa(i) pak j < i. Kolik je uspořádáních splňující tento požadavek? Jaké nezávislosti plynou z daného uspořádání? Jaká pravděpodobnostní distribuce splňuje dané nezávislosti a platí, že její podmíněné marginální distribuce odpovídající distribucím P(A), P(B), P(C A, B), P(D B) a P(E C, D). 20

A B C D E Pořadí splňující požadavek: jestliže j pa(i) pak j < i jsou A B C D E 2 3 4 5 1 2 3 4 5 B A - D A, C B E A, B C, D 2 1 3 4 5 A B - D A, C B E A, B C, D 1 2 4 3 5 B A D A B C D A, B E A, B C, D 2 1 4 3 5 A B D A B C D A, B E A, B C, D 3 1 4 2 5 - A B C D A, B E A, B C, D 21

Pravděpodobnostní distribuce bayesovské sítě Použijeme-li řetězcové pravidlo dostaneme: P((X i ) i V ) = i V P(X i X i 1,..., X 1 ) Použijeme-li podmíněné nezávislosti z grafu pak dostaneme P((X i ) i V ) = i V P(X i (X j ) j pa(i) ) - pravděpodobnostní distribuci representovanou bayesovskou sítí. Pro tuto distribuci platí: splňuje všechny podmíněné nezávisloti z grafu a její podmíněné pravděpodobnostní distribuce odpovídají P(X i (X j ) j pa(i) ), i V. 22

Příklad bayesovské sítě P(Holm, Wat, Rn, Sprnk) = P(Holm Rn, Sprnk) P(Wat Rn) P(Rn) P(Sprnk) 23

Podmíněné nezávislosti dané grafem - d-separace Dva uzly i a j jsou d-separovány množinou uzlů Y, jestliže pro všechny cesty mezi i a j platí: cesta obsahuje uzel, ve kterém se hrany nesetkávají head-to-head a který náleží do Y nebo cesta obsahuje uzel, ve kterém se hrany setkávají head-to-head a ani on, ani žádný jeho následník nenáleží do Y. Jestliže i a j jsou d-separovány množinou uzlů Y, pak veličiny X i a X j jsou nezávislé dáno (X k ) k Y. Příklad: A C B E D A D A D E C D C D B 24

Ověřte, zda platí v grafu podmíněné nezávislosti E B E D A C E E D A B D F E D C E D C, F E B F 25

Ověřte, zda platí v grafu podmíněné nezávislosti E B ano A C E E D E D A ne ne B D F E D C E D C, F ano ne E B F ne 26

Byl Holmesův postřikovač zapnutý? 27

Zjednodušený diagnostický příklad Vyšetřujeme pacienta. Možná diagnóza je: tuberkulóza, rakovina plic, nebo zánět průdušek. 28

Zatím nevíme o pacientovi nic. Pacient je kuřák. 29

Pacient je kuřák... a navíc si stěžuje na dušnost 30

Pacient je kuřák, stěžuje si na dušnost... a navíc jeho RTG je positivní 31

Pacient je kuřák, stěžuje si na dušnost, jeho RTG je positivní... a navíc byl v Asii 32

Výhoda reprezentace bayesovskou sítí Předpokládejme, že máme problém, který budeme modelovat pomocí n veličin a každá veličina může nabývat dvou hodnot. Použijeme-li representaci pomocí jedné tabulky potřebujeme pro uložení v paměti počítače distribuce 2 n 1 hodnot. Předpokládejme, bayesovskou sít mající též n veličin nabývajících dvou hodnot s grafem následující struktury: X 1 X 2 X 3 X n Pro její uložení v paměti počítače potřebujeme 1 + (n 1) 2 = 2n 1 hodnot. 33

Výhoda reprezentace bayesovskou sítí n 2 n 1 2n 1 2 3 3 3 7 5 4 15 7 10 1023 19 100 1.27 10 30 199 1000 1.07 10 301 1999 34

Typické použití bayesovských sítí pro modelování a vysvětlení chování, problémů v různých oblastech - např. model chování vody v krajině, pro přepočtení pravděpodobností hodnot určitých veličin když jsme pozorovali některé jiné veličiny, t.j. počítání podmíněných pravděpodobností, např. P(X 23 X 17 = yes, X 54 = no) - např. určení diagnózy při pozorovaných příznacích. pro nalezení nejpravděpodobnějších konfigurací proměných - např. při automatickém rozpoznávání řeči, nebo při dekódování zakódovaných zpráv, pro podporu rozhodování při nejisté informaci - použití teorie maximalizace očekávaného užitku (ukázka), pro nalezení dobrých strategií pro řešení problémů v oblastech z nejistotou - např. technická diagnostika laserových tiskáren, nebo návrh adaptivních testů (přednáška za týden). 35

Z historie bayesovských sítí - 1 Bayesovské sítě patří mezi pravděpodobnostní grafické modely. První použití modelů podobných grafickým modelům ve statistické mechanice (Gibbs, 1902), genetice (Wright, 1921), analýze kontingenčních tabulek (Barlett, 1935). Skutečné rošíření myšlenky použití grafických modelů až v osmdesátých letech 20.století: Pearl (1982), Spiegelhalter a Kill-Jones (1984), Perez a Jiroušek (1985), Lauritzen a Spiegelhalter (1988) 36

Z historie bayesovských sítí - 2 Vychází základní monografie o grafických modelech a bayesovských sítích: Pearl (1988), Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference, Neapolitan (1990), Probabilistic reasoning in expert systems: theory and algorithms, Hájek, Havránek, Jiroušek (1991), Uncertain Information Processing in Expert Systems, Lauritzen (1996), Graphical models, Jensen (1996), An introduction to Bayesian networks. 37

Z historie bayesovských sítí - 3 Objevují se aplikace bayesovských sítích v různých oblastech: Munin (1989) - Bayesian network for the median nerve Pathfinder (1990) - lymph-node pathology, Decision theoretic troubleshooting (1994) - technická diagnostika zařízení. Objevují se první verze software umožňující práci s bayesovskými sítěmi: Hugin (1989) http://www.hugin.com, Netica (1995) http://www.norsys.com, 38