Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Podobné dokumenty
Bayesovská klasifikace

5.6 Bayesovská klasifikace

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

UČENÍ BEZ UČITELE. Václav Hlaváč

Umělá inteligence II

Usuzování za neurčitosti

Ústav teorie informace a automatizace. J. Vomlel (ÚTIA AV ČR) Úvod do bayesovských sítí 30/10/ / 28

Vytěžování znalostí z dat

Zpracování neurčitosti

oddělení Inteligentní Datové Analýzy (IDA)

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.


Úvod do mobilní robotiky AIL028

Expertní systémy. Typy úloh: Klasifikační Diagnostické Plánovací Hybridní Prázdné. Feingenbaum a kol., 1988

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady

PROHLEDÁVÁNÍ GRAFŮ. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Vysoká škola ekonomická Praha. Tato prezentace je k dispozici na:

Automatické vyhledávání informace a znalosti v elektronických textových datech

Pravděpodobnost, náhoda, kostky

Cíle lokalizace. Zjištění: 1. polohy a postavení robota (robot pose) 2. vzhledem k mapě 3. v daném prostředí

Pravděpodobnost, náhoda, kostky

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

TECHNICKÁ UNIVERZITA V LIBERCI

Intervalová data a výpočet některých statistik

Vzdálenost uzlů v neorientovaném grafu

Lineární klasifikátory

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Pravděpodobně skoro správné. PAC učení 1

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2016

Bayesovské metody. Mnohorozměrná analýza dat

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Statistická teorie učení

Kontingenční tabulky. (Analýza kategoriálních dat)

Základy biostatistiky (MD710P09) ak. rok 2008/2009

Základy biostatistiky (MD710P09) ak. rok 2007/2008

NP-ÚPLNÉ PROBLÉMY. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

13. cvičení z PSI ledna 2017

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Informační systémy pro podporu rozhodování

Trénování sítě pomocí učení s učitelem

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.

Základy teorie pravděpodobnosti

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory

7 Soft computing. 7.1 Bayesovské sítě

Bayesovské sítě. Kamil Matoušek, Ph.D. Informační a znalostní systémy

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

ORIENTOVANÉ GRAFY, REPREZENTACE GRAFŮ

Václav Jirchář, ZTGB

populace soubor jednotek, o jejichž vlastnostech bychom chtěli vypovídat letní semestr Definice subjektech.

Rozhodovací pravidla

Informační a znalostní systémy

Praha, 24. listopadu 2014

Klasifikace a rozpoznávání. Lineární klasifikátory

NEPARAMETRICKÉ BAYESOVSKÉ ODHADY V KOZIOLOVĚ-GREENOVĚ MODELU NÁHODNÉHO CENZOROVÁNÍ. Michal Friesl

AVDAT Mnohorozměrné metody, metody klasifikace

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)

Teorie systémů TES 5. Znalostní systémy KMS

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)

Automatizované řešení úloh s omezeními

8-9. Pravděpodobnostní rozhodování a predikce. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza

Vzorová písemka č. 1 (rok 2015/2016) - řešení

11. cvičení z PSI prosince hodnota pozorovaná četnost n i p X (i) = q i (1 q), i N 0.

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

MYCIN, Prospector. Pseudodefinice [Expertní systémy, Feigenbaum a kol. 1988] oblasti kvality rozhodování na úrovni experta.

VK CZ.1.07/2.2.00/

Intuitivní pojem pravděpodobnosti

Implementace Bayesova kasifikátoru

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Přednáška II. Vztah pravděpodobnosti, statistiky a biostatistiky

BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni

Odhady - Sdružené rozdělení pravděpodobnosti

Náhodné vektory a matice

pseudopravděpodobnostní Prospector, Fel-Expert

NEJKRATŠÍ CESTY I. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

, 1. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv

Pravděpodobnost Podmíněná p. Úplná p. III. Pravděpodobnost. III. Pravděpodobnost Statistika A (ZS 2015)

METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1

Pravděpodobnost a statistika (BI-PST) Cvičení č. 1

Jana Vránová, 3. lékařská fakulta UK

Odečítání pozadí a sledování lidí z nehybné kamery. Ondřej Šerý

Neurčitost: Bayesovské sítě

4EK212 Kvantitativní management. 7.Řízení projektů

Apriorní rozdělení. Jan Kracík.

Deset přednášek z teorie statistického a strukturního rozpoznávání

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

Dijkstrův algoritmus

Využití metod strojového učení v bioinformatice David Hoksza

VLASTNOSTI GRAFŮ. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze. BI-GRA, LS 2010/2011, Lekce 5

Pravděpodobnost a aplikovaná statistika

ANALÝZA A KLASIFIKACE DAT

Transkript:

Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Bayesovská klasifikace Bayesův vztah pro výpočet podmíněné pravděpodobnosti ~pravděpodobnost, že platí hypotéza H, pokud pozorujeme E P ( H E) = ( E H ) P( H ) P( E) P(H). apriorní pravděpodobnost hypotézy H P(H E).. aposteriorní (podmíněná) pravděpodobnost P(E).. pravděpodobnost pozorování E P I. Mrázová: Dobývání znalostí 3

Bayesovská klasifikace (2) nejpravděpodobnější hypotéza H MAP ~největší aposteriorní pravděpodobnost H MAP = H ( H E) ; P = zanedbat jmenovatele: MAP J J J max t P ( E H t ) P( H t ) P( E) ( E) = P( E H t ) P( H t ) P t ( E H ) P( H ) = max ( P( E H ) P( H )) H = H P J J t t t I. Mrázová: Dobývání znalostí 4

Bayesovská klasifikace (3) Příklad: Poskytnout úvěr klientovi s vysokým příjmem? P(PUJCIT) = 0.667 P(NEPUJCIT) = 0.333 P(VYS_PRIJEM PUJCIT) = 0.91 P(VYS_PRIJEM NEPUJCIT) = 0.12 P(NIZ_PRIJEM PUJCIT) = 0.09 P(NIZ_PRIJEM NEPUJCIT) = 0.88 P(VYS_PRIJEM PUJCIT) P(PUJCIT) = 0.607 P(VYS_PRIJEM NEPUJCIT) P(NEPUJCIT) = 0.040 H MAP = PUJCIT I. Mrázová: Dobývání znalostí 5

Naivní Bayesovský klasifikátor Předpoklad: - jednotlivá pozorování E 1,, E K jsou podmíněně nezávislá při platnosti hypotézy H - tento předpoklad bývá v reálných úlohách jen málokdy splněn proto označení naivní výpočet aposteriorní pravděpodobnosti hypotézy při platnosti všech E 1,, E K P( E ) ( ) ( ) 1, K, EK H P H P H E1, K, EK = P E, K, E ( ) 1 I. Mrázová: Dobývání znalostí 6 K

Naivní Bayesovský klasifikátor (2) výpočet aposteriorní pravděpodobnosti hypotézy při platnosti všech E 1,, E k jako ( ) K P H P( H E ) = ( ) 1, K, EK P Ek H P E, K, E při klasifikaci pomocí naivního Bayesovského klasifikátoru budeme hledat hypotézu s největší aposteriorní pravděpodobností H MAP H MAP ( ) k = 1 = H J P J k J t t k = 1 k = 1 1 K K K ( H ) P( E H ) = max P( H ) P( E H ) I. Mrázová: Dobývání znalostí 7 k t

Naivní Bayesovský klasifikátor (3) P(H t ) = P(třídy_t) = = Počet_vzorů_z_t / Počet_všech_vzorů P(E k H t ) = P(vzorů_z_třídy_t_vyhovujících_E k = = Počet_vzorů_z_t_splňujících_E k Počet_vzorů_z_t I. Mrázová: Dobývání znalostí 8

Naivní Bayesovský klasifikátor (4) + možnost klasifikovat i neúplně popsané vzory - nulová aposteriorní pravděpodobnost P(E k H t ) při chybějících vzorech v trénovací množině (pro E k ) evtl. podhodnocení P(E k H t ) při nízké vzájemné četnosti E k a H t I. Mrázová: Dobývání znalostí 9

Bayesovské sítě (pravděpodobnostní sítě) Jednotlivá pozorování nemusí být navzájem nezávislá Reprezentace znalostí o částečně nezávislých pozorováních podmíněná nezávislost Veličiny A a B jsou podmíněně nezávislé při dané veličině C, jestliže P(A,B C) = P(A C) P(B C) Označení podmíněné nezávislosti A a B při daném C : A B C I. Mrázová: Dobývání znalostí 10

Bayesovská síť ~ acyklický orientovaný graf zachycující pomocí hran pravděpodobnostní závislosti mezi náhodnými veličinami Ke každému uzlu u (~ náhodné veličině) je přiřazena pravděpodobnostní distribuce tvaru P ( u rodiče ( u ) ), kde rodiče ( u ) jsou uzly, ze kterých vycházejí hrany do uzlu u Všechny uzly sítě jsou uspořádány (~ očíslovány) tak, že rodiče jsou před svými dětmi (~ mají nižší pořadové číslo) I. Mrázová: Dobývání znalostí 11

Bayesovská síť - pokračování (2) Potom pro každý uzel u i platí, že je podmíněně nezávislý na všech uzlech s nižším pořadovým číslem s výjimkou svých rodičů podmíněno rodiči rodičů: u i {u k }; k = 1,, i 1 \ rodiče(u i ) rodiče(rodiče(u i )) Sdružená pravděpodobnostní distribuce celé sítě: P n 1 n i i= 1 ( u,k, u ) = P( u rodice( u )) i I. Mrázová: Dobývání znalostí 12

Bayesovská síť - pokračování (3) Inference (~ pravděpodobnostní odvozování) v Bayesovských sítích - známe-li strukturu sítě a podmíněné pravděpodobnostní distribuce přiřazené jednotlivým uzlům, můžeme spočítat aposteriorní pravděpodobnost libovolného uzlu - Diagnostická inference ( zdola nahoru ) - Pozorujeme projevy nějakého jevu a zajímá nás, co je příčinou Která příčina má maximální aposteriorní pravděpodobnost? I. Mrázová: Dobývání znalostí 13

Bayesovská síť - pokračování (3) - Kauzální inference ( shora dolů ) Jaká je pravděpodobnost nějakého jevu za předpokladu určité příčiny? - Použití při konstrukci Bayesovské sítě X ne každá hrana musí mít kauzální interpretaci Učení Bayesovských sítí - Známá struktura (např. od experta) Z dat odvozovat pouze podmíněné pravděpodobnosti - Z dat odvodit strukturu sítě i pravděpodobnosti I. Mrázová: Dobývání znalostí 14

Učení Bayesovských sítí 1. Známá struktura, veličiny plně pozorovatelné (metoda maximálně věrohodného odhadu) spočítat z dat odhady podmíněných pravděpodobnostních distribucí pro jednotlivé uzly sítě Cíl: nalézt maximálně věrohodný odhad vzhledem k trénovacím datům (spočítat na základěčetností) P ( H E E ) t 1, 2 = n ( H ) t E1 E 2 n( E E ) 1 2 I. Mrázová: Dobývání znalostí 15

Učení Bayesovských sítí (2) 2. Známá struktura, veličiny částečně pozorovatelné (gradientní metoda nebo algoritmus EM) -některé veličiny (uzly sítě) nelze pozorovat jsouskryté (~ latentní) - použít gradientní metodu - maximalizovat pravděpodobnost P ( D h ) toho, že pozorujeme daná trénovací data D, pokud platí podmíněné pravděpodobnosti výpočet gradientu funkce ln P ( D h ) I. Mrázová: Dobývání znalostí 16

Učení Bayesovských sítí (2) 2. Známá struktura, veličiny částečně pozorovatelné gradientní metoda p ijk podmíněná pravděpodobnost toho, že veličina Y i nabývá hodnoty y ij, pokud rodiče U i této veličiny nabývají hodnoty u ik ln ( D h ) P ( Y = = ) = i y ij, U i u ik d η P p p ijk d D ijk I. Mrázová: Dobývání znalostí 17

Učení Bayesovských sítí (2) 2. Známá struktura, veličiny částečně pozorovatelné gradientní metoda aktualizace hodnot p ijk podle: p ijk : = p + η ijk d D ( y, u d ) + případná další normalizace p ijk Pro nepozorovatelné veličiny lze potřebné hodnoty dopočítat z pozorovatelných hodnot pomocí běžné inference v Bayesovské síti P ij p I. Mrázová: Dobývání znalostí 18 ijk ik

Učení Bayesovských sítí (2) 2. Známá struktura, veličiny částečně pozorovatelné algoritmus EM (expectation maximization) IDEA: kdybychom znali hodnoty skrytých veličin, mohli bychom přímo spočítat parametry podmíněné pravděpodobnostní distribuce INICIALIZACE: náhodně zvol parametry distribuce HLAVNÍ CYKLUS (EXPEKTACE + MAXIMALIZACE: 1) na základě parametrů distribuce spočítej hodnoty skrytých veličin 2) z takto spočítaných hodnot urči maximálně věrohodný odhad parametrů distribuce 3) pokud došlo ke změně parametrů, vrať se ke Kroku 1. I. Mrázová: Dobývání znalostí 19

Učení Bayesovských sítí (2) 3. neznámá struktura, veličiny plně pozorovatelné (prohledávání prostoru modelů) výpočetně náročné různých množin rodičů může být 2 k 4. Neznámá struktura, veličiny částečně pozorovatelné I. Mrázová: Dobývání znalostí 20

Bayesovská síť -příklady Příklad: trénovací data pro Bayesovský klasifikátor I. Mrázová: Dobývání znalostí 21

Bayesovská síť -příklady (2) Příklad (pokračování): Apriorní pravděpodobnost různých hodnot cílového atributu ÚVĚR : I. Mrázová: Dobývání znalostí 22

Bayesovská síť -příklady (3) Příklad (pokračování): Pro uchazeče o úvěr, který má středně vysoký zůstatek na kontě a není nezaměstnaný, spočítáme: Uchazeč bude zařazen do třídy ÚVĚR ( ANO ) I. Mrázová: Dobývání znalostí 23

Bayesovská síť -příklady (4) Příklad (pokračování): Bayesovská síť a výpočet podmíněných pravděpodobností v případě známé struktury sítě: I. Mrázová: Dobývání znalostí 24

Bayesovská síť -příklady (5) Příklad (pokračování): sdružená pravděpodobnostní distribuce pro tuto síť: I. Mrázová: Dobývání znalostí 25

Bayesovská síť -příklady (6) Příklad (pokračování): odhad dílčích pravděpodobností z trénovacích dat: I. Mrázová: Dobývání znalostí 26

Bayesovská síť -příklady (7) Příklad: Bayesovská síť a diagnostická inference Sdružená distribuce: P(Z,K,D,M) = P(Z) P(K Z) P(D Z) P(M K,D) I. Mrázová: Dobývání znalostí 27

Bayesovská síť -příklady (8) Příklad (pokračování): Podmíněné pravděpodobnosti uzlů - P(Z), P(K Z), P(D Z) a P(M K,D): I. Mrázová: Dobývání znalostí 28

Bayesovská síť -příklady (9) Příklad (pokračování): Podmíněné pravděpodobnosti - P(K=1 M=1) a P(D=1 M=1): I. Mrázová: Dobývání znalostí 29

Bayesovská síť -příklady (10) Příklad (pokračování): a P ( D = 1 M = 1 ) : P ( D = 1 M = 1 ) > P ( K = 1 M = 1 ) Příčinou MOKRO (=1) je DÉŠŤ Kauzální inference ( shora dolů ) Pravděpodobnost, že bude mokro, pokud je zataženo: P ( M = 1, Z = 1) P ( M = 1 Z = 1) = = 0.7452 P ( Z = 1) P ( Z = 1) I. Mrázová: Dobývání znalostí 30