Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
|
|
- Karolína Burešová
- před 6 lety
- Počet zobrazení:
Transkript
1 Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
2 Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
3 Bayesovská klasifikace Bayesův vztah pro výpočet podmíněné pravděpodobnosti ~pravděpodobnost, že platí hypotéza H, pokud pozorujeme E P ( H E) = ( E H ) P( H ) P( E) P(H). apriorní pravděpodobnost hypotézy H P(H E).. aposteriorní (podmíněná) pravděpodobnost P(E).. pravděpodobnost pozorování E P I. Mrázová: Dobývání znalostí 3
4 Bayesovská klasifikace (2) nejpravděpodobnější hypotéza H MAP ~největší aposteriorní pravděpodobnost H MAP = H ( H E) ; P = zanedbat jmenovatele: MAP J J J max t P ( E H t ) P( H t ) P( E) ( E) = P( E H t ) P( H t ) P t ( E H ) P( H ) = max ( P( E H ) P( H )) H = H P J J t t t I. Mrázová: Dobývání znalostí 4
5 Bayesovská klasifikace (3) Příklad: Poskytnout úvěr klientovi s vysokým příjmem? P(PUJCIT) = P(NEPUJCIT) = P(VYS_PRIJEM PUJCIT) = 0.91 P(VYS_PRIJEM NEPUJCIT) = 0.12 P(NIZ_PRIJEM PUJCIT) = 0.09 P(NIZ_PRIJEM NEPUJCIT) = 0.88 P(VYS_PRIJEM PUJCIT) P(PUJCIT) = P(VYS_PRIJEM NEPUJCIT) P(NEPUJCIT) = H MAP = PUJCIT I. Mrázová: Dobývání znalostí 5
6 Naivní Bayesovský klasifikátor Předpoklad: - jednotlivá pozorování E 1,, E K jsou podmíněně nezávislá při platnosti hypotézy H - tento předpoklad bývá v reálných úlohách jen málokdy splněn proto označení naivní výpočet aposteriorní pravděpodobnosti hypotézy při platnosti všech E 1,, E K P( E ) ( ) ( ) 1, K, EK H P H P H E1, K, EK = P E, K, E ( ) 1 I. Mrázová: Dobývání znalostí 6 K
7 Naivní Bayesovský klasifikátor (2) výpočet aposteriorní pravděpodobnosti hypotézy při platnosti všech E 1,, E k jako ( ) K P H P( H E ) = ( ) 1, K, EK P Ek H P E, K, E při klasifikaci pomocí naivního Bayesovského klasifikátoru budeme hledat hypotézu s největší aposteriorní pravděpodobností H MAP H MAP ( ) k = 1 = H J P J k J t t k = 1 k = 1 1 K K K ( H ) P( E H ) = max P( H ) P( E H ) I. Mrázová: Dobývání znalostí 7 k t
8 Naivní Bayesovský klasifikátor (3) P(H t ) = P(třídy_t) = = Počet_vzorů_z_t / Počet_všech_vzorů P(E k H t ) = P(vzorů_z_třídy_t_vyhovujících_E k = = Počet_vzorů_z_t_splňujících_E k Počet_vzorů_z_t I. Mrázová: Dobývání znalostí 8
9 Naivní Bayesovský klasifikátor (4) + možnost klasifikovat i neúplně popsané vzory - nulová aposteriorní pravděpodobnost P(E k H t ) při chybějících vzorech v trénovací množině (pro E k ) evtl. podhodnocení P(E k H t ) při nízké vzájemné četnosti E k a H t I. Mrázová: Dobývání znalostí 9
10 Bayesovské sítě (pravděpodobnostní sítě) Jednotlivá pozorování nemusí být navzájem nezávislá Reprezentace znalostí o částečně nezávislých pozorováních podmíněná nezávislost Veličiny A a B jsou podmíněně nezávislé při dané veličině C, jestliže P(A,B C) = P(A C) P(B C) Označení podmíněné nezávislosti A a B při daném C : A B C I. Mrázová: Dobývání znalostí 10
11 Bayesovská síť ~ acyklický orientovaný graf zachycující pomocí hran pravděpodobnostní závislosti mezi náhodnými veličinami Ke každému uzlu u (~ náhodné veličině) je přiřazena pravděpodobnostní distribuce tvaru P ( u rodiče ( u ) ), kde rodiče ( u ) jsou uzly, ze kterých vycházejí hrany do uzlu u Všechny uzly sítě jsou uspořádány (~ očíslovány) tak, že rodiče jsou před svými dětmi (~ mají nižší pořadové číslo) I. Mrázová: Dobývání znalostí 11
12 Bayesovská síť - pokračování (2) Potom pro každý uzel u i platí, že je podmíněně nezávislý na všech uzlech s nižším pořadovým číslem s výjimkou svých rodičů podmíněno rodiči rodičů: u i {u k }; k = 1,, i 1 \ rodiče(u i ) rodiče(rodiče(u i )) Sdružená pravděpodobnostní distribuce celé sítě: P n 1 n i i= 1 ( u,k, u ) = P( u rodice( u )) i I. Mrázová: Dobývání znalostí 12
13 Bayesovská síť - pokračování (3) Inference (~ pravděpodobnostní odvozování) v Bayesovských sítích - známe-li strukturu sítě a podmíněné pravděpodobnostní distribuce přiřazené jednotlivým uzlům, můžeme spočítat aposteriorní pravděpodobnost libovolného uzlu - Diagnostická inference ( zdola nahoru ) - Pozorujeme projevy nějakého jevu a zajímá nás, co je příčinou Která příčina má maximální aposteriorní pravděpodobnost? I. Mrázová: Dobývání znalostí 13
14 Bayesovská síť - pokračování (3) - Kauzální inference ( shora dolů ) Jaká je pravděpodobnost nějakého jevu za předpokladu určité příčiny? - Použití při konstrukci Bayesovské sítě X ne každá hrana musí mít kauzální interpretaci Učení Bayesovských sítí - Známá struktura (např. od experta) Z dat odvozovat pouze podmíněné pravděpodobnosti - Z dat odvodit strukturu sítě i pravděpodobnosti I. Mrázová: Dobývání znalostí 14
15 Učení Bayesovských sítí 1. Známá struktura, veličiny plně pozorovatelné (metoda maximálně věrohodného odhadu) spočítat z dat odhady podmíněných pravděpodobnostních distribucí pro jednotlivé uzly sítě Cíl: nalézt maximálně věrohodný odhad vzhledem k trénovacím datům (spočítat na základěčetností) P ( H E E ) t 1, 2 = n ( H ) t E1 E 2 n( E E ) 1 2 I. Mrázová: Dobývání znalostí 15
16 Učení Bayesovských sítí (2) 2. Známá struktura, veličiny částečně pozorovatelné (gradientní metoda nebo algoritmus EM) -některé veličiny (uzly sítě) nelze pozorovat jsouskryté (~ latentní) - použít gradientní metodu - maximalizovat pravděpodobnost P ( D h ) toho, že pozorujeme daná trénovací data D, pokud platí podmíněné pravděpodobnosti výpočet gradientu funkce ln P ( D h ) I. Mrázová: Dobývání znalostí 16
17 Učení Bayesovských sítí (2) 2. Známá struktura, veličiny částečně pozorovatelné gradientní metoda p ijk podmíněná pravděpodobnost toho, že veličina Y i nabývá hodnoty y ij, pokud rodiče U i této veličiny nabývají hodnoty u ik ln ( D h ) P ( Y = = ) = i y ij, U i u ik d η P p p ijk d D ijk I. Mrázová: Dobývání znalostí 17
18 Učení Bayesovských sítí (2) 2. Známá struktura, veličiny částečně pozorovatelné gradientní metoda aktualizace hodnot p ijk podle: p ijk : = p + η ijk d D ( y, u d ) + případná další normalizace p ijk Pro nepozorovatelné veličiny lze potřebné hodnoty dopočítat z pozorovatelných hodnot pomocí běžné inference v Bayesovské síti P ij p I. Mrázová: Dobývání znalostí 18 ijk ik
19 Učení Bayesovských sítí (2) 2. Známá struktura, veličiny částečně pozorovatelné algoritmus EM (expectation maximization) IDEA: kdybychom znali hodnoty skrytých veličin, mohli bychom přímo spočítat parametry podmíněné pravděpodobnostní distribuce INICIALIZACE: náhodně zvol parametry distribuce HLAVNÍ CYKLUS (EXPEKTACE + MAXIMALIZACE: 1) na základě parametrů distribuce spočítej hodnoty skrytých veličin 2) z takto spočítaných hodnot urči maximálně věrohodný odhad parametrů distribuce 3) pokud došlo ke změně parametrů, vrať se ke Kroku 1. I. Mrázová: Dobývání znalostí 19
20 Učení Bayesovských sítí (2) 3. neznámá struktura, veličiny plně pozorovatelné (prohledávání prostoru modelů) výpočetně náročné různých množin rodičů může být 2 k 4. Neznámá struktura, veličiny částečně pozorovatelné I. Mrázová: Dobývání znalostí 20
21 Bayesovská síť -příklady Příklad: trénovací data pro Bayesovský klasifikátor I. Mrázová: Dobývání znalostí 21
22 Bayesovská síť -příklady (2) Příklad (pokračování): Apriorní pravděpodobnost různých hodnot cílového atributu ÚVĚR : I. Mrázová: Dobývání znalostí 22
23 Bayesovská síť -příklady (3) Příklad (pokračování): Pro uchazeče o úvěr, který má středně vysoký zůstatek na kontě a není nezaměstnaný, spočítáme: Uchazeč bude zařazen do třídy ÚVĚR ( ANO ) I. Mrázová: Dobývání znalostí 23
24 Bayesovská síť -příklady (4) Příklad (pokračování): Bayesovská síť a výpočet podmíněných pravděpodobností v případě známé struktury sítě: I. Mrázová: Dobývání znalostí 24
25 Bayesovská síť -příklady (5) Příklad (pokračování): sdružená pravděpodobnostní distribuce pro tuto síť: I. Mrázová: Dobývání znalostí 25
26 Bayesovská síť -příklady (6) Příklad (pokračování): odhad dílčích pravděpodobností z trénovacích dat: I. Mrázová: Dobývání znalostí 26
27 Bayesovská síť -příklady (7) Příklad: Bayesovská síť a diagnostická inference Sdružená distribuce: P(Z,K,D,M) = P(Z) P(K Z) P(D Z) P(M K,D) I. Mrázová: Dobývání znalostí 27
28 Bayesovská síť -příklady (8) Příklad (pokračování): Podmíněné pravděpodobnosti uzlů - P(Z), P(K Z), P(D Z) a P(M K,D): I. Mrázová: Dobývání znalostí 28
29 Bayesovská síť -příklady (9) Příklad (pokračování): Podmíněné pravděpodobnosti - P(K=1 M=1) a P(D=1 M=1): I. Mrázová: Dobývání znalostí 29
30 Bayesovská síť -příklady (10) Příklad (pokračování): a P ( D = 1 M = 1 ) : P ( D = 1 M = 1 ) > P ( K = 1 M = 1 ) Příčinou MOKRO (=1) je DÉŠŤ Kauzální inference ( shora dolů ) Pravděpodobnost, že bude mokro, pokud je zataženo: P ( M = 1, Z = 1) P ( M = 1 Z = 1) = = P ( Z = 1) P ( Z = 1) I. Mrázová: Dobývání znalostí 30
Bayesovská klasifikace
Bayesovská klasifikace založeno na Bayesově větě P(H E) = P(E H) P(H) P(E) použití pro klasifikaci: hypotéza s maximální aposteriorní pravděpodobností H MAP = H J právě když P(H J E) = max i P(E H i) P(H
5.6 Bayesovská klasifikace
5.6 Bayesovská klasifikace Metody bayesovské klasifikace vycházejí z Bayesovy věty o podmíněných pravděpodobnostech. Ačkoliv se tedy jedná o metody pravděpodobnostní, jsou intenzivně studovány v souvislosti
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
UČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
Umělá inteligence II
Umělá inteligence II 11 http://ktiml.mff.cuni.cz/~bartak Roman Barták, KTIML roman.bartak@mff.cuni.cz Dnešní program! V reálném prostředí převládá neurčitost.! Neurčitost umíme zpracovávat pravděpodobnostními
Usuzování za neurčitosti
Usuzování za neurčitosti 25.11.2014 8-1 Usuzování za neurčitosti Hypotetické usuzování a zpětná indukce Míry postačitelnosti a nezbytnosti Kombinace důkazů Šíření pravděpodobnosti v inferenčních sítích
Ústav teorie informace a automatizace. J. Vomlel (ÚTIA AV ČR) Úvod do bayesovských sítí 30/10/ / 28
Úvod do bayesovských sítí Jiří Vomlel Ústav teorie informace a automatizace Akademie věd České republiky http://www.utia.cz/vomlel 30. října 2008 J. Vomlel (ÚTIA AV ČR) Úvod do bayesovských sítí 30/10/2008
Vytěžování znalostí z dat
Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 7 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology
Zpracování neurčitosti
Zpracování neurčitosti Úvod do znalostního inženýrství, ZS 2015/16 7-1 Usuzování za neurčitosti Neurčitost: Při vytváření ZS obvykle nejsou všechny informace naprosto korektní mohou být víceznačné, vágní,
oddělení Inteligentní Datové Analýzy (IDA)
Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {
Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group
Vytěžování dat Miroslav Čepek, Filip Železný Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme
Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.
Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Dnešní program Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu
Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Pro zopakování Pravděpodobnost je formální mechanismus pro zachycení neurčitosti. Pravděpodobnost každé
Úvod do mobilní robotiky AIL028
SLAM - souběžná lokalizace a mapování {md zw} at robotika.cz http://robotika.cz/guide/umor07/cs 10. ledna 2008 1 2 3 SLAM intro Obsah SLAM = Simultaneous Localization And Mapping problém typu slepice-vejce
Expertní systémy. Typy úloh: Klasifikační Diagnostické Plánovací Hybridní Prázdné. Feingenbaum a kol., 1988
Expertní systémy Počítačové programy, simulující rozhodovací činnost experta při řešení složitých úloh a využívající vhodně kvality rozhodování na úrovni experta. Typy úloh: Klasifikační Diagnostické Plánovací
PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady
PRAVDĚPODOBNOST A STATISTIKA Bayesovské odhady Bayesovské odhady - úvod Klasický bayesovský přístup: Klasický přístup je založen na opakování pokusech sledujeme rekvenci nastoupení zvolených jevů Bayesovský
PROHLEDÁVÁNÍ GRAFŮ. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze
PROHLEDÁVÁNÍ GRAFŮ Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze BI-GRA, LS 2010/2011, Lekce 4 Evropský sociální fond Praha & EU: Investujeme do
EM algoritmus. Proč zahrnovat do modelu neznámé veličiny
EM algoritmus používá se pro odhad nepozorovaných veličin. Jde o iterativní algoritmus opakující dva kroky: Estimate, který odhadne hodnoty nepozorovaných dat, a Maximize, který maximalizuje věrohodnost
Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X
Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich
Vysoká škola ekonomická Praha. Tato prezentace je k dispozici na:
Úvod do bayesovských sítí Jiří Vomlel Laboratoř inteligentních systémů Vysoká škola ekonomická Praha Tato prezentace je k dispozici na: http://www.utia.cas.cz/vomlel/ Obor hodnot Necht X je kartézský součin
Automatické vyhledávání informace a znalosti v elektronických textových datech
Automatické vyhledávání informace a znalosti v elektronických textových datech Jan Žižka Ústav informatiky & SoNet RC PEF, Mendelova universita Brno (Text Mining) Data, informace, znalost Elektronická
Pravděpodobnost, náhoda, kostky
Pravděpodobnost, náhoda, kostky Radek Pelánek IV122 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností připomenutí, souvislosti
Cíle lokalizace. Zjištění: 1. polohy a postavení robota (robot pose) 2. vzhledem k mapě 3. v daném prostředí
Cíle lokalizace Zjištění: 1. polohy a postavení robota (robot pose) 2. vzhledem k mapě 3. v daném prostředí 2 Jiný pohled Je to problém transformace souřadnic Mapa je globální souřadnicový systém nezávislý
Pravděpodobnost, náhoda, kostky
Pravděpodobnost, náhoda, kostky Radek Pelánek IV122, jaro 2015 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností krátké
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Rozhodovací stromy Doc. RNDr. Iveta Mrázová, CSc.
TECHNICKÁ UNIVERZITA V LIBERCI
TECHNICKÁ UNIVERZITA V LIBERCI Fakulta mechatroniky, informatiky a mezioborových studií Základní pojmy diagnostiky a statistických metod vyhodnocení Učební text Ivan Jaksch Liberec 2012 Materiál vznikl
Intervalová data a výpočet některých statistik
Intervalová data a výpočet některých statistik Milan Hladík 1 Michal Černý 2 1 Katedra aplikované matematiky Matematicko-fyzikální fakulta Univerzita Karlova 2 Katedra ekonometrie Fakulta informatiky a
Vzdálenost uzlů v neorientovaném grafu
Vzdálenosti a grafy Vzdálenost uzlů v neorientovaném grafu Je dán neorientovaný neohodnocený graf G = (V,E,I) vzdálenost uzlů u a v v neorientovaném souvislém grafu G je délka nejkratší cesty spojující
Lineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III
Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost
Pravděpodobně skoro správné. PAC učení 1
Pravděpodobně skoro správné (PAC) učení PAC učení 1 Výpočetní teorie strojového učení Věta o ošklivém kačátku. Nechť E je klasifikovaná trénovací množina pro koncept K, který tvoří podmnožinu konečného
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2016
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 206 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia
Bayesovské metody. Mnohorozměrná analýza dat
Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A
Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X
Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristik často potřebujeme všetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich
Statistická teorie učení
Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální
Kontingenční tabulky. (Analýza kategoriálních dat)
Kontingenční tabulky (Analýza kategoriálních dat) Agenda Standardní analýzy dat v kontingenčních tabulkách úvod, KT, míry diverzity nominálních veličin, některá rozdělení chí kvadrát testy, analýza reziduí,
Základy biostatistiky (MD710P09) ak. rok 2008/2009
1(229) Základy biostatistiky (MD710P09) ak. rok 2008/2009 Karel Zvára karel.zvara@mff.cuni.cz http://www.karlin.mff.cuni.cz/ zvara katedra pravděpodobnosti a matematické statistiky MFF UK (naposledy upraveno
Základy biostatistiky (MD710P09) ak. rok 2007/2008
1(208) Základy biostatistiky (MD710P09) ak. rok 2007/2008 Karel Zvára karel.zvara@mff.cuni.cz http://www.karlin.mff.cuni.cz/ zvara katedra pravděpodobnosti a matematické statistiky MFF UK (naposledy upraveno
NP-ÚPLNÉ PROBLÉMY. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze
NP-ÚPLNÉ PROBLÉMY Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze BI-GRA, LS 2010/2011, Lekce 13 Evropský sociální fond Praha & EU: Investujeme do
Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1
Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.
13. cvičení z PSI ledna 2017
cvičení z PSI - 7 ledna 07 Asymptotické pravděpodobnosti stavů Najděte asymptotické pravděpodobnosti stavů Markovova řetězce s maticí přechodu / / / 0 P / / 0 / 0 0 0 0 0 0 jestliže počáteční stav je Řešení:
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 207 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka
Informační systémy pro podporu rozhodování
Informační systémy pro podporu rozhodování 3 Jan Žižka, Naděžda Chalupová Ústav informatiky PEF Mendelova universita v Brně Nejbližší sousedi k NN Algoritmus k-nejbližších sousedů (k-nearest neighbors)
Trénování sítě pomocí učení s učitelem
Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup
Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.
Přednáška č. 1 Úvod do statistiky a počtu pravděpodobnosti Statistika Statistika je věda a postup jak rozvíjet lidské znalosti použitím empirických dat. Je založena na matematické statistice, která je
Základy teorie pravděpodobnosti
Základy teorie pravděpodobnosti Náhodný jev Pravděpodobnost náhodného jevu Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 15. srpna 2012 Statistika
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia
Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.
Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.
letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory
Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme
7 Soft computing. 7.1 Bayesovské sítě
7 Soft computing Jak již bylo řečeno v předcházející kapitole, zpracování neurčitosti v umělé inteligenci je zastřešeno souhrnným označením soft computing. V této kapitole se podíváme na základní přístupy
Bayesovské sítě. Kamil Matoušek, Ph.D. Informační a znalostní systémy
Bayesovské sítě Kamil Matoušek, Ph.D. Informační a znalostní systémy Co jsou Bayesian Networks (BN) Pravděpodobnostní modely využívající grafovou reprezentaci Znalosti zatížené nejistotou (nepřesné, nejisté,
ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ
Metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných
ORIENTOVANÉ GRAFY, REPREZENTACE GRAFŮ
ORIENTOVANÉ GRAFY, REPREZENTACE GRAFŮ Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze BI-GRA, LS 2/2, Lekce Evropský sociální fond Praha & EU: Investujeme
24.11.2009 Václav Jirchář, ZTGB
24.11.2009 Václav Jirchář, ZTGB Síťová analýza 50.let V souvislosti s potřebou urychlit vývoj a výrobu raket POLARIS v USA při závodech ve zbrojení za studené války se SSSR V roce 1958 se díky aplikaci
populace soubor jednotek, o jejichž vlastnostech bychom chtěli vypovídat letní semestr Definice subjektech.
Populace a Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 2012 1 populace soubor jednotek, o jejichž vlastnostech bychom
Rozhodovací pravidla
Rozhodovací pravidla Úloha klasifikace příkladů do tříd. pravidlo Ant C, kde Ant je konjunkce hodnot atributů a C je cílový atribut A. Algoritmus pokrývání množin metoda separate and conquer (odděl a panuj)
Informační a znalostní systémy
Informační a znalostní systémy Teorie pravděpodobnosti není v podstatě nic jiného než vyjádření obecného povědomí počítáním. P. S. de Laplace Pravděpodobnost a relativní četnost Pokusy, výsledky nejsou
Praha, 24. listopadu 2014
Příklady aplikací bayesovských sítí Jiří Vomlel Ústav teorie informace a automatizace (ÚTIA) Akademie věd České republiky http://www.utia.cz/vomlel Praha, 24. listopadu 2014 Obsah přednášky Příklad bayesovské
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
NEPARAMETRICKÉ BAYESOVSKÉ ODHADY V KOZIOLOVĚ-GREENOVĚ MODELU NÁHODNÉHO CENZOROVÁNÍ. Michal Friesl
NEPARAMETRICKÉ BAYESOVSKÉ ODHADY V KOZIOLOVĚ-GREENOVĚ MODELU NÁHODNÉHO CENZOROVÁNÍ Michal Friesl Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Princip Příklady V K.-G. modelu
AVDAT Mnohorozměrné metody, metody klasifikace
AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných
Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)
Lékařská biofyzika, výpočetní technika I Biostatistika Josef Tvrdík (doc. Ing. CSc.) Přírodovědecká fakulta, katedra informatiky josef.tvrdik@osu.cz konzultace úterý 4. až 5.4 hod. http://www.osu.cz/~tvrdik
Teorie systémů TES 5. Znalostní systémy KMS
Evropský sociální fond. Praha & EU: Investujeme do vaší budoucnosti. Teorie systémů TES 5. Znalostní systémy KMS ZS 2011/2012 prof. Ing. Petr Moos, CSc. Ústav informatiky a telekomunikací Fakulta dopravní
Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Definice P(A/B) pravděpodobnost nastoupení jevu A za předpokladu, že nastal jev B (P(B) > 0) definujeme vztahem
Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)
Lékařská biofyzika, výpočetní technika I Biostatistika Josef Tvrdík (doc. Ing. CSc.) Přírodovědecká fakulta, katedra informatiky josef.tvrdik@osu.cz konzultace úterý 14.10 až 15.40 hod. http://www1.osu.cz/~tvrdik
Automatizované řešení úloh s omezeními
Automatizované řešení úloh s omezeními Martin Kot Katedra informatiky, FEI, Vysoká škola báňská Technická universita Ostrava 17. listopadu 15, Ostrava-Poruba 708 33 Česká republika 25. října 2012 M. Kot
8-9. Pravděpodobnostní rozhodování a predikce. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze
KYBERNETIKA A UMĚLÁ INTELIGENCE 8-9. Pravděpodobnostní rozhodování a predikce laboratory Gerstner Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze Rozhodování za neurčitosti
5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza
5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza 5.1 Vícerozměrná data a vícerozměrná rozdělení Při zpracování vícerozměrných dat se hledají souvislosti mezi dvěma, případně
Vzorová písemka č. 1 (rok 2015/2016) - řešení
Vzorová písemka č. rok /6 - řešení Pavla Pecherková. května 6 VARIANTA A. Náhodná veličina X je určena hustotou pravděpodobností: máme hustotu { pravděpodobnosti C x pro x ; na intervalu f x jinde jedná
11. cvičení z PSI prosince hodnota pozorovaná četnost n i p X (i) = q i (1 q), i N 0.
11 cvičení z PSI 12-16 prosince 2016 111 (Test dobré shody - geometrické rozdělení Realizací náhodné veličiny X jsme dostali následující četnosti výsledků: hodnota 0 1 2 3 4 5 6 pozorovaná četnost 29 15
ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ
metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných
MYCIN, Prospector. Pseudodefinice [Expertní systémy, Feigenbaum a kol. 1988] oblasti kvality rozhodování na úrovni experta.
Expertní systémy MYCIN, Prospector Pseudodefinice [Expertní systémy, Feigenbaum a kol. 1988] Expertní systémy jsou počítačové programy, simulující rozhodovací činnosti experta při řešení složitých úloh
VK CZ.1.07/2.2.00/
Robotika Tvorba map v robotice - MRBT 3. března 2015 Ing. František Burian Komplexní inovace studijních programů a zvyšování kvality výuky na FEKT VUT v Brně OP VK CZ.1.07/2.2.00/28.0193 v pojetí mobilní
Intuitivní pojem pravděpodobnosti
Pravděpodobnost Intuitivní pojem pravděpodobnosti Intuitivní pojem pravděpodobnosti Pravděpodobnost zkoumaného jevu vyjadřuje míru naděje, že tento jev nastane. Řekneme-li, že má nějaký jev pravděpodobnost
Implementace Bayesova kasifikátoru
Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6
Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Jestliže opakujeme nezávisle nějaký pokus, můžeme z pozorovaných hodnot sestavit rozdělení relativních četností
Přednáška II. Vztah pravděpodobnosti, statistiky a biostatistiky
řednáška II. Vztah pravděpodobnosti, statistiky a biostatistiky Statistika vychází z pravděpodobnosti odmíněná pravděpodobnost, Bayesův vzorec Senzitivita, specificita, prediktivní hodnoty Frekventistická
BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni
BAYESOVSKÉ ODHADY V NĚKTERÝCH MODELECH Michal Friesl Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Slunce Řidiči IQ Regrese Přežití Obvyklý model Pozorování X = (X 1,..., X
Odhady - Sdružené rozdělení pravděpodobnosti
Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy
Náhodné vektory a matice
Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane
pseudopravděpodobnostní Prospector, Fel-Expert
Práce s neurčitostí trojhodnotová logika Nexpert Object, KappaPC pseudopravděpodobnostní Prospector, Fel-Expert (pravděpodobnostní) bayesovské sítě míry důvěry Mycin algebraická teorie Equant fuzzy logika
NEJKRATŠÍ CESTY I. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze
NEJKRATŠÍ CESTY I Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze BI-GRA, LS 2010/2011, Lekce 7 Evropský sociální fond Praha & EU: Investujeme do vaší
Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.
Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc. dohnal@nipax.cz Pravděpodobnost a matematická statistika 2010 1.týden (20.09.-24.09. ) Data, typy dat, variabilita, frekvenční analýza
, 1. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv
42206, skupina (6:5-7:45) Jméno: Zápočtový test z PSI Nezapomeňte podepsat VŠECHNY papíry, které odevzdáváte Škrtejte zřetelně a stejně zřetelně pište i věci, které platí Co je škrtnuto, nebude bráno v
Pravděpodobnost Podmíněná p. Úplná p. III. Pravděpodobnost. III. Pravděpodobnost Statistika A (ZS 2015)
III Pravděpodobnost Pravděpodobnost Podmíněná p. Úplná p. Odkud se bere pravděpodobnost? 1. Pravděpodobnost, že z balíčku zamíchaných karet vytáhmene dvě esa je přibližně 0:012. Modely a teorie. 2. Pravděpodobnost,
METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1
METODY DOLOVÁNÍ V DATECH DATOVÉ SKLADY TEREZA HYNČICOVÁ H2IGE1 DOLOVÁNÍ V DATECH (DATA MINING) OBJEVUJE SE JIŽ OD 60. LET 20. ST. S ROZVOJEM POČÍTAČOVÉ TECHNIKY DEFINICE PROCES VÝBĚRU, PROHLEDÁVÁNÍ A MODELOVÁNÍ
Pravděpodobnost a statistika (BI-PST) Cvičení č. 1
Pravděpodobnost a statistika (BI-PST) Cvičení č. 1 Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení technické v Praze ZS 2014/2015 (FIT ČVUT) BI-PST, Cvičení č. 1 ZS 2014/2015
Jana Vránová, 3. lékařská fakulta UK
Jana Vránová, 3. lékařská fakulta UK Vznikají při zkoumání vztahů kvalitativních resp. diskrétních znaků Jedná se o analogii s korelační analýzou spojitých znaků Přitom předpokládáme, že každý prvek populace
Odečítání pozadí a sledování lidí z nehybné kamery. Ondřej Šerý
Odečítání pozadí a sledování lidí z nehybné kamery Ondřej Šerý Plán Motivace a popis úlohy Rozdělení úlohy na tři části Detekce pohybu Detekce objektů Sledování objektů Rozbor každé z částí a nástin několika
Neurčitost: Bayesovské sítě
Neurčitost: Bayesovské sítě 12. dubna 2018 1 Opakování: pravděpodobnost 2 Bayesovská síť 3 Sémantika sítě Zdroj: Roman Barták, přednáška přednáška Umělá inteligence II, Matematicko-fyzikální fakulta, Karlova
4EK212 Kvantitativní management. 7.Řízení projektů
4EK212 Kvantitativní management 7.Řízení projektů 6.5 Řízení projektů Typická aplikace teorie grafů Projekt = soubor činností Příklady: Vývoj a uvedení nového výrobku Výstavba či rekonstrukce objektu Plán
Apriorní rozdělení. Jan Kracík.
Apriorní rozdělení Jan Kracík jan.kracik@vsb.cz Apriorní rozdělení Apriorní rozdělení (spolu s modelem) reprezentuje informaci o neznámém parametru θ, která je dostupná předem, tj. bez informace z dat.
Deset přednášek z teorie statistického a strukturního rozpoznávání
Monografie Deset přednášek teorie statistického a strukturního roponávání Michail I. Schlesinger, Václav Hlaváč Praha 1999 Vydavatelství ČVUT 1. přednáška Bayesovská úloha statistického rohodování 1.1
9. T r a n s f o r m a c e n á h o d n é v e l i č i n y
9. T r a n s f o r m a c e n á h o d n é v e l i č i n Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota závisí nějakým způsobem na vstupní, je její funkcí = f(x). Pokud
Dijkstrův algoritmus
Dijkstrův algoritmus Hledání nejkratší cesty v nezáporně hranově ohodnoceném grafu Necht je dán orientovaný graf G = (V, H) a funkce, která každé hraně h = (u, v) H přiřadí nezáporné reálné číslo označované
Využití metod strojového učení v bioinformatice David Hoksza
Využití metod strojového učení v bioinformatice David Hoksza SIRET Research Group Katedra softwarového inženýrství, Matematicko-fyzikální fakulta Karlova Univerzita v Praze Bioinformatika Biologické inspirace
VLASTNOSTI GRAFŮ. Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze. BI-GRA, LS 2010/2011, Lekce 5
VLASTNOSTI GRAFŮ Doc. RNDr. Josef Kolář, CSc. Katedra teoretické informatiky, FIT České vysoké učení technické v Praze BI-GRA, LS 2010/2011, Lekce 5 Evropský sociální fond Praha & EU: Investujeme do vaší
Pravděpodobnost a aplikovaná statistika
Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT RNDr. Eva Janoušová INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ HODNOCENÍ ÚSPĚŠNOSTI KLASIFIKACE A SROVNÁNÍ KLASIFIKÁTORŮ ÚVOD Vstupní data Subjekt Objem hipokampu Objem komor Skutečnost