Neparametrické odhady hustoty pravděpodobnosti

Podobné dokumenty
UČENÍ BEZ UČITELE. Václav Hlaváč

Statistická teorie učení

Geometrické transformace

Kybernetika a umělá inteligence, cvičení 10/11

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Síla a významnost asociace mezi proměnnými v systému

Obraz matematický objekt. Spojitý obraz f c : (Ω c R 2 ) R

KYBERNETIKA A UMĚLÁ INTELIGENCE. 2. Pravděpodobnostní rozhodování a klasifikace

Určujeme neznámé hodnoty parametru základního souboru. Pomocí výběrové charakteristiky vypočtené z náhodného výběru.

Aplikace 2: Hledání informativních příznaků pro rozpoznávání

KOMPRESE OBRAZŮ. Václav Hlaváč, Jan Kybic. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání.

Restaurace (obnovení) obrazu při známé degradaci

Diskrétní 2D konvoluce

KTE/TEVS - Rychlá Fourierova transformace. Pavel Karban. Katedra teoretické elektrotechniky Fakulta elektrotechnická Západočeská univerzita v Plzni

VZTAH MEZI STATISTICKÝM A STRUKTURNÍM ROZPOZNÁVÁNÍM

8-9. Pravděpodobnostní rozhodování a predikce. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

7 Regresní modely v analýze přežití

Odhady Parametrů Lineární Regrese

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Odhady - Sdružené rozdělení pravděpodobnosti

Téma 22. Ondřej Nývlt

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D.

KOMPRESE OBRAZŮ. Václav Hlaváč. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání. hlavac@fel.cvut.

Apriorní rozdělení. Jan Kracík.

Implementace Bayesova kasifikátoru

Testování statistických hypotéz

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Klasifikace podle nejbližších sousedů Nearest Neighbour Classification [k-nn]

Bayesovská klasifikace digitálních obrazů

Statistická analýza dat

KGG/STG Statistika pro geografy

SIGNÁLY A LINEÁRNÍ SYSTÉMY

Pravděpodobně skoro správné. PAC učení 1

SIGNÁLY A LINEÁRNÍ SYSTÉMY

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

UNIVERZITA OBRANY Fakulta ekonomiky a managementu. Aplikace STAT1. Výsledek řešení projektu PRO HORR2011 a PRO GRAM

Mˇ eˇren ı ˇ cetnost ı (Poissonovo rozdˇ elen ı) 1 / 56

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Rozhodnutí / Skutečnost platí neplatí Nezamítáme správně chyba 2. druhu Zamítáme chyba 1. druhu správně

ANALÝZA A KLASIFIKACE DAT

AVDAT Mnohorozměrné metody, metody klasifikace

Vytěžování znalostí z dat

Uvod Modely n-tic Vyhodnocov an ı Vyhlazov an ı a stahov an ı Rozˇ s ıˇ ren ı model u n-tic Jazykov e modelov an ı Pavel Smrˇ z 27.

Bayesovské metody. Mnohorozměrná analýza dat

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

Fyzikální korespondenční seminář MFF UK

Intervalové Odhady Parametrů

TECHNICKÁ UNIVERZITA V LIBERCI

Odhad stavu matematického modelu křižovatek

IDENTIFIKACE BIMODALITY V DATECH

Statistická analýza dat v psychologii. Věci, které můžeme přímo pozorovat, jsou téměř vždy pouze vzorky. Alfred North Whitehead

ROZDĚLENÍ SPOJITÝCH NÁHODNÝCH VELIČIN

Generování pseudonáhodných. Ing. Michal Dorda, Ph.D.

Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc.

SRE 03 - Statistické rozpoznávání

Náhodné chyby přímých měření

Ústav matematiky a statistiky Masarykova univerzita Brno. workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí

Náhodné signály. Honza Černocký, ÚPGM

Semestrální práce z předmětu Pravděpodobnost, statistika a teorie informace

Lineární a adaptivní zpracování dat. 3. SYSTÉMY a jejich popis ve frekvenční oblasti

SIGNÁLY A SOUSTAVY, SIGNÁLY A SYSTÉMY

PRAVDĚPODOBNOST A STATISTIKA. Neparametrické testy hypotéz čast 1

ÚVOD DO ROZPOZNÁVÁNÍ

Statistické metody v digitálním zpracování obrazu. Jindřich Soukup 3. února 2012

Praktická statistika. Petr Ponížil Eva Kutálková

Úvod do zpracování signálů

Přednáška 13 Redukce dimenzionality

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ. FAKULTA STROJNÍHO INŽENÝRSTVÍ Ústav materiálového inženýrství - odbor slévárenství

Markov Chain Monte Carlo. Jan Kracík.

ROZPOZNÁVÁNÍ S MARKOVSKÝMI MODELY

Preceptron přednáška ze dne

12 - Frekvenční metody

1. Přednáška. Ing. Miroslav Šulai, MBA

Úloha - rozpoznávání číslic

Normální (Gaussovo) rozdělení

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

PRAVDĚPODOBNOST A STATISTIKA

HLEDÁNÍ HRAN. Václav Hlaváč. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání.

Zpětnovazební učení Michaela Walterová Jednoocí slepým,

Téma 2: Pravděpodobnostní vyjádření náhodných veličin

Intervalové odhady. Interval spolehlivosti pro střední hodnotu v N(µ, σ 2 ) Interpretace intervalu spolehlivosti. Interval spolehlivosti ilustrace

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

Příklad 1. Řešení 1 ŘEŠENÉ PŘÍKLADY Z MV2 ČÁST 11

Věta 12.3 : Věta 12.4 (princip superpozice) : [MA1-18:P12.7] rovnice typu y (n) + p n 1 (x)y (n 1) p 1 (x)y + p 0 (x)y = q(x) (6)

Testování hypotéz testy o tvaru rozdělení. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Intervalové odhady. Interval spolehlivosti pro střední hodnotu v N(µ, σ 2 ) Interpretace intervalu spolehlivosti. Interval spolehlivosti ilustrace

Kombinatorika, pravděpodobnost a statistika, Posloupnosti a řady

7 Pravděpodobnostní modely úvod

ROZDĚLENÍ NÁHODNÝCH VELIČIN

Pravděpodobnost a aplikovaná statistika

Probability density estimation Parametric methods

Lineární klasifikátory

PSY117/454 Statistická analýza dat v psychologii Přednáška 10

České vysoké učení technické v Praze Fakulta dopravní Ústav aplikované matematiky, K611. Semestrální práce ze Statistiky (SIS)

Testování statistických hypotéz. Ing. Michal Dorda, Ph.D.

Neuronové sítě Učení bipolárního perceptronu

jevu, čas vyjmutí ze sledování byl T j, T j < X j a T j je náhodná veličina.

Transkript:

Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz

Statistické rozpoznávaní From [Jain00] Class-conditional Densities p(x ω i ) ω 1 ω 2 2 Bayes Decision Theory Known Parametric Supervised Unknown Nonparametric Unsupervised x Parametric Nonparametric output information Optimal Rules Plug-in Rules Density Estimation Decision Boundary Construction Mixture Resolving Clustering Analysis input information difficulty

Unimodální a vícemodální hustoty 3 Parametrické metody umějí odhadovat unimodální hustoty pravděpodobnosti. Mnohé praktické úlohy odpovídají vícemodálním hustotám. Jen někdy (zřídka) lze vícemodální rozdělení modelovat jako směs unimodálních rozdělení. Neparametrické metody odhadu lze použít pro vícemodální hustoty, aniž by bylo nutné předpokládat tvar jejich rozdělení. něco za něco: potřebují více trénovacích dat

Neparametrické metody Dva typy úloh 4 Pozorování x, pravděpodobnost třídy (skrytého stavu) k z množiny tříd K. Zmíníme postupy pro odhad dvou pravděpodobností: Hustoty pravděpodobnosti p(x k) závislé na třídě, (metoda histogramu, Parzenova okna). Maximální aposteriorní pravděpodobnosti P(k x), (metody nejbližšího souseda, obcházejí odhad hustoty a odhadují přímo rozhodovací pravidlo).

Myšlenka = histogram 5 Rozděl prostor jevů na přihrádky o šířce h Aproximuj rozdělení pomocí p(x)

NEVÝHODY HISTOGRAMU Nespojitosti v odhadu hustoty závisí na kvantizaci přihrádek, nikoliv na hustotě. Prokletí dimenzionality: Jemný popis vyžaduje mnoho přihrádek. Počet přihrádek roste exponenciálně s počtem dimenzí. Dat není dost, a tak je většina přihrádek prázdných. Tyto nevýhody činí metodu histogramu prakticky nepoužitelnou až na případ rychlé vizualizace dat v dimenzi 1 nebo 2. 6

Myšlenka neparametrických odhadů (1) 7 Trénovací množina x = {x 1,..., x n }

Myšlenka neparametrických odhadů (2) 8 Pravděpodobnost, že x padne do přihrádky o rozměru R Pravděpodobnost P je vyhlazenou verzí p(x). Obráceně, hodnotu p(x) lze odhadnout z pravděpodobnosti P.

Myšlenka neparametrických odhadů (3) 9 Předpokládejme, že jsme vytáhli nezávisle m vzorků ze stejného rozdělení p(x). Pravděpodobnost, že m vzorků je z n je dána binomickým rozdělením

Myšlenka neparametrických odhadů (4) 10 Očekávaná hodnota m rozdělení je Binomické rozdělení je velmi špičaté kolem své očekávané hodnoty, a proto lze očekávat, že m/n bude dobrým odhadem P, a tudíž i hustoty p.

Myšlenka neparametrických odhadů (5) 11

Myšlenka neparametrických odhadů (6) 12 m počet x i, které spadly do R n počet přihrádek Kombinací předchozích dvou vztahů získáme odhad pravděpodnosti

ILUSTRACE Skutečná hodnota hustoty rozdělení, z něhož se v bodě x vybíralo je 0,7. Normalizováno na stejnou hodnotu. 13

Praktická potíž 14 Když zvolíme pevnou velikost přihrádky, potom m/n konverguje k vyhlazené hodnotě p(x). Když zmenšujeme přihrádku do nekonečna, nepadne nám do ní žádný vzorek a náš odhad bude p(x) 0. Musíme být připraveni, že prakticky náš odhad bude vždy vyhlazen.

Jak obejít problémy? 15 Potížím se teoreticky vyhneme, když budeme mít nekonečně vzorků rozdělení. Můžeme uvažovat posloupnost přihrádek různé velikosti kolem x. První přihdrádka obsahuje 1 vzorek m=1, druhá m=2, atd. Odhad hodnoty rozdělení

Tři podmínky 16

Dva způsoby vytvoření posloupností přihrádek 1. Objem přihrádky je funkcí n, např. 17 Vn =1/ n. Metoda Parzenova okna. 2. Počet vzorků mn je určen jako funkce n, např. kn = n. Zde přihrádka roste, až obsahuje mn sousedů vzorku x. Metoda mn-nejbližších sousedů.

ILUSTRACE růstu přihrádek 18

Metoda Parzenových oken Také nazývaná jádrová metody odhadu hustoty. Parzen E. (1962). On estimation of a probability density function and mode, Ann. Math. Stat. 33, pp. 1065-1076. Duda R.O., Hart P.E., Stork D.G. (2001). Pattern Classification. John Willey & Sons, New York. 19

Neformálně Parzenova okna p(x) pˆ ( x) 20 Myšlenka: každý bod z trénovací množiny přispívá jednou Parzenovou jádrovou funkcí (nebo oknem) k vytvoření hustoty pravděpodobnosti. x

Parzenovo okno Přihrádka je d-rozměrná nadkrychle o straně h se středem ve vzorku x přispívajícím odhadu. Počet vzorků v přihrádce je dán jádrovou funkcí 1 uj 1; j = 1,..., d ϕ ( u) = 0 jindy, které se říká Parzenovo okno nebo naivní estimátor. 21

22 Odhad hustoty Počet vzorků v nadkrychli je Odhad hustoty je = = n j j h x x m 1 ϕ = = n j n j n h x x Vn n x p 1 1 ) ( 1 ϕ

Odhad p(x) jako suma δ-funkcí (1) Odhad je interpolací založené na oknové (jádrové) funkci ϕ(). Mimo přihrádku má δ-funkce nulovou hodnotu. Aby byl odhad pravděpodobností, musí platit ϕ ( x) 0, ϕ ( u) du = 1 Zkoumejme vliv šířky okna h n na p n (x). Uvažujme provizorně, že odhad je superpozicí Diracových pulsů δ δn n 1 x 1 = Vn hn n j= 1 ( x) ϕ p ( ) n( x) = δn x xj 23

Odhad p(x) jako suma δ-funkcí (2) Odhad p(x) je sumou δ-funkcí. Rozměr přihrádky h ovlivňuje jak amplitudu tak i šířku δ(x), protože objem zůstává konstantní. 24

Ilustrace vlivu velikosti okna 25 Při malém h je odhad p(x) je superpozicí velmi pozvolně se měnících funkcí. Je rozmazaný. Při velkém h je odhad p(x) superpozicí úzkých špiček v místě vzorků.

Volba jádrové funkce (okna) 26 Vyhlazování je nutné. Superpozice Diracových pulsů by vedla k nespojitému odhadu p(x). Doporučená volba: Gaussián

Odhad hustoty metodou nejbližšího souseda 27 Najdi n nejbližších sousedů k hodnotě x. V n je objem (např. koule) obsahujici těchto n vzorků. Odhadni hodnotu hustoty jako pˆ ( x) = 1 V k N x 2 x 1

Nejbližší sousedé 28 Základní myšlenka je jednoduchá : Učení Zapamatují se všechny dvojice {vstup, rozhodnutí o třídě}. Odhadování, rozpoznávání Odpověď se vybere podle n nejbližších tréninkových příkladů.

Nejbližší sousedé, ilustrace 29

Nejbližší sousedé, vlastnosti 30 Výhody Po uchování trénovací množiny není potřebné další učení. Neparametrická metoda. Nevýhody Potřebuje mnoho paměti pro uložení trénovací množiny. Pro mohutnější trénovací množiny je rozpoznávání pomalé.