Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno

Rozměr: px
Začít zobrazení ze stránky:

Download "Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno"

Transkript

1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6

2 Plán... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 2/6

3 Statistical pattern recognition the art of taking in raw data and making an action based on the category of the pattern SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 3/6

4 input Technicky... sensing segmentation feedback... feature extraction classification missing features context post processing costs decision SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 4/6

5 Příklad SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 5/6

6 I. Snímání Co se dá o rozpoznávaných předmětech poznat? obraz, tlak, teplota, hmostnost, zvuk, pach? jak tyto veličiny prakticky získat, jde to vůbec a kolik to bude stát? jaké vlastnosti bude mít snímač a převod veličina číslo? DC offset šum linearita kalibrace stárnutí atd. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 6/6

7 II. Segmentace pokud jsou vzorky izolované, OK... jenže ony často nejsou: 4 x navíc problém kontextu, který segmentaci mění... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 7/6

8 Musíme udělat alespoň nějakou segmentaci a-priori: N l ram s ram p ram Segmentace je pak součástí klasifikačního procesu: při rozpoznávání odhad pravděpodobností všech tříd pro všechny rámce, Viterbiho dekódování. při trénování forced alignment opět Viterbi, který optimálně natahuje segmenty na data. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 8/6

9 III. Výpočet příznaků Příznaky musí být především použitelné pro klasifikaci - průměr jablka / granátu?... nic moc. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 9/6

10 Váha a podíl červené složky v obrázku?... to už je lepší. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6

11 Invariantnost příznaků translace (místo v obrázku, čas v řeči) rotace scale (velikost v obrázku, volume v řeči) occlusion (zakrytí objektu vs. maskování šumem) projective distorition (úhel pohledu, optika) rate (rychlost v řeči intra- a inter-speaker variabilita) deformace atd. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 11/6

12 IV. Klasifikace do klasifikátoru vstupují příznakové vektory: x = x 1. x P např. x = úkolem je rozhodnout se pro jednu ze tříd: diskriminativní linie (decision boundary). tvrdé rozhodnutí vs. poskytnutí skóre. weight %red SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 12/6

13 Tvar separační linie: lineární, nelineární SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 13/6

14 Problém neřešitelný pro lineární klasifikátor SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 14/6

15 Tvar separační linie: přetrénováno... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 15/6

16 Generalizace: složitá separační linie vede ke 1% rozpoznání trénovacích dat. ale může klasifikátor zcela zblbnout. testování na cross-validačních (CV) datech. Problémy klasifikátoru: Co když závisí feature na kontextu? (prohloubení dopravníku jablek/granátů, koartikulace v řeči). šum ve featurech opět generalizace. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 16/6

17 V. Post-processing: nastavení podle kontextu (např. změna kalibrace červené po nákupu červené lampy). určení detekčního prahu. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 17/6

18 Správná rozhodnutí: p(apple apple), Špatná rozhodnutí: p(apple grenade), p(grenade apple). p(grenade grenade). Pokud by šlo o detekční úlohu (často o ni jde!) a třída k detekci by byla granát, pak: p(apple grenade) MISS p(grenade apple) FALSE ALARM. Nastavení detekčního prahu podle ceny (cost) špatného rozhodnutí. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 18/6

19 nechceme, aby se dostal granát do marmelády čas pyrotechnika je drahý a má moc práce kvantifikace costu: c(m iss), c(f A) + a-priorní pravděposobnosti tříd. více, až s námi někdo budete dělat NIST evaluace. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 19/6

20 The design cycle: start collect data choose features choose model prior knowledge train model evaluate classifier end Co jiného? Výpočetní náročnost (memory/disk/cpu footprint) možnost adaptace (supervised/unsupervised/block/incremental)? SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 2/6

21 Bayesovská teorie rozhodování (klasifikace) notace: P ( ) bude opravdová pravděpodobnost, p( ) bude hodnota funkce rozložení pravděpodobonosti (probability density function - PDF) - likelihood (sorry, český ekvivalent věrohodnost není nic moc). stav věci (state of the nature): třída ω: ω 1 =granát, ω 2 =jablko. a-priori pravděpodobnost tříd: P (ω i ), pro slušné pravděpodobosti platí: c P (ω i ) = 1 i=1 pro nás například: P (ω 1 ) =.99, P (ω 2 ) =.1. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 21/6

22 Hodně blbý klasifikátor o klasifikované věci nevíme nic. klasifikační pravidlo (decision rule): rozhodni ω 1 pokudp (ω 1 ) > P (ω 2 ), jinak ω 2... hm hm, hodně blbé, hlavně u sekvence, kde už jsme 99 rozhodli jablko. Naštěstí většinou něco víme: třídně podmíněná funkce hustoty rozdělení pravděpodobnosti Class-conditional probability density function p(x ω i ). SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 22/6

23 Jak na class-conditional probability density function? Nejprve představa s diskrétními hodnotami: chci zjistit, jak je pravděpodobné, že je to granát, když je to těžké: lehký těžký jablko 8 19 granát 1 9 společná (joint) pravděpodobnost: P (granát, těžký) = 9/1 =.9 podmíněná (conditional) pravděpodobnost: P (granát těžký) = P (granát, těžký) P (granát) =.9.1 =.9 (9%) SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 23/6

24 Spojité hodnoty - nutno definovat podmíněné funkce hustoty rozdělení pravděpodobnosti. 3.5 x p(x ω 1 ) p(x ω 2 ) weight Rozhodování pouze na základě těchto funkcí? Dost nebezpečné, protože neberou v úvahu priors. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 24/6

25 Společná funkce hustoty rozložení pravděpodobnosti (joint probability density function) se dá zapsat dvěma způsoby: p(ω j, x) = P (ω j x)p(x) = p(x ω j )P (ω j ) (všimněte si, co jsou pravděpodobnosti a co PDF s!). Pak: P (ω j x) = p(x ω j)p (ω j ) p(x) P (ω j x) je to, co chceme! - pravděpodobnost ω j, když vidíme x - posterior p(x ω j ) je podmíněná funkce hustoty rozdělení pravděpodobnosti - viz obrázek - likelihood. P (ω j ) je apriorní pravděpodobnost třídy ω j - prior. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 25/6

26 p(x) je suma čitatelů pro všechny třídy tak, aby P (ω j x) byla slušná pravděpodobnost: c P (ω j x) = 1 nepodíĺı se na rozhodování, ale pouze normalizační faktor - evidence. j=1 p(x) = posterior = c p(x ω j )P (ω j ) j=1 likelihood prior evidence SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 26/6

27 Posteriory pro různé priors: 1) P (ω 1 ) = P (ω 2 ) =.5 2) P (ω 1 ) =.99, P (ω 2 ) =.1, 1.9 P(ω 1 x) P(ω 2 x) weight.1 P(ω 1 x) P(ω 2 x) weight SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 27/6

28 3) P (ω 1 ) = 1/3, P (ω 2 ) = 2/3, 4) tentýž případ bez normalizace x 1 3 p(x ω 1 )P(ω 1 ) p(x ω 2 )P(ω 2 ) P(ω 1 x) P(ω 2 x) weight weight SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 28/6

29 Rozhodování Minimializace pravděpodobnosti chyby: P (ω 1 x) pokud rozhodneme ω 2 P (chyba x) = P (ω 2 x) pokud rozhodneme ω 1 P (error) = P (error, x)dx = P (error x)p(x)dx Pokud bude všude P (error x) co nejmenší, pak i integrál bude co nejmenší. Jak na to? Pak bude což je určitě ta nejmenší možná chyba. rozhodni ω 1 pokud P (ω 1 x) > P (ω 2 x), jinak ω 2 P (error x) = min[p (ω 1 x), P (ω 2 x)], Evidence není důležitá (je pro všechny třídy stejná), klidně můžeme: rozhodni ω 1 pokud p(x ω 1 )P (ω 1 ) > p(x ω 2 )P (ω 2 ), jinak ω 2 Pozor, úplně jsme zapomněli na cost!!! SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 29/6

30 Co ještě chybí I. - Vektory Vektory příznaků namísto skalárů - jednoduché, všude napíšeme x namísto x: Úkol 1: Co je jaká funkce? P (ω j x) = p(x ω j)p (ω j ) p(x) Úkol 2: Představte si normalizační funkci evidence: c p(x) = p(x ω j )P (ω j ) j=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 3/6

31 Co ještě chybí II. - Akce a jejich costy Namísto rozhodnutí můžeme definovat nějaké akce: α 1 - do marmelády, α 2 - k pyrotechnikovi. Definujeme jejich loss (průserovost) v závislosti na třídách: λ(α i ω j ) akce / třída jablko granát do marmelády 2 (dělníci musí dělat) 5 (vybuchlá marmeládovna) k pyrotechnikovi 1 (totálně nasraný pyrotechnik) 1 (nasraný pyrotechnik) Definice podmíněného nebezpečí (conditional risk) v závislosti na datech: R(α i x) = c λ(α i ω j )P (ω j x) j=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 31/6

32 R(α 1 x) R(α 2 x) P(ω 1 x) P(ω 2 x) weight weight Pro každé x vybereme takovou akci α i, která má nejmenší risk. Celkový risk je pak: R = R(α(x) x)p(x)dx Pokud uděláme výběr min R(α i x), dosáhneme minimální celkový Bayessovský risk R (minimum overall Bayes risk). SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 32/6

33 Jak budeme třídy modelovat? Gaussovkama! Gaussovo (normální) rozdělení pravděpodobnosti. Jednorozměrné - univariate [ p(x) = 1 σ 2π exp 1 ( ) ] 2 x µ 2 σ = N (x; µ, σ 2 ) Parametry: µ = E[x] = σ 2 = E[(x µ) 2 ] = xp(x)dx (x µ) 2 p(x)dx SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 33/6

34 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 34/6

35 Příkládky µ=, σ=1 µ=, σ=5 µ=, σ=.2 µ=5, σ=1 µ=5, σ=5 µ=5, σ= p(x) x SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 35/6

36 Jsou hodnoty Gaussovky od do 1? NE!!! SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 36/6

37 Vícerozměrné - multivariate 1 p(x) = (2π) d 2 Σ 1 2 exp [ 1 ] 2 (x µ)t Σ 1 (x µ) = N (x; µ, Σ) vektorová střední hodnota - mean: µ = E[x] = xp(x)dx Kovarianční matice: Σ = E[(x µ)(x µ) T ] = (x µ)(x µ) T p(x)dx Pro představu - jejich prvky: µ i = E[x i ] σ ij = E[(x i µ i )(x j µ j )] SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 37/6

38 Příkládky x x 1 x x x x 1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 38/6

39 Diaognální kovarianční matice - pouze srovnané Gaussovky p(x) = P N (x i ; µ i, σ i ) = i=1 P i=1 1 e [x i µ i ] 2 2σ i 2 σ i 2π x x x x x x SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 39/6

40 Diskriminační funkce mezi Gaussovkami p(x) nepřispívá ke klasifikacei P (ω j x) = p(x ω j)p (ω j ) p(x) pracujeme v logaritmu - je jedno s jakým základem, voĺıme přirozený ln diskriminační funkce jsou dány: g j (x) = ln p(x ω j ) + ln P (ω j ) srovnáním pro dvě třídy dostaneme diskriminační linii. Pro Gaussovky se dá počítat analyticky. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 4/6

41 Case 1: Σ i = σ 2 I SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 41/6

42 Case 1a: Σ i = σ 2 I včetně biasu P (ω j ) SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 42/6

43 Case 2: Σ i = Σ... doplnit... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 43/6

44 Case 2: Σ i = cokoliv SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 44/6

45 Maximum-LIkelihood odhad OK, víme, jak udělat klasifikátor, ale kde získat jeho parametry? předpokládáme, že máme datové sety D 1,..., D C k jednotlivým třídám. D j representují p(x ω j ) i.i.d. independent, identically distributed. třídy jsou dány svými parametry Θ j (např. µ j, Σ j nebo směs Gaussovek). my máme z D j určit parametry Θ j (předpokládáme, že vektory z jiných tříd nejsou pro ω j relevenantní. v dalším výkladu jen D, Θ. Likelihood dat p(d Θ) = n k=1 p(x k Θ) používáme, protože jsme řekli, že vektory x k budou nezávislé. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 45/6

46 Hledáme takové ˆΘ, které p(d Θ) maximalizuje Ilustrace: SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 46/6

47 Pár definic gradientní operátor: Θ = δ δθ 1 δ δθ P log-liikelihood funkce (na základu nezáleží): l(θ) = ln p(d Θ) = n ln p(x k Θ) k=1 hledáme ˆΘ = arg max Θ l(θ) A jako vždy, když se hledá maximum, položíme derivaci rovnou nule: Θ l = n Θ ln p(x k Θ) =. k=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 47/6

48 Danger 1: Pozor, neměli bychom chtít Maximum A-Posteriori (MAP) odhad ˆΘ = arg max Θ kde p(θ) je a-priori pravděpodobnost parametrů? l(θ)p(θ), ML je vlastně MAP pro konstantní (ploché) rozložení p(θ). Danger 2: Maximalizujeme sice likelihood, ale nikdo neví, zda to bude dobře diskriminovat! SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 48/6

49 ML-odhad parametrů Gaussovky - pouze µ p(x) = 1 (2π) d 2 Σ 1 2 exp [ 1 ] 2 (x µ)t Σ 1 (x µ) ln p(x µ) = 1 2 ln(2π)p 1 2 (x µ)t Σ 1 (x µ) Derivace - pomůcka pro symetrické matice: δ δx [xt Mx] = 2Mx. µ ln p(x µ) = 1 2 2Σ 1 (x k µ)( 1) = Σ 1 (x k µ) toto se položí rovno nule, v sumě pak: n Σ 1 (x k µ) = k=1 n (x k µ) = k=1 n ˆµ = 1 N k=1 x k SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 49/6

50 ML-odhad parametrů Gaussovky - pouze 1D, µ i σ 2 Minimalizace pro všechna data: [ p(x) = 1 σ 2π exp 1 2 ( ) ] 2 x µ ln p(x k Θ) = 1 1 ln 2πD 2 2D (x k µ) 2 Θ l = Θ ln p(x k Θ) = 1 D (x k µ) 1 2D + (x k µ) 2 2D 2 σ n 1D(x k µ) = k=1 n k=1 1 n 2D + k=1 (x k µ) 2 2D 2 = SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 5/6

51 Řešení:... tak toto už jsme někde viděli. ˆµ = 1 N ˆD = 1 N n k=1 x k n (x k µ) 2 k=1 Multi-variate - více matematiky, ale výsledky nebudou překvapující: n ˆµ = 1 N k=1 x k ˆΣ = 1 N n (x k ˆµ)(x k ˆµ) T k=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 51/6

52 Ukázka ML 1 bodů z každé třídy. těžce nediagonální lehce se překrývající x x 1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 52/6

53 Diagonální Gaussovky 8 7 x x x x dost humus. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 53/6

54 Gaussovky s plnými Σ x x 1 5 x x lepší. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 54/6

55 Přesnější klasifikace - Gaussian Mixtures p(x ω j ) = N (x; µ j, Σ j ) p(x ω j ) = kde α ji jsou váhy jednotlivých Gaussovek a M i=1 α ji = 1. M α ji N (x; µ ji, Σ ji ), i=1 Pro všechna data je celková log-likelihood: ln p(d Θ) = n ln k=1 M α ji N (x k ; µ ji, Σ ji ) i=1 s maximalizací máme vážný problém (moc parametrů, suma v logaritmu). musíme na to jít iterativně - Expectation-maximization - EM. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 55/6

56 Základy algoritmu Expectation-maximization Známá data jsou X, ale také existuje něco, co neznáme: Y. Kompletní data: Z = (X, Y). likelihoods jsou (v závislosti na parametrech): p(z Θ) = p(x, y Θ) = p(y x, Θ)p(x Θ) p(x, Y Θ) je celková likelihood kompletních dat, p(x Θ) je celková likelihood nekompletních dat. Musíme mít k disposici alespoň nějaké parametry Θ (i 1), snažíme se o maximalizaci kritéria: X a Θ (i 1) jsou konstanty. Θ se snažíme najít. Q(Θ, Θ (i 1) ) = E[ln p(x, Y Θ) X, Θ (i 1) ] Y je náhodná proměnná daná rozložením hustoty pravděpodobnosti f(y X, Θ (i 1) ). SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 56/6

57 Snažíme se získat E integrováním přes všechny možné hodnoty y: Y: E[ln p(x, Y Θ) X, Θ (i 1) ] = ln p(x, y Θ)f(y X, Θ (i 1) )dy y Y toto je E-step nalezení výrazu pro expectation likelihoodu. M-step je nalezení maxima (derivace podle parametrů Θ, položení rovno nule): Iterace, nové parametry se stanou starými. Stopping criterion: malý nebo žádný přírůstek likelihood. nebo fixní počet kroků. Θ (i) = arg max Θ Q(Θ, Θ(i 1) ). SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 57/6

58 Expectation-maximization a Gaussian mixtures budeme ukazovat pouze pro jednu třídu (vše bude bez indexu j). vyslání datového vektoru x k některou z M Gaussovek je považováno za skrytou informaci: y k. likelihood této informace (pokud známe předchozí parametry a vektor x k ) se dá spočítat: p(y k x k, Θ (i 1) ) = α(i 1) y k N (x k ; µ y (i 1) k, Σ y (i 1) k ) p(x k Θ (i 1) ) p(x k Θ) je ovšem likelihood vyslání vektoru celou směsicí Gaussovek, kterou už jsme viděli: M α i N (x; µ i, Σ i ), i=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 58/6

59 takže: p(y k x k, Θ (i 1) ) = α(i 1) y k M i=1 α(i 1) i N (x k ; µ y (i 1) k, Σ y (i 1) k ) N (x; µ (i 1) i, Σ (i 1) i ) neboli kolik páĺı daná Gaussovka je normalizováno součtem všech Gaussovek.... pak následuje brutální matematika: odvození Q(Θ, Θ (i 1) ). derivace podle α, µ, Σ. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 59/6

60 Výsledky s parametry Θ (i 1) se pro každou Gaussovku spočítá occupation count : γ l (k) = α(i 1) l M i=1 α(i 1) i N (x k ; µ (i 1) l, Σ (i 1) N (x; µ (i 1) i l ), Σ (i 1) i ) a nové parametry jsou dány (omlouvám se za nepřítomnost stříšek ˆ)... α (i) l = 1 n n γ l (k) k=1 µ (i) l = n k=1 γ l(k)x k n k=1 γ l(k) Σ (i) l = n k=1 γ l(k)(x k µ (i) l )(x k µ (i) l n k=1 γ l(k) ) T Definice akumulátorů a příklad EM na datech... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 6/6

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka

Více

SRE 03 - Statistické rozpoznávání

SRE 03 - Statistické rozpoznávání SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29 Opakování

Více

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky

Více

SRE 03 - Skryté Markovovy modely HMM

SRE 03 - Skryté Markovovy modely HMM SRE 03 - Skryté Markovovy modely HMM Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 1/35 Plán... SRE 03 - Skryté

Více

oddělení Inteligentní Datové Analýzy (IDA)

oddělení Inteligentní Datové Analýzy (IDA) Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {

Více

Implementace Bayesova kasifikátoru

Implementace Bayesova kasifikátoru Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6

Více

Klasifikace a rozpoznávání. Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber

Více

Klasifikace a rozpoznávání. Extrakce příznaků

Klasifikace a rozpoznávání. Extrakce příznaků Klasifikace a rozpoznávání Extrakce příznaků Extrakce příznaků - parametrizace Poté co jsme ze snímače obdržely data která jsou relevantní pro naši klasifikační úlohu, je potřeba je přizpůsobit potřebám

Více

Odhady Parametrů Lineární Regrese

Odhady Parametrů Lineární Regrese Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké

Více

AVDAT Mnohorozměrné metody, metody klasifikace

AVDAT Mnohorozměrné metody, metody klasifikace AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

Kybernetika a umělá inteligence, cvičení 10/11

Kybernetika a umělá inteligence, cvičení 10/11 Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu

Více

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Příklad Tahová síla papíru používaného pro výrobu potravinových sáčků je důležitá charakteristika kvality. Je známo, že síla

Více

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu. Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.

Více

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny EM algoritmus používá se pro odhad nepozorovaných veličin. Jde o iterativní algoritmus opakující dva kroky: Estimate, který odhadne hodnoty nepozorovaných dat, a Maximize, který maximalizuje věrohodnost

Více

Bayesovské metody. Mnohorozměrná analýza dat

Bayesovské metody. Mnohorozměrná analýza dat Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A

Více

Umělá inteligence II

Umělá inteligence II Umělá inteligence II 11 http://ktiml.mff.cuni.cz/~bartak Roman Barták, KTIML roman.bartak@mff.cuni.cz Dnešní program! V reálném prostředí převládá neurčitost.! Neurčitost umíme zpracovávat pravděpodobnostními

Více

AVDAT Klasický lineární model, metoda nejmenších

AVDAT Klasický lineární model, metoda nejmenších AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i

Více

Odhady - Sdružené rozdělení pravděpodobnosti

Odhady - Sdružené rozdělení pravděpodobnosti Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy

Více

Vícerozměrná rozdělení

Vícerozměrná rozdělení Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.

Více

Pravděpodobnost, náhoda, kostky

Pravděpodobnost, náhoda, kostky Pravděpodobnost, náhoda, kostky Radek Pelánek IV122 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností připomenutí, souvislosti

Více

3 Bodové odhady a jejich vlastnosti

3 Bodové odhady a jejich vlastnosti 3 Bodové odhady a jejich vlastnosti 3.1 Statistika (Skripta str. 77) Výběr pořizujeme proto, abychom se (více) dověděli o souboru, ze kterého jsme výběr pořídili. Zde se soustředíme na situaci, kdy známe

Více

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y) 5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

Náhodné signály. Honza Černocký, ÚPGM

Náhodné signály. Honza Černocký, ÚPGM Náhodné signály Honza Černocký, ÚPGM Signály ve škole a v reálném světě Deterministické Rovnice Obrázek Algoritmus Kus kódu } Můžeme vypočítat Málo informace! Náhodné Nevíme přesně Pokaždé jiné Především

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1 Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.

Více

Klasifikace a rozpoznávání

Klasifikace a rozpoznávání Klasifikace a rozpoznávání Prezentace přednášek M. Španěl, 2009 Ústav počítačové grafiky a multimédií Téma přednášky Unsupervised techniky Obsah: Literatura Úvod do shlukování Metriky, základní přístupy,

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Náhodné vektory a matice

Náhodné vektory a matice Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane

Více

Stavový model a Kalmanův filtr

Stavový model a Kalmanův filtr Stavový model a Kalmanův filtr 2 prosince 23 Stav je veličina, kterou neznáme, ale chtěli bychom znát Dozvídáme se o ní zprostředkovaně prostřednictvím výstupů Příkladem může býapř nějaký zašuměný signál,

Více

KYBERNETIKA A UMĚLÁ INTELIGENCE. 2. Pravděpodobnostní rozhodování a klasifikace

KYBERNETIKA A UMĚLÁ INTELIGENCE. 2. Pravděpodobnostní rozhodování a klasifikace KYBERNETIKA A UMĚLÁ INTELIGENCE 2. Pravděpodobnostní rozhodování a klasifikace laboratory Gerstner Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze Daniel Novák Poděkování:

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

Úvod do optimalizace, metody hladké optimalizace

Úvod do optimalizace, metody hladké optimalizace Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady

Více

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,

Více

Apriorní rozdělení. Jan Kracík.

Apriorní rozdělení. Jan Kracík. Apriorní rozdělení Jan Kracík jan.kracik@vsb.cz Apriorní rozdělení Apriorní rozdělení (spolu s modelem) reprezentuje informaci o neznámém parametru θ, která je dostupná předem, tj. bez informace z dat.

Více

Interpolace, ortogonální polynomy, Gaussova kvadratura

Interpolace, ortogonální polynomy, Gaussova kvadratura Interpolace, ortogonální polynomy, Gaussova kvadratura Petr Tichý 20. listopadu 2013 1 Úloha Lagrangeovy interpolace Dán omezený uzavřený interval [a, b] a v něm n + 1 různých bodů x 0, x 1,..., x n. Nechť

Více

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}. VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.

Více

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 7 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology

Více

Základy teorie odhadu parametrů bodový odhad

Základy teorie odhadu parametrů bodový odhad Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Odhady parametrů Úkolem výběrového šetření je podat informaci o neznámé hodnotě charakteristiky základního souboru

Více

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou

Více

Markov Chain Monte Carlo. Jan Kracík.

Markov Chain Monte Carlo. Jan Kracík. Markov Chain Monte Carlo Jan Kracík jan.kracik@vsb.cz Princip Monte Carlo integrace Cílem je (přibližný) výpočet integrálu I(g) = E f [g(x)] = g(x)f (x)dx. (1) Umíme-li generovat nezávislé vzorky x (1),

Více

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová

Více

MATEMATICKÁ STATISTIKA - XP01MST

MATEMATICKÁ STATISTIKA - XP01MST MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného

Více

Úloha - rozpoznávání číslic

Úloha - rozpoznávání číslic Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání

Více

Lineární klasifikátory

Lineární klasifikátory Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout

Více

Příklady ke čtvrtému testu - Pravděpodobnost

Příklady ke čtvrtému testu - Pravděpodobnost Příklady ke čtvrtému testu - Pravděpodobnost 6. dubna 0 Instrukce: Projděte si všechny příklady. Každý příklad se snažte pochopit. Pak vymyslete a vyřešte příklad podobný. Tím se ujistíte, že příkladu

Více

Aplikace 2: Hledání informativních příznaků pro rozpoznávání

Aplikace 2: Hledání informativních příznaků pro rozpoznávání Aplikace : Hledání informativních příznaků pro rozpoznávání Sonogram štítné žlázy v podélném řezu zdravá lymfocitická thyroitida Zajímá nás, kolik se lze z dat dozvědět o třídě c a kde ta informace je.

Více

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady PRAVDĚPODOBNOST A STATISTIKA Bayesovské odhady Bayesovské odhady - úvod Klasický bayesovský přístup: Klasický přístup je založen na opakování pokusech sledujeme rekvenci nastoupení zvolených jevů Bayesovský

Více

6. ZÁKLADY STATIST. ODHADOVÁNÍ. Θ parametrický prostor. Dva základní způsoby odhadu neznámého vektoru parametrů bodový a intervalový.

6. ZÁKLADY STATIST. ODHADOVÁNÍ. Θ parametrický prostor. Dva základní způsoby odhadu neznámého vektoru parametrů bodový a intervalový. 6. ZÁKLADY STATIST. ODHADOVÁNÍ X={X 1, X 2,..., X n } výběr z rozdělení s F (x, θ), θ={θ 1,..., θ r } - vektor reálných neznámých param. θ Θ R k. Θ parametrický prostor. Dva základní způsoby odhadu neznámého

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

Pravděpodobnost, náhoda, kostky

Pravděpodobnost, náhoda, kostky Pravděpodobnost, náhoda, kostky Radek Pelánek IV122, jaro 2015 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností krátké

Více

Charakterizace rozdělení

Charakterizace rozdělení Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf

Více

KVADRATICKÁ KALIBRACE

KVADRATICKÁ KALIBRACE Petra Širůčková, prof. RNDr. Gejza Wimmer, DrSc. Finanční matematika v praxi III. a Matematické modely a aplikace 4. 9. 2013 Osnova Kalibrace 1 Kalibrace Pojem kalibrace Cíle kalibrace Předpoklady 2 3

Více

Přednáška 13 Redukce dimenzionality

Přednáška 13 Redukce dimenzionality Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /

Více

Definice spojité náhodné veličiny zjednodušená verze

Definice spojité náhodné veličiny zjednodušená verze Definice spojité náhodné veličiny zjednodušená verze Náhodná veličina X se nazývá spojitá, jestliže existuje nezáporná funkce f : R R taková, že pro každé a, b R { }, a < b, platí P(a < X < b) = b a f

Více

Odhad - Problémy se sdruženým rozdělením pravděpodobnosti

Odhad - Problémy se sdruženým rozdělením pravděpodobnosti Odhad - Problémy se sdruženým rozdělením pravděpodobnosti 20. listopadu 203 V minulém materiálu jsme si ukázali, jak získat sdružené rozdělení pravděpodobnosti. Bylo to celkem jednoduché: Věrohodnostní

Více

STATISTICKÉ ODHADY PARAMETRŮ

STATISTICKÉ ODHADY PARAMETRŮ STATISTICKÉ ODHADY PARAMETRŮ Jan Pech 21. září 2001 1 Motivace Obrazové snímače pracující ve vzdáleném infračerveném spektru jsou poměrně novou záležitostí. Ty nejkvalitnější snímače chlazené kapalným

Více

4. Aplikace matematiky v ekonomii

4. Aplikace matematiky v ekonomii 4. Aplikace matematiky v ekonomii 1 Lineární algebra Soustavy 1) Na základě statistických údajů se zjistilo, že závislost množství statku z poptávaného v průběhu jednoho týdne lze popsat vztahem q d =

Více

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu. 6. NÁHODNÝ VEKTOR Průvodce studiem V počtu pravděpodobnosti i v matematické statistice se setkáváme nejen s náhodnými veličinami, jejichž hodnotami jsou reálná čísla, ale i s takovými, jejichž hodnotami

Více

NÁHODNÁ VELIČINA. 3. cvičení

NÁHODNÁ VELIČINA. 3. cvičení NÁHODNÁ VELIČINA 3. cvičení Náhodná veličina Náhodná veličina funkce, která každému výsledku náhodného pokusu přiřadí reálné číslo. Je to matematický model popisující více či méně dobře realitu, který

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOS A SAISIKA Regresní analýza - motivace Základní úlohou regresní analýzy je nalezení vhodného modelu studované závislosti. Je nutné věnovat velkou pozornost tomu aby byla modelována REÁLNÁ

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr

Více

Tino Haderlein, Elmar Nöth

Tino Haderlein, Elmar Nöth Interakce člověk počítač v přirozeném jazyce (ICP) LS 213 Klasifikace Tino Haderlein, Elmar Nöth Katedra informatiky a výpočetní techniky (KIV) Západočeská univerzita v Plzni Lehrstuhl für Mustererkennung

Více

Statistika, Biostatistika pro kombinované studium. Jan Kracík

Statistika, Biostatistika pro kombinované studium. Jan Kracík Statistika, Biostatistika pro kombinované studium Letní semestr 2014/2015 Tutoriál č. 6: ANOVA Jan Kracík jan.kracik@vsb.cz Obsah: Testování hypotéz opakování ANOVA Testování hypotéz (opakování) Testování

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).

Více

Statistická analýza dat

Statistická analýza dat Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte

Více

Neparametrické odhady hustoty pravděpodobnosti

Neparametrické odhady hustoty pravděpodobnosti Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické

Více

Téma 22. Ondřej Nývlt

Téma 22. Ondřej Nývlt Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené

Více

Vektor náhodných veli in - práce s více prom nnými

Vektor náhodných veli in - práce s více prom nnými Vektor náhodných veli in - práce s více prom nnými 12. kv tna 2015 N kdy k popisu n jaké situace pot ebujeme více neº jednu náhodnou veli inu. Nap. v k, hmotnost, vý²ku. Mezi t mito veli inami mohou být

Více

jevu, čas vyjmutí ze sledování byl T j, T j < X j a T j je náhodná veličina.

jevu, čas vyjmutí ze sledování byl T j, T j < X j a T j je náhodná veličina. Parametrické metody odhadů z neúplných výběrů 2 1 Metoda maximální věrohodnosti pro cenzorované výběry 11 Náhodné cenzorování Při sledování složitých reálných systémů často nemáme možnost uspořádat experiment

Více

Náhodné chyby přímých měření

Náhodné chyby přímých měření Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.

Více

LINEÁRNÍ MODELY. Zdeňka Veselá

LINEÁRNÍ MODELY. Zdeňka Veselá LINEÁRNÍ MODELY Zdeňka Veselá vesela.zdenka@vuzv.cz Genetika kvantitativních vlastností Jednotlivé geny nejsou zjistitelné ani měřitelné Efekty většího počtu genů poskytují variabilitu, kterou lze většinou

Více

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně 7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností

Více

Numerické metody optimalizace - úvod

Numerické metody optimalizace - úvod Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu

Více

Nestranný odhad Statistické vyhodnocování exp. dat M. Čada

Nestranný odhad Statistické vyhodnocování exp. dat M. Čada Nestranný odhad 1 Parametr θ Máme statistický (výběrový) soubor, který je realizací náhodného výběru 1, 2, 3,, n z pravděpodobnostní distribuce, která je kompletně stanovena jedním nebo více parametry

Více

Otázku, kterými body prochází větev implicitní funkce řeší následující věta.

Otázku, kterými body prochází větev implicitní funkce řeší následující věta. 1 Implicitní funkce Implicitní funkce nejsou funkce ve smyslu definice, že funkce bodu z definičního oboru D přiřadí právě jednu hodnotu z oboru hodnot H. Přesnější termín je funkce zadaná implicitně.

Více

Zpracování digitalizovaného obrazu (ZDO) - Popisy III

Zpracování digitalizovaného obrazu (ZDO) - Popisy III Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování

Více

Aktivní detekce chyb

Aktivní detekce chyb Fakulta aplikovaných věd, Katedra kybernetiky a Výzkumné centrum Data - Algoritmy - Rozhodování Západočeská univerzita v Plzni Prezentace v rámci odborného semináře Katedry kybernetiky Obsah Motivační

Více

Robustní odhady statistických parametrů

Robustní odhady statistických parametrů Robustní odhady statistických parametrů ěkdy pracují dobře, jinde ne. Typická data - pozorování BL Lac 100 mag 40 0 0.41 0.40 JD date 0.39 0.38 0.38223-1.586 0.017 0.40550-1.530 0.019 0.39453-1.610 0.024

Více

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.

Více

5. B o d o v é o d h a d y p a r a m e t r ů

5. B o d o v é o d h a d y p a r a m e t r ů 5. B o d o v é o d h a d y p a r a m e t r ů Na základě hodnot náhodného výběru z rozdělení určitého typu odhadujeme parametry tohoto rozdělení, tak aby co nejlépe odpovídaly hodnotám výběru. Formulujme

Více

Bayesovské rozhodování - kritétium minimální střední ztráty

Bayesovské rozhodování - kritétium minimální střední ztráty Bayesovské rozhodování - kritétium imální střední ztráty Lukáš Slánský, Ivana Čapková 6. června 2001 1 Formulace úlohy JE DÁNO: X množina možných pozorování (příznaků) x K množina hodnot skrytého parametru

Více

, 1. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv

, 1. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv 42206, skupina (6:5-7:45) Jméno: Zápočtový test z PSI Nezapomeňte podepsat VŠECHNY papíry, které odevzdáváte Škrtejte zřetelně a stejně zřetelně pište i věci, které platí Co je škrtnuto, nebude bráno v

Více

Preceptron přednáška ze dne

Preceptron přednáška ze dne Preceptron 2 Pavel Křížek Přemysl Šůcha 6. přednáška ze dne 3.4.2001 Obsah 1 Lineární diskriminační funkce 2 1.1 Zobecněná lineární diskriminační funkce............ 2 1.2 Učení klasifikátoru........................

Více

8 Coxův model proporcionálních rizik I

8 Coxův model proporcionálních rizik I 8 Coxův model proporcionálních rizik I Předpokládané výstupy z výuky: 1. Student umí formulovat Coxův model proporcionálních rizik 2. Student rozumí významu regresních koeficientů modelu 3. Student zná

Více

Odhad stavu matematického modelu křižovatek

Odhad stavu matematického modelu křižovatek Odhad stavu matematického modelu křižovatek Miroslav Šimandl, Miroslav Flídr a Jindřich Duník Katedra kybernetiky & Výzkumné centrum Data-Algoritmy-Rozhodování Fakulta aplikovaných věd Západočeská univerzita

Více

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci

Více

Kapitola 1. Logistická regrese. 1.1 Model

Kapitola 1. Logistická regrese. 1.1 Model Kapitola Logistická regrese Předpokládám, že už jsme zavedli základní pojmy jako rysy a že už máme nějaké značení Velkost trenovacich dat a pocet parametru Motivační povídání... jeden z nejpoužívanějších

Více

Základy teorie pravděpodobnosti

Základy teorie pravděpodobnosti Základy teorie pravděpodobnosti Náhodná veličina Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 12. února 2012 Statistika by Birom Základy teorie

Více

TENSOR NAPĚTÍ A DEFORMACE. Obrázek 1: Volba souřadnicového systému

TENSOR NAPĚTÍ A DEFORMACE. Obrázek 1: Volba souřadnicového systému TENSOR NAPĚTÍ A DEFORMACE Obrázek 1: Volba souřadnicového systému Pole posunutí, deformace, napětí v materiálovém bodě {u} = { u v w } T (1) Obecně 9 složek pole napětí lze uspořádat do matice [3x3] -

Více

I. D i s k r é t n í r o z d ě l e n í

I. D i s k r é t n í r o z d ě l e n í 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Úvod do teorie odhadu. Ing. Michael Rost, Ph.D.

Úvod do teorie odhadu. Ing. Michael Rost, Ph.D. Úvod do teorie odhadu Ing. Michael Rost, Ph.D. Náhodný výběr Náhodným výběrem ze základního souboru populace, která je popsána prostřednictvím hustoty pravděpodobnosti f(x, θ), budeme nazývat posloupnost

Více

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Jan Slovák Masarykova univerzita Fakulta informatiky 28. 11 2. 12. 2016 Obsah přednášky 1 Literatura 2 Střední

Více

Jednofaktorová analýza rozptylu

Jednofaktorová analýza rozptylu I I.I Jednofaktorová analýza rozptylu Úvod Jednofaktorová analýza rozptylu (ANOVA) se využívá při porovnání několika středních hodnot. Často se využívá ve vědeckých a lékařských experimentech, při kterých

Více

Pravděpodobnost a statistika (BI-PST) Cvičení č. 9

Pravděpodobnost a statistika (BI-PST) Cvičení č. 9 Pravděpodobnost a statistika (BI-PST) Cvičení č. 9 R. Blažek, M. Jiřina, J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení

Více

p(x) = P (X = x), x R,

p(x) = P (X = x), x R, 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více