Tino Haderlein, Elmar Nöth

Rozměr: px
Začít zobrazení ze stránky:

Download "Tino Haderlein, Elmar Nöth"

Transkript

1 Interakce člověk počítač v přirozeném jazyce (ICP) LS 213 Klasifikace Tino Haderlein, Elmar Nöth Katedra informatiky a výpočetní techniky (KIV) Západočeská univerzita v Plzni Lehrstuhl für Mustererkennung (LME) Friedrich-Alexander-Universität Erlangen-Nürnberg

2 Klasifikační systém 2 f(x) sensor preprocessing signal h(x) feature extraction c classification Ω κ working phase training phase sample ω estimation of subspaces for classes

3 Similar Patterns 3 Postulate 4: two patterns are similar, if an appropriately defined distance measure between their feature vectors is small.

4 Similar Patterns 4 Postulate 4: two patterns are similar, if an appropriately defined distance measure between their feature vectors is small.

5 Similar Patterns 5 Postulate 4: two patterns are similar, if an appropriately defined distance measure between their feature vectors is small.

6 Similar Patterns 6 Proof that old men look like young women

7 Míry podobnosti vzdálenosti 7 Promluva, která má být klasifikována do jedné třídy Ω κ je ted posloupnost pozorování s c IR n, n 2. Klasifikace znamená, že každé pozorování c musí být srovnáno s vhodným referenčním vektorem každé možné třídy Ω κ. Klasifikátor musí počítat průměrnou podobnost přes všechna pozorování, která patří k promluvě. Když vhodný referenční vektor c Ωκ třídy Ω κ je považován za bod v IR n, pak míra podobnosti mezi c Ωκ a aktuálním pozorovacím vektorem c j může být jejich vzdálenost podle nějaké metriky: d κj = n i=1 c Ω κ (i) c j (i) cityblock metric n d κj = i=1 (c Ω κ (i) c j (i)) 2 euklidovská vzdálenost Rozhodni se pro κ s minimální vzdáleností, tj. nejvyšší podobností.

8 8 Míry podobnosti hustoty pravděpodobnosti považuj vhodný referenční vektor c Ωκ třídy κ za stochastický proces, tj. podmíněná hustota pravděpodobnosti P(c Ω κ ) může být popsána rodinou parametrických funkcí proč stochastický proces? určité faktory, které ovlivňují příznakový vektor, jsou neznámé a/anebo není možné je modelovat explicitně např. klasifikační úloha: klasifikace mluvčího příklady ovlivňujících faktorů: emocionální stav stav uživatele (user state) mikrofon 1 mikrofon 2

9 Stejná promluva, různé mikrofony 9 mikrofon blízko mluvčího (close talk microphone) prostorový mikrofon (room microphone)

10 1 /a/, different microphones close talk microphone omni-directional microphone difference average difference (1 sec)

11 11 /i/, different microphones close talk microphone omni-directional microphone difference average difference (1 sec)

12 12 /u/, different microphones close talk microphone omni-directional microphone difference average difference (1 sec)

13 13 /a/, close-talk microphone, different speakers speaker A speaker B difference average difference (1 sec)

14 Close-talk vs. room microphone fragen wie das aussieht... Nahbesprechungsmikrofon, sp1ctalk 6, Muedigkeitsstichprobe khz t fragen wie das aussieht... Raummikrofon, sp1mic7 6, Muedigkeitsstichprobe khz t

15 Close-talk vs. room microphone wie d] a [s aussieht unverhallt wie d] a [s aussieht verhallt spektrogram hlásky a z promluvy wie das aussieht ; unverhallt=bez dozvuku, verhallt=s dozvukem

16 Close-talk vs. room microphone wie da] s [aussieht unverhallt wie da] s [aussieht verhallt spektrogram hlásky s z promluvy wie das aussieht ; unverhallt= bez dozvuku, verhallt=s dozvukem

17 Close-talk vs. room microphone 17 File: sin2125.wav Page: 1 of 1 Printed: Fri Dec 26 :18:39 khz t File: sin2125 verh.wav Page: 1 of 1 Printed: Fri Dec 26 :18:7 khz t

18 Close-talk vs. room microphone 18 2 Sin 2125 Hz unverhallt Sin 2125 Hz verhallt spektrogram sinusové vlny s frekvencí 2125Hz; unverhallt= bez dozvuku, verhallt=s dozvukem

19 Close-talk vs. room microphone 19 2 Sin2125 Hz verhallt Sin2125 Hz Nachhall spektrogram sinusové vlny s frekvencí 2125Hz; verhallt=s dozvukem, Nachhall=dozvuk

20 Close-talk vs. room microphone 2 File: Page: 1 of 1 Printed: Fri Dec 26 23:29:2 khz t File: Page: 1 of 1 Printed: Fri Dec 26 23:34:51 khz t

21 Close-talk vs. room microphone 21 2 Sin 2125 Hz unverhallt Sin 2125 Hz verhallt spektrogram sinusové vlny 2125Hz z posloupnosti stoupajících frekvencí; unverhallt=bez dozvuku, verhallt= s dozvukem

22 22 Míry podobnosti hustoty pravděpodobnosti Bud prototypická realizace daného zvuku od daného mluvčího, který je mírně obměněn ovlivňujícími faktory, které jsou neznámé a jsou proto považované za náhodný proces, který má jako základ tuto prototypickou realizaci. Chování náhodného procesu je popsáno hustotou pravděpodobnosti (probability density function; PDF). Bud rodina parametrických funkcí. Parametry se trénuje representační množinou ω. Nejčastěji užívaná rodina parametrických funkcí je rodina Gaußových funkcí (normální rozdělení), charakterizované průměrným vektorem µ a kovarianční maticí K. : německy Gauß s tzv. ostrým s, mezinárodně Gauss

23 Tréninková množina 23 dva mluvčí sp i jazyk s třemi hláskami sou j Každá hláska je pro trénování každým mluvčím řečena pětkrát. Pro každý tréninkový vzor: Mluvčí je znám, ale hláska ne. Každý vzor je popsán jako dvojrozměrný příznakový vektor c i IR 2. Chceme popisovat chování náhodné proměnné c dvojdimenzionální Gaußovou funkcí: P(c sp i, sou j ) = N(c µ ij, K ij ) = 2πK ij exp[ (c µ ij ) t K 1 ij (c µ ij ) 2 Problém: Aktuální hláska není známa. Řešení: Užívej jednu pravděpodobnostní hustotní funkci, která je lineární kombinací Gaußových funkcí: Gaußův model nebo Gaussian Mixture Model (GMM) P(c sp i ) = K i k=1 ω ik N(c µ ik, K ik ) µ, K a váhy ω se mohou trénovat účinně (algoritmem EM).

24 Klasifikační systém 24 f(x) sensor preprocessing signal h(x) feature extraction c classification Ω κ working phase training phase sample ω estimation of subspaces for classes

25 Estimates for PDFs based on a Training Sample Speaker A, sound 1 Speaker A, sound 2 Speaker A, sound 3 Speaker B, sound 1 Speaker B, sound 2 Speaker B, sound

26 Training Sample Speaker A, sound 1 Speaker A, sound 2 Speaker A, sound 3 Speaker B, sound 1 Speaker B, sound 2 Speaker B, sound

27 Classification of One Frame w.r.t. Speaker A 27 Result is an estimate for the conditional probability P(c speakera) 2 Speaker A, sound 1 Speaker A, sound 2 Speaker A, sound Σ ω P(c µ Κ ) i i i

28 28 Základní technologie klasifikace Klasifikuj každé okno (frame) promluvy vzhledem ke všem třídám (mluvčí). Pro každou třídu zkombinuj klasifikační výsledek pro každý frame (suma, násobení,... ). Když se užívá míru vzdálenosti, roztřid třídy vzestupně (začni s minimální vzdáleností). Když se užívá podmíněnou funkci pravděpodobnosti, roztřid třídy sestupně (začni s maximální pravděpodobností). Výsledek je tříděný seznam tříd s hodnoceními (scores).

29 Gaußovo rozdělení 29 nejčastěji užívaný předpoklad rozdělení příznakových vektorů definice Gaußova nebo normálního rozdělení P(x µ m,σ m ) = N(x µ m,σ m ) = 1 2πΣm e 1 2 (x µ m ) Σ 1 m (x µ m ) průměrný vektor µ m symetrická, pozitivně semidefinitní kovarianční matice Σ m

30 Gaußovo rozdělení 3 5 Surface plot of probability density

31 Separační funkce Gaußova klasifikátoru 31 příklad: ( 4 µ 1 = 2 ( µ 2 = 1 ( 4 µ 3 = 4 ) [ 2,Σ 1 = 2 ),Σ 2 = ),Σ 3 = ], [ ] 3, 3 [ 2, 5 1, 5 1, 5 2 ].

32 Separační funkce Gaußova klasifikátoru 32 Příklad: Hustotní funkce tří předem definovaných Gaußových rozdělení (vlevo) a separační čáry mezi rozděleními (vpravo; křížky = průměry µ i, i {1, 2, 3}), když všechny tři třídy mají stejnou a priori pravděpodobnost: X X X 1 X

33 Identifikace vážené sumy rozdělení 33 Předpoklad: Vektory x, o kterých není známo, ke které třídě κ patří, jsou rozdělené podle marginální hustoty: K P(x p,θ) = p κ P(x θ κ ) Jsou p, θ jednoznačně určitelné, když je postup funkce P(x p, θ) znám? κ=1 Ano když rodina P(x θ) tvoří bázi odpovídajícího prostoru funkcí; pak existuje jednoznačná lineární kombinace P(x). Rodina {N(x µ, Σ)} multivariátních normálních hustot je ortogonální bází. Neexistuje však algoritmus na výpočet báze.

34 Gaußovo rozdělení 34 také nazýváno jako GMM = Gaussian Mixture Model několik Gaußových hustot je vážené a shrnuty také multimodální hustoty můžeme tak reprezentovat definice hustoty GMM M P(x p(1),µ 1,Σ 1,.., p(m),µ M,Σ M ) = p(m) N(x µ m,σ m ) m=1 p(m): a priori pravděpodobnosti jednotlivých hustot M platí: p(m) = 1 m=1 problém: stanovit počet M normálních rozdělení maximum likelihood odhad parametrů pomocí algoritmu EM

35 35 Algoritmus EM pozorování v IR 2

36 36 Algoritmus EM náhodně tvořené vektory Gaußovy sumy 4 hustot v IR 2

37 37 Algoritmus EM µ, σ počítané pomocí EM ºººº ººººººººººººº ºº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ºº ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º ºººº ºººº ººº º º ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ºº ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º ººººººººººººººººººººººººººººº ººº ººº ººº ºº ºº ººº ººº ººº ººººººººººººººººººººººººººººº

38 Odhad průměrových vektorů a rozptylových matic 38 odhad maximální věrohodnosti (maximum likelihood, ML) podle vzorů Maximalizuj logaritmovanou pravděpodobnost pro produkci všech prvků tréninkového vzorku z ω = (y 1,..., y N ) s vedlejší podmínkou κ p κ = 1 L MIX (p,θ) = log P(ω p,θ) N = log P(y i p,θ) = i=1 ( N K ) log p κ P(y i θ κ ). i=1 κ=1

39 39 Odhad průměrových vektorů a rozptylových matic = systém sdružených, transcendentních rovnic pro ˆp κ, ˆµ κ a ˆΣ κ (předpoklad: normální rozdělení např. odhad pro ˆp κ = 1 N N i=1 P(Ω κ y i, ˆp, ˆθ) označený (labeled) tréninkový vzorek P(Ω κ y i, ˆp, ˆθ) = 1 pro y i Ω κ, jinak úkol při učení bez učitele : náhodný proces tvoří dvojice hodnot (κ, x) náhodných proměnných (Ω, X) s hustotou pravděpodobnosti P(κ, x) Problém: Hodnoty diskrétních náhodných proměnných Ω nejsou pozorovatelné!

40 Algoritmus EM 4 máme: náhodný proces (X, U) s hustotou rozdělení P(x, u θ) (x pozorovatelný a u skrytý) hledáme: ML odhad neznámých parametrů rozdělení θ pomocí maximalizace veličiny L EM (θ) = log P(x θ) = log P(x, u θ) du u

41 Algoritmus EM 41 chicken-egg problem: θ u θ u θ u... optimalizace veličiny θ vyžaduje hodnotu nebo rozdělení skryté náhodné proměnné, rozdělení procesu U je závislé na této θ iterativní východisko: algoritmus EM (expectation maximization) účel: postupné zlepšení parametrů vzhledem k cílové funkci algoritmu ML

42 42 Algoritmus EM platí vztah P(x, u ˆθ) = P(u x, ˆθ)P(x ˆθ) = log P(x, u ˆθ) = log P(u x, ˆθ) + log P(x ˆθ) = log P(x ˆθ) = log P(x, u ˆθ) log P(u x, ˆθ) definice Kullback-Leiblerovy diference Q(θ, ˆθ), podmíněné očekávání všech dat (x, u)

43 Algoritmus EM 43 L EM (ˆθ) = log P(x ˆθ) = log P(x ˆθ)P(u x,θ) du u = E[log P(x ˆθ) x,θ] = E[log P(x, u ˆθ) log P(u x, ˆθ) x,θ] = E[log P(x, u ˆθ) x,θ] }{{} =:Q(θ,ˆθ) E[log P(u x, ˆθ) x,θ] }{{} =:H(θ,ˆθ)

44 Algoritmus EM 44 platí: log q q 1 Jensenova nerovnost pro podmíněnou entropii H(θ, ˆθ): H(θ, ˆθ) H(θ,θ) = = u u u = 1 1 =. ( ) P(u x, ˆθ) log P(u x,θ) du P(u x,θ) ( P(u x, ˆθ) ) P(u x,θ) 1 P(u x,θ) du P(u x, ˆθ) du P(u x,θ) du u

45 Algoritmus EM 45 H(θ, ˆθ) H(θ,θ) = dostatečné kritérium pro iterativní zlepšení parametrů: Q(θ, ˆθ) Q(θ,θ) = L EM (ˆθ) L EM (θ) vylepšená odhadní hodnota ML: θ s podmínkou Q(θ, ) max

46 Algoritmus EM 46 1 Stanov vhodné počáteční parametry ˆB. 2 Pro i = 1, 2, 3,...: (1) Krok expectation: Stanov rozdělení γ i (Y) a posteriori pravděpodobnosti skryté náhodné proměnnéy : γ i (Y) = P(Y X, ˆB i 1 ) (2) Krok maximization: Maximalizuj Kullback-Leiblerovu diferenci Q: ˆB i = argmax γ i (Y) log P(X, Y ˆB)dY ˆB Y (3) Kontroluj vhodnou terminační podmínku.

47 47 Algoritmus EM pro GMM Problém při odhadu ML parametrů GMM: Přiřazení příznakového vektoru x k jedné z M hustot není známo. Algoritmus EM řeší problém iterativní optimalizací. Není garantováno, že tak najdeme nejlepší parametry, které maximalizují pravděpodobnost tréninkového vzorku. Ale nacházíme vždycky lokální optimum, tj. parametry, které jsou aspoň tak dobré jako iniciální hodnoty. Zkušenost: Nacházíme velmi dobré parametry, když jsou iniciální hodnoty dobré a když je dost tréninkových dat. Problém: Jak stanovíme dobré iniciální hodnoty?

48 Algoritmus EM pro GMM část Stanov počáteční parametry ˆB = {p(m),µ m,σ m } pro všechna m. 2 Pro i = 1, 2, 3,...: (1) Krok expectation: Stanov pro každou třídu Ω m a každý příznakový vektor x j a posteriori pravděpodobnost: γj,m i = P(Ω m x j, ˆB i 1 ) = N(x j µ m i 1 N(x j µ i 1 k k,σm i 1,Σ i 1 k ) p(m) ) p(k)

49 Algoritmus EM pro GMM část 2 49 (2) Maximization krok: Vypočítej nové parametry ˆB i : J p(m) = 1 J j=1 γ i j,m Σ m = µ m = 1 j γi j,m 1 j γi j,m J γj,m i x j j=1 J γj,m i (x j µ m ) (x j µ m ) j=1 (3) Kontroluj vhodnou terminační podmínku.

50 Algoritmus EM 5 1 Data 1 Initial Configuration (, 2 µ 1 =, 8 (, 8 µ 2 =, ) [, 1, Σ 1 =, 1 ), Σ 2 = [, 1, 1 ] ]

51 Algoritmus EM 51 1 E step 1 M step

52 M step M step M step M step M step M step M step M step M step Algoritmus EM

53 Algoritmus EM 53 M step (, 31 µ 1 =, 32 (, 68 µ 2 =, ) [, 8,Σ 1 =, 8 ),Σ 2 = [, 8, 8 ] ]

54 Algoritmus EM 54 zjednodušená varianta algoritmu EM stanoví v iteračním kroku nejpravděpodobnější konstelaci u neznámých dat s x a θ domnívá se, že U má opravdovou hodnotu u odhaduje nové ML parametry θ vzhledem k P(x, u ) místo Q(ˆB i ˆB i 1 ) = Y P(Y X, ˆB i 1 ) log P(X, Y ˆB i )dy bude maximalizováno L EM = max Y log P(X, Y ˆB) tj. tvoření podmíněné očekávané hodnoty je nahrazeno tvořením maxima výsledný algoritmus EM už nemaximalizuje log-likelihood tréninkového vzorku jako algoritmus EM, ale jen účelovou veličinu L EM

55 Algoritmus EM 55 1 Stanov vhodné počáteční parametry ˆB. 2 Pro i = 1, 2, 3,...: (1) Stanov nejpravděpodobnější hodnoty skrytých náhodných proměnných: Y i = argmax P(X, Y ˆB i 1 ) Y (2) Vypočítej odhadní hodnoty pro kompletní data (X, Y i ): ˆB i = argmax P(X, Y i ˆB) ˆB (3) Kontroluj pomocí vhodné terminační podmínky.

56 56 Algoritmus EM názorně maximalizuj P(x, u ) místo P(x ) data u nejsou pozorovatelná přechod na podmíněnou očekávanou hodnotu vzhledem k a posteriori hustotě P(u x,θ) evaluace těchto s užívaním starých parametrů distribuce θ předchozí iterace

57 Vektorová kvantizace 57 Vektorová kvantizace je zobrazení libovolných příznakových vektorů x na stanovené prototypové vektory z k. Množina prototypových vektorů Z = {z 1,.., z K } tvoří kódovou knihu kvantizéru. Vektorový kvantizér stanoví rozklad vektorového prostoru, každá buňka se skládá ze všech příznakových vektorů, které jsou zobrazeny na stejný prototypový vektor. dvě různé kvantizace dvojdimenzionálního vektorového prostoru:

58 Vektorový kvantizér 58 Formálně: Vektorový kvantizér je operátor { IR q : D Z = {z 1,...,z K } x q(x) Zobrazení q( ) disjunktním rozkladem příznakového prostoru do buněk: IR D = Y 1 Y K, Y κ = {x q(x) = z κ } Optimální vektorový kvantizér q( ) minimalizuje očekávanou kvantizační chybu ε = E[d(X, q(x))] = K d(x, z κ )P(x) dx. κ=1x Y κ d je přitom metrikou vzdálenosti mezi dvěma vektory. Problém: žádné uzavřené řešení pro optimální kvantizér

59 59 Optimální vektorový kvantizér Nutné podmínky pro kódovou knihu optimálního vektorového kvantizéru: Kvantizér vybere nejblíž položený vektor z kódové knihy q( ) rozdělí příznakový prostor do buněk Ŷ 1 (Z),..., Ŷ K (Z), kde Ŷ κ (Z) = {x IR D d(x, z κ ) = min λ d(x, z λ )}. Třídový centroid z(y κ ) bude prototypovým vektorem z κ. Třídový centroid je vektor ŷ s minimální očekávanou odchylkou od prvků buňky E[d(X, ŷ) X Y κ ] = min y E[d(X, y) X Y κ ]. Pro kvadratické míry vzdálenosti platí d(x, y) = (x y) Σ 1 (x y): Centroid množiny M je podmíněná očekávaná hodnota E[X X M].

60 Algoritmus k-means 6 Vyber počet K tříd kódové knihy. Vyber iniciální prototypové vektory Z () = (z κ () κ = 1,..., K). Pro i = 1, 2, 3,...: 1 Klasifikuj všechny tréninkové vektory x ω a určuj z toho nový rozklad Y (i) κ = Ŷ κ (Z (i 1) ), κ = 1,..., K. 2 Vypočítej novou kódovou knihu Z (i) s třídovými centroidy z (i) κ = 1 N (i) κ x Y (i) κ x ; N κ (i) je počet vektorů v buňce Y κ (i). 3 Když kritérium terminace je splněno konec Hledaná je kódová kniha Z (i) a vektorový kvantizér rozhoduje podle pravidla minimální vzdálenosti.

61 61 Vlastnosti algoritmu k-means víc tříd menší minimální kvantizační chyba každý K kvantizér je také (K + 1) kvantizér žádná vhodná metoda výběru příznivé velikosti kódové knihy řízení ISODATA: rozšíření k means; optimalizuje i počet tříd kvantizační chyba klesá monotónně a je pozitivní konvergence vhodné kritérium terminace: redukce chyby příliš malá kódová kniha je lokálně optimální iniciální kódová kniha určuje lokální minimum metody na inicializaci kódové knihy pokryv algoritmu k-means náhodným procesem s klesájící entropií (např. simulated annealing) globální optimálnost garantovaná, ale vyžaduje hodně času na výpočet

62 62 Algoritmus LBG (Linde, Buzo, Gray) hierarchická metoda pro snížení závislosti od inicializace 1. Začni s triviálním rozkladem {ω} (celá tréninková množina je jedna buňka, K = 1). 2. Rozlož K buňky heuristickou metodou do 2K buněk: najdi v každé buňce dva vzdálené body a použij je jako nové prototypové vektory. 3. Urči algoritmem k-means iterativně optimální prototypový vektor pro novou kódovou knihu. 4. Vrat se k bodu 2. dokud nebude dosahnut požadovaný počet tříd. kombinace postupného rozkladu a postupného splynutí tříd kódové knihy, např. algoritmus ISODATA

63 63 Algoritmus LBG Optimalizaci k-means lze aplikovat v každém kroku bud na všechny nebo jen na část tříd kódové knihy. ω LBG-optimalizace ω K = 2 1 K = 2 2 K = 2 3 Pozor: V literatuře jsou názvy algoritmů LBG, k-means a Lloydovu algoritmu často popletené! Jsou vektorové kvantizéry, které užívají LBG.

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka

Více

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

SRE 03 - Statistické rozpoznávání

SRE 03 - Statistické rozpoznávání SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29 Opakování

Více

oddělení Inteligentní Datové Analýzy (IDA)

oddělení Inteligentní Datové Analýzy (IDA) Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {

Více

Apriorní rozdělení. Jan Kracík.

Apriorní rozdělení. Jan Kracík. Apriorní rozdělení Jan Kracík jan.kracik@vsb.cz Apriorní rozdělení Apriorní rozdělení (spolu s modelem) reprezentuje informaci o neznámém parametru θ, která je dostupná předem, tj. bez informace z dat.

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Odhady Parametrů Lineární Regrese

Odhady Parametrů Lineární Regrese Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké

Více

Odhad stavu matematického modelu křižovatek

Odhad stavu matematického modelu křižovatek Odhad stavu matematického modelu křižovatek Miroslav Šimandl, Miroslav Flídr a Jindřich Duník Katedra kybernetiky & Výzkumné centrum Data-Algoritmy-Rozhodování Fakulta aplikovaných věd Západočeská univerzita

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.

Více

Klasifikace a rozpoznávání. Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber

Více

Implementace Bayesova kasifikátoru

Implementace Bayesova kasifikátoru Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6

Více

Kybernetika a umělá inteligence, cvičení 10/11

Kybernetika a umělá inteligence, cvičení 10/11 Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu

Více

AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza

AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Shluková analýza Cílem shlukové analýzy je nalézt v datech podmnožiny

Více

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr

Více

Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno

Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6 Plán... SRE 2

Více

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y) 5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =

Více

AVDAT Klasický lineární model, metoda nejmenších

AVDAT Klasický lineární model, metoda nejmenších AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i

Více

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3! Výsledky příkladů na procvičení z NMSA0 Klasická pravděpodobnost. 5. ( 4( 43 ( 49 3. 8! 3! 0! = 5 Poslední změna (oprava:. května 08 4. (a! + 3! + ( n+ n! = n k= ( k+ /k! = n k=0 ( k /k!; (b n k=0 ( k

Více

AVDAT Mnohorozměrné metody, metody klasifikace

AVDAT Mnohorozměrné metody, metody klasifikace AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných

Více

Úvod do optimalizace, metody hladké optimalizace

Úvod do optimalizace, metody hladké optimalizace Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady

Více

Lineární klasifikátory

Lineární klasifikátory Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu. Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

SRE 03 - Skryté Markovovy modely HMM

SRE 03 - Skryté Markovovy modely HMM SRE 03 - Skryté Markovovy modely HMM Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 1/35 Plán... SRE 03 - Skryté

Více

6. ZÁKLADY STATIST. ODHADOVÁNÍ. Θ parametrický prostor. Dva základní způsoby odhadu neznámého vektoru parametrů bodový a intervalový.

6. ZÁKLADY STATIST. ODHADOVÁNÍ. Θ parametrický prostor. Dva základní způsoby odhadu neznámého vektoru parametrů bodový a intervalový. 6. ZÁKLADY STATIST. ODHADOVÁNÍ X={X 1, X 2,..., X n } výběr z rozdělení s F (x, θ), θ={θ 1,..., θ r } - vektor reálných neznámých param. θ Θ R k. Θ parametrický prostor. Dva základní způsoby odhadu neznámého

Více

Klasifikace a rozpoznávání

Klasifikace a rozpoznávání Klasifikace a rozpoznávání Prezentace přednášek M. Španěl, 2009 Ústav počítačové grafiky a multimédií Téma přednášky Unsupervised techniky Obsah: Literatura Úvod do shlukování Metriky, základní přístupy,

Více

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory Zkouška ověřuje znalost základních pojmů, porozumění teorii a schopnost aplikovat teorii při

Více

MATEMATICKÁ STATISTIKA - XP01MST

MATEMATICKÁ STATISTIKA - XP01MST MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného

Více

Numerické metody optimalizace - úvod

Numerické metody optimalizace - úvod Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu

Více

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 Úvodní poznámky... 11 1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 1.1 Základní pojmy... 15 1.2 Aplikační oblasti a etapy zpracování signálů... 17 1.3 Klasifikace diskretních

Více

Úloha - rozpoznávání číslic

Úloha - rozpoznávání číslic Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání

Více

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny EM algoritmus používá se pro odhad nepozorovaných veličin. Jde o iterativní algoritmus opakující dva kroky: Estimate, který odhadne hodnoty nepozorovaných dat, a Maximize, který maximalizuje věrohodnost

Více

Teorie rozhodování (decision theory)

Teorie rozhodování (decision theory) Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Teorie pravděpodobnosti (probability theory) popisuje v co má agent věřit na základě pozorování. Teorie

Více

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1 Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.

Více

Statistická analýza dat

Statistická analýza dat Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte

Více

Úvodem Dříve les než stromy 3 Operace s maticemi

Úvodem Dříve les než stromy 3 Operace s maticemi Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová

Více

Algoritmy komprese dat

Algoritmy komprese dat Algoritmy komprese dat Úvod do teorie informace Claude Shannon (1916 2001) 5.11.2014 NSWI072-7 Teorie informace Informace Co je to informace? Můžeme informaci měřit? Existují teoretické meze pro délku

Více

Základy teorie odhadu parametrů bodový odhad

Základy teorie odhadu parametrů bodový odhad Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Odhady parametrů Úkolem výběrového šetření je podat informaci o neznámé hodnotě charakteristiky základního souboru

Více

Markov Chain Monte Carlo. Jan Kracík.

Markov Chain Monte Carlo. Jan Kracík. Markov Chain Monte Carlo Jan Kracík jan.kracik@vsb.cz Princip Monte Carlo integrace Cílem je (přibližný) výpočet integrálu I(g) = E f [g(x)] = g(x)f (x)dx. (1) Umíme-li generovat nezávislé vzorky x (1),

Více

Vícerozměrné statistické metody

Vícerozměrné statistické metody Vícerozměrné statistické metody Shluková analýza Jiří Jarkovský, Simona Littnerová FSTA: Pokročilé statistické metody Typy shlukových analýz Shluková analýza: cíle a postupy Shluková analýza se snaží o

Více

Trénování sítě pomocí učení s učitelem

Trénování sítě pomocí učení s učitelem Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup

Více

3 Bodové odhady a jejich vlastnosti

3 Bodové odhady a jejich vlastnosti 3 Bodové odhady a jejich vlastnosti 3.1 Statistika (Skripta str. 77) Výběr pořizujeme proto, abychom se (více) dověděli o souboru, ze kterého jsme výběr pořídili. Zde se soustředíme na situaci, kdy známe

Více

Umělá inteligence II

Umělá inteligence II Umělá inteligence II 11 http://ktiml.mff.cuni.cz/~bartak Roman Barták, KTIML roman.bartak@mff.cuni.cz Dnešní program! V reálném prostředí převládá neurčitost.! Neurčitost umíme zpracovávat pravděpodobnostními

Více

stránkách přednášejícího.

stránkách přednášejícího. Předmět: MA 4 Dnešní látka Iterační metoda Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Superrelaxační metoda (metoda SOR) Metoda sdružených gradientů Četba: Text o lineární algebře v Příručce

Více

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc. Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc. dohnal@nipax.cz Pravděpodobnost a matematická statistika 010 1.týden (0.09.-4.09. ) Data, typy dat, variabilita, frekvenční analýza

Více

Náhodné vektory a matice

Náhodné vektory a matice Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane

Více

Numerické metody a programování. Lekce 8

Numerické metody a programování. Lekce 8 Numerické metody a programování Lekce 8 Optimalizace hledáme bod x, ve kterém funkce jedné nebo více proměnných f x má minimum (maximum) maximalizace f x je totéž jako minimalizace f x Minimum funkce lokální:

Více

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných

Více

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně 7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností

Více

5. B o d o v é o d h a d y p a r a m e t r ů

5. B o d o v é o d h a d y p a r a m e t r ů 5. B o d o v é o d h a d y p a r a m e t r ů Na základě hodnot náhodného výběru z rozdělení určitého typu odhadujeme parametry tohoto rozdělení, tak aby co nejlépe odpovídaly hodnotám výběru. Formulujme

Více

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní ..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X

Více

AVDAT Nelineární regresní model

AVDAT Nelineární regresní model AVDAT Nelineární regresní model Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Nelineární regresní model Ey i = f (x i, β) kde x i je k-členný vektor vysvětlujících proměnných

Více

Schéma identifikační procedury

Schéma identifikační procedury Schéma identifikační procedury systém S generátor rekonstrukčních hypotéz G a S nejsou porovnatelné nelze srovnat kvalitu G a S S a S jsou porovnatelné kvalita dekompozice S? S : (S,S ) = G dekompozice

Více

Aktivní detekce chyb

Aktivní detekce chyb Fakulta aplikovaných věd, Katedra kybernetiky a Výzkumné centrum Data - Algoritmy - Rozhodování Západočeská univerzita v Plzni Prezentace v rámci odborného semináře Katedry kybernetiky Obsah Motivační

Více

Téma 22. Ondřej Nývlt

Téma 22. Ondřej Nývlt Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené

Více

Algoritmy a struktury neuropočítačů ASN P3

Algoritmy a struktury neuropočítačů ASN P3 Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností

Více

Nestranný odhad Statistické vyhodnocování exp. dat M. Čada

Nestranný odhad Statistické vyhodnocování exp. dat M. Čada Nestranný odhad 1 Parametr θ Máme statistický (výběrový) soubor, který je realizací náhodného výběru 1, 2, 3,, n z pravděpodobnostní distribuce, která je kompletně stanovena jedním nebo více parametry

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

1 0 0 u 22 u 23 l 31. l u11

1 0 0 u 22 u 23 l 31. l u11 LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23

Více

Program SMP pro kombinované studium

Program SMP pro kombinované studium Zadání příkladů k procvičení na seminář Program SMP pro kombinované studium Nejdůležitější typy příkladů - minimum znalostí před zkouškovou písemkou 1) Matice 1. Pro matice 1 0 2 1 0 3 B = 7 3 4 4 2 0

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,

Více

Princip gradientních optimalizačních metod

Princip gradientních optimalizačních metod Princip gradientních optimalizačních metod Tomáš Kroupa 20. května 2014 Tento studijní materiál je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky. Obsah Úkol a základní

Více

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody Fakulta chemicko-technologická Katedra analytické chemie 3.2 Metody s latentními proměnnými a klasifikační metody Vypracoval: Ing. Tomáš Nekola Studium: licenční Datum: 21. 1. 2008 Otázka 1. Vypočtěte

Více

VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY

VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY Jan Krejčí 31. srpna 2006 jkrejci@physics.ujep.cz http://physics.ujep.cz/~jkrejci Obsah 1 Přímé metody řešení soustav lineárních rovnic 3 1.1 Gaussova eliminace...............................

Více

Algoritmy a struktury neuropočítačů ASN - P11

Algoritmy a struktury neuropočítačů ASN - P11 Aplikace UNS při rozpoznání obrazů Základní úloha segmentace obrazu rozdělení obrazu do několika významných oblastí klasifikační úloha, clusterová analýza target Metody Kohonenova metoda KSOM Kohonenova

Více

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová

Více

Neparametrické odhady hustoty pravděpodobnosti

Neparametrické odhady hustoty pravděpodobnosti Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické

Více

Základní spádové metody

Základní spádové metody Základní spádové metody Petr Tichý 23. října 2013 1 Metody typu line search Problém Idea metod min f(x), f : x R Rn R. n Dána počáteční aproximace x 0. Iterační proces (krok k): (a) zvol směr d k, (b)

Více

Charakterizace rozdělení

Charakterizace rozdělení Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf

Více

Expectation-Maximization Algoritmus

Expectation-Maximization Algoritmus Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁŘSKÁ PRÁCE Jaroslav Vichr Expectation-Maximization Algoritmus Katedra pravděpodobnosti a matematické statistiky Vedoucí bakalářské práce:

Více

Teorie informace: řešené příklady 2014 Tomáš Kroupa

Teorie informace: řešené příklady 2014 Tomáš Kroupa Teorie informace: řešené příklady 04 Tomáš Kroupa Kolik otázek je třeba v průměru položit, abychom se dozvěděli datum narození člověka (den v roce), pokud odpovědi jsou pouze ano/ne a tázaný odpovídá pravdivě?

Více

Bayesovské metody. Mnohorozměrná analýza dat

Bayesovské metody. Mnohorozměrná analýza dat Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A

Více

Rekonstrukce diskrétního rozdělení psti metodou maximální entropie

Rekonstrukce diskrétního rozdělení psti metodou maximální entropie Rekonstrukce diskrétního rozdělení psti metodou maximální entropie Příklad Lze nalézt četnosti nepozorovaných stavů tak, abychom si vymýšleli co nejméně? Nechť n i, i = 1, 2,..., N jsou známé (absolutní)

Více

Vícerozměrná rozdělení

Vícerozměrná rozdělení Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.

Více

Přednáška 13 Redukce dimenzionality

Přednáška 13 Redukce dimenzionality Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /

Více

Statistika II. Jiří Neubauer

Statistika II. Jiří Neubauer Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Zaměříme se především na popis dvourozměrných náhodných veličin (vektorů). Definice Nechť X a Y jsou

Více

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.

Více

Úvod do zpracování signálů

Úvod do zpracování signálů 1 / 25 Úvod do zpracování signálů Karel Horák Rozvrh přednášky: 1. Spojitý a diskrétní signál. 2. Spektrum signálu. 3. Vzorkovací věta. 4. Konvoluce signálů. 5. Korelace signálů. 2 / 25 Úvod do zpracování

Více

Definice 1.1. Nechť je M množina. Funkci ρ : M M R nazveme metrikou, jestliže má následující vlastnosti:

Definice 1.1. Nechť je M množina. Funkci ρ : M M R nazveme metrikou, jestliže má následující vlastnosti: Přednáška 1. Definice 1.1. Nechť je množina. Funkci ρ : R nazveme metrikou, jestliže má následující vlastnosti: (1 pro každé x je ρ(x, x = 0; (2 pro každé x, y, x y, je ρ(x, y = ρ(y, x > 0; (3 pro každé

Více

4. Na obrázku je rozdělovací funkce (hustota pravděpodobnosti) náhodné veličiny X. Jakou hodnotu musí mít parametr k?

4. Na obrázku je rozdělovací funkce (hustota pravděpodobnosti) náhodné veličiny X. Jakou hodnotu musí mít parametr k? A 1. Stanovte pravděpodobnost, že náhodná veličina X nabyde hodnoty menší než 6: P( X 6). Veličina X má rozdělení se střední hodnotou 6 a směrodatnou odchylkou 5: N(6,5). a) 0 b) 1/3 c) ½ 2. Je možné,

Více

PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti

PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti PROSTORY SE SKALÁRNÍM SOUČINEM Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx, y) = λ(x,

Více

Detekce interakčních sil v proudu vozidel

Detekce interakčních sil v proudu vozidel Detekce interakčních sil v proudu vozidel (ANEB OBECNĚJŠÍ POHLED NA POJEM VZDÁLENOSTI V MATEMATICE) Doc. Mgr. Milan Krbálek, Ph.D. Katedra matematiky Fakulta jaderná a fyzikálně inženýrská České vysoké

Více

Síla a významnost asociace mezi proměnnými v systému

Síla a významnost asociace mezi proměnnými v systému Síla a významnost asociace mezi proměnnými v systému Program 1. Entropie jako míra neuspořádanosti. 2. Entropie jako míra informace. 3. Entropie na rozkladu množiny elementárních jevů. 4. Vlastnosti entropie.

Více

Náhodné (statistické) chyby přímých měření

Náhodné (statistické) chyby přímých měření Náhodné (statistické) chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně

Více

9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1

9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1 9 přednáška 6 listopadu 007 Věta 11 Nechť f C U, kde U R m je otevřená množina, a a U je bod Pokud fa 0, nemá f v a ani neostrý lokální extrém Pokud fa = 0 a H f a je pozitivně negativně definitní, potom

Více

Odhady - Sdružené rozdělení pravděpodobnosti

Odhady - Sdružené rozdělení pravděpodobnosti Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy

Více

Náhodný vektor a jeho charakteristiky

Náhodný vektor a jeho charakteristiky Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich

Více

4. Učení bez učitele. Shlukování. K-means, EM. Hierarchické shlukování. Kompetitivní učení. Kohonenovy mapy.

4. Učení bez učitele. Shlukování. K-means, EM. Hierarchické shlukování. Kompetitivní učení. Kohonenovy mapy. GoBack 4. Učení bez učitele. Shlukování., EM. Hierarchické.. Kohonenovy mapy. Petr Pošík Katedra kybernetiky ČVUT FEL P. Pošík c 29 Aplikace umělé inteligence 1 / 53 Obsah P. Pošík c 29 Aplikace umělé

Více

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Příklad Tahová síla papíru používaného pro výrobu potravinových sáčků je důležitá charakteristika kvality. Je známo, že síla

Více

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet. Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Dnešní program Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu

Více

Praktická statistika. Petr Ponížil Eva Kutálková

Praktická statistika. Petr Ponížil Eva Kutálková Praktická statistika Petr Ponížil Eva Kutálková Zápis výsledků měření Předpokládejme, že známe hodnotu napětí U = 238,9 V i její chybu 3,3 V. Hodnotu veličiny zapíšeme na tolik míst, aby až poslední bylo

Více

Ústav matematiky a statistiky Masarykova univerzita Brno. workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí

Ústav matematiky a statistiky Masarykova univerzita Brno. workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí Ústav matematiky a statistiky Masarykova univerzita Brno workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí 3. 6. září 2013 Obsah 1 2 3 4 y Motivace y 10 0 10 20 30 40 0 5

Více

Instance based learning

Instance based learning Učení založené na instancích Instance based learning Charakteristika IBL (nejbližších sousedů) Tyto metody nepředpokládají určitý model nejsou strukturované a typicky nejsou příliš užitečné pro porozumění

Více

Waldovy testy, vlastnosti a Operační charakteristika

Waldovy testy, vlastnosti a Operační charakteristika Waldovy testy, vlastnosti a Operační charakteristika Adéla Zavřelová 11. března 2018 Adéla Zavřelová Waldovy testy 11. března 2018 1 / 21 Úvod Úloha H 0 : náhodná veličina X má rozdělení s hustotou f 0

Více

LS 2013 Teorie skrytých Markovových modelů. Tino Haderlein, Elmar Nöth

LS 2013 Teorie skrytých Markovových modelů. Tino Haderlein, Elmar Nöth Interakce člověk počítač v přirozeném jazyce (ICP) LS 2013 Teorie skrytých Markovových modelů Tino Haderlein, Elmar Nöth Katedra informatiky a výpočetní techniky (KIV) Západočeská univerzita v Plzni Lehrstuhl

Více

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

MATEMATICKÁ STATISTIKA.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým

Více

Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D.

Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D. Ing. Michal Dorda, Ph.D. 1 Př. 1: Cestující na vybraném spoji linky MHD byli dotazováni za účelem zjištění spokojenosti s kvalitou MHD. Legenda 1 Velmi spokojen Spokojen 3 Nespokojen 4 Velmi nespokojen

Více