Tino Haderlein, Elmar Nöth
|
|
- Roman Marek Růžička
- před 6 lety
- Počet zobrazení:
Transkript
1 Interakce člověk počítač v přirozeném jazyce (ICP) LS 213 Klasifikace Tino Haderlein, Elmar Nöth Katedra informatiky a výpočetní techniky (KIV) Západočeská univerzita v Plzni Lehrstuhl für Mustererkennung (LME) Friedrich-Alexander-Universität Erlangen-Nürnberg
2 Klasifikační systém 2 f(x) sensor preprocessing signal h(x) feature extraction c classification Ω κ working phase training phase sample ω estimation of subspaces for classes
3 Similar Patterns 3 Postulate 4: two patterns are similar, if an appropriately defined distance measure between their feature vectors is small.
4 Similar Patterns 4 Postulate 4: two patterns are similar, if an appropriately defined distance measure between their feature vectors is small.
5 Similar Patterns 5 Postulate 4: two patterns are similar, if an appropriately defined distance measure between their feature vectors is small.
6 Similar Patterns 6 Proof that old men look like young women
7 Míry podobnosti vzdálenosti 7 Promluva, která má být klasifikována do jedné třídy Ω κ je ted posloupnost pozorování s c IR n, n 2. Klasifikace znamená, že každé pozorování c musí být srovnáno s vhodným referenčním vektorem každé možné třídy Ω κ. Klasifikátor musí počítat průměrnou podobnost přes všechna pozorování, která patří k promluvě. Když vhodný referenční vektor c Ωκ třídy Ω κ je považován za bod v IR n, pak míra podobnosti mezi c Ωκ a aktuálním pozorovacím vektorem c j může být jejich vzdálenost podle nějaké metriky: d κj = n i=1 c Ω κ (i) c j (i) cityblock metric n d κj = i=1 (c Ω κ (i) c j (i)) 2 euklidovská vzdálenost Rozhodni se pro κ s minimální vzdáleností, tj. nejvyšší podobností.
8 8 Míry podobnosti hustoty pravděpodobnosti považuj vhodný referenční vektor c Ωκ třídy κ za stochastický proces, tj. podmíněná hustota pravděpodobnosti P(c Ω κ ) může být popsána rodinou parametrických funkcí proč stochastický proces? určité faktory, které ovlivňují příznakový vektor, jsou neznámé a/anebo není možné je modelovat explicitně např. klasifikační úloha: klasifikace mluvčího příklady ovlivňujících faktorů: emocionální stav stav uživatele (user state) mikrofon 1 mikrofon 2
9 Stejná promluva, různé mikrofony 9 mikrofon blízko mluvčího (close talk microphone) prostorový mikrofon (room microphone)
10 1 /a/, different microphones close talk microphone omni-directional microphone difference average difference (1 sec)
11 11 /i/, different microphones close talk microphone omni-directional microphone difference average difference (1 sec)
12 12 /u/, different microphones close talk microphone omni-directional microphone difference average difference (1 sec)
13 13 /a/, close-talk microphone, different speakers speaker A speaker B difference average difference (1 sec)
14 Close-talk vs. room microphone fragen wie das aussieht... Nahbesprechungsmikrofon, sp1ctalk 6, Muedigkeitsstichprobe khz t fragen wie das aussieht... Raummikrofon, sp1mic7 6, Muedigkeitsstichprobe khz t
15 Close-talk vs. room microphone wie d] a [s aussieht unverhallt wie d] a [s aussieht verhallt spektrogram hlásky a z promluvy wie das aussieht ; unverhallt=bez dozvuku, verhallt=s dozvukem
16 Close-talk vs. room microphone wie da] s [aussieht unverhallt wie da] s [aussieht verhallt spektrogram hlásky s z promluvy wie das aussieht ; unverhallt= bez dozvuku, verhallt=s dozvukem
17 Close-talk vs. room microphone 17 File: sin2125.wav Page: 1 of 1 Printed: Fri Dec 26 :18:39 khz t File: sin2125 verh.wav Page: 1 of 1 Printed: Fri Dec 26 :18:7 khz t
18 Close-talk vs. room microphone 18 2 Sin 2125 Hz unverhallt Sin 2125 Hz verhallt spektrogram sinusové vlny s frekvencí 2125Hz; unverhallt= bez dozvuku, verhallt=s dozvukem
19 Close-talk vs. room microphone 19 2 Sin2125 Hz verhallt Sin2125 Hz Nachhall spektrogram sinusové vlny s frekvencí 2125Hz; verhallt=s dozvukem, Nachhall=dozvuk
20 Close-talk vs. room microphone 2 File: Page: 1 of 1 Printed: Fri Dec 26 23:29:2 khz t File: Page: 1 of 1 Printed: Fri Dec 26 23:34:51 khz t
21 Close-talk vs. room microphone 21 2 Sin 2125 Hz unverhallt Sin 2125 Hz verhallt spektrogram sinusové vlny 2125Hz z posloupnosti stoupajících frekvencí; unverhallt=bez dozvuku, verhallt= s dozvukem
22 22 Míry podobnosti hustoty pravděpodobnosti Bud prototypická realizace daného zvuku od daného mluvčího, který je mírně obměněn ovlivňujícími faktory, které jsou neznámé a jsou proto považované za náhodný proces, který má jako základ tuto prototypickou realizaci. Chování náhodného procesu je popsáno hustotou pravděpodobnosti (probability density function; PDF). Bud rodina parametrických funkcí. Parametry se trénuje representační množinou ω. Nejčastěji užívaná rodina parametrických funkcí je rodina Gaußových funkcí (normální rozdělení), charakterizované průměrným vektorem µ a kovarianční maticí K. : německy Gauß s tzv. ostrým s, mezinárodně Gauss
23 Tréninková množina 23 dva mluvčí sp i jazyk s třemi hláskami sou j Každá hláska je pro trénování každým mluvčím řečena pětkrát. Pro každý tréninkový vzor: Mluvčí je znám, ale hláska ne. Každý vzor je popsán jako dvojrozměrný příznakový vektor c i IR 2. Chceme popisovat chování náhodné proměnné c dvojdimenzionální Gaußovou funkcí: P(c sp i, sou j ) = N(c µ ij, K ij ) = 2πK ij exp[ (c µ ij ) t K 1 ij (c µ ij ) 2 Problém: Aktuální hláska není známa. Řešení: Užívej jednu pravděpodobnostní hustotní funkci, která je lineární kombinací Gaußových funkcí: Gaußův model nebo Gaussian Mixture Model (GMM) P(c sp i ) = K i k=1 ω ik N(c µ ik, K ik ) µ, K a váhy ω se mohou trénovat účinně (algoritmem EM).
24 Klasifikační systém 24 f(x) sensor preprocessing signal h(x) feature extraction c classification Ω κ working phase training phase sample ω estimation of subspaces for classes
25 Estimates for PDFs based on a Training Sample Speaker A, sound 1 Speaker A, sound 2 Speaker A, sound 3 Speaker B, sound 1 Speaker B, sound 2 Speaker B, sound
26 Training Sample Speaker A, sound 1 Speaker A, sound 2 Speaker A, sound 3 Speaker B, sound 1 Speaker B, sound 2 Speaker B, sound
27 Classification of One Frame w.r.t. Speaker A 27 Result is an estimate for the conditional probability P(c speakera) 2 Speaker A, sound 1 Speaker A, sound 2 Speaker A, sound Σ ω P(c µ Κ ) i i i
28 28 Základní technologie klasifikace Klasifikuj každé okno (frame) promluvy vzhledem ke všem třídám (mluvčí). Pro každou třídu zkombinuj klasifikační výsledek pro každý frame (suma, násobení,... ). Když se užívá míru vzdálenosti, roztřid třídy vzestupně (začni s minimální vzdáleností). Když se užívá podmíněnou funkci pravděpodobnosti, roztřid třídy sestupně (začni s maximální pravděpodobností). Výsledek je tříděný seznam tříd s hodnoceními (scores).
29 Gaußovo rozdělení 29 nejčastěji užívaný předpoklad rozdělení příznakových vektorů definice Gaußova nebo normálního rozdělení P(x µ m,σ m ) = N(x µ m,σ m ) = 1 2πΣm e 1 2 (x µ m ) Σ 1 m (x µ m ) průměrný vektor µ m symetrická, pozitivně semidefinitní kovarianční matice Σ m
30 Gaußovo rozdělení 3 5 Surface plot of probability density
31 Separační funkce Gaußova klasifikátoru 31 příklad: ( 4 µ 1 = 2 ( µ 2 = 1 ( 4 µ 3 = 4 ) [ 2,Σ 1 = 2 ),Σ 2 = ),Σ 3 = ], [ ] 3, 3 [ 2, 5 1, 5 1, 5 2 ].
32 Separační funkce Gaußova klasifikátoru 32 Příklad: Hustotní funkce tří předem definovaných Gaußových rozdělení (vlevo) a separační čáry mezi rozděleními (vpravo; křížky = průměry µ i, i {1, 2, 3}), když všechny tři třídy mají stejnou a priori pravděpodobnost: X X X 1 X
33 Identifikace vážené sumy rozdělení 33 Předpoklad: Vektory x, o kterých není známo, ke které třídě κ patří, jsou rozdělené podle marginální hustoty: K P(x p,θ) = p κ P(x θ κ ) Jsou p, θ jednoznačně určitelné, když je postup funkce P(x p, θ) znám? κ=1 Ano když rodina P(x θ) tvoří bázi odpovídajícího prostoru funkcí; pak existuje jednoznačná lineární kombinace P(x). Rodina {N(x µ, Σ)} multivariátních normálních hustot je ortogonální bází. Neexistuje však algoritmus na výpočet báze.
34 Gaußovo rozdělení 34 také nazýváno jako GMM = Gaussian Mixture Model několik Gaußových hustot je vážené a shrnuty také multimodální hustoty můžeme tak reprezentovat definice hustoty GMM M P(x p(1),µ 1,Σ 1,.., p(m),µ M,Σ M ) = p(m) N(x µ m,σ m ) m=1 p(m): a priori pravděpodobnosti jednotlivých hustot M platí: p(m) = 1 m=1 problém: stanovit počet M normálních rozdělení maximum likelihood odhad parametrů pomocí algoritmu EM
35 35 Algoritmus EM pozorování v IR 2
36 36 Algoritmus EM náhodně tvořené vektory Gaußovy sumy 4 hustot v IR 2
37 37 Algoritmus EM µ, σ počítané pomocí EM ºººº ººººººººººººº ºº ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ºº ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º ºººº ºººº ººº º º ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº ºº ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº º ººººººººººººººººººººººººººººº ººº ººº ººº ºº ºº ººº ººº ººº ººººººººººººººººººººººººººººº
38 Odhad průměrových vektorů a rozptylových matic 38 odhad maximální věrohodnosti (maximum likelihood, ML) podle vzorů Maximalizuj logaritmovanou pravděpodobnost pro produkci všech prvků tréninkového vzorku z ω = (y 1,..., y N ) s vedlejší podmínkou κ p κ = 1 L MIX (p,θ) = log P(ω p,θ) N = log P(y i p,θ) = i=1 ( N K ) log p κ P(y i θ κ ). i=1 κ=1
39 39 Odhad průměrových vektorů a rozptylových matic = systém sdružených, transcendentních rovnic pro ˆp κ, ˆµ κ a ˆΣ κ (předpoklad: normální rozdělení např. odhad pro ˆp κ = 1 N N i=1 P(Ω κ y i, ˆp, ˆθ) označený (labeled) tréninkový vzorek P(Ω κ y i, ˆp, ˆθ) = 1 pro y i Ω κ, jinak úkol při učení bez učitele : náhodný proces tvoří dvojice hodnot (κ, x) náhodných proměnných (Ω, X) s hustotou pravděpodobnosti P(κ, x) Problém: Hodnoty diskrétních náhodných proměnných Ω nejsou pozorovatelné!
40 Algoritmus EM 4 máme: náhodný proces (X, U) s hustotou rozdělení P(x, u θ) (x pozorovatelný a u skrytý) hledáme: ML odhad neznámých parametrů rozdělení θ pomocí maximalizace veličiny L EM (θ) = log P(x θ) = log P(x, u θ) du u
41 Algoritmus EM 41 chicken-egg problem: θ u θ u θ u... optimalizace veličiny θ vyžaduje hodnotu nebo rozdělení skryté náhodné proměnné, rozdělení procesu U je závislé na této θ iterativní východisko: algoritmus EM (expectation maximization) účel: postupné zlepšení parametrů vzhledem k cílové funkci algoritmu ML
42 42 Algoritmus EM platí vztah P(x, u ˆθ) = P(u x, ˆθ)P(x ˆθ) = log P(x, u ˆθ) = log P(u x, ˆθ) + log P(x ˆθ) = log P(x ˆθ) = log P(x, u ˆθ) log P(u x, ˆθ) definice Kullback-Leiblerovy diference Q(θ, ˆθ), podmíněné očekávání všech dat (x, u)
43 Algoritmus EM 43 L EM (ˆθ) = log P(x ˆθ) = log P(x ˆθ)P(u x,θ) du u = E[log P(x ˆθ) x,θ] = E[log P(x, u ˆθ) log P(u x, ˆθ) x,θ] = E[log P(x, u ˆθ) x,θ] }{{} =:Q(θ,ˆθ) E[log P(u x, ˆθ) x,θ] }{{} =:H(θ,ˆθ)
44 Algoritmus EM 44 platí: log q q 1 Jensenova nerovnost pro podmíněnou entropii H(θ, ˆθ): H(θ, ˆθ) H(θ,θ) = = u u u = 1 1 =. ( ) P(u x, ˆθ) log P(u x,θ) du P(u x,θ) ( P(u x, ˆθ) ) P(u x,θ) 1 P(u x,θ) du P(u x, ˆθ) du P(u x,θ) du u
45 Algoritmus EM 45 H(θ, ˆθ) H(θ,θ) = dostatečné kritérium pro iterativní zlepšení parametrů: Q(θ, ˆθ) Q(θ,θ) = L EM (ˆθ) L EM (θ) vylepšená odhadní hodnota ML: θ s podmínkou Q(θ, ) max
46 Algoritmus EM 46 1 Stanov vhodné počáteční parametry ˆB. 2 Pro i = 1, 2, 3,...: (1) Krok expectation: Stanov rozdělení γ i (Y) a posteriori pravděpodobnosti skryté náhodné proměnnéy : γ i (Y) = P(Y X, ˆB i 1 ) (2) Krok maximization: Maximalizuj Kullback-Leiblerovu diferenci Q: ˆB i = argmax γ i (Y) log P(X, Y ˆB)dY ˆB Y (3) Kontroluj vhodnou terminační podmínku.
47 47 Algoritmus EM pro GMM Problém při odhadu ML parametrů GMM: Přiřazení příznakového vektoru x k jedné z M hustot není známo. Algoritmus EM řeší problém iterativní optimalizací. Není garantováno, že tak najdeme nejlepší parametry, které maximalizují pravděpodobnost tréninkového vzorku. Ale nacházíme vždycky lokální optimum, tj. parametry, které jsou aspoň tak dobré jako iniciální hodnoty. Zkušenost: Nacházíme velmi dobré parametry, když jsou iniciální hodnoty dobré a když je dost tréninkových dat. Problém: Jak stanovíme dobré iniciální hodnoty?
48 Algoritmus EM pro GMM část Stanov počáteční parametry ˆB = {p(m),µ m,σ m } pro všechna m. 2 Pro i = 1, 2, 3,...: (1) Krok expectation: Stanov pro každou třídu Ω m a každý příznakový vektor x j a posteriori pravděpodobnost: γj,m i = P(Ω m x j, ˆB i 1 ) = N(x j µ m i 1 N(x j µ i 1 k k,σm i 1,Σ i 1 k ) p(m) ) p(k)
49 Algoritmus EM pro GMM část 2 49 (2) Maximization krok: Vypočítej nové parametry ˆB i : J p(m) = 1 J j=1 γ i j,m Σ m = µ m = 1 j γi j,m 1 j γi j,m J γj,m i x j j=1 J γj,m i (x j µ m ) (x j µ m ) j=1 (3) Kontroluj vhodnou terminační podmínku.
50 Algoritmus EM 5 1 Data 1 Initial Configuration (, 2 µ 1 =, 8 (, 8 µ 2 =, ) [, 1, Σ 1 =, 1 ), Σ 2 = [, 1, 1 ] ]
51 Algoritmus EM 51 1 E step 1 M step
52 M step M step M step M step M step M step M step M step M step Algoritmus EM
53 Algoritmus EM 53 M step (, 31 µ 1 =, 32 (, 68 µ 2 =, ) [, 8,Σ 1 =, 8 ),Σ 2 = [, 8, 8 ] ]
54 Algoritmus EM 54 zjednodušená varianta algoritmu EM stanoví v iteračním kroku nejpravděpodobnější konstelaci u neznámých dat s x a θ domnívá se, že U má opravdovou hodnotu u odhaduje nové ML parametry θ vzhledem k P(x, u ) místo Q(ˆB i ˆB i 1 ) = Y P(Y X, ˆB i 1 ) log P(X, Y ˆB i )dy bude maximalizováno L EM = max Y log P(X, Y ˆB) tj. tvoření podmíněné očekávané hodnoty je nahrazeno tvořením maxima výsledný algoritmus EM už nemaximalizuje log-likelihood tréninkového vzorku jako algoritmus EM, ale jen účelovou veličinu L EM
55 Algoritmus EM 55 1 Stanov vhodné počáteční parametry ˆB. 2 Pro i = 1, 2, 3,...: (1) Stanov nejpravděpodobnější hodnoty skrytých náhodných proměnných: Y i = argmax P(X, Y ˆB i 1 ) Y (2) Vypočítej odhadní hodnoty pro kompletní data (X, Y i ): ˆB i = argmax P(X, Y i ˆB) ˆB (3) Kontroluj pomocí vhodné terminační podmínky.
56 56 Algoritmus EM názorně maximalizuj P(x, u ) místo P(x ) data u nejsou pozorovatelná přechod na podmíněnou očekávanou hodnotu vzhledem k a posteriori hustotě P(u x,θ) evaluace těchto s užívaním starých parametrů distribuce θ předchozí iterace
57 Vektorová kvantizace 57 Vektorová kvantizace je zobrazení libovolných příznakových vektorů x na stanovené prototypové vektory z k. Množina prototypových vektorů Z = {z 1,.., z K } tvoří kódovou knihu kvantizéru. Vektorový kvantizér stanoví rozklad vektorového prostoru, každá buňka se skládá ze všech příznakových vektorů, které jsou zobrazeny na stejný prototypový vektor. dvě různé kvantizace dvojdimenzionálního vektorového prostoru:
58 Vektorový kvantizér 58 Formálně: Vektorový kvantizér je operátor { IR q : D Z = {z 1,...,z K } x q(x) Zobrazení q( ) disjunktním rozkladem příznakového prostoru do buněk: IR D = Y 1 Y K, Y κ = {x q(x) = z κ } Optimální vektorový kvantizér q( ) minimalizuje očekávanou kvantizační chybu ε = E[d(X, q(x))] = K d(x, z κ )P(x) dx. κ=1x Y κ d je přitom metrikou vzdálenosti mezi dvěma vektory. Problém: žádné uzavřené řešení pro optimální kvantizér
59 59 Optimální vektorový kvantizér Nutné podmínky pro kódovou knihu optimálního vektorového kvantizéru: Kvantizér vybere nejblíž položený vektor z kódové knihy q( ) rozdělí příznakový prostor do buněk Ŷ 1 (Z),..., Ŷ K (Z), kde Ŷ κ (Z) = {x IR D d(x, z κ ) = min λ d(x, z λ )}. Třídový centroid z(y κ ) bude prototypovým vektorem z κ. Třídový centroid je vektor ŷ s minimální očekávanou odchylkou od prvků buňky E[d(X, ŷ) X Y κ ] = min y E[d(X, y) X Y κ ]. Pro kvadratické míry vzdálenosti platí d(x, y) = (x y) Σ 1 (x y): Centroid množiny M je podmíněná očekávaná hodnota E[X X M].
60 Algoritmus k-means 6 Vyber počet K tříd kódové knihy. Vyber iniciální prototypové vektory Z () = (z κ () κ = 1,..., K). Pro i = 1, 2, 3,...: 1 Klasifikuj všechny tréninkové vektory x ω a určuj z toho nový rozklad Y (i) κ = Ŷ κ (Z (i 1) ), κ = 1,..., K. 2 Vypočítej novou kódovou knihu Z (i) s třídovými centroidy z (i) κ = 1 N (i) κ x Y (i) κ x ; N κ (i) je počet vektorů v buňce Y κ (i). 3 Když kritérium terminace je splněno konec Hledaná je kódová kniha Z (i) a vektorový kvantizér rozhoduje podle pravidla minimální vzdálenosti.
61 61 Vlastnosti algoritmu k-means víc tříd menší minimální kvantizační chyba každý K kvantizér je také (K + 1) kvantizér žádná vhodná metoda výběru příznivé velikosti kódové knihy řízení ISODATA: rozšíření k means; optimalizuje i počet tříd kvantizační chyba klesá monotónně a je pozitivní konvergence vhodné kritérium terminace: redukce chyby příliš malá kódová kniha je lokálně optimální iniciální kódová kniha určuje lokální minimum metody na inicializaci kódové knihy pokryv algoritmu k-means náhodným procesem s klesájící entropií (např. simulated annealing) globální optimálnost garantovaná, ale vyžaduje hodně času na výpočet
62 62 Algoritmus LBG (Linde, Buzo, Gray) hierarchická metoda pro snížení závislosti od inicializace 1. Začni s triviálním rozkladem {ω} (celá tréninková množina je jedna buňka, K = 1). 2. Rozlož K buňky heuristickou metodou do 2K buněk: najdi v každé buňce dva vzdálené body a použij je jako nové prototypové vektory. 3. Urči algoritmem k-means iterativně optimální prototypový vektor pro novou kódovou knihu. 4. Vrat se k bodu 2. dokud nebude dosahnut požadovaný počet tříd. kombinace postupného rozkladu a postupného splynutí tříd kódové knihy, např. algoritmus ISODATA
63 63 Algoritmus LBG Optimalizaci k-means lze aplikovat v každém kroku bud na všechny nebo jen na část tříd kódové knihy. ω LBG-optimalizace ω K = 2 1 K = 2 2 K = 2 3 Pozor: V literatuře jsou názvy algoritmů LBG, k-means a Lloydovu algoritmu často popletené! Jsou vektorové kvantizéry, které užívají LBG.
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky
UČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
SRE 03 - Statistické rozpoznávání
SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29 Opakování
oddělení Inteligentní Datové Analýzy (IDA)
Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {
Apriorní rozdělení. Jan Kracík.
Apriorní rozdělení Jan Kracík jan.kracik@vsb.cz Apriorní rozdělení Apriorní rozdělení (spolu s modelem) reprezentuje informaci o neznámém parametru θ, která je dostupná předem, tj. bez informace z dat.
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
Odhady Parametrů Lineární Regrese
Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké
Odhad stavu matematického modelu křižovatek
Odhad stavu matematického modelu křižovatek Miroslav Šimandl, Miroslav Flídr a Jindřich Duník Katedra kybernetiky & Výzkumné centrum Data-Algoritmy-Rozhodování Fakulta aplikovaných věd Západočeská univerzita
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
Implementace Bayesova kasifikátoru
Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6
Kybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza
AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Shluková analýza Cílem shlukové analýzy je nalézt v datech podmnožiny
Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík
Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné
PRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr
Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno
SRE 2 - Statistické rozpoznávání vzorů Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6 Plán... SRE 2
n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)
5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =
AVDAT Klasický lineární model, metoda nejmenších
AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i
1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!
Výsledky příkladů na procvičení z NMSA0 Klasická pravděpodobnost. 5. ( 4( 43 ( 49 3. 8! 3! 0! = 5 Poslední změna (oprava:. května 08 4. (a! + 3! + ( n+ n! = n k= ( k+ /k! = n k=0 ( k /k!; (b n k=0 ( k
AVDAT Mnohorozměrné metody, metody klasifikace
AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných
Úvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
Lineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
AVDAT Náhodný vektor, mnohorozměrné rozdělení
AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární
Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.
Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.
10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.
0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti
SRE 03 - Skryté Markovovy modely HMM
SRE 03 - Skryté Markovovy modely HMM Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 1/35 Plán... SRE 03 - Skryté
6. ZÁKLADY STATIST. ODHADOVÁNÍ. Θ parametrický prostor. Dva základní způsoby odhadu neznámého vektoru parametrů bodový a intervalový.
6. ZÁKLADY STATIST. ODHADOVÁNÍ X={X 1, X 2,..., X n } výběr z rozdělení s F (x, θ), θ={θ 1,..., θ r } - vektor reálných neznámých param. θ Θ R k. Θ parametrický prostor. Dva základní způsoby odhadu neznámého
Klasifikace a rozpoznávání
Klasifikace a rozpoznávání Prezentace přednášek M. Španěl, 2009 Ústav počítačové grafiky a multimédií Téma přednášky Unsupervised techniky Obsah: Literatura Úvod do shlukování Metriky, základní přístupy,
Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory
Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory Zkouška ověřuje znalost základních pojmů, porozumění teorii a schopnost aplikovat teorii při
MATEMATICKÁ STATISTIKA - XP01MST
MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného
Numerické metody optimalizace - úvod
Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu
1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15
Úvodní poznámky... 11 1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 1.1 Základní pojmy... 15 1.2 Aplikační oblasti a etapy zpracování signálů... 17 1.3 Klasifikace diskretních
Úloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
EM algoritmus. Proč zahrnovat do modelu neznámé veličiny
EM algoritmus používá se pro odhad nepozorovaných veličin. Jde o iterativní algoritmus opakující dva kroky: Estimate, který odhadne hodnoty nepozorovaných dat, a Maximize, který maximalizuje věrohodnost
Teorie rozhodování (decision theory)
Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Teorie pravděpodobnosti (probability theory) popisuje v co má agent věřit na základě pozorování. Teorie
Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1
Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.
Statistická analýza dat
Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte
Úvodem Dříve les než stromy 3 Operace s maticemi
Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová
Algoritmy komprese dat
Algoritmy komprese dat Úvod do teorie informace Claude Shannon (1916 2001) 5.11.2014 NSWI072-7 Teorie informace Informace Co je to informace? Můžeme informaci měřit? Existují teoretické meze pro délku
Základy teorie odhadu parametrů bodový odhad
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Odhady parametrů Úkolem výběrového šetření je podat informaci o neznámé hodnotě charakteristiky základního souboru
Markov Chain Monte Carlo. Jan Kracík.
Markov Chain Monte Carlo Jan Kracík jan.kracik@vsb.cz Princip Monte Carlo integrace Cílem je (přibližný) výpočet integrálu I(g) = E f [g(x)] = g(x)f (x)dx. (1) Umíme-li generovat nezávislé vzorky x (1),
Vícerozměrné statistické metody
Vícerozměrné statistické metody Shluková analýza Jiří Jarkovský, Simona Littnerová FSTA: Pokročilé statistické metody Typy shlukových analýz Shluková analýza: cíle a postupy Shluková analýza se snaží o
Trénování sítě pomocí učení s učitelem
Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup
3 Bodové odhady a jejich vlastnosti
3 Bodové odhady a jejich vlastnosti 3.1 Statistika (Skripta str. 77) Výběr pořizujeme proto, abychom se (více) dověděli o souboru, ze kterého jsme výběr pořídili. Zde se soustředíme na situaci, kdy známe
Umělá inteligence II
Umělá inteligence II 11 http://ktiml.mff.cuni.cz/~bartak Roman Barták, KTIML roman.bartak@mff.cuni.cz Dnešní program! V reálném prostředí převládá neurčitost.! Neurčitost umíme zpracovávat pravděpodobnostními
stránkách přednášejícího.
Předmět: MA 4 Dnešní látka Iterační metoda Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Superrelaxační metoda (metoda SOR) Metoda sdružených gradientů Četba: Text o lineární algebře v Příručce
Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.
Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc. dohnal@nipax.cz Pravděpodobnost a matematická statistika 010 1.týden (0.09.-4.09. ) Data, typy dat, variabilita, frekvenční analýza
Náhodné vektory a matice
Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane
Numerické metody a programování. Lekce 8
Numerické metody a programování Lekce 8 Optimalizace hledáme bod x, ve kterém funkce jedné nebo více proměnných f x má minimum (maximum) maximalizace f x je totéž jako minimalizace f x Minimum funkce lokální:
Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s
Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných
Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně
7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností
5. B o d o v é o d h a d y p a r a m e t r ů
5. B o d o v é o d h a d y p a r a m e t r ů Na základě hodnot náhodného výběru z rozdělení určitého typu odhadujeme parametry tohoto rozdělení, tak aby co nejlépe odpovídaly hodnotám výběru. Formulujme
X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní
..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X
AVDAT Nelineární regresní model
AVDAT Nelineární regresní model Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Nelineární regresní model Ey i = f (x i, β) kde x i je k-členný vektor vysvětlujících proměnných
Schéma identifikační procedury
Schéma identifikační procedury systém S generátor rekonstrukčních hypotéz G a S nejsou porovnatelné nelze srovnat kvalitu G a S S a S jsou porovnatelné kvalita dekompozice S? S : (S,S ) = G dekompozice
Aktivní detekce chyb
Fakulta aplikovaných věd, Katedra kybernetiky a Výzkumné centrum Data - Algoritmy - Rozhodování Západočeská univerzita v Plzni Prezentace v rámci odborného semináře Katedry kybernetiky Obsah Motivační
Téma 22. Ondřej Nývlt
Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené
Algoritmy a struktury neuropočítačů ASN P3
Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností
Nestranný odhad Statistické vyhodnocování exp. dat M. Čada
Nestranný odhad 1 Parametr θ Máme statistický (výběrový) soubor, který je realizací náhodného výběru 1, 2, 3,, n z pravděpodobnostní distribuce, která je kompletně stanovena jedním nebo více parametry
Odhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
1 0 0 u 22 u 23 l 31. l u11
LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23
Program SMP pro kombinované studium
Zadání příkladů k procvičení na seminář Program SMP pro kombinované studium Nejdůležitější typy příkladů - minimum znalostí před zkouškovou písemkou 1) Matice 1. Pro matice 1 0 2 1 0 3 B = 7 3 4 4 2 0
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
Princip gradientních optimalizačních metod
Princip gradientních optimalizačních metod Tomáš Kroupa 20. května 2014 Tento studijní materiál je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky. Obsah Úkol a základní
Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody
Fakulta chemicko-technologická Katedra analytické chemie 3.2 Metody s latentními proměnnými a klasifikační metody Vypracoval: Ing. Tomáš Nekola Studium: licenční Datum: 21. 1. 2008 Otázka 1. Vypočtěte
VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY
VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY Jan Krejčí 31. srpna 2006 jkrejci@physics.ujep.cz http://physics.ujep.cz/~jkrejci Obsah 1 Přímé metody řešení soustav lineárních rovnic 3 1.1 Gaussova eliminace...............................
Algoritmy a struktury neuropočítačů ASN - P11
Aplikace UNS při rozpoznání obrazů Základní úloha segmentace obrazu rozdělení obrazu do několika významných oblastí klasifikační úloha, clusterová analýza target Metody Kohonenova metoda KSOM Kohonenova
Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:
Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová
Neparametrické odhady hustoty pravděpodobnosti
Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické
Základní spádové metody
Základní spádové metody Petr Tichý 23. října 2013 1 Metody typu line search Problém Idea metod min f(x), f : x R Rn R. n Dána počáteční aproximace x 0. Iterační proces (krok k): (a) zvol směr d k, (b)
Charakterizace rozdělení
Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf
Expectation-Maximization Algoritmus
Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁŘSKÁ PRÁCE Jaroslav Vichr Expectation-Maximization Algoritmus Katedra pravděpodobnosti a matematické statistiky Vedoucí bakalářské práce:
Teorie informace: řešené příklady 2014 Tomáš Kroupa
Teorie informace: řešené příklady 04 Tomáš Kroupa Kolik otázek je třeba v průměru položit, abychom se dozvěděli datum narození člověka (den v roce), pokud odpovědi jsou pouze ano/ne a tázaný odpovídá pravdivě?
Bayesovské metody. Mnohorozměrná analýza dat
Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A
Rekonstrukce diskrétního rozdělení psti metodou maximální entropie
Rekonstrukce diskrétního rozdělení psti metodou maximální entropie Příklad Lze nalézt četnosti nepozorovaných stavů tak, abychom si vymýšleli co nejméně? Nechť n i, i = 1, 2,..., N jsou známé (absolutní)
Vícerozměrná rozdělení
Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.
Přednáška 13 Redukce dimenzionality
Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /
Statistika II. Jiří Neubauer
Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Zaměříme se především na popis dvourozměrných náhodných veličin (vektorů). Definice Nechť X a Y jsou
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
Úvod do zpracování signálů
1 / 25 Úvod do zpracování signálů Karel Horák Rozvrh přednášky: 1. Spojitý a diskrétní signál. 2. Spektrum signálu. 3. Vzorkovací věta. 4. Konvoluce signálů. 5. Korelace signálů. 2 / 25 Úvod do zpracování
Definice 1.1. Nechť je M množina. Funkci ρ : M M R nazveme metrikou, jestliže má následující vlastnosti:
Přednáška 1. Definice 1.1. Nechť je množina. Funkci ρ : R nazveme metrikou, jestliže má následující vlastnosti: (1 pro každé x je ρ(x, x = 0; (2 pro každé x, y, x y, je ρ(x, y = ρ(y, x > 0; (3 pro každé
4. Na obrázku je rozdělovací funkce (hustota pravděpodobnosti) náhodné veličiny X. Jakou hodnotu musí mít parametr k?
A 1. Stanovte pravděpodobnost, že náhodná veličina X nabyde hodnoty menší než 6: P( X 6). Veličina X má rozdělení se střední hodnotou 6 a směrodatnou odchylkou 5: N(6,5). a) 0 b) 1/3 c) ½ 2. Je možné,
PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti
PROSTORY SE SKALÁRNÍM SOUČINEM Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx, y) = λ(x,
Detekce interakčních sil v proudu vozidel
Detekce interakčních sil v proudu vozidel (ANEB OBECNĚJŠÍ POHLED NA POJEM VZDÁLENOSTI V MATEMATICE) Doc. Mgr. Milan Krbálek, Ph.D. Katedra matematiky Fakulta jaderná a fyzikálně inženýrská České vysoké
Síla a významnost asociace mezi proměnnými v systému
Síla a významnost asociace mezi proměnnými v systému Program 1. Entropie jako míra neuspořádanosti. 2. Entropie jako míra informace. 3. Entropie na rozkladu množiny elementárních jevů. 4. Vlastnosti entropie.
Náhodné (statistické) chyby přímých měření
Náhodné (statistické) chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně
9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1
9 přednáška 6 listopadu 007 Věta 11 Nechť f C U, kde U R m je otevřená množina, a a U je bod Pokud fa 0, nemá f v a ani neostrý lokální extrém Pokud fa = 0 a H f a je pozitivně negativně definitní, potom
Odhady - Sdružené rozdělení pravděpodobnosti
Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy
Náhodný vektor a jeho charakteristiky
Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich
4. Učení bez učitele. Shlukování. K-means, EM. Hierarchické shlukování. Kompetitivní učení. Kohonenovy mapy.
GoBack 4. Učení bez učitele. Shlukování., EM. Hierarchické.. Kohonenovy mapy. Petr Pošík Katedra kybernetiky ČVUT FEL P. Pošík c 29 Aplikace umělé inteligence 1 / 53 Obsah P. Pošík c 29 Aplikace umělé
Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I
Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Příklad Tahová síla papíru používaného pro výrobu potravinových sáčků je důležitá charakteristika kvality. Je známo, že síla
Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.
Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Dnešní program Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu
Praktická statistika. Petr Ponížil Eva Kutálková
Praktická statistika Petr Ponížil Eva Kutálková Zápis výsledků měření Předpokládejme, že známe hodnotu napětí U = 238,9 V i její chybu 3,3 V. Hodnotu veličiny zapíšeme na tolik míst, aby až poslední bylo
Ústav matematiky a statistiky Masarykova univerzita Brno. workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí
Ústav matematiky a statistiky Masarykova univerzita Brno workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí 3. 6. září 2013 Obsah 1 2 3 4 y Motivace y 10 0 10 20 30 40 0 5
Instance based learning
Učení založené na instancích Instance based learning Charakteristika IBL (nejbližších sousedů) Tyto metody nepředpokládají určitý model nejsou strukturované a typicky nejsou příliš užitečné pro porozumění
Waldovy testy, vlastnosti a Operační charakteristika
Waldovy testy, vlastnosti a Operační charakteristika Adéla Zavřelová 11. března 2018 Adéla Zavřelová Waldovy testy 11. března 2018 1 / 21 Úvod Úloha H 0 : náhodná veličina X má rozdělení s hustotou f 0
LS 2013 Teorie skrytých Markovových modelů. Tino Haderlein, Elmar Nöth
Interakce člověk počítač v přirozeném jazyce (ICP) LS 2013 Teorie skrytých Markovových modelů Tino Haderlein, Elmar Nöth Katedra informatiky a výpočetní techniky (KIV) Západočeská univerzita v Plzni Lehrstuhl
MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci
MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým
Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D.
Ing. Michal Dorda, Ph.D. 1 Př. 1: Cestující na vybraném spoji linky MHD byli dotazováni za účelem zjištění spokojenosti s kvalitou MHD. Legenda 1 Velmi spokojen Spokojen 3 Nespokojen 4 Velmi nespokojen