Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno
|
|
- Emilie Doležalová
- před 5 lety
- Počet zobrazení:
Transkript
1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6
2 Plán... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 2/6
3 Statistical pattern recognition the art of taking in raw data and making an action based on the category of the pattern SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 3/6
4 input Technicky... sensing segmentation feedback... feature extraction classification missing features context post processing costs decision SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 4/6
5 Příklad SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 5/6
6 I. Snímání Co se dá o rozpoznávaných předmětech poznat? obraz, tlak, teplota, hmostnost, zvuk, pach? jak tyto veličiny prakticky získat, jde to vůbec a kolik to bude stát? jaké vlastnosti bude mít snímač a převod veličina číslo? DC offset šum linearita kalibrace stárnutí atd. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 6/6
7 II. Segmentace pokud jsou vzorky izolované, OK... jenže ony často nejsou: 4 x navíc problém kontextu, který segmentaci mění... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 7/6
8 Musíme udělat alespoň nějakou segmentaci a-priori: N l ram s ram p ram Segmentace je pak součástí klasifikačního procesu: při rozpoznávání odhad pravděpodobností všech tříd pro všechny rámce, Viterbiho dekódování. při trénování forced alignment opět Viterbi, který optimálně natahuje segmenty na data. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 8/6
9 III. Výpočet příznaků Příznaky musí být především použitelné pro klasifikaci - průměr jablka / granátu?... nic moc. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 9/6
10 Váha a podíl červené složky v obrázku?... to už je lepší. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6
11 Invariantnost příznaků translace (místo v obrázku, čas v řeči) rotace scale (velikost v obrázku, volume v řeči) occlusion (zakrytí objektu vs. maskování šumem) projective distorition (úhel pohledu, optika) rate (rychlost v řeči intra- a inter-speaker variabilita) deformace atd. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 11/6
12 IV. Klasifikace do klasifikátoru vstupují příznakové vektory: x = x 1. x P např. x = úkolem je rozhodnout se pro jednu ze tříd: diskriminativní linie (decision boundary). tvrdé rozhodnutí vs. poskytnutí skóre. weight %red SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 12/6
13 Tvar separační linie: lineární, nelineární SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 13/6
14 Problém neřešitelný pro lineární klasifikátor SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 14/6
15 Tvar separační linie: přetrénováno... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 15/6
16 Generalizace: složitá separační linie vede ke 1% rozpoznání trénovacích dat. ale může klasifikátor zcela zblbnout. testování na cross-validačních (CV) datech. Problémy klasifikátoru: Co když závisí feature na kontextu? (prohloubení dopravníku jablek/granátů, koartikulace v řeči). šum ve featurech opět generalizace. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 16/6
17 V. Post-processing: nastavení podle kontextu (např. změna kalibrace červené po nákupu červené lampy). určení detekčního prahu. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 17/6
18 Správná rozhodnutí: p(apple apple), Špatná rozhodnutí: p(apple grenade), p(grenade apple). p(grenade grenade). Pokud by šlo o detekční úlohu (často o ni jde!) a třída k detekci by byla granát, pak: p(apple grenade) MISS p(grenade apple) FALSE ALARM. Nastavení detekčního prahu podle ceny (cost) špatného rozhodnutí. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 18/6
19 nechceme, aby se dostal granát do marmelády čas pyrotechnika je drahý a má moc práce kvantifikace costu: c(m iss), c(f A) + a-priorní pravděposobnosti tříd. více, až s námi někdo budete dělat NIST evaluace. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 19/6
20 The design cycle: start collect data choose features choose model prior knowledge train model evaluate classifier end Co jiného? Výpočetní náročnost (memory/disk/cpu footprint) možnost adaptace (supervised/unsupervised/block/incremental)? SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 2/6
21 Bayesovská teorie rozhodování (klasifikace) notace: P ( ) bude opravdová pravděpodobnost, p( ) bude hodnota funkce rozložení pravděpodobonosti (probability density function - PDF) - likelihood (sorry, český ekvivalent věrohodnost není nic moc). stav věci (state of the nature): třída ω: ω 1 =granát, ω 2 =jablko. a-priori pravděpodobnost tříd: P (ω i ), pro slušné pravděpodobosti platí: c P (ω i ) = 1 i=1 pro nás například: P (ω 1 ) =.99, P (ω 2 ) =.1. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 21/6
22 Hodně blbý klasifikátor o klasifikované věci nevíme nic. klasifikační pravidlo (decision rule): rozhodni ω 1 pokudp (ω 1 ) > P (ω 2 ), jinak ω 2... hm hm, hodně blbé, hlavně u sekvence, kde už jsme 99 rozhodli jablko. Naštěstí většinou něco víme: třídně podmíněná funkce hustoty rozdělení pravděpodobnosti Class-conditional probability density function p(x ω i ). SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 22/6
23 Jak na class-conditional probability density function? Nejprve představa s diskrétními hodnotami: chci zjistit, jak je pravděpodobné, že je to granát, když je to těžké: lehký těžký jablko 8 19 granát 1 9 společná (joint) pravděpodobnost: P (granát, těžký) = 9/1 =.9 podmíněná (conditional) pravděpodobnost: P (granát těžký) = P (granát, těžký) P (granát) =.9.1 =.9 (9%) SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 23/6
24 Spojité hodnoty - nutno definovat podmíněné funkce hustoty rozdělení pravděpodobnosti. 3.5 x p(x ω 1 ) p(x ω 2 ) weight Rozhodování pouze na základě těchto funkcí? Dost nebezpečné, protože neberou v úvahu priors. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 24/6
25 Společná funkce hustoty rozložení pravděpodobnosti (joint probability density function) se dá zapsat dvěma způsoby: p(ω j, x) = P (ω j x)p(x) = p(x ω j )P (ω j ) (všimněte si, co jsou pravděpodobnosti a co PDF s!). Pak: P (ω j x) = p(x ω j)p (ω j ) p(x) P (ω j x) je to, co chceme! - pravděpodobnost ω j, když vidíme x - posterior p(x ω j ) je podmíněná funkce hustoty rozdělení pravděpodobnosti - viz obrázek - likelihood. P (ω j ) je apriorní pravděpodobnost třídy ω j - prior. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 25/6
26 p(x) je suma čitatelů pro všechny třídy tak, aby P (ω j x) byla slušná pravděpodobnost: c P (ω j x) = 1 nepodíĺı se na rozhodování, ale pouze normalizační faktor - evidence. j=1 p(x) = posterior = c p(x ω j )P (ω j ) j=1 likelihood prior evidence SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 26/6
27 Posteriory pro různé priors: 1) P (ω 1 ) = P (ω 2 ) =.5 2) P (ω 1 ) =.99, P (ω 2 ) =.1, 1.9 P(ω 1 x) P(ω 2 x) weight.1 P(ω 1 x) P(ω 2 x) weight SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 27/6
28 3) P (ω 1 ) = 1/3, P (ω 2 ) = 2/3, 4) tentýž případ bez normalizace x 1 3 p(x ω 1 )P(ω 1 ) p(x ω 2 )P(ω 2 ) P(ω 1 x) P(ω 2 x) weight weight SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 28/6
29 Rozhodování Minimializace pravděpodobnosti chyby: P (ω 1 x) pokud rozhodneme ω 2 P (chyba x) = P (ω 2 x) pokud rozhodneme ω 1 P (error) = P (error, x)dx = P (error x)p(x)dx Pokud bude všude P (error x) co nejmenší, pak i integrál bude co nejmenší. Jak na to? Pak bude což je určitě ta nejmenší možná chyba. rozhodni ω 1 pokud P (ω 1 x) > P (ω 2 x), jinak ω 2 P (error x) = min[p (ω 1 x), P (ω 2 x)], Evidence není důležitá (je pro všechny třídy stejná), klidně můžeme: rozhodni ω 1 pokud p(x ω 1 )P (ω 1 ) > p(x ω 2 )P (ω 2 ), jinak ω 2 Pozor, úplně jsme zapomněli na cost!!! SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 29/6
30 Co ještě chybí I. - Vektory Vektory příznaků namísto skalárů - jednoduché, všude napíšeme x namísto x: Úkol 1: Co je jaká funkce? P (ω j x) = p(x ω j)p (ω j ) p(x) Úkol 2: Představte si normalizační funkci evidence: c p(x) = p(x ω j )P (ω j ) j=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 3/6
31 Co ještě chybí II. - Akce a jejich costy Namísto rozhodnutí můžeme definovat nějaké akce: α 1 - do marmelády, α 2 - k pyrotechnikovi. Definujeme jejich loss (průserovost) v závislosti na třídách: λ(α i ω j ) akce / třída jablko granát do marmelády 2 (dělníci musí dělat) 5 (vybuchlá marmeládovna) k pyrotechnikovi 1 (totálně nasraný pyrotechnik) 1 (nasraný pyrotechnik) Definice podmíněného nebezpečí (conditional risk) v závislosti na datech: R(α i x) = c λ(α i ω j )P (ω j x) j=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 31/6
32 R(α 1 x) R(α 2 x) P(ω 1 x) P(ω 2 x) weight weight Pro každé x vybereme takovou akci α i, která má nejmenší risk. Celkový risk je pak: R = R(α(x) x)p(x)dx Pokud uděláme výběr min R(α i x), dosáhneme minimální celkový Bayessovský risk R (minimum overall Bayes risk). SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 32/6
33 Jak budeme třídy modelovat? Gaussovkama! Gaussovo (normální) rozdělení pravděpodobnosti. Jednorozměrné - univariate [ p(x) = 1 σ 2π exp 1 ( ) ] 2 x µ 2 σ = N (x; µ, σ 2 ) Parametry: µ = E[x] = σ 2 = E[(x µ) 2 ] = xp(x)dx (x µ) 2 p(x)dx SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 33/6
34 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 34/6
35 Příkládky µ=, σ=1 µ=, σ=5 µ=, σ=.2 µ=5, σ=1 µ=5, σ=5 µ=5, σ= p(x) x SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 35/6
36 Jsou hodnoty Gaussovky od do 1? NE!!! SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 36/6
37 Vícerozměrné - multivariate 1 p(x) = (2π) d 2 Σ 1 2 exp [ 1 ] 2 (x µ)t Σ 1 (x µ) = N (x; µ, Σ) vektorová střední hodnota - mean: µ = E[x] = xp(x)dx Kovarianční matice: Σ = E[(x µ)(x µ) T ] = (x µ)(x µ) T p(x)dx Pro představu - jejich prvky: µ i = E[x i ] σ ij = E[(x i µ i )(x j µ j )] SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 37/6
38 Příkládky x x 1 x x x x 1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 38/6
39 Diaognální kovarianční matice - pouze srovnané Gaussovky p(x) = P N (x i ; µ i, σ i ) = i=1 P i=1 1 e [x i µ i ] 2 2σ i 2 σ i 2π x x x x x x SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 39/6
40 Diskriminační funkce mezi Gaussovkami p(x) nepřispívá ke klasifikacei P (ω j x) = p(x ω j)p (ω j ) p(x) pracujeme v logaritmu - je jedno s jakým základem, voĺıme přirozený ln diskriminační funkce jsou dány: g j (x) = ln p(x ω j ) + ln P (ω j ) srovnáním pro dvě třídy dostaneme diskriminační linii. Pro Gaussovky se dá počítat analyticky. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 4/6
41 Case 1: Σ i = σ 2 I SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 41/6
42 Case 1a: Σ i = σ 2 I včetně biasu P (ω j ) SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 42/6
43 Case 2: Σ i = Σ... doplnit... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 43/6
44 Case 2: Σ i = cokoliv SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 44/6
45 Maximum-LIkelihood odhad OK, víme, jak udělat klasifikátor, ale kde získat jeho parametry? předpokládáme, že máme datové sety D 1,..., D C k jednotlivým třídám. D j representují p(x ω j ) i.i.d. independent, identically distributed. třídy jsou dány svými parametry Θ j (např. µ j, Σ j nebo směs Gaussovek). my máme z D j určit parametry Θ j (předpokládáme, že vektory z jiných tříd nejsou pro ω j relevenantní. v dalším výkladu jen D, Θ. Likelihood dat p(d Θ) = n k=1 p(x k Θ) používáme, protože jsme řekli, že vektory x k budou nezávislé. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 45/6
46 Hledáme takové ˆΘ, které p(d Θ) maximalizuje Ilustrace: SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 46/6
47 Pár definic gradientní operátor: Θ = δ δθ 1 δ δθ P log-liikelihood funkce (na základu nezáleží): l(θ) = ln p(d Θ) = n ln p(x k Θ) k=1 hledáme ˆΘ = arg max Θ l(θ) A jako vždy, když se hledá maximum, položíme derivaci rovnou nule: Θ l = n Θ ln p(x k Θ) =. k=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 47/6
48 Danger 1: Pozor, neměli bychom chtít Maximum A-Posteriori (MAP) odhad ˆΘ = arg max Θ kde p(θ) je a-priori pravděpodobnost parametrů? l(θ)p(θ), ML je vlastně MAP pro konstantní (ploché) rozložení p(θ). Danger 2: Maximalizujeme sice likelihood, ale nikdo neví, zda to bude dobře diskriminovat! SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 48/6
49 ML-odhad parametrů Gaussovky - pouze µ p(x) = 1 (2π) d 2 Σ 1 2 exp [ 1 ] 2 (x µ)t Σ 1 (x µ) ln p(x µ) = 1 2 ln(2π)p 1 2 (x µ)t Σ 1 (x µ) Derivace - pomůcka pro symetrické matice: δ δx [xt Mx] = 2Mx. µ ln p(x µ) = 1 2 2Σ 1 (x k µ)( 1) = Σ 1 (x k µ) toto se položí rovno nule, v sumě pak: n Σ 1 (x k µ) = k=1 n (x k µ) = k=1 n ˆµ = 1 N k=1 x k SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 49/6
50 ML-odhad parametrů Gaussovky - pouze 1D, µ i σ 2 Minimalizace pro všechna data: [ p(x) = 1 σ 2π exp 1 2 ( ) ] 2 x µ ln p(x k Θ) = 1 1 ln 2πD 2 2D (x k µ) 2 Θ l = Θ ln p(x k Θ) = 1 D (x k µ) 1 2D + (x k µ) 2 2D 2 σ n 1D(x k µ) = k=1 n k=1 1 n 2D + k=1 (x k µ) 2 2D 2 = SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 5/6
51 Řešení:... tak toto už jsme někde viděli. ˆµ = 1 N ˆD = 1 N n k=1 x k n (x k µ) 2 k=1 Multi-variate - více matematiky, ale výsledky nebudou překvapující: n ˆµ = 1 N k=1 x k ˆΣ = 1 N n (x k ˆµ)(x k ˆµ) T k=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 51/6
52 Ukázka ML 1 bodů z každé třídy. těžce nediagonální lehce se překrývající x x 1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 52/6
53 Diagonální Gaussovky 8 7 x x x x dost humus. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 53/6
54 Gaussovky s plnými Σ x x 1 5 x x lepší. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 54/6
55 Přesnější klasifikace - Gaussian Mixtures p(x ω j ) = N (x; µ j, Σ j ) p(x ω j ) = kde α ji jsou váhy jednotlivých Gaussovek a M i=1 α ji = 1. M α ji N (x; µ ji, Σ ji ), i=1 Pro všechna data je celková log-likelihood: ln p(d Θ) = n ln k=1 M α ji N (x k ; µ ji, Σ ji ) i=1 s maximalizací máme vážný problém (moc parametrů, suma v logaritmu). musíme na to jít iterativně - Expectation-maximization - EM. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 55/6
56 Základy algoritmu Expectation-maximization Známá data jsou X, ale také existuje něco, co neznáme: Y. Kompletní data: Z = (X, Y). likelihoods jsou (v závislosti na parametrech): p(z Θ) = p(x, y Θ) = p(y x, Θ)p(x Θ) p(x, Y Θ) je celková likelihood kompletních dat, p(x Θ) je celková likelihood nekompletních dat. Musíme mít k disposici alespoň nějaké parametry Θ (i 1), snažíme se o maximalizaci kritéria: X a Θ (i 1) jsou konstanty. Θ se snažíme najít. Q(Θ, Θ (i 1) ) = E[ln p(x, Y Θ) X, Θ (i 1) ] Y je náhodná proměnná daná rozložením hustoty pravděpodobnosti f(y X, Θ (i 1) ). SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 56/6
57 Snažíme se získat E integrováním přes všechny možné hodnoty y: Y: E[ln p(x, Y Θ) X, Θ (i 1) ] = ln p(x, y Θ)f(y X, Θ (i 1) )dy y Y toto je E-step nalezení výrazu pro expectation likelihoodu. M-step je nalezení maxima (derivace podle parametrů Θ, položení rovno nule): Iterace, nové parametry se stanou starými. Stopping criterion: malý nebo žádný přírůstek likelihood. nebo fixní počet kroků. Θ (i) = arg max Θ Q(Θ, Θ(i 1) ). SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 57/6
58 Expectation-maximization a Gaussian mixtures budeme ukazovat pouze pro jednu třídu (vše bude bez indexu j). vyslání datového vektoru x k některou z M Gaussovek je považováno za skrytou informaci: y k. likelihood této informace (pokud známe předchozí parametry a vektor x k ) se dá spočítat: p(y k x k, Θ (i 1) ) = α(i 1) y k N (x k ; µ y (i 1) k, Σ y (i 1) k ) p(x k Θ (i 1) ) p(x k Θ) je ovšem likelihood vyslání vektoru celou směsicí Gaussovek, kterou už jsme viděli: M α i N (x; µ i, Σ i ), i=1 SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 58/6
59 takže: p(y k x k, Θ (i 1) ) = α(i 1) y k M i=1 α(i 1) i N (x k ; µ y (i 1) k, Σ y (i 1) k ) N (x; µ (i 1) i, Σ (i 1) i ) neboli kolik páĺı daná Gaussovka je normalizováno součtem všech Gaussovek.... pak následuje brutální matematika: odvození Q(Θ, Θ (i 1) ). derivace podle α, µ, Σ. SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 59/6
60 Výsledky s parametry Θ (i 1) se pro každou Gaussovku spočítá occupation count : γ l (k) = α(i 1) l M i=1 α(i 1) i N (x k ; µ (i 1) l, Σ (i 1) N (x; µ (i 1) i l ), Σ (i 1) i ) a nové parametry jsou dány (omlouvám se za nepřítomnost stříšek ˆ)... α (i) l = 1 n n γ l (k) k=1 µ (i) l = n k=1 γ l(k)x k n k=1 γ l(k) Σ (i) l = n k=1 γ l(k)(x k µ (i) l )(x k µ (i) l n k=1 γ l(k) ) T Definice akumulátorů a příklad EM na datech... SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 6/6
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka
VíceSRE 03 - Statistické rozpoznávání
SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29 Opakování
VíceKlasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky
VíceSRE 03 - Skryté Markovovy modely HMM
SRE 03 - Skryté Markovovy modely HMM Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 1/35 Plán... SRE 03 - Skryté
Víceoddělení Inteligentní Datové Analýzy (IDA)
Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {
VíceImplementace Bayesova kasifikátoru
Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6
VíceKlasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
VíceKlasifikace a rozpoznávání. Extrakce příznaků
Klasifikace a rozpoznávání Extrakce příznaků Extrakce příznaků - parametrizace Poté co jsme ze snímače obdržely data která jsou relevantní pro naši klasifikační úlohu, je potřeba je přizpůsobit potřebám
VíceOdhady Parametrů Lineární Regrese
Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké
VíceAVDAT Mnohorozměrné metody, metody klasifikace
AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných
VíceAVDAT Náhodný vektor, mnohorozměrné rozdělení
AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární
VíceKybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
VíceStatistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I
Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Příklad Tahová síla papíru používaného pro výrobu potravinových sáčků je důležitá charakteristika kvality. Je známo, že síla
VíceObr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.
Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.
VíceEM algoritmus. Proč zahrnovat do modelu neznámé veličiny
EM algoritmus používá se pro odhad nepozorovaných veličin. Jde o iterativní algoritmus opakující dva kroky: Estimate, který odhadne hodnoty nepozorovaných dat, a Maximize, který maximalizuje věrohodnost
VíceBayesovské metody. Mnohorozměrná analýza dat
Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A
VíceUmělá inteligence II
Umělá inteligence II 11 http://ktiml.mff.cuni.cz/~bartak Roman Barták, KTIML roman.bartak@mff.cuni.cz Dnešní program! V reálném prostředí převládá neurčitost.! Neurčitost umíme zpracovávat pravděpodobnostními
VíceAVDAT Klasický lineární model, metoda nejmenších
AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i
VíceOdhady - Sdružené rozdělení pravděpodobnosti
Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy
VíceVícerozměrná rozdělení
Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.
VícePravděpodobnost, náhoda, kostky
Pravděpodobnost, náhoda, kostky Radek Pelánek IV122 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností připomenutí, souvislosti
Více3 Bodové odhady a jejich vlastnosti
3 Bodové odhady a jejich vlastnosti 3.1 Statistika (Skripta str. 77) Výběr pořizujeme proto, abychom se (více) dověděli o souboru, ze kterého jsme výběr pořídili. Zde se soustředíme na situaci, kdy známe
Vícen = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)
5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =
VíceUČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
VíceNáhodné signály. Honza Černocký, ÚPGM
Náhodné signály Honza Černocký, ÚPGM Signály ve škole a v reálném světě Deterministické Rovnice Obrázek Algoritmus Kus kódu } Můžeme vypočítat Málo informace! Náhodné Nevíme přesně Pokaždé jiné Především
Více10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.
0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti
VíceMinikurz aplikované statistiky. Minikurz aplikované statistiky p.1
Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.
VíceKlasifikace a rozpoznávání
Klasifikace a rozpoznávání Prezentace přednášek M. Španěl, 2009 Ústav počítačové grafiky a multimédií Téma přednášky Unsupervised techniky Obsah: Literatura Úvod do shlukování Metriky, základní přístupy,
VíceDobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
VíceNáhodné vektory a matice
Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane
VíceStavový model a Kalmanův filtr
Stavový model a Kalmanův filtr 2 prosince 23 Stav je veličina, kterou neznáme, ale chtěli bychom znát Dozvídáme se o ní zprostředkovaně prostřednictvím výstupů Příkladem může býapř nějaký zašuměný signál,
VíceKYBERNETIKA A UMĚLÁ INTELIGENCE. 2. Pravděpodobnostní rozhodování a klasifikace
KYBERNETIKA A UMĚLÁ INTELIGENCE 2. Pravděpodobnostní rozhodování a klasifikace laboratory Gerstner Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze Daniel Novák Poděkování:
VíceOdhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
VíceÚvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
VíceJiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou
VíceANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
VíceApriorní rozdělení. Jan Kracík.
Apriorní rozdělení Jan Kracík jan.kracik@vsb.cz Apriorní rozdělení Apriorní rozdělení (spolu s modelem) reprezentuje informaci o neznámém parametru θ, která je dostupná předem, tj. bez informace z dat.
VíceInterpolace, ortogonální polynomy, Gaussova kvadratura
Interpolace, ortogonální polynomy, Gaussova kvadratura Petr Tichý 20. listopadu 2013 1 Úloha Lagrangeovy interpolace Dán omezený uzavřený interval [a, b] a v něm n + 1 různých bodů x 0, x 1,..., x n. Nechť
Více1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.
VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:
VíceDobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.
VícePravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík
Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné
VíceVytěžování znalostí z dat
Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 7 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology
VíceZáklady teorie odhadu parametrů bodový odhad
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Odhady parametrů Úkolem výběrového šetření je podat informaci o neznámé hodnotě charakteristiky základního souboru
Více1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.
Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou
VíceMarkov Chain Monte Carlo. Jan Kracík.
Markov Chain Monte Carlo Jan Kracík jan.kracik@vsb.cz Princip Monte Carlo integrace Cílem je (přibližný) výpočet integrálu I(g) = E f [g(x)] = g(x)f (x)dx. (1) Umíme-li generovat nezávislé vzorky x (1),
VíceFakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:
Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová
VíceMATEMATICKÁ STATISTIKA - XP01MST
MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného
VíceÚloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
VíceLineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
VícePříklady ke čtvrtému testu - Pravděpodobnost
Příklady ke čtvrtému testu - Pravděpodobnost 6. dubna 0 Instrukce: Projděte si všechny příklady. Každý příklad se snažte pochopit. Pak vymyslete a vyřešte příklad podobný. Tím se ujistíte, že příkladu
VíceAplikace 2: Hledání informativních příznaků pro rozpoznávání
Aplikace : Hledání informativních příznaků pro rozpoznávání Sonogram štítné žlázy v podélném řezu zdravá lymfocitická thyroitida Zajímá nás, kolik se lze z dat dozvědět o třídě c a kde ta informace je.
VícePRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady
PRAVDĚPODOBNOST A STATISTIKA Bayesovské odhady Bayesovské odhady - úvod Klasický bayesovský přístup: Klasický přístup je založen na opakování pokusech sledujeme rekvenci nastoupení zvolených jevů Bayesovský
Více6. ZÁKLADY STATIST. ODHADOVÁNÍ. Θ parametrický prostor. Dva základní způsoby odhadu neznámého vektoru parametrů bodový a intervalový.
6. ZÁKLADY STATIST. ODHADOVÁNÍ X={X 1, X 2,..., X n } výběr z rozdělení s F (x, θ), θ={θ 1,..., θ r } - vektor reálných neznámých param. θ Θ R k. Θ parametrický prostor. Dva základní způsoby odhadu neznámého
VíceOdhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
VícePravděpodobnost, náhoda, kostky
Pravděpodobnost, náhoda, kostky Radek Pelánek IV122, jaro 2015 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností krátké
VíceCharakterizace rozdělení
Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf
VíceKVADRATICKÁ KALIBRACE
Petra Širůčková, prof. RNDr. Gejza Wimmer, DrSc. Finanční matematika v praxi III. a Matematické modely a aplikace 4. 9. 2013 Osnova Kalibrace 1 Kalibrace Pojem kalibrace Cíle kalibrace Předpoklady 2 3
VícePřednáška 13 Redukce dimenzionality
Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /
VíceDefinice spojité náhodné veličiny zjednodušená verze
Definice spojité náhodné veličiny zjednodušená verze Náhodná veličina X se nazývá spojitá, jestliže existuje nezáporná funkce f : R R taková, že pro každé a, b R { }, a < b, platí P(a < X < b) = b a f
VíceOdhad - Problémy se sdruženým rozdělením pravděpodobnosti
Odhad - Problémy se sdruženým rozdělením pravděpodobnosti 20. listopadu 203 V minulém materiálu jsme si ukázali, jak získat sdružené rozdělení pravděpodobnosti. Bylo to celkem jednoduché: Věrohodnostní
VíceSTATISTICKÉ ODHADY PARAMETRŮ
STATISTICKÉ ODHADY PARAMETRŮ Jan Pech 21. září 2001 1 Motivace Obrazové snímače pracující ve vzdáleném infračerveném spektru jsou poměrně novou záležitostí. Ty nejkvalitnější snímače chlazené kapalným
Více4. Aplikace matematiky v ekonomii
4. Aplikace matematiky v ekonomii 1 Lineární algebra Soustavy 1) Na základě statistických údajů se zjistilo, že závislost množství statku z poptávaného v průběhu jednoho týdne lze popsat vztahem q d =
VícePojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.
6. NÁHODNÝ VEKTOR Průvodce studiem V počtu pravděpodobnosti i v matematické statistice se setkáváme nejen s náhodnými veličinami, jejichž hodnotami jsou reálná čísla, ale i s takovými, jejichž hodnotami
VíceNÁHODNÁ VELIČINA. 3. cvičení
NÁHODNÁ VELIČINA 3. cvičení Náhodná veličina Náhodná veličina funkce, která každému výsledku náhodného pokusu přiřadí reálné číslo. Je to matematický model popisující více či méně dobře realitu, který
VícePRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOS A SAISIKA Regresní analýza - motivace Základní úlohou regresní analýzy je nalezení vhodného modelu studované závislosti. Je nutné věnovat velkou pozornost tomu aby byla modelována REÁLNÁ
VícePRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr
VíceTino Haderlein, Elmar Nöth
Interakce člověk počítač v přirozeném jazyce (ICP) LS 213 Klasifikace Tino Haderlein, Elmar Nöth Katedra informatiky a výpočetní techniky (KIV) Západočeská univerzita v Plzni Lehrstuhl für Mustererkennung
VíceStatistika, Biostatistika pro kombinované studium. Jan Kracík
Statistika, Biostatistika pro kombinované studium Letní semestr 2014/2015 Tutoriál č. 6: ANOVA Jan Kracík jan.kracik@vsb.cz Obsah: Testování hypotéz opakování ANOVA Testování hypotéz (opakování) Testování
Více9. T r a n s f o r m a c e n á h o d n é v e l i č i n y
9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).
VíceStatistická analýza dat
Statistická analýza dat Jméno: Podpis: Cvičení Zkouška (písemná + ústní) 25 Celkem 50 Známka Pokyny k vypracování: doba řešení je 120min, jasně zodpovězte pokud možno všechny otázky ze zadání, pracujte
VíceNeparametrické odhady hustoty pravděpodobnosti
Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické
VíceTéma 22. Ondřej Nývlt
Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené
VíceVektor náhodných veli in - práce s více prom nnými
Vektor náhodných veli in - práce s více prom nnými 12. kv tna 2015 N kdy k popisu n jaké situace pot ebujeme více neº jednu náhodnou veli inu. Nap. v k, hmotnost, vý²ku. Mezi t mito veli inami mohou být
Vícejevu, čas vyjmutí ze sledování byl T j, T j < X j a T j je náhodná veličina.
Parametrické metody odhadů z neúplných výběrů 2 1 Metoda maximální věrohodnosti pro cenzorované výběry 11 Náhodné cenzorování Při sledování složitých reálných systémů často nemáme možnost uspořádat experiment
VíceNáhodné chyby přímých měření
Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.
VíceLINEÁRNÍ MODELY. Zdeňka Veselá
LINEÁRNÍ MODELY Zdeňka Veselá vesela.zdenka@vuzv.cz Genetika kvantitativních vlastností Jednotlivé geny nejsou zjistitelné ani měřitelné Efekty většího počtu genů poskytují variabilitu, kterou lze většinou
VíceDefinice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně
7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností
VíceNumerické metody optimalizace - úvod
Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu
VíceNestranný odhad Statistické vyhodnocování exp. dat M. Čada
Nestranný odhad 1 Parametr θ Máme statistický (výběrový) soubor, který je realizací náhodného výběru 1, 2, 3,, n z pravděpodobnostní distribuce, která je kompletně stanovena jedním nebo více parametry
VíceOtázku, kterými body prochází větev implicitní funkce řeší následující věta.
1 Implicitní funkce Implicitní funkce nejsou funkce ve smyslu definice, že funkce bodu z definičního oboru D přiřadí právě jednu hodnotu z oboru hodnot H. Přesnější termín je funkce zadaná implicitně.
VíceZpracování digitalizovaného obrazu (ZDO) - Popisy III
Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování
VíceAktivní detekce chyb
Fakulta aplikovaných věd, Katedra kybernetiky a Výzkumné centrum Data - Algoritmy - Rozhodování Západočeská univerzita v Plzni Prezentace v rámci odborného semináře Katedry kybernetiky Obsah Motivační
VíceRobustní odhady statistických parametrů
Robustní odhady statistických parametrů ěkdy pracují dobře, jinde ne. Typická data - pozorování BL Lac 100 mag 40 0 0.41 0.40 JD date 0.39 0.38 0.38223-1.586 0.017 0.40550-1.530 0.019 0.39453-1.610 0.024
VíceAlgoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
Více5. B o d o v é o d h a d y p a r a m e t r ů
5. B o d o v é o d h a d y p a r a m e t r ů Na základě hodnot náhodného výběru z rozdělení určitého typu odhadujeme parametry tohoto rozdělení, tak aby co nejlépe odpovídaly hodnotám výběru. Formulujme
VíceBayesovské rozhodování - kritétium minimální střední ztráty
Bayesovské rozhodování - kritétium imální střední ztráty Lukáš Slánský, Ivana Čapková 6. června 2001 1 Formulace úlohy JE DÁNO: X množina možných pozorování (příznaků) x K množina hodnot skrytého parametru
Více, 1. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv
42206, skupina (6:5-7:45) Jméno: Zápočtový test z PSI Nezapomeňte podepsat VŠECHNY papíry, které odevzdáváte Škrtejte zřetelně a stejně zřetelně pište i věci, které platí Co je škrtnuto, nebude bráno v
VícePreceptron přednáška ze dne
Preceptron 2 Pavel Křížek Přemysl Šůcha 6. přednáška ze dne 3.4.2001 Obsah 1 Lineární diskriminační funkce 2 1.1 Zobecněná lineární diskriminační funkce............ 2 1.2 Učení klasifikátoru........................
Více8 Coxův model proporcionálních rizik I
8 Coxův model proporcionálních rizik I Předpokládané výstupy z výuky: 1. Student umí formulovat Coxův model proporcionálních rizik 2. Student rozumí významu regresních koeficientů modelu 3. Student zná
VíceOdhad stavu matematického modelu křižovatek
Odhad stavu matematického modelu křižovatek Miroslav Šimandl, Miroslav Flídr a Jindřich Duník Katedra kybernetiky & Výzkumné centrum Data-Algoritmy-Rozhodování Fakulta aplikovaných věd Západočeská univerzita
VíceStrukturální regresní modely. určitý nadhled nad rozličnými typy modelů
Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci
VíceKapitola 1. Logistická regrese. 1.1 Model
Kapitola Logistická regrese Předpokládám, že už jsme zavedli základní pojmy jako rysy a že už máme nějaké značení Velkost trenovacich dat a pocet parametru Motivační povídání... jeden z nejpoužívanějších
VíceZáklady teorie pravděpodobnosti
Základy teorie pravděpodobnosti Náhodná veličina Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 12. února 2012 Statistika by Birom Základy teorie
VíceTENSOR NAPĚTÍ A DEFORMACE. Obrázek 1: Volba souřadnicového systému
TENSOR NAPĚTÍ A DEFORMACE Obrázek 1: Volba souřadnicového systému Pole posunutí, deformace, napětí v materiálovém bodě {u} = { u v w } T (1) Obecně 9 složek pole napětí lze uspořádat do matice [3x3] -
VíceI. D i s k r é t n í r o z d ě l e n í
6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme
VíceÚvod do teorie odhadu. Ing. Michael Rost, Ph.D.
Úvod do teorie odhadu Ing. Michael Rost, Ph.D. Náhodný výběr Náhodným výběrem ze základního souboru populace, která je popsána prostřednictvím hustoty pravděpodobnosti f(x, θ), budeme nazývat posloupnost
VíceMatematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace
Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Jan Slovák Masarykova univerzita Fakulta informatiky 28. 11 2. 12. 2016 Obsah přednášky 1 Literatura 2 Střední
VíceJednofaktorová analýza rozptylu
I I.I Jednofaktorová analýza rozptylu Úvod Jednofaktorová analýza rozptylu (ANOVA) se využívá při porovnání několika středních hodnot. Často se využívá ve vědeckých a lékařských experimentech, při kterých
VícePravděpodobnost a statistika (BI-PST) Cvičení č. 9
Pravděpodobnost a statistika (BI-PST) Cvičení č. 9 R. Blažek, M. Jiřina, J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení
Vícep(x) = P (X = x), x R,
6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme
Více