SRE 03 - Statistické rozpoznávání

Rozměr: px
Začít zobrazení ze stránky:

Download "SRE 03 - Statistické rozpoznávání"

Transkript

1 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29

2 Opakování - Klasifikace Pomineme-li cost, problem klasifikace se dvěmi třídami se dá formulovat jako: rozhodni ω 1 pokud p(x ω 1 )P (ω 1 ) > p(x ω 2 )P (ω 2 ), jinak ω p(x ω 1 )P(ω 1 ) x p(x ω 2 )P(ω 2 ) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 2/29

3 Opakování - Model pro likelihood Likelihood urciteho vektoru x ziskame vyhodnocenim modelu rozlozeni hustoty pravdepodobnosti dane tridy. Trida modelovana gaussovskym rozlozenim: p(x ω j ) = N (x; µ j, Σ j ) Trida modelovana smesi gaussovskych rozlozeni: p(x ω j ) = M α ji N (x; µ ji, Σ ji ) i=1 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 3/29

4 Opakování - Smes gaussovskych rozlozeni Dve tridy, kazda modelovana 3-mi gaussovkami 2D data SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 4/29

5 Opakování - Celkova likelihood mnoziny dat pro jednu tridu Predpokladame, ze jednotlive clasifikovane udalosti - vektory - jsou na sobe statisticky nezavisle p(x 1, x 2, x 3,... ) = p(x 1 )p(x 2 )p(x 3 )... p(x ω) = ln p(x ω) = N p(x k ω) k=1 N ln p(x k ω) k=1 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 5/29

6 Opakování - Maximum likelihood odhad parametru Hledame takove parametry modelu Θ (napr. {µ, Σ, α}), ktere maximalizuji celkovou likelihood trenovacich dat: F ML (Θ) = J N j j=1 k=1 ln p Θ (x j k ω j) J je pocet trid a x j k jsou trenovaci vektory pro j-tou tridu, kterych je N j. Reseni pro modelovani kazde tridy jednou gaussovkou: Prosty odhad strednich hodnot a kovariancnich matic z dat pro danou tridu. Reseni pro GMM: Pomoci EM iterativniho algoritmu: ˆµ m = N k=1 γ m(k)x k N k=1 γ m(k) γ m (k) je pravdepodobnost okupovani m-te gaussovky vektorem x k vypoctena na zaklade soucasnych parametru modelu µ m, Σ, α SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 6/29

7 Opakování - Priklad vypoctu γ m (k) 0.45 p(x ω 1 ) = α 1 N(x, µ 1, σ 2 1 ) + α 2 N(x, µ 2, σ2 2 ) α 1 N(x, µ 1, σ 2 1 ) α 2 N(x, µ 2, σ 2 2 ) 0.3 x p(x ω 2 ) = α 3 N(x, µ 3, σ 2 3 ) γ 1 (1) = α 1N (x,µ 1,σ 2 1 ) p(x 1 ω 1 ) 3 5 x 1 je trenovacim vektorem tridy ω 1, γ 2 (1) = α 2N (x,µ 2,σ 2 2 ) p(x 1 ω 1 ) 2 5 γ 3 (1) = 0 zatimco 3-ti gaussovka patri ke tride ω 2 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 7/29

8 Priklad - ML odhad GMM parametru SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 8/29

9 Vyhody a nevyhody ML odhadu parametru Vyhody: Jednoduchy a rychly zpusob odhadu parametru Minimalni mozna chybe klasifikace za predpokladu: nekonecneho mnozstvi trenovacich dat zvoleni modelu, ktery umoznuje verne modelovat skutecne rozlozeni pravdepodobnosti pro jednotlive tridy (napr. GMM s velkym mnozstvym gaussovek; GMM predpoklada statistickou nezavyslost vektoru. Odpovida to skutecnosti?) Nevyhody: Pro spravnou funkci klasifikatoru je potreba pouze spravne urcit rozhodovaci hranice, ale ML se snazi co nejverneji modelovat rozlozeni trid ve vsech detailech plytvani parametu modelu SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 9/29

10 Diskriminativni trenovani - Maximum Mutual Information Estimation I F ML (Θ) = F MMI (Θ) = = J N j j=1 k=1 J N j j=1 k=1 J N j j=1 k=1 ln p Θ (x j k ω j) ln P Θ (ω j x j k ) ln p Θ (x j k ω j)p (ω j ) J l=1 p Θ(x j k ω l)p (ω l ) MMI objektivni funkce, kterou se snazime maximalizovat je: pravdepodobnost, ze vsechny trenovaci vektory budou rozpoznany spravne. MMI objektivni funkce je tim vetsi, cim vice kazdy vektor vyhovuje rozlozeni sve tridy (stejne jako ML), ale take cim mene vyhovuje rozlozeni konkurencnich trid. SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 10/29

11 Diskriminativni trenovani - Maximum Mutual Information Estimation II Reseni pro GMM: pomoci Generalized EM algoritmu: ˆµ m = N k=1 (γnum m N k=1 (γnum m (k) γm den (k))x k + D m µ m (k) γm den (k)) + D m γm num (k) a γm den (k) jsou pravdepodobnost okupovani m-te gaussovky vektorem x k vypoctena na zaklade soucasnych parametru modelu µ m, Σ, α γm num (k) - trenovaci vektory mohou okupovat pouze gaussovky sve tridy (jako u ML) γm den (k) - trenovaci vektory mohou okupovat i gaussovky konkurencnich trid D m - vyhlazovaci konstanta (napr. D m = 2 γm den (k)) nutna pro stabilitu metody SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 11/29

12 Priklad vypoctu γm num (k) a γm den (k) 0.5 p(x ω 1 ) + p(x ω 1 ) p(x ω 1 ) = α 1 N(x, µ 1, σ 2 1 ) + α 2 N(x, µ 2, σ2 2 ) 0.4 α 1 N(x, µ 1, σ 2 1 ) α 2 N(x, µ 2, σ 2 2 ) x p(x ω 2 ) = α 3 N(x, µ 3, σ 2 3 ) γ num 1 (1) = α 1N (x,µ 1,σ 2 1 ) p(x 1 ω 1 ) 3 5 γ den 1 (1) = α 1N (x,µ 1,σ 2 1 ) p(x 1 ω 1 )+p(x 1 ω 2 ) 3 5 γ num 2 (1) = α 2N (x,µ 2,σ 2 2 ) p(x 1 ω 1 ) 2 5 γ den 2 (1) = α 2N (x,µ 2,σ 2 2 ) p(x 1 ω 1 )+p(x 1 ω 2 ) 2 6 γ num 3 (1) = 0 γ den 3 (1) = α 3N (x,µ 3,σ 2 3 ) p(x 1 ω 1 )+p(x 1 ω 2 ) 1 6 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 12/29

13 Priklad - MMI odhad GMM parametru SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 13/29

14 Diskriminativni trenovani - Minimum Clasification Error F MCE (Θ) = J N j j=1 k=1 sig ( ln ) p Θ (x j k ω j)p (ω j ) l j p Θ(x j k ω l)p (ω l ) MCE objektovni funkce aproximuje pocet korektne rozpoznanych vektoru. sig(x) = 1 1 e αx SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 14/29

15 Maximum a-posteriori odhad parametru Nyni uvazujme pouze jednu tridu, pro kterou hledame MAP odhad parametru. Pro dane trenovaci data X a apriorni rozlozeni parametru p(θ) hledame: ˆΘ = arg max Θ p(θ X) kde p(θ X) = p(x Θ)p(Θ) p(x Θ)p(Θ)dΘ p(x Θ)p(Θ) N p(x k Θ)p(Θ) k=1 V nasledujicich prikladech budem uvazovat poze tridu modelovanou gaussovskym rozlozenim a budeme odhadovat jen µ (σ 2 vudeme povazovat za znamou konstantu) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 15/29

16 Priklad 1. - MAP odhad µ gaussovskeho rozlozeni 0.5 p(x µ=0) p(µ) µ X ML odhad MAP odhad p(µ) µ X SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 16/29

17 Priklad 2. - MAP odhad µ gaussovskeho rozlozeni SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 17/29

18 p(µ X) pro gausovské rozložení, kde p(µ) je také dano gausovským rozložením ( ) ) ( ) Pomucka: N (x k ; µ, σ 2 ) = 1 σ exp (x µ)2 2π 2σ exp ( x2 2xµ+µ 2 2 2σ exp x2 2xµ 2 2σ 2 p(µ X) N k=1 p(x k µ)p(µ) N k=1 ( ) ( N k=1 exp (x k µ) 2 2σ 2 exp ( exp N (x k ; µ, σ 2 )N (µ; µ pri, σ 2 pri) (µ µ pri) 2 2σ 2 pri N k=1 x2 k 2µ N k=1 x k + Nµ 2 2σ 2 ) µ2 2µµ pri + µ 2 pri 2σ 2 pri ( exp (Nσ2 pri + σ2 )µ 2 2(σpri 2 N k=1 x ) k + σ 2 µ pri )µ 2σ 2 σpri 2 P µ 2 N 2 σ2 pri k=1 x k+σ 2 µ pri µ Nσpri exp 2 +σ2 N 2 σ2 σ 2 pri Nσ 2 pri +σ2 ) ( µ; σ2 P Nk=1 pri x k +σ 2 µ pri ) σ 2 σ pri 2 Nσ pri 2, +σ2 Nσ pri 2 +σ2 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 18/29

19 MAP odhad µ pro gausovské rozložení, kde p(µ) je také gausovské rozložením U gausovského rozložení, kde p(µ) je také definováno gausovským rozložením, je tedy a-posteriori rozložní dáno vztahem: N k=1 p(µ X) = N µ; x k + σ2 µ σ 2 pri pri σ 2, N + σ2 N + σ2 σ 2 pri σ 2 pri MAP odhad µ potom je dan stredni hodnotou p(µ X): ˆµ MAP = N k=1 x k + σ2 σ 2 pri µ pri N + σ2 σ 2 pri Bayesovské rozpoznávání P (ω X test ) p(ω)p(x test ω) = p(ω) p(x test ω, Θ)p(Θ X train )p(θ)dθ SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 19/29

20 Adaptace Úkol: Máme model dobře natrénovaný na velkém množství trénovacích dat. Ale chceme jej použít v novém nebo specifičtějsím prostředí (nový mikrofon, konkrétní mluvčí). Modely chceme přiypůsobit novému prostředí pomicí malého množství adaptačních dat. Adaptace s učitelem (supervised) vs. bez učitele (unsupervised) Supervised: Unsupervised: Bloková vs. inkrementální SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 20/29

21 MAP Adaptace MAP odhad parametrů, kde p(θ) je odvozeno z dříve natrénovaného modelu. Priklad: Třídy modelovány gaussovkami Adaptujeme pouze střední hodnoty; p(µ) = N (µ; µ pri, µ pri ) µ pri - dáno sředními dodnotami natrénovanými na všech trénovacích datech σ pri - variance středních hodnot modelů natrénovaných pro růné podmínky (podmnožiny trénovacích dat; např. různí mluvčí v trénovacích datech). SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 21/29

22 MAP Adaptace - gaussovské rozlození pro data i p(µ) Jednodužší obvyklé řešení: σ 2 pri = σ2 τ Supevised: τ 5 µ m adapt = P N m k=1 x m k +τµm pri N m +τ Unsupevised: µ m adapt = P N k=1 γ m(k)x k +τµ m pri P N k=1 γ m(k)+τ SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 22/29

23 MAP Adaptace µ i σ 7 6 Unadapted τ = 50 τ = SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 23/29

24 Adaptace s odhadem omezeného počtu parametrů Úkol: Přizpůsobení parametrů modelu adaptačním datům, pomocí transformace, která má ve srovnání s modelem mnohem méně parametrů. Příklad: Konstantní posun středních hodnot při modelování p(x ω) gaussovkami. Jak zjistíme b? Například pomocí ML kriteria: N J j F ML (b) = ln N (x j k ; µ j + b, σ 2 ) j=1 k=1 Možnost použití i jiného kriteria. Např: MAP zname-li p(b) MMI diskriminativni adaptace SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 24/29

25 MLLR adaptace (GMM, HMM) ML kriterium µ adapt j = Aµ j + b = Wξ j, kde ξ j = 1 µ j Reseni: ŵ i = G (i) 1 k (i)t G (i) = M m=1 1 σ (m)2 i ξ (m) ξ (m)t N k=1 γ m (k) k (i) = M N m=1 k=1 γ m (k)x i k σ (m)2 i ξ (m)t SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 25/29

26 MLLR adaptace (GMM, HMM) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 26/29

27 MLLT N (x; µ, Σ) = det(a) N (Ax; Aµ, AΣA T ) F ML (b) = J N j j=1 k=1 ln det(a) N (Ax j k ; Aµ j, diag(aσ j A T )) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 27/29

28 MLLT SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 28/29

29 Zaver Ruzna objektivni (kriterialni) funkce lze pouzit k reseni ruznych uloh optimalizace ruznych parametru ML diskriminativni (MMI, MCE, MPE,...) MAP... Odhad parametru Adaptace MLLT... Ruzne kriteria lze take kombinovat: Diskriminativni MLLR MMI-MAP - diskriminativni odhad s vyuzitim a-priori rozlozeni parametru... Zobecneni pro HMM je primocare: γ m (k) γ sm (k) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 29/29

Klasifikace a rozpoznávání. Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber

Více

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka

Více

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky

Více

Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno

Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6 Plán... SRE 2

Více

SRE 03 - Skryté Markovovy modely HMM

SRE 03 - Skryté Markovovy modely HMM SRE 03 - Skryté Markovovy modely HMM Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 1/35 Plán... SRE 03 - Skryté

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Klasifikace a rozpoznávání. Extrakce příznaků

Klasifikace a rozpoznávání. Extrakce příznaků Klasifikace a rozpoznávání Extrakce příznaků Extrakce příznaků - parametrizace Poté co jsme ze snímače obdržely data která jsou relevantní pro naši klasifikační úlohu, je potřeba je přizpůsobit potřebám

Více

Implementace Bayesova kasifikátoru

Implementace Bayesova kasifikátoru Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6

Více

AVDAT Mnohorozměrné metody, metody klasifikace

AVDAT Mnohorozměrné metody, metody klasifikace AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných

Více

Náhodné vektory a matice

Náhodné vektory a matice Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane

Více

Apriorní rozdělení. Jan Kracík.

Apriorní rozdělení. Jan Kracík. Apriorní rozdělení Jan Kracík jan.kracik@vsb.cz Apriorní rozdělení Apriorní rozdělení (spolu s modelem) reprezentuje informaci o neznámém parametru θ, která je dostupná předem, tj. bez informace z dat.

Více

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu. Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Vytěžování dat Miroslav Čepek, Filip Železný Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme

Více

oddělení Inteligentní Datové Analýzy (IDA)

oddělení Inteligentní Datové Analýzy (IDA) Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {

Více

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1 Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.

Více

Úvod do optimalizace, metody hladké optimalizace

Úvod do optimalizace, metody hladké optimalizace Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady

Více

5. B o d o v é o d h a d y p a r a m e t r ů

5. B o d o v é o d h a d y p a r a m e t r ů 5. B o d o v é o d h a d y p a r a m e t r ů Na základě hodnot náhodného výběru z rozdělení určitého typu odhadujeme parametry tohoto rozdělení, tak aby co nejlépe odpovídaly hodnotám výběru. Formulujme

Více

Kybernetika a umělá inteligence, cvičení 10/11

Kybernetika a umělá inteligence, cvičení 10/11 Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu

Více

Charakterizace rozdělení

Charakterizace rozdělení Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf

Více

Aktivní detekce chyb

Aktivní detekce chyb Fakulta aplikovaných věd, Katedra kybernetiky a Výzkumné centrum Data - Algoritmy - Rozhodování Západočeská univerzita v Plzni Prezentace v rámci odborného semináře Katedry kybernetiky Obsah Motivační

Více

Odhady Parametrů Lineární Regrese

Odhady Parametrů Lineární Regrese Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké

Více

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Příklad Tahová síla papíru používaného pro výrobu potravinových sáčků je důležitá charakteristika kvality. Je známo, že síla

Více

Vytěžování znalostí z dat

Vytěžování znalostí z dat Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 7 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology

Více

Zpracování digitalizovaného obrazu (ZDO) - Popisy III

Zpracování digitalizovaného obrazu (ZDO) - Popisy III Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování

Více

Semestrální práce: Rozpoznání hláskované řeči a převedení na text

Semestrální práce: Rozpoznání hláskované řeči a převedení na text VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ Fakulta strojního inženýrství Ústav mechaniky těles, mechatroniky a biomechaniky Technická 2, Brno 616 69 RSZ Základy zpracování signálu Semestrální práce: Rozpoznání hláskované

Více

Interpolace, ortogonální polynomy, Gaussova kvadratura

Interpolace, ortogonální polynomy, Gaussova kvadratura Interpolace, ortogonální polynomy, Gaussova kvadratura Petr Tichý 20. listopadu 2013 1 Úloha Lagrangeovy interpolace Dán omezený uzavřený interval [a, b] a v něm n + 1 různých bodů x 0, x 1,..., x n. Nechť

Více

Klasifikace a rozpoznávání

Klasifikace a rozpoznávání Klasifikace a rozpoznávání Prezentace přednášek M. Španěl, 2009 Ústav počítačové grafiky a multimédií Téma přednášky Unsupervised techniky Obsah: Literatura Úvod do shlukování Metriky, základní přístupy,

Více

Zápočtová písemka z Matematiky III (BA04) skupina A

Zápočtová písemka z Matematiky III (BA04) skupina A skupina A 0 pro x < 1, ae x pro x 1, ), Pravděpodobnost P (X ) a P (X =.). E (X) a E ( X 1). Hustotu transformované náhodné veličiny Y = (X + 1). F(x) = x 3 pro x (0, 9), Hustotu f(x). Pravděpodobnost

Více

Stochastické diferenciální rovnice

Stochastické diferenciální rovnice KDM MFF UK, Praha Aplikace matematiky pro učitele 15.11.2011 Kermack-McKendrickův model Kermack-McKendrickův model s vakcinací Model pro nemoc s rychlým šířením a krátkou dobou léčby. Příkladem takovéto

Více

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

MATEMATICKÁ STATISTIKA.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým

Více

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a báli jste se zeptat Jedinečnou funkcí statistiky je, že umožňuje vědci číselně vyjádřit nejistotu v jeho závěrech. (G. W. Snedecor)

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

Umělá inteligence II

Umělá inteligence II Umělá inteligence II 11 http://ktiml.mff.cuni.cz/~bartak Roman Barták, KTIML roman.bartak@mff.cuni.cz Dnešní program! V reálném prostředí převládá neurčitost.! Neurčitost umíme zpracovávat pravděpodobnostními

Více

Výběrové charakteristiky a jejich rozdělení

Výběrové charakteristiky a jejich rozdělení Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový

Více

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet. Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Dnešní program Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu

Více

Bayesovské metody. Mnohorozměrná analýza dat

Bayesovské metody. Mnohorozměrná analýza dat Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A

Více

Tino Haderlein, Elmar Nöth

Tino Haderlein, Elmar Nöth Interakce člověk počítač v přirozeném jazyce (ICP) LS 213 Klasifikace Tino Haderlein, Elmar Nöth Katedra informatiky a výpočetní techniky (KIV) Západočeská univerzita v Plzni Lehrstuhl für Mustererkennung

Více

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová

Více

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny EM algoritmus používá se pro odhad nepozorovaných veličin. Jde o iterativní algoritmus opakující dva kroky: Estimate, který odhadne hodnoty nepozorovaných dat, a Maximize, který maximalizuje věrohodnost

Více

Vlastnosti a modelování aditivního

Vlastnosti a modelování aditivního Vlastnosti a modelování aditivního bílého šumu s normálním rozdělením kacmarp@fel.cvut.cz verze: 0090913 1 Bílý šum s normálním rozdělením V této kapitole se budeme zabývat reálným gaussovským šumem n(t),

Více

Maximálně věrohodné odhady v časových řadách

Maximálně věrohodné odhady v časových řadách Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁŘSKÁ PRÁCE Hana Tritová Maximálně věrohodné odhady v časových řadách Katedra pravděpodobnosti a matematické statistiky Vedoucí bakalářské

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr

Více

Téma 22. Ondřej Nývlt

Téma 22. Ondřej Nývlt Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

Automatická adaptace akustického modelu

Automatická adaptace akustického modelu Fakulta aplikovaných věd Katedra kybernetiky ODBORNÁ PRÁCE KE STÁTNÍ DOKTORSKÉ ZKOUŠCE Ing. Zbyněk Zajíc Automatická adaptace akustického modelu školitel: Doc. Dr. Ing. Vlasta Radová Plzeň, 2008 Poděkování

Více

Hodnocení vlastností materiálů podle ČSN EN 1990, přílohy D

Hodnocení vlastností materiálů podle ČSN EN 1990, přílohy D Hodnocení vlastností materiálů podle ČSN EN 1990, přílohy D Miroslav Sýkora Kloknerův ústav, ČVUT v Praze 1. Úvod 2. Kvantil náhodné veličiny 3. Hodnocení jedné veličiny 4. Hodnocení modelu 5. Příklady

Více

14. B o d o v é o d h a d y p a r a m e t r ů

14. B o d o v é o d h a d y p a r a m e t r ů 4. B o d o v é o d h a d y p a r a m e t r ů Na základě hodot áhodého výběru z rozděleí určitého typu odhadujeme parametry tohoto rozděleí, tak aby co ejlépe odpovídaly hodotám výběru. Formulujme tudíž

Více

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně Aplikace UNS v biomedicíně aplikace v medicíně postup při zpracování úloh Aplikace UNS v medicíně Důvod: nalezení exaktnějších, levnějších a snadnějších metod určování diagnóz pro lékaře nalezení šetrnějších

Více

Neparametrické odhady hustoty pravděpodobnosti

Neparametrické odhady hustoty pravděpodobnosti Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické

Více

jevu, čas vyjmutí ze sledování byl T j, T j < X j a T j je náhodná veličina.

jevu, čas vyjmutí ze sledování byl T j, T j < X j a T j je náhodná veličina. Parametrické metody odhadů z neúplných výběrů 2 1 Metoda maximální věrohodnosti pro cenzorované výběry 11 Náhodné cenzorování Při sledování složitých reálných systémů často nemáme možnost uspořádat experiment

Více

Konvoluční model dynamických studií ledvin. seminář AS UTIA

Konvoluční model dynamických studií ledvin. seminář AS UTIA Konvoluční model dynamických studií ledvin Ondřej Tichý seminář AS UTIA.. Obsah prezentace Scintigrafická obrazová sekvence a její analýza Konstrukce standardního modelu a jeho řešení Experiment Ovlivnění

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,

Více

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné

Více

VK CZ.1.07/2.2.00/

VK CZ.1.07/2.2.00/ Robotika Tvorba map v robotice - MRBT 3. března 2015 Ing. František Burian Komplexní inovace studijních programů a zvyšování kvality výuky na FEKT VUT v Brně OP VK CZ.1.07/2.2.00/28.0193 v pojetí mobilní

Více

NEPARAMETRICKÉ BAYESOVSKÉ ODHADY V KOZIOLOVĚ-GREENOVĚ MODELU NÁHODNÉHO CENZOROVÁNÍ. Michal Friesl

NEPARAMETRICKÉ BAYESOVSKÉ ODHADY V KOZIOLOVĚ-GREENOVĚ MODELU NÁHODNÉHO CENZOROVÁNÍ. Michal Friesl NEPARAMETRICKÉ BAYESOVSKÉ ODHADY V KOZIOLOVĚ-GREENOVĚ MODELU NÁHODNÉHO CENZOROVÁNÍ Michal Friesl Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Princip Příklady V K.-G. modelu

Více

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost. Optimální rozdělující nadplocha. Support vector machine. Adaboost. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Opakování Lineární diskriminační

Více

BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni

BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni BAYESOVSKÉ ODHADY V NĚKTERÝCH MODELECH Michal Friesl Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Slunce Řidiči IQ Regrese Přežití Obvyklý model Pozorování X = (X 1,..., X

Více

2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2

2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2 Výpočet transformačních koeficinetů vybraných 2D transformací Jan Ježek červen 2008 Obsah Odvození transformačního klíče vybraných 2D transformací 2 Meto vyrovnání 2 2 Obecné vyjádření lineárních 2D transformací

Více

1. Přednáška. Ing. Miroslav Šulai, MBA

1. Přednáška. Ing. Miroslav Šulai, MBA N_OFI_2 1. Přednáška Počet pravděpodobnosti Statistický aparát používaný ve financích Ing. Miroslav Šulai, MBA 1 Počet pravděpodobnosti -náhodné veličiny 2 Počet pravděpodobnosti -náhodné veličiny 3 Jevy

Více

ODHADY NÁVRATOVÝCH HODNOT

ODHADY NÁVRATOVÝCH HODNOT ODHADY NÁVRATOVÝCH HODNOT KLIMATOLOGICKÝCH DAT Katedra aplikované matematiky Fakulta přírodovědně-humanitní a pedagogická Technická univerzita v Liberci Robust 2018 ÚVOD Velká pozornost v analýze extrémních

Více

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně 7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností

Více

Vícerozměrná rozdělení

Vícerozměrná rozdělení Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.

Více

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.

Více

KVADRATICKÁ KALIBRACE

KVADRATICKÁ KALIBRACE Petra Širůčková, prof. RNDr. Gejza Wimmer, DrSc. Finanční matematika v praxi III. a Matematické modely a aplikace 4. 9. 2013 Osnova Kalibrace 1 Kalibrace Pojem kalibrace Cíle kalibrace Předpoklady 2 3

Více

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y) 5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =

Více

Aktualizace modelu vlastnosti materiálu. Stanovení vlastností materiálů

Aktualizace modelu vlastnosti materiálu. Stanovení vlastností materiálů podpora zaměstnanosti Aktualizace modelu vlastnosti materiálu Pro. Ing. Milan Holický, DrSc. a Ing. Miroslav Sýkora, Ph.D. ČVUT v Praze, Kloknerův ústav Stanovení vlastností materiálů při hodnocení existujících

Více

Statistické modely tvaru a vzhledu

Statistické modely tvaru a vzhledu Kapitola 1 Statistické modely tvaru a vzhledu V této kapitole nastíním problematiku statistických modelů tvaru, jejich využití a metod potřebných pro jejich výpočet a použití. Existují dvě hlavní metody;

Více

Intervalové Odhady Parametrů

Intervalové Odhady Parametrů Parametrů Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké učení technické v Praze

Více

Stavový model a Kalmanův filtr

Stavový model a Kalmanův filtr Stavový model a Kalmanův filtr 2 prosince 23 Stav je veličina, kterou neznáme, ale chtěli bychom znát Dozvídáme se o ní zprostředkovaně prostřednictvím výstupů Příkladem může býapř nějaký zašuměný signál,

Více

Akvizice dat. Dekonvoluce Registrace. zobrazení INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ

Akvizice dat. Dekonvoluce Registrace. zobrazení INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ a analýza signálů v perfúzním zobrazení Ústav biomedicínského inženýrství FEKT, VUT v Brně 22. 5. 2009 INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ Osnova Úvod 1 Úvod 2 3 4 5 Úvod diagnostika a průběh terapie nádorových

Více

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3! Výsledky příkladů na procvičení z NMSA0 Klasická pravděpodobnost. 5. ( 4( 43 ( 49 3. 8! 3! 0! = 5 Poslední změna (oprava:. května 08 4. (a! + 3! + ( n+ n! = n k= ( k+ /k! = n k=0 ( k /k!; (b n k=0 ( k

Více

4. B o d o v é o d h a d y p a r a m e t r ů

4. B o d o v é o d h a d y p a r a m e t r ů 4. B o d o v é o d h a d y p a r a m e t r ů Na základě hodot áhodého výběru z rozděleí určitého typu odhadujeme parametry tohoto rozděleí, tak aby co ejlépe odpovídaly hodotám výběru. Formulujme tudíž

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

Statistika. Teorie odhadu statistická indukce. Roman Biskup. (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at) .

Statistika. Teorie odhadu statistická indukce. Roman Biskup. (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at) . Statistika Teorie odhadu statistická indukce Intervalový odhad µ, σ 2 a π Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 21. února 2012 Statistika

Více

Markov Chain Monte Carlo. Jan Kracík.

Markov Chain Monte Carlo. Jan Kracík. Markov Chain Monte Carlo Jan Kracík jan.kracik@vsb.cz Princip Monte Carlo integrace Cílem je (přibližný) výpočet integrálu I(g) = E f [g(x)] = g(x)f (x)dx. (1) Umíme-li generovat nezávislé vzorky x (1),

Více

Úvod do teorie odhadu. Ing. Michael Rost, Ph.D.

Úvod do teorie odhadu. Ing. Michael Rost, Ph.D. Úvod do teorie odhadu Ing. Michael Rost, Ph.D. Náhodný výběr Náhodným výběrem ze základního souboru populace, která je popsána prostřednictvím hustoty pravděpodobnosti f(x, θ), budeme nazývat posloupnost

Více

Základy teorie pravděpodobnosti

Základy teorie pravděpodobnosti Základy teorie pravděpodobnosti Náhodný jev Pravděpodobnost náhodného jevu Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 15. srpna 2012 Statistika

Více

Pravděpodobnost a statistika

Pravděpodobnost a statistika Pravděpodobnost a statistika Bodové odhady a intervaly spolehlivosti Vilém Vychodil KMI/PRAS, Přednáška 10 Vytvořeno v rámci projektu 963/011 FRVŠ V. Vychodil (KMI/PRAS, Přednáška 10) Bodové odhady a intervaly

Více

STATISTICKÉ ODHADY PARAMETRŮ

STATISTICKÉ ODHADY PARAMETRŮ STATISTICKÉ ODHADY PARAMETRŮ Jan Pech 21. září 2001 1 Motivace Obrazové snímače pracující ve vzdáleném infračerveném spektru jsou poměrně novou záležitostí. Ty nejkvalitnější snímače chlazené kapalným

Více

Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc.

Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc. Náhodné veličiny III Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc. Katedra teoretické informatiky Fakulta informačních technologií České vysoké učení technické v Praze c Rudolf Blažek, Roman

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

MATEMATICKÁ STATISTIKA - XP01MST

MATEMATICKÁ STATISTIKA - XP01MST MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného

Více

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}. VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).

Více

Katedra matematiky Fakulty jaderné a fyzikálně inženýrské ČVUT v Praze Příjmení a jméno ➊ ➋ ➌ ➍ ➎ ➏ Bonus

Katedra matematiky Fakulty jaderné a fyzikálně inženýrské ČVUT v Praze Příjmení a jméno ➊ ➋ ➌ ➍ ➎ ➏ Bonus Zkoušková písemná práce č 1 z předmětu 1RMF čtvrtek 16 ledna 214, 9: 11: ➊ 11 bodů) Ve třídě zobecněných funkcí vypočítejte itu x ) n n2 sin 2 P 1 n x) ➋ 6 bodů) Aplikací Laplaceovy transformace vypočtěte

Více

8 Coxův model proporcionálních rizik I

8 Coxův model proporcionálních rizik I 8 Coxův model proporcionálních rizik I Předpokládané výstupy z výuky: 1. Student umí formulovat Coxův model proporcionálních rizik 2. Student rozumí významu regresních koeficientů modelu 3. Student zná

Více

Modelování volatility v klasickém a bayesovském pojetí

Modelování volatility v klasickém a bayesovském pojetí Modelování volatility v klasickém a bayesovském pojetí Daniel Němec Katedra ekonomie, Ekonomicko-správní fakulta Masarykova univerzita ESF MU (Brno) Modely volatility 24.10.2013 1 / 66 Content 1 Volatilita

Více

Odhad stavu matematického modelu křižovatek

Odhad stavu matematického modelu křižovatek Odhad stavu matematického modelu křižovatek Miroslav Šimandl, Miroslav Flídr a Jindřich Duník Katedra kybernetiky & Výzkumné centrum Data-Algoritmy-Rozhodování Fakulta aplikovaných věd Západočeská univerzita

Více

Matematické přístupy k pojištění automobilů. Silvie Kafková. 3. 6. září 2013, Podlesí

Matematické přístupy k pojištění automobilů. Silvie Kafková. 3. 6. září 2013, Podlesí Matematické přístupy k pojištění automobilů Silvie Kafková 3. 6. září 2013, Podlesí Obsah 1 Motivace 2 Tvorba tarifních skupin a priori 3 Motivace Obsah 1 Motivace 2 Tvorba tarifních skupin a priori 3

Více

Obsah přednášky Jaká asi bude chyba modelu na nových datech?

Obsah přednášky Jaká asi bude chyba modelu na nových datech? Obsah přednášky Jaká asi bude chyba modelu na nových datech? Chyba modelu Bootstrap Cross Validation Vapnik-Chervonenkisova dimenze 2 Chyba skutečná a trénovací Máme 30 záznamů, rozhodli jsme se na jejich

Více

Bayesovské rozhodování - kritétium minimální střední ztráty

Bayesovské rozhodování - kritétium minimální střední ztráty Bayesovské rozhodování - kritétium imální střední ztráty Lukáš Slánský, Ivana Čapková 6. června 2001 1 Formulace úlohy JE DÁNO: X množina možných pozorování (příznaků) x K množina hodnot skrytého parametru

Více

Aplikace 2: Hledání informativních příznaků pro rozpoznávání

Aplikace 2: Hledání informativních příznaků pro rozpoznávání Aplikace : Hledání informativních příznaků pro rozpoznávání Sonogram štítné žlázy v podélném řezu zdravá lymfocitická thyroitida Zajímá nás, kolik se lze z dat dozvědět o třídě c a kde ta informace je.

Více

Úvod do analýzy časových řad

Úvod do analýzy časových řad Přednáška STATISTIKA II - EKONOMETRIE Katedra ekonometrie FEM UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Posloupnost náhodných veličin {Y t, t = 0, ±1, ±2... } se nazývá stochastický

Více

Algoritmy a struktury neuropočítačů ASN P3

Algoritmy a struktury neuropočítačů ASN P3 Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOS A SAISIKA Regresní analýza - motivace Základní úlohou regresní analýzy je nalezení vhodného modelu studované závislosti. Je nutné věnovat velkou pozornost tomu aby byla modelována REÁLNÁ

Více

Pravděpodobnostní algoritmy

Pravděpodobnostní algoritmy Pravděpodobnostní algoritmy 17. a 18. přednáška z kryptografie Alena Gollová 1/31 Obsah 1 Diskrétní rozdělení náhodné veličiny Algoritmus Generate and Test 2 Alena Gollová 2/31 Diskrétní rozdělení náhodné

Více

3 Bodové odhady a jejich vlastnosti

3 Bodové odhady a jejich vlastnosti 3 Bodové odhady a jejich vlastnosti 3.1 Statistika (Skripta str. 77) Výběr pořizujeme proto, abychom se (více) dověděli o souboru, ze kterého jsme výběr pořídili. Zde se soustředíme na situaci, kdy známe

Více

Numerické metody optimalizace - úvod

Numerické metody optimalizace - úvod Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu

Více

15. T e s t o v á n í h y p o t é z

15. T e s t o v á n í h y p o t é z 15. T e s t o v á n í h y p o t é z Na základě hodnot náhodného výběru činíme rozhodnutí o platnosti hypotézy o hodnotách parametrů rozdělení nebo o jeho vlastnostech. Rozeznáváme dva základní typy testů:

Více