SRE 03 - Statistické rozpoznávání
|
|
- Jarmila Sedláková
- před 6 lety
- Počet zobrazení:
Transkript
1 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29
2 Opakování - Klasifikace Pomineme-li cost, problem klasifikace se dvěmi třídami se dá formulovat jako: rozhodni ω 1 pokud p(x ω 1 )P (ω 1 ) > p(x ω 2 )P (ω 2 ), jinak ω p(x ω 1 )P(ω 1 ) x p(x ω 2 )P(ω 2 ) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 2/29
3 Opakování - Model pro likelihood Likelihood urciteho vektoru x ziskame vyhodnocenim modelu rozlozeni hustoty pravdepodobnosti dane tridy. Trida modelovana gaussovskym rozlozenim: p(x ω j ) = N (x; µ j, Σ j ) Trida modelovana smesi gaussovskych rozlozeni: p(x ω j ) = M α ji N (x; µ ji, Σ ji ) i=1 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 3/29
4 Opakování - Smes gaussovskych rozlozeni Dve tridy, kazda modelovana 3-mi gaussovkami 2D data SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 4/29
5 Opakování - Celkova likelihood mnoziny dat pro jednu tridu Predpokladame, ze jednotlive clasifikovane udalosti - vektory - jsou na sobe statisticky nezavisle p(x 1, x 2, x 3,... ) = p(x 1 )p(x 2 )p(x 3 )... p(x ω) = ln p(x ω) = N p(x k ω) k=1 N ln p(x k ω) k=1 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 5/29
6 Opakování - Maximum likelihood odhad parametru Hledame takove parametry modelu Θ (napr. {µ, Σ, α}), ktere maximalizuji celkovou likelihood trenovacich dat: F ML (Θ) = J N j j=1 k=1 ln p Θ (x j k ω j) J je pocet trid a x j k jsou trenovaci vektory pro j-tou tridu, kterych je N j. Reseni pro modelovani kazde tridy jednou gaussovkou: Prosty odhad strednich hodnot a kovariancnich matic z dat pro danou tridu. Reseni pro GMM: Pomoci EM iterativniho algoritmu: ˆµ m = N k=1 γ m(k)x k N k=1 γ m(k) γ m (k) je pravdepodobnost okupovani m-te gaussovky vektorem x k vypoctena na zaklade soucasnych parametru modelu µ m, Σ, α SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 6/29
7 Opakování - Priklad vypoctu γ m (k) 0.45 p(x ω 1 ) = α 1 N(x, µ 1, σ 2 1 ) + α 2 N(x, µ 2, σ2 2 ) α 1 N(x, µ 1, σ 2 1 ) α 2 N(x, µ 2, σ 2 2 ) 0.3 x p(x ω 2 ) = α 3 N(x, µ 3, σ 2 3 ) γ 1 (1) = α 1N (x,µ 1,σ 2 1 ) p(x 1 ω 1 ) 3 5 x 1 je trenovacim vektorem tridy ω 1, γ 2 (1) = α 2N (x,µ 2,σ 2 2 ) p(x 1 ω 1 ) 2 5 γ 3 (1) = 0 zatimco 3-ti gaussovka patri ke tride ω 2 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 7/29
8 Priklad - ML odhad GMM parametru SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 8/29
9 Vyhody a nevyhody ML odhadu parametru Vyhody: Jednoduchy a rychly zpusob odhadu parametru Minimalni mozna chybe klasifikace za predpokladu: nekonecneho mnozstvi trenovacich dat zvoleni modelu, ktery umoznuje verne modelovat skutecne rozlozeni pravdepodobnosti pro jednotlive tridy (napr. GMM s velkym mnozstvym gaussovek; GMM predpoklada statistickou nezavyslost vektoru. Odpovida to skutecnosti?) Nevyhody: Pro spravnou funkci klasifikatoru je potreba pouze spravne urcit rozhodovaci hranice, ale ML se snazi co nejverneji modelovat rozlozeni trid ve vsech detailech plytvani parametu modelu SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 9/29
10 Diskriminativni trenovani - Maximum Mutual Information Estimation I F ML (Θ) = F MMI (Θ) = = J N j j=1 k=1 J N j j=1 k=1 J N j j=1 k=1 ln p Θ (x j k ω j) ln P Θ (ω j x j k ) ln p Θ (x j k ω j)p (ω j ) J l=1 p Θ(x j k ω l)p (ω l ) MMI objektivni funkce, kterou se snazime maximalizovat je: pravdepodobnost, ze vsechny trenovaci vektory budou rozpoznany spravne. MMI objektivni funkce je tim vetsi, cim vice kazdy vektor vyhovuje rozlozeni sve tridy (stejne jako ML), ale take cim mene vyhovuje rozlozeni konkurencnich trid. SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 10/29
11 Diskriminativni trenovani - Maximum Mutual Information Estimation II Reseni pro GMM: pomoci Generalized EM algoritmu: ˆµ m = N k=1 (γnum m N k=1 (γnum m (k) γm den (k))x k + D m µ m (k) γm den (k)) + D m γm num (k) a γm den (k) jsou pravdepodobnost okupovani m-te gaussovky vektorem x k vypoctena na zaklade soucasnych parametru modelu µ m, Σ, α γm num (k) - trenovaci vektory mohou okupovat pouze gaussovky sve tridy (jako u ML) γm den (k) - trenovaci vektory mohou okupovat i gaussovky konkurencnich trid D m - vyhlazovaci konstanta (napr. D m = 2 γm den (k)) nutna pro stabilitu metody SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 11/29
12 Priklad vypoctu γm num (k) a γm den (k) 0.5 p(x ω 1 ) + p(x ω 1 ) p(x ω 1 ) = α 1 N(x, µ 1, σ 2 1 ) + α 2 N(x, µ 2, σ2 2 ) 0.4 α 1 N(x, µ 1, σ 2 1 ) α 2 N(x, µ 2, σ 2 2 ) x p(x ω 2 ) = α 3 N(x, µ 3, σ 2 3 ) γ num 1 (1) = α 1N (x,µ 1,σ 2 1 ) p(x 1 ω 1 ) 3 5 γ den 1 (1) = α 1N (x,µ 1,σ 2 1 ) p(x 1 ω 1 )+p(x 1 ω 2 ) 3 5 γ num 2 (1) = α 2N (x,µ 2,σ 2 2 ) p(x 1 ω 1 ) 2 5 γ den 2 (1) = α 2N (x,µ 2,σ 2 2 ) p(x 1 ω 1 )+p(x 1 ω 2 ) 2 6 γ num 3 (1) = 0 γ den 3 (1) = α 3N (x,µ 3,σ 2 3 ) p(x 1 ω 1 )+p(x 1 ω 2 ) 1 6 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 12/29
13 Priklad - MMI odhad GMM parametru SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 13/29
14 Diskriminativni trenovani - Minimum Clasification Error F MCE (Θ) = J N j j=1 k=1 sig ( ln ) p Θ (x j k ω j)p (ω j ) l j p Θ(x j k ω l)p (ω l ) MCE objektovni funkce aproximuje pocet korektne rozpoznanych vektoru. sig(x) = 1 1 e αx SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 14/29
15 Maximum a-posteriori odhad parametru Nyni uvazujme pouze jednu tridu, pro kterou hledame MAP odhad parametru. Pro dane trenovaci data X a apriorni rozlozeni parametru p(θ) hledame: ˆΘ = arg max Θ p(θ X) kde p(θ X) = p(x Θ)p(Θ) p(x Θ)p(Θ)dΘ p(x Θ)p(Θ) N p(x k Θ)p(Θ) k=1 V nasledujicich prikladech budem uvazovat poze tridu modelovanou gaussovskym rozlozenim a budeme odhadovat jen µ (σ 2 vudeme povazovat za znamou konstantu) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 15/29
16 Priklad 1. - MAP odhad µ gaussovskeho rozlozeni 0.5 p(x µ=0) p(µ) µ X ML odhad MAP odhad p(µ) µ X SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 16/29
17 Priklad 2. - MAP odhad µ gaussovskeho rozlozeni SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 17/29
18 p(µ X) pro gausovské rozložení, kde p(µ) je také dano gausovským rozložením ( ) ) ( ) Pomucka: N (x k ; µ, σ 2 ) = 1 σ exp (x µ)2 2π 2σ exp ( x2 2xµ+µ 2 2 2σ exp x2 2xµ 2 2σ 2 p(µ X) N k=1 p(x k µ)p(µ) N k=1 ( ) ( N k=1 exp (x k µ) 2 2σ 2 exp ( exp N (x k ; µ, σ 2 )N (µ; µ pri, σ 2 pri) (µ µ pri) 2 2σ 2 pri N k=1 x2 k 2µ N k=1 x k + Nµ 2 2σ 2 ) µ2 2µµ pri + µ 2 pri 2σ 2 pri ( exp (Nσ2 pri + σ2 )µ 2 2(σpri 2 N k=1 x ) k + σ 2 µ pri )µ 2σ 2 σpri 2 P µ 2 N 2 σ2 pri k=1 x k+σ 2 µ pri µ Nσpri exp 2 +σ2 N 2 σ2 σ 2 pri Nσ 2 pri +σ2 ) ( µ; σ2 P Nk=1 pri x k +σ 2 µ pri ) σ 2 σ pri 2 Nσ pri 2, +σ2 Nσ pri 2 +σ2 SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 18/29
19 MAP odhad µ pro gausovské rozložení, kde p(µ) je také gausovské rozložením U gausovského rozložení, kde p(µ) je také definováno gausovským rozložením, je tedy a-posteriori rozložní dáno vztahem: N k=1 p(µ X) = N µ; x k + σ2 µ σ 2 pri pri σ 2, N + σ2 N + σ2 σ 2 pri σ 2 pri MAP odhad µ potom je dan stredni hodnotou p(µ X): ˆµ MAP = N k=1 x k + σ2 σ 2 pri µ pri N + σ2 σ 2 pri Bayesovské rozpoznávání P (ω X test ) p(ω)p(x test ω) = p(ω) p(x test ω, Θ)p(Θ X train )p(θ)dθ SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 19/29
20 Adaptace Úkol: Máme model dobře natrénovaný na velkém množství trénovacích dat. Ale chceme jej použít v novém nebo specifičtějsím prostředí (nový mikrofon, konkrétní mluvčí). Modely chceme přiypůsobit novému prostředí pomicí malého množství adaptačních dat. Adaptace s učitelem (supervised) vs. bez učitele (unsupervised) Supervised: Unsupervised: Bloková vs. inkrementální SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 20/29
21 MAP Adaptace MAP odhad parametrů, kde p(θ) je odvozeno z dříve natrénovaného modelu. Priklad: Třídy modelovány gaussovkami Adaptujeme pouze střední hodnoty; p(µ) = N (µ; µ pri, µ pri ) µ pri - dáno sředními dodnotami natrénovanými na všech trénovacích datech σ pri - variance středních hodnot modelů natrénovaných pro růné podmínky (podmnožiny trénovacích dat; např. různí mluvčí v trénovacích datech). SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 21/29
22 MAP Adaptace - gaussovské rozlození pro data i p(µ) Jednodužší obvyklé řešení: σ 2 pri = σ2 τ Supevised: τ 5 µ m adapt = P N m k=1 x m k +τµm pri N m +τ Unsupevised: µ m adapt = P N k=1 γ m(k)x k +τµ m pri P N k=1 γ m(k)+τ SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 22/29
23 MAP Adaptace µ i σ 7 6 Unadapted τ = 50 τ = SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 23/29
24 Adaptace s odhadem omezeného počtu parametrů Úkol: Přizpůsobení parametrů modelu adaptačním datům, pomocí transformace, která má ve srovnání s modelem mnohem méně parametrů. Příklad: Konstantní posun středních hodnot při modelování p(x ω) gaussovkami. Jak zjistíme b? Například pomocí ML kriteria: N J j F ML (b) = ln N (x j k ; µ j + b, σ 2 ) j=1 k=1 Možnost použití i jiného kriteria. Např: MAP zname-li p(b) MMI diskriminativni adaptace SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 24/29
25 MLLR adaptace (GMM, HMM) ML kriterium µ adapt j = Aµ j + b = Wξ j, kde ξ j = 1 µ j Reseni: ŵ i = G (i) 1 k (i)t G (i) = M m=1 1 σ (m)2 i ξ (m) ξ (m)t N k=1 γ m (k) k (i) = M N m=1 k=1 γ m (k)x i k σ (m)2 i ξ (m)t SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 25/29
26 MLLR adaptace (GMM, HMM) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 26/29
27 MLLT N (x; µ, Σ) = det(a) N (Ax; Aµ, AΣA T ) F ML (b) = J N j j=1 k=1 ln det(a) N (Ax j k ; Aµ j, diag(aσ j A T )) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 27/29
28 MLLT SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 28/29
29 Zaver Ruzna objektivni (kriterialni) funkce lze pouzit k reseni ruznych uloh optimalizace ruznych parametru ML diskriminativni (MMI, MCE, MPE,...) MAP... Odhad parametru Adaptace MLLT... Ruzne kriteria lze take kombinovat: Diskriminativni MLLR MMI-MAP - diskriminativni odhad s vyuzitim a-priori rozlozeni parametru... Zobecneni pro HMM je primocare: γ m (k) γ sm (k) SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 29/29
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka
Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky
Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno
SRE 2 - Statistické rozpoznávání vzorů Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6 Plán... SRE 2
SRE 03 - Skryté Markovovy modely HMM
SRE 03 - Skryté Markovovy modely HMM Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 1/35 Plán... SRE 03 - Skryté
Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
Klasifikace a rozpoznávání. Extrakce příznaků
Klasifikace a rozpoznávání Extrakce příznaků Extrakce příznaků - parametrizace Poté co jsme ze snímače obdržely data která jsou relevantní pro naši klasifikační úlohu, je potřeba je přizpůsobit potřebám
Implementace Bayesova kasifikátoru
Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6
AVDAT Mnohorozměrné metody, metody klasifikace
AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných
Náhodné vektory a matice
Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane
Apriorní rozdělení. Jan Kracík.
Apriorní rozdělení Jan Kracík jan.kracik@vsb.cz Apriorní rozdělení Apriorní rozdělení (spolu s modelem) reprezentuje informaci o neznámém parametru θ, která je dostupná předem, tj. bez informace z dat.
Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.
Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.
UČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group
Vytěžování dat Miroslav Čepek, Filip Železný Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme
oddělení Inteligentní Datové Analýzy (IDA)
Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {
Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1
Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.
Úvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
5. B o d o v é o d h a d y p a r a m e t r ů
5. B o d o v é o d h a d y p a r a m e t r ů Na základě hodnot náhodného výběru z rozdělení určitého typu odhadujeme parametry tohoto rozdělení, tak aby co nejlépe odpovídaly hodnotám výběru. Formulujme
Kybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
Charakterizace rozdělení
Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf
Aktivní detekce chyb
Fakulta aplikovaných věd, Katedra kybernetiky a Výzkumné centrum Data - Algoritmy - Rozhodování Západočeská univerzita v Plzni Prezentace v rámci odborného semináře Katedry kybernetiky Obsah Motivační
Odhady Parametrů Lineární Regrese
Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké
Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I
Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Příklad Tahová síla papíru používaného pro výrobu potravinových sáčků je důležitá charakteristika kvality. Je známo, že síla
Vytěžování znalostí z dat
Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 7 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology
Zpracování digitalizovaného obrazu (ZDO) - Popisy III
Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování
Semestrální práce: Rozpoznání hláskované řeči a převedení na text
VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ Fakulta strojního inženýrství Ústav mechaniky těles, mechatroniky a biomechaniky Technická 2, Brno 616 69 RSZ Základy zpracování signálu Semestrální práce: Rozpoznání hláskované
Interpolace, ortogonální polynomy, Gaussova kvadratura
Interpolace, ortogonální polynomy, Gaussova kvadratura Petr Tichý 20. listopadu 2013 1 Úloha Lagrangeovy interpolace Dán omezený uzavřený interval [a, b] a v něm n + 1 různých bodů x 0, x 1,..., x n. Nechť
Klasifikace a rozpoznávání
Klasifikace a rozpoznávání Prezentace přednášek M. Španěl, 2009 Ústav počítačové grafiky a multimédií Téma přednášky Unsupervised techniky Obsah: Literatura Úvod do shlukování Metriky, základní přístupy,
Zápočtová písemka z Matematiky III (BA04) skupina A
skupina A 0 pro x < 1, ae x pro x 1, ), Pravděpodobnost P (X ) a P (X =.). E (X) a E ( X 1). Hustotu transformované náhodné veličiny Y = (X + 1). F(x) = x 3 pro x (0, 9), Hustotu f(x). Pravděpodobnost
Stochastické diferenciální rovnice
KDM MFF UK, Praha Aplikace matematiky pro učitele 15.11.2011 Kermack-McKendrickův model Kermack-McKendrickův model s vakcinací Model pro nemoc s rychlým šířením a krátkou dobou léčby. Příkladem takovéto
MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci
MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým
Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a
Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a báli jste se zeptat Jedinečnou funkcí statistiky je, že umožňuje vědci číselně vyjádřit nejistotu v jeho závěrech. (G. W. Snedecor)
10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.
0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti
Umělá inteligence II
Umělá inteligence II 11 http://ktiml.mff.cuni.cz/~bartak Roman Barták, KTIML roman.bartak@mff.cuni.cz Dnešní program! V reálném prostředí převládá neurčitost.! Neurčitost umíme zpracovávat pravděpodobnostními
Výběrové charakteristiky a jejich rozdělení
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový
Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.
Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Dnešní program Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu
Bayesovské metody. Mnohorozměrná analýza dat
Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A
Tino Haderlein, Elmar Nöth
Interakce člověk počítač v přirozeném jazyce (ICP) LS 213 Klasifikace Tino Haderlein, Elmar Nöth Katedra informatiky a výpočetní techniky (KIV) Západočeská univerzita v Plzni Lehrstuhl für Mustererkennung
Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:
Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová
EM algoritmus. Proč zahrnovat do modelu neznámé veličiny
EM algoritmus používá se pro odhad nepozorovaných veličin. Jde o iterativní algoritmus opakující dva kroky: Estimate, který odhadne hodnoty nepozorovaných dat, a Maximize, který maximalizuje věrohodnost
Vlastnosti a modelování aditivního
Vlastnosti a modelování aditivního bílého šumu s normálním rozdělením kacmarp@fel.cvut.cz verze: 0090913 1 Bílý šum s normálním rozdělením V této kapitole se budeme zabývat reálným gaussovským šumem n(t),
Maximálně věrohodné odhady v časových řadách
Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁŘSKÁ PRÁCE Hana Tritová Maximálně věrohodné odhady v časových řadách Katedra pravděpodobnosti a matematické statistiky Vedoucí bakalářské
PRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr
Téma 22. Ondřej Nývlt
Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené
AVDAT Náhodný vektor, mnohorozměrné rozdělení
AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární
Automatická adaptace akustického modelu
Fakulta aplikovaných věd Katedra kybernetiky ODBORNÁ PRÁCE KE STÁTNÍ DOKTORSKÉ ZKOUŠCE Ing. Zbyněk Zajíc Automatická adaptace akustického modelu školitel: Doc. Dr. Ing. Vlasta Radová Plzeň, 2008 Poděkování
Hodnocení vlastností materiálů podle ČSN EN 1990, přílohy D
Hodnocení vlastností materiálů podle ČSN EN 1990, přílohy D Miroslav Sýkora Kloknerův ústav, ČVUT v Praze 1. Úvod 2. Kvantil náhodné veličiny 3. Hodnocení jedné veličiny 4. Hodnocení modelu 5. Příklady
14. B o d o v é o d h a d y p a r a m e t r ů
4. B o d o v é o d h a d y p a r a m e t r ů Na základě hodot áhodého výběru z rozděleí určitého typu odhadujeme parametry tohoto rozděleí, tak aby co ejlépe odpovídaly hodotám výběru. Formulujme tudíž
Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně
Aplikace UNS v biomedicíně aplikace v medicíně postup při zpracování úloh Aplikace UNS v medicíně Důvod: nalezení exaktnějších, levnějších a snadnějších metod určování diagnóz pro lékaře nalezení šetrnějších
Neparametrické odhady hustoty pravděpodobnosti
Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické
jevu, čas vyjmutí ze sledování byl T j, T j < X j a T j je náhodná veličina.
Parametrické metody odhadů z neúplných výběrů 2 1 Metoda maximální věrohodnosti pro cenzorované výběry 11 Náhodné cenzorování Při sledování složitých reálných systémů často nemáme možnost uspořádat experiment
Konvoluční model dynamických studií ledvin. seminář AS UTIA
Konvoluční model dynamických studií ledvin Ondřej Tichý seminář AS UTIA.. Obsah prezentace Scintigrafická obrazová sekvence a její analýza Konstrukce standardního modelu a jeho řešení Experiment Ovlivnění
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík
Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné
VK CZ.1.07/2.2.00/
Robotika Tvorba map v robotice - MRBT 3. března 2015 Ing. František Burian Komplexní inovace studijních programů a zvyšování kvality výuky na FEKT VUT v Brně OP VK CZ.1.07/2.2.00/28.0193 v pojetí mobilní
NEPARAMETRICKÉ BAYESOVSKÉ ODHADY V KOZIOLOVĚ-GREENOVĚ MODELU NÁHODNÉHO CENZOROVÁNÍ. Michal Friesl
NEPARAMETRICKÉ BAYESOVSKÉ ODHADY V KOZIOLOVĚ-GREENOVĚ MODELU NÁHODNÉHO CENZOROVÁNÍ Michal Friesl Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Princip Příklady V K.-G. modelu
Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.
Optimální rozdělující nadplocha. Support vector machine. Adaboost. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Opakování Lineární diskriminační
BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni
BAYESOVSKÉ ODHADY V NĚKTERÝCH MODELECH Michal Friesl Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Slunce Řidiči IQ Regrese Přežití Obvyklý model Pozorování X = (X 1,..., X
2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2
Výpočet transformačních koeficinetů vybraných 2D transformací Jan Ježek červen 2008 Obsah Odvození transformačního klíče vybraných 2D transformací 2 Meto vyrovnání 2 2 Obecné vyjádření lineárních 2D transformací
1. Přednáška. Ing. Miroslav Šulai, MBA
N_OFI_2 1. Přednáška Počet pravděpodobnosti Statistický aparát používaný ve financích Ing. Miroslav Šulai, MBA 1 Počet pravděpodobnosti -náhodné veličiny 2 Počet pravděpodobnosti -náhodné veličiny 3 Jevy
ODHADY NÁVRATOVÝCH HODNOT
ODHADY NÁVRATOVÝCH HODNOT KLIMATOLOGICKÝCH DAT Katedra aplikované matematiky Fakulta přírodovědně-humanitní a pedagogická Technická univerzita v Liberci Robust 2018 ÚVOD Velká pozornost v analýze extrémních
Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně
7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností
Vícerozměrná rozdělení
Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
KVADRATICKÁ KALIBRACE
Petra Širůčková, prof. RNDr. Gejza Wimmer, DrSc. Finanční matematika v praxi III. a Matematické modely a aplikace 4. 9. 2013 Osnova Kalibrace 1 Kalibrace Pojem kalibrace Cíle kalibrace Předpoklady 2 3
n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)
5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =
Aktualizace modelu vlastnosti materiálu. Stanovení vlastností materiálů
podpora zaměstnanosti Aktualizace modelu vlastnosti materiálu Pro. Ing. Milan Holický, DrSc. a Ing. Miroslav Sýkora, Ph.D. ČVUT v Praze, Kloknerův ústav Stanovení vlastností materiálů při hodnocení existujících
Statistické modely tvaru a vzhledu
Kapitola 1 Statistické modely tvaru a vzhledu V této kapitole nastíním problematiku statistických modelů tvaru, jejich využití a metod potřebných pro jejich výpočet a použití. Existují dvě hlavní metody;
Intervalové Odhady Parametrů
Parametrů Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké učení technické v Praze
Stavový model a Kalmanův filtr
Stavový model a Kalmanův filtr 2 prosince 23 Stav je veličina, kterou neznáme, ale chtěli bychom znát Dozvídáme se o ní zprostředkovaně prostřednictvím výstupů Příkladem může býapř nějaký zašuměný signál,
Akvizice dat. Dekonvoluce Registrace. zobrazení INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ
a analýza signálů v perfúzním zobrazení Ústav biomedicínského inženýrství FEKT, VUT v Brně 22. 5. 2009 INVESTICE DO ROZVOJE VZDĚLÁVÁNÍ Osnova Úvod 1 Úvod 2 3 4 5 Úvod diagnostika a průběh terapie nádorových
1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!
Výsledky příkladů na procvičení z NMSA0 Klasická pravděpodobnost. 5. ( 4( 43 ( 49 3. 8! 3! 0! = 5 Poslední změna (oprava:. května 08 4. (a! + 3! + ( n+ n! = n k= ( k+ /k! = n k=0 ( k /k!; (b n k=0 ( k
4. B o d o v é o d h a d y p a r a m e t r ů
4. B o d o v é o d h a d y p a r a m e t r ů Na základě hodot áhodého výběru z rozděleí určitého typu odhadujeme parametry tohoto rozděleí, tak aby co ejlépe odpovídaly hodotám výběru. Formulujme tudíž
Odhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
Statistika. Teorie odhadu statistická indukce. Roman Biskup. (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at) .
Statistika Teorie odhadu statistická indukce Intervalový odhad µ, σ 2 a π Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 21. února 2012 Statistika
Markov Chain Monte Carlo. Jan Kracík.
Markov Chain Monte Carlo Jan Kracík jan.kracik@vsb.cz Princip Monte Carlo integrace Cílem je (přibližný) výpočet integrálu I(g) = E f [g(x)] = g(x)f (x)dx. (1) Umíme-li generovat nezávislé vzorky x (1),
Úvod do teorie odhadu. Ing. Michael Rost, Ph.D.
Úvod do teorie odhadu Ing. Michael Rost, Ph.D. Náhodný výběr Náhodným výběrem ze základního souboru populace, která je popsána prostřednictvím hustoty pravděpodobnosti f(x, θ), budeme nazývat posloupnost
Základy teorie pravděpodobnosti
Základy teorie pravděpodobnosti Náhodný jev Pravděpodobnost náhodného jevu Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 15. srpna 2012 Statistika
Pravděpodobnost a statistika
Pravděpodobnost a statistika Bodové odhady a intervaly spolehlivosti Vilém Vychodil KMI/PRAS, Přednáška 10 Vytvořeno v rámci projektu 963/011 FRVŠ V. Vychodil (KMI/PRAS, Přednáška 10) Bodové odhady a intervaly
STATISTICKÉ ODHADY PARAMETRŮ
STATISTICKÉ ODHADY PARAMETRŮ Jan Pech 21. září 2001 1 Motivace Obrazové snímače pracující ve vzdáleném infračerveném spektru jsou poměrně novou záležitostí. Ty nejkvalitnější snímače chlazené kapalným
Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc.
Náhodné veličiny III Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc. Katedra teoretické informatiky Fakulta informačních technologií České vysoké učení technické v Praze c Rudolf Blažek, Roman
Odhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
MATEMATICKÁ STATISTIKA - XP01MST
MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného
1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.
VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:
9. T r a n s f o r m a c e n á h o d n é v e l i č i n y
9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).
Katedra matematiky Fakulty jaderné a fyzikálně inženýrské ČVUT v Praze Příjmení a jméno ➊ ➋ ➌ ➍ ➎ ➏ Bonus
Zkoušková písemná práce č 1 z předmětu 1RMF čtvrtek 16 ledna 214, 9: 11: ➊ 11 bodů) Ve třídě zobecněných funkcí vypočítejte itu x ) n n2 sin 2 P 1 n x) ➋ 6 bodů) Aplikací Laplaceovy transformace vypočtěte
8 Coxův model proporcionálních rizik I
8 Coxův model proporcionálních rizik I Předpokládané výstupy z výuky: 1. Student umí formulovat Coxův model proporcionálních rizik 2. Student rozumí významu regresních koeficientů modelu 3. Student zná
Modelování volatility v klasickém a bayesovském pojetí
Modelování volatility v klasickém a bayesovském pojetí Daniel Němec Katedra ekonomie, Ekonomicko-správní fakulta Masarykova univerzita ESF MU (Brno) Modely volatility 24.10.2013 1 / 66 Content 1 Volatilita
Odhad stavu matematického modelu křižovatek
Odhad stavu matematického modelu křižovatek Miroslav Šimandl, Miroslav Flídr a Jindřich Duník Katedra kybernetiky & Výzkumné centrum Data-Algoritmy-Rozhodování Fakulta aplikovaných věd Západočeská univerzita
Matematické přístupy k pojištění automobilů. Silvie Kafková. 3. 6. září 2013, Podlesí
Matematické přístupy k pojištění automobilů Silvie Kafková 3. 6. září 2013, Podlesí Obsah 1 Motivace 2 Tvorba tarifních skupin a priori 3 Motivace Obsah 1 Motivace 2 Tvorba tarifních skupin a priori 3
Obsah přednášky Jaká asi bude chyba modelu na nových datech?
Obsah přednášky Jaká asi bude chyba modelu na nových datech? Chyba modelu Bootstrap Cross Validation Vapnik-Chervonenkisova dimenze 2 Chyba skutečná a trénovací Máme 30 záznamů, rozhodli jsme se na jejich
Bayesovské rozhodování - kritétium minimální střední ztráty
Bayesovské rozhodování - kritétium imální střední ztráty Lukáš Slánský, Ivana Čapková 6. června 2001 1 Formulace úlohy JE DÁNO: X množina možných pozorování (příznaků) x K množina hodnot skrytého parametru
Aplikace 2: Hledání informativních příznaků pro rozpoznávání
Aplikace : Hledání informativních příznaků pro rozpoznávání Sonogram štítné žlázy v podélném řezu zdravá lymfocitická thyroitida Zajímá nás, kolik se lze z dat dozvědět o třídě c a kde ta informace je.
Úvod do analýzy časových řad
Přednáška STATISTIKA II - EKONOMETRIE Katedra ekonometrie FEM UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Posloupnost náhodných veličin {Y t, t = 0, ±1, ±2... } se nazývá stochastický
Algoritmy a struktury neuropočítačů ASN P3
Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností
PRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOS A SAISIKA Regresní analýza - motivace Základní úlohou regresní analýzy je nalezení vhodného modelu studované závislosti. Je nutné věnovat velkou pozornost tomu aby byla modelována REÁLNÁ
Pravděpodobnostní algoritmy
Pravděpodobnostní algoritmy 17. a 18. přednáška z kryptografie Alena Gollová 1/31 Obsah 1 Diskrétní rozdělení náhodné veličiny Algoritmus Generate and Test 2 Alena Gollová 2/31 Diskrétní rozdělení náhodné
3 Bodové odhady a jejich vlastnosti
3 Bodové odhady a jejich vlastnosti 3.1 Statistika (Skripta str. 77) Výběr pořizujeme proto, abychom se (více) dověděli o souboru, ze kterého jsme výběr pořídili. Zde se soustředíme na situaci, kdy známe
Numerické metody optimalizace - úvod
Numerické metody optimalizace - úvod Petr Tichý 16. února 2015 1 Organizace přednášek a cvičení 13 přednášek a cvičení. Zápočet: úloha programování a testování úloh v Matlabu. Další informace na blogu
15. T e s t o v á n í h y p o t é z
15. T e s t o v á n í h y p o t é z Na základě hodnot náhodného výběru činíme rozhodnutí o platnosti hypotézy o hodnotách parametrů rozdělení nebo o jeho vlastnostech. Rozeznáváme dva základní typy testů: