SRE 03 - Skryté Markovovy modely HMM

Rozměr: px
Začít zobrazení ze stránky:

Download "SRE 03 - Skryté Markovovy modely HMM"

Transkript

1 SRE 03 - Skryté Markovovy modely HMM Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 1/35

2 Plán... SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 2/35

3 Úkol - udělat rozpoznávač výklad na rozpoznávání izolovaných slov: model1 Viterbi probabilities Φ1 model2 Φ2 unknown word model3... Φ3 selection of the winner word2... v modeln Φ N v SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 3/35

4 Co máme k disposici? 1. teorii statistického rozpoznávání vzorů: P(ω j x) = p(x ω j)p(ω j ), p(x) P(ω j x) je posterior třídy ω j, známe-li datový vektor x, P(ω j ) je prior třídy ω j p(x) je evidence (normalizační funkce taková, aby P(ω j x) byla slušná pravděpodobnost). Na evidenci p(x) nehledíme, protože je stejná pro všechny třídy a u jednoduchých rozpoznávačů předpokládáme, že priory všech tříd budou stejné P(ω j ) = ω. Proto nám pro nalezení rozpoznaného slova bude stačit maximalizovat: ω j = max j p(x ω j ) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 4/35

5 2. Pro rozpoznávání jednotlivých vektorů dokážeme třídy namodelovat Gaussovými rozděleními nebo sokonce jejich směsí: p(x ω j ) = M α ji N(x; µ ji,σ ji ), i=1 µ 1 =[1;0.5]; Σ 1 =[1 0.5; ]; w 1 =0.5; µ 2 =[2;0]; Σ 2 =[0.5 0; 0 0.5]; w 2 =0.5; p(x) x 2 x 1 SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 5/35

6 a dokážeme jejich parametry Θ (míchací koeficienty, střední hodnoty a kovarianční matice) odhadnout pomocí iterativního algoritmu EM: 1. parametry na začátku nějak odhadneme. 2. s parametry Θ (i 1) se pro každou Gaussovku spočítá occupation count : γ l (k) = α(i 1) l M i=1 α(i 1) i N(x k ; µ (i 1) l,σ (i 1) N(x; µ (i 1) i l ),Σ (i 1) i ) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 6/35

7 3. a nové parametry jsou dány (omlouvám se za nepřítomnost stříšek ˆ)... α (i) l = 1 n n γ l (k) k=1 µ (i) l = n k=1 γ l(k)x k n k=1 γ l(k) Σ (i) l = n k=1 γ l(k)(x k µ (i) l )(x k µ (i) l n k=1 γ l(k) ) T 4. opakujeme body 2 a 3 dokud se nesnižuje celková log-likelihood: lnp(d Θ) = n ln k=1 M α ji N(x k ; µ ji,σ ji ) i=1 nebo nás to nepřestane bavit (fixní počet iterací). SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 7/35

8 ... jenže I.... Nemáme jen jeden vektor vstupní sekvence vektorů O = [o(1),o(2),...,o(t)], (1) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 8/35

9 ... jenže II.... Lidé neřeknou nikdy nic stejně rychle a se stejným časováním?? SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 9/35

10 Nápad 1: mít 1 gaussovku na slovo, postupně jí předkládat vektory a hodnoty sčítat BLBÝ NÁPAD ( paří = řípa???) Nápad 2: každé slovo budeme muset representovat sekvencí více Gaussovek. jedna nezávislá Gaussovka na každý vektor? Aj aj, vektorů je pokaždé jiný počet! model, kde se Gaussovky budou moci opakovat! SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 10/35

11 Skrytý Markovův model HMM uvažujeme model pouze pro jednu třídu, ostatní budou podobné, ale s jinými parametry! Markov model M a 22 a 33 a 44 a 55 Observation sequence a 12 a 23 a 34 a 45 a a 35 b 2(o 1 ) b (o ) b 3(o 3 ) b 4(o 4 )b 4(o 5 ) b 5(o 6 ) 2 a o o o o o o První a poslední stav jsou zvláštní, nepatří k nim žádný vektor. SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 11/35

12 Přechodové pravděpodobnosti a ij Zde: pouze tři typy: a i,i pravděpodobnost setrvání ve stavu. a i,i+1 pravděpodobnost přechodu do následujícího stavu. a i,i+2 pravděpodobnost přeskočení následujícího stavu (nepoužívá se, pouze někdy pro modely krátkého ticha ). 0 a a 22 a 23 a a 33 a 34 a 35 0 A = (2) a 44 a a 55 a matice má prvky pouze na diagonále a nad ní musíme se v modelu zastavit nebo jít dál, nelze jít dozadu. SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 12/35

13 Likelihood, že je ve stavu j vyslán vektor o(t) Vysílací likelihood b j [o(t)] = p(o(t) j) může být: opravdová pravděpodobnost u diskrétních HMM jsou vektory jsou pomocí předkvantovány pomocí vektorové kvantizace na symboly, stavy pak obsahují tabulky vysílacích pravděpodobností jednotlivých symbolů moc se nepoužívá nebudeme probírat. hodnota funkce hustoty rozdělení pravděpodobnosti (pozor, není pravděpodobnost), dána většinou směsí Gaussovek: b j [o(t)] = M α ji N(x; µ ji,σ ji ), i=1 Nebo jednou Gaussovkou, což bude náš školní prípad: b j [o(t)] = N(x; µ j,σ j ) CD-HMM continuous density hidden Markov model SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 13/35

14 Poznámky k funkcím hustoty rozdělení pravděpodobnosti pokud nejsou parametry korelovány (nebo doufáme, že nejsou), jejich kovarianční matice je diagonální namísto P P kovariančních koeficientů stačí odhadnout P směrodatných odchylek (rozptylů) jednodušší modely, dostatek dat k odhadu, hodnota rozdělení dána pouze součinem 1-rozměrných Gauss. rozdělení (bez determinantu a inverze): b j [o(t)] = P N(o(t); µ ji, σ ji ) = i=1 P i=1 1 e [o(t) µ ji ] 2 2σ ji 2 (3) σ ji 2π sady parametrů nebo celé stavy mohou být sdílené mezi modely méně parametrů, spolehlivější odhad, méně paměti. SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 14/35

15 Likelihood generování celé sekvence O modelem M Naráz to nepůjde, nejprve si nadefinujme stavovou sekvenci, která stavy přiřadí vektorům (nebo vektory rozhází stavům, jak chcete), např: X = [ ]. state time 7 Stavová sekvence má T + 2 prvků, protože první a poslední stav tam musí být vždy a nepatří k nim žádný vektor. Při práci s časem umisťujeme první stav do neexistujícího času 0 a poslední stav do neexistujícího času T + 1 SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 15/35

16 Likelihood generování O po cestě X: T p(o, X M) = a x(o)x(1) b x(t) (o t )a x(t)x(t+1), Jak definovat jednu likelihood generování sekvence vektorů modelem? t=1 a) Baum-Welch: p(o M) = {X} p(o, X M), bereme sumu přes všechny stavové sekvence délky T + 2. b) Viterbi: p (O M) = max {X} p(o, X M), je likelihood optimální cesty. SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 16/35

17 Trénování HMM a co je ve skrytých Markovových modelech skrytého... word1 word2 word3... word1 word2 word3... word1 word2 word3... word1 word2 word3 wordn v wordn v wordn v wordn v Training database word1 word2 word3... word1 word3 word3 wordn v wordn v TRAINING model1 model2 model3... v modeln Opět budeme ukazovat pouze na 1 modelu, soubor parametrů Θ obsahuje: přechodové pravěpodobnosti α ij, vektorové střední hodnoty µ j a kovarianční matice Σ j nebo vektory směrodatných odchylek σ j. SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 17/35

18 podobně jako u Gaussian Mixtures, analyticky nejdou parametry odhadnout, proto se používá Expectation Maximization s kritériem: p(o(t) Θ i 1 ) log p(o(t) Θ) t kde stavová sekvence X je skrytá (hidden) informace. Po hutné matematice vede k následujícímu postupu: 1. hrubý odhad parametrů. 2. odhad pravděpodobností L j (t), že se v čase t nacházíme ve stavu j occupation counts. 3. odhad nových parametrů, pravděpodobnosti L j (t) měkce rozhazují vektory mezi stavy. 4. opakuj body 2 a 3. SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 18/35

19 Trénování HMM in more detail - inicialisace Vše budeme ukazovat pouze na 1 trénovací sekvenci O, generalisace na více sekvencí je jednoduchá. HMM má N stavů, z toho první a poslední jsou nevysílací. Krok 1: parametry modelu jsou zhruba odhadnuty: nastavíme a ji tak, aby definovaly požadovanou konfiguraci HMM, vrazíme do nich někajé konstanty. rozděĺıme O na N 2 úseků o stejné délce, pak pro j = 2...N 2: ˆµ j = 1 T j t endj t=t begj o(t) ˆΣj = 1 T j t endj t=t begj (o(t) µ j )(o(t) µ j ) T SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 19/35

20 Krok 2: Jak na state occupation functions Likelihood bytí ve stavu j v čase t můžeme spočítat jako sumu všech cest, které v čase t projdou stavem j: p(o, x(t) = j M) TIME: t 1 t t N 1 j N 1 SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 20/35

21 Potřebujeme ale zajistit, aby to byly opravdové pravděpodobnosti, tedy: N L j (t) = 1, (4) j=1 jinými slovy: příspěvek jednoho vektoru všem stavům musí být přesně 100%. Musíme normalizovat sumou likelihoodů všech cest, které projdou čímkoliv v čase t L j (t) = p(o, x(t) = j M) p(o, x(t) = j M). (5) j... jenže to už jsou opravdu všechny cesty modelem, takže můžeme normalizovat Baum-Welchovým likelihoodem: L j (t) = p(o, x(t) = j M). (6) p(o M) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 21/35

22 Jak na P(O, x(t) = j M) Výpočet částečných dopředných likelihoodů (začal jsem na začátku modelu a v čase t jsem ve stavu j): α j (t) = p (o(1)...o(t), x(t) = j M) Inicialisace: α j (1) = a 1j b j [o(1)] for 2 j N 1 (7) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 22/35

23 Jdeme dále v čase, výpočet pro normální α j (t): TIME: t 1 α (t 1) 2 t 2 α (t 1) 3 3 α (t 1) N 1 a 2j a 3j a 4j α N 1 (t 1) j a (N 1)j α (t) j α j (t) = [ N 1 i=2 α i (t 1)a ij ] b j [o(t)] for 2 j N 1 (8) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 23/35

24 Uzavření algoritmu: α N (T + 1) = N 1 Je fajn, že jsme poslední α-ou vypočetli Baum-Welchovu likelihood: i=2 α i (T)a in (9) p(o M) = α N (T + 1) (10) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 24/35

25 Výpočet částečných zpětných likelihoodů (začal jsem na konci modelu a v čase t jsem ve stavu j): Inicialisace (odzadu!): β j (t) = p (o(t + 1)...o(T) x(t) = j, M) (11) β j (T) = a jn for 2 j N 1 (12) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 25/35

26 Jdeme pozadu v čase, výpočet pro normální β j (t): TIME: t t+1 β j (t) j a a j2 a a j(n 1) j3 j4 β β β β N 1 (t+1) (t+1) (t+1) N 1 (t+1) β j (t) = N 1 i=2 a ji b i [o(t + 1)]β i (t + 1) for 2 j N 1 (13) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 26/35

27 Uzavření algoritmu: β 1 (0) = N 1 i=2 A zase jsme získali Baum-Welchovu likelihood: a 1i b i [o(1)]β i (1) (14) P(O M) = β 1 (0) (15) (dokonce si to porovnáním α N (T + 1) a β 1 (0) můžeme zkontrolovat). SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 27/35

28 Konečně budeme schopni spočítat L j (t) TIME: t 1 t t N 1 j N 1 L j (t) = α j(t)β j (t) p(o M) (16) SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 28/35

29 Krok 3: Update parametrů Při odhadu µ j a Σ j slouží occupation counts L j (t) jako měkký rozhazovač vektorů na stavy : state 2 state 3 state L j (t) t SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 29/35

30 T L j (t)o(t) T L j (t)(o(t) µ j )(o(t) µ j ) T ˆµ j = t=1 T L j (t) ˆΣ j = t=1 T L j (t). (17) t=1 t=1 Odhad přechodových pravděpodobností: â ij = T α i (t)a ij b j (o(t + 1))β j (t + 1) t=1 T L j (t) t=1... a můžeme se směle vrátit na odhad L j (t) a iterovat SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 30/35

31 Technická realizace algoritmu trénování modelů 1. Alokuj akumulátor pro každý odhadovaný vektor/matici. 2. Spočítej dopředné a zpětné pravď. α j(t) a β j (t) pro všechny časy t a všechny stavy j. Spočítej state occupation functions L j (t). 3. Ke každému akumulátoru přidej příspěvek od vektoru o(t) vážený příslušnou L j (t). 4. Použij konečnou hodnotu akumulátoru pro odhad vektoru/matice pomocí rovnice 17 nesmíme zapomenout na normování výrazem T t=1 L j(t). 5. Pokud se hodnota p(o M) od minulé iterace podstatně nezměnila, stop, jinak Goto 1. SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 31/35

32 Ale vy jste nám říkal, že se modeluje směsí Gaussovek! Kažý stav se směsí Gaussovek se dá rozkreslit: do několika stavů po jedné Gaussovce. přechodové pravděpodobnosti jsou mixture weights. a ij M-component Gaussian mixture j a ij c j1 a ij c j2 Single Gaussians j 1 j 2 a ij c jm... j M SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 32/35

33 Ale přece nebudeme trénovat jen na jedné promluvě! To tedy nebudeme, použijeme prakticky stejný algoritmus jako výše, ale: Dopředné a zpětné likelihoody se odhadnou na každé promluvě. Occupation counts se také odhadnou na každé promluvě. Provede se update akumulátorů také na každé promluvě. pak se to jen poděĺı a získají se nové hodnoty parametrů. více viz kompletní rovnice v HTK Book, sekce Parameter re-estimation formulae. SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 33/35

34 Ale co trénování modelů při rozpoznávání spojité řeči? Rozpoznáváme pomocí modelů fonémů nebo kontextově závislých fonémů. d ao g ENTER <SIL> ae n d <SIL> EXIT k ae t Obvykle máme k disposici jen ortografickou transkripci: The total of these three volumes is the final combustion chamber Při trénování má každý model své akumulátory. sp SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 34/35

35 Pro každou trénovací promluvu: Převedeme grafémy na fonémy (g2p). Postavíme mega-model spojený z modelů fonémů, pokud je více výslovnostních variant, dáme je do modelu paralelně. Vypočteme pro každý zúčastněný foném jeho α, β i L j (t). updatujeme akumulátory. na konec podrthneme a sečteme, plné rovnice opět viz HTK Book, sekce Embedded Model Reestimation(HEREST). SRE 03 - Skryté Markovovy modely HMM Jan Černocký, ÚPGM FIT VUT Brno 35/35

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka

Více

SRE 03 - Statistické rozpoznávání

SRE 03 - Statistické rozpoznávání SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29 Opakování

Více

Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno

Jan Černocký ÚPGM FIT VUT Brno, FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno SRE 2 - Statistické rozpoznávání vzorů Jan Černocký, ÚPGM FIT VUT Brno, 25/6 1/6 Plán... SRE 2

Více

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie

Klasifikace a rozpoznávání. Bayesovská rozhodovací teorie Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky

Více

4 HMM a jejich trénov

4 HMM a jejich trénov Pokročilé metody rozpoznávánířeči Přednáška 4 HMM a jejich trénov nování Skryté Markovovy modely (HMM) Metoda HMM (Hidden Markov Model kryté Markovovy modely) reprezentujeřeč (lovo, hláku, celou promluvu)

Více

Stavový model a Kalmanův filtr

Stavový model a Kalmanův filtr Stavový model a Kalmanův filtr 2 prosince 23 Stav je veličina, kterou neznáme, ale chtěli bychom znát Dozvídáme se o ní zprostředkovaně prostřednictvím výstupů Příkladem může býapř nějaký zašuměný signál,

Více

Náhodné signály. Honza Černocký, ÚPGM

Náhodné signály. Honza Černocký, ÚPGM Náhodné signály Honza Černocký, ÚPGM Signály ve škole a v reálném světě Deterministické Rovnice Obrázek Algoritmus Kus kódu } Můžeme vypočítat Málo informace! Náhodné Nevíme přesně Pokaždé jiné Především

Více

oddělení Inteligentní Datové Analýzy (IDA)

oddělení Inteligentní Datové Analýzy (IDA) Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {

Více

Bayesovské metody. Mnohorozměrná analýza dat

Bayesovské metody. Mnohorozměrná analýza dat Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A

Více

1 LPC. Jan Černocký, FIT VUT Brno, 15. května 2007

1 LPC. Jan Černocký, FIT VUT Brno, 15. května 2007 CZR - numerické cvičení - zadání a řešení Jan Černocký, FIT VUT Brno, 5. května 007 LPC je dán signál o -ti vzorcích x[0]... x[]: 0, 0.707,, 0.707, 0, -0.707, -, -0.707, 0, 0.707,, 0.707 Příklady. je možné

Více

Normální (Gaussovo) rozdělení

Normální (Gaussovo) rozdělení Normální (Gaussovo) rozdělení Normální (Gaussovo) rozdělení popisuje vlastnosti náhodné spojité veličiny, která vzniká složením různých náhodných vlivů, které jsou navzájem nezávislé, kterých je velký

Více

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet. Umělá inteligence II Roman Barták, KTIML roman.bartak@mff.cuni.cz http://ktiml.mff.cuni.cz/~bartak Dnešní program Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu

Více

Aplikace 2: Hledání informativních příznaků pro rozpoznávání

Aplikace 2: Hledání informativních příznaků pro rozpoznávání Aplikace : Hledání informativních příznaků pro rozpoznávání Sonogram štítné žlázy v podélném řezu zdravá lymfocitická thyroitida Zajímá nás, kolik se lze z dat dozvědět o třídě c a kde ta informace je.

Více

Odhady Parametrů Lineární Regrese

Odhady Parametrů Lineární Regrese Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké

Více

Implementace Bayesova kasifikátoru

Implementace Bayesova kasifikátoru Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6

Více

1. Přednáška. Ing. Miroslav Šulai, MBA

1. Přednáška. Ing. Miroslav Šulai, MBA N_OFI_2 1. Přednáška Počet pravděpodobnosti Statistický aparát používaný ve financích Ing. Miroslav Šulai, MBA 1 Počet pravděpodobnosti -náhodné veličiny 2 Počet pravděpodobnosti -náhodné veličiny 3 Jevy

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I Příklad Tahová síla papíru používaného pro výrobu potravinových sáčků je důležitá charakteristika kvality. Je známo, že síla

Více

Pravděpodobnost a statistika (BI-PST) Cvičení č. 9

Pravděpodobnost a statistika (BI-PST) Cvičení č. 9 Pravděpodobnost a statistika (BI-PST) Cvičení č. 9 R. Blažek, M. Jiřina, J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení

Více

Pravděpodobnostní algoritmy

Pravděpodobnostní algoritmy Pravděpodobnostní algoritmy 17. a 18. přednáška z kryptografie Alena Gollová 1/31 Obsah 1 Diskrétní rozdělení náhodné veličiny Algoritmus Generate and Test 2 Alena Gollová 2/31 Diskrétní rozdělení náhodné

Více

Markovské procesy. příklad: diabetický pacient, hladina inzulinu, léky, jídlo

Markovské procesy. příklad: diabetický pacient, hladina inzulinu, léky, jídlo Pravděpodobnostní usuzování v čase Markovské procesy příklad: diabetický pacient, hladina inzulinu, léky, jídlo předpokládáme, že se množina možných stavů S nemění v průběhu času předpokládáme diskrétní

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).

Více

Bodové odhady parametrů a výstupů

Bodové odhady parametrů a výstupů Bodové odhady parametrů a výstupů 26. listopadu 2013 Máme rozdělení s neznámými parametry a chceme odhadnout jeden nebo několik příštích výstupů. Již víme, že úplnou informaci v této situaci nese sdružené

Více

Interpolace, ortogonální polynomy, Gaussova kvadratura

Interpolace, ortogonální polynomy, Gaussova kvadratura Interpolace, ortogonální polynomy, Gaussova kvadratura Petr Tichý 20. listopadu 2013 1 Úloha Lagrangeovy interpolace Dán omezený uzavřený interval [a, b] a v něm n + 1 různých bodů x 0, x 1,..., x n. Nechť

Více

Zpracování digitalizovaného obrazu (ZDO) - Popisy III

Zpracování digitalizovaného obrazu (ZDO) - Popisy III Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování

Více

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné

Více

Normální (Gaussovo) rozdělení

Normální (Gaussovo) rozdělení Normální (Gaussovo) rozdělení f x = 1 2 exp x 2 2 2 f(x) je funkce hustoty pravděpodobnosti, symetrická vůči poloze maxima x = μ μ střední hodnota σ směrodatná odchylka (tzv. pološířka křivky mezi inflexními

Více

Odhady - Sdružené rozdělení pravděpodobnosti

Odhady - Sdružené rozdělení pravděpodobnosti Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy

Více

Klasifikace a rozpoznávání. Extrakce příznaků

Klasifikace a rozpoznávání. Extrakce příznaků Klasifikace a rozpoznávání Extrakce příznaků Extrakce příznaků - parametrizace Poté co jsme ze snímače obdržely data která jsou relevantní pro naši klasifikační úlohu, je potřeba je přizpůsobit potřebám

Více

Vícerozměrná rozdělení

Vícerozměrná rozdělení Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.

Více

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu. Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.

Více

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny

EM algoritmus. Proč zahrnovat do modelu neznámé veličiny EM algoritmus používá se pro odhad nepozorovaných veličin. Jde o iterativní algoritmus opakující dva kroky: Estimate, který odhadne hodnoty nepozorovaných dat, a Maximize, který maximalizuje věrohodnost

Více

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní ..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X

Více

Klasifikace a rozpoznávání. Lineární klasifikátory

Klasifikace a rozpoznávání. Lineární klasifikátory Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber

Více

VK CZ.1.07/2.2.00/

VK CZ.1.07/2.2.00/ Robotika Tvorba map v robotice - MRBT 3. března 2015 Ing. František Burian Komplexní inovace studijních programů a zvyšování kvality výuky na FEKT VUT v Brně OP VK CZ.1.07/2.2.00/28.0193 v pojetí mobilní

Více

7 Další. úlohy analýzy řeči i a metody

7 Další. úlohy analýzy řeči i a metody Pokročilé metody rozpoznávánířeči Přednáška 7 Další úlohy analýzy řeči i a metody jejich řešení Výsledky rozpoznávání (slovník k 413k) frantisek_vlas 91.92( 90.18) [H= 796, D= 10, S= 60, I= 15, N=866,

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady PRAVDĚPODOBNOST A STATISTIKA Bayesovské odhady Bayesovské odhady - úvod Klasický bayesovský přístup: Klasický přístup je založen na opakování pokusech sledujeme rekvenci nastoupení zvolených jevů Bayesovský

Více

Apriorní rozdělení. Jan Kracík.

Apriorní rozdělení. Jan Kracík. Apriorní rozdělení Jan Kracík jan.kracik@vsb.cz Apriorní rozdělení Apriorní rozdělení (spolu s modelem) reprezentuje informaci o neznámém parametru θ, která je dostupná předem, tj. bez informace z dat.

Více

Stochastické diferenciální rovnice

Stochastické diferenciální rovnice KDM MFF UK, Praha Aplikace matematiky pro učitele 15.11.2011 Kermack-McKendrickův model Kermack-McKendrickův model s vakcinací Model pro nemoc s rychlým šířením a krátkou dobou léčby. Příkladem takovéto

Více

Testování statistických hypotéz

Testování statistických hypotéz Testování statistických hypotéz Michal Fusek Ústav matematiky FEKT VUT, fusekmi@feec.vutbr.cz 11. přednáška z ESMAT Michal Fusek (fusekmi@feec.vutbr.cz) 1 / 27 Obsah 1 Testování statistických hypotéz 2

Více

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin Příklady k procvičení z Matematické statistiky Poslední úprava. listopadu 207. Konvergence posloupnosti náhodných veličin. Necht X, X 2... jsou nezávislé veličiny s rovnoměrným rozdělením na [0, ]. Definujme

Více

MATEMATICKÁ STATISTIKA - XP01MST

MATEMATICKÁ STATISTIKA - XP01MST MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného

Více

STANOVENÍ SPOLEHLIVOSTI GEOTECHNICKÝCH KONSTRUKCÍ. J. Pruška, T. Parák

STANOVENÍ SPOLEHLIVOSTI GEOTECHNICKÝCH KONSTRUKCÍ. J. Pruška, T. Parák STANOVENÍ SPOLEHLIVOSTI GEOTECHNICKÝCH KONSTRUKCÍ J. Pruška, T. Parák OBSAH: 1. Co je to spolehlivost, pravděpodobnost poruchy, riziko. 2. Deterministický a pravděpodobnostní přístup k řešení problémů.

Více

Charakterizace rozdělení

Charakterizace rozdělení Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf

Více

AVDAT Mnohorozměrné metody, metody klasifikace

AVDAT Mnohorozměrné metody, metody klasifikace AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných

Více

Pokročil. Vyučující: Prof. Ing. Jan Nouza, CSc., ITE

Pokročil. Vyučující: Prof. Ing. Jan Nouza, CSc., ITE Pokročil ilé metody rozpoznávánířeči Vyučující: Prof. Ing. Jan Nouza, CSc., ITE Cíl předmětu: Seznámit se s nejmodernějšími metodami rozpoznávánířeči s využitím modulové stavebnice HTK (Hidden Model Markov

Více

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a báli jste se zeptat Jedinečnou funkcí statistiky je, že umožňuje vědci číselně vyjádřit nejistotu v jeho závěrech. (G. W. Snedecor)

Více

AVDAT Klasický lineární model, metoda nejmenších

AVDAT Klasický lineární model, metoda nejmenších AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i

Více

LPC. Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz. FIT VUT Brno. LPC Jan Černocký, ÚPGM FIT VUT Brno 1/39

LPC. Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz. FIT VUT Brno. LPC Jan Černocký, ÚPGM FIT VUT Brno 1/39 LPC Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz FIT VUT Brno LPC Jan Černocký, ÚPGM FIT VUT Brno 1/39 Plán signálový model artikulačního traktu. proč lineární predikce. odhad koeficientů filtru

Více

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B. Zkouška z předmětu KMA/PST. Anotace předmětu Náhodné jevy, pravděpodobnost, podmíněná pravděpodobnost. Nezávislé náhodné jevy. Náhodná veličina, distribuční funkce. Diskrétní a absolutně spojitá náhodná

Více

Pokročilé neparametrické metody. Klára Kubošová

Pokročilé neparametrické metody. Klára Kubošová Klára Kubošová Další typy stromů CHAID, PRIM, MARS CHAID - Chi-squared Automatic Interaction Detector G.V.Kass (1980) nebinární strom pro kategoriální proměnné. Jako kriteriální statistika pro větvení

Více

Neparametrické odhady hustoty pravděpodobnosti

Neparametrické odhady hustoty pravděpodobnosti Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické

Více

KVADRATICKÁ KALIBRACE

KVADRATICKÁ KALIBRACE Petra Širůčková, prof. RNDr. Gejza Wimmer, DrSc. Finanční matematika v praxi III. a Matematické modely a aplikace 4. 9. 2013 Osnova Kalibrace 1 Kalibrace Pojem kalibrace Cíle kalibrace Předpoklady 2 3

Více

Příklady - Bodový odhad

Příklady - Bodový odhad Příklady - odový odhad 5. října 03 Pražské metro Přijdu v pražském metru na nástupiště a tam zjistím, že metro v mém směru jelo před :30 a metro v opačném směru před 4:0. Udělejte bodový odhad, jak dlouho

Více

Definice spojité náhodné veličiny zjednodušená verze

Definice spojité náhodné veličiny zjednodušená verze Definice spojité náhodné veličiny zjednodušená verze Náhodná veličina X se nazývá spojitá, jestliže existuje nezáporná funkce f : R R taková, že pro každé a, b R { }, a < b, platí P(a < X < b) = b a f

Více

Intervalová data a výpočet některých statistik

Intervalová data a výpočet některých statistik Intervalová data a výpočet některých statistik Milan Hladík 1 Michal Černý 2 1 Katedra aplikované matematiky Matematicko-fyzikální fakulta Univerzita Karlova 2 Katedra ekonometrie Fakulta informatiky a

Více

Téma 22. Ondřej Nývlt

Téma 22. Ondřej Nývlt Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené

Více

VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY

VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY Jan Krejčí 31. srpna 2006 jkrejci@physics.ujep.cz http://physics.ujep.cz/~jkrejci Obsah 1 Přímé metody řešení soustav lineárních rovnic 3 1.1 Gaussova eliminace...............................

Více

Rovinná úloha v MKP. (mohou být i jejich derivace!): rovinná napjatost a r. deformace (stěny,... ): u, v. prostorové úlohy: u, v, w

Rovinná úloha v MKP. (mohou být i jejich derivace!): rovinná napjatost a r. deformace (stěny,... ): u, v. prostorové úlohy: u, v, w Rovinná úloha v MKP Hledané deformační veličiny viz klasická teorie pružnosti (mohou být i jejich derivace!): rovinná napjatost a r. deformace (stěny,... ): u, v desky: w, ϕ x, ϕ y prostorové úlohy: u,

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

LWS při heteroskedasticitě

LWS při heteroskedasticitě Stochastické modelování v ekonomii a financích Petr Jonáš 7. prosince 2009 Obsah 1 2 3 4 5 47 1 Předpoklad 1: Y i = X i β 0 + e i i = 1,..., n. (X i, e i) je posloupnost nezávislých nestejně rozdělených

Více

Výběrové charakteristiky a jejich rozdělení

Výběrové charakteristiky a jejich rozdělení Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový

Více

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}. VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:

Více

Aplikovaná numerická matematika - ANM

Aplikovaná numerická matematika - ANM Aplikovaná numerická matematika - ANM 3 Řešení soustav lineárních rovnic iterační metody doc Ing Róbert Lórencz, CSc České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr

Více

Základy navrhování průmyslových experimentů DOE

Základy navrhování průmyslových experimentů DOE Základy navrhování průmyslových experimentů DOE cílová hodnota V. Vícefaktoriální experimenty Gejza Dohnal střední hodnota cílová hodnota Vícefaktoriální návrhy experimentů počet faktorů: počet úrovní:

Více

KGG/STG Statistika pro geografy

KGG/STG Statistika pro geografy KGG/STG Statistika pro geografy 5. Odhady parametrů základního souboru Mgr. David Fiedor 16. března 2015 Vztahy mezi výběrovým a základním souborem Osnova 1 Úvod, pojmy Vztahy mezi výběrovým a základním

Více

7. Analýza rozptylu.

7. Analýza rozptylu. 7. Analýza rozptylu. Uvedeme obecnou ideu, která je založena na minimalizaci chyby metodou nejmenších čtverců. Nejdříve uvedeme několik základních tvrzení. Uvažujeme náhodný vektor Y = (Y, Y,..., Y n a

Více

prosince oboustranný symetrický 95% interval spolehlivosti pro střední hodnotu životnosti τ. X i. X = 1 n.. Podle CLV má veličina

prosince oboustranný symetrický 95% interval spolehlivosti pro střední hodnotu životnosti τ. X i. X = 1 n.. Podle CLV má veličina 10 cvičení z PSI 5-9 prosince 016 101 intervalový odhad Veličina X, představující životnost žárovky, má exponenciální rozdělení s parametrem τ Průměrná životnost n = 64 náhodně vybraných žárovek je x =

Více

ÚPGM FIT VUT Brno,

ÚPGM FIT VUT Brno, Náhodné signály Jan Černocký ÚPGM FIT VUT Brno, cernocky@fit.vutbr.cz 1 Náhodné signály deterministické signály (můžeme je zapsat rovnicí) mají jednu zásadní nevýhodu nesou velmi málo informace (např.

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

MATEMATICKÁ STATISTIKA.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým

Více

Hodnocení vlastností materiálů podle ČSN EN 1990, přílohy D

Hodnocení vlastností materiálů podle ČSN EN 1990, přílohy D Hodnocení vlastností materiálů podle ČSN EN 1990, přílohy D Miroslav Sýkora Kloknerův ústav, ČVUT v Praze 1. Úvod 2. Kvantil náhodné veličiny 3. Hodnocení jedné veličiny 4. Hodnocení modelu 5. Příklady

Více

LINEÁRNÍ MODELY. Zdeňka Veselá

LINEÁRNÍ MODELY. Zdeňka Veselá LINEÁRNÍ MODELY Zdeňka Veselá vesela.zdenka@vuzv.cz Genetika kvantitativních vlastností Jednotlivé geny nejsou zjistitelné ani měřitelné Efekty většího počtu genů poskytují variabilitu, kterou lze většinou

Více

Eva Fišerová a Karel Hron. Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci.

Eva Fišerová a Karel Hron. Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci. Ortogonální regrese pro 3-složkové kompoziční data využitím lineárních modelů Eva Fišerová a Karel Hron Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci

Více

1 0 0 u 22 u 23 l 31. l u11

1 0 0 u 22 u 23 l 31. l u11 LU dekompozice Jedná se o rozklad matice A na dvě trojúhelníkové matice L a U, A=LU. Matice L je dolní trojúhelníková s jedničkami na diagonále a matice U je horní trojúhelníková. a a2 a3 a 2 a 22 a 23

Více

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ

VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ VYUŽITÍ PRAVDĚPODOBNOSTNÍ METODY MONTE CARLO V SOUDNÍM INŽENÝRSTVÍ Michal Kořenář 1 Abstrakt Rozvoj výpočetní techniky v poslední době umožnil také rozvoj výpočetních metod, které nejsou založeny na bázi

Více

ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT

ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT ZS ÚTIA - ZOI zoi.utia.cas.cz Kontakty Ústav teorie informace a automatizace AV ČR, v.v.i. http://www.utia.cas.cz Zpracování obrazové informace http://zoi.utia.cas.cz

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

Základy teorie odhadu parametrů bodový odhad

Základy teorie odhadu parametrů bodový odhad Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Odhady parametrů Úkolem výběrového šetření je podat informaci o neznámé hodnotě charakteristiky základního souboru

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota závisí nějakým způsobem na vstupní, je její funkcí = f(x). Pokud

Více

Semestrální práce: Rozpoznání hláskované řeči a převedení na text

Semestrální práce: Rozpoznání hláskované řeči a převedení na text VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ Fakulta strojního inženýrství Ústav mechaniky těles, mechatroniky a biomechaniky Technická 2, Brno 616 69 RSZ Základy zpracování signálu Semestrální práce: Rozpoznání hláskované

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

Odhad parametrů N(µ, σ 2 )

Odhad parametrů N(µ, σ 2 ) Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný

Více

Příklady ke čtvrtému testu - Pravděpodobnost

Příklady ke čtvrtému testu - Pravděpodobnost Příklady ke čtvrtému testu - Pravděpodobnost 6. dubna 0 Instrukce: Projděte si všechny příklady. Každý příklad se snažte pochopit. Pak vymyslete a vyřešte příklad podobný. Tím se ujistíte, že příkladu

Více

Základy biostatistiky II. Veřejné zdravotnictví 3.LF UK - II

Základy biostatistiky II. Veřejné zdravotnictví 3.LF UK - II Základy biostatistiky II Veřejné zdravotnictví 3.LF UK - II Teoretické rozložení-matematické modely rozložení Naměřená data Výběrové rozložení Teoretické rozložení 1 e 2 x 2 Teoretické rozložení-matematické

Více

Náhodné vektory a matice

Náhodné vektory a matice Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane

Více

Náhodné chyby přímých měření

Náhodné chyby přímých měření Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.

Více

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou

Více

Zápočtová písemka z Matematiky III (BA04) skupina A

Zápočtová písemka z Matematiky III (BA04) skupina A skupina A 0 pro x < 1, ae x pro x 1, ), Pravděpodobnost P (X ) a P (X =.). E (X) a E ( X 1). Hustotu transformované náhodné veličiny Y = (X + 1). F(x) = x 3 pro x (0, 9), Hustotu f(x). Pravděpodobnost

Více

Určujeme neznámé hodnoty parametru základního souboru. Pomocí výběrové charakteristiky vypočtené z náhodného výběru.

Určujeme neznámé hodnoty parametru základního souboru. Pomocí výběrové charakteristiky vypočtené z náhodného výběru. 1 Statistické odhady Určujeme neznámé hodnoty parametru základního souboru. Pomocí výběrové charakteristiky vypočtené z náhodného výběru. Odhad lze provést jako: Bodový odhad o Jedna číselná hodnota Intervalový

Více

Numerická stabilita algoritmů

Numerická stabilita algoritmů Numerická stabilita algoritmů Petr Tichý 9. října 2013 1 Numerická stabilita algoritmů Pravidla v konečné aritmetice Pro počítání v konečné aritmetice počítače platí určitá pravidla, která jsou důležitá

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

Vlastnosti odhadů ukazatelů způsobilosti

Vlastnosti odhadů ukazatelů způsobilosti Vlastnosti odhadů ukazatelů způsobilosti Jiří Michálek CQR při Ústavu teorie informace a automatizace AV ČR v Praze Úvod Ve výzkumné zprávě č 06 Odhady koeficientů způsobilosti a jejich vlastnosti viz

Více

A6M33SSL: Statistika a spolehlivost v lékařství Teorie spolehlivosti

A6M33SSL: Statistika a spolehlivost v lékařství Teorie spolehlivosti A6M33SSL: Statistika a spolehlivost v lékařství Teorie spolehlivosti Vojta Vonásek vonasek@labe.felk.cvut.cz České vysoké učení technické v Praze Fakulta elektrotechnická Katedra kybernetiky Markovovy

Více

ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT

ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT ROZ II cv. 01 Dekonvoluce KM - FJFI - ČVUT ZS 2013 ÚTIA - ZOI zoi.utia.cas.cz Kontakty Ústav teorie informace a automatizace AV ČR, v.v.i. http://www.utia.cas.cz Zpracování obrazové informace http://zoi.utia.cas.cz

Více

Aplikovaná numerická matematika

Aplikovaná numerická matematika Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních

Více