NEPARAMETRICKÁ DISKRIMINAČNÍ ANALÝZA

Rozměr: px
Začít zobrazení ze stránky:

Download "NEPARAMETRICKÁ DISKRIMINAČNÍ ANALÝZA"

Transkript

1 ROBUST, 5 58 c JČMF NEPARAMETRICKÁ DISKRIMINAČNÍ ANALÝZA MARIE FORBELSKÁ Abstrakt. In the paper the attention is focused to the application of kernel density estimators to statistical discrimination. After a brief description of the discriminant analysis problem the nonparametric approach to discriminant analysis is described. The multivariate product polynomial kernels with data-driven choices of the bandwidth are used for density estimators and this nonparametric approach are compared with classical one by some simulated data. Rezme: Cel~ to$i stat~i kasaets priloeni ocenki plotnosti verotnosti pri pomoxi der v diskriminantnom analizu. Vstat~e snaqala rassmatrivats lementarnye svedeni po diskriminantnomu analizu i potom issleduets neparametriqeski$i podhod pri pomoxi mnogomernyh polinomial~nyh der, postroennyh kak proizvedenie odnomernyh der, vmeste savtomatiqeskim vyborom optimal~nogosglaivawego parametra. Parametriqeski$i i neparametriqeski$i podhody srovnivats pri pomoxi imitiruwih dannyh.. Podstata diskriminační analýzy Uvažujme danou množinu n objektů, označme ji S a předpokládejme, že S je tvořená objekty k různých typů. Budeme říkat, že objekt patří do třídy S j, je-li typu j (j =,...,k. OtřídáchS j budeme předpokládat, že jsou po dvou disjunktnía S = k j= S j. Na každém objektu zjišťujeme dva statistické znaky X a Y. X určuje příslušnost objektu do dané třídy, je to diskrétní náhodná veličina a X = j právě když daný objekt patřído třídy S j, j =,...,k. Y = (Y,,Y m je m-rozměrný náhodný vektor, který nějak charakterizuje příslušnou třídu objektů. Označme dále (X i, Y i hodnoty znaků X a Y na i-tém objektu a předpokládejme, že (X i, Y i jsou nezávislé náhodné vektory, které tvořínáhodný výběr z rozdělení náhodného vektoru (X, Y. Cílem diskriminační analýzy je stanovit na základě daného náhodného výběru optimálníklasifikačnípravidlo, které by při pozorovánívektoruy na nějakém daném objektu, který již nepatřído třídy S, umožnilo jeho zařazení do příslušné třídy s minimálníztrátou. Při konstrukci takového klasifikačního pravidla vyjdeme z úplného rozkladu S = {S,...,S k } prostoru R m možných hodnot vektoru Y do k disjunktních tříd S,...,S k. Když na uvažovaném objektu zjistíme hodnotu znaku Y, která patří do třídy S j, rozhodneme, že tento objekt patřído třídy S j. S užitím tohoto klasifikačního pravidla spojíme ztrátu, která bude způsobena chybnou klasifikací objektu. Je-li daný objekt charakterizován vektorem (X, Y a máme-li klasifikačnípravidlo dané rozkladem S, pak příslušnou ztrátu definujeme jako transformovanou diskrétní Mathematics Subject Classification. Primary 6H; Secondary C. Klíčová slova. Lineární a kvadratická diskriminační analýza, neparametrická diskriminační analýza, jádrové odhady hustot, součinová jádra. Příspěvek vznikl s podporou výzkumného záměru MŠMT, CEZ: J7/98:.

2 Neparametrická diskriminační analýza 5 náhodnou veličinu Z S danou předpisem Z S = Z S (X, Y =z jl pokud X = j a Y S l l, j =,...,k, kde z jl jsou daná reálná čísla, charakterizující reálnou ztrátu při zařazení objektu ze třídy S j do třídy S l. V diskriminačníanalýze se často volíz ll =az jl =, l, j =,...,k; l j. Klasifikačnípravidlo, které minimalizuje středníhodnotu ztráty, pak nazýváme optimálním. Abychom odvodili optimální klasifikační pravidlo, vyjdeme z následujících předpokladů a značení. Nechť náhodný vektor (X, Y definovaný na nějakém pravděpodobnostním prostoru (Ω, A,P má hustotu f XY (j, y vzhledem k součinové míře = ν X Y, kde ν X je čítací míra a Y je Lebesquova míra, přičemž tato hustota je tvaru f XY (j, y =p j f j (y, j =,...,k, y R m, p + + p k =, p j > af j (y pro každé j =,...,k je hustota rozdělenípravděpodobnostívzhledem k Lebesquově míře. Zřejmě f j (y je podmíněná hustota Y, kdyžx = j. Pak náhodná veličina X má marginálnípravděpodobnostnífunkci P (X = j =p j (j =,...,k a marginálnírozdělenípravděpodobnostíu náhodného vektoru Y je dáno hustotou f Y (y = k j= p jf j (y, y R m. Tedy v uvedeném značenímá ztráta Z S pravděpodobnostnífunkci tvaru p ZS (j, l =P (X = j, Y S l = S l p j f j (yd Y (y, l, j =,...,k. Snadno nahlédneme, že k l= z jlp (Z S = z jl = k E(Z S =L S = k k j= j= l= z jlp (X = j, Y S l = = k k j= l= z jlp ZS (j, l = k k j= i=l z jl S l p j f j (yd Y (y = = k k l= j= z jl S l p j f j (yd Y (y = k k l= S l j= z jlp j f j (yd Y (y Funkci q l (y = k j= z jlp j f j (y nazvemel-tý skór vektoru Y a při konstrukci klasifikačního pravidla hraje centrální roli. Cílem nyní je určit optimální úplný rozklad S = {S,...,S k } m-rozměrného euklidovského prostoru R m tak, aby středníhodnota ztráty E(Z S byla minimální Důležitou roli hraje následující lemma (viz. []. Lemma.. Nechť S = {S,...,S k } je takový rozklad Rm,žepro t {,...,k} platí (. y S t q t (y q j (y, j =,...,k. Pak tento rozklad minimalizuje E(Z S, tj. označíme-li L = E(Z S = k i= S q i (yd Y (y, i pak platí L S = E(Z S L = E(Z S pro každý rozklad S. Důkaz. L = E(Z S = k l= S l q l (yd Y (y = k k l= t= S l S q l (yd Y (y t k k l= t= q t (yd Y (y = k t= q t (yd Y (y =E(Z S =L S l S t Je zřejmé, že hodnota L je stejná pro všechny rozklady splňující podmínku předchozího lemmatu. Z lemmatu. plyne, že klasifikační pravidlo dané rozkladem (. je optimální. Pokud tedy při daném Y = y pro všechna j t platí q t (y <q j (y, pak optimálním rozhodnutím je zařadit daný objekt do t-té třídy. V případě, že v předchozím vzorci platí rovnost i pro další j(j t, je lhostejné, podle kterého pravidla budeme z těchto minimalizujících indexů vybírat. S t

3 5 Marie Forbelská Při volbě z ll = a z jl =, l,j =,...,k, l j, kdy q l (y = k p j f j (y p l f l (y =f Y (y p l f l (y, j= snadno dostaneme dalšíekvivalentníoptimální klasifikační pravidlo založené na nerovnosti (. p t f t (y p j f j (y pro j =,...,k.. Rozhodovací pravidla v případě normálních rozdělení V tomto odstavci budeme předpokládat, že podmíněné rozdělení náhodného vektoru Y za podmínky, že X =j, je m-rozměrné normálnírozdělenín m ( j, V j se známým vektorem středních hodnot E(Y X =j = j a známou variančnímaticí var(y X = j =V j (j =,...,k. Pak hustota tohoto podmíněného rozdělení je dána vzorcem [ f j (y =(π m Vj exp ] (y j V j (y j. Klasifikačnípravidlo (. lze v tomto případě vyjádřit jako log p t +logf t (y > log p j +logf j (y, j =,...,k, j t. Označme D j = log V j (y j Vj (y j +logp j. Pak klasifikačnípravidlo (. odpovídá (. D t >D j, j =,...,k, j t. Diskriminačnímetoda založená na nerovnosti (. se nazývá kvadratická diskriminační analýza. Pokudjsousivšechny varianční matice rovny, tj.v = = V k = V, potom D j = log V (y j V (y j +logp j = = log V +logp j y V y + y V j j V j Označme d j = y V j j V j +logp j. Pak D j = d j log V y V y a klasifikační pravidlo (. je v tomto speciálním případě ekvivalentní s nerovností (. d t >d j, j =,...,k, j t. Diskriminačnímetoda založená na nerovnosti (. se nazývá lineární diskriminační analýza.. Diskriminace z experimentálních dat Při praktickém prováděnídiskriminačníanalýzy máme k dispozici k souborů objektů, přičemž víme, který objekt do které třídy patří. Těmto souborům se někdy říká trénovací. Počet objektů v j-tém souboru označme n j a realizace vektoru Y v j-tém souboru označme y j,...,y jnj. Mějmedálerealizaciy R m náhodného vektoru Y, o které nevíme, odkud pochází. Protože obvykle neznáme rozdělenínáhodného vektoru (X, Y, pak se při klasifikaci neznámého objektu nabízí dva možné přístupy :

4 Neparametrická diskriminační analýza 5 Parametrický přístup: Předpokládáme, že podmíněné rozdělení náhodného vektoru Y za podmínky, že X = j, je normální. V konkrétních situacích obvykle neznáme vektory středních hodnot,..., k a variančnímatice V,...,V k. K dispozici však máme trénovacísoubory a pomocínich určíme ȳ j = nj n j i= y ji, C j = n j i= (y ji ȳ j (y ji ȳ j n, ˆp j = j n + +n k. Jestliže vektor j odhadneme vektorem ȳ j,maticiv j maticí ˆV j = n C j j aapriornípravděpodobnost p j relativníčetnostíˆp j, můžeme pro zařazeníobjektu, jehož příslušnost nepoznáme, použít postupy předchozího odstavce tak, že neznámé parametry nahradíme jejich odhady. Neparametrický přístup: Nebudeme předpokládat určitý typ podmíněného rozdělenívektoru Y za podmínky, že X=j, ale pomocítrénovacích dat odhadneme neznámé podmíněné hustoty f j (y. Přirozeně se nabízí použít neparametrické metody odhadu hustot, např. jádrové odhady hustoty, odhady hustoty pomocík nejbližších sousedů a další(viz. [7]. Pro zařazeníobjektu, jehož příslušnost nepoznáme, potom použijeme rozhodovací pravidlo (. s tím, že neznámé podmíněné hustoty f j (y nahradíme neparametrickým odhadem ˆf j (y a apriornípravděpodobnost p j n relativníčetnostíˆp j = j n + +n k. Dostaneme tak rozhodovací pravidlo: realizaci y zařadíme do t-té skupiny, pokud pro všechna j t bude platit ˆp t ˆft (y ˆp j ˆfj (y. Obvykle, před zařazováním nových objektů, ověříme klasifikační proceduru na samotných objektech z trénovacích souborů a registrujeme procento nesprávných zatřídění. Jestliže soubor trénovacích dat neumožňuje vytvořit spolehlivou klasifikační proceduru ani pro trénovacídata samotná, nelze samozřejmě klasifikaci realizovat.. Jádrové odhady použité v neparametrické diskriminační analýze V tomto odstavci zavedeme jednorozměrná (resp. vícerozměrná jádra pro odhad hustoty pravděpodobnosti náhodných veličin (resp. náhodných vektorů a popíšeme speciálnítypy jader, která budou použita pro neparametrickou diskriminaci. Nechť y,...,y n jsou nezávislá pozorovánínáhodné veličiny Y s hustotou f(y. Jádrem rozumíme libovolnou funkci K : (R, B (, +, jež je symetrická, ohraničená a pro niž (. K(ydy =, a lim y K(y =, y ± Nechť {h n } n= je posloupnost kladných čísel taková, že lim n h n =, lim n nh n = a K(y jeněkteréjádro. Jádrový odhad hustoty je definován vztahem (viz. [] a [5]. (. ˆfn (y = n ( y yi K y R. nh n h i= n Velká pozornost musíbýt věnována volbě nejvhodnější konstanty h n, tzv. šířce okna, neboť podstatným způsobem ovlivňuje kvalitu odhadu. Pro optimální volbu parametru h n je třeba provést také odhad derivace funkce f (viz. [7] a [8]. Symbolem C k označme množinu všech k -krát spojitě diferencovatelných reálných funkcí, kde k > je celé číslo. Jsou-li navíc tyto funkce nulové vně intervalu [, ], označme množinu těchto funkcísymbolem C k [, ]. Nechť y,...,y n jsou nezávislá pozorovánínáhodné veličiny Y s hustotou f(y C k. Jádrový odhad derivace f (ν pro pevné ν < k je definován

5 5 Marie Forbelská vztahem (ν (. ˆf h,k (y = n ( y yi nh ν+ K. h i= Označme Lip[a, b] třídu spojitých funkcí splňujících Lipschitzovu podmínku na [a, b]: f(x f(y L x y x, y [a, b], L >. Nechť ν, k jsou nezáporná celá čísla, ν<k<k ajádrok Lip[, ], přičemž nosič jádra support(k [, ]. Nechť K splňuje následující momentové podmínky j<k,j ν (. x j K(xdx = ( ν ν! j = ν β k j = k pak říkáme, že jádro K je řádu (ν, k apíšemek Sν,k. Pro nechťk C [, ], K Sν,k. Navíc nechť platí K(j (=K (j ( =, j =,,...,, ν k aν + k je sudé. Pak takové jádro se nazývá jádro hladkosti apíšemek S ν,k. Příkladem jádra S, je Epanečnikovo jádro, S, kvartické (biweight jádro a S, triweight jádro (viz. []. ( V práci použijeme jádra : Epanečnikovo K(y = y I [,] (y kvartické(biweight K(y = 5 6 ( y I [,] (y triweight K(y = 5 ( y I [,] (y { y [a, b] kde I [a,b] (y = (viz. obrázek. jinak Epan. biweight triweight S : ν= k= = ν,k S ν,k : ν= k= = S ν,k : ν= k= = K(y=/ ( y I [,] (y.5.5 K(y=5/6 ( y I [,] (y.5.5 K(y=5/ ( y I [,] (y Obrázek : Ukázka jader typu K S ν,k Pro optimálnívolbu šířky okna tohoto typu jader použijeme algoritmus, který je popsán v práci []. Pro odhad hustoty pravděpodobnosti náhodných vektorů jsou definovány vícerozměrné jádrové odhady vztahem n ( y y i (.5 ˆfn (y = K,, y m y im, nh...h m h h m i= kde y =(y,...,y m,...,y n =(y n,...,y nm je náhodný výběr z m-rozměrného spojitého rozdělenío hustotě f(y, y =(y,...,y m R m.

6 .6 Neparametrická diskriminační analýza 55 V dalším budeme používat jako jádro m-proměnných tzv. součinové jádro, které je součinem m jader jedné proměnné, tj. n m ( yj y ij (.6 ˆfn (y = K, nh...h m h i= j= j kde K S ν,k, přičemž opět využijeme algoritmus automatického vyhledáváníoptimálníšířky oken pro tento typ jader (viz. []. 5. Srovnání parametrické a neparametrické diskriminace Srovnáníparametrické a neparametrické diskriminace je provedeno na simulovaných datech ze směsi normálních rozdělení: (5. f a (y,y = k f aj (y,y = k ( exp k k j= j= πσ j σ j ρ q j(y,y j kde q j (y,y = ρ j azesměsihustot: [ (y ( ( j y j y j ρ j σ j (5. f b (y,y = k kde f bj (y,y = π σ j k f bj (y,y j= σ j + ( ] y j ( ρ j (y j + exp ( (y j +(y j (y j +(y j σ j. Příklady směsí typu (5. a (5. pro k = jsou uvedeny na obrázku a výsledky diskriminace těchto směsíjsou demonstrovány na obrázcích a. Pro generování pseudonáhodných čísel z rozdělení typu (5. byl použit algoritmus doporučený v [6]. Normal Mixture: f a (y,y =.5 f a (y,y +.5 f a (y,y Nonnormal mixture: f b (y,y =.5 f b (y,y +.5 f b (y,y n = n = Obrázek : Simulovaná data spolu s vrstevnicovými grafy funkcí f a (x, y a f b (x, y sparametry: a =; a =; σ =; σ =.5; ρ a =.5; a =; a =.5; σ = ; σ =; ρa =.5 ab =; b =.75; ρb =.5; b =.5; b =; ρb =.5.

7 . 56 Marie Forbelská linear discrimination analysis quadratic discrimination analysis var.5.5 var.6 var kernel discrimination analysis: S ν,k ν=, k=, = var kernel discrimination analysis: S ν,k ν=, k=, =. var... var var kernel discrimination analysis: S ν,k ν=, k=, =...5 var M I S C L A S S I F I C A T I O N in % method group group all lin.discr quad.discr.... var S k.discr....5 S k.discr....5 S k.discr var Markers: Misclassification group n= group n= Obrázek : Srovnání parametrické a neparametrické diskriminace s užitím jader typu K S ν,k (ν=,k=,=,, pro simulovaná data ze směsi f a(x, y normálních rozdělení. linear discrimination analysis quadratic discrimination analysis var. var... var kernel discrimination analysis: S ν,k ν=, k=, = var kernel discrimination analysis: S ν,k ν=, k=, = var..5.5 var.5 var kernel discrimination analysis: S ν,k ν=, k=, = var M I S C L A S S I F I C A T I O N in % method group group all lin.discr var quad.discr.... S k.discr.... S k.discr.... S k.discr Markers: Misclassification var group n= group n= Obrázek : Srovnání parametrické a neparametrické diskriminace s užitím jader typu K S ν,k (ν=,k=,=,, pro simulovaná data ze směsi f b(x, y.

8 Neparametrická diskriminační analýza 57 Bylo provedeno simulacínormálních směsítypu (5. (viz. řádky až na obrázku 5 a 8 simulacísměsíhustot typu (5. (viz. řádky 5 až na obrázku 5, kdy se měnily parametry polohy a měřítka hustot, velikost a počet skupin. Normal and Nonnormal Mixtures Group Group Group Misclassification in % V V V class.methods kernel methods σ σ ρ n σ σ ρ n σ σ ρ n lin. quad. S S S Obrázek 5: Tabulka parametrů simulovaných dat spolu s celkovým procentem nesprávně klasifikovaných objektů pro klasické i neparametrické metody diskriminace. Výsledky srovnáníneparametrické diskriminace s lineárnía kvadratickou diskriminacíjsou uvedeny v tabulkách na obrázku 6, kde znaménka po řadě +, = a - značílepší, stejné a horšívýsledky neparametrické diskriminace vůči klasickým metodám na základě celkového procenta špatně klasifikovaných objektů.

9 58 Marie Forbelská Pomocísimulacíse ukázalo, že neparametrická diskriminace založená na jádrech S, dává nejlepšívýsledky, o něco horšíneparametrická diskriminace založená na jádrech S, a výrazně horšívýsledky dosahuje neparametrická diskriminace založená na jádrech S, (v důsledku příliš širokých vyhlazovacích oken poskytnutých algoritmem popsáným v práci []. Pro tyto prvotnísimulace se tedy ukazuje, že neparametrická diskriminace, tak jak je popsaná v předchozím odstavci, může být srovnatelnou náhradou klasické diskriminace dokonce i v případě normálních směsí a může být užitečná v situacích, kdy nenídostatečná informace o typu rozděleníve směsi. Normal Mixtures method lin.discr. quad.discr. + = + = S k.discr S k.discr S k.discr Nonnormal Mixtures method lin.discr. quad.discr. + = + = S k.discr S k.discr S k.discr Obrázek 6: Tabulky srovnání parametrické a neparametrické diskriminace (hodnoty jsou uvedeny v %. Literatura [] Anděl, J.: Matematická statistika. SNTL/ALFA. Praha 978 [] Antoch, J.,Vorlíčková, D.: Vybrané metody statistické analýzy dat. Academia, Praha 99 [] Horová, I.: Optimatization Problems Connected with Kernel Smoothing, Signal Processing, Communications and Computer Science World. Scientific and Engineering Press, str [] Horová, I., Vieu, P. Zelinka, J.: Optimal Choice of Nonparametric Estimates of a Density and of its Derivates, zasláno k tisku [5] Michálek, J.:Kernel estimators - basic properties and optimal choice of parameters for estimation. Proceedings ROBUST 9. Prague, 99. [6] Nachtsheim, Ch.,J, Johnson, M.,E.:A New Family of Multivariate Distributions With Applications to Monte Carlo Studies. Journal of the American Statistical Association, Volume 8, Issue (Dec.,988, [7] Silverman, B. W.: Density Estimation for Statistics and Data Analysis. Chapman and Hall, New York, 99. [8] Wand, I.P. and Jones, I.C.: Kernel Smoothing. Chapman & Hall, London 995 MU PřF, KAM, Janáčkovo nám. a, Brno forbel@math.muni.cz

ACTA UNIVERSITATIS AGRICULTURAE ET SILVICULTURAE MENDELIANAE BRUNENSIS SBORNÍK MENDELOVY ZEMĚDĚLSKÉ A LESNICKÉ UNIVERZITY V BRNĚ

ACTA UNIVERSITATIS AGRICULTURAE ET SILVICULTURAE MENDELIANAE BRUNENSIS SBORNÍK MENDELOVY ZEMĚDĚLSKÉ A LESNICKÉ UNIVERZITY V BRNĚ ACTA UNIVERSITATIS AGRICULTURAE ET SILVICULTURAE MENDELIANAE BRUNENSIS SBORNÍK MENDELOVY ZEMĚDĚLSKÉ A LESNICKÉ UNIVERZITY V BRNĚ Ročník LII 6 Číslo 3, 2004 Gasser-Müllerův odhad J. Poměnková Došlo: 8.

Více

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně 7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností

Více

Ústav matematiky a statistiky Masarykova univerzita Brno. workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí

Ústav matematiky a statistiky Masarykova univerzita Brno. workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí Ústav matematiky a statistiky Masarykova univerzita Brno workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí 3. 6. září 2013 Obsah 1 2 3 4 y Motivace y 10 0 10 20 30 40 0 5

Více

Náhodný vektor a jeho charakteristiky

Náhodný vektor a jeho charakteristiky Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich

Více

AVDAT Mnohorozměrné metody, metody klasifikace

AVDAT Mnohorozměrné metody, metody klasifikace AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).

Více

Statistika II. Jiří Neubauer

Statistika II. Jiří Neubauer Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Zaměříme se především na popis dvourozměrných náhodných veličin (vektorů). Definice Nechť X a Y jsou

Více

NMAI059 Pravděpodobnost a statistika

NMAI059 Pravděpodobnost a statistika NMAI059 Pravděpodobnost a statistika podle přednášky Daniela Hlubinky (hlubinka@karlin.mff.cuni.cz) zapsal Pavel Obdržálek (pobdr@matfyz.cz) 205/20 poslední změna: 4. prosince 205 . přednáška. 0. 205 )

Více

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u

Více

10. N á h o d n ý v e k t o r

10. N á h o d n ý v e k t o r 10. N á h o d n ý v e k t o r 10.1. Definice: Náhodný vektor. Uspořádanou n tici (X 1, X 2,..., X n ) náhodných veličin X i, 1 i n, nazýváme náhodným vektorem. Poznámka: Pro jednoduchost budeme zavádět

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota závisí nějakým způsobem na vstupní, je její funkcí = f(x). Pokud

Více

TOPOLOGIE A TEORIE KATEGORIÍ (2017/2018) 4. PREDNÁŠKA - SOUČIN PROSTORŮ A TICHONOVOVA VĚTA.

TOPOLOGIE A TEORIE KATEGORIÍ (2017/2018) 4. PREDNÁŠKA - SOUČIN PROSTORŮ A TICHONOVOVA VĚTA. TOPOLOGIE A TEORIE KATEGORIÍ (2017/2018) 4. PREDNÁŠKA - SOUČIN PROSTORŮ A TICHONOVOVA VĚTA. PAVEL RŮŽIČKA 4.1. (Kvazi)kompaktnost a sub-báze. Buď (Q, ) uspořádaná množina. Řetězcem v Q budeme rozumět lineárně

Více

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení

2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení 2 Zpracování naměřených dat Důležitou součástí každé experimentální práce je statistické zpracování naměřených dat. V této krátké kapitole se budeme věnovat určení intervalů spolehlivosti získaných výsledků

Více

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y) 5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =

Více

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní ..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X

Více

Markovské metody pro modelování pravděpodobnosti

Markovské metody pro modelování pravděpodobnosti Markovské metody pro modelování pravděpodobnosti rizikových stavů 1 Markovský řetězec Budeme uvažovat náhodný proces s diskrétním časem (náhodnou posloupnost) X(t), t T {0, 1, 2,... } s konečnou množinou

Více

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}. VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:

Více

MATEMATIKA MEZI... ANEB NĚCO MÁLO O DISKRIMINACI

MATEMATIKA MEZI... ANEB NĚCO MÁLO O DISKRIMINACI ROBUST 2000, 119 124 c JČMF 2001 MATEMATIKA MEZI... ANEB NĚCO MÁLO O DISKRIMINACI ARNOŠT KOMÁREK Abstrakt. If somebody wants to distinguish objects from two groups,he can use a statistical model to achieve

Více

METRICKÉ A NORMOVANÉ PROSTORY

METRICKÉ A NORMOVANÉ PROSTORY PŘEDNÁŠKA 1 METRICKÉ A NORMOVANÉ PROSTORY 1.1 Prostor R n a jeho podmnožiny Připomeňme, že prostorem R n rozumíme množinu uspořádaných n tic reálných čísel, tj. R n = R } R {{ R }. n krát Prvky R n budeme

Více

V předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti

V předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti Kapitola 5 Vektorové prostory V předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti operací sčítání a násobení

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé.

Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé. 1. Korelační analýza V životě většinou nesledujeme pouze jeden statistický znak. Sledujeme více statistických znaků zároveň. Kromě vlastností statistických znaků nás zajímá také jejich těsnost (velikost,

Více

Lineární klasifikátory

Lineární klasifikátory Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1

9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1 9 přednáška 6 listopadu 007 Věta 11 Nechť f C U, kde U R m je otevřená množina, a a U je bod Pokud fa 0, nemá f v a ani neostrý lokální extrém Pokud fa = 0 a H f a je pozitivně negativně definitní, potom

Více

Pravděpodobnost a aplikovaná statistika

Pravděpodobnost a aplikovaná statistika Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristik často potřebujeme všetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

LWS při heteroskedasticitě

LWS při heteroskedasticitě Stochastické modelování v ekonomii a financích Petr Jonáš 7. prosince 2009 Obsah 1 2 3 4 5 47 1 Předpoklad 1: Y i = X i β 0 + e i i = 1,..., n. (X i, e i) je posloupnost nezávislých nestejně rozdělených

Více

Lineární algebra : Metrická geometrie

Lineární algebra : Metrická geometrie Lineární algebra : Metrická geometrie (16. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 6. května 2014, 10:42 1 2 Úvod Zatím jsme se lineární geometrii věnovali v kapitole o lineárních

Více

Téma 22. Ondřej Nývlt

Téma 22. Ondřej Nývlt Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené

Více

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných

Více

Definice 1.1. Nechť je M množina. Funkci ρ : M M R nazveme metrikou, jestliže má následující vlastnosti:

Definice 1.1. Nechť je M množina. Funkci ρ : M M R nazveme metrikou, jestliže má následující vlastnosti: Přednáška 1. Definice 1.1. Nechť je množina. Funkci ρ : R nazveme metrikou, jestliže má následující vlastnosti: (1 pro každé x je ρ(x, x = 0; (2 pro každé x, y, x y, je ρ(x, y = ρ(y, x > 0; (3 pro každé

Více

Obyčejnými diferenciálními rovnicemi (ODR) budeme nazývat rovnice, ve kterých

Obyčejnými diferenciálními rovnicemi (ODR) budeme nazývat rovnice, ve kterých Obyčejné diferenciální rovnice Obyčejnými diferenciálními rovnicemi (ODR) budeme nazývat rovnice, ve kterých se vyskytují derivace neznámé funkce jedné reálné proměnné. Příklad. Bud dána funkce f : R R.

Více

2 Hlavní charakteristiky v analýze přežití

2 Hlavní charakteristiky v analýze přežití 2 Hlavní charakteristiky v analýze přežití Předpokládané výstupy z výuky: 1. Student umí definovat funkci přežití, rizikovou funkci a kumulativní rizikovou funkci a zná funkční vazby mezi nimi 2. Student

Více

Klasická a robustní ortogonální regrese mezi složkami kompozice

Klasická a robustní ortogonální regrese mezi složkami kompozice Klasická a robustní ortogonální regrese mezi složkami kompozice K. Hrůzová, V. Todorov, K. Hron, P. Filzmoser 13. září 2016 Kompoziční data kladná reálná čísla nesoucí pouze relativní informaci, x = (x

Více

Otázku, kterými body prochází větev implicitní funkce řeší následující věta.

Otázku, kterými body prochází větev implicitní funkce řeší následující věta. 1 Implicitní funkce Implicitní funkce nejsou funkce ve smyslu definice, že funkce bodu z definičního oboru D přiřadí právě jednu hodnotu z oboru hodnot H. Přesnější termín je funkce zadaná implicitně.

Více

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

MATEMATICKÁ STATISTIKA.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým

Více

Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda

Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Předmět: MA 4 Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Četba: Text o lineární algebře v Příručce přežití na webových

Více

Kapitola 11: Vektory a matice 1/19

Kapitola 11: Vektory a matice 1/19 Kapitola 11: Vektory a matice 1/19 2/19 Prostor R n R n = {(x 1,..., x n ) x i R, i = 1,..., n}, n N x = (x 1,..., x n ) R n se nazývá vektor x i je i-tá souřadnice vektoru x rovnost vektorů: x = y i =

Více

NÁHODNÝ VEKTOR. 4. cvičení

NÁHODNÝ VEKTOR. 4. cvičení NÁHODNÝ VEKTOR 4. cvičení Náhodný vektor Náhodným vektorem rozumíme sloupcový vektor X=(X, X,, X n ) složený z náhodných veličin X, X,, X n, který je charakterizován sdruženým rozdělením pravděpodobnosti.

Více

u Pacova Metoda pro validaci koncentrace přízemního ozónu kontinuálně měřené na Atmosférické 1 / 23sta

u Pacova Metoda pro validaci koncentrace přízemního ozónu kontinuálně měřené na Atmosférické 1 / 23sta koncentrace přízemního ozónu kontinuálně měřené na Atmosférické stanici Křešín u Pacova Metoda pro validaci koncentrace přízemního ozónu kontinuálně měřené na Atmosférické 1 / 23sta Obsah Měření Kvalita

Více

Interpolace Uvažujme třídu funkcí jedné proměnné ψ(x; a 0,..., a n ), kde a 0,..., a n jsou parametry, které popisují jednotlivé funkce této třídy. Mějme dány body x 0, x 1,..., x n, x i x k, i, k = 0,

Více

Učební texty k státní bakalářské zkoušce Matematika Skalární součin. študenti MFF 15. augusta 2008

Učební texty k státní bakalářské zkoušce Matematika Skalární součin. študenti MFF 15. augusta 2008 Učební texty k státní bakalářské zkoušce Matematika Skalární součin študenti MFF 15. augusta 2008 1 10 Skalární součin Požadavky Vlastnosti v reálném i komplexním případě Norma Cauchy-Schwarzova nerovnost

Více

Kapitola 11: Vektory a matice:

Kapitola 11: Vektory a matice: Kapitola 11: Vektory a matice: Prostor R n R n = {(x 1,, x n ) x i R, i = 1,, n}, n N x = (x 1,, x n ) R n se nazývá vektor x i je i-tá souřadnice vektoru x rovnost vektorů: x = y i = 1,, n : x i = y i

Více

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou

Více

FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci OBSAH A CÍLE SEMINÁŘE: Opakování a procvičení vybraných

Více

Výběrové charakteristiky a jejich rozdělení

Výběrové charakteristiky a jejich rozdělení Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový

Více

10 Funkce více proměnných

10 Funkce více proměnných M. Rokyta, MFF UK: Aplikovaná matematika II kap. 10: Funkce více proměnných 16 10 Funkce více proměnných 10.1 Základní pojmy Definice. Eukleidovskou vzdáleností bodů x = (x 1,...,x n ), y = (y 1,...,y

Více

MATEMATICKÁ STATISTIKA - XP01MST

MATEMATICKÁ STATISTIKA - XP01MST MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného

Více

Matematika III. Miroslava Dubcová, Daniel Turzík, Drahoslava Janovská. Ústav matematiky

Matematika III. Miroslava Dubcová, Daniel Turzík, Drahoslava Janovská. Ústav matematiky Matematika III Řady Miroslava Dubcová, Daniel Turzík, Drahoslava Janovská Ústav matematiky Přednášky ZS 202-203 Obsah Číselné řady. Součet nekonečné řady. Kritéria konvergence 2 Funkční řady. Bodová konvergence.

Více

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Jan Slovák Masarykova univerzita Fakulta informatiky 28. 11 2. 12. 2016 Obsah přednášky 1 Literatura 2 Střední

Více

1 Báze a dimenze vektorového prostoru 1

1 Báze a dimenze vektorového prostoru 1 1 Báze a dimenze vektorového prostoru 1 Báze a dimenze vektorového prostoru 1 2 Aritmetické vektorové prostory 7 3 Eukleidovské vektorové prostory 9 Levá vnější operace Definice 5.1 Necht A B. Levou vnější

Více

fakulty MENDELU v Brně (LDF) s ohledem na disciplíny společného základu http://akademie.ldf.mendelu.cz/cz (reg. č. CZ.1.07/2.2.00/28.

fakulty MENDELU v Brně (LDF) s ohledem na disciplíny společného základu http://akademie.ldf.mendelu.cz/cz (reg. č. CZ.1.07/2.2.00/28. Základy lineárního programování Vyšší matematika, Inženýrská matematika LDF MENDELU Podpořeno projektem Průřezová inovace studijních programů Lesnické a dřevařské fakulty MENDELU v Brně (LDF) s ohledem

Více

a způsoby jejího popisu Ing. Michael Rost, Ph.D.

a způsoby jejího popisu Ing. Michael Rost, Ph.D. Podmíněná pravděpodobnost, náhodná veličina a způsoby jejího popisu Ing. Michael Rost, Ph.D. Podmíněná pravděpodobnost Pokud je jev A vázán na uskutečnění jevu B, pak tento jev nazýváme jevem podmíněným

Více

5. Lokální, vázané a globální extrémy

5. Lokální, vázané a globální extrémy 5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,

Více

11. Skalární součin a ortogonalita p. 1/16

11. Skalární součin a ortogonalita p. 1/16 11. Skalární součin a ortogonalita 11. Skalární součin a ortogonalita p. 1/16 11. Skalární součin a ortogonalita p. 2/16 Skalární součin a ortogonalita 1. Definice skalárního součinu 2. Norma vektoru 3.

Více

Učební texty k státní bakalářské zkoušce Matematika Základy teorie funkcí více proměnných. študenti MFF 15. augusta 2008

Učební texty k státní bakalářské zkoušce Matematika Základy teorie funkcí více proměnných. študenti MFF 15. augusta 2008 Učební texty k státní bakalářské zkoušce Matematika Základy teorie funkcí více proměnných študenti MFF 15. augusta 2008 1 5 Základy teorie funkcí více proměnných Požadavky Parciální derivace a totální

Více

1 Projekce a projektory

1 Projekce a projektory Cvičení 3 - zadání a řešení úloh Základy numerické matematiky - NMNM20 Verze z 5. října 208 Projekce a projektory Opakování ortogonální projekce Definice (Ortogonální projekce). Uvažujme V vektorový prostor

Více

VLIV STATISTICKÉ ZÁVISLOSTI NÁHODNÝCH VELIČIN NA SPOLEHLIVOST KONSTRUKCE

VLIV STATISTICKÉ ZÁVISLOSTI NÁHODNÝCH VELIČIN NA SPOLEHLIVOST KONSTRUKCE IV. ročník celostátní konference SPOLEHLIVOST KONSTRUKCÍ Téma: Posudek - poruchy - havárie 25 23.až 24.4.2003 Dům techniky Ostrava ISBN 80-02-055-7 VLIV STATISTICKÉ ZÁVISLOSTI NÁHODNÝCH VELIČIN NA SPOLEHLIVOST

Více

DEFINICE Z LINEÁRNÍ ALGEBRY

DEFINICE Z LINEÁRNÍ ALGEBRY DEFINICE Z LINEÁRNÍ ALGEBRY Skripta Matematické metody pro statistiku a operační výzkum (Nešetřilová, H., Šařecová, P., 2009). 1. definice Vektorovým prostorem rozumíme neprázdnou množinu prvků V, na které

Více

Klasifikační metody pro genetická data: regularizace a robustnost

Klasifikační metody pro genetická data: regularizace a robustnost Odd medicínské informatiky a biostatistiky Ústav informatiky AV ČR, vvi Práce vznikla za finanční podpory Nadačního fondu Neuron na podporu vědy Klasifikační metody pro genetická data Regularizovaná klasifikační

Více

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin Příklady k procvičení z Matematické statistiky Poslední úprava. listopadu 207. Konvergence posloupnosti náhodných veličin. Necht X, X 2... jsou nezávislé veličiny s rovnoměrným rozdělením na [0, ]. Definujme

Více

III. Diferenciál funkce a tečná rovina 8. Diferenciál funkce. Přírůstek funkce. a = (x 0, y 0 ), h = (h 1, h 2 ).

III. Diferenciál funkce a tečná rovina 8. Diferenciál funkce. Přírůstek funkce. a = (x 0, y 0 ), h = (h 1, h 2 ). III. Diferenciál funkce a tečná rovina 8. Diferenciál funkce. Přírůstek funkce = f(x 0 + h 1, y 0 + h 2 ) f(x 0, y 0 ) f u (x 0, y 0 ), kde u = (h 1, h 2 ). ( ) = f(x 0 + h 1, y 0 ) f(x 0, y 0 ) x (x 0,

Více

LDF MENDELU. Simona Fišnarová (MENDELU) Základy lineárního programování VMAT, IMT 1 / 25

LDF MENDELU. Simona Fišnarová (MENDELU) Základy lineárního programování VMAT, IMT 1 / 25 Základy lineárního programování Vyšší matematika, Inženýrská matematika LDF MENDELU Podpořeno projektem Průřezová inovace studijních programů Lesnické a dřevařské fakulty MENDELU v Brně (LDF) s ohledem

Více

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce Náhodná veličina motivace Náhodná veličina Často lze výsledek náhodného pokusu vyjádřit číslem: číslo, které padlo na kostce, výška náhodně vybraného studenta, čas strávený čekáním na metro, délka života

Více

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme

Více

MOORE-PENROSEOVA INVERZE MATICE A JEJÍ APLIKACE. 1. Úvod

MOORE-PENROSEOVA INVERZE MATICE A JEJÍ APLIKACE. 1. Úvod Kvaternion 1/2013, 7 14 7 MOORE-PENROSEOVA INVERZE MATICE A JEJÍ APLIKACE LADISLAV SKULA Abstrakt V článku je uvedena definice pseudoinverzní matice, ukázána její existence a jednoznačnost a zmíněny dvě

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr

Více

Kristýna Kuncová. Matematika B3

Kristýna Kuncová. Matematika B3 (5) Funkce více proměnných II Kristýna Kuncová Matematika B3 Kristýna Kuncová (5) Funkce více proměnných II 1 / 20 Parciální derivace - příklad Otázka Tabulka vpravo znázorňuje hodnoty funkce f (x, y).

Více

Náhodná veličina a její charakteristiky. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáte. Proto je proměnná, která

Náhodná veličina a její charakteristiky. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáte. Proto je proměnná, která Náhodná veličina a její charakteristiky Náhodná veličina a její charakteristiky Představte si, že provádíte náhodný pokus, jehož výsledek jste schopni ohodnotit nějakým číslem. Před provedením pokusu jeho

Více

Extrémy funkce dvou proměnných

Extrémy funkce dvou proměnných Extrémy funkce dvou proměnných 1. Stanovte rozměry pravoúhlé vodní nádrže o objemu 32 m 3 tak, aby dno a stěny měly nejmenší povrch. Označme rozměry pravoúhlé nádrže x, y, z (viz obr.). ak objem této nádrže

Více

stránkách přednášejícího.

stránkách přednášejícího. Předmět: MA 4 Dnešní látka Iterační metoda Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Superrelaxační metoda (metoda SOR) Metoda sdružených gradientů Četba: Text o lineární algebře v Příručce

Více

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost

Více

Základy maticového počtu Matice, determinant, definitnost

Základy maticového počtu Matice, determinant, definitnost Základy maticového počtu Matice, determinant, definitnost Petr Liška Masarykova univerzita 18.9.2014 Matice a vektory Matice Matice typu m n je pravoúhlé (nebo obdélníkové) schéma, které má m řádků a n

Více

1 Linearní prostory nad komplexními čísly

1 Linearní prostory nad komplexními čísly 1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)

Více

PŘEDNÁŠKA 7 Kongruence svazů

PŘEDNÁŠKA 7 Kongruence svazů PŘEDNÁŠKA 7 Kongruence svazů PAVEL RŮŽIČKA Abstrakt. Definujeme svazové kongruence a ukážeme jak pro vhodné binární relace svazu ověřit, že se jedná o svazové kongruence. Popíšeme svaz Con(A) kongruencí

Více

Regresní analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel

Regresní analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel Regresní analýza Ekonometrie Jiří Neubauer Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Jiří Neubauer (Katedra ekonometrie UO Brno) Regresní analýza 1 / 23

Více

13. cvičení z PSI ledna 2017

13. cvičení z PSI ledna 2017 cvičení z PSI - 7 ledna 07 Asymptotické pravděpodobnosti stavů Najděte asymptotické pravděpodobnosti stavů Markovova řetězce s maticí přechodu / / / 0 P / / 0 / 0 0 0 0 0 0 jestliže počáteční stav je Řešení:

Více

Algoritmy komprese dat

Algoritmy komprese dat Algoritmy komprese dat Úvod do teorie informace Claude Shannon (1916 2001) 5.11.2014 NSWI072-7 Teorie informace Informace Co je to informace? Můžeme informaci měřit? Existují teoretické meze pro délku

Více

cv3.tex. Vzorec pro úplnou pravděpodobnost

cv3.tex. Vzorec pro úplnou pravděpodobnost 3 cvičení - pravděpodobnost 2102018 18cv3tex n i=1 Vzorec pro úplnou pravděpodobnost Systém náhodných jevů nazýváme úplným, jestliže pro něj platí: B i = 1 a pro i k je B i B k = 0 Jestliže je (Ω, A, P

Více

Matematická analýza pro informatiky I.

Matematická analýza pro informatiky I. Matematická analýza pro informatiky I. 10. přednáška Diferenciální počet funkcí více proměnných (II) Jan Tomeček jan.tomecek@upol.cz http://aix-slx.upol.cz/ tomecek/index Univerzita Palackého v Olomouci

Více

Riemannův určitý integrál

Riemannův určitý integrál Riemannův určitý integrál 1. Motivační příklad Příklad (Motivační příklad pro zavedení Riemannova integrálu). Nechť,. Vypočtěme obsah vybarvené oblasti ohraničené grafem funkce, osou a svislými přímkami

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

Dijkstrův algoritmus

Dijkstrův algoritmus Dijkstrův algoritmus Hledání nejkratší cesty v nezáporně hranově ohodnoceném grafu Necht je dán orientovaný graf G = (V, H) a funkce, která každé hraně h = (u, v) H přiřadí nezáporné reálné číslo označované

Více

Fakt. Každou soustavu n lineárních ODR řádů n i lze eliminací převést ekvivalentně na jednu lineární ODR

Fakt. Každou soustavu n lineárních ODR řádů n i lze eliminací převést ekvivalentně na jednu lineární ODR DEN: ODR teoreticky: soustavy rovnic Soustava lineárních ODR 1 řádu s konstantními koeficienty je soustava ve tvaru y 1 = a 11 y 1 + a 12 y 2 + + a 1n y n + b 1 (x) y 2 = a 21 y 1 + a 22 y 2 + + a 2n y

Více

Necht L je lineární prostor nad R. Operaci : L L R nazýváme

Necht L je lineární prostor nad R. Operaci : L L R nazýváme Skalární součin axiomatická definice odvození velikosti vektorů a úhlu mezi vektory geometrická interpretace ortogonalita vlastnosti ortonormálních bázi [1] Definice skalárního součinu Necht L je lineární

Více

MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]

MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] MATICE Matice typu m/n nad tělesem T je soubor m n prvků z tělesa T uspořádaných do m řádků a n sloupců: a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] a m1 a m2 a mn Prvek a i,j je prvek matice A na místě

Více

+ 2y. a y = 1 x 2. du x = nxn 1 f(u) 2x n 3 yf (u)

+ 2y. a y = 1 x 2. du x = nxn 1 f(u) 2x n 3 yf (u) Diferenciální počet příklad 1 Dokažte, že funkce F, = n f 2, kde f je spojitě diferencovatelná funkce, vhovuje vztahu + 2 = nf ; 0 Řešení: Označme u = 2. Pak je F, = n fu a platí Podle vět o derivaci složené

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague

Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague Tomáš Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague 1 / 63 1 2 3 4 5 6 7 8 9 10 11 2 / 63 Aritmetický vektor Definition 1 Aritmetický vektor x je uspořádaná

Více

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru 2. Systémy lineárních rovnic V této kapitole se budeme zabývat soustavami lineárních rovnic s koeficienty z pole reálných případně komplexních čísel. Uvádíme podmínku pro existenci řešení systému lineárních

Více

Věta o dělení polynomů se zbytkem

Věta o dělení polynomů se zbytkem Věta o dělení polynomů se zbytkem Věta. Nechť R je okruh, f, g R[x], přičemž vedoucí koeficient polynomu g 0 je jednotka okruhu R. Pak existuje jediná dvojice polynomů q, r R[x] taková, že st(r) < st(g)

Více

Malé statistické repetitorium Verze s řešením

Malé statistické repetitorium Verze s řešením Verze s řešením Příklad : Rozdělení náhodné veličiny základní charakteristiky Rozdělení diskrétní náhodné veličiny X je dáno následující tabulkou x 0 4 5 P(X = x) 005 05 05 0 a) Nakreslete graf distribuční

Více

Přijímací zkouška - matematika

Přijímací zkouška - matematika Přijímací zkouška - matematika Jméno a příjmení pište do okénka Číslo přihlášky Číslo zadání 1 Grafy 1 Pro který z následujících problémů není znám žádný algoritmus s polynomiální časovou složitostí? Problém,

Více

Vlastní čísla a vlastní vektory

Vlastní čísla a vlastní vektory Kapitola 11 Vlastní čísla a vlastní vektory Základní motivace pro studium vlastních čísel a vektorů pochází z teorie řešení diferenciálních rovnic Tato teorie říká, že obecné řešení lineární diferenciální

Více

Binární vyhledávací stromy pokročilé partie

Binární vyhledávací stromy pokročilé partie Binární vyhledávací stromy pokročilé partie KMI/ALS lekce Jan Konečný 30.9.204 Literatura Cormen Thomas H., Introduction to Algorithms, 2nd edition MIT Press, 200. ISBN 0-262-5396-8 6, 3, A Knuth Donald

Více

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je

Více

I. D i s k r é t n í r o z d ě l e n í

I. D i s k r é t n í r o z d ě l e n í 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více