NEPARAMETRICKÁ DISKRIMINAČNÍ ANALÝZA
|
|
- Olga Müllerová
- před 8 lety
- Počet zobrazení:
Transkript
1 ROBUST, 5 58 c JČMF NEPARAMETRICKÁ DISKRIMINAČNÍ ANALÝZA MARIE FORBELSKÁ Abstrakt. In the paper the attention is focused to the application of kernel density estimators to statistical discrimination. After a brief description of the discriminant analysis problem the nonparametric approach to discriminant analysis is described. The multivariate product polynomial kernels with data-driven choices of the bandwidth are used for density estimators and this nonparametric approach are compared with classical one by some simulated data. Rezme: Cel~ to$i stat~i kasaets priloeni ocenki plotnosti verotnosti pri pomoxi der v diskriminantnom analizu. Vstat~e snaqala rassmatrivats lementarnye svedeni po diskriminantnomu analizu i potom issleduets neparametriqeski$i podhod pri pomoxi mnogomernyh polinomial~nyh der, postroennyh kak proizvedenie odnomernyh der, vmeste savtomatiqeskim vyborom optimal~nogosglaivawego parametra. Parametriqeski$i i neparametriqeski$i podhody srovnivats pri pomoxi imitiruwih dannyh.. Podstata diskriminační analýzy Uvažujme danou množinu n objektů, označme ji S a předpokládejme, že S je tvořená objekty k různých typů. Budeme říkat, že objekt patří do třídy S j, je-li typu j (j =,...,k. OtřídáchS j budeme předpokládat, že jsou po dvou disjunktnía S = k j= S j. Na každém objektu zjišťujeme dva statistické znaky X a Y. X určuje příslušnost objektu do dané třídy, je to diskrétní náhodná veličina a X = j právě když daný objekt patřído třídy S j, j =,...,k. Y = (Y,,Y m je m-rozměrný náhodný vektor, který nějak charakterizuje příslušnou třídu objektů. Označme dále (X i, Y i hodnoty znaků X a Y na i-tém objektu a předpokládejme, že (X i, Y i jsou nezávislé náhodné vektory, které tvořínáhodný výběr z rozdělení náhodného vektoru (X, Y. Cílem diskriminační analýzy je stanovit na základě daného náhodného výběru optimálníklasifikačnípravidlo, které by při pozorovánívektoruy na nějakém daném objektu, který již nepatřído třídy S, umožnilo jeho zařazení do příslušné třídy s minimálníztrátou. Při konstrukci takového klasifikačního pravidla vyjdeme z úplného rozkladu S = {S,...,S k } prostoru R m možných hodnot vektoru Y do k disjunktních tříd S,...,S k. Když na uvažovaném objektu zjistíme hodnotu znaku Y, která patří do třídy S j, rozhodneme, že tento objekt patřído třídy S j. S užitím tohoto klasifikačního pravidla spojíme ztrátu, která bude způsobena chybnou klasifikací objektu. Je-li daný objekt charakterizován vektorem (X, Y a máme-li klasifikačnípravidlo dané rozkladem S, pak příslušnou ztrátu definujeme jako transformovanou diskrétní Mathematics Subject Classification. Primary 6H; Secondary C. Klíčová slova. Lineární a kvadratická diskriminační analýza, neparametrická diskriminační analýza, jádrové odhady hustot, součinová jádra. Příspěvek vznikl s podporou výzkumného záměru MŠMT, CEZ: J7/98:.
2 Neparametrická diskriminační analýza 5 náhodnou veličinu Z S danou předpisem Z S = Z S (X, Y =z jl pokud X = j a Y S l l, j =,...,k, kde z jl jsou daná reálná čísla, charakterizující reálnou ztrátu při zařazení objektu ze třídy S j do třídy S l. V diskriminačníanalýze se často volíz ll =az jl =, l, j =,...,k; l j. Klasifikačnípravidlo, které minimalizuje středníhodnotu ztráty, pak nazýváme optimálním. Abychom odvodili optimální klasifikační pravidlo, vyjdeme z následujících předpokladů a značení. Nechť náhodný vektor (X, Y definovaný na nějakém pravděpodobnostním prostoru (Ω, A,P má hustotu f XY (j, y vzhledem k součinové míře = ν X Y, kde ν X je čítací míra a Y je Lebesquova míra, přičemž tato hustota je tvaru f XY (j, y =p j f j (y, j =,...,k, y R m, p + + p k =, p j > af j (y pro každé j =,...,k je hustota rozdělenípravděpodobnostívzhledem k Lebesquově míře. Zřejmě f j (y je podmíněná hustota Y, kdyžx = j. Pak náhodná veličina X má marginálnípravděpodobnostnífunkci P (X = j =p j (j =,...,k a marginálnírozdělenípravděpodobnostíu náhodného vektoru Y je dáno hustotou f Y (y = k j= p jf j (y, y R m. Tedy v uvedeném značenímá ztráta Z S pravděpodobnostnífunkci tvaru p ZS (j, l =P (X = j, Y S l = S l p j f j (yd Y (y, l, j =,...,k. Snadno nahlédneme, že k l= z jlp (Z S = z jl = k E(Z S =L S = k k j= j= l= z jlp (X = j, Y S l = = k k j= l= z jlp ZS (j, l = k k j= i=l z jl S l p j f j (yd Y (y = = k k l= j= z jl S l p j f j (yd Y (y = k k l= S l j= z jlp j f j (yd Y (y Funkci q l (y = k j= z jlp j f j (y nazvemel-tý skór vektoru Y a při konstrukci klasifikačního pravidla hraje centrální roli. Cílem nyní je určit optimální úplný rozklad S = {S,...,S k } m-rozměrného euklidovského prostoru R m tak, aby středníhodnota ztráty E(Z S byla minimální Důležitou roli hraje následující lemma (viz. []. Lemma.. Nechť S = {S,...,S k } je takový rozklad Rm,žepro t {,...,k} platí (. y S t q t (y q j (y, j =,...,k. Pak tento rozklad minimalizuje E(Z S, tj. označíme-li L = E(Z S = k i= S q i (yd Y (y, i pak platí L S = E(Z S L = E(Z S pro každý rozklad S. Důkaz. L = E(Z S = k l= S l q l (yd Y (y = k k l= t= S l S q l (yd Y (y t k k l= t= q t (yd Y (y = k t= q t (yd Y (y =E(Z S =L S l S t Je zřejmé, že hodnota L je stejná pro všechny rozklady splňující podmínku předchozího lemmatu. Z lemmatu. plyne, že klasifikační pravidlo dané rozkladem (. je optimální. Pokud tedy při daném Y = y pro všechna j t platí q t (y <q j (y, pak optimálním rozhodnutím je zařadit daný objekt do t-té třídy. V případě, že v předchozím vzorci platí rovnost i pro další j(j t, je lhostejné, podle kterého pravidla budeme z těchto minimalizujících indexů vybírat. S t
3 5 Marie Forbelská Při volbě z ll = a z jl =, l,j =,...,k, l j, kdy q l (y = k p j f j (y p l f l (y =f Y (y p l f l (y, j= snadno dostaneme dalšíekvivalentníoptimální klasifikační pravidlo založené na nerovnosti (. p t f t (y p j f j (y pro j =,...,k.. Rozhodovací pravidla v případě normálních rozdělení V tomto odstavci budeme předpokládat, že podmíněné rozdělení náhodného vektoru Y za podmínky, že X =j, je m-rozměrné normálnírozdělenín m ( j, V j se známým vektorem středních hodnot E(Y X =j = j a známou variančnímaticí var(y X = j =V j (j =,...,k. Pak hustota tohoto podmíněného rozdělení je dána vzorcem [ f j (y =(π m Vj exp ] (y j V j (y j. Klasifikačnípravidlo (. lze v tomto případě vyjádřit jako log p t +logf t (y > log p j +logf j (y, j =,...,k, j t. Označme D j = log V j (y j Vj (y j +logp j. Pak klasifikačnípravidlo (. odpovídá (. D t >D j, j =,...,k, j t. Diskriminačnímetoda založená na nerovnosti (. se nazývá kvadratická diskriminační analýza. Pokudjsousivšechny varianční matice rovny, tj.v = = V k = V, potom D j = log V (y j V (y j +logp j = = log V +logp j y V y + y V j j V j Označme d j = y V j j V j +logp j. Pak D j = d j log V y V y a klasifikační pravidlo (. je v tomto speciálním případě ekvivalentní s nerovností (. d t >d j, j =,...,k, j t. Diskriminačnímetoda založená na nerovnosti (. se nazývá lineární diskriminační analýza.. Diskriminace z experimentálních dat Při praktickém prováděnídiskriminačníanalýzy máme k dispozici k souborů objektů, přičemž víme, který objekt do které třídy patří. Těmto souborům se někdy říká trénovací. Počet objektů v j-tém souboru označme n j a realizace vektoru Y v j-tém souboru označme y j,...,y jnj. Mějmedálerealizaciy R m náhodného vektoru Y, o které nevíme, odkud pochází. Protože obvykle neznáme rozdělenínáhodného vektoru (X, Y, pak se při klasifikaci neznámého objektu nabízí dva možné přístupy :
4 Neparametrická diskriminační analýza 5 Parametrický přístup: Předpokládáme, že podmíněné rozdělení náhodného vektoru Y za podmínky, že X = j, je normální. V konkrétních situacích obvykle neznáme vektory středních hodnot,..., k a variančnímatice V,...,V k. K dispozici však máme trénovacísoubory a pomocínich určíme ȳ j = nj n j i= y ji, C j = n j i= (y ji ȳ j (y ji ȳ j n, ˆp j = j n + +n k. Jestliže vektor j odhadneme vektorem ȳ j,maticiv j maticí ˆV j = n C j j aapriornípravděpodobnost p j relativníčetnostíˆp j, můžeme pro zařazeníobjektu, jehož příslušnost nepoznáme, použít postupy předchozího odstavce tak, že neznámé parametry nahradíme jejich odhady. Neparametrický přístup: Nebudeme předpokládat určitý typ podmíněného rozdělenívektoru Y za podmínky, že X=j, ale pomocítrénovacích dat odhadneme neznámé podmíněné hustoty f j (y. Přirozeně se nabízí použít neparametrické metody odhadu hustot, např. jádrové odhady hustoty, odhady hustoty pomocík nejbližších sousedů a další(viz. [7]. Pro zařazeníobjektu, jehož příslušnost nepoznáme, potom použijeme rozhodovací pravidlo (. s tím, že neznámé podmíněné hustoty f j (y nahradíme neparametrickým odhadem ˆf j (y a apriornípravděpodobnost p j n relativníčetnostíˆp j = j n + +n k. Dostaneme tak rozhodovací pravidlo: realizaci y zařadíme do t-té skupiny, pokud pro všechna j t bude platit ˆp t ˆft (y ˆp j ˆfj (y. Obvykle, před zařazováním nových objektů, ověříme klasifikační proceduru na samotných objektech z trénovacích souborů a registrujeme procento nesprávných zatřídění. Jestliže soubor trénovacích dat neumožňuje vytvořit spolehlivou klasifikační proceduru ani pro trénovacídata samotná, nelze samozřejmě klasifikaci realizovat.. Jádrové odhady použité v neparametrické diskriminační analýze V tomto odstavci zavedeme jednorozměrná (resp. vícerozměrná jádra pro odhad hustoty pravděpodobnosti náhodných veličin (resp. náhodných vektorů a popíšeme speciálnítypy jader, která budou použita pro neparametrickou diskriminaci. Nechť y,...,y n jsou nezávislá pozorovánínáhodné veličiny Y s hustotou f(y. Jádrem rozumíme libovolnou funkci K : (R, B (, +, jež je symetrická, ohraničená a pro niž (. K(ydy =, a lim y K(y =, y ± Nechť {h n } n= je posloupnost kladných čísel taková, že lim n h n =, lim n nh n = a K(y jeněkteréjádro. Jádrový odhad hustoty je definován vztahem (viz. [] a [5]. (. ˆfn (y = n ( y yi K y R. nh n h i= n Velká pozornost musíbýt věnována volbě nejvhodnější konstanty h n, tzv. šířce okna, neboť podstatným způsobem ovlivňuje kvalitu odhadu. Pro optimální volbu parametru h n je třeba provést také odhad derivace funkce f (viz. [7] a [8]. Symbolem C k označme množinu všech k -krát spojitě diferencovatelných reálných funkcí, kde k > je celé číslo. Jsou-li navíc tyto funkce nulové vně intervalu [, ], označme množinu těchto funkcísymbolem C k [, ]. Nechť y,...,y n jsou nezávislá pozorovánínáhodné veličiny Y s hustotou f(y C k. Jádrový odhad derivace f (ν pro pevné ν < k je definován
5 5 Marie Forbelská vztahem (ν (. ˆf h,k (y = n ( y yi nh ν+ K. h i= Označme Lip[a, b] třídu spojitých funkcí splňujících Lipschitzovu podmínku na [a, b]: f(x f(y L x y x, y [a, b], L >. Nechť ν, k jsou nezáporná celá čísla, ν<k<k ajádrok Lip[, ], přičemž nosič jádra support(k [, ]. Nechť K splňuje následující momentové podmínky j<k,j ν (. x j K(xdx = ( ν ν! j = ν β k j = k pak říkáme, že jádro K je řádu (ν, k apíšemek Sν,k. Pro nechťk C [, ], K Sν,k. Navíc nechť platí K(j (=K (j ( =, j =,,...,, ν k aν + k je sudé. Pak takové jádro se nazývá jádro hladkosti apíšemek S ν,k. Příkladem jádra S, je Epanečnikovo jádro, S, kvartické (biweight jádro a S, triweight jádro (viz. []. ( V práci použijeme jádra : Epanečnikovo K(y = y I [,] (y kvartické(biweight K(y = 5 6 ( y I [,] (y triweight K(y = 5 ( y I [,] (y { y [a, b] kde I [a,b] (y = (viz. obrázek. jinak Epan. biweight triweight S : ν= k= = ν,k S ν,k : ν= k= = S ν,k : ν= k= = K(y=/ ( y I [,] (y.5.5 K(y=5/6 ( y I [,] (y.5.5 K(y=5/ ( y I [,] (y Obrázek : Ukázka jader typu K S ν,k Pro optimálnívolbu šířky okna tohoto typu jader použijeme algoritmus, který je popsán v práci []. Pro odhad hustoty pravděpodobnosti náhodných vektorů jsou definovány vícerozměrné jádrové odhady vztahem n ( y y i (.5 ˆfn (y = K,, y m y im, nh...h m h h m i= kde y =(y,...,y m,...,y n =(y n,...,y nm je náhodný výběr z m-rozměrného spojitého rozdělenío hustotě f(y, y =(y,...,y m R m.
6 .6 Neparametrická diskriminační analýza 55 V dalším budeme používat jako jádro m-proměnných tzv. součinové jádro, které je součinem m jader jedné proměnné, tj. n m ( yj y ij (.6 ˆfn (y = K, nh...h m h i= j= j kde K S ν,k, přičemž opět využijeme algoritmus automatického vyhledáváníoptimálníšířky oken pro tento typ jader (viz. []. 5. Srovnání parametrické a neparametrické diskriminace Srovnáníparametrické a neparametrické diskriminace je provedeno na simulovaných datech ze směsi normálních rozdělení: (5. f a (y,y = k f aj (y,y = k ( exp k k j= j= πσ j σ j ρ q j(y,y j kde q j (y,y = ρ j azesměsihustot: [ (y ( ( j y j y j ρ j σ j (5. f b (y,y = k kde f bj (y,y = π σ j k f bj (y,y j= σ j + ( ] y j ( ρ j (y j + exp ( (y j +(y j (y j +(y j σ j. Příklady směsí typu (5. a (5. pro k = jsou uvedeny na obrázku a výsledky diskriminace těchto směsíjsou demonstrovány na obrázcích a. Pro generování pseudonáhodných čísel z rozdělení typu (5. byl použit algoritmus doporučený v [6]. Normal Mixture: f a (y,y =.5 f a (y,y +.5 f a (y,y Nonnormal mixture: f b (y,y =.5 f b (y,y +.5 f b (y,y n = n = Obrázek : Simulovaná data spolu s vrstevnicovými grafy funkcí f a (x, y a f b (x, y sparametry: a =; a =; σ =; σ =.5; ρ a =.5; a =; a =.5; σ = ; σ =; ρa =.5 ab =; b =.75; ρb =.5; b =.5; b =; ρb =.5.
7 . 56 Marie Forbelská linear discrimination analysis quadratic discrimination analysis var.5.5 var.6 var kernel discrimination analysis: S ν,k ν=, k=, = var kernel discrimination analysis: S ν,k ν=, k=, =. var... var var kernel discrimination analysis: S ν,k ν=, k=, =...5 var M I S C L A S S I F I C A T I O N in % method group group all lin.discr quad.discr.... var S k.discr....5 S k.discr....5 S k.discr var Markers: Misclassification group n= group n= Obrázek : Srovnání parametrické a neparametrické diskriminace s užitím jader typu K S ν,k (ν=,k=,=,, pro simulovaná data ze směsi f a(x, y normálních rozdělení. linear discrimination analysis quadratic discrimination analysis var. var... var kernel discrimination analysis: S ν,k ν=, k=, = var kernel discrimination analysis: S ν,k ν=, k=, = var..5.5 var.5 var kernel discrimination analysis: S ν,k ν=, k=, = var M I S C L A S S I F I C A T I O N in % method group group all lin.discr var quad.discr.... S k.discr.... S k.discr.... S k.discr Markers: Misclassification var group n= group n= Obrázek : Srovnání parametrické a neparametrické diskriminace s užitím jader typu K S ν,k (ν=,k=,=,, pro simulovaná data ze směsi f b(x, y.
8 Neparametrická diskriminační analýza 57 Bylo provedeno simulacínormálních směsítypu (5. (viz. řádky až na obrázku 5 a 8 simulacísměsíhustot typu (5. (viz. řádky 5 až na obrázku 5, kdy se měnily parametry polohy a měřítka hustot, velikost a počet skupin. Normal and Nonnormal Mixtures Group Group Group Misclassification in % V V V class.methods kernel methods σ σ ρ n σ σ ρ n σ σ ρ n lin. quad. S S S Obrázek 5: Tabulka parametrů simulovaných dat spolu s celkovým procentem nesprávně klasifikovaných objektů pro klasické i neparametrické metody diskriminace. Výsledky srovnáníneparametrické diskriminace s lineárnía kvadratickou diskriminacíjsou uvedeny v tabulkách na obrázku 6, kde znaménka po řadě +, = a - značílepší, stejné a horšívýsledky neparametrické diskriminace vůči klasickým metodám na základě celkového procenta špatně klasifikovaných objektů.
9 58 Marie Forbelská Pomocísimulacíse ukázalo, že neparametrická diskriminace založená na jádrech S, dává nejlepšívýsledky, o něco horšíneparametrická diskriminace založená na jádrech S, a výrazně horšívýsledky dosahuje neparametrická diskriminace založená na jádrech S, (v důsledku příliš širokých vyhlazovacích oken poskytnutých algoritmem popsáným v práci []. Pro tyto prvotnísimulace se tedy ukazuje, že neparametrická diskriminace, tak jak je popsaná v předchozím odstavci, může být srovnatelnou náhradou klasické diskriminace dokonce i v případě normálních směsí a může být užitečná v situacích, kdy nenídostatečná informace o typu rozděleníve směsi. Normal Mixtures method lin.discr. quad.discr. + = + = S k.discr S k.discr S k.discr Nonnormal Mixtures method lin.discr. quad.discr. + = + = S k.discr S k.discr S k.discr Obrázek 6: Tabulky srovnání parametrické a neparametrické diskriminace (hodnoty jsou uvedeny v %. Literatura [] Anděl, J.: Matematická statistika. SNTL/ALFA. Praha 978 [] Antoch, J.,Vorlíčková, D.: Vybrané metody statistické analýzy dat. Academia, Praha 99 [] Horová, I.: Optimatization Problems Connected with Kernel Smoothing, Signal Processing, Communications and Computer Science World. Scientific and Engineering Press, str [] Horová, I., Vieu, P. Zelinka, J.: Optimal Choice of Nonparametric Estimates of a Density and of its Derivates, zasláno k tisku [5] Michálek, J.:Kernel estimators - basic properties and optimal choice of parameters for estimation. Proceedings ROBUST 9. Prague, 99. [6] Nachtsheim, Ch.,J, Johnson, M.,E.:A New Family of Multivariate Distributions With Applications to Monte Carlo Studies. Journal of the American Statistical Association, Volume 8, Issue (Dec.,988, [7] Silverman, B. W.: Density Estimation for Statistics and Data Analysis. Chapman and Hall, New York, 99. [8] Wand, I.P. and Jones, I.C.: Kernel Smoothing. Chapman & Hall, London 995 MU PřF, KAM, Janáčkovo nám. a, Brno forbel@math.muni.cz
ACTA UNIVERSITATIS AGRICULTURAE ET SILVICULTURAE MENDELIANAE BRUNENSIS SBORNÍK MENDELOVY ZEMĚDĚLSKÉ A LESNICKÉ UNIVERZITY V BRNĚ
ACTA UNIVERSITATIS AGRICULTURAE ET SILVICULTURAE MENDELIANAE BRUNENSIS SBORNÍK MENDELOVY ZEMĚDĚLSKÉ A LESNICKÉ UNIVERZITY V BRNĚ Ročník LII 6 Číslo 3, 2004 Gasser-Müllerův odhad J. Poměnková Došlo: 8.
VíceDefinice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně
7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností
VíceÚstav matematiky a statistiky Masarykova univerzita Brno. workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí
Ústav matematiky a statistiky Masarykova univerzita Brno workshopy Finanční matematika v praxi III Matematické modely a aplikace Podlesí 3. 6. září 2013 Obsah 1 2 3 4 y Motivace y 10 0 10 20 30 40 0 5
VíceNáhodný vektor a jeho charakteristiky
Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich
VíceAVDAT Mnohorozměrné metody, metody klasifikace
AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných
VíceAVDAT Náhodný vektor, mnohorozměrné rozdělení
AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární
Více9. T r a n s f o r m a c e n á h o d n é v e l i č i n y
9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).
VíceStatistika II. Jiří Neubauer
Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Zaměříme se především na popis dvourozměrných náhodných veličin (vektorů). Definice Nechť X a Y jsou
VíceNMAI059 Pravděpodobnost a statistika
NMAI059 Pravděpodobnost a statistika podle přednášky Daniela Hlubinky (hlubinka@karlin.mff.cuni.cz) zapsal Pavel Obdržálek (pobdr@matfyz.cz) 205/20 poslední změna: 4. prosince 205 . přednáška. 0. 205 )
VíceVektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice
Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u
Více10. N á h o d n ý v e k t o r
10. N á h o d n ý v e k t o r 10.1. Definice: Náhodný vektor. Uspořádanou n tici (X 1, X 2,..., X n ) náhodných veličin X i, 1 i n, nazýváme náhodným vektorem. Poznámka: Pro jednoduchost budeme zavádět
Více9. T r a n s f o r m a c e n á h o d n é v e l i č i n y
9. T r a n s f o r m a c e n á h o d n é v e l i č i n Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota závisí nějakým způsobem na vstupní, je její funkcí = f(x). Pokud
VíceTOPOLOGIE A TEORIE KATEGORIÍ (2017/2018) 4. PREDNÁŠKA - SOUČIN PROSTORŮ A TICHONOVOVA VĚTA.
TOPOLOGIE A TEORIE KATEGORIÍ (2017/2018) 4. PREDNÁŠKA - SOUČIN PROSTORŮ A TICHONOVOVA VĚTA. PAVEL RŮŽIČKA 4.1. (Kvazi)kompaktnost a sub-báze. Buď (Q, ) uspořádaná množina. Řetězcem v Q budeme rozumět lineárně
Více2 Zpracování naměřených dat. 2.1 Gaussův zákon chyb. 2.2 Náhodná veličina a její rozdělení
2 Zpracování naměřených dat Důležitou součástí každé experimentální práce je statistické zpracování naměřených dat. V této krátké kapitole se budeme věnovat určení intervalů spolehlivosti získaných výsledků
Vícen = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)
5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =
VíceX = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní
..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X
VíceMarkovské metody pro modelování pravděpodobnosti
Markovské metody pro modelování pravděpodobnosti rizikových stavů 1 Markovský řetězec Budeme uvažovat náhodný proces s diskrétním časem (náhodnou posloupnost) X(t), t T {0, 1, 2,... } s konečnou množinou
Více1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.
VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:
VíceMATEMATIKA MEZI... ANEB NĚCO MÁLO O DISKRIMINACI
ROBUST 2000, 119 124 c JČMF 2001 MATEMATIKA MEZI... ANEB NĚCO MÁLO O DISKRIMINACI ARNOŠT KOMÁREK Abstrakt. If somebody wants to distinguish objects from two groups,he can use a statistical model to achieve
VíceMETRICKÉ A NORMOVANÉ PROSTORY
PŘEDNÁŠKA 1 METRICKÉ A NORMOVANÉ PROSTORY 1.1 Prostor R n a jeho podmnožiny Připomeňme, že prostorem R n rozumíme množinu uspořádaných n tic reálných čísel, tj. R n = R } R {{ R }. n krát Prvky R n budeme
VíceV předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti
Kapitola 5 Vektorové prostory V předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti operací sčítání a násobení
VíceNáhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X
Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich
VíceNáhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé.
1. Korelační analýza V životě většinou nesledujeme pouze jeden statistický znak. Sledujeme více statistických znaků zároveň. Kromě vlastností statistických znaků nás zajímá také jejich těsnost (velikost,
VíceLineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
Více10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.
0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti
Více9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1
9 přednáška 6 listopadu 007 Věta 11 Nechť f C U, kde U R m je otevřená množina, a a U je bod Pokud fa 0, nemá f v a ani neostrý lokální extrém Pokud fa = 0 a H f a je pozitivně negativně definitní, potom
VícePravděpodobnost a aplikovaná statistika
Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti
VíceNáhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X
Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristik často potřebujeme všetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich
VíceLWS při heteroskedasticitě
Stochastické modelování v ekonomii a financích Petr Jonáš 7. prosince 2009 Obsah 1 2 3 4 5 47 1 Předpoklad 1: Y i = X i β 0 + e i i = 1,..., n. (X i, e i) je posloupnost nezávislých nestejně rozdělených
VíceLineární algebra : Metrická geometrie
Lineární algebra : Metrická geometrie (16. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 6. května 2014, 10:42 1 2 Úvod Zatím jsme se lineární geometrii věnovali v kapitole o lineárních
VíceTéma 22. Ondřej Nývlt
Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené
VíceDefinice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s
Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných
VíceDefinice 1.1. Nechť je M množina. Funkci ρ : M M R nazveme metrikou, jestliže má následující vlastnosti:
Přednáška 1. Definice 1.1. Nechť je množina. Funkci ρ : R nazveme metrikou, jestliže má následující vlastnosti: (1 pro každé x je ρ(x, x = 0; (2 pro každé x, y, x y, je ρ(x, y = ρ(y, x > 0; (3 pro každé
VíceObyčejnými diferenciálními rovnicemi (ODR) budeme nazývat rovnice, ve kterých
Obyčejné diferenciální rovnice Obyčejnými diferenciálními rovnicemi (ODR) budeme nazývat rovnice, ve kterých se vyskytují derivace neznámé funkce jedné reálné proměnné. Příklad. Bud dána funkce f : R R.
Více2 Hlavní charakteristiky v analýze přežití
2 Hlavní charakteristiky v analýze přežití Předpokládané výstupy z výuky: 1. Student umí definovat funkci přežití, rizikovou funkci a kumulativní rizikovou funkci a zná funkční vazby mezi nimi 2. Student
VíceKlasická a robustní ortogonální regrese mezi složkami kompozice
Klasická a robustní ortogonální regrese mezi složkami kompozice K. Hrůzová, V. Todorov, K. Hron, P. Filzmoser 13. září 2016 Kompoziční data kladná reálná čísla nesoucí pouze relativní informaci, x = (x
VíceOtázku, kterými body prochází větev implicitní funkce řeší následující věta.
1 Implicitní funkce Implicitní funkce nejsou funkce ve smyslu definice, že funkce bodu z definičního oboru D přiřadí právě jednu hodnotu z oboru hodnot H. Přesnější termín je funkce zadaná implicitně.
VíceMATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci
MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým
VíceDnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda
Předmět: MA 4 Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Četba: Text o lineární algebře v Příručce přežití na webových
VíceKapitola 11: Vektory a matice 1/19
Kapitola 11: Vektory a matice 1/19 2/19 Prostor R n R n = {(x 1,..., x n ) x i R, i = 1,..., n}, n N x = (x 1,..., x n ) R n se nazývá vektor x i je i-tá souřadnice vektoru x rovnost vektorů: x = y i =
VíceNÁHODNÝ VEKTOR. 4. cvičení
NÁHODNÝ VEKTOR 4. cvičení Náhodný vektor Náhodným vektorem rozumíme sloupcový vektor X=(X, X,, X n ) složený z náhodných veličin X, X,, X n, který je charakterizován sdruženým rozdělením pravděpodobnosti.
Víceu Pacova Metoda pro validaci koncentrace přízemního ozónu kontinuálně měřené na Atmosférické 1 / 23sta
koncentrace přízemního ozónu kontinuálně měřené na Atmosférické stanici Křešín u Pacova Metoda pro validaci koncentrace přízemního ozónu kontinuálně měřené na Atmosférické 1 / 23sta Obsah Měření Kvalita
VíceInterpolace Uvažujme třídu funkcí jedné proměnné ψ(x; a 0,..., a n ), kde a 0,..., a n jsou parametry, které popisují jednotlivé funkce této třídy. Mějme dány body x 0, x 1,..., x n, x i x k, i, k = 0,
VíceUčební texty k státní bakalářské zkoušce Matematika Skalární součin. študenti MFF 15. augusta 2008
Učební texty k státní bakalářské zkoušce Matematika Skalární součin študenti MFF 15. augusta 2008 1 10 Skalární součin Požadavky Vlastnosti v reálném i komplexním případě Norma Cauchy-Schwarzova nerovnost
VíceKapitola 11: Vektory a matice:
Kapitola 11: Vektory a matice: Prostor R n R n = {(x 1,, x n ) x i R, i = 1,, n}, n N x = (x 1,, x n ) R n se nazývá vektor x i je i-tá souřadnice vektoru x rovnost vektorů: x = y i = 1,, n : x i = y i
VíceJiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou
VíceFP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci
FP - SEMINÁŘ Z NUMERICKÉ MATEMATIKY Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci OBSAH A CÍLE SEMINÁŘE: Opakování a procvičení vybraných
VíceVýběrové charakteristiky a jejich rozdělení
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový
Více10 Funkce více proměnných
M. Rokyta, MFF UK: Aplikovaná matematika II kap. 10: Funkce více proměnných 16 10 Funkce více proměnných 10.1 Základní pojmy Definice. Eukleidovskou vzdáleností bodů x = (x 1,...,x n ), y = (y 1,...,y
VíceMATEMATICKÁ STATISTIKA - XP01MST
MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného
VíceMatematika III. Miroslava Dubcová, Daniel Turzík, Drahoslava Janovská. Ústav matematiky
Matematika III Řady Miroslava Dubcová, Daniel Turzík, Drahoslava Janovská Ústav matematiky Přednášky ZS 202-203 Obsah Číselné řady. Součet nekonečné řady. Kritéria konvergence 2 Funkční řady. Bodová konvergence.
VíceMatematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace
Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Jan Slovák Masarykova univerzita Fakulta informatiky 28. 11 2. 12. 2016 Obsah přednášky 1 Literatura 2 Střední
Více1 Báze a dimenze vektorového prostoru 1
1 Báze a dimenze vektorového prostoru 1 Báze a dimenze vektorového prostoru 1 2 Aritmetické vektorové prostory 7 3 Eukleidovské vektorové prostory 9 Levá vnější operace Definice 5.1 Necht A B. Levou vnější
Vícefakulty MENDELU v Brně (LDF) s ohledem na disciplíny společného základu http://akademie.ldf.mendelu.cz/cz (reg. č. CZ.1.07/2.2.00/28.
Základy lineárního programování Vyšší matematika, Inženýrská matematika LDF MENDELU Podpořeno projektem Průřezová inovace studijních programů Lesnické a dřevařské fakulty MENDELU v Brně (LDF) s ohledem
Vícea způsoby jejího popisu Ing. Michael Rost, Ph.D.
Podmíněná pravděpodobnost, náhodná veličina a způsoby jejího popisu Ing. Michael Rost, Ph.D. Podmíněná pravděpodobnost Pokud je jev A vázán na uskutečnění jevu B, pak tento jev nazýváme jevem podmíněným
Více5. Lokální, vázané a globální extrémy
5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,
Více11. Skalární součin a ortogonalita p. 1/16
11. Skalární součin a ortogonalita 11. Skalární součin a ortogonalita p. 1/16 11. Skalární součin a ortogonalita p. 2/16 Skalární součin a ortogonalita 1. Definice skalárního součinu 2. Norma vektoru 3.
VíceUčební texty k státní bakalářské zkoušce Matematika Základy teorie funkcí více proměnných. študenti MFF 15. augusta 2008
Učební texty k státní bakalářské zkoušce Matematika Základy teorie funkcí více proměnných študenti MFF 15. augusta 2008 1 5 Základy teorie funkcí více proměnných Požadavky Parciální derivace a totální
Více1 Projekce a projektory
Cvičení 3 - zadání a řešení úloh Základy numerické matematiky - NMNM20 Verze z 5. října 208 Projekce a projektory Opakování ortogonální projekce Definice (Ortogonální projekce). Uvažujme V vektorový prostor
VíceVLIV STATISTICKÉ ZÁVISLOSTI NÁHODNÝCH VELIČIN NA SPOLEHLIVOST KONSTRUKCE
IV. ročník celostátní konference SPOLEHLIVOST KONSTRUKCÍ Téma: Posudek - poruchy - havárie 25 23.až 24.4.2003 Dům techniky Ostrava ISBN 80-02-055-7 VLIV STATISTICKÉ ZÁVISLOSTI NÁHODNÝCH VELIČIN NA SPOLEHLIVOST
VíceDEFINICE Z LINEÁRNÍ ALGEBRY
DEFINICE Z LINEÁRNÍ ALGEBRY Skripta Matematické metody pro statistiku a operační výzkum (Nešetřilová, H., Šařecová, P., 2009). 1. definice Vektorovým prostorem rozumíme neprázdnou množinu prvků V, na které
VíceKlasifikační metody pro genetická data: regularizace a robustnost
Odd medicínské informatiky a biostatistiky Ústav informatiky AV ČR, vvi Práce vznikla za finanční podpory Nadačního fondu Neuron na podporu vědy Klasifikační metody pro genetická data Regularizovaná klasifikační
Vícez Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin
Příklady k procvičení z Matematické statistiky Poslední úprava. listopadu 207. Konvergence posloupnosti náhodných veličin. Necht X, X 2... jsou nezávislé veličiny s rovnoměrným rozdělením na [0, ]. Definujme
VíceIII. Diferenciál funkce a tečná rovina 8. Diferenciál funkce. Přírůstek funkce. a = (x 0, y 0 ), h = (h 1, h 2 ).
III. Diferenciál funkce a tečná rovina 8. Diferenciál funkce. Přírůstek funkce = f(x 0 + h 1, y 0 + h 2 ) f(x 0, y 0 ) f u (x 0, y 0 ), kde u = (h 1, h 2 ). ( ) = f(x 0 + h 1, y 0 ) f(x 0, y 0 ) x (x 0,
VíceLDF MENDELU. Simona Fišnarová (MENDELU) Základy lineárního programování VMAT, IMT 1 / 25
Základy lineárního programování Vyšší matematika, Inženýrská matematika LDF MENDELU Podpořeno projektem Průřezová inovace studijních programů Lesnické a dřevařské fakulty MENDELU v Brně (LDF) s ohledem
VíceRozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce
Náhodná veličina motivace Náhodná veličina Často lze výsledek náhodného pokusu vyjádřit číslem: číslo, které padlo na kostce, výška náhodně vybraného studenta, čas strávený čekáním na metro, délka života
Víceletní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory
Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme
VíceMOORE-PENROSEOVA INVERZE MATICE A JEJÍ APLIKACE. 1. Úvod
Kvaternion 1/2013, 7 14 7 MOORE-PENROSEOVA INVERZE MATICE A JEJÍ APLIKACE LADISLAV SKULA Abstrakt V článku je uvedena definice pseudoinverzní matice, ukázána její existence a jednoznačnost a zmíněny dvě
VícePRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr
VíceKristýna Kuncová. Matematika B3
(5) Funkce více proměnných II Kristýna Kuncová Matematika B3 Kristýna Kuncová (5) Funkce více proměnných II 1 / 20 Parciální derivace - příklad Otázka Tabulka vpravo znázorňuje hodnoty funkce f (x, y).
VíceNáhodná veličina a její charakteristiky. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáte. Proto je proměnná, která
Náhodná veličina a její charakteristiky Náhodná veličina a její charakteristiky Představte si, že provádíte náhodný pokus, jehož výsledek jste schopni ohodnotit nějakým číslem. Před provedením pokusu jeho
VíceExtrémy funkce dvou proměnných
Extrémy funkce dvou proměnných 1. Stanovte rozměry pravoúhlé vodní nádrže o objemu 32 m 3 tak, aby dno a stěny měly nejmenší povrch. Označme rozměry pravoúhlé nádrže x, y, z (viz obr.). ak objem této nádrže
Vícestránkách přednášejícího.
Předmět: MA 4 Dnešní látka Iterační metoda Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Superrelaxační metoda (metoda SOR) Metoda sdružených gradientů Četba: Text o lineární algebře v Příručce
VíceMatematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III
Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost
VíceZáklady maticového počtu Matice, determinant, definitnost
Základy maticového počtu Matice, determinant, definitnost Petr Liška Masarykova univerzita 18.9.2014 Matice a vektory Matice Matice typu m n je pravoúhlé (nebo obdélníkové) schéma, které má m řádků a n
Více1 Linearní prostory nad komplexními čísly
1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)
VícePŘEDNÁŠKA 7 Kongruence svazů
PŘEDNÁŠKA 7 Kongruence svazů PAVEL RŮŽIČKA Abstrakt. Definujeme svazové kongruence a ukážeme jak pro vhodné binární relace svazu ověřit, že se jedná o svazové kongruence. Popíšeme svaz Con(A) kongruencí
VíceRegresní analýza. Ekonometrie. Jiří Neubauer. Katedra ekonometrie FVL UO Brno kancelář 69a, tel
Regresní analýza Ekonometrie Jiří Neubauer Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Jiří Neubauer (Katedra ekonometrie UO Brno) Regresní analýza 1 / 23
Více13. cvičení z PSI ledna 2017
cvičení z PSI - 7 ledna 07 Asymptotické pravděpodobnosti stavů Najděte asymptotické pravděpodobnosti stavů Markovova řetězce s maticí přechodu / / / 0 P / / 0 / 0 0 0 0 0 0 jestliže počáteční stav je Řešení:
VíceAlgoritmy komprese dat
Algoritmy komprese dat Úvod do teorie informace Claude Shannon (1916 2001) 5.11.2014 NSWI072-7 Teorie informace Informace Co je to informace? Můžeme informaci měřit? Existují teoretické meze pro délku
Vícecv3.tex. Vzorec pro úplnou pravděpodobnost
3 cvičení - pravděpodobnost 2102018 18cv3tex n i=1 Vzorec pro úplnou pravděpodobnost Systém náhodných jevů nazýváme úplným, jestliže pro něj platí: B i = 1 a pro i k je B i B k = 0 Jestliže je (Ω, A, P
VíceMatematická analýza pro informatiky I.
Matematická analýza pro informatiky I. 10. přednáška Diferenciální počet funkcí více proměnných (II) Jan Tomeček jan.tomecek@upol.cz http://aix-slx.upol.cz/ tomecek/index Univerzita Palackého v Olomouci
VíceRiemannův určitý integrál
Riemannův určitý integrál 1. Motivační příklad Příklad (Motivační příklad pro zavedení Riemannova integrálu). Nechť,. Vypočtěme obsah vybarvené oblasti ohraničené grafem funkce, osou a svislými přímkami
VícePoznámky k předmětu Aplikovaná statistika, 4. téma
Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické
VíceDijkstrův algoritmus
Dijkstrův algoritmus Hledání nejkratší cesty v nezáporně hranově ohodnoceném grafu Necht je dán orientovaný graf G = (V, H) a funkce, která každé hraně h = (u, v) H přiřadí nezáporné reálné číslo označované
VíceFakt. Každou soustavu n lineárních ODR řádů n i lze eliminací převést ekvivalentně na jednu lineární ODR
DEN: ODR teoreticky: soustavy rovnic Soustava lineárních ODR 1 řádu s konstantními koeficienty je soustava ve tvaru y 1 = a 11 y 1 + a 12 y 2 + + a 1n y n + b 1 (x) y 2 = a 21 y 1 + a 22 y 2 + + a 2n y
VíceNecht L je lineární prostor nad R. Operaci : L L R nazýváme
Skalární součin axiomatická definice odvození velikosti vektorů a úhlu mezi vektory geometrická interpretace ortogonalita vlastnosti ortonormálních bázi [1] Definice skalárního součinu Necht L je lineární
VíceMATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]
MATICE Matice typu m/n nad tělesem T je soubor m n prvků z tělesa T uspořádaných do m řádků a n sloupců: a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] a m1 a m2 a mn Prvek a i,j je prvek matice A na místě
Více+ 2y. a y = 1 x 2. du x = nxn 1 f(u) 2x n 3 yf (u)
Diferenciální počet příklad 1 Dokažte, že funkce F, = n f 2, kde f je spojitě diferencovatelná funkce, vhovuje vztahu + 2 = nf ; 0 Řešení: Označme u = 2. Pak je F, = n fu a platí Podle vět o derivaci složené
VíceStatistická teorie učení
Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální
VíceFaculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague
Tomáš Faculty of Nuclear Sciences and Physical Engineering Czech Technical University in Prague 1 / 63 1 2 3 4 5 6 7 8 9 10 11 2 / 63 Aritmetický vektor Definition 1 Aritmetický vektor x je uspořádaná
VíceNecht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru
2. Systémy lineárních rovnic V této kapitole se budeme zabývat soustavami lineárních rovnic s koeficienty z pole reálných případně komplexních čísel. Uvádíme podmínku pro existenci řešení systému lineárních
VíceVěta o dělení polynomů se zbytkem
Věta o dělení polynomů se zbytkem Věta. Nechť R je okruh, f, g R[x], přičemž vedoucí koeficient polynomu g 0 je jednotka okruhu R. Pak existuje jediná dvojice polynomů q, r R[x] taková, že st(r) < st(g)
VíceMalé statistické repetitorium Verze s řešením
Verze s řešením Příklad : Rozdělení náhodné veličiny základní charakteristiky Rozdělení diskrétní náhodné veličiny X je dáno následující tabulkou x 0 4 5 P(X = x) 005 05 05 0 a) Nakreslete graf distribuční
VícePřijímací zkouška - matematika
Přijímací zkouška - matematika Jméno a příjmení pište do okénka Číslo přihlášky Číslo zadání 1 Grafy 1 Pro který z následujících problémů není znám žádný algoritmus s polynomiální časovou složitostí? Problém,
VíceVlastní čísla a vlastní vektory
Kapitola 11 Vlastní čísla a vlastní vektory Základní motivace pro studium vlastních čísel a vektorů pochází z teorie řešení diferenciálních rovnic Tato teorie říká, že obecné řešení lineární diferenciální
VíceBinární vyhledávací stromy pokročilé partie
Binární vyhledávací stromy pokročilé partie KMI/ALS lekce Jan Konečný 30.9.204 Literatura Cormen Thomas H., Introduction to Algorithms, 2nd edition MIT Press, 200. ISBN 0-262-5396-8 6, 3, A Knuth Donald
VíceMatematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic
Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je
VíceI. D i s k r é t n í r o z d ě l e n í
6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme
VícePoznámky k předmětu Aplikovaná statistika, 4. téma
Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické
Více