2. Entropie a Informace. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

Rozměr: px
Začít zobrazení ze stránky:

Download "2. Entropie a Informace. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze"

Transkript

1 KYBERNETIKA A UMĚLÁ INTELIGENCE 2. Entropie a Informace laboratory Gerstner Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

2 Popis složitých systémů V minulé přednášce: stavový popis systému. Zkusme uplatnit na systém s velkým množstvím interagujících součástí: např. částice plynu v uzavřené komoře. Stav částice i: 6 hodnot: [x i, y i, z i, d x i d t, d y i d t, d z i d t ]. Stav celého systému hodnot na 1 mol plynu! (Avogadrova konstanta) Dynamický model systému: řádově stejný počet rovnic zachování hybnosti. S takovým modelem nelze pracovat. Existuje jiná možnost? Ano, pokud upustíme od deterministického popisu. Stochastické (pravděpodobnostní) modely

3 Rychlokurs pravděpodobnosti (více v Matematice 3) Funkce Pr(A) přiřazující náhodnému jevu A číslo z intervalu [0; 1]. Interpretace: pro velký počet náhodných pokusů se relativní četnost A bĺıží Pr(A). Příklad: počet výsledků 6 lim počet hodů počet hodů = Pr(výsledku 6) = 1 6 Pravděpodobnost, že nenastane jev A = Pr( A) = 1 Pr(A). Sdružená pravděpodobnost: Pr(A, B) - pravděpodobnost, že současně nastanou A i B. Nezávislost: Jevy A i B jsou nezávislé, pokud Pr(A, B) = Pr(A) Pr(B). Příklad: Pr(černá 6, červená 1) = Pr(černá 6) Pr(červená 1) = = 1 36 Pravděpodobnost, že nastane alespoň jeden z A, B: Pr(A B) = Pr(A) + Pr(B) Pr(A, B)

4 Rychlokurs pravděpodobnosti (více v Matematice 3) Podmíněná pravděpodobnost: Pr(A B) - pravděpodobnost jevu A za předpokladu, že nastal jev B. Platí Pr(A B) = Pr(A,B) Pr(B) Příklad: Pr(lichý 4) = Pr(lichý, 4) Pr( 4) = Pr(5) 1 Pr( 4) = = 1 3 Náhodná veličina: funkce zobrazující výsledek náhodného pokusu na reálné číslo. Příklady: Součet výsledků 100 hodů kostkou - diskrétní n.v. (pouze celé hodnoty) Rychlost náhodně zvolené částice plynu - spojitá n.v. Distribuce diskrétní n.v.: P (x) Pr(X = x) (též: rozložení, rozdělení) Hustota spojité n.v. X: f(x) taková, že platí Pr(a X < b) = b a f(x)dx Tedy Pr(a X b) = plocha pod grafem f(x) mezi a a b. Proč ne jednoduše f(x) Pr(X = x) jako u diskrétní? Protože zde Pr(X = x) = 0 pro jakékoliv x! (výběr z množství hodnot!)

5 Příklad hustoty a distribuce, Střední hodnota Binomiální distribuce diskrétní n.v.: ( ) n P (x) = p x (1 p) n x x Např: P (x) = pravděpodobnost x orlů při n hodech mincí, kde Pr(orel) = p (zde p = 0.5). Normální hustota spojité n.v.: ( ) f(x) = 1 σ exp (x µ)2 2π 2σ 2 parametry: µ - střed, σ 2 - rozptyl (rozpětí zvonu ) Příklad: obvyklé rozložení chyb měření kolem skutečné hodnoty µ. Střední hodnota diskrétní n.v.: X = i= xp (x) (pro binom.: X = np). Intuitivně: průměr všech možných hodnot vážený jejich pravděpodobností. Střední hodnota spojité n.v.: X = xf(x)dx (pro normální X = µ). X se také nazývá očekávaná hodnota, někdy značená EX (E - jako Expectation).

6 Sdružená distribuce a hustota Sdružená distribuce dvou diskrétních n.v. P (x, y) Pr(X = x, Y = y) Podobně sdružená hustota f(x, y) pro dvě spojité n.v.: Pr(a X b, c Y d) = d c b a f(x, y)dxdy Alternativní zobrazení: 2D Kontury Hustota bodů náhodného vzorku

7 Marginalizace Podmíněná distribuce a hustota: P (x y) P (x, y) f(x, y), f(x y) = P (y) f(y) Z distribuce P (x, y) nebo P (x y) lze vypočítat hodnotu P (x) pro jakékoliv x: P (x) = y= P (x, y) = y= P (x y)p (y) (Součet přes všechny možné hodnoty y j n.v. Y ) Tzv. marginalizace, P (x i ) - marginální pravděpodobnost. Analogicky pro marginální hustotu spojité n.v. Příklad: tabulka pro P (x i, y j ): y 1 y 2 p(x i ) x x x p(y j ) marginální = na okraji f(x) = f(x, y)dy = f(x y)f(y)dy

8 Stochastický model systému Zpět k úvodnímu příkladu: jak popsat systém částic plynu, nelze-li deterministicky? Pomocí hustoty pravděpodobnosti. Maxwell-Boltzmannovo rozložení rychlosti částic (vám známé z Fyziky 2!). Pr(v 1 v v 2 ) = v2 v 1 f(x)dx = zelená plocha Model může být odvozen nebo experimentálně změřen. Podobně lze spočítat modely pro další stavové veličiny: pravděpodobnostní rozložení prostorových souřadnic částice pravděpodobnostní rozložení energie částice ( Boltzmannovo rozložení), atd. Srovnání: Oproti deterministickému modelu dynamiky stochastický model rozložení: Nerozlišuje stavy x i (t) konkrétních částic i v konkrétních časových okamžicích t. Pouze poskytuje pravděpodobnost stavu x pro libovolnou částici v libovolném okamžiku.

9 Stochastický model systému: širší souvislosti Více stavových veličin. Uvažovaný model bral v úvahu pouze jednu stavovou veličinu. Modelem stochastického systému s n stavovými proměnnými X 1, X 2,... X n je sdružená hustota f(x 1, x 2,... x n ) pro spojité resp. sdružená distribuce P (x 1, x 2,... x n ) pro diskrétní veličiny. Čím více proměnných, tím těžší je hustotu/distribuci odhadnout z dat, tj. sestrojit generativní systém z datového ( přednášky 8-9). Pouze v případě vzájemné statistické nezávislosti veličin se situace zjednoduší, nebot f(x 1, x 2,... x n ) = f(x 1 ) f(x 2 ) f(x n ) (stejně tak pro P (.)). P (x 1, x 2,... x n ) lze modelovat tzv. Bayesovskými sítěmi ( přednáška 10). Dynamika. V minulé přednášce: časový vývoj deterministických systémů. Lze popsat časový vývoj stochastického systému? Obor stochastických procesů. Speciální případ, tzv. Markovské řetězce: Předpoklad 1: Diskrétní čas k a jedna diskrétní stavová proměnná: x(k) Předpoklad 2: Hustota P (x(k + 1)) závisí pouze na x(k), nikoliv x(k 1), x(k 2),.... Model systému je pak podmíněná distribuce P (x(k+1) x(k)) a marginální distribuce P (x) ( počáteční podmínka ). Jednoduchá aplikace v příští přednášce.

10 Stochastický model systému NÁMITKA: Stochastický model zavádí do popisu neurčitost. Systém již nelze modelovat přesně. Odpověd 1: Záleží na rozlišovací úrovni. Ze stochastického modelu na úrovni částic vyplývají deterministické vztahy na úrovni celého systému (např. mezi p, V a T). Odpověd 2: I původně uvažovaný deterministický model vyplývá ze stochastických vztahů na vyšší rozlišovací úrovni (kvantový popis)! Střídání deterministických a stochastických modelů při změně rozlišovací úrovně... Nejedná se o obecný princip v kybernetice?? Ano! Jde o emergenci.

11 Emergence determinismu Podobné žebříčky i pro technické, biologické, apod. systémy. (Zkuste vymyslet!)

12 Neuspořádanost Díky čemu mohou ze stochastických systémů emergovat deterministické principy (přechodem na niží rozlišení či v čase)? Je-li snížena neuspořádanost stochastického systému. Vysoká neuspořádanost Nižší neuspořádanost Deterministický systém rovnoměrná hustota pravdě- kvantový model atomu klasický deterministický podobnosti výskytu částice - nerovnoměrná hustota model atomu embryo - 1. týden embryo - 2. týden embryo - 4. týden totožné kmenové buňky odlišné (specializované) buňky uspořádání do orgánů

13 Termodynamická entropie Neuspořádanost = zásadní kybernetická veličina. Ale jak ji matematicky definovat a měřit? Možnou mírou neuspořádanosti je termodynamická entropie S. Množství energie systému nevyužitelné k práci (podrobnosti ve Fyzice 2) EN - energie, TROP - měnit (řecky), tj. energie přeměněná na nevyužitelnou (= teplo). Jak to souvisí s neuspořádaností? Uvažujme dva termodynamické systémy: Lazare N.M. Carnot ( ) Vysoká neuspořádanost Nízká schopnost konat práci (p 1 p 2 ). Vysoká entropie Nízká neuspořádanost Vysoká schopnost konat práci (p 1 >> p 2 ). Nízká entropie Termodynamická entropie tedy zjevně stoupá s neuspořádaností, ale...

14 Informace Pro kybernetiku potřebujeme obecnější definici entropie, nevázanou na pouze termodynamické systémy. Základní myšlenka: neuspořádanost - entropie - je množství informace potřebné k popisu (tj. odstranění neurčitosti) stavu. Jak ale počítat množství informace? Uvažujme znovu systém Zvolme náhodně jednu částici a rozlišme dva možné stavy: S {l, p}. l: částice je v levé komoře p: částice je v pravé komoře S je diskrétní náhodná veličina s distribucí P (l) = Pr(S = l), P (p) = Pr(S = p). Zprávou l resp. p kódujeme výsledek náhodného pokusu, tedy zda S = l resp. S = p Jak kvantifikovat množství informace I(l) resp. I(p) v takové zprávě?

15 Informace Uvažujme nejprve maximálně uspořádaný systém. Zde platí P (l) = 1. Stav l je tedy jistý a zpráva l nenese žádnou informaci. Obráceně: pokud by platilo P (p) = 1, nenesla by žádnou informaci zpráva p. Obecně pro zprávu s {l, p} tedy požadujeme: I(s) = 0 pokud pro stav s platí P (s) = 1 I(s) stoupá s klesající P (s) Požadavku vyhovuje funkce I(s) = log P (s)

16 Informace Proč právě logaritmická funkce? Vyhovuje dále požadavku aditivity: Mějme zprávu s i, s j o stavu dvou částic i a j (předpokládáme jejich statistickou nezávislost). Množství informace nezávisí na tom, zda informujeme o stavu i a j najednou, nebo zvlášt (ve dvou zprávách). Mělo by tedy platit: I(s i, s j ) = I(s i ) + I(s j ) Skutečně platí: I(s i, s j ) = log P (s i, s j ) = log [ P (s i ) P (s j ) ] = log P (s i ) log P (s j ) = I(s i )+I(s j ) Jaký základ má použitý logaritmus mít? Změna základu odpovídá pouze změně měřítka log a P (s) = log b P (s) log a b kde log a b je konstanta (a 1, b 1). Konvence: základ je 2 a měřítko se pak nazývá bit.

17 Informační entropie Uvažujme neúplně uspořádaný systém. Zde P (l) = 0.9 a P (p) = 1 P (l) = 0.1 Je-li částice v l, pak zpráva o tomto stavu nese informaci I(l) = log Je-li částice v p, pak zpráva o tomto stavu nese informaci I(p) = log Informační entropie H je pak střední hodnotou informace přes oba stavy: s {l,p} P (s) log 2 P (s) = [bit] Obecně pro systém konečným počtem možných stavů S {s 1, s 2,..., s n }, n a pravděpodobnostní distribucí P (s i ) je informační entropie definována jako střední hodnota: H(S) = n P (s i ) log 2 P (s i ) [bit] i=1 (Pozn.: formálně definujeme 0 log 2 (0) 0.) Claude E. Shannon ( )

18 Vlastnosti informační entropie Uvažujme systém se dvěma stavy s 1, s 2 (tzv. binární systém). Necht P (s 1 ) = p, a tedy P (s 2 ) = 1 p. Entropie H je v tomto případě pouze funkcí p. Platí H(p) = p log 2 p (1 p) log 2 (1 p) H(p) = 0 pro p = 0 (odpovídá ) i pro p = 1 (odpovídá ). H(p) = 1 pro p = 0.5 (odpovídá ) H(0) = 0 log log 2 1 = 0 0 = 0 H(1) = 1 log log 2 0 = 0 0 = 0 H( 1 2 ) = 1 2 log log = log = ( 1) ( 1) = 1

19 Vlastnosti informační entropie Obecně pro n.v. S s n < možnými stavy: Entropie je maximální pro rovnoměrné rozložení P (s i ) = 1/n i H(S) = n i=1 1 n log 2 1 n = log 2 1 n = log 2 n Entropie je minimální pro zcela deterministický systém k P (s k ) = 1 a P (s i ) = 0 pro i k H(S) = n i=1 1 n log 2 1 n = log 2 1 = 0 Platí tedy 0 H(S) log 2 n Informační entropie je tedy mírou neuspořádanosti nezávislou na termodyn. veličinách. Narozdíl od informace I není entropie H závislá na délce zprávy. Pouze funkcí rozložení n.v.

20 Spojité veličiny: diferenciální entropie Uvažujme spojitou n.v. X s pravděpodobnostní hustotou f(x). Příklad: stav = rychlost částice v termodynamickém systému. Definujeme diferenciální entropii: h(x) = f(x) log 2 f(x)dx Diferenciální h není limitním zobecněním diskrétní H. Uvažujme diskrétní n.v. S a spojitou n.v. X. Necht P (s) = f(s), tj. distribuce S je diskretizací hustoty X s přesností (vzorkovacím intervalem). Oproti očekávání: h(x) lim 0 s= f(s) log 2 f(s) Pravá strana diverguje (ověřte), nebot log 2. Narozdíl od diskrétní H je hodnota h závislá na měřítku. Příklad: Necht X je spojitá n.v. s normálním rozložením, µ = 0, σ = 1. Necht Y je spojitá n.v.: Y = ax (a 1 je konstanta). Potom H(X) H(Y ) = H(X) + log 2 a. Zkuste ověřit.

21 Entropie jako počet mikrostavů odpovídajících makrostavu Uvažujme systém s N částicemi, každá ve stavu s = l, nebo s = p. Mikrostav := stavy všech částic (s 1, s 2,... s N ). Makrostav := L = počet částic v l. ( ) N Ω: počet možných mikrostavů pro makrostav L: = N! L L!(N L)! H: informační entropie při makrostavu L: L N log 2 L N N L N log 2 N L N log 2 Ω pro rostoucí L H pro rostoucí L Pozorování: H konst log 2 Ω (lze také odvodit z aproximace log n! n log n n). H roste s Ω: H je tedy také míra neurčitosti mikrostavu při známém makrostavu. Srovnejte se Boltzmanovým vztahem pro termodynamickou entropii: S = k ln W (k - Bolzmannova konstanta, W - počet možných mikrostavů odpovídajících makrostavu s S).

22 Druhá termodynamická věta Z predešlé strany: čím vyšší entropie makrostavu, tím vyšší počet odpovídajících mikrostavů. Důsledek: makrostavy s vysokou entropíı jsou častější. 2. termodynamická věta: Teplo nemůže přecházet ze studenějšího tělesa na teplejší. Jinými slovy: Systém se samovolně vyvíjí ke svému nejpravděpodobnějšímu stavu (s nejvyšší entropíı). Příklad: Rudolf Clausius ( ) ne obráceně Příklad: voda + led studená voda, ne obráceně. Platí pro uzavřené (izolované) systémy. Entropii, neuspořádanost, neurčitost systému lze snížit jen dodáním energie z vnějšku systému. (Tvrzení neplatí pro informační entropii, pokud je vztažena na abstraktní/nefyzikální systémy.)

23 Maxwellův démon Opravdu platí druhá termodynamická věta? Myšlenkový experiment: Maxwellův démon ( ) Démon propouští částice pouze z levé komory do pravé, zpět ne. (Alternativně: rychlé částice pouze z L do P, pomalé pouze z P do L.) Je tím snížena entropie uzavřeného systému?! Vysvětlení (Szilárd, 1929): Na získání informace, tj. odstranění neurčitosti o stavu částice (polohy, rychlosti atp.) musí démon vynaložit energii, např. vysláním fotonu. Entropie subsystému démon se tím zvyšuje (jeho počáteční energie se mění na nevyužitelnou). V součtu se entropie celého systému nesnižuje. James C. Maxwell ( ) Leó Szilárd ( )

24 Příklad: entropie v přirozených jazycích Informační entropie je střední hodnota informace a není nutně vztažena na fyzikální systémy! Lze spočítat např. entropii jazyka J, H(J) = s P (s) log 2 P (s), kde P (s) je pravděpodobnost znaku s z abecedy {A, B, C,... } mezera P (s) jsou spočítány jako relativní četnosti znaků analýzou rozsáhlých textů. Potom např. H(angličtiny) 4.1 [bit], čestina zhruba stejně. Místo znaků přirozené abecedy lze také uvažovat celá slova apod. NÁMITKA 1: Nejvíce informace pak nese jazyk s rovnoměrným rozdělením P (i) se zprávami jako RIC SPO YUHNDROPQ LFRT FEO OSNTIEOL MCNAPCFNETTIUC N SDI?! Odpověd : ano, Shannonova entropie nekvantifikuje význam či užitečnost zprávy. Z hodnoty entropie ale můžeme např. zjistit, že takové zprávy nemůžeme komprimovat, zatímco zprávy přirozeného jazyka ano. Uvidíme příšte. NÁMITKA 2: Počítat entropii přirozeného jazyka výše uvedeným způsobem není rozumné. Kdo vymysĺı proč? Uvidíme příšte.

25 Souhrn přednášky Systémy s velkým množstvím interagujících součástí obvykle nelze modelovat deterministicky. Je nutno použít stochastický model, definovaný jednou čí více pravděpodobnostními distribucemi - pro spojité stavové veličiny. hustotami - spojité stavové veličiny. Mírou neuspořádanosti stochastického systému je informační entropie, počítaná z pravděpodobnostní distribuce resp. hustoty dané stavové veličiny. Informační entropie je střední hodnotou množství informace nutného k odstranění neurčitosti stavu. Informační entropie souvisí s entropíı termodynamickou: obě jsou rostoucí funkcí počtu možných mikrostavů pro makrostav s danou entropíı. Informační entropie je obecnější pojem: není vázána na pouze termodynamické systémy. Entropii (informační i termodynamickou) uzavřeného systému lze snížit jen dodáním energie z vnějšku systému. (Nemusí platit pro I.E. vztaženou na nefyzikální systémy).

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y) 5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =

Více

7. Rozdělení pravděpodobnosti ve statistice

7. Rozdělení pravděpodobnosti ve statistice 7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,

Více

Algoritmy komprese dat

Algoritmy komprese dat Algoritmy komprese dat Úvod do teorie informace Claude Shannon (1916 2001) 5.11.2014 NSWI072-7 Teorie informace Informace Co je to informace? Můžeme informaci měřit? Existují teoretické meze pro délku

Více

Síla a významnost asociace mezi proměnnými v systému

Síla a významnost asociace mezi proměnnými v systému Síla a významnost asociace mezi proměnnými v systému Program 1. Entropie jako míra neuspořádanosti. 2. Entropie jako míra informace. 3. Entropie na rozkladu množiny elementárních jevů. 4. Vlastnosti entropie.

Více

1 Rozptyl a kovariance

1 Rozptyl a kovariance Rozptyl a kovariance Nechť X je náhodná veličina s konečnou střední hodnotou EX Potom rozptyl náhodné veličiny X definujeme jako: DX E(X EX, pokud střední hodnota na pravé straně existuje Podobně jako

Více

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1 Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.

Více

Pravděpodobnost a aplikovaná statistika

Pravděpodobnost a aplikovaná statistika Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti

Více

oddělení Inteligentní Datové Analýzy (IDA)

oddělení Inteligentní Datové Analýzy (IDA) Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {

Více

Cvičení ze statistiky - 5. Filip Děchtěrenko

Cvičení ze statistiky - 5. Filip Děchtěrenko Cvičení ze statistiky - 5 Filip Děchtěrenko Minule bylo.. Začali jsme pravděpodobnost Klasická a statistická definice pravděpodobnosti Náhodný jev Doplněk, průnik, sjednocení Podmíněná pravděpodobnost

Více

Statistika II. Jiří Neubauer

Statistika II. Jiří Neubauer Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Zaměříme se především na popis dvourozměrných náhodných veličin (vektorů). Definice Nechť X a Y jsou

Více

Fyzikální korespondenční seminář MFF UK

Fyzikální korespondenční seminář MFF UK Úloha I.S... náhodná 10 bodů; průměr 7,04; řešilo 45 studentů a) Zkuste vlastními slovy popsat, co je to náhodná veličina a jaké má vlastnosti (postačí vlastními slovy objasnit následující pojmy: náhodná

Více

Pravděpodobnost a statistika

Pravděpodobnost a statistika Pravděpodobnost a statistika 1 Náhodné pokusy a náhodné jevy Činnostem, jejichž výsledek není jednoznačně určen podmínkami, za kterých probíhají, a které jsou (alespoň teoreticky) neomezeně opakovatelné,

Více

1. Statistická analýza dat Jak vznikají informace Rozložení dat

1. Statistická analýza dat Jak vznikají informace Rozložení dat 1. Statistická analýza dat Jak vznikají informace Rozložení dat J. Jarkovský, L. Dušek, S. Littnerová, J. Kalina Význam statistické analýzy dat Sběr a vyhodnocování dat je způsobem k uchopení a pochopení

Více

Výběrové charakteristiky a jejich rozdělení

Výběrové charakteristiky a jejich rozdělení Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový

Více

a způsoby jejího popisu Ing. Michael Rost, Ph.D.

a způsoby jejího popisu Ing. Michael Rost, Ph.D. Podmíněná pravděpodobnost, náhodná veličina a způsoby jejího popisu Ing. Michael Rost, Ph.D. Podmíněná pravděpodobnost Pokud je jev A vázán na uskutečnění jevu B, pak tento jev nazýváme jevem podmíněným

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

Náhodné (statistické) chyby přímých měření

Náhodné (statistické) chyby přímých měření Náhodné (statistické) chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně

Více

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti.

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti. 3.1 Základy teorie pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti. Co se dozvíte Náhodný pokus a náhodný jev. Pravděpodobnost, počítání s pravděpodobnostmi.

Více

Charakterizace rozdělení

Charakterizace rozdělení Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

Základy teorie pravděpodobnosti

Základy teorie pravděpodobnosti Základy teorie pravděpodobnosti Náhodný jev Pravděpodobnost náhodného jevu Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 15. srpna 2012 Statistika

Více

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}. VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodná proměnná Náhodná veličina slouží k popisu výsledku pokusu. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáme. Přesto bychom chtěli tento pokus

Více

Přednášky z lékařské biofyziky Biofyzikální ústav Lékařské fakulty Masarykovy univerzity, Brno

Přednášky z lékařské biofyziky Biofyzikální ústav Lékařské fakulty Masarykovy univerzity, Brno Přednášky z lékařské biofyziky Biofyzikální ústav Lékařské fakulty Masarykovy univerzity, Brno JAMES WATT 19.1.1736-19.8.1819 Termodynamika principy, které vládnou přírodě Obsah přednášky Vysvětlení základních

Více

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,

Více

Markovské metody pro modelování pravděpodobnosti

Markovské metody pro modelování pravděpodobnosti Markovské metody pro modelování pravděpodobnosti rizikových stavů 1 Markovský řetězec Budeme uvažovat náhodný proces s diskrétním časem (náhodnou posloupnost) X(t), t T {0, 1, 2,... } s konečnou množinou

Více

Náhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost

Náhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost Pravděpodobnost Náhodné veličiny a jejich číselné charakteristiky Petr Liška Masarykova univerzita 19.9.2014 Představme si, že provádíme pokus, jehož výsledek dokážeme ohodnotit číslem. Před provedením

Více

Téma 22. Ondřej Nývlt

Téma 22. Ondřej Nývlt Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené

Více

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu. 6. NÁHODNÝ VEKTOR Průvodce studiem V počtu pravděpodobnosti i v matematické statistice se setkáváme nejen s náhodnými veličinami, jejichž hodnotami jsou reálná čísla, ale i s takovými, jejichž hodnotami

Více

prof. RNDr. Roman Kotecký DrSc., Dr. Rudolf Blažek, PhD Pravděpodobnost a statistika Katedra teoretické informatiky Fakulta informačních technologií

prof. RNDr. Roman Kotecký DrSc., Dr. Rudolf Blažek, PhD Pravděpodobnost a statistika Katedra teoretické informatiky Fakulta informačních technologií prof. RNDr. Roman Kotecký DrSc., Dr. Rudolf Blažek, PhD Katedra teoretické informatiky Fakulta informačních technologií České vysoké učení technické v Praze c Rudolf Blažek, Roman Kotecký, 2011 Pravděpodobnost

Více

Téma 2: Pravděpodobnostní vyjádření náhodných veličin

Téma 2: Pravděpodobnostní vyjádření náhodných veličin 0.025 0.02 0.015 0.01 0.005 Nominální napětí v pásnici Std Mean 140 160 180 200 220 240 260 Std Téma 2: Pravděpodobnostní vyjádření náhodných veličin Přednáška z předmětu: Pravděpodobnostní posuzování

Více

Diskrétní náhodná veličina. November 12, 2008

Diskrétní náhodná veličina. November 12, 2008 Diskrétní náhodná veličina November 12, 2008 (Náhodná veličina (náhodná proměnná)) Náhodná veličina (nebo též náhodná proměnná) je veličina X, jejíž hodnota je jednoznačně určena výsledkem náhodného pokusu.

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr

Více

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC Přednáška 03 Přírodovědecká fakulta Katedra matematiky KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC jiri.cihlar@ujep.cz Diskrétní rozdělení Důležitá diskrétní rozdělení pravděpodobnosti

Více

Náhodné chyby přímých měření

Náhodné chyby přímých měření Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.

Více

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

4. ZÁKLADNÍ TYPY ROZDĚLENÍ PRAVDĚPODOBNOSTI DISKRÉTNÍ NÁHODNÉ VELIČINY

4. ZÁKLADNÍ TYPY ROZDĚLENÍ PRAVDĚPODOBNOSTI DISKRÉTNÍ NÁHODNÉ VELIČINY 4. ZÁKLADNÍ TYPY ROZDĚLENÍ PRAVDĚPODOBNOSTI DISKRÉTNÍ NÁHODNÉ VELIČINY Průvodce studiem V této kapitole se seznámíte se základními typy rozložení diskrétní náhodné veličiny. Vašim úkolem by neměla být

Více

Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Hodíme dvěma kostkami jaký padl součet?

Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Hodíme dvěma kostkami jaký padl součet? Náhodné veličiny Náhodné veličiny Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Příklad Vytáhneme tři karty z balíčku zajímá nás, kolik je mezi nimi es.

Více

Základy teorie pravděpodobnosti

Základy teorie pravděpodobnosti Základy teorie pravděpodobnosti Náhodná veličina Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 12. února 2012 Statistika by Birom Základy teorie

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Jestliže opakujeme nezávisle nějaký pokus, můžeme z pozorovaných hodnot sestavit rozdělení relativních četností

Více

Charakterizují kvantitativně vlastnosti předmětů a jevů.

Charakterizují kvantitativně vlastnosti předmětů a jevů. Měřicí aparatura 1 / 34 Fyzikální veličiny Charakterizují kvantitativně vlastnosti předmětů a jevů. Můžeme je dělit: Podle rozměrů: Bezrozměrné (index lomu, poměry) S rozměrem fyzikální veličiny velikost

Více

TECHNICKÁ UNIVERZITA V LIBERCI

TECHNICKÁ UNIVERZITA V LIBERCI TECHNICKÁ UNIVERZITA V LIBERCI Fakulta mechatroniky, informatiky a mezioborových studií Základní pojmy diagnostiky a statistických metod vyhodnocení Učební text Ivan Jaksch Liberec 2012 Materiál vznikl

Více

Náhodná veličina a rozdělení pravděpodobnosti

Náhodná veličina a rozdělení pravděpodobnosti 3.2 Náhodná veličina a rozdělení pravděpodobnosti Bůh hraje se světem hru v kostky. Jsou to ale falešné kostky. Naším hlavním úkolem je zjistit, podle jakých pravidel byly označeny, a pak toho využít pro

Více

ROZDĚLENÍ SPOJITÝCH NÁHODNÝCH VELIČIN

ROZDĚLENÍ SPOJITÝCH NÁHODNÝCH VELIČIN ROZDĚLENÍ SPOJITÝCH NÁHODNÝCH VELIČIN Rovnoměrné rozdělení R(a,b) rozdělení s konstantní hustotou pravděpodobnosti v intervalu (a,b) f( x) distribuční funkce 0 x a F( x) a x b b a 1 x b b 1 a x a a x b

Více

Cvičení 5. Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc.

Cvičení 5. Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. 5 Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké učení technické v

Více

Fluktuace termodynamických veličin

Fluktuace termodynamických veličin Kvantová a statistická fyzika (Termodynamika a statistická fyzika Fluktuace termodynamických veličin Fluktuace jsou odchylky hodnot fyzikálních veličin od svých středních (rovnovážných hodnot. Mají původ

Více

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D.

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D. Střední hodnota a rozptyl náhodné veličiny, vybraná rozdělení diskrétních a spojitých náhodných veličin, pojem kvantilu Ing. Michael Rost, Ph.D. Príklad Předpokládejme že máme náhodnou veličinu X která

Více

Bayesovské metody. Mnohorozměrná analýza dat

Bayesovské metody. Mnohorozměrná analýza dat Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A

Více

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

Diskrétní matematika. DiM /01, zimní semestr 2016/2017 Diskrétní matematika Petr Kovář petr.kovar@vsb.cz Vysoká škola báňská Technická univerzita Ostrava DiM 470-2301/01, zimní semestr 2016/2017 O tomto souboru Tento soubor je zamýšlen především jako pomůcka

Více

Pravděpodobnost a statistika I KMA/K413

Pravděpodobnost a statistika I KMA/K413 Pravděpodobnost a statistika I KMA/K413 Konzultace 3 Přírodovědecká fakulta Katedra matematiky jiri.cihlar@ujep.cz Kovariance, momenty Definice kovariance: Kovariance náhodných veličin Dále můžeme dokázat:,

Více

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce Náhodná veličina motivace Náhodná veličina Často lze výsledek náhodného pokusu vyjádřit číslem: číslo, které padlo na kostce, výška náhodně vybraného studenta, čas strávený čekáním na metro, délka života

Více

KOMPRESE OBRAZŮ. Václav Hlaváč, Jan Kybic. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání.

KOMPRESE OBRAZŮ. Václav Hlaváč, Jan Kybic. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání. 1/25 KOMPRESE OBRAZŮ Václav Hlaváč, Jan Kybic Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz http://cmp.felk.cvut.cz/ hlavac KOMPRESE OBRAZŮ, ÚVOD

Více

I. D i s k r é t n í r o z d ě l e n í

I. D i s k r é t n í r o z d ě l e n í 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Derivace funkce. Přednáška MATEMATIKA č Jiří Neubauer

Derivace funkce. Přednáška MATEMATIKA č Jiří Neubauer Přednáška MATEMATIKA č. 9-11 Katedra ekonometrie FEM UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Šotová, J., Doudová, L. Diferenciální počet funkcí jedné proměnné Motivační příklady

Více

Pravděpodobnost a její vlastnosti

Pravděpodobnost a její vlastnosti Pravděpodobnost a její vlastnosti 1 Pravděpodobnost a její vlastnosti Náhodné jevy Náhodný jev je výsledek pokusu (tj. realizace určitého systému podmínek) a jeho charakteristickým rysem je, že může, ale

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

Teorie informace: řešené příklady 2014 Tomáš Kroupa

Teorie informace: řešené příklady 2014 Tomáš Kroupa Teorie informace: řešené příklady 04 Tomáš Kroupa Kolik otázek je třeba v průměru položit, abychom se dozvěděli datum narození člověka (den v roce), pokud odpovědi jsou pouze ano/ne a tázaný odpovídá pravdivě?

Více

NMAI059 Pravděpodobnost a statistika

NMAI059 Pravděpodobnost a statistika NMAI059 Pravděpodobnost a statistika podle přednášky Daniela Hlubinky (hlubinka@karlin.mff.cuni.cz) zapsal Pavel Obdržálek (pobdr@matfyz.cz) 205/20 poslední změna: 4. prosince 205 . přednáška. 0. 205 )

Více

p(x) = P (X = x), x R,

p(x) = P (X = x), x R, 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.

Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti. Přednáška č. 1 Úvod do statistiky a počtu pravděpodobnosti Statistika Statistika je věda a postup jak rozvíjet lidské znalosti použitím empirických dat. Je založena na matematické statistice, která je

Více

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně 7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností

Více

UČENÍ BEZ UČITELE. Václav Hlaváč

UČENÍ BEZ UČITELE. Václav Hlaváč UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení

Více

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7 Pravděpodobnost a statistika (BI-PST) Cvičení č. 7 R. Blažek, M. Jiřina, J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení

Více

NÁHODNÁ VELIČINA. 3. cvičení

NÁHODNÁ VELIČINA. 3. cvičení NÁHODNÁ VELIČINA 3. cvičení Náhodná veličina Náhodná veličina funkce, která každému výsledku náhodného pokusu přiřadí reálné číslo. Je to matematický model popisující více či méně dobře realitu, který

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

Kvantová a statistická fyzika 2 (Termodynamika a statistická fyzika)

Kvantová a statistická fyzika 2 (Termodynamika a statistická fyzika) 1 Statistická fyzika Kvantová a statistická fyzika 2 (Termodynamika a statistická fyzika) Cíl statistické fyziky: vysvětlit makroskopické vlastnosti látky na základě mikroskopických vlastností jejích elementů,

Více

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

MATEMATICKÁ STATISTIKA.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým

Více

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a báli jste se zeptat Jedinečnou funkcí statistiky je, že umožňuje vědci číselně vyjádřit nejistotu v jeho závěrech. (G. W. Snedecor)

Více

Matematika (KMI/PMATE)

Matematika (KMI/PMATE) Matematika (KMI/PMATE) Přednáška druhá aneb Úvod do matematické analýzy Limita a spojitost funkce Matematika (KMI/PMATE) 1 / 30 Osnova přednášky lineární funkce y = kx + q definice lineární funkce význam

Více

10. N á h o d n ý v e k t o r

10. N á h o d n ý v e k t o r 10. N á h o d n ý v e k t o r 10.1. Definice: Náhodný vektor. Uspořádanou n tici (X 1, X 2,..., X n ) náhodných veličin X i, 1 i n, nazýváme náhodným vektorem. Poznámka: Pro jednoduchost budeme zavádět

Více

SIGNÁLY A LINEÁRNÍ SYSTÉMY

SIGNÁLY A LINEÁRNÍ SYSTÉMY SIGNÁLY A LINEÁRNÍ SYSTÉMY prof. Ing. Jiří Holčík, CSc. holcik@iba.muni.cziba.muni.cz II. SIGNÁLY ZÁKLADNÍ POJMY SIGNÁL - DEFINICE SIGNÁL - DEFINICE Signál je jev fyzikální, chemické, biologické, ekonomické

Více

IB112 Základy matematiky

IB112 Základy matematiky IB112 Základy matematiky Základy kombinatoriky a kombinatorická pravděpodobnost Jan Strejček Obsah IB112 Základy matematiky: Základy kombinatoriky a kombinatorická pravděpodobnost 2/57 Výběry prvků bez

Více

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou

Více

Určete zákon rozložení náhodné veličiny, která značí součet ok při hodu a) jednou kostkou, b) dvěma kostkami, c) třemi kostkami.

Určete zákon rozložení náhodné veličiny, která značí součet ok při hodu a) jednou kostkou, b) dvěma kostkami, c) třemi kostkami. 3.1. 3.2. Třikrát vystřelíme na cíl. Pravděpodobnost zásahu při každém výstřelu je p = 0,7. Určete: a) pravděpodobnostní funkci počtu zásahů při třech nezávislých výsledcích, b) distribuční funkci a její

Více

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014 Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2014 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia

Více

Náhodné jevy. Teorie pravděpodobnosti. Náhodné jevy. Operace s náhodnými jevy

Náhodné jevy. Teorie pravděpodobnosti. Náhodné jevy. Operace s náhodnými jevy Teorie pravděpodobnosti Náhodný pokus skončí jedním z řady možných výsledků předem nevíme, jak skončí (náhoda) příklad: hod kostkou, zítřejší počasí,... Pravděpodobnost zkoumá náhodné jevy (mohou, ale

Více

5. Náhodná veličina. 2. Házíme hrací kostkou dokud nepadne šestka. Náhodná veličina nabývá hodnot z posloupnosti {1, 2, 3,...}.

5. Náhodná veličina. 2. Házíme hrací kostkou dokud nepadne šestka. Náhodná veličina nabývá hodnot z posloupnosti {1, 2, 3,...}. 5. Náhodná veličina Poznámka: Pro popis náhodného pokusu jsme zavedli pojem jevového pole S jako množiny všech možných výsledků a pravděpodobnost náhodných jevů P jako míru výskytů jednotlivých výsledků.

Více

LIMITNÍ VĚTY DALŠÍ SPOJITÁ ROZDĚLENÍ PR. 8. cvičení

LIMITNÍ VĚTY DALŠÍ SPOJITÁ ROZDĚLENÍ PR. 8. cvičení LIMITNÍ VĚTY DALŠÍ SPOJITÁ ROZDĚLENÍ PR. 8. cvičení Způsoby statistického šetření Vyčerpávající šetření prošetření všech jednotek statistického souboru (populace) Výběrové šetření ze základního souboru

Více

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.) Lékařská biofyzika, výpočetní technika I Biostatistika Josef Tvrdík (doc. Ing. CSc.) Přírodovědecká fakulta, katedra informatiky josef.tvrdik@osu.cz konzultace úterý 14.10 až 15.40 hod. http://www1.osu.cz/~tvrdik

Více

Pravděpodobnost a statistika (BI-PST) Cvičení č. 4

Pravděpodobnost a statistika (BI-PST) Cvičení č. 4 Pravděpodobnost a statistika (BI-PST) Cvičení č. 4 J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení technické v Praze ZS 2014/2015

Více

8.1. Definice: Normální (Gaussovo) rozdělení N(µ, σ 2 ) s parametry µ a. ( ) ϕ(x) = 1. označovat písmenem U. Její hustota je pak.

8.1. Definice: Normální (Gaussovo) rozdělení N(µ, σ 2 ) s parametry µ a. ( ) ϕ(x) = 1. označovat písmenem U. Její hustota je pak. 8. Normální rozdělení 8.. Definice: Normální (Gaussovo) rozdělení N(µ, ) s parametry µ a > 0 je rozdělení určené hustotou ( ) f(x) = (x µ) e, x (, ). Rozdělení N(0; ) s parametry µ = 0 a = se nazývá normované

Více

Chyby měření 210DPSM

Chyby měření 210DPSM Chyby měření 210DPSM Jan Zatloukal Stručný přehled Zdroje a druhy chyb Systematické chyby měření Náhodné chyby měření Spojité a diskrétní náhodné veličiny Normální rozdělení a jeho vlastnosti Odhad parametrů

Více

SIGNÁLY A LINEÁRNÍ SYSTÉMY

SIGNÁLY A LINEÁRNÍ SYSTÉMY SIGNÁLY A LINEÁRNÍ SYSTÉMY prof. Ing. Jiří Holčík, CSc. holcik@iba.muni.cz II. SIGNÁLY ZÁKLADNÍ POJMY SIGNÁL - DEFINICE SIGNÁL - DEFINICE Signál je jev fyzikální, chemické, biologické, ekonomické či jiné

Více

III. Úplná pravděpodobnost. Nezávislé pokusy se dvěma výsledky. Úplná pravděpodobnost Nezávislé pokusy se dvěma výsledky Náhodná veličina

III. Úplná pravděpodobnost. Nezávislé pokusy se dvěma výsledky. Úplná pravděpodobnost Nezávislé pokusy se dvěma výsledky Náhodná veličina III Přednáška Úplná pravděpodobnost Nezávislé pokusy se dvěma výsledky Náhodná veličina Pravděpodobnost při existenci neslučitelných hypotéz Věta Mějme jev. Pokud H 1,H 2, : : :,H n tvoří úplnou skupinu

Více

Přednáška. Diskrétní náhodná proměnná. Charakteristiky DNP. Základní rozdělení DNP

Přednáška. Diskrétní náhodná proměnná. Charakteristiky DNP. Základní rozdělení DNP IV Přednáška Diskrétní náhodná proměnná Charakteristiky DNP Základní rozdělení DNP Diskrétní náhodná veličina Funkce definovaná na Ω, přiřazující každému elementárnímu jevu E prvky X(E) D R kde D je posloupnost

Více

Inovace bakalářského studijního oboru Aplikovaná chemie

Inovace bakalářského studijního oboru Aplikovaná chemie http://aplchem.upol.cz CZ.1.07/2.2.00/15.0247 Tento projekt je spolufinancován Evropským sociálním fondem a státním rozpočtem České republiky. Základy zpracování dat chemometrie, statistika Doporučenáliteratura

Více

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

Diskrétní matematika. DiM /01, zimní semestr 2018/2019 Diskrétní matematika Petr Kovář petr.kovar@vsb.cz Vysoká škola báňská Technická univerzita Ostrava DiM 470-2301/01, zimní semestr 2018/2019 O tomto souboru Tento soubor je zamýšlen především jako pomůcka

Více

KOMPRESE OBRAZŮ. Václav Hlaváč. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání. hlavac@fel.cvut.

KOMPRESE OBRAZŮ. Václav Hlaváč. Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání. hlavac@fel.cvut. 1/24 KOMPRESE OBRAZŮ Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz http://cmp.felk.cvut.cz/ hlavac KOMPRESE OBRAZŮ, ÚVOD 2/24 Cíl:

Více

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní ..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristik často potřebujeme všetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

Nestranný odhad Statistické vyhodnocování exp. dat M. Čada

Nestranný odhad Statistické vyhodnocování exp. dat M. Čada Nestranný odhad 1 Parametr θ Máme statistický (výběrový) soubor, který je realizací náhodného výběru 1, 2, 3,, n z pravděpodobnostní distribuce, která je kompletně stanovena jedním nebo více parametry

Více

Obsah. Základy teorie pravděpodobnosti Náhodný jev Pravděpodobnost náhodného jevu Pravděpodobnost. Pravděpodobnost. Děj pokus jev

Obsah. Základy teorie pravděpodobnosti Náhodný jev Pravděpodobnost náhodného jevu Pravděpodobnost. Pravděpodobnost. Děj pokus jev Obsah Základy teorie pravděpodobnosti Náhodný jev Pravděpodobnost náhodného jevu Definice pojmů Náhodný jev Pravděpodobnost Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi;-) roman.biskup(at)email.cz

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodná proměnná Náhodná veličina slouží k popisu výsledku pokusu. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáme. Přesto bychom chtěli tento pokus

Více

5.1. Klasická pravděpodobnst

5.1. Klasická pravděpodobnst 5. Pravděpodobnost Uvažujme množinu Ω všech možných výsledků náhodného pokusu, například hodu mincí, hodu kostkou, výběru karty z balíčku a podobně. Tato množina se nazývá základní prostor a její prvky

Více

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016 Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2016 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia

Více

Lekce 4 Statistická termodynamika

Lekce 4 Statistická termodynamika Lekce 4 Statistická termodynamika Osnova 1. Co je statistická termodynamika 2. Mikrostav, makrostav a Gibbsův soubor 3. Příklady Gibbsových souborů 4. Souborové střední hodnoty 5. Časové střední hodnoty

Více

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme

Více