Teorie informace. Mirko Navara. katedra kybernetiky FEL ČVUT Karlovo náměstí, budova G, místnost 104a navara/psi 3. 1.

Rozměr: px
Začít zobrazení ze stránky:

Download "Teorie informace. Mirko Navara. katedra kybernetiky FEL ČVUT Karlovo náměstí, budova G, místnost 104a navara/psi 3. 1."

Transkript

1 Teorie informace Mirko Navara Centrum strojového vnímání katedra kbernetik FEL ČVUT Karlovo náměstí, budova G, místnost 4a navara/psi.. 7 Obsah Informace Entropie. Entropie jako střední hodnota Vlastnosti entropie Informační divergence 5. Informační divergence jako střední hodnota Vlastnosti informační divergence Sdružená entropie 7 4. Podmíněná entropie Vzájemná informace 9 5. Shrnutí vlastností vzájemné informace a podmíněné entropie Informace Teorie pravděpodobnosti popisovala sstém, v němž bude proveden náhodný pokus. Jeho výsledk (i dílčí) popíše informace. Informací může být určení výsledku náhodného pokusu, tj. hodnot náhodné veličin, předpověď, stanovení výsledku, sdělení výsledku. Předpokládáme diskrétní rozdělení. Příklad. (provozování loterie). V loterii bude. = 5 losů po 4 $, z nichž vhraje M$. Certifikované losovací zařízení s 5 výsledk není. (Např. ruleta o průměru km.) Los očíslujeme a necháme nezávisle vlosovat číslice. Problém: Kolik máme zaplatit za vlosování číslic? (. číslice má jen 5 stejně pravděpodobných hodnot.) Řešení: Podle hr větší-menší vlosujeme 9 nezávislých binárních číslic, čímž rozlišíme 9 = možností. Máme za vlosování každé číslice zaplatit stejně?

2 Ano! (Mj. proto, že všechn hod mincí mají stejnou pracnost.) K výběru z k (k N) stejně pravděpodobných možností potřebujeme informaci I( k ) := k I() = k b, I() = b (bit). Rchlejší řešení: Vžd vlosujeme ze možností, postačí nezávislých pokusů, = Kolik informace I() dává výběr ze stejně pravděpodobných možností? 5 = 4. = 5 = 8, I(). = 8 5 =., = 5 44 = = 9, I() =. 9 =. 58,... log M = M = log M, I() = log M log M = log. = Obecně výběr z n stejně pravděpodobných možností nese informaci I(n) := log n. I = Hartleho míra informace. Je to jediná funkce I : N R s vlastnostmi: I(m n) = I(m) + I(n), I je neklesající, I() =. Základ logaritmu je, čímž je dána jednotka informace (b = bit). Speciálně pro n = k : I( k ) = k. Nadále základ neoznačujeme, log = log. 5 4 Funkce log p pro p (, Derivace: ( ) ln x (log x) = = = =. ln x ln.9 x x Kolik informace dostaneme, kdž se dovíme, že správná z n stejně pravděpdobobných možností patří do skupin s k < n prvk? Chbí informace I(k), abchom určili jediný výsledek, tj. abchom měli celkem I(n); nní máme I(n) I(k) = log n log k = log n k. Záleží jen na poměru n k, tj. na pravděpdobnosti p := k n, což dovoluje zobecnění ( n ) ( ) I = I := log n k p k = log p = log p. I pro iracionální p (, definujeme jako jedinou spojitou funkci s výše uvedenými hodnotami pro racionální argument: ( ) I := log p. p (Nepravděpodobnější výsledek větší informace.)

3 Entropie Příklad.. hodnota pravděpodobnost informace I() = log =..585 I ( Cena předplacené informace je střední hodnota h (, ) = log = log. =.585 ) := log + log = log Obecněji: hodnota x x pravděpodobnost p p informace kde ( I p ) ( = log p I p ) = log( p). =.98. h(p, p) := p log p ( p) log( p), }{{}}{{} ι(p) ι( p) ι(p) := p log p, p >, ι() :=. h(p, p) = entropie alternativního rozdělení Funkce p log p pro p, Funkce h(p, p) pro p, Obecně: hodnota x x... pravděpodobnost ( ) p ( ) p... informace I p = log p I p = log(p )... Entropie rozdělení s pravděpodobnostmi p = (p, p,...), p i = : i h(p) = h(p, p,...) := i ι(p i ) = i p i log p i. (Výsledků je spočetně mnoho, nutno předpokládat konvergenci sum.) Entropie náhodné veličin X s různými hodnotami x, x,... a pravděpodobnostní funkcí p X : H(X) := h(p X (x ), p X (x ),...) = x ι(p X (x)) = x p X (x) log p X (x) = E log X Příklad.. = E log p X (X). hodnota x 4 9 pravděpodobnost p X (x) 4 4 informace log p X (x) ( H(X) = h, 4, ) 4 = =.

4 Příklad.. hodnota x. pravd. p X (x)....5 inf. log p X (x) log. =. log 5. =. log 5. =. log = H(X) = h(.,.,.,.5) =. log +. log 5 +. log =. Entropie jako střední hodnota =.5 log =. 7. Nahradili jsme hodnot náhodné veličin X jejich pravděpodobnostmi (jen na těch záleží!), tím jsme dostali náhodnou veličinu W = p X (X) s hodnotami v,. Její rozdělení popisuje pravděpodobnosti pravděpodobností náhodné veličin X. p W (w) = P [p X (X) = w] = pravděpodobnost, že X nabývá hodnot, jejíž pravděpodobnost je w,. Příklad.4. hodnota x A B C D E F pravd. p X (x) informace log p X (x) log log log log 5 log 5 (přibl.) W = p X (X): hodnota w pravděpodobnost p W (w) informace v x log w log =.. log. =.77 log 5 =.. První řádek vznikl opsáním všech různých hodnot z. řádku první tabulk. Ve skutečnosti potřebujeme jejich logaritm, jsou v posledním řádku. Druhý řádek obsahuje odpovídající pravděpodobnosti (každá bla vnásobena počtem svých výsktů ve. řádku první tabulk.. Vlastnosti entropie H(X) = E log p X (X) = E log W. =. = =. 54. H(X) log n, kde n je počet různých hodnot náhodné veličin X (je-li konečný). = H(X) jen pro Diracovo rozdělení, H(X) = log n (kde n je počet možných hodnot) jen pro rovnoměrné rozdělení: Věta.. Maximální entropie se nabývá jen pro rovnoměrné rozdělení. Důkaz. Předpokládejme, že rozdělení (p, p,..., p n ) není rovnoměrné. Pak některá z pravděpodobností je větší a některá menší než n ; BÚNO p > n, p < n. Změnou p := p ε, p := p + ε o malé ε se entropie změní o (ε) = h(p ε, p + ε, p,..., p n ) h(p, p, p,..., p n ) = = ι(p ε) + ι(p + ε) ι(p ) ι(p ), kde ι (p) = ( p log p) = ln log p. Funkce je diferencovatelná, () =, (ε) = ι (p ε) + ι (p + ε) = log(p ε) log(p + ε) = log p ε p + ε. 4

5 Pro dostatečně malé ε > je p ε > n > p + ε, (ε) > a (ε) >. Ted entropie h(p, p,..., p n ) není maximální. BÚNO = bez újm na obecnosti Důsledek.. Entropie rozdělení s nekonečně mnoha hodnotami může být libovolně velká. Věta.. Důkaz. ( p h(p, p, p,...) = h(p + p, p,...) + (p + p ) h, p + p ) p. p + p h(p, p, p,...) h(p + p, p,...) = = ι(p ) + ι(p ) ι(p + p ) = = p log p p log p + (p + p ) log(p + p ) = p p = p log p log = p + p p + p ( = (p + p ) p p log p ) p log = p + p p + p p + p p + p ( ) p p = (p + p ) h,. p + p p + p Informační divergence Příklad. (chbný předpoklad rovnoměrného rozdělení). Předpokládali jsme rozdělení q = (, ) a odhadli entropii h (, ) =. Ve skutečnosti blo rozdělení p = (, ( ) a entropie h, ). =.98. O kolik jsme nadhodnotili jeden znak? ( h, ) ( h, ).=.98 =.8. Příklad. (chbný předpoklad nerovnoměrného rozdělení). Předpokládali jsme rozdělení q = (, ) a odhadli entropii h (, ). =.9. Ve skutečnosti blo rozdělení p = (, ( ) 5 a entropie h, ) 5. =.5. O kolik jsme nadhodnotili jeden znak? Odpověď: ( h, ) ( h, 5 ).=.98.5 =.8. Špatně! Správná odpověď: hodnota x i x x předp. pravd. q i předp. informace log q i log =..585 log. = skut. pravd. p i skut. informace log p i log =..585 log. 5 =. předp. skut. inf. log p i log q i = log pi q i log 5. 4 =. Střední chba odhadu informace je p log p q + p log p q. = ( ) =.. 5

6 Příklad. (chbný předpoklad nerovnoměrného rozdělení ). Vměníme rozdělení z předchozího příkladu: Předpokládali jsme rozdělení q = (, ( ) 5 a odhadli entropii h, ) 5. =.5. Ve skutečnosti blo rozdělení p = (, ( ) a entropie h, ). =.9. O kolik jsme nadhodnotili jeden znak? Špatná odpověď: h (, ( ) 5 h, ). =.5.98 =.8. Správná odpověď: hodnota x i x x 5 předp. pravd. q i předp. inf. log q i log =..585 log. 5 =. skut. pravd. p i skut. inf. log p i log =..585 log. =.585. =. předp. skut. inf. Střední chba odhadu informace je Odhad bl opět nadhodnocený! (Ne stejně.) log p i log q i = log pi q i log 4 5 p log p q + p log p q. =.. =.9. Obecně: Předpokládali jsme rozdělení q = (q, q,...), ve skutečnosti blo p = (p, p,...). hodnota x i x x... předp. pravd. q i q q... předp. inf. log q i log q log q... skut. pravd. p i p p... skut. inf. log p i log p log p... předp. skut. inf. log p i log q i = log pi q i Střední chba odhadu informace je D(p q) := i log p q log p q... p i log p i = p i log p i q i i i }{{} h(p,p,...) p i log q i, kde log :=, log :=, r log r := pro r (,. D(p q) = Kullbackova Leiblerova divergence = informační divergence rozdělení p, q.. Informační divergence jako střední hodnota Máme náhodnou veličinu X, skutečnou pravděpodobnostní funkci p X a předpokládanou pravděpodobnostní funkci q X. (To zde není kvantilová funkce.) Dva pravděpodobnostní model budeme rozlišovat index, např E p X = x x p X (x), H p (X) = E p log p X (X) = h(p X (x ), p X (x ),...), E q X = x x q X (x), H q (X) = E q log q X (X) = h(q X (x ), q X (x ),...). Při výsledku x je předpokládaná informace log q X (x) a skutečná log p X (x). Střední hodnota rozdílu při skutečném rozdělení p je D(p X q X ) = E p log p X(X) q X (X) = E p(log p X (X) log q X (X)) = = E p log p X (X) E p log q X (X). }{{}}{{} H p(x) H q(x) Příklad.4 (chbný předpoklad rovnoměrného rozdělení pokr.). Proč nám to prvně všlo správně? Protože q X (X) = bla konstanta, H q (X) = E q log q X (X) = log = E p log q X (X).

7 . Vlastnosti informační divergence Může být D(p q) D(q p). Věta.. D(p q) ; rovnost nastává, právě kdž p = q. Důkaz. Předpokládejme p q, BÚNO p < q, p > q. Výraz V (q, q, q,...) := i p i log q i se změnou q := q ε, q := q + ε o malé ε změní o Funkce je diferencovatelná, () =, Pro dostatečně malé ε > je (ε) = V (q ε, q + ε, q,...) V (q, q, q,...) = = p log(q ε) + p log(q + ε) p log q p log q. (ε) = ln p q ε + ln p q ε < < p q + ε, p q + ε. (ε) > a (ε) >. Ted V (q, q, q,...) není maximální. Uvedený argument nelze použít jedině pro p = q, pak nabývá výraz maxima, a to V (p, p, p,...) := i p i log p i = h(p, p, p,...), D(p p) =. 4 Sdružená entropie Sdružená entropie H(X, Y ) náhodných veličin X, Y je entropie náhodného vektoru (X, Y ), počítaná podle stejného principu: X nabývá hodnot x, x,..., Y nabývá hodnot,,..., (X, Y ) nabývá hodnot (x, ), (x, ),..., (x, ), (x, ),...,..., zajímají nás jen jejich pravděpodobnosti p X,Y (x i, j ), z nichž vpočteme H(X, Y ) := i = x ι(p X,Y (x i, j )) = p X,Y (x i, j ) log p X,Y (x i, j ) = j i j ι(p X,Y (x, )) = p X,Y (x, ) log p X,Y (x, ) = x = E log p X,Y (X, Y ). 7

8 Pro X, Y nezávislé je pro všechna x,, ted i pro střední hodnot p X,Y (x, ) = p X (x) p Y (), log p X,Y (x, ) = log p X (x) log p Y (), H(X, Y ) = E log p X,Y (X, Y ) = E log p X (X) E log p Y (Y ) = = H(X) + H(Y ). Co znamená zápis H( )? p. argumentů tp argumentů význam příklad náhodná veličina entropie náh. veličin H(X) > náhodné veličin entropie náh. vektoru H(X, Y ) (sdr. entropie náh. veličin) Co znamená zápis h( )? p. argumentů tp argumentů význam příklad > čísla, entropie rozdělení h (,, ) se součtem číslo, zkratka pro entropii h ( ( ) = h, ( ) = h ) alternativního rozdělení Příklad 4. (poklad na ostrově). p X,Y (x, ): A B C p x X (x) p Y () H(X) = log. =.585, H(Y ) = log + + log. =. 459, H(X, Y ) = log. =.585 < < H(X) + H(Y ). = =. 44.Závislost X, Y nás připravila o H(X) + H(Y ) H(X, Y ). = =.459.Jak včíslit ztrátu informace z jedné proměnné, kdž jsme se dověděli druhou? 4. Podmíněná entropie Pokud nastal jev Y =, aktualizujeme pravděpodobnosti hodnot veličin X pomocí podmíněných pravděpodobností P [X = x, Y = ] p X Y (x ) := P [X = x Y = ] = = p X,Y (x, ). P [Y = ] p Y () V tomto modelu udává střední hodnotu informace veličin X podmíněná entropie H(X Y = ) := x ι(p X Y (x )) = x p X Y (x ) log p X Y (x ). Její střední hodnota v závislosti na Y je střední podmíněná entropie H(X Y ) := p Y () H(X Y = ) = p Y () p X Y (x ) log p X Y (x ) = x = p X,Y (x, ) log p X,Y (x, ) = p x Y () = p X,Y (x, ) log p X,Y (x, ) + p X,Y (x, ) log p Y () = x x = E log p X,Y (X, Y ) + E log p Y (Y ) = H(X, Y ) H(Y ). 8

9 H(X) H(Y ) H(X Y ) I(X; Y ) H(Y X) H(X, Y ) Obdobně H(Y X = x) = p Y X ( x) log p Y X ( x), H(Y X) = p X (x) H(Y X = x) = p X,Y (x, ) log p Y X ( x) = x x = E log p X,Y (X, Y ) + E log p X (X) = H(X, Y ) H(X). 5 Vzájemná informace Ze sdruženého rozdělení p X,Y vpočítáme marginální pravděpodobnosti p X (x) = p Y () = x p X,Y (x, ), p X,Y (x, ). Z nich vpočítáme sdružené rozdělení q X,Y (x, ) := p X (x) p Y (), které má stejné marginální pravděpodobnosti q X = p X, q Y = p Y, ale odpovídá nezávislým náhodným veličinám. Při rozdělení q X,Y b sdružená entropie všla H(X) + H(Y ). Skutečné rozdělení p X,Y vede na sdruženou entropii H(X, Y ) = p X,Y (x, ) log p X,Y (x, ) = E log p X,Y (X, Y ). x Ztrátu informace v důsledku závislosti X, Y vjadřuje vzájemná informace I(X; Y ) náhodných veličin X, Y, což je informační divergence D(p X,Y q X,Y ): 9

10 I(X; Y ) := D(p X,Y q X,Y ) = E log p X,Y (X, Y ) E log q X,Y (X, Y ) = = H(X, Y ) E log p X (X) p Y (Y ) = = H(X, Y ) E log p X (X) E log p Y (Y ) = = H(X, Y ) + H(X) + H(Y ). 5. Shrnutí vlastností vzájemné informace a podmíněné entropie Vzájemná informace vjadřuje, kolik informace o jedné proměnné nese druhá proměnná. Důsledk: I(X; Y ) = I(Y ; X), H(X) = I(X; Y ) + H(X Y ), H(Y ) = I(X; Y ) + H(Y X), I(X; Y ) = H(X) + H(Y ) H(X, Y ), H(X Y ) = H(X, Y ) H(Y ), H(Y X) = H(X, Y ) H(X). I(X; Y ) min(h(x), H(Y )), I(X; Y ) = X, Y jsou nezávislé, I(X; Y ) = H(X)!x : p X Y (x ) = (podm. rozdělení jsou Diracova), I(X; X) = H(X). Vše lze beze změn uplatnit i na náhodné vektor. Řetězcové pravidlo: H(X, X,..., X n ) = H(X X,..., X n ) + H(X X,..., X n ) Příklad 5. (poklad na ostrově pokr.). p X,Y (x, ): A B C p x X (x) p Y () + H(X n X n ) + H(X n ). H(X) =..585, H(Y ) =..459, H(X, Y ) = Model s nezávislými veličinami a stejnými marginálními rozděleními: p X (x) p Y (): x p Y () A B C p X (x) I(X; Y ) = D(p X,Y p X p Y ) = log + log. =.459, též I(X; Y ) = H(X) + H(Y ) H(X, Y ). = =.459.

11 Kdbchom věděli, že Y =, pak b X přispívalo podm. entropií H(X Y = ): p X Y (x ): A B C x p Y () H(X Y = ) log střední hodnota H(X Y ) = + log =.., též H(X Y ) = H(X, Y ) H(Y ) = =.. Kdbchom věděli, že X = x, pak b Y přispívalo podm. entropií H(Y X = x): p Y X ( x): x A B C p X (x) H(Y X = x) střední hodnota H(Y X) =, též H(Y X) = H(X, Y ) H(X). = =.

12 Literatura [Roman] Roman, S.: Coding and Information Theor. Graduate Texts in Mathematics, Vol. 4, Springer, 99. [Moser] Moser, S.M.: Information Theor. National Chiao Tung Universit, Hsinchu, Taiwan,. [MacKa] MacKa, D.J.C.: Information Theor, Inference, and Learning Algorithms. Cambridge Universit Press,. [Cover, Thomson] Cover, T.M., Thomson, J.: Elements of Information Theor. Wile, 99. [Vajda] Vajda, I.: Teorie informace. ČVUT, Praha, 4. [MN: PMS] Navara, M.: Pravděpodobnost a matematická statistika. ČVUT, Praha, 7. [Apl. mat.] kol.: Aplikovaná matematika. Oborové encklopedie SNTL, Praha, 978. [Enc. Math.] Hazewinkel, M.: Encclopaedia of Mathematics. Kluwer Academic Publishers, 995.

Teorie informace: řešené příklady 2014 Tomáš Kroupa

Teorie informace: řešené příklady 2014 Tomáš Kroupa Teorie informace: řešené příklady 04 Tomáš Kroupa Kolik otázek je třeba v průměru položit, abychom se dozvěděli datum narození člověka (den v roce), pokud odpovědi jsou pouze ano/ne a tázaný odpovídá pravdivě?

Více

Diskrétní náhodná veličina. November 12, 2008

Diskrétní náhodná veličina. November 12, 2008 Diskrétní náhodná veličina November 12, 2008 (Náhodná veličina (náhodná proměnná)) Náhodná veličina (nebo též náhodná proměnná) je veličina X, jejíž hodnota je jednoznačně určena výsledkem náhodného pokusu.

Více

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC Přednáška 03 Přírodovědecká fakulta Katedra matematiky KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC jiri.cihlar@ujep.cz Diskrétní rozdělení Důležitá diskrétní rozdělení pravděpodobnosti

Více

NMAI059 Pravděpodobnost a statistika

NMAI059 Pravděpodobnost a statistika NMAI059 Pravděpodobnost a statistika podle přednášky Daniela Hlubinky (hlubinka@karlin.mff.cuni.cz) zapsal Pavel Obdržálek (pobdr@matfyz.cz) 205/20 poslední změna: 4. prosince 205 . přednáška. 0. 205 )

Více

13. cvičení z PSI ledna 2017

13. cvičení z PSI ledna 2017 cvičení z PSI - 7 ledna 07 Asymptotické pravděpodobnosti stavů Najděte asymptotické pravděpodobnosti stavů Markovova řetězce s maticí přechodu / / / 0 P / / 0 / 0 0 0 0 0 0 jestliže počáteční stav je Řešení:

Více

Základy teorie pravděpodobnosti

Základy teorie pravděpodobnosti Základy teorie pravděpodobnosti Náhodná veličina Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 12. února 2012 Statistika by Birom Základy teorie

Více

Komplexní analýza. Holomorfní funkce. Martin Bohata. Katedra matematiky FEL ČVUT v Praze

Komplexní analýza. Holomorfní funkce. Martin Bohata. Katedra matematiky FEL ČVUT v Praze Komplexní analýza Holomorfní funkce Martin Bohata Katedra matematiky FEL ČVUT v Praze bohata@math.feld.cvut.cz Martin Bohata Komplexní analýza Holomorfní funkce 1 / 8 Derivace Definice Necht f je komplexní

Více

Odhady Parametrů Lineární Regrese

Odhady Parametrů Lineární Regrese Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristik často potřebujeme všetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota závisí nějakým způsobem na vstupní, je její funkcí = f(x). Pokud

Více

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně 7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností

Více

1 Rozptyl a kovariance

1 Rozptyl a kovariance Rozptyl a kovariance Nechť X je náhodná veličina s konečnou střední hodnotou EX Potom rozptyl náhodné veličiny X definujeme jako: DX E(X EX, pokud střední hodnota na pravé straně existuje Podobně jako

Více

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné

Více

Náhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost

Náhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost Pravděpodobnost Náhodné veličiny a jejich číselné charakteristiky Petr Liška Masarykova univerzita 19.9.2014 Představme si, že provádíme pokus, jehož výsledek dokážeme ohodnotit číslem. Před provedením

Více

Vzdálenost jednoznačnosti a absolutně

Vzdálenost jednoznačnosti a absolutně Vzdálenost jednoznačnosti a absolutně bezpečné šifry Andrew Kozlík KA MFF UK Značení Pracujeme s šifrou (P, C, K, E, D), kde P je množina otevřených textů, C je množina šifrových textů, K je množina klíčů,

Více

Matematika I. Přednášky: Mgr. Radek Výrut, Zkouška:

Matematika I. Přednášky: Mgr. Radek Výrut, Zkouška: Přednášky: Mgr. Radek Výrut, Matematika I katedra matematiky, UL-605, rvyrut@kma.zcu.cz tel.: 377 63 2658 Zkouška: Písemná část zkoušky - příklady v rozsahu zápočtových prací Ústní část zkoušky - základní

Více

Algoritmy komprese dat

Algoritmy komprese dat Algoritmy komprese dat Úvod do teorie informace Claude Shannon (1916 2001) 5.11.2014 NSWI072-7 Teorie informace Informace Co je to informace? Můžeme informaci měřit? Existují teoretické meze pro délku

Více

NÁHODNÝ VEKTOR. 4. cvičení

NÁHODNÝ VEKTOR. 4. cvičení NÁHODNÝ VEKTOR 4. cvičení Náhodný vektor Náhodným vektorem rozumíme sloupcový vektor X=(X, X,, X n ) složený z náhodných veličin X, X,, X n, který je charakterizován sdruženým rozdělením pravděpodobnosti.

Více

PRAVDĚPODOBNOST A STATISTIKA

PRAVDĚPODOBNOST A STATISTIKA PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr

Více

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7

Pravděpodobnost a statistika (BI-PST) Cvičení č. 7 Pravděpodobnost a statistika (BI-PST) Cvičení č. 7 R. Blažek, M. Jiřina, J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení

Více

10. N á h o d n ý v e k t o r

10. N á h o d n ý v e k t o r 10. N á h o d n ý v e k t o r 10.1. Definice: Náhodný vektor. Uspořádanou n tici (X 1, X 2,..., X n ) náhodných veličin X i, 1 i n, nazýváme náhodným vektorem. Poznámka: Pro jednoduchost budeme zavádět

Více

Téma 22. Ondřej Nývlt

Téma 22. Ondřej Nývlt Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené

Více

Pravděpodobnost a statistika I KMA/K413

Pravděpodobnost a statistika I KMA/K413 Pravděpodobnost a statistika I KMA/K413 Konzultace 3 Přírodovědecká fakulta Katedra matematiky jiri.cihlar@ujep.cz Kovariance, momenty Definice kovariance: Kovariance náhodných veličin Dále můžeme dokázat:,

Více

Náhodný vektor a jeho charakteristiky

Náhodný vektor a jeho charakteristiky Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich

Více

Náhodná veličina a její charakteristiky. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáte. Proto je proměnná, která

Náhodná veličina a její charakteristiky. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáte. Proto je proměnná, která Náhodná veličina a její charakteristiky Náhodná veličina a její charakteristiky Představte si, že provádíte náhodný pokus, jehož výsledek jste schopni ohodnotit nějakým číslem. Před provedením pokusu jeho

Více

Intervalová data a výpočet některých statistik

Intervalová data a výpočet některých statistik Intervalová data a výpočet některých statistik Milan Hladík 1 Michal Černý 2 1 Katedra aplikované matematiky Matematicko-fyzikální fakulta Univerzita Karlova 2 Katedra ekonometrie Fakulta informatiky a

Více

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace

Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Jan Slovák Masarykova univerzita Fakulta informatiky 28. 11 2. 12. 2016 Obsah přednášky 1 Literatura 2 Střední

Více

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

MATEMATICKÁ STATISTIKA.   Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým

Více

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D.

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D. Střední hodnota a rozptyl náhodné veličiny, vybraná rozdělení diskrétních a spojitých náhodných veličin, pojem kvantilu Ing. Michael Rost, Ph.D. Príklad Předpokládejme že máme náhodnou veličinu X která

Více

Cvičení ze statistiky - 5. Filip Děchtěrenko

Cvičení ze statistiky - 5. Filip Děchtěrenko Cvičení ze statistiky - 5 Filip Děchtěrenko Minule bylo.. Začali jsme pravděpodobnost Klasická a statistická definice pravděpodobnosti Náhodný jev Doplněk, průnik, sjednocení Podmíněná pravděpodobnost

Více

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin Příklady k procvičení z Matematické statistiky Poslední úprava. listopadu 207. Konvergence posloupnosti náhodných veličin. Necht X, X 2... jsou nezávislé veličiny s rovnoměrným rozdělením na [0, ]. Definujme

Více

Pravděpodobnost a aplikovaná statistika

Pravděpodobnost a aplikovaná statistika Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti

Více

Základy teorie pravděpodobnosti

Základy teorie pravděpodobnosti Základy teorie pravděpodobnosti Náhodná veličina Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 12. února 2012 Statistika by Birom Základy teorie

Více

Síla a významnost asociace mezi proměnnými v systému

Síla a významnost asociace mezi proměnnými v systému Síla a významnost asociace mezi proměnnými v systému Program 1. Entropie jako míra neuspořádanosti. 2. Entropie jako míra informace. 3. Entropie na rozkladu množiny elementárních jevů. 4. Vlastnosti entropie.

Více

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}. VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:

Více

11. cvičení z PSI prosince hodnota pozorovaná četnost n i p X (i) = q i (1 q), i N 0.

11. cvičení z PSI prosince hodnota pozorovaná četnost n i p X (i) = q i (1 q), i N 0. 11 cvičení z PSI 12-16 prosince 2016 111 (Test dobré shody - geometrické rozdělení Realizací náhodné veličiny X jsme dostali následující četnosti výsledků: hodnota 0 1 2 3 4 5 6 pozorovaná četnost 29 15

Více

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu. 6. NÁHODNÝ VEKTOR Průvodce studiem V počtu pravděpodobnosti i v matematické statistice se setkáváme nejen s náhodnými veličinami, jejichž hodnotami jsou reálná čísla, ale i s takovými, jejichž hodnotami

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme

Více

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti.

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti. 3.1 Základy teorie pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti. Co se dozvíte Náhodný pokus a náhodný jev. Pravděpodobnost, počítání s pravděpodobnostmi.

Více

Schéma identifikační procedury

Schéma identifikační procedury Schéma identifikační procedury systém S generátor rekonstrukčních hypotéz G a S nejsou porovnatelné nelze srovnat kvalitu G a S S a S jsou porovnatelné kvalita dekompozice S? S : (S,S ) = G dekompozice

Více

Statistika II. Jiří Neubauer

Statistika II. Jiří Neubauer Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Zaměříme se především na popis dvourozměrných náhodných veličin (vektorů). Definice Nechť X a Y jsou

Více

Úvod do teorie kódování

Úvod do teorie kódování Úvod do teorie kódování Matematické základy komprese a digitální komunikace Tomáš Kroupa http://staff.utia.cas.cz/kroupa/ upravil Mirko Navara http://cmp.felk.cvut.cz/~navara/ 12. 1. 2017 Part I Úvod Teorie

Více

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní ..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

Diskrétní matematika. DiM /01, zimní semestr 2016/2017 Diskrétní matematika Petr Kovář petr.kovar@vsb.cz Vysoká škola báňská Technická univerzita Ostrava DiM 470-2301/01, zimní semestr 2016/2017 O tomto souboru Tento soubor je zamýšlen především jako pomůcka

Více

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc. Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc. dohnal@nipa.cz Pravděpodobnost a matematická statistika 2010 1.týden 20.09.-24.09. Data, tp dat, variabilita, frekvenční analýza histogram,

Více

Základy počtu pravděpodobnosti a metod matematické statistiky

Základy počtu pravděpodobnosti a metod matematické statistiky Errata ke skriptu Základy počtu pravděpodobnosti a metod matematické statistiky K. Hron a P. Kunderová Autoři prosí čtenáře uvedeného studijního textu, aby případné další odhalené chyby nad rámec tohoto

Více

Bayesovské metody. Mnohorozměrná analýza dat

Bayesovské metody. Mnohorozměrná analýza dat Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A

Více

Pravděpodobnost a matematická statistika

Pravděpodobnost a matematická statistika Pravděpodobnost a matematická statistika Mirko Navara Centrum strojového vnímání katedra kybernetiky FEL ČVUT Karlovo náměstí, budova G, místnost 104a http://cmp.felk.cvut.cz/ navara/mvt http://cmp.felk.cvut.cz/

Více

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady PRAVDĚPODOBNOST A STATISTIKA Bayesovské odhady Bayesovské odhady - úvod Klasický bayesovský přístup: Klasický přístup je založen na opakování pokusech sledujeme rekvenci nastoupení zvolených jevů Bayesovský

Více

1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností,

1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností, KMA/SZZS1 Matematika 1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností, operace s limitami. 2. Limita funkce

Více

Náhodná veličina a rozdělení pravděpodobnosti

Náhodná veličina a rozdělení pravděpodobnosti 3.2 Náhodná veličina a rozdělení pravděpodobnosti Bůh hraje se světem hru v kostky. Jsou to ale falešné kostky. Naším hlavním úkolem je zjistit, podle jakých pravidel byly označeny, a pak toho využít pro

Více

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Limitní věty teorie pravděpodobnosti. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Jestliže opakujeme nezávisle nějaký pokus, můžeme z pozorovaných hodnot sestavit rozdělení relativních četností

Více

Cvičení 5. Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc.

Cvičení 5. Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. 5 Přednášející: Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké učení technické v

Více

Doporučené příklady k Teorii množin, LS 2018/2019

Doporučené příklady k Teorii množin, LS 2018/2019 Doporučené příklady k Teorii množin, LS 2018/2019 1. přednáška, 21. 2. 2019 1. Napište množina x je prázdná (přesněji množina x nemá žádné prvky ) formulí základního jazyka teorie množin. 2. Dokažte ((x

Více

Přednáška IV. Náhodná veličina, rozdělení pravděpodobnosti a reálná data

Přednáška IV. Náhodná veličina, rozdělení pravděpodobnosti a reálná data Přednáška IV. Náhodná veličina, rozdělení pravděpodobnosti a reálná data Náhodná veličina Rozdělení pravděpodobnosti náhodných veličin Normální rozdělení a rozdělení příbuzná Transformace náhodných veličin

Více

Odpřednesenou látku naleznete v kapitole 3.3 skript Diskrétní matematika.

Odpřednesenou látku naleznete v kapitole 3.3 skript Diskrétní matematika. Lineární kódy, část 2 Odpřednesenou látku naleznete v kapitole 3.3 skript Diskrétní matematika. Jiří Velebil: A7B01LAG 22.12.2014: Lineární kódy, část 2 1/12 Dnešní přednáška 1 Analýza Hammingova (7, 4)-kódu.

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

I. D i s k r é t n í r o z d ě l e n í

I. D i s k r é t n í r o z d ě l e n í 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Úvod do teorie her

Úvod do teorie her Úvod do teorie her 2. Garanční řešení, hry s nulovým součtem a smíšené strategie Tomáš Kroupa http://staff.utia.cas.cz/kroupa/ 2017 ÚTIA AV ČR Program 1. Zavedeme řešení, které zabezpečuje minimální výplatu

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

Náhodné chyby přímých měření

Náhodné chyby přímých měření Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.

Více

Statistická teorie učení

Statistická teorie učení Statistická teorie učení Petr Havel Marek Myslivec přednáška z 9. týdne 1 Úvod Představme si situaci výrobce a zákazníka, který si u výrobce objednal algoritmus rozpoznávání. Zákazník dodal experimentální

Více

p(x) = P (X = x), x R,

p(x) = P (X = x), x R, 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3! Výsledky příkladů na procvičení z NMSA0 Klasická pravděpodobnost. 5. ( 4( 43 ( 49 3. 8! 3! 0! = 5 Poslední změna (oprava:. května 08 4. (a! + 3! + ( n+ n! = n k= ( k+ /k! = n k=0 ( k /k!; (b n k=0 ( k

Více

7. Rozdělení pravděpodobnosti ve statistice

7. Rozdělení pravděpodobnosti ve statistice 7. Rozdělení pravděpodobnosti ve statistice Statistika nuda je, má však cenné údaje, neklesejte na mysli, ona nám to vyčíslí Jednou z úloh statistiky je odhad (výpočet) hodnot statistického znaku x i,

Více

, 4. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv

, 4. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv ..06, 4. skupina (6: - 7:4) Jméno: Zápočtový test z PSI Nezapomeňte podepsat VŠECHNY papír, které odevzdáváte. Škrtejte zřetelně a stejně zřetelně pište i věci, které platí. Co je škrtnuto, nebude bráno

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).

Více

2 Hlavní charakteristiky v analýze přežití

2 Hlavní charakteristiky v analýze přežití 2 Hlavní charakteristiky v analýze přežití Předpokládané výstupy z výuky: 1. Student umí definovat funkci přežití, rizikovou funkci a kumulativní rizikovou funkci a zná funkční vazby mezi nimi 2. Student

Více

AVDAT Klasický lineární model, metoda nejmenších

AVDAT Klasický lineární model, metoda nejmenších AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i

Více

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce Náhodná veličina motivace Náhodná veličina Často lze výsledek náhodného pokusu vyjádřit číslem: číslo, které padlo na kostce, výška náhodně vybraného studenta, čas strávený čekáním na metro, délka života

Více

12. cvičení z PST. 20. prosince 2017

12. cvičení z PST. 20. prosince 2017 1 cvičení z PST 0 prosince 017 11 test rozptylu normálního rozdělení Do laboratoře bylo odesláno n = 5 stejných vzorků krve ke stanovení obsahu alkoholu X v promilích alkoholu Výsledkem byla realizace

Více

Aplikace 2: Hledání informativních příznaků pro rozpoznávání

Aplikace 2: Hledání informativních příznaků pro rozpoznávání Aplikace : Hledání informativních příznaků pro rozpoznávání Sonogram štítné žlázy v podélném řezu zdravá lymfocitická thyroitida Zajímá nás, kolik se lze z dat dozvědět o třídě c a kde ta informace je.

Více

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B. Zkouška z předmětu KMA/PST. Anotace předmětu Náhodné jevy, pravděpodobnost, podmíněná pravděpodobnost. Nezávislé náhodné jevy. Náhodná veličina, distribuční funkce. Diskrétní a absolutně spojitá náhodná

Více

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1 Minikurz aplikované statistiky Marie Šimečková, Petr Šimeček Minikurz aplikované statistiky p.1 Program kurzu základy statistiky a pravděpodobnosti regrese (klasická, robustní, s náhodnými efekty, ev.

Více

Písemná zkouška z Matematiky II pro FSV vzor

Písemná zkouška z Matematiky II pro FSV vzor Písemná zkouška z Matematik II pro FSV vzor. (0 bodů) Určete a nakreslete definiční obor funkce sin x f(x, ) = (Kalenda 00/) spočtěte její parciální derivace podle všech proměnných všude, kde existují,

Více

Hloubka dat. kontury, klasifikace a konzistence. Daniel Hlubinka

Hloubka dat. kontury, klasifikace a konzistence. Daniel Hlubinka Hloubka dat kontury, klasifikace a konzistence Daniel Hlubinka Univerzita Karlova v Praze Matematicko-fyzikální fakulta Katedra pravděpodobnosti a matematické statistiky Robust Němčičky 2012 Hloubka Co

Více

Výběrové charakteristiky a jejich rozdělení

Výběrové charakteristiky a jejich rozdělení Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový

Více

Odhady - Sdružené rozdělení pravděpodobnosti

Odhady - Sdružené rozdělení pravděpodobnosti Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy

Více

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou

Více

Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Hodíme dvěma kostkami jaký padl součet?

Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Hodíme dvěma kostkami jaký padl součet? Náhodné veličiny Náhodné veličiny Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Příklad Vytáhneme tři karty z balíčku zajímá nás, kolik je mezi nimi es.

Více

10 Funkce více proměnných

10 Funkce více proměnných M. Rokyta, MFF UK: Aplikovaná matematika II kap. 10: Funkce více proměnných 16 10 Funkce více proměnných 10.1 Základní pojmy Definice. Eukleidovskou vzdáleností bodů x = (x 1,...,x n ), y = (y 1,...,y

Více

Zápočtová písemka z Matematiky III (BA04) skupina A

Zápočtová písemka z Matematiky III (BA04) skupina A skupina A 0 pro x < 1, ae x pro x 1, ), Pravděpodobnost P (X ) a P (X =.). E (X) a E ( X 1). Hustotu transformované náhodné veličiny Y = (X + 1). F(x) = x 3 pro x (0, 9), Hustotu f(x). Pravděpodobnost

Více

+ 2y. a y = 1 x 2. du x = nxn 1 f(u) 2x n 3 yf (u)

+ 2y. a y = 1 x 2. du x = nxn 1 f(u) 2x n 3 yf (u) Diferenciální počet příklad 1 Dokažte, že funkce F, = n f 2, kde f je spojitě diferencovatelná funkce, vhovuje vztahu + 2 = nf ; 0 Řešení: Označme u = 2. Pak je F, = n fu a platí Podle vět o derivaci složené

Více

Drsná matematika III 1. přednáška Funkce více proměnných: křivky, směrové derivace, diferenciál

Drsná matematika III 1. přednáška Funkce více proměnných: křivky, směrové derivace, diferenciál Drsná matematika III 1. přednáška Funkce více proměnných: křivky, směrové derivace, diferenciál Jan Slovák Masarykova univerzita Fakulta informatiky 16. 9. 2008 Obsah přednášky 1 Literatura 2 Funkce a

Více

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017 Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 207 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia

Více

Pravděpodobnost a statistika (BI-PST) Cvičení č. 4

Pravděpodobnost a statistika (BI-PST) Cvičení č. 4 Pravděpodobnost a statistika (BI-PST) Cvičení č. 4 J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení technické v Praze ZS 2014/2015

Více

Chyby měření 210DPSM

Chyby měření 210DPSM Chyby měření 210DPSM Jan Zatloukal Stručný přehled Zdroje a druhy chyb Systematické chyby měření Náhodné chyby měření Spojité a diskrétní náhodné veličiny Normální rozdělení a jeho vlastnosti Odhad parametrů

Více

Pravděpodobnostní algoritmy

Pravděpodobnostní algoritmy Pravděpodobnostní algoritmy 17. a 18. přednáška z kryptografie Alena Gollová 1/31 Obsah 1 Diskrétní rozdělení náhodné veličiny Algoritmus Generate and Test 2 Alena Gollová 2/31 Diskrétní rozdělení náhodné

Více

5. Náhodná veličina. 2. Házíme hrací kostkou dokud nepadne šestka. Náhodná veličina nabývá hodnot z posloupnosti {1, 2, 3,...}.

5. Náhodná veličina. 2. Házíme hrací kostkou dokud nepadne šestka. Náhodná veličina nabývá hodnot z posloupnosti {1, 2, 3,...}. 5. Náhodná veličina Poznámka: Pro popis náhodného pokusu jsme zavedli pojem jevového pole S jako množiny všech možných výsledků a pravděpodobnost náhodných jevů P jako míru výskytů jednotlivých výsledků.

Více

JAK MODELOVAT VÝSLEDKY NÁH. POKUSŮ? Martina Litschmannová

JAK MODELOVAT VÝSLEDKY NÁH. POKUSŮ? Martina Litschmannová JAK MODELOVAT VÝSLEDKY NÁH. POKUSŮ? Martina Litschmannová Opakování Základní pojmy z teorie pravděpodobnosti Co je to náhodný pokus? Děj, jehož výsledek není předem jednoznačně určen podmínkami, za nichž

Více

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

Diskrétní matematika. DiM /01, zimní semestr 2018/2019 Diskrétní matematika Petr Kovář petr.kovar@vsb.cz Vysoká škola báňská Technická univerzita Ostrava DiM 470-2301/01, zimní semestr 2018/2019 O tomto souboru Tento soubor je zamýšlen především jako pomůcka

Více

11. přednáška 10. prosince Kapitola 3. Úvod do teorie diferenciálních rovnic. Obyčejná diferenciální rovnice řádu n (ODR řádu n) je vztah

11. přednáška 10. prosince Kapitola 3. Úvod do teorie diferenciálních rovnic. Obyčejná diferenciální rovnice řádu n (ODR řádu n) je vztah 11. přednáška 10. prosince 2007 Kapitola 3. Úvod do teorie diferenciálních rovnic. Obyčejná diferenciální rovnice řádu n (ODR řádu n) je vztah F (x, y, y, y,..., y (n) ) = 0 mezi argumentem x funkce jedné

Více

Téma 2: Pravděpodobnostní vyjádření náhodných veličin

Téma 2: Pravděpodobnostní vyjádření náhodných veličin 0.025 0.02 0.015 0.01 0.005 Nominální napětí v pásnici Std Mean 140 160 180 200 220 240 260 Std Téma 2: Pravděpodobnostní vyjádření náhodných veličin Přednáška z předmětu: Pravděpodobnostní posuzování

Více

Funkce jedn e re aln e promˇ enn e Derivace Pˇredn aˇska ˇr ıjna 2015

Funkce jedn e re aln e promˇ enn e Derivace Pˇredn aˇska ˇr ıjna 2015 Funkce jedné reálné proměnné Derivace Přednáška 2 15. října 2015 Obsah 1 Funkce 2 Limita a spojitost funkce 3 Derivace 4 Průběh funkce Informace Literatura v elektronické verzi (odkazy ze STAGu): 1 Lineární

Více

a způsoby jejího popisu Ing. Michael Rost, Ph.D.

a způsoby jejího popisu Ing. Michael Rost, Ph.D. Podmíněná pravděpodobnost, náhodná veličina a způsoby jejího popisu Ing. Michael Rost, Ph.D. Podmíněná pravděpodobnost Pokud je jev A vázán na uskutečnění jevu B, pak tento jev nazýváme jevem podmíněným

Více

NÁHODNÁ VELIČINA. 3. cvičení

NÁHODNÁ VELIČINA. 3. cvičení NÁHODNÁ VELIČINA 3. cvičení Náhodná veličina Náhodná veličina funkce, která každému výsledku náhodného pokusu přiřadí reálné číslo. Je to matematický model popisující více či méně dobře realitu, který

Více