Pravděpodobnost a statistika
|
|
- Richard Sedláček
- před 7 lety
- Počet zobrazení:
Transkript
1 Pravděpodobnost a statistika Náhodné vektory Vilém Vychodil KMI/PRAS, Přednáška 8 Vytvořeno v rámci projektu 2963/2011 FRVŠ V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 1 / 59
2 Přednáška 8: Přehled 1 Náhodné vektory: definice náhodného vektoru, vícerozměrná Borelovská jevová pole, rozdělení pravděpodobnosti, borelovské funkce, marginální a sdružená rozdělení pravděpodobnosti, distribuční funkce, diskrétní a spojitá sdružená rozdělení, střední hodnoty a variance. 2 Nezávislost náhodných veličin: definice nezávislosti náhodných veličin, ekvivalentní vyjádření, nezávislost a sdružené pravděpodobností funkce a funkce hustoty, kovariance, korelační koeficient, lineární regrese, podmíněná rozdělení, distribuční funkce, očekávané hodnoty. 3 Generování pseudonáhodných čísel: ruletová metoda, metoda inversní transformace, techniky založené na simulaci, využití funkce hustoty. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 2 / 59
3 Příklad (Motivace pro náhodné vektory) Mějme pravděpodobnostní prostor Ω, F, P, dvě náhodné veličiny Y : Ω R a Z : Ω R a Borelovské množiny A, B B. Zajímáme se o pravděpodobnost, že Y nabude hodnoty z množiny A a současně Z nabude hodnoty z množiny B: P ({Y A} {Z B}) = P ({ω Ω Y (ω) A} {ω Ω Z(ω) B}) = P ({ω Ω Y (ω) A a Z(ω) B}) = P ({ω Ω Y (ω), Z(ω) A B}) = P ({ω Ω X(ω) A B}), kde X : Ω R 2 je zobrazení definované X(ω) = Y (ω), Z(ω). Použitím standardní notace pro vyjádření inverzních obrazů můžeme psát {X A B} = {ω Ω X(ω) A B}, P ({Y A} {Z B}) = P ({X A B}). To jest: X lze chápat jako dvourozměrnou náhodnou veličinu (náhodný vektor). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 3 / 59
4 Náhodný vektor Zobecnění pojmu náhodná veličina: Definice (Náhodný vektor / vícerozměrná náhodná veličina) Mějme pravděpodobnostní prostor Ω, F, P. Zobrazení X : Ω R n nazýváme (n-rozměrný) náhodný vektor v Ω, F, P (angl.: random vector) pokud platí pro každé a 1,..., a n R. {ω Ω X(ω) (, a 1 ] (, a n ]} F. Poznámky: náhodná veličina = jednorozměrný náhodný vektor, i-tou složku X(ω) označujeme X(ω)(i), podmínku z definice lze psát {ω Ω X(ω)(i) a i pro každé i = 1,..., n} F nebo {X (, a 1 ] (, a n ]} F pomocí inverzních obrazů. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 4 / 59
5 Vícerozměrné Borelovské jevové pole Úzce související pojem: Definice (Vícerozměrné Borelovské jevové pole) Mějme Ω = R n a nechť A n = {(, a 1 ] (, a n ] a 1,..., a n R}. Pak σ-algebru B n = F A n nazveme n-rozměrné Borelovské (jevové) pole a každou A B n nazveme (n-rozměrná) Borelovská množina. Poznámky: B 1 je klasické Borelovské jevové pole (Přednáška 3), motivace pro zavedení: {X B} F pro rozumné podmnožiny B R n B n má několik ekvivalentních vyjádření,... V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 5 / 59
6 Věta (Ekvivalentní zavedení B n ) B n je σ-algebra generovaná A n = {(a 1, b 1 ] (a n, b n ] a 1 b 1,..., a n b n }. Důkaz. Nejprve prokážeme, že každá (, a 1 ] (, a n ] náleží to F A n. To plyne z toho, že F A n je uzavřená na sjednocení spočetně mnoha množin: (, a 1 ] (, a n ] = i=1( (a1 i, a 1 ] (a n i, a n ] ) F A n. Tím jsme prokázali B n F A n. Abychom dokázali opačnou inkluzi, stačí ověřit, že každá (a 1, b 1 ] (a n, b n ] náleží to B n. To prokážeme s využitím faktu, že B n je uzavřená na množinový rozdíl. Například pro n = 2 platí, že (a, b] (c, d] je rovno ((, b) (, d)) ((, b) (, c)) ((, a) (, d)). Obecně lze (a 1, b 1 ] (a n, b n ] vyjádřit rozdílem n + 1 množin ve tvaru (, c 1 ] (, c n ], to jest (a 1, b 1 ] (a n, b n ] B n. Tím jsme prokázali, že F A n B n. Dohromady dostáváme B n = F A n. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 6 / 59
7 Věta (Generování B n pomocí jednorozměrných Borelovských množin) B n je σ-algebra generovaná A n = {A 1 A n A 1,..., A n B}. Důkaz. Zřejmě platí, že každá (, a 1 ] (, a n ] náleží do F A n, protože každá (, a i ] je Borelovská množina, tedy (, a i ] B. Odtud máme B n F A n. Vezměme libovolné A 1,..., A n B. Nejprve nahlédněme, že R } {{ R } (a, b] R } {{ R } B n i 1 n i pro každé i = 1,..., n a a, b R. To plyne z předchozího tvrzení a užitím uzavřenosti B n na sjednocení spočetně mnoha množin. Jelikož A i B a B je generovaná otevřenými intervaly, ihned dostáváme, že R } {{ R } A i } R {{ R } B n. i 1 n i Fakt A 1 A n B n tedy plyne z uzavřenosti B n na průniky n množin. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 7 / 59
8 Věta (Ekvivalentní zavedení náhodného vektoru) Mějme pravděpodobnostní prostor Ω, F, P. Zobrazení X : Ω R n je náhodný vektor v Ω, F, P právě tehdy, když {X B} F platí pro každé B B n. Důkaz. Pokud {X B} F platí pro každé B B n, pak je X zřejmě náhodný vektor, protože (, a 1 ] (, a n ] B n. Opačnou implikaci prokážeme následovně: Pro A n = {B R n {X B} F} platí, že A n je σ-algebra (jde o obraz σ-algebry F, Přednáška 5). Dále platí, že A n zřejmě obsahuje všechny množiny tvaru (, a 1 ] (, a n ], protože X je náhodný vektor. Tím pádem B n A n, protože B n je generovaná právě množinami v předchozím tvaru. Odtud dostáváme {X B} F pro každou B B n. Poznámka: Zobecnění věty o ekvivalentním zavedení náhodné veličiny (Přednáška 5). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 8 / 59
9 Rozdělení pravděpodobnosti náhodného vektoru Definice (Rozdělení pravděpodobnosti náhodného vektoru) Mějme pravděpodobnostní prostor Ω, F, P a náhodný vektor X : Ω R n v Ω, F, P. Pak se pravděpodobnostní míra P X : B n R na σ-algebře n-rozměrných Borelovských množin B n definovaná P X (B) = P ( {X B} ), pro každou B B n nazývá rozdělení pravděpodobnosti náhodného vektoru X. Poznámky: pro n = 1 je P X rozdělení pravděpodobnosti náhodné veličiny (Přednáška 5), pro X : Ω R n někdy píšeme P X (B 1,..., B n ) místo P X (B 1 B n ), místo Ω, F, P a X : Ω R n se (obvykle) vedou úvahy jen v R n, B n, P X. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 9 / 59
10 Borelovské funkce Definice (Borelovská funkce) Funkce f : R n R se nazývá Borelovská funkce (angl.: Borel function), pokud pro každé a R platí, že { x 1,..., x n R n f(x 1,..., x n ) a} B n. Poznámka: Pro f : A B a g : B C uvažujeme složenou funkci g(f): A C (někdy značíme f g) takovou, že (g(f))(x) = g(f(x)) pro každé x A. Speciálně pro f : Ω R n a g : R n R máme g(f): Ω R. Věta Mějme pravděpodobnostní prostor R, B, P. Pak platí: 1 X je náhodná veličina v R n, B n, P právě tehdy, když je X Borelovská funkce. 2 Je-li X : Ω R n náhodný vektor v Ω, F, P a g : R n R je Borelovská funkce, pak g(x) je (jednorozměrná) náhodná veličina v Ω, F, P. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 10 / 59
11 Důkaz. První tvrzení plyne přímo z definice náhodného vektoru. Druhé tvrzení prokážeme takto: Vezměme libovolné a R. Platí, že {g(x) a} = {ω Ω g(x(ω)) a} = {ω Ω X(ω) {x R n g(x) a}} = {ω Ω X(ω) {g a}} = {X {g a}}. Jelikož g je Borelovská funkce, pak {g a} B n. Odtud ihned dostáváme, že {X {g a}} F, z čehož plyne, že g(x) je náhodná veličina. Důsledek: Pro Borelovskou funkci g platí {g B} B n pro každou B B. Příklad (Projekce jsou Borelovské funkce) Každá i-tá projekce π i, to jest zobrazení π i : R n R, kde π i (x 1,..., x n ) = x i pro všechna x 1,..., x n R, je Borelovská funkce, protože: {π i a} = R } {{ R } (, a] R } {{ R } B n. i 1 n i V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 11 / 59
12 Marginální náhodné veličiny a rozdělení pravděpodobnosti S využitím projekcí můžeme zavést: Definice (Marginální náhodná veličina a rozdělení pravděpodobnosti) Mějme náhodný vektor X : Ω R n s rozdělením P X, pak každá π i (X): Ω R se nazývá marginální náhodná veličina (angl.: marginal random variable) a P πi (X) se nazývá marginální rozdělení pravděpodobnosti (angl.: marginal distribution). Poznámka: Podle definice lze každé rozdělení P πi (X) : B R vyjádřit P πi (X)(B) = P ({π i (X) B}) = P ({X {π i B}}) = P X ({π i B}) = P X (R } {{ R } B } R {{ R } ), i 1 n i pro každou Borelovskou množinu B B pouze na základě znalosti P X. (!!) V praxi obvykle známe R n, B n, P X, kdežto Ω, F, P a X : Ω R n jsou neznámé. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 12 / 59
13 Sdružené rozdělení pravděpodobnosti Definice (Sdružené rozdělení pravděpodobnosti) Mějme náhodné veličiny X 1,..., X n v pravděpodobnostním prostoru Ω, F, P. Pak se zobrazení P X1,...,X n : B n R, pro které platí P X1,...,X n (A 1,..., A n ) = P ({X 1 A 1 } {X n A n }) pro každé A 1,..., A n B, nazývá sdružené rozdělení pravděpodobnosti náhodných veličin X 1,..., X n (angl.: joint probability distribution). Poznámky: {X 1 A 1,..., X n A n } je zkrácená notace pro {X 1 A 1 } {X n A n }. Pokud známe Ω, F, P a X i : Ω R (pro každé i = 1,..., n), pak P X1,...,X n (A 1,..., A n ) = P X (A 1,..., A n ) = P ({X A 1 A n }), kde X(ω)(i) = X i (ω) pro každé i = 1,..., n a ω Ω. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 13 / 59
14 Distribuční funkce Definice (Distribuční funkce náhodného vektoru) Mějme n-rozměrný náhodný vektor X s rozdělením P X. Potom zobrazení F X : R n R, definované předpisem F X (x 1,..., x n ) = P X ( (, x1 ],..., (, x n ] ) pro každé x 1,..., x n R, se nazývá distribuční funkce náhodného vektoru X. Poznámky: Pro n = 1 přechází v distribuční funkci F X náhodné veličiny; distribuční funkce náhodných vektorů mají analogické vlastnosti jako distribuční funkce náhodných veličin (Přednáška 5); pro dvourozměrný náhodný vektor X s rozdělením P X máme ( ) ( lim x F X (x, y) = lim x P X (, x], (, y] = PX x=1 (, x] (, y]) ( ) ) = P X R (, y] = Pπ2 (X)( (, y] = Fπ2 (X)(y). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 14 / 59
15 Marginální a sdružené distribuční funkce Analogicky jako pro rozdělení zavádíme marginální a sdružené distribuční funkce: Definice (Marginální distribuční funkce) Mějme náhodný vektor X : Ω R n s distribuční funkcí F X, pak se každá F πi (X) nazývá marginální distribuční funkce (angl.: marginal distribution function). Definice (Sdružená distribuční funkce) Mějme náhodné veličiny X 1,..., X n v pravděpodobnostním prostoru Ω, F, P. Pak se zobrazení F X1,...,X n : R n R, pro které platí F X1,...,X n (x 1,..., x n ) = P ({X 1 x 1 } {X n x n }), pro každé x 1,..., x n R, nazývá sdružená distribuční funkce náhodných veličin X 1,..., X n (angl.: joint distribution function). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 15 / 59
16 Diskrétní náhodné vektory Definice (Diskrétní náhodný vektor) Náhodný vektor X : Ω R n s rozdělením P X se nazývá diskrétní pokud existuje spočetná množina C R n taková, že P X (C) = 1. Připomeňme (Přednáška 3), že pravděpodobnostní míra P X : B n R se nazývá diskrétní pokud existuje spočetně mnoho x i R n a koeficientů a i [0, 1] (pro každé i = 1, 2,... ) tak, že i=1 a i = 1 a P X lze psát P X (A) = i=1 a i δ xi (A), pro každou A B n, kde δ xi : B n R je Diracova míra koncentrovaná v x i. Lze prokázat: Věta (Charakterizace diskrétních náhodných vektorů) Náhodný vektor X s rozdělením P X je diskrétní právě tehdy, když P X je diskrétní pravděpodobnostní míra. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 16 / 59
17 Důkaz (veden podobně u náhodných veličin, Přednáška 5). Tvrzení je ve tvaru ekvivalence, prokazujeme proto obě implikace. : Předpokládejme, že X je diskrétní náhodný vektor a označme C spočetnou podmnožinu R n pro niž P X (C) = 1. Lze psát C = {x 1, x 2,... }, kde x i x j pro i j. Z faktu P X (C) = 1 dostáváme pro každou B B n : P X (B) = P X (B C) = P X ( k=1 (B {x k}) ) = k=1 P X(B {x k }) = k=1 P X({x k }) δ xk (B). Užitím σ-aditivity, 1 = P X (C) = P X ( k=1 {x k} ) = k=1 P X({x k }), takže za hledané koeficienty a i lze vzít hodnoty P X ({x i }) a P X je tím pádem diskrétní pravděpodobnostní míra. : Nechť P X je diskrétní míra ve tvaru P X (A) = i=1 a i δ xi (A). Pak lze za hledanou C R n vzít spočetnou C = {x 1, x 2,... }. Zbývá ověřit P X (C) = 1: P X (C) = i=1 a i δ xi (C) = i=1 a i = 1. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 17 / 59
18 Pravděpodobnostní funkce U diskrétních náhodných vektorů uvažujeme pravděpodobnostní funkce: Definice (Pravděpodobnostní funkce) Mějme diskrétní náhodný vektor X : Ω R n s rozdělením P X. Zobrazení f X : R n [0, 1], kde f X (x 1,..., x n ) = P X ({ x 1,..., x n }) pro každé x 1,..., x n R, se nazývá pravděpodobnostní funkce náhodného vektoru X. Zjednodušení: P X (A) pro diskrétní náhodný vektor X lze vyjádřit Distribuční funkce F X má tvar P X (A) = x 1,...,x n A f X(x 1,..., x n ). F X (a 1,..., a n ) = x 1 a 1 x n a n f X (x 1,..., x n ) = {f X (x 1,..., x n ) x 1 a 1,..., x n a n }. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 18 / 59
19 Marginální a sdružené pravděpodobnostní funkce Definice (Marginální a sdružené pravděpodobnostní funkce) Mějme náhodný vektor X : Ω R n s pravděpodobnostní funkcí f X, pak se každá f πi (X) nazývá marginální pravděpodobnostní funkce. Mějme náhodné veličiny X 1,..., X n v pravděpodobnostním prostoru Ω, F, P. Pak se zobrazení f X1,...,X n : R n R, pro které platí f X1,...,X n (x 1,..., x n ) = P ({X 1 = x 1 } {X n = x n }), pro každé x 1,..., x n R, nazývá sdružená pravděpodobnostní funkce náhodných veličin X 1,..., X n. Poznámka: Marginální pravděpodobnostní funkce lze dle definice psát ve tvaru f πi (X)(x) = x 1,...,x n 1 R f X(x 1,..., x i 1, x, x i,..., x n 1 ). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 19 / 59
20 Příklad (Výsledek házení dvěma kostkami) Problém: Jsou vrženy dvě nefalšované šestistěnné kostky. Předpokládejme, že X označuje menší z výsledných hodnot a Y označuje větší z obou výsledných hodnot. Úkol: Určete, jak vypadají sdružené a marginální pravděpodobnostní a distribuční funkce veličin X a Y V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 20 / 59
21 Příklad (Vyjádření marginálních pravděpodobnostních funkcí) Problém: Mějme náhodné veličiny X a Y, které mají sdruženou pravděpodobnostní funkci f X,Y danou předpisem f X,Y (x, y) = 1 2 x+1 pokud x y a x, y N, a f X,Y (x, y) = 0 ve všech ostatních případech. Úkol: Najděte marginální pravděpodobnostní funkce f X a f Y. Řešení: Pomocí součtu prvků geometrické řady dostáváme: f X (x) = f Y (y) = = 1 2 y+1 y=1 f X,Y (x, y) = x y=1 x=1 f X,Y (x, y) = x=y = 1 2 y+1 2 = 1 2 y. 1 2 = x x+1 2, x x+1 = x=0 1 2 = 1 x+y+1 2 y+1 x=0 1 2 x V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 21 / 59
22 Věta (O sdruženém rozdělení diskrétních náhodných veličin) Pokud jsou X 1,..., X n diskrétní veličiny, pak je jejich sdružené rozdělení pravděpodobnosti P X1,...,X n diskrétní. Důkaz. Pokud jsou všechny X 1,..., X n diskrétní náhodné veličiny, pak existují spočetné množiny C 1,..., C n R tak, že P X1 (C 1 ) = = P Xn (C n ) = 1. Tedy i jejich kartézský součin C 1 C n je spočetná množina. Stačí ukázat, že hledaná spočetná podmnožina R n je právě C 1 C n. Pro každou C i položme D i = } R {{ R } C i R } {{ R }. i 1 n i Jelikož P X1,...,X n (D i ) = P Xi (C i ) = 1 pro každé i = 1,..., n, dostáváme: P X1,...,X n (C 1 C n ) = P X1,...,X n (D 1 D n ) = 1. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 22 / 59
23 Věta (O marginálních rozděleních diskrétního sdruženého rozdělení) Pokud je sdružené rozdělení pravděpodobnosti P X1,...,X n náhodných veličin X 1,..., X n diskrétní, pak jsou všechny X 1,..., X n diskrétní veličiny. Důkaz. Nechť je sdružené rozdělení P X1,...,X n diskrétní. To jest, existuje spočetná C R n tak, že P X1,...,X n (C) = 1. Pro libovolné i = 1,..., n položme C i = {x i x 1,..., x n C}. Označme D i = } R {{ R } C i R } {{ R }. i 1 n i Zřejmě C D i. Z monotonie 1 = P X1,...,X n (C) P X1,...,X n (D i ) = P Xi (C i ), náhodná veličina X i je tedy diskrétní, protože C i je spočetná. Poznámky: Opačná implikace jako u předchozího tvrzení; dohromady dostáváme: P X1,...,X n je diskrétní právě tehdy, když jsou všechny X 1,..., X n diskrétní. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 23 / 59
24 Absolutně spojité sdružené rozdělení Definice (Spojitě sdružené náhodné věličiny, angl.: jointy continuous) Náhodné veličiny X 1,..., X n jsou (absolutně) spojitě sdružené pokud existuje funkce f X1,...,X n : R n [0, ) tak, že P X1,...,X n ( (, a1 ] (, a n ] ) = an a1 f X1,...,X n (x 1,..., x n ) dx 1 dx n. Funkce f X1,...,X n se nazývá sdružená hustota (angl.: joint density). Rozdělení pravděpodobnosti P X1,...,X n se nazývá (absolutně) spojité sdružené rozdělení (angl.: jointly continuous probability distribution). Marginální hustoty: pro marginální veličinu X i zavádíme: f Xi (x i ) = f X1,...,X n (x 1,..., x n ) dx 1 dx i 1 dx i+1 dx n. }{{} n 1 V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 24 / 59
25 Příklad (Sdružené abolutně spojité náhodné veličiny) Mějme náhodné veličiny X a Y se sdruženou funkcí hustoty f X,Y (x, y) = 3 2 x2 (1 y ), pokud 1 < x < 1 a 1 < y < 1, a f X,Y (x, y) = 0 jinak. Pro A = { x, y 0 < x < 1 a 0 < y < x} dostáváme P X,Y (A) = To jest, = 1 x f X,Y (x, y) dy dx = 3 2 x2 [y y2 2 ] x 0 dx = x2 3 2 x 0 (x 3 x4 1 y dy dx 2 ) dx = 3 2 [ x 4 4 x5 10 P X,Y (A) = P ({ω Ω 0 < X(ω) < 1 a 0 < Y (ω) < X(ω)}) = 9 40 = ] 1 0 = V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 25 / 59
26 Věta (O absolutně spojitých marginálních veličinách) Mějme náhodné veličiny X a Y s absolutně spojitým sdruženým rozdělením daným sdruženou funkcí hustoty f X,Y. Potom X a Y jsou absolutně spojité náhodné veličiny s marginálními hustotami f X a f Y. Důkaz. Pokud je sdružené rozdělení X a Y absolutně spojité, potom máme ( ) ( ) b ( ) P X (a, b] = PX,Y (a, b] R = f X,Y (x, y) dy dx = a ( ) ( ) b ( ) P Y (a, b] = PX,Y R (a, b] = f X,Y (x, y) dx dy = To znamená, že f X a f Y jsou funkce hustoty rozdělení veličin X a Y. a b a b Poznámka: Na rozdíl od diskrétních veličin, opačné tvrzení neplatí. (!!) a f X (x) dx, f Y (y) dy. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 26 / 59
27 Příklad (Sdružené rozdělení, které není absolutně spojité) Uvažujme absolutně spojitou náhodnou veličinu X jejíž funkce hustoty je f X = 1 [0,1]. To jest, f X (x) = 1 pro x [0, 1] a f X (x) = 0 ve všech ostatních případech. Položme Y = X. Obě X a Y jsou absolutně spojité náhodné veličiny. Uvažujme nyní B = { x, x x R}. Platí P ( { X, Y B} ) = P ( {ω Ω X(ω) Y (ω)} ) = P ({X Y }) = 0. Kdyby X a Y měly sdruženou funkci hustoty f X,Y, pak by platilo P ( { X, Y B} ) = P ({X < Y }) + P ({X > Y }) = = y f X,Y (x, y) dx dy + f X,Y (x, y) dx dy = P X,Y (R 2 ) = 1, což by byl spor s faktem, že P ({X Y }) = 0; P X,Y y f X,Y (x, y) dx dy proto není absolutně spojité. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 27 / 59
28 Očekávané hodnoty Očekávané hodnoty marginálních veličin: uvažujeme náhodný vektor X : Ω R n s rozdělením P X ; marginální veličiny π i (X): Ω R pro i = 1,..., n; lze uvažovat očekávané hodnoty E ( π i (X) ), E ( g(π i (X)) ),... (Přednáška 7) Střední hodnoty marginálních veličin: E ( π i (X) ) je střední hodnota i-té marginální veličiny; pokud se marginální veličina označuje X, pak označujeme E(X) = µ X. Rozptyl marginálních veličin: E (( π i (X) E(π i (X)) ) 2) je rozptyl i-té marginální veličiny; pokud je marginální veličina X, píšeme E ( (X µ X ) 2) = σx 2 = Var(X). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 28 / 59
29 Příklad (Motivace pro nezávislost náhodných veličin) Uvažujme dvě náhodné veličiny X a Y v pravděpodobnostním prostoru Ω, F, P. Pro libovolné A, B B platí, že {X A} F a {Y B} F. Podle definice nezávislosti náhodných jevů (Přednáška 4) platí, že {X A} a {Y B} pokud P ({X A} {Y B}) = P ({X A}) P ({Y B}). Pomocí sdružených a marginálních rozdělení lze předchozí vyjádřit jako P X,Y (A, B) = P X (A) P Y (B). Pokud P Y (B) > 0, lze v důsledku nezávislosti {X A} a {Y B} psát P ({X A} {Y B}) = P ({X A} {Y B}) P ({Y B}) = P X,Y (A, B) P Y (B) = P X (A). Rozšíření úvahy: Místo nezávislosti náhodných jevů {X A} a {Y B} daných dvěma konkrétními Borelovskými množinami A, B B můžeme uvažovat nezávislosti jevů pro libovolné A, B,... V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 29 / 59
30 Nezávislost náhodných veličin Definice (Nezávislost náhodných veličin) Mějme náhodné veličiny X 1,..., X n v pravděpodobnostním prostoru Ω, F, P. Pak X 1,..., X n se nazývají nezávislé (angl.: independent) náhodné veličiny pokud {X 1 a 1 },..., {X n a n } jsou vzájemně nezávislé náhodné jevy pro každé a 1,..., a n R. V opačném případě se X 1,..., X n nazývají závislé (angl.: dependent). Důsledky nezávislosti: Mějme nezávislé náhodné veličiny X 1,..., X n. Pak pro sdruženou pravděpodobnostní míru P X1,...,X n platí P X1,...,X n ( (, a1 ] (, a n ] ) = P ({X 1 a 1 } {X n a n }) = n i=1 P ({X i a i }) = n i=1 P X i ( (, ai ] ). V případě nezávislých veličin lze vyjádřit P X1,...,X n z marginálních pravděpodobností. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 30 / 59
31 Věta (Ekvivalentní zavedení nezávislosti náhodných veličin) Náhodné veličiny X 1,..., X n v pravděpodobnostním prostoru Ω, F, P jsou nezávislé právě tehdy, když {X 1 A 1 },..., {X n A n } jsou vzájemně nezávislé náhodné jevy pro všechny Borelovské množiny A 1,..., A n B. Důkaz. Prokážeme pouze netriviální implikaci pro náhodné veličiny X a Y (tvrzení pro X 1,..., X n lze získat přímočarým zobecněním). Předpokládejme, že X a Y jsou nezávislé veličiny. Položme X = { A B {X A} a {Y b} jsou nezávislé pro každé b R }. Dle předpokladu, (, a] X pro každé a R. Navíc platí, že X je uzavřená na komplement, sjednocení spočetně mnoha prvků z X a R X (Přednáška 4). Odtud ihned dostáváme, že X je σ-algebra a je totožná s B. Analogicky: Y = { B B {X A} a {Y B} jsou nezávislé pro každé A X }. Opět máme Y = B. Pro A, B B tedy tvrzení platí, protože A X, B Y. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 31 / 59
32 Věta (Nezávislost odvozených náhodných veličin) Mějme náhodné veličiny X 1,..., X n v pravděpodobnostním prostoru Ω, F, P a Borelovské funkce g 1,..., g n. Pokud jsou X 1,..., X n nezávislé, pak jsou náhodné veličiny g 1 (X 1 ),..., g n (X n ) rovněž nezávislé. Důkaz. Vezměme a 1,..., a n R. Stačí ukázat, že {g 1 (X 1 ) a 1 },..., {g n (X n ) a n } jsou vzájemně nezávislé. Pro každé i = 1,..., n platí, že {g i (X i ) a i } = {X i {g i a i }}. Dále platí, že {g i a i } B pro každé i = 1,..., n. Aplikací předchozí věty tedy ihned dostáváme, že {X 1 {g 1 a 1 }},..., {X n {g n a n }} jsou vzájemně nezávislé náhodné jevy. Tvrzení je tedy důsledkem předchozích dvou pozorování a toho, že a 1,..., a n R byly voleny libovolně. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 32 / 59
33 Sdružená pravděpodobnostní funkce a nezávislost Věta (Nezávislost diskrétních náhodných veličin) Diskrétní náhodné veličiny X, Y s pravděpodobnostními funkcemi f X a f Y jsou nezávislé právě tehdy, když f X,Y (a, b) = f X (a) f Y (b), pro libovolné a, b R. Důkaz. Nechť X a Y jsou nezávislé veličiny, pak pro libovolné a, b R platí: f X,Y (a, b) = P ({X = a} {Y = b}) = P ({X = a}) P ({Y = b}) = f X (a) f Y (b). Obráceně, nechť platí f X,Y (a, b) = f X (a) f Y (b) pro všechna a, b R. Platí: P ({X a}) P ({Y b}) = x a f X(x) y b f X(y) = ( x a y b f X(y) f X (x) ) = ( x a y b fx (y) f X (x) ) = x a y b f X,Y (x, y) = P ({X a} {Y b}). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 33 / 59
34 Příklad (Nezávislé diskrétní náhodné veličiny) Mějme diskrétní náhodné veličiny X a Y se sdruženou pravděpodobnostní funkcí f X,Y (x, y) = x y2 pokud x {1, 2, 3} a y {1, 2}, 30 a f X,Y (x, y) = 0 ve všech ostatních případech. Úkol: Vyšetřete, jestli jsou X a Y nezávislé. Řešení: Marginální rozdělení pravděpodobnosti veličin X a Y jsou f X (x) = 2 f Y (y) = 3 y=1 x=1 x y 2 30 = x x 30 = x 6 x y 2 30 = y y y2 30 = y2 5 pro x {1, 2, 3}, pro y {1, 2}. Zřejmě f X,Y (x, y) = f X (x) f Y (y) pro každé x, y R, to jest X a Y jsou nezávislé. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 34 / 59
35 Příklad (Nezávislé diskrétní náhodné veličiny) Mějme diskrétní náhodné veličiny X a Y se sdruženou pravděpodobnostní funkcí f X,Y (x, y) = x + y, pokud x {1, 2, 3} a y {1, 2}, 21 a f X,Y (x, y) = 0 ve všech ostatních případech. Úkol: Vyšetřete, jestli jsou X a Y nezávislé. Řešení: Marginální rozdělení pravděpodobnosti veličin X a Y jsou f X (x) = 2 f Y (y) = 3 y=1 x=1 x + y 21 = x x = 2x x + y 21 = 6 + 3y 21 pro y {1, 2}. pro x {1, 2, 3}, To jest například f X,Y (1, 1) = = = f X(1) f Y (1), což znamená že náhodné veličiny X a Y jsou závislé. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 35 / 59
36 Příklad (Rychlé vyšetření nezávislosti diskrétních náhodných veličin) Mějme diskrétní náhodné veličiny X a Y se sdruženou pravděpodobnostní funkcí f X,Y (x, y) = x y2 pro x, y { 1, 1, 1, 2, 2, 2 }. 13 a f X,Y (x, y) = 0 ve všech ostatních případech. Úkol: Vyšetřete, jestli jsou X a Y nezávislé. Řešení: Marginální rozdělení pravděpodobnosti veličin X a Y jsou { 5 { pro x = 1, 1 pro y = 1, f X (x) = 8 pro x = 2, 13 f Y (y) = 12 pro y = Odtud f X,Y (2, 1) = = = f X(2) f Y (1), veličiny jsou závislé. Obecná (kratší) úvaha: S = { x, y f X,Y (x, y) > 0} není ve tvaru kartézského součinu dvou podmnožin R. V tom případě zřejmě musí existovat x, y R tak, že f X,Y (x, y) = 0 a f X (x) > 0 a f Y (y) > 0, což znamená, že X a Y jsou závislé. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika / 59
37 Sdružená funkce hustoty a nezávislost Věta (Nezávislost absolutně spojitých náhodných veličin) Absolutně spojité náhodné veličiny X, Y se sdruženou funkcí hustoty f X,Y jsou nezávislé právě tehdy, když f X,Y (a, b) = f X (a) f Y (b), pro libovolné a, b R. Důkaz. Prokazuje se užitím Fubiniho věty a faktů P ({X a}) P ({Y b}) = = P ({X a}) P ({Y b}) = a b a b a f X (x) dx b f Y (y) dy f X (x) f Y (y) dx dy, f X,Y (x, y) dx dy. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 37 / 59
38 Příklad (Nezávislé absolutně spojité náhodné veličiny) Problém: Mějme absolutně spojité náhodné veličiny se sdruženou hustotou f X,Y (x, y) = c e x+y, pokud x, y 0, a f X,Y (x, y) = 0 ve všech ostatních případech. Úkol: Stanovte hodnotu c R a určete, jestli jsou X a Y nezávislé. Řešení: Nejprve z vlastností funkce hustoty stanovíme konstantu c R. ( 2 1 = P X,Y (R 2 ) = c e x+y dy dx = c e dx) x+y = c. Marginální funkce hustoty f X a f Y f X (x) = mají potom tvar: e x+y dy = e x, f Y (y) = e x+y dx = e y. X a Y jsou nezávislé, protože f X,Y (x, y) = f X (x) f Y (y) pro každé x, y R. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 38 / 59
39 Kovariance a korelační koeficient Definice (Kovariance a korelační koeficient náhodných veličin) Mějme náhodné veličiny X a Y. Potom 1 Pokud jsou µ X a µ Y střední hodnoty veličin X a Y, pak Cov(X, Y ) = σ X,Y = E((X µ X ) (Y µ Y )) nazýváme kovariance náhodných veličin X a Y (angl.: covariance); 2 Pokud σ 2 X > 0 a σ2 Y > 0, pak Cor(X, Y ) = ρ X,Y = Cov(X, Y ) σ X σ Y se nazývá korelační koeficient veličin X a Y (angl.: correlation coefficient). Poznámka: Pro X(ω) = X(ω), Y (ω) a g(x, y) = (x µ X ) (y µ Y ) máme Cov(X, Y ) = E(g(X)). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 39 / 59
40 Věta (Střední hodnota součinu náhodných veličin) E(XY ) = µ X µ Y + ρ X,Y σ X σ Y = µ X µ Y + Cov(X, Y ). Důkaz. Užitím faktu, že E je lineární operátor dostáváme: E ( (X µ X )(Y µ Y ) ) = E(XY µ X Y µ Y X + µ X µ Y ) = Jelikož ρ X,Y = Cov(X, Y ) σ X σ Y = E(XY ) µ X E(Y ) µ Y E(X) + µ X µ Y = = E(XY ) µ X µ Y µ Y µ X + µ X µ Y = E(XY ) µ X µ Y. = E(XY ) µ Xµ Y, vyjádřením E(XY ) dostáváme: σ X σ Y E(XY ) = µ X µ Y + ρ X,Y σ X σ Y. Důsledek: Střední hodnota součinu XY je rovna součinu středních hodnot X a Y zvětšenému o kovarianci Cov(X, Y ) = ρ X,Y σ X σ Y. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 40 / 59
41 Příklad (Výpočet korelačního koeficientu dvou náhodných veličin) Mějme diskrétní náhodné veličiny se sdruženou pravděpodobnostní funkcí f X,Y (x, y) = x + 2y, pro x {1, 2} a y {1, 2}, 18 f X,Y (x, y) = 0 v ostatních případech. Střední hodnota a rozptyl marginálních náhodných veličin jsou následující: µ X = 14 9, σ2 X = 20 81, µ Y = 29 18, σ2 Y = Kovarianci veličin X a Y stanovíme pomocí vztahu z předchozího tvrzení Cov(X, Y ) = 2 x=1 Potom má korelační koeficient ρ X,Y ρ X,Y = 2 x + 2y xy y=1 18 hodnotu = /162 (20/81) (77/324) V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 41 / 59
42 Příklad (Kovariance nezávislých diskrétních veličin) Problém: Mějme nezávislé diskrétní náhodné veličiny X a Y. Úkol: Stanovte kovarianci X a Y. Řešení: S využitím faktu f X,Y (x, y) = f X (x) f Y (y) máme: E ( u(x) v(y ) ) = x R y R u(x) v(y) f X,Y (x, y) = = x R y R u(x) v(y) f X(x) f Y (y) = = x R u(x) f X(x) y R v(y) f Y (y) = To jest, ve speciálním případě: = E ( u(x) ) E ( v(y ) ). Cov(X, Y ) = E ( (X µ X )(Y µ Y ) ) = E(X µ X ) E(Y µ Y ) = 0 0 = 0. Důsledek: Pokud jsou X a Y nezávislé, jejich kovariance je nulová. Pozor: Opačné tvrzení neplatí: existují závislé veličiny s nulovou kovariancí. (!!) V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 42 / 59
43 Lineární regresní funkce Vyšetřování (lineární) závislosti jedné náhodné veličiny na druhé; jako v případě výběrů (Přednáška 2), ale pracujeme s náhodnými veličinami. Nalezení regresní přímky ve smyslu metody nejmenších čtverců Předpokládejme, že máme náhodné veličiny X a Y. 1 Uvažujeme body x, y v prostoru (s jejich pravděpodobnostmi); 2 speciálně lze uvažovat bod µ X, µ Y daný středními hodnotami X a Y ; 3 přímky procházející bodem µ X, µ Y splňují y µ Y = b (x µ X ); 4 uvažujme bod x 0, y 0, čtverec jeho vzdálenosti od přímky y = b (x µ X ) + µ Y je (y 0 µ Y b (x 0 µ X )) 2. 5 Očekávaná střední vzdálenost bodů od přímky je tedy E ( (Y µ Y b (X µ X )) 2). 6 Hledáme proto b R, které minimalizuje K(b) = E ( (Y µ Y b (X µ X )) 2). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 43 / 59
44 Vyjádření lineární regresní funkce Zjednodušením tvaru funkce K a vyjádřením pomocí korelačního koeficientu: K(b) = E ( (Y µ Y b (X µ X )) 2) = = E ( (Y µ Y ) 2 2b(X µ X )(Y µ Y ) + b 2 (X µ X ) 2) = = σ 2 Y 2bσ X,Y + b 2 σ 2 X = σ 2 Y 2bρ X,Y σ X σ Y + b 2 σ 2 X. První derivace funkce K je následující: K (b) = 2ρ X,Y σ X σ Y + 2bσ 2 X To znamená, že hledané minimum je b = ρ X,Y σ Y σ X (platí K (b) = 2σ 2 X > 0). Věta (Tvar regresní přímky ve smyslu metody nejmenších čtverců) y = µ Y + ρ X,Y σy σ X (x µ X ). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 44 / 59
45 Příklad (Lineární regresní funkce) Mějme diskrétní náhodné veličiny se sdruženou pravděpodobnostní funkcí f X,Y (x, y) = x + 2y, pro x {1, 2} a y {1, 2}, 18 f X,Y (x, y) = 0 v ostatních případech. Z předchozího příkladu víme, že µ X = 14 9, σ2 X = 20 81, µ Y = 29 18, σ2 Y = Dále máme stanovenu hodnotu korelačního koeficientu: ρ X,Y = Cov(X, Y ) (20/81) (77/324) Lineární regresní funkce je proto ve tvaru: y = µ Y + ρ X,Y σy (x µ X ) = 14 σ X /324 20/81 ( x 14 ). 9 V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 45 / 59
46 Podmíněná rozdělení S využitím podmíněné pravděpodobnosti (Přednáška 4) lze psát P ({X A} {Y B}) = P ({X A} {Y B}) P ({Y B}) To nás motivuje k zavedení následujícího pojmu: Definice (Podmíněné rozdělení náhodné veličiny) = P X,Y (A, B). P Y (B) Mějme náhodné veličiny X a Y se sdruženým rozdělením pravděpodobnosti P X,Y. Pak pravděpodobnostní míra P X {Y B} daná pro každou A B předpisem P X {Y B} (A) = P X,Y (A, B) P Y (B) pokud P Y (B) > 0, je podmíněné rozdělení pravděpodobnosti náhodné veličiny X za předpokladu, že náhodná veličina Y nabude hodnoty z B B, angl.: conditional distribution. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 46 / 59
47 Pojmy související s podmíněným rozdělením Pro P X {Y B} je F X {Y B} podmíněná distribuční funkce ve tvaru ( ) F X {Y B} (a) = P X {Y B} (, a] = P ({X a} {Y B}). Pokud je X diskrétní, pak podmíněná pravděpodobnostní funkce je ve tvaru f X {Y B} (x) = P X {Y B} ({x}) = P ({X = x} {Y B}). Pokud je P X {Y B} absolutně spojitá pravděpodobnostní míra s hustotu f, pak se f označuje f X {Y B} a nazývá se podmíněná funkce hustoty. V důsledku: P X {Y B} (A) = f X {Y B} dm. Pokud je P Y (B) > 0, podmíněná střední hodnota X za předpokladu {Y B} je A E(X {Y B}) = E(X 1 {Y B}) P Y (B), kde 1 {Y B} je indikátorová funkce. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 47 / 59
48 Příklad (Podmíněné rozdělení pravděpodobnosti) Mějme diskrétní náhodné veličiny X a Y se sdruženou pravděpodobnostní funkcí f X,Y (x, y) = x + y pro x {1, 2, 3} a y {1, 2}, 21 f X,Y (x, y) = 0 ve všech ostatních případech. Marginální pravděpodobnostní funkce f X a f Y jsou následující: f X (x) = 2x + 3 pro x {1, 2, 3}; f Y (y) = 6 + 3y pro y {1, 2} Podmíněnou pravděpodobnostní funkci f X {Y =y} lze vyjádřit f X {Y =y} (x) = P ({X = x} {Y = y}) = f X,Y (x, y) f Y (y) Například tedy máme = (x + y)/21 (6 + 3y)/21 = x + y 6 + 3y. P ({X 2} {Y = 2}) = f X {Y =2} (2) + f X {Y =2} (3) = = 3 4. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 48 / 59
49 Příklad (Podmíněné střední hodnoty) Problém: Uvažujme náhodné veličiny X a Y z předchozího příkladu. Úkol: Stanovte podmíněnou střední hodnotu X za předpokladu, že {Y = 2}. Řešení: Jelikož je X diskrétní, existuje spočetná C R tak, že E(X {Y B}) = E(X 1 {Y B}) P Y (B) = x C Speciálně pro B = {y} dostáváme: = 1 P Y (B) x P ({X 1 {Y B} = x}) x C x P ({X = x} {Y B}) P Y (B) = x C x f X {Y B}(x). E(X {Y = y}) = x f X {Y =y}(x) = x fx,y (x, y). x C x C f Y (y) Případě předchozího příkladu pro y = 2 dostáváme: E(X {Y = 2}) = 1 f X {Y =2} (1) + 2 f X {Y =2} (2) + 3 f X {Y =2} (3) = V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 49 / 59
50 Příklad (Jeden politicky nekorektní příklad) Problém: Malý podnik zaměstnává 100 mužů a 100 žen a výplaty všech zaměstnanců jsou buď Kč nebo Kč nebo Kč. Muži zaměstnaní v podniku mají následující výplaty: 20 z nich má Kč, 20 z nich má Kč a zbývajících 60 má Kč. Průměrný plat muže v podniku je tedy: = Kč. Ženy zaměstnané v podniku vydělávají následovně: 60 vydělává , 20 vydělává a zbývajících 20 vydělává , což dává průměrnou hodnotu Otázka: Jak máme tento výsledek interpretovat? = Kč. Odpověď statistika: Nijak. (Alespoň ne bez dodatečné informace.) V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 50 / 59
51 Příklad (Simpsonův paradox) Pokud budeme uvažovat dodatečnou dimenzi dat (počet let v zaměstnání), situace z předchozího příkladu může vypadat následovně: výplata 1 rok 5 let celkem muži průměr ženy průměr Ačkoliv mají muži vyšší celkovou průměrnou mzdu než ženy, v rámci obou skupin se stejnou dobou praxe mají ženy vyšší průměrnou mzdu než muži. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 51 / 59
52 Příklad (Generování pseudonáhodných čísel ruletovovou metodou) Problém: Máme diskrétní náhodnou veličinu X takovou, že P X (C) = 1 pro konečnou množinu C R. Úkolem je generovat (na počítači) pseudonáhodná čísla, která mají stejné rozdělení, jako veličina X (simulace náhodné veličiny X). Většina programovacích jazyků disponuje pouze funkcí pro generování pseudonáhodných čísel odpovídající (diskrétnímu) uniformnímu rozdělení. Pokud pro konečnou C R platí P X (C) = 1, lze použít následující princip ruletového výběru: 1 Označme C = {x 1,..., x k } tak, že f X (x i ) > 0 a x 1 < x 2 < < x k ; 2 vygenerujeme uniformní pseudonáhodné číslo p [0, 1]; 3 najdeme nejmenší index i = 1,..., k splňující podmínku p i n=1 f X(x n ); 4 vrátíme hodnotu x i jako výsledek. Otázka: Jak postupovat pro obecná X? V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 52 / 59
53 Věta (O inverzní transformaci) Mějme náhodnou veličinu X s rozdělením U(0, 1). Pak pro libovolnou distribuční funkci F platí, že náhodná veličina F (X) má distribuční funkci F. Důkaz. Distribuční funkce náhodné veličiny F (X) je ve tvaru F F (X)(a) = P F (X)( (, a] ) = P ({F (X) a}) = P ({X {F a}}). Pokud si nyní uvědomíme, že {F a} = {x R F (x) a} a využijeme faktu, že x F (a) platí právě tehdy, když F (x) a (Přednáška 7), pak {F a} = {x R F (x) a} = {x R x F (a)} = (, F (a)]. Dosazením do předchozí rovnosti a využitím faktu, že X má uniformní rozdělení U(0, 1), dostáváme: F F (X)(a) = P ({X {F a}}) = P ({X (, F (a)]}) = P ({0 X F (a)}) = F (a). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 53 / 59
54 Příklad (Použití inverzní transformace) Předchozí věta dává následující postup generování pseudonáhodných čísel: 1 vygenerujeme uniformní pseudonáhodné číslo x [0, 1]; 2 vypočítej výslednou hodnotu F (x). Použitelné v případech, kdy F má jednoduché explicitní vyjádření. Poznámka: Nutné mít kvalitní generátor uniformních (pseudo)náhodných čísel. Implementace ve standardních knihovnách C99 (ISO/IEC 9899) #include <stdlib.h> double random_u01 (void) { /* 0x7FFFFFFF = */ return random () / ((double) 0x7FFFFFFF); } V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 54 / 59
55 Příklad (Pseudonáhodná čísla z exponenciálního rozdělení) Mějme náhodnou veličinu X, která má exponenciální rozdělení s parametrem µ = θ. Pak kvantilová funkce F X náhodné veličiny X je ve tvaru: F X (p) = θ ln(1 p), pro p [0, 1). Příklad: Pro X s parametrem θ = 5 a odpovídající F X použijeme předchozí postup: 0.20 n = n = n = V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 55 / 59
56 Věta (Základní věta simulace náhodných veličin) Mějme absolutně spojitou náhodnou veličinu X s hustotou f X a uvažujme dvourozměrný absolutně spojitý náhodný vektor X jehož hustota f X je { 1 pokud 0 < y < fx (x), f X (x, y) = 0 jinak. Pak f X = f π1 (X), to jest f X je marginální hustota X. Pokud je navíc f X shora omezená hodnotou nějakého m R a f X nabývá nenulových hodnot pouze na intervalu (a, b), pak platí, že P ({X x}) = P ({U x} {V f X (U)}), kde U má rozdělení U(a, b) a V má rozdělení U(0, m). Důkaz (začátek). První část tvrzení je triviální, protože: f π1 (X)(x) = f X (x, y) dy = fx (x) 0 1 dy = f X (x). V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 56 / 59
57 Důkaz (dokončení). Rozepsáním podmíněné pravděpodobnosti z druhé části tvrzení dostáváme P ({U x} {V f X (U)}) = P ({U x} {V f X(U)}). P ({V f X (U)}) Jelikož f U,V (u, v) má na (a, b) (0, m) konstantní nenulovou hodnotu: P ({U x} {V f X (U)}) P ({V f X (U)}) x fx (u) a b fx (u) a 1 dv du 0 1 dv du = 0 = x fx (u) a b fx (u) a f 0 U,V (u, v) dv du f 0 U,V (u, v) dv du = Užitím pozorování z první části tvrzení dostáváme: x f x a X(u) du b f a X(u) du = f a X(u) du = 1 x a x fx (u) a b fx (u) a 1 dv du 0 1 dv du. 0 f X (u) du = P ({X x}). Aplikace věty: Lze generovat pseudonáhodná čísla pouze pomocí funkce hustoty f X a generátoru uniformních pseudonáhodných čísel. (!!) V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 57 / 59
58 Implementace Algoritmus (generování pseudonáhodných čísel pomocí funkce hustoty) (defun density-random (f a b m) "Generate random number from interval (A,B) according to distribution with density F bounded by [0,M]." (loop for u := (+ a (random (float (- b a) 1L0))) for v := (random (float m 1L0)) when (<= v (funcall f u)) do (return u))) Poznámka: používá se v případech, kdy F X nelze jednoduše vyjádřit; metoda inverzní funkce se naopak používá, pokud lze F X jednoduše počítat. V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 58 / 59
59 Přednáška 8: Závěr Pojmy: náhodný vektor, vícerozměrné Borelovské jevové pole, sdružené rozdělení pravděpodobnosti, marginální rozdělení pravděpodobnosti nezávislost náhodných veličin, kovariance, korelační koeficient podmíněná rozdělení, inverzní transformace, pseudonáhodná čísla Použité zdroje: Capinski M., Zastawniak T. J.: Probability Through Problems Springer 2001, ISBN Gentle J. E.: Random Number Generation and Monte Carlo Methods Springer 2004, ISBN Hogg R. V., Tanis E. A.: Probability and Statistical Inference Prentice Hall; 7. vydání 2005, ISBN V. Vychodil (KMI/PRAS, Přednáška 8) Náhodné vektory Pravděpodobnost a statistika 59 / 59
Pravděpodobnost a statistika
Pravděpodobnost a statistika Normální rozdělení a centrální limitní věta Vilém Vychodil KMI/PRAS, Přednáška 9 Vytvořeno v rámci projektu 2963/2011 FRVŠ V. Vychodil (KMI/PRAS, Přednáška 9) Normální rozdělení
VícePravděpodobnost a statistika
Pravděpodobnost a statistika Bodové odhady a intervaly spolehlivosti Vilém Vychodil KMI/PRAS, Přednáška 10 Vytvořeno v rámci projektu 963/011 FRVŠ V. Vychodil (KMI/PRAS, Přednáška 10) Bodové odhady a intervaly
VíceDefinice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně
7 Náhodný vektor Nezávislost náhodných veličin Definice 7 Nechť je dán pravděpodobnostní prostor (Ω, A, P) Zobrazení X : Ω R n, které je A-měřitelné, se nazývá (n-rozměrný) náhodný vektor Měřitelností
VíceStatistika II. Jiří Neubauer
Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Zaměříme se především na popis dvourozměrných náhodných veličin (vektorů). Definice Nechť X a Y jsou
VíceAVDAT Náhodný vektor, mnohorozměrné rozdělení
AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární
VíceMATEMATICKÁ STATISTIKA - XP01MST
MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného
Vícen = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)
5. NÁHODNÝ VEKTOR 5.1. Rozdělení náhodného vektoru Náhodný vektor X = (X 1, X 2,..., X n ) T n-rozměrný vektor, složky X i, i = 1,..., n náhodné veličiny. Vícerozměrná (n-rozměrná) náhodná veličina n =
Víceletní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory
Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme
VícePravděpodobnost a aplikovaná statistika
Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti
Více1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.
VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:
VíceNáhodný vektor a jeho charakteristiky
Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich
VíceTéma 22. Ondřej Nývlt
Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené
Více1 Báze a dimenze vektorového prostoru 1
1 Báze a dimenze vektorového prostoru 1 Báze a dimenze vektorového prostoru 1 2 Aritmetické vektorové prostory 7 3 Eukleidovské vektorové prostory 9 Levá vnější operace Definice 5.1 Necht A B. Levou vnější
VíceNMAI059 Pravděpodobnost a statistika
NMAI059 Pravděpodobnost a statistika podle přednášky Daniela Hlubinky (hlubinka@karlin.mff.cuni.cz) zapsal Pavel Obdržálek (pobdr@matfyz.cz) 205/20 poslední změna: 4. prosince 205 . přednáška. 0. 205 )
VícePoznámky k předmětu Aplikovaná statistika, 4. téma
Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické
VícePojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.
6. NÁHODNÝ VEKTOR Průvodce studiem V počtu pravděpodobnosti i v matematické statistice se setkáváme nejen s náhodnými veličinami, jejichž hodnotami jsou reálná čísla, ale i s takovými, jejichž hodnotami
Více1 Rozptyl a kovariance
Rozptyl a kovariance Nechť X je náhodná veličina s konečnou střední hodnotou EX Potom rozptyl náhodné veličiny X definujeme jako: DX E(X EX, pokud střední hodnota na pravé straně existuje Podobně jako
VíceNáhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X
Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich
Více10. N á h o d n ý v e k t o r
10. N á h o d n ý v e k t o r 10.1. Definice: Náhodný vektor. Uspořádanou n tici (X 1, X 2,..., X n ) náhodných veličin X i, 1 i n, nazýváme náhodným vektorem. Poznámka: Pro jednoduchost budeme zavádět
VícePravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík
Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné
VícePravděpodobnost a statistika
Pravděpodobnost a statistika Diskrétní rozdělení Vilém Vychodil KMI/PRAS, Přednáška 6 Vytvořeno v rámci projektu 2963/2011 FRVŠ V. Vychodil (KMI/PRAS, Přednáška 6) Diskrétní rozdělení Pravděpodobnost a
VícePoznámky k předmětu Aplikovaná statistika, 4. téma
Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické
VícePravděpodobnost a statistika (BI-PST) Cvičení č. 7
Pravděpodobnost a statistika (BI-PST) Cvičení č. 7 R. Blažek, M. Jiřina, J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení
VíceProjekty - Úvod do funkcionální analýzy
Projekty - Úvod do funkcionální analýzy Projekt č. 1. Nechť a, b R, a < b. Dokažte, že prostor C( a, b ) = f : R R: f je spojitá na D(f) = a, b s metrikou je úplný. ρ(f, g) = max f(x) g(x) x a,b Projekt
VíceNáhodná veličina a její charakteristiky. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáte. Proto je proměnná, která
Náhodná veličina a její charakteristiky Náhodná veličina a její charakteristiky Představte si, že provádíte náhodný pokus, jehož výsledek jste schopni ohodnotit nějakým číslem. Před provedením pokusu jeho
VíceCharakterizace rozdělení
Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf
VíceNáhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost
Pravděpodobnost Náhodné veličiny a jejich číselné charakteristiky Petr Liška Masarykova univerzita 19.9.2014 Představme si, že provádíme pokus, jehož výsledek dokážeme ohodnotit číslem. Před provedením
Více1 Lineární prostory a podprostory
Lineární prostory a podprostory Přečtěte si: Učebnice AKLA, kapitola první, podkapitoly. až.4 včetně. Cvičení. Které z následujících množin jsou lineárními prostory s přirozenými definicemi operací?. C
VíceVektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice
Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u
VíceNÁHODNÝ VEKTOR. 4. cvičení
NÁHODNÝ VEKTOR 4. cvičení Náhodný vektor Náhodným vektorem rozumíme sloupcový vektor X=(X, X,, X n ) složený z náhodných veličin X, X,, X n, který je charakterizován sdruženým rozdělením pravděpodobnosti.
VíceTexty k přednáškám z MMAN3: 4. Funkce a zobrazení v euklidovských prostorech
Texty k přednáškám z MMAN3: 4. Funkce a zobrazení v euklidovských prostorech 1. července 2008 1 Funkce v R n Definice 1 Necht n N a D R n. Reálnou funkcí v R n (reálnou funkcí n proměnných) rozumíme zobrazení
Více1 Linearní prostory nad komplexními čísly
1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)
VíceJiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou
VíceMatematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace
Matematika III 10. týden Číselné charakteristiky střední hodnota, rozptyl, kovariance, korelace Jan Slovák Masarykova univerzita Fakulta informatiky 28. 11 2. 12. 2016 Obsah přednášky 1 Literatura 2 Střední
VíceI. D i s k r é t n í r o z d ě l e n í
6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme
VíceLineární algebra : Báze a dimenze
Lineární algebra : Báze a dimenze (5. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 9. dubna 2014, 13:33 1 2 5.1 Báze lineárního prostoru Definice 1. O množině vektorů M z LP V řekneme,
Víceprof. RNDr. Roman Kotecký DrSc., Dr. Rudolf Blažek, PhD Pravděpodobnost a statistika Katedra teoretické informatiky Fakulta informačních technologií
prof. RNDr. Roman Kotecký DrSc., Dr. Rudolf Blažek, PhD Katedra teoretické informatiky Fakulta informačních technologií České vysoké učení technické v Praze c Rudolf Blažek, Roman Kotecký, 2011 Pravděpodobnost
Vícep(x) = P (X = x), x R,
6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme
VícePRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Náhodná proměnná Náhodná veličina slouží k popisu výsledku pokusu. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáme. Přesto bychom chtěli tento pokus
VíceNecht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru
2. Systémy lineárních rovnic V této kapitole se budeme zabývat soustavami lineárních rovnic s koeficienty z pole reálných případně komplexních čísel. Uvádíme podmínku pro existenci řešení systému lineárních
VíceNáhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X
Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristik často potřebujeme všetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich
VíceNecht L je lineární prostor nad R. Operaci : L L R nazýváme
Skalární součin axiomatická definice odvození velikosti vektorů a úhlu mezi vektory geometrická interpretace ortogonalita vlastnosti ortonormálních bázi [1] Definice skalárního součinu Necht L je lineární
VíceVýběrové charakteristiky a jejich rozdělení
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistické šetření úplné (vyčerpávající) neúplné (výběrové) U výběrového šetření se snažíme o to, aby výběrový
Více9. přednáška 26. listopadu f(a)h < 0 a pro h (0, δ) máme f(a 1 + h, a 2,..., a m ) f(a) > 1 2 x 1
9 přednáška 6 listopadu 007 Věta 11 Nechť f C U, kde U R m je otevřená množina, a a U je bod Pokud fa 0, nemá f v a ani neostrý lokální extrém Pokud fa = 0 a H f a je pozitivně negativně definitní, potom
VíceSTATISTICKÁ VAZBA. 1.1 Statistická vazba Charakteristiky statistické vazby dvou náhodných veličin Literatura 9
STATISTICKÁ VAZBA Obsah 1 Korelační analýza 1 1.1 Statistická vazba.................................... 1 1.2 Motivační příklady................................... 1 1.3 Sdružená distribuční funkce a nezávislost
Více8.3). S ohledem na jednoduchost a názornost je výhodné seznámit se s touto Základní pojmy a vztahy. Definice
9. Lineární diferenciální rovnice 2. řádu Cíle Diferenciální rovnice, v nichž hledaná funkce vystupuje ve druhé či vyšší derivaci, nazýváme diferenciálními rovnicemi druhého a vyššího řádu. Analogicky
VícePravděpodobnost a statistika (BI-PST) Cvičení č. 4
Pravděpodobnost a statistika (BI-PST) Cvičení č. 4 J. Hrabáková, I. Petr, F. Štampach, D. Vašata Katedra aplikované matematiky Fakulta informačních technologií České vysoké učení technické v Praze ZS 2014/2015
VíceGreenova funkce pro dvoubodové okrajové úlohy pro obyčejné diferenciální rovnice
Greenova funkce pro dvoubodové okrajové úlohy pro obyčejné diferenciální rovnice Jan Tomeček Tento stručný text si klade za cíl co nejrychlejší uvedení do teorie Greenových funkcí pro obyčejné diferenciální
Více6 Lineární geometrie. 6.1 Lineární variety
6 Lineární geometrie Motivace. Pojem lineární varieta, který budeme v této kapitole studovat z nejrůznějších úhlů pohledu, není žádnou umělou konstrukcí. Příkladem lineární variety je totiž množina řešení
VíceMETRICKÉ A NORMOVANÉ PROSTORY
PŘEDNÁŠKA 1 METRICKÉ A NORMOVANÉ PROSTORY 1.1 Prostor R n a jeho podmnožiny Připomeňme, že prostorem R n rozumíme množinu uspořádaných n tic reálných čísel, tj. R n = R } R {{ R }. n krát Prvky R n budeme
VíceV předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti
Kapitola 5 Vektorové prostory V předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti operací sčítání a násobení
Více(ne)závislost. α 1 x 1 + α 2 x 2 + + α n x n. x + ( 1) x Vektoru y = ( 1) y říkáme opačný vektor k vektoru y. x x = 1. x = x = 0.
Lineární (ne)závislost [1] Odečítání vektorů, asociativita BI-LIN, zavislost, 3, P. Olšák [2] Místo, abychom psali zdlouhavě: x + ( 1) y, píšeme stručněji x y. Vektoru y = ( 1) y říkáme opačný vektor k
VíceSTANOVENÍ SPOLEHLIVOSTI GEOTECHNICKÝCH KONSTRUKCÍ. J. Pruška, T. Parák
STANOVENÍ SPOLEHLIVOSTI GEOTECHNICKÝCH KONSTRUKCÍ J. Pruška, T. Parák OBSAH: 1. Co je to spolehlivost, pravděpodobnost poruchy, riziko. 2. Deterministický a pravděpodobnostní přístup k řešení problémů.
VíceVícerozměrná rozdělení
Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.
VíceOdhady Parametrů Lineární Regrese
Odhady Parametrů Lineární Regrese Mgr. Rudolf B. Blažek, Ph.D. prof. RNDr. Roman Kotecký, DrSc. Katedra počítačových systémů Katedra teoretické informatiky Fakulta informačních technologií České vysoké
VíceNáhodné vektory a matice
Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane
Více3 Lineární kombinace vektorů. Lineární závislost a nezávislost
3 Lineární kombinace vektorů. Lineární závislost a nezávislost vektorů. Obrázek 5: Vektor w je lineární kombinací vektorů u a v. Vektory u, v a w jsou lineárně závislé. Obrázek 6: Vektor q je lineární
VíceMATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci
MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým
VíceLineární algebra : Metrická geometrie
Lineární algebra : Metrická geometrie (16. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 6. května 2014, 10:42 1 2 Úvod Zatím jsme se lineární geometrii věnovali v kapitole o lineárních
Vícez Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin
Příklady k procvičení z Matematické statistiky Poslední úprava. listopadu 207. Konvergence posloupnosti náhodných veličin. Necht X, X 2... jsou nezávislé veličiny s rovnoměrným rozdělením na [0, ]. Definujme
VíceTOPOLOGIE A TEORIE KATEGORIÍ (2017/2018) 4. PREDNÁŠKA - SOUČIN PROSTORŮ A TICHONOVOVA VĚTA.
TOPOLOGIE A TEORIE KATEGORIÍ (2017/2018) 4. PREDNÁŠKA - SOUČIN PROSTORŮ A TICHONOVOVA VĚTA. PAVEL RŮŽIČKA 4.1. (Kvazi)kompaktnost a sub-báze. Buď (Q, ) uspořádaná množina. Řetězcem v Q budeme rozumět lineárně
VíceRozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce
Náhodná veličina motivace Náhodná veličina Často lze výsledek náhodného pokusu vyjádřit číslem: číslo, které padlo na kostce, výška náhodně vybraného studenta, čas strávený čekáním na metro, délka života
VíceMatematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III
Vysoká škola báňská - Technická univerzita Ostrava 4. října 2018 Podmíněná pravděpodobnost Při počítání pravděpodobnosti můžeme k náhodnému pokusu přidat i nějakou dodatečnou podmínku. Podmíněná pravděpodobnost
VícePŘEDNÁŠKA 9 KŘIVKOVÝ A PLOŠNÝ INTEGRÁL 1. DRUHU
PŘEDNÁŠKA 9 KŘIVKOVÝ A PLOŠNÝ INTEGRÁL 1. DRUHU 6.1 Křivkový integrál 1. druhu Definice 1. Množina R n se nazývá prostá regulární křivka v R n právě tehdy, když existuje vzájemně jednoznačné zobrazení
VíceBáze a dimenze vektorových prostorů
Báze a dimenze vektorových prostorů Buď (V, +, ) vektorový prostor nad tělesem (T, +, ). Nechť u 1, u 2,..., u n je konečná posloupnost vektorů z V. Existují-li prvky s 1, s 2,..., s n T, z nichž alespoň
Vícea způsoby jejího popisu Ing. Michael Rost, Ph.D.
Podmíněná pravděpodobnost, náhodná veličina a způsoby jejího popisu Ing. Michael Rost, Ph.D. Podmíněná pravděpodobnost Pokud je jev A vázán na uskutečnění jevu B, pak tento jev nazýváme jevem podmíněným
VíceMnožiny, relace, zobrazení
Množiny, relace, zobrazení Množiny Množinou rozumíme každý soubor určitých objektů shrnutých v jeden celek. Zmíněné objekty pak nazýváme prvky dané množiny. Pojem množina je tedy synonymem pojmů typu soubor,
VíceMatematika B101MA1, B101MA2
Matematika B101MA1, B101MA2 Zařazení předmětu: povinný předmět 1.ročníku bc studia 2 semestry Rozsah předmětu: prezenční studium 2 + 2 kombinované studium 16 + 0 / semestr Zakončení předmětu: ZS zápočet
VíceLineární algebra : Lineární prostor
Lineární algebra : Lineární prostor (3. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 17. dubna 2014, 14:43 1 2 3.1 Aximotické zavedení lineárního prostoru Číselné těleso Celou lineární
VíceZáklady teorie pravděpodobnosti
Základy teorie pravděpodobnosti Náhodná veličina Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 12. února 2012 Statistika by Birom Základy teorie
Více19 Hilbertovy prostory
M. Rokyta, MFF UK: Aplikovaná matematika III kap. 19: Hilbertovy prostory 34 19 Hilbertovy prostory 19.1 Úvod, základní pojmy Poznámka (připomenutí). Necht (X,(, )) je vektorový prostor se skalárním součinem
VícePRAVDĚPODOBNOST A STATISTIKA aneb Krátký průvodce skripty [1] a [2]
PRAVDĚPODOBNOST A STATISTIKA aneb Krátký průvodce skripty [1] a [2] Použitá literatura: [1]: J.Reif, Z.Kobeda: Úvod do pravděpodobnosti a spolehlivosti, ZČU Plzeň, 2004 (2. vyd.) [2]: J.Reif: Metody matematické
Více3. přednáška 15. října 2007
3. přednáška 15. října 2007 Kompaktnost a uzavřené a omezené množiny. Kompaktní množiny jsou vždy uzavřené a omezené, a v euklidovských prostorech to platí i naopak. Obecně to ale naopak neplatí. Tvrzení
VícePravděpodobnost a její vlastnosti
Pravděpodobnost a její vlastnosti 1 Pravděpodobnost a její vlastnosti Náhodné jevy Náhodný jev je výsledek pokusu (tj. realizace určitého systému podmínek) a jeho charakteristickým rysem je, že může, ale
Víceverze 1.3 kde ρ(, ) je vzdálenost dvou bodů v R r. Redukovaným ε-ovým okolím nazveme ε-ové okolí bodu x 0 mimo tohoto bodu, tedy množinu
Úvod Diferenciální počet více proměnných verze.3 Následující text popisuje základy diferenciálního počtu více proměnných. Měl by sloužit především studentům předmětu MATEMAT na Univerzitě Hradec Králové
VíceLineární algebra : Skalární součin a ortogonalita
Lineární algebra : Skalární součin a ortogonalita (15. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 30. dubna 2014, 09:00 1 2 15.1 Prehilhertovy prostory Definice 1. Buď V LP nad
VíceBayesovské metody. Mnohorozměrná analýza dat
Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A
VíceZápočtová písemka z Matematiky III (BA04) skupina A
skupina A 0 pro x < 1, ae x pro x 1, ), Pravděpodobnost P (X ) a P (X =.). E (X) a E ( X 1). Hustotu transformované náhodné veličiny Y = (X + 1). F(x) = x 3 pro x (0, 9), Hustotu f(x). Pravděpodobnost
VíceJAK MODELOVAT VÝSLEDKY NÁH. POKUSŮ? Martina Litschmannová
JAK MODELOVAT VÝSLEDKY NÁH. POKUSŮ? Martina Litschmannová Opakování Základní pojmy z teorie pravděpodobnosti Co je to náhodný pokus? Děj, jehož výsledek není předem jednoznačně určen podmínkami, za nichž
VíceAplikovaná numerická matematika
Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních
VíceX = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní
..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X
VícePRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Náhodná proměnná Náhodná veličina slouží k popisu výsledku pokusu. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáme. Přesto bychom chtěli tento pokus
VícePřijímací zkouška na navazující magisterské studium 2014
Přijímací zkouška na navazující magisterské studium 24 Příklad (25 bodů) Spočtěte Studijní program: Studijní obor: Matematika Finanční a pojistná matematika Varianta A M x 2 dxdy, kde M = {(x, y) R 2 ;
VícePravděpodobnost a statistika
Pravděpodobnost a statistika 1 Náhodné pokusy a náhodné jevy Činnostem, jejichž výsledek není jednoznačně určen podmínkami, za kterých probíhají, a které jsou (alespoň teoreticky) neomezeně opakovatelné,
VíceCvičení ze statistiky - 5. Filip Děchtěrenko
Cvičení ze statistiky - 5 Filip Děchtěrenko Minule bylo.. Začali jsme pravděpodobnost Klasická a statistická definice pravděpodobnosti Náhodný jev Doplněk, průnik, sjednocení Podmíněná pravděpodobnost
Více5. Lokální, vázané a globální extrémy
5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,
VíceMatematika I 12a Euklidovská geometrie
Matematika I 12a Euklidovská geometrie Jan Slovák Masarykova univerzita Fakulta informatiky 3. 12. 2012 Obsah přednášky 1 Euklidovské prostory 2 Odchylky podprostorů 3 Standardní úlohy 4 Objemy Plán přednášky
VíceDnešní látka Variačně formulované okrajové úlohy zúplnění prostoru funkcí. Lineární zobrazení.
Předmět: MA4 Dnešní látka Variačně formulované okrajové úlohy zúplnění prostoru funkcí. Lineární zobrazení. Literatura: Kapitola 2 a)-c) a kapitola 4 a)-c) ze skript Karel Rektorys: Matematika 43, ČVUT,
Více1 Pravděpodobnostní prostor
PaS 1.-10. přednáška 1 Pravděpodobnostní prostor Náhodný pokus je takový pokus, jehož výsledek nelze s jistotou předpovědět. Pokud jsme schopni pokus za stále stejných podmínek opakovat (například házíme
VíceNěkdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Hodíme dvěma kostkami jaký padl součet?
Náhodné veličiny Náhodné veličiny Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Příklad Vytáhneme tři karty z balíčku zajímá nás, kolik je mezi nimi es.
VícePRAVDĚPODOBNOST A STATISTIKA
PRAVDĚPODOBNOST A STATISTIKA Náhodný výběr Nechť X je náhodná proměnná, která má distribuční funkci F(x, ϑ). Předpokládejme, že známe tvar distribuční funkce (víme jaké má rozdělení) a neznáme parametr
Vícei=1 λ ix i,λ i T,x i M}.Množinuvektorů
Velké prostory Anička Doležalová Abstrakt. Budeme si hrát s vektorovými prostory, které mají nekonečnou dimenzi. Cílemjesijetrochuosahatazískatzákladníintuici.Ktomunámposloužíhlavně prostory posloupností.
Více1 Determinanty a inverzní matice
Determinanty a inverzní matice Definice Necht A = (a ij ) je matice typu (n, n), n 2 Subdeterminantem A ij matice A příslušným pozici (i, j) nazýváme determinant matice, která vznikne z A vypuštěním i-tého
Více3 Bodové odhady a jejich vlastnosti
3 Bodové odhady a jejich vlastnosti 3.1 Statistika (Skripta str. 77) Výběr pořizujeme proto, abychom se (více) dověděli o souboru, ze kterého jsme výběr pořídili. Zde se soustředíme na situaci, kdy známe
VíceLIMITA A SPOJITOST FUNKCE
PŘEDNÁŠKA 5 LIMITA A SPOJITOST FUNKCE 5.1 Spojitost funkce 2 Řekneme, že funkce f(x) je spojitá v bodě a D f, jestliže ke každému ε > 0 existuje δ > 0 takové, že pro každé x (a δ, a + δ) D f platí nerovnost:
Více10 Přednáška ze
10 Přednáška ze 17. 12. 2003 Věta: G = (V, E) lze nakreslit jedním uzavřeným tahem G je souvislý a má všechny stupně sudé. Důkaz G je souvislý. Necht v je libovolný vrchol v G. A mějme uzavřený eurelovský
VícePravděpodobnost a statistika I KMA/K413
Pravděpodobnost a statistika I KMA/K413 Konzultace 3 Přírodovědecká fakulta Katedra matematiky jiri.cihlar@ujep.cz Kovariance, momenty Definice kovariance: Kovariance náhodných veličin Dále můžeme dokázat:,
Více4. Aplikace matematiky v ekonomii
4. Aplikace matematiky v ekonomii 1 Lineární algebra Soustavy 1) Na základě statistických údajů se zjistilo, že závislost množství statku z poptávaného v průběhu jednoho týdne lze popsat vztahem q d =
Více10. Vektorové podprostory
Matematický ústav Slezské univerzity v Opavě Učební texty k přednášce ALGEBRA II, letní semestr 2000/2001 Michal Marvan Definice. Bud V vektorový prostor nad polem P. Podmnožina U V se nazývá podprostor,
VíceIntuitivní pojem pravděpodobnosti
Pravděpodobnost Intuitivní pojem pravděpodobnosti Intuitivní pojem pravděpodobnosti Pravděpodobnost zkoumaného jevu vyjadřuje míru naděje, že tento jev nastane. Řekneme-li, že má nějaký jev pravděpodobnost
Více