Odhady - Sdružené rozdělení pravděpodobnosti

Podobné dokumenty
Odhad - Problémy se sdruženým rozdělením pravděpodobnosti

Bodové odhady parametrů a výstupů

Vícerozměrná rozdělení

Příklady - Bodový odhad

Stavový model a Kalmanův filtr

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

PRAVDĚPODOBNOST A STATISTIKA. Bayesovské odhady

PRAVDĚPODOBNOST A STATISTIKA

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

BAYESOVSKÉ ODHADY. Michal Friesl V NĚKTERÝCH MODELECH. Katedra matematiky Fakulta aplikovaných věd Západočeská univerzita v Plzni

Odhady Parametrů Lineární Regrese

oddělení Inteligentní Datové Analýzy (IDA)

Cvičení ze statistiky - 5. Filip Děchtěrenko

Příklady ke čtvrtému testu - Pravděpodobnost

Regrese. 28. listopadu Pokud chceme daty proložit vhodnou regresní křivku, musíme obvykle splnit tři úkoly:

Minikurz aplikované statistiky. Minikurz aplikované statistiky p.1

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti.

KGG/STG Statistika pro geografy

Odhad parametrů N(µ, σ 2 )

3 Bodové odhady a jejich vlastnosti

AVDAT Náhodný vektor, mnohorozměrné rozdělení

Nestranný odhad Statistické vyhodnocování exp. dat M. Čada

Odhad parametrů N(µ, σ 2 )

Všechno, co jste chtěli vědět z teorie pravděpodobnosti, z teorie informace a

z Matematické statistiky 1 1 Konvergence posloupnosti náhodných veličin

MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci

Výběrové charakteristiky a jejich rozdělení

Určujeme neznámé hodnoty parametru základního souboru. Pomocí výběrové charakteristiky vypočtené z náhodného výběru.

Testy. Pavel Provinský. 19. listopadu 2013

Bayesovské metody. Mnohorozměrná analýza dat

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

7. Rozdělení pravděpodobnosti ve statistice

NÁHODNÁ VELIČINA. 3. cvičení

Zadání Máme data hdp.wf1, která najdete zde: Bodová předpověď: Intervalová předpověď:

4. Aplikace matematiky v ekonomii

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

AVDAT Mnohorozměrné metody, metody klasifikace

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

NMAI059 Pravděpodobnost a statistika

Diskrétní náhodná veličina

Statistika a spolehlivost v lékařství Charakteristiky spolehlivosti prvků I

, 1. skupina (16:15-17:45) Jméno: se. Postup je třeba odůvodnit (okomentovat) nebo uvést výpočet. Výsledek bez uvedení jakéhokoliv

4.3.4 Základní goniometrické vzorce I

Pravděpodobnost a aplikovaná statistika

( ) ( ) Nezávislé jevy I. Předpoklady: 9204

Náhodné vektory a matice

AVDAT Klasický lineární model, metoda nejmenších

5.3. Implicitní funkce a její derivace

Cvičení ze statistiky - 8. Filip Děchtěrenko

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

Téma 22. Ondřej Nývlt

Základy biostatistiky II. Veřejné zdravotnictví 3.LF UK - II

Implementace Bayesova kasifikátoru

Cvičení ze statistiky - 7. Filip Děchtěrenko

Diferenciální rovnice 3

1 Analytická geometrie

Jednoduchá exponenciální rovnice

8 Střední hodnota a rozptyl

Statistika II. Jiří Neubauer

Náhodné chyby přímých měření

Apriorní rozdělení. Jan Kracík.

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Náhodné (statistické) chyby přímých měření

Aproximace binomického rozdělení normálním

1 Klasická pravděpodobnost. Bayesův vzorec. Poslední změna (oprava): 11. května 2018 ( 6 4)( 43 2 ) ( 49 6 ) 3. = (a) 1 1 2! + 1 3!

ROZDĚLENÍ SPOJITÝCH NÁHODNÝCH VELIČIN

Vybraná rozdělení náhodné veličiny

1.1 Existence a jednoznačnost řešení. Příklad 1.1: [M2-P1] diferenciální rovnice (DR) řádu n: speciálně nás budou zajímat rovnice typu

Diskrétní náhodná veličina. November 12, 2008

jevu, čas vyjmutí ze sledování byl T j, T j < X j a T j je náhodná veličina.

Pravděpodobnost, náhoda, kostky

Pravděpodobnost a statistika (BI-PST) Cvičení č. 9

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

4.3.3 Základní goniometrické vzorce I

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)

KGG/STG Statistika pro geografy

12. cvičení z PST. 20. prosince 2017

STATISTICKÉ ODHADY Odhady populačních charakteristik

Charakterizace rozdělení

Vektor náhodných veli in - práce s více prom nnými

Pojmy z kombinatoriky, pravděpodobnosti, znalosti z kapitoly náhodná veličina, znalost parciálních derivací, dvojného integrálu.

1. Číselné posloupnosti - Definice posloupnosti, základní vlastnosti, operace s posloupnostmi, limita posloupnosti, vlastnosti limit posloupností,

5 Parametrické testy hypotéz

Bakalářské studium na MFF UK v Praze Obecná matematika Zaměření: Stochastika. 1 Úvodní poznámky. Verze: 13. června 2013

Fyzikální korespondenční seminář MFF UK

15. T e s t o v á n í h y p o t é z

P13: Statistické postupy vyhodnocování únavových zkoušek, aplikace normálního, Weibullova rozdělení, apod.

Pravděpodobnost a matematická statistika

Úvod do teorie odhadu. Ing. Michael Rost, Ph.D.

Poznámky k předmětu Aplikovaná statistika, 5.téma

Intuitivní pojem pravděpodobnosti

6. ZÁKLADY STATIST. ODHADOVÁNÍ. Θ parametrický prostor. Dva základní způsoby odhadu neznámého vektoru parametrů bodový a intervalový.

Čebyševovy aproximace

Teorie náhodných matic aneb tak trochu jiná statistika

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

PRAVDĚPODOBNOST A STATISTIKA

Náhodný vektor a jeho charakteristiky

TEST 1 (40 bodů) (9 4)! 2. Nejméně kolikrát musíme hodit kostkou, abychom měli alespoň 80% pravděpodobnost, že padne alespoň jedna šestka?

Transkript:

Odhady - Sdružené rozdělení pravděpodobnosti 4. listopadu 203 Kdybych chtěl znát maximum informací o náhodné veličině, musel bych znát všechny hodnoty, které mohou padnout, a jejich pravděpodobnosti. Tedy musel bych znát rozdělení pravděpodobnosti. Pokud mám více náhodných veličin, pak bych maximum informací měl, pokud bych znal jejich sdružené rozdělení pravděpodobnosti. Při tvorbě modelů typicky více náhodných veličin máme. Jsou to např. neznámé parametry nebo třeba jeden či více výstupů, které chceme předpovídat. Ideální by tedy bylo mít sdružené rozdělení pravděpodobnosti všech těchto veličin. Z tohoto rozdělení pak můžeme získat různá marginální rozdělení, dělat intervalové nebo bodové odhady. Jak získat sdružené rozdělení pravděpodobnosti? Naštěstí je situace velmi jednoduchá a přehledná. Pomocí Bayesovy věty jsme si odvodili, že máme vzít model ve tvaru hustoty pravděpodobnosti (nebo ve tvaru pravděpodobnostní funkce pro diskrétní náhodnou veličinu) a dosazovat do něj data. Dosadíme všechna data (a případně všechny parametry, které známe) a ze všech těchto dosazených modelů uděláme součin. Pokud chceme odhadovat i několik budoucích výstupů, zahrneme do našeho součinu i modely pro tato virtuální data, která samozřejmě nedosadíme a tyto odhadované nedosazené veličiny se nám v našem součinu objeví jako nové neznámé. Když si vzpomeneme na bodový odhad metodou maximální věrohodnosti, tak zjistíme, že náš součin modelů je vlastně věrohodnostní funkcí z této metody. Naši věrohodnostní funkci ještě případně vynásobíme apriorním sdruženým rozdělením pravděpodobnosti, které nese tu informaci, která nepochází z našich dat. Tím získáme aposteriorní sdružené rozdělení pravděpodobnosti, tedy přesně to, co potřebujeme. 2 Máme jednoduchý exponenciální model s neznámým parametrem D: f (y n D) = D e yn D. Pojem rozdělení pravděpodobnosti budeme používat pro diskrétní i spojité náhodné veličiny. Pro diskrétní pak mohu použít termín pravděpodobnostní funkce, pro spojité termín hustota pravděpodobnosti. 2 Slovo apriorní znamená, že jsme PŘED naším měřením, slovo aposteriorní znamená, že jsme PO našem měření. Pokud řekneme, že aposteriorní rozdělení pravděpodobnosti je podmíněné na základě dat, tak tím zdůrazňujeme, že informace z těchto dat je v něm zahrnuta. Skutečné aposteriorní rozdělení je pouze úměrné našemu výrazu přes nějakou normalizační konstantu. Tu (pokud ji budeme potřebovat) zvolíme tak, aby integrál (či suma) přes celý definiční obor byla.

Máme data pro y:, 2, 3. V jisté vědecké práci určovali hodnotu D a vyšlo jim gaussovské rozdělení N (2; 25). Chceme odhadnout parametr D a příští dva výstupy. ) Určíme apriorní hustotu pro D: f (D) = 2π 5 e (D 2)2 50. 2) Do modelů dosadíme příslušná y. Dosadit můžeme už pro y. Protože chceme odhady i pro y 4 a y 5, uděláme modely i pro ně. Všechny tyto modely vynásobíme (včetně apriorní hustoty) a tím získáme aposteriorní hustotu pravděpodobnosti pro D, y 4 a y 5 : f (D, y 4, y 5 y, y 2, y 3 ) = e (D 2)2 50 2π 5 D e D D e 2 D D e 3 D D y 4D e D y 5D e. Tvorba modelu ve tvaru rozdělení pravděpodobnosti Lineární regresní model s gaussovským šumem Vyjdeme z modelu ve tvaru rovnice: y n = b 0 x n + a y n + b x n +... + k + e n = = θ ψ + e n, kde e n má rozdělení e n N ( 0, σ 2) a θ je řádkový vektor parametrů θ = (b 0, a, b,... k)a ψ je řádkový vektor vstupů ψ = (x n, y n, x n,... ). Z rovnice vyjádříme e n. Druhá strana rovnice musí mít tudíž stejné rozdělení: y n b 0 x n a y n b x n... k N ( 0, σ 2). Dosadíme do vzorce pro normální rozdělení: f (y n θ, ψ) = e (yn θ ψ 2π σ ) 2 2σ 2. Máme lineární regresní model ve tvaru rovnice: y n = A y n +K +e n, kde e n N ( 0, σ 2). V tomto modelu jsou neznámé parametry A, K, σ. Napište model ve tvaru hustoty pravděpodobnosti. Model ve tvaru hustoty pravděpodobnosti je tento: f (y n θ, ψ) = 2π σ e (yn A y n K)2 2σ 2. 2

Diskrétní model Vyjdeme z modelu ve tvaru tabulky podmíněných pravděpodobností. Například tohoto: y n P (y n = ) P (y n = 2) θ θ 2 2 θ 2 θ 2 2 Tento model má čtyři neznámé parametry θ i j. Tyto parametry mají význam pravděpodobnosti, že y n = i, za podmínky, že předchozí výstup byl y n = j. Součet pravděpodobností na každém řádku je, proto má tento model nezávislé parametry jen dva. Nyní hledáme takovou funkci, která nám pro pravděpodobnost, že padne i, pokud předtím padla hodnota j, dá právě θ i j. To můžeme jednoduše napsat takto: f (y n θ, ψ) = θ yn y n nebo o něco složitěji takto: f (y n θ, ψ) = i,j δ(yn yn, i j) θi j. V druhém případě se jedná o součin všech θ i j, ovšem s exponentem, pokud souslednost j, i nastala, nebo s exponentem 0, pokud souslednost j, i nenastala. Exponent se technicky vyřeší pomocí Kroneckerova delta δ (y n y n, i j), které dává, pokud opravdu y n y n = i j, jinak dává nulu. Spočtěte věrohodnostní funkci pro výše uvedený diskrétní model, pokud jsme naměřili následující posloupnost y:,, 2,, 2, 2, 2,, 2,,, 2. Vykreslete věrohodnostní funkci pro nezávislé parametry θ a θ 2. f ( θ, θ 2 ) = δ(, i j) θi j δ(2, i j) θi j δ( 2, i j) θi j... = i,j i,j i,j = θ θ 2 θ 2 θ 2 θ 2 2 θ 2 2 θ 2 θ 2 θ 2 θ θ 2 = = θ 2 θ4 2 θ3 2 θ2 2 2 = = θ 2 ( θ ) 4 θ 3 2 ( θ 2 ) 2. Graficky tato věrohodnostní funkce pro dvě neznámé θ a θ 2 vypadá takto: 3

Komentář k příkladu. Vidíme, že pík grafu je hodně široký a správné hodnoty θ a θ 2 jsou odhadovány velmi nepřesně. To souvisí s malým počtem dat. 2. Všimněte si, že exponenty ve věrohodnostní funkci odpovídají četnosti, kolikrát ten či onen případ nastal. 3. Všimněte si, že maximum věrohodnostní funkce je ve 2 6 na první ose a 3 5 to odpovídá poměru případů na jednotlivých řádcích tabulky. na druhé ose a že 4. Pokud nemáme žádnou apriorní informaci, můžeme věrohodnostní funkci považovat přímo za sdružené rozdělení pravděpodobnosti. Pokud naopak chceme apriorní informaci vložit, často se to dělá tak, že vytvořím apriorní rozdělení pravděpodobnosti, jako kdybych měl jakási virtuální data. Pokud jsem např. přesvědčen, že po následuje jednička ve čtvrtině případů (tedy θ = 4 ) a toto mé přesvědčení má sílu, jako kdybych pozoroval stovku případů, vytvořím apriorní funkci takto: f ( ) θ, θ 2 = θ 25 ( ) 75. θ Celkové rozdělení pravděpodobnosti bude tedy vypadat takto: f ( ) θ, θ ( ) 2 = θ 27 79 ) θ θ 3 2. 2 ( θ 2 To v grafu vypadá takto: 4

Vidíme, že odhad θ, kterého se týkala apriorní informace, je mnohem přesnější, a že odpovídá oné apriorní 4. Těch několik našich dat s tímto odhadem téměř nehlo. Odhad θ 2, kterého se apriorní informace netýkala, zůstává stejně neurčitý jako v předchozím případě. Logistický model V logistickém modelu konstruujeme veličinu z, která bývá často lineární. Ve vzorci pro tuto veličinu vystupují neznámé parametry, které bychom rádi odhadli. Pokud pro nějaké z nastane úspěch, pravděpodobnost tohoto úspěchu udává logistická funkce: P (y n = θ, ψ) = Pravděpodobnost neúspěchu udává vzorec: Oba tyto vzorce mohu shrnout do: ez + e z. P (y n = 0 θ, ψ) = + e z. f (y n θ, ψ) = ez yn + e z. To je logistický model ve tvaru pravděpodobnostní funkce. Logistickým modelem modelujeme stihnutí/nestihnutí určité trasy v daném termínu. Odhadněte parametry tohoto modelu, pokud máte tato data: 5

čas k dispozici 5 20 2 23 25 27 29 32 35 40 stihnutí 0 0 0 0 0 Jakou zvolíme strukturu modelu? Doba t, kterou potřebujeme k ujetí trasy bude mít nějaké cca gaussovské rozdělení se střední hodnotou µ a rozptylem σ 2. Tedy Veličina t µ bude mít nulovou střední hodnotu a po pronásobení nějakou konstantou dostanu i správný rozptyl pro logistické rozdělení (které použiji místo Gaussova). Tedy veličinu z volím: z = k (t µ) = At+B. Parametry A a B se pokusím odhadnout. Nemám žádnou apriorní informaci, vyrobím tedy věrohodnostní funkci a to už bude mé aposteriorní sdružené rozdělení pravděpodobnosti pro parametry A a B. Model mám tento: Dosadím data do věrohodnostní funkce: f (y n θ, ψ) = e(at+b) yn + e At+B. f (A, B) = e(5a+b) 0 + e 5A+B e(27a+b) + e 27A+B Graf této funkce vypadá takto: e (20A+B) 0 + e 20A+B e (29A+B) 0 + e 29A+B e (2A+B) 0 + e 2A+B e (32A+B) + e 32A+B e (23A+B) + e 23A+B e (35A+B) + e 35A+B e (25A+B) 0 + e 25A+B e (40+B) + e 40+B. Vidíme, že kvůli malému počtu dat je odhad ještě značně neurčitý. Bodový odhad pro konstanty A a B získáváme A = 0, 3 a B = 8, 6. 6