Síla a významnost asociace mezi proměnnými v systému

Podobné dokumenty
Síla a významnost asociace mezi proměnnými v systému

Aplikace 2: Hledání informativních příznaků pro rozpoznávání

Rekonstrukce diskrétního rozdělení psti metodou maximální entropie

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

PRAVDĚPODOBNOST A STATISTIKA

Někdy lze výsledek pokusu popsat jediným číslem, které označíme X (nebo jiným velkým písmenem). Hodíme dvěma kostkami jaký padl součet?

Matematika III. 4. října Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Pravděpodobnost a aplikovaná statistika

Funkce jedn e re aln e promˇ enn e Derivace Pˇredn aˇska ˇr ıjna 2015

Pravděpodobnost a statistika

NMAI059 Pravděpodobnost a statistika

Náhodná veličina Číselné charakteristiky diskrétních náhodných veličin Spojitá náhodná veličina. Pravděpodobnost

n = 2 Sdružená distribuční funkce (joint d.f.) n. vektoru F (x, y) = P (X x, Y y)

Diskrétní náhodná veličina. November 12, 2008

Diskrétní matematika. DiM /01, zimní semestr 2016/2017

1 Báze a dimenze vektorového prostoru 1

TEORIE PRAVDĚPODOBNOSTI. 2. cvičení

Aplikovaná matematika I, NMAF071

Primitivní funkce a Riemann uv integrál Lineární algebra Taylor uv polynom Extrémy funkcí více prom ˇenných Matematika III Matematika III Program

Téma 22. Ondřej Nývlt

Jazyk matematiky Matematická logika Množinové operace Zobrazení Rozšířená číslená osa

Matematická analýza 1

11. Číselné a mocninné řady

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

Počet pravděpodobnosti

Inovace bakalářského studijního oboru Aplikovaná chemie

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

Bayesovské metody. Mnohorozměrná analýza dat

Schéma identifikační procedury

Základy teorie pravděpodobnosti

pravděpodobnosti Pravděpodobnost je teorií statistiky a statistika je praxí teorie pravděpodobnosti.

PRAVDĚPODOBNOST A STATISTIKA

IB112 Základy matematiky

Diskrétní matematika. DiM /01, zimní semestr 2018/2019

Kybernetika a umělá inteligence, cvičení 10/11

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D.

Náhodné jevy. Teorie pravděpodobnosti. Náhodné jevy. Operace s náhodnými jevy

KMA/P506 Pravděpodobnost a statistika KMA/P507 Statistika na PC

Pravděpodobnost a statistika (BI-PST) Cvičení č. 4

Náhodný pokus Náhodným pokusem (stručněji pokusem) rozumíme každé uskutečnění určitého systému podmínek resp. pravidel.

Pravděpodobnost a její vlastnosti

AVDAT Náhodný vektor, mnohorozměrné rozdělení

Intuitivní pojem pravděpodobnosti

Definice 7.1 Nechť je dán pravděpodobnostní prostor (Ω, A, P). Zobrazení. nebo ekvivalentně

Doporučené příklady k Teorii množin, LS 2018/2019

Matematická analýza ve Vesmíru. Jiří Bouchala

JAK MODELOVAT VÝSLEDKY NÁH. POKUSŮ? Martina Litschmannová

LDF MENDELU. Simona Fišnarová (MENDELU) LDR druhého řádu VMAT, IMT 1 / 22

Derivace funkce Otázky

MATEMATICKÁ STATISTIKA - XP01MST

Statistická teorie učení

Jana Vránová, 3. lékařská fakulta UK

Základy teorie pravděpodobnosti

5.1. Klasická pravděpodobnst

1 Topologie roviny a prostoru

Derivace funkce DERIVACE A SPOJITOST DERIVACE A KONSTRUKCE FUNKCÍ. Aritmetické operace

1 Množiny, výroky a číselné obory

Náhodná veličina a rozdělení pravděpodobnosti

a způsoby jejího popisu Ing. Michael Rost, Ph.D.

1 Rozptyl a kovariance

Matematika 2 LS 2012/13. Prezentace vznikla na základě učebního textu, jehož autorem je doc. RNDr. Mirko Rokyta, CSc. J. Stebel Matematika 2

Posloupnosti a jejich konvergence

Matematická analýza III.

Matematika (KMI/PMATE)

Projekty - Úvod do funkcionální analýzy

Vybraná rozdělení náhodné veličiny

7. Funkce jedné reálné proměnné, základní pojmy

PRAVDĚPODOBNOST A STATISTIKA

1 Zobrazení 1 ZOBRAZENÍ 1. Zobrazení a algebraické struktury. (a) Ukažte, že zobrazení f : x

Téma 2: Pravděpodobnostní vyjádření náhodných veličin

správně - A, jeden celý příklad správně - B, jinak - C. Pro postup k ústní části zkoušky je potřeba dosáhnout stupně A nebo B.

MATEMATICKÁ ANALÝZA 1 - ZIMNÍ SEMESTR PŘEDNÁŠKA

Marie Duží

Výběrové charakteristiky a jejich rozdělení

Kapitola 1. Úvod. 1.1 Značení. 1.2 Výroky - opakování. N... přirozená čísla (1, 2, 3,...). Q... racionální čísla ( p, kde p Z a q N) R...

PŘEDNÁŠKA 2 POSLOUPNOSTI

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Pravděpodobnost a statistika (BI-PST) Cvičení č. 2

2. přednáška - PRAVDĚPODOBNOST

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2016

Matematika III. 27. září Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

I. D i s k r é t n í r o z d ě l e n í

10 Funkce více proměnných

Příklad 1. Řešení 1 ŘEŠENÉ PŘÍKLADY Z MV2 ČÁST 11

18 Fourierovy řady Úvod, základní pojmy

0.1 Úvod do matematické analýzy

TEORIE MÍRY V některých předchozích kapitolách jste se setkali s měřením velikostí množin a víte, jaké byly těžkosti s měřením množin i na reálné ose.

p(x) = P (X = x), x R,

K oddílu I.1 základní pojmy, normy, normované prostory

Chyby měření 210DPSM

Neparametrické odhady hustoty pravděpodobnosti

Náhodná veličina. Michal Fusek. 10. přednáška z ESMAT. Ústav matematiky FEKT VUT, Michal Fusek

ALS1 Přednáška 1. Pravěpodobnost, náhodná proměnná, očekávaná hodnota náhodné proměnné, harmonická čísla

prof. RNDr. Čestmír Burdík DrCs. prof. Ing. Edita Pelantová CSc. BI-ZMA ZS 2009/2010

Rozdělení náhodné veličiny. Distribuční funkce. Vlastnosti distribuční funkce

PRAVDĚPODOBNOST A STATISTIKA

0.1 Funkce a její vlastnosti

Transkript:

Síla a významnost asociace mezi proměnnými v systému Program 1. Entropie jako míra neuspořádanosti. 2. Entropie jako míra informace. 3. Entropie na rozkladu množiny elementárních jevů. 4. Vlastnosti entropie. 5. Podmíněná entropie. 6. Vlastnosti podmíněné entropie. 7. Vzájemná informace. 8. Optimální histogramování. 9. Výpočet entropie ze vzorku dat. 10. Kvalita asociace: kontingenční test. Papoulis, A. Probability, Random Variables, and Stochastic Processes. McGraw Hill 1991, kap. 15. Anděl, J. Statistické metody. Praha: Matfyzpress, 1998; str. 157-167. Duda, RO. Hart, PE. Stork, DG. Pattern Classification, 2nd ed. John Wiley & Sons, 2001; část 9.4.1. Entropie; R. Šára, CMP (p. 1)

Entropie jako míra neuspořádanosti Jev x i : kulička padla do přihrádky i N i 16 14 12 10 8 6 4 2 H = 3.2554 H = 2.0424 N i 40 35 30 25 20 15 10 5 0 1 2 3 4 5 6 7 8 9 10 i 0 1 2 3 4 5 6 7 8 9 10 i N = 100 stejných objektů: {b 1, b 2,... b N } N! všech permutací N i! permutací v každé přihrádce, i = 1, 2,..., m Celkový počet přerovnání objektů v histogramu je W = m N! N i! Entropie; R. Šára, CMP (p. 2) i=1

pokračování Entropie lim N 1 N ln W = = lim m N i=1 N i N ln N i N = m i=1 p i ln p i Počet mikrostavů (rozdělení do m přihrádek) které dávají za vznik stejnému makrostavu (histogram). Entropie je malá pro úzká rozdělení Entropie je velká pro široká rozdělení p ln(p) 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 ϕ = p ln p 0 0 0.2 0.4 0.6 0.8 1 p Entropie; R. Šára, CMP (p. 3)

Entropie jako míra informace Hledáme funkci s(p): 1. spojitou 2. monotonně klesající s p 3. s(1) = 0 nulová nejistota 4. s(p A p B ) = s(p A ) + s(p B ) Hledaná funkce s(p) = s( 1 e ) ln p, s(1 e ) = 1 (definujeme) Střední míra informace (v Natech) na množině jevů x = {x k } H(x) = k p(x k ) ln p(x k ) Entropie; R. Šára, CMP (p. 4)

Vlastnosti rozkladu množiny elementárních jevů na třídy ekvivalence Rozklad množiny elementárních jevů: {A 1, A 2,..., A n } Definice 1. Rozklad je disjunktní pokrytí MEJ 2. Elementární rozklad E = {{e 1 }, {e 2 },..., {e n }} 3. Zjemnění rozkladu: Dány A = {A 1, A 2,... A n }, B = {B 1, B 2,..., B m }, pak B A právě když i!j : B i A j (právě jedno j) 4. Součin rozkladů C = A B = {A i B j, i, j} je největší společné zjemnění Vlastnosti A B A, A B B 1. E A pro každé A 2. A B = B A 3. A (B C) = (A B) C (komutativita) (asociativita) 4. Jestliže A 1 A 2 a A 2 A 3 potom A 1 A 3 (tranzitivita) 5. Jestliže B A potom A B = B Entropie; R. Šára, CMP (p. 5)

Entropie na rozkladu množiny elementárních jevů Rozklad MEJ A = {A 1, A 2,..., A n }, zavedeme P (A i ) def = p i (pouhá notace) Entropie H(A) def = n p i ln p i = n ϕ(p i ), ϕ(p i ) def = p i ln p i i=1 i=1 Pomocná věta: ϕ(p 1 + p 2 ) ϕ(p 1 ) + ϕ(p 2 ) ϕ(p 1 + ε) + ϕ(p 2 ε) ϕ(p) ϕ(p 1 + ε) ϕ(p 2 ε) ϕ(p 2 ) pokud p 1 < p 1 + ε p 2 ε < p 2 ϕ(p 1 ) p 1 p 1 + ε p 2 ε p 2 p Entropie; R. Šára, CMP (p. 6)

Vlastnosti V1. Jestliže B A potom H(B) H(A) Zjemněním rozkladu se entropie zvýší. Pozn: zjemněním histogramu se entropie zvýší. V1 V2. Pro každý rozklad A platí H(A) H(E) Entropie každého rozkladu je menší nebo rovna entropii elementárního rozkladu. V1 V3. Pro každý rozklad A a B platí H(A) H(A B), H(B) H(A B), Pozn: A B A, A B B V4. Entropie rozkladu A je maximální pokud všechny jeho prvky mají stejnou pravděpodobnost: p i = P (A i ) = p Entropie; R. Šára, CMP (p. 7)

Příklad: Statický systém v parlamentu podmnožina pěti vybraných poslanců {v 1,..., v 5 } někteří v i hlasují podle v j, j i, ale nevíme kteří někteří hlasují nezávisle, nevíme kteří máme záznam 100 hlasování v 1 v 2 v 3 v 4 v 5 p(s) 0 0 0 0 0 0.02 0 0 0 0 1 0.04 0 0 0 1 0 0.02 0 0 0 1 1 0.05 0 0 1 0 0 0.03 0 0 1 0 1 0.03 0 0 1 1 0 0.09 0 0 1 1 1 0.03 0 1 0 0 0 0.03 0 1 0 0 1 0.05 0 1 0 1 0 0.04 0 1 0 1 1 0.01 0 1 1 0 0 0.03 0 1 1 0 1 0.03 0 1 1 1 0 0.04 0 1 1 1 1 0.05 v 1 v 2 v 3 v 4 v 5 p(s) 1 0 0 0 0 0.01 1 0 0 0 1 0.03 1 0 0 1 0 0.03 1 0 0 1 1 0.03 1 0 1 0 0 0.01 1 0 1 0 1 0.03 1 0 1 1 1 0.01 1 1 0 0 0 0.03 1 1 0 0 1 0.03 1 1 0 1 0 0.03 1 1 0 1 1 0.04 1 1 1 0 0 0.01 1 1 1 0 1 0.04 1 1 1 1 0 0.03 1 1 1 1 1 0.05 Entropie; R. Šára, CMP (p. 8)

pokračování v 1 v 2 v 3 p(v 1, v 2, v 3 ) s 1 0 0 0 0.13 s 2 0 0 1 0.18 s 3 0 1 0 0.13 s 4 0 1 1 0.15 s 5 1 0 0 0.10 s 6 1 0 1 0.05 s 7 1 1 0 0.13 s 8 1 1 1 0.13 Entropie; R. Šára, CMP (p. 9)

Podmíněná entropie Příklad: Uvažujme sekvenci pokusů, v nichž nastal jev L (padla lichá při házení kostkou), v takové sekvenci je nejistota o elementárním rozkladu rovna H(E L). Uvažujme sekvenci, v níž nastal doplněk jevu S (sudá), v ní je nejistota o E rovna H(E S). Vážený součet H(E L) P (L) + H(E S) P (S) je podmíněná entropie E, pozorujeme-li rozklad {L, S}. Def. Nechť rozklady A a B jsou A = {A 1, A 2,..., A NA }, B = {B 1, B 2,..., B NB }. Potom podmíněná entropie rozkladu A za předpokladu, že nastal jev B j je H(A B j ) = N A i=1 P (A i B j ) ln P (A i B j ) Podmíněná entropie H(A B) je pak střední hodnota přes B H(A B) = N B j=1 = i P (B j ) H(A B j ) = N B j=1 P (B j ) P (A i, B j ) ln P (A i B j ) j N A i=1 P (A i B j ) ln P (A i B j ) = Pozn: Střední nejistota o A je-li pozorováno B je H(A B). Entropie; R. Šára, CMP (p. 10)

Příklad Parlament, S = {v 1, v 2, v 3 }, v 1 indukuje rozklad A v 1 v 2 v 3 p(s) p(v 2, v 3 v 1 = 0) s 1 0 0 0 0.13 0.2203 s 2 0 0 1 0.18 0.3051 s 3 0 1 0 0.13 0.2203 s 4 0 1 1 0.15 0.2542 p(v 2, v 3 v 1 = 1) s 5 1 0 0 0.10 0.2439 s 6 1 0 1 0.05 0.1220 s 7 1 1 0 0.13 0.3171 s 8 1 1 1 0.13 0.3171 H(v 2, v 3 v 1 = 0) = 0.2203 ln 0.2203 = 1.3769 [Nat] H(v 2, v 3 v 1 = 1) = = 1.3291 [Nat] H(v 2, v 3 v 1 ) = 0.59 H(v 2, v 3 v 1 = 0) + 0.41 H(v 2, v 3 v 1 = 1) = 1.3573 Interpretace: Nemáme-li žádnou informaci, je naše nejistota o stavu systému H(E) = 2.0342 Nat. Pokud víme, jak hlasude v 1, na3e nejistota klesne na H(v 2, v 3 v 1 ) = 1.3573 Nat. Entropie; R. Šára, CMP (p. 11)

Vlastnosti Pro každé rozklady A a B platí: V5. Jestliže B A potom H(A B) = 0. Intuice: víme, které jevy v A nastaly. Def. Rozklady A a B nezávislé A i A, B j B : P (A i, B j ) = P (A i ) P (B j ). V6. Jsou-li A a B nezávislé, potom H(A B) = H(A), H(B A) = H(B) Intuice: Jsou-li jevy nezávislé, potom pozorováním B nezískáme žádnou informaci o A. 1 V7. H(A B) H(A) + H(B) Intuice: entropie složeného jevu není větší než entropie dílčích jevů. V8. Jsou-li A a B nezávislé, potom H(A B) = H(A) + H(B) 1 Entropie; R. Šára, CMP (p. 12)

Vlastnosti V9. H(A B) = H(B) + H(A B) = H(A) + H(B A) Intuice: Pozorujeme-li B, získáme o A B informaci H(B), takže zbytková nejistota je H(A B) = H(A B) H(B). Entropie; R. Šára, CMP (p. 13)

Vlastnosti V10. H(A) H(A B) = H(B) H(B A) (plyne z V9) V11. H(B) H(A B) H(A) + H(B) (plyne z V9+V7) V12. Pro každé A, B, C platí: (důsledek vlastnosti V9) H(B C A) = H(B A) + H(C A B) = H(C A) + H(B C A) V13. 0 H(A B) H(A) (plyne z V9+V11) Intuice: 1. Pozorováním B se nejistota o A nemůže zvětšit. 2. Entropie podmnožiny rozkladu je menší. V14. Jestliže B C potom H(A B) H(A C). (plyne z V7 a vlastnosti 5 rozkladu MEJ.) Intuice: Jemnějším rozkladem se dozvíme více o A. 2 Entropie; R. Šára, CMP (p. 14)

Vzájemná informace Pozorování rozkladu B redukuje nejistotu o A z H(A) na H(A B) a získá tedy o A informaci I(A, B) = H(A) H(A B). srv. V9, kde jsme získávali inf. o A B Def. Vlastnosti I(A, B) = H(A) + H(B) H(A B) plyne z V9 I(A, B) = I(B, A) I(A, B) 0 symetrie nonnegativita, plyne z V7 I(A, B) 1. Informace o A obsažená v B 2. Informace o B obsažená v A Pro více rozkladů: I(A 1, A 2,, A k ) = k H(A i ) H(A 1 A 2 A k ) i=1 Entropie; R. Šára, CMP (p. 15)

Mnemotechnická pomůcka: Vztah mezi podmíněnými druhy entropie H(A) H(B) I(A, B) H(A B) H(B A) H(A B) Čteme takto: platí aditivita plochy, příčemž levý kruh představuje H(A), pravý kruh H(B) a jejich sjednocení H(A B). Potom H(A) + H(B A) = H(A B) H(A B) I(A B) = H(A B) + H(B A) Entropie; R. Šára, CMP (p. 16)

Entropie náhodné proměnné Nechť X je diskrétní náhodná proměnná nabývající hodnot x i R(X) s pravděpodobnostmi P (X = x i ) def = p i Sjednocení událostí {X = x i } tvoří rozklad A X (tj. pokrytí oboru hodnot R(X)). Def. 1 Entropie H(X) diskrétní náhodné proměnné X je rovna H(X) = H(A X ) = i p i ln p i Def. 2 Diferenciální entropie H(X) spojité náhodné proměnné X je H(X) def = f(x) ln f(x) dx Pozn 1: události {X = x i } spojité X netvoří rozklad, jsou nespočetné Pozn 2: pro spojitou X je H(X) (, ) Pozn 3: rovnoměrné rozdělení na intervalu 0, a : H(x) = ln a, normální rozdělení: H(x) = ln σ 2πe 2 entropie multidimenzionálního normálního rozdělení Entropie; R. Šára, CMP (p. 17)

Sdružená a podmíněná entropie diskrétní náhodné proměnné Sdružená entropie H(X, Y ) = H(A X A Y ) = i p ij ln p ij j Podmíněná entropie H(X Y ) = H(A X A Y ) Entropie; R. Šára, CMP (p. 18)

Věta o bijekci Jestliže y = f(x) je zobrazení prosté a na (bijekce), potom V15. H(Y X) = H(X Y ) = 0 D: Rozklady A X a A Y jsou ekvivalentní, A X = A Y. Takže A X A Y a platí V5. V16. I(X, Y ) = H(Y ), I(X, Y ) = H(X). Také H(X, Y ) = H(X) = H(Y ). (z V9) Entropie; R. Šára, CMP (p. 19)

Aplikace 1: Který poslanec má největší vliv na výsledek hlasování? Systém: S = {v 1, v 2, v 3, v 4, v 5 } Pozorování: H 1 = H(v 2, v 3, v 4, v 5 v 1 ) tím menší, čím větší je vliv v 1 = H(v 1, v 2, v 3, v 4, v 5 ) H(v 1 ) (z V9) Výsledky: v i H i v 1 2.6423 v 2 2.6292 v 3 2.6262 v 4 2.6310 v 5 2.6310 Pozn: H(v 1, v 2, v 3, v 4, v 5 ) = 3.3191 [Nat] Entropie; R. Šára, CMP (p. 20)