Základní pojmy a úvod do teorie pravděpodobnosti. Ing. Michael Rost, Ph.D.



Podobné dokumenty
Pravděpodobnost a matematická statistika

Uvažování o počtech, množstvích a číslech

Střední hodnota a rozptyl náhodné. kvantilu. Ing. Michael Rost, Ph.D.

Numerické metody pro nalezení

Ω = = 1 36 = ,

Základní pojmy termodynamiky

Srovnatelnost skupin pacientů v observačních a klinických studiích Bakalářská práce

1 Nástroje používané v mikroekonomii

DYNAMICKÉ SYSTÉMY I. Marek Lampart Michaela Mlíchová Lenka Obadalová

FAKULTA ELEKTROTECHNICKÁ

Celá a necelá část reálného čísla

Úvod do statistiky (interaktivní učební text) - Řešené příklady. Martina Litschmannová

Nesprávná užívání statistické významnosti a jejich možná řešení*

8 Střední hodnota a rozptyl

FAKULTA STAVEBNÍ GEODÉZIE, KARTOGRAFIE A GEOINFORMATIKA

ÚLOHA A APLIKAČNÍ MOŽNOSTI METODY FMEA PŘI ZABEZPEČOVÁNÍ SPOLEHLIVOSTI

STROJÍRENSKÁ METROLOGIE část 1

Využití kriminalistické expertizy ručního písma

Zpráva z testování žáků 9. ročníků základních škol. Zpráva pro vedení školy

4. Topologické vlastnosti množiny reálných

UNIVERZITA PALACKÉHO V OLOMOUCI. Výchova k hodnotám v současné škole

Možné světy v logice. Jaroslav Peregrin. Carnap

1 Linearní prostory nad komplexními čísly

Open Access Repository eprint

Vzdělávací program jako základní kategorie dalšího profesního vzdělávání

pro druhý stupeň základního vzdělávání

Řízení vztahů se zákazníky a tvorba hodnoty a přidané hodnoty produktu

Diplomová práce. Daň darovací, dědická a z převodu nemovitosti

Přiřazení zdrojů. V té to ka pi to le:

MASARYKOVA UNIVERZITA V BRNĚ PŘÍRODOVĚDECKÁ FAKULTA KATEDRA MATEMATIKY

Transkript:

Základní pojmy a úvod do teorie pravděpodobnosti Ing. Michael Rost, Ph.D.

Co je to Statistika? Statistiku lze definovat jako vědní obor, zabývající se hromadnými jevy a procesy. Statistika zahrnuje jak získávání, tak i analýzu a interpretaci napozorovaných dat. Cílem statistického zpracování dat je podání informace o vlastnostech, povaze a zákonitostech projevujících se na pozorovaných datech. Počátky statistiky lze nalézt již ve starověku. Další rozmach 16 17 století. Souvislost s hazardními hrami.

Hromadný jev Jevy, které se vyskytují v masovém měřítku a mohou se neustále opakovat, nazýváme hromadnými jevy. V zásadě existují dva typy hromadných jevů: Prvním je opakované měření sledované vlastnosti jednoho předmětu. Druhým typem je pak sledování vlastnosti(í) na předem definované množině sledovaných předmětů. Hranice mezi individuálním a hromadným pojetím je neostrá.

Významná jména spojená se statistikou Mezi přední světové statistiky bezesporu patří tato jména: Galileo Galilei, Blaise Pascal, Piere Fermat, Jacob Bernoulli, Thomas Bayes, Karl Friedrich Gauss, Andrej Andrejevič Markov, Andrej Nikolajevič Kolmogorov, Karel Pearson, atd...

Základní pojmy Statistický soubor je definován jako množina sledovaných statistických jednotek. Rozlišujeme základní statistický soubor a výběrový statistický soubor. Počet jednotek v analyzovaném statistickém souboru se nazývá rozsah souboru. Z hlediska rozsahu souboru se může jednat o konečný či nekonečný soubor.

Statistická jednotka je obecně nositelem sledovaných vlastností, tj. statistických znaků. Statistický znak je obrazem určité vlastnosti každé statistické jednotky ze statistického souboru. Hodnota statistického znaku je pak označením stupně dané vlastnosti.

Hodnota statistického znaku se často nazývá pozorování. Jeden údaj, záznam = datum Více údajů, záznamů = data Pozor pedanti to rozlišují!!!

Dva druhy našeho uvažování Dle našeho přístupu k chápání okolního světa můžeme rozeznávat dva přístupy: 1) Indukce znamená usuzování z partikulárního na obecné. 2) Dedukce znamená usuzování na základě obecných poznatků či axiómů na partikulární.

Typy dat V praxi se lze setkat s různými druhy dat. Příkladem mohou být záznamy o pohlaví dítěte, počet potratů, hodnoty systolického tlaku, údaje z CT, hmotnost pacientů, atd. Nominální znaky, Ordinální znaky, Intervalové znaky metrické znaky, Poměrové veličiny kardinální veličiny. Pokud existují pouze dvě hodnoty jichž může sledovaný znak nabývat, pak takový znak nazýváme dichotomickým či binárním.

Podle počtu hodnot, kterých může daný statistický znak nabývat lze znaky dělit na diskrétní a spojité. Diskrétní znaky: Jsou takové znaky, které mohou nabýt konečného či spočetného počtu hodnot. Příkladem může být počet lidí zaměstnaných v Okresní nemocnici v Českých Budějovicích. Spojité znaky: Jsou takové statistické znaky, které mohou nabývat nekonečně mnoha hodnot v konečném či nekonečném intervalu. Teplota pacienta nebo jeho KT.

Statistický software V současné době existuje celá řada statistických programů, které umožňují provádět složité statistické výpočty. Zájemce může využívat programy jako jsou S-plus, SAS, SPSS, Statistica, Minitab, GAUSS, Octave, Maple, Matlab. Jedná se však o dosti drahé komerční programy. Cena se pohybuje řádově v desetitisících za licenci. Náš software je se jmenuje STATISTICA.

Pauza na kávičku a cigaretku cca 7 min.

Náhodný jev a pokus Pokud realizace určitého souboru podmínek nevede k jednoznačnému výsledku ani při opakované realizaci daného souboru podmínek, pak se lze oprávněně domnívat, že výsledek je závislý na dalších, bĺıže nespecifikovaných podmínkách. Ty lze v tomto smyslu označit za náhodné činitele. Jevy, které v závislosti na náhodě mohou, ale nemusí při uskutečnění daného souboru podmínek nastat, nazýváme náhodnými jevy. Samotnou realizaci podmínek vedoucí k určitému výsledku pak nazveme náhodným pokusem.

Jak chápat tyto pojmy? Pojem pokus můžeme v souvislosti s počtem pravděpodobnosti chápat dosti široce. Za pokus lze považovat např. počet vyrobených výrobků během pracovní směny, či celkovou spotřebu el. energie mezi 20 hodinou a 7 hodinou ranní v Českých Budějovicích. Za náhodný pokus lze považovat i zjišt ování počtu bílých krvinek u pacienta před a po terapii. Příkladů je celá řada, jistě sami vymysĺıte další...

S náhodnými jevy lze pracovat jako s množinami. Je tedy možné při výpočtech souvisejících s pravděpodobností využít množinových operací. Symbolem A pro tuto chvíli označme množinu. To, že a je prvkem množiny A, zapíšeme takto a A. To, že a 1, a 2 a a 3 jsou prvky množiny A, lze zapsat jako A {a 1, a 2, a 3 } Prázdnou množinu budeme značit pomocí symbolu { }.

Základní operace Jestliže při každé realizaci jevu A nastává jev B, pak říkáme, že jev A má za následek jev B, nebo jinými slovy, jev A implikuje jev B. Tuto skutečnost zapíšeme jako A B. Jev který spočívá v realizaci alespoň jednoho z jevů A či B, nazýváme sjednocení jevů A a B. Situaci lze zachytit symbolicky jako A B. Pokud máme více náhodných jevů např.: A 1, A 2,..., A n, pak jejich sjednocením n i=1 A i, budeme rozumět takový jev, který zahrnuje uskutečnění alespoň jednoho z jevů A 1, A 2,..., A n.

Základní operace Průnikem náhodných jevů A a B budeme rozumět současnou realizaci obou jevů, tj. A i B. Tento stav zapíšeme symbolicky jako A B. Průnik n jevů A i pro i = 1, 2,..., n, tj. současnou realizaci všech n jevů A i symbolicky zapíšeme n i=1 Jevy A a B nazveme jevy opačnými (též doplňkové či komplementární), jestliže budou platit následující relace A B = Ω a zároveň A B =. A i. Doplněk k jevu A se zpravidla značí symbolem Ā nebo A c. Jev Ā spočívá v nenastoupení jevu A.

Jev jistý a jev nemožný Jev, který nastává vždy při realizaci určitého komplexu podmínek, budeme označovat jevem jistým a zapisovat pomocí symbolu Ω nebo E. Naopak jev, který se nevyskytne nikdy, přestože se realizuje komplex určitých podmínek, budeme nazývat jevem nemožným a označovat pomocí symbolu. Vymysĺıte příklady takovýchto jevů?

Výběrový prostor Pokud budeme uvažovat náhodný pokus, v jehož průběhu házíme dvakrát mincí, pak jsou možné pouze čtyři výsledky: {{hlava, hlava}, {hlava, orel}, {orel, hlava}, {orel, orel}} Množina všech možných výsledků se zpravidla nazývá množina možných výsledků, někdy také výběrový prostor. Symbolicky bývá označována pomocí symbolu Ω. Jev je v této souvislosti definován, jako podmnožina množiny možných výsledků. Uvědomte si, že jevem může být i samotná množina možných výsledků, což je jev jistý.

Jevy Je třeba rozlišit: Elementární jevy - tyto jevy nelze dále rozložit. Složené jevy - jsou složeny minimálně ze dvou elementárních jevů.

σ-algebra Pro správné zavedení matematického modelu je nutné zavést jistý systém množin, označme jej A. Ten nazýváme algebrou, přesněji σ-algebrou, pokud platí: A, B A A B A (1) A, B A A B A (2) A A Ā A (3) Ω A, A (4)

Pravděpodobnostní funkce Rozdělením pravděpodobnosti na množině Ω = {a 1, a 2,, a n } s algebrou A nazýváme každou nezápornou funkci P na množině Ω takovou, že P (a 1 ) + P (a 2 ) + + P (a n ) = 1 Trojici A, Ω, P, kde P je rozdělením pravděpodobnosti na množině Ω s algebrou A budeme nazývat pravděpodobnostním prostorem. Pokud bude zároveň platit, že Ω = {a 1, a 2,, a n } a P (a 1 ) = P (a 2 ) = = P (a n ) = 1 n, tak pravděpodobnostní funkci P nazveme klasickým rozdělením pravděpodobnosti na množině Ω a trojici (A, P, Ω) nazveme klasickým rozdělením pravděpodobnosti.

Axionometrická definice pravděpodobnosti Autorem je A. N. Kolmogorov. Definice je založena na předpokladu, že náhodný jev je podmnožinou výběrového prostoru. Necht je ke každému jevu A Ω přiřazeno určité číslo P (A), které nazveme pravděpodobností jevu. Necht je tato pravděpodobnost P (.) vždy nezáporná tj. bude platit P (A) 0 axiom nezápornosti. Pravděpodobnost sjednocení konečného či spočetně nekonečného (tj. takového počtu jevů které lze očíslovat za pomoci přirozených čísel) počtu neslučitelných jevů A 1 A 2 je rovna součtu jejich pravděpodobností, tedy P (A 1 A 1 ) = P (A 1 ) + P (A 2 ) + axiom aditivity.

Axionometrická definice pravděpodobnosti Pravděpodobnost jistého jevu je rovna jedné, tj. musí platit: P (Ω) = 1 axiom normy. Poznámka: Axiomatická definice pravděpodobnosti matematicky přesně a nerozporně vymezuje pojem pravděpodobnosti, ale nedává návod jak ji vypočíst.

Klasická definice pravděpodobnosti Jejím autorem byl P. S. Laplace. Při stanovení číselné hodnoty pravděpodobnosti vycházíme z klasické definice pravděpodobnosti. Tu lze definovat takto: Může-li jistý prováděný pokus vykázat konečný počet n různých výsledků (hovoříme o nich jako o elementárních jevech), které jsou stejně možné a jestliže m z těchto výsledků má za následek nastoupení jevu A (v podstatě jevy příznivé), kdežto zbylých n m výsledků je vylučuje, potom je pravděpodobnost jevu A rovna: P (A) = m n Základním předpokladem klasické definice pravděpodobnosti je však stejná možnost či pravděpodobnost konečného počtu elementárních jevů.

Máte minci? Jaká je pravděpodobnost, že padne rub? Dle klasické definice pravděpodobnosti P (rub) = 1 2 = 0, 5. Proved me však malý experiment: Házejme mincí a sledujme kolikrát nám padne rub. výsledky si zaznamenejte.

Statistická definice pravděpodobnosti Statistická definice pravděpodobnosti se zakládá na relativní četnosti jevu A, jehož pravděpodobnost P (A) se snažíme určit. V podstatě odhadujeme pravděpodobnost pomocí relativní četnosti v sérii dostatečně velkého počtu nezávislých pokusů, což lze symbolicky zapsat takto: P (A) m n jinak řečeno lim n P (A) = m n. Pozor! V případě statistické definice tento podíl odhadujeme na základě výsledků skutečně provedených pokusů!

pokračování příkladu hodu mincí Pomocí jednoduchého programu v prostředí R vytvoříme program simulující hod ideální mincí. Budeme sledovat pravděpodobnost padnutí ĺıce, tak jak budeme zvyšovat počet opakování. simulate.coin<-function(n){ vek<-rep(na,n) for(i in 1:n){ vek[i]<-(sum(round(runif(i,0,1),0))/i)} vek plot(1:n,vek,type="l",xlab="n",ylab="probability") abline(h=0.5,col="red",lwd=2) }

pokračování příkladu hodu mincí Probability 0.0 0.2 0.4 0.6 0.8 1.0 0 200 400 600 800 1000 n

Pravidla pro počítání s pravděpodobnostmi: Jsou-li jevy A a B vzájemně neslučitelné, pak P (A B) = P (A) + P (B) Jsou-li jevy A a B dva libovolné jevy, pak P (A B) = P (A) + P (B) P (A B) Jsou-li jevy A a Ā vzájemně opačné jevy, pak P (Ā) = 1 P (A)

Pravidla pro počítání s pravděpodobnostmi: Platí-li že A B, pak P (A) P (B) Je-liA B, pak P (B A) = P (B) P (A) Jsou-li A, B dva libovolné jevy, pak P (B A) = P (B) P (A B)

Příklad V antikvariátu mají knihy, z nichž 10% má vytrženou stranu, 30% je popsáno poznámkami a 65 % knih je bez závad. Jaká je pravděpodobnost, že kniha, kterou si vyberu, je popsána poznámkami, ale má všechny strany?

Podmíněná pravděpodobnost Pokud je jev A vázán na uskutečnění jevu B, pak tento jev nazýváme jevem podmíněným jevu B a značíme jej A B. Při určování podmíněné pravděpodobnosti se množina všech možných výsledků náhodného pokusu omezí pouze na ty výsledky, jež vyhovují dané podmínce. Pravděpodobnost podmíněného jevu pak definujeme takto: P (A B) = P (A B) P (B) kde P (B) > 0. Z výše uvedeného vztahu plyne následující rovnice: P (A B) = P (A B) P (B) Zaměníme-li pak formálně A a B P (B A) = P (B A) P (A)

Tyto vzorce slouží pro výpočet současného výskytu jevů A a B a bývají označovány jako věty o násobení pravděpodobností. Pokud se bude jednat o nezávislé jevy, pak se věta o násobení pravděpodobností zjednoduší, nebot platí: a tedy P (A B) = P (A) P (B A) = P (B) P (A B) = P (A) P (B). Obdobně pak pro n nezávislých jevů.

Příklad Ve sklepě máte 70 kompotů: 35 hruškových, 20 jablkových a 15 třešňových. Pošlete svého slabšího sourozence (stejně jako vždy) pro 3 kompoty. Pokud přinese všechny hruškové, budete maximálně spokojeni a sourozenec bude pochválen. Pokud přinese všechny třešňové, půjde znova. V jiném případě to,,kousnete. Sourozenc pochopitelně neví, na co máte chut. Jaká je pravděpodobnost, že: sourozenec bude pochválen, to kousneme, půjde znova chudák.

Bayesův vzorec Pokud mají náhodné jevy B 1, B 2, B 3,, B n nenulové pravděpodobnosti a zároveň tvoří úplný rozklad pravděpodobnostního prostoru Ω, tj. Ω = n i=1 B i, přičemž B i B j = pro i j, lze libovolný jev A vyjádřit pomocí jevů B j pro j = 1, 2,, n takto: A = (A B 1 ) (A B 2 ) (A B n ). Postupným užitím věty o sčítání pravděpodobností pro neslučitelné náhodné jevy a věty o násobení pravděpodobností získáme předpis pro výpočet pravděpodobnosti jevu A, někdy také nazývaný vzorec úplné pravděpodobnosti. P (A) = n j=1 P (A B j ) P (B j )

Bayesův vzorec Pokud je i P (A) > 0, pak pro každý index i {1, 2,, n} bude platit: P (B i A) = P (A B i) P (B i ) nj=1 P (A B j ) P (B j ) Tento vztah budeme nazývat Bayesovým vzorcem.

Praktický příklad Studiem odborných časopisů jsme zjistili relativní četnosti mozkových příhod a vysokého krevního tlaku u starých osob. Známe tyto informace: 1 Deset procent lidí ve veku 70 let utrpí mozkovou příhodu v následujících pěti letech. P (MP ) = 0, 1 a tedy P (MP c ) = 0, 9 2 Dále víme, že 40 procent lidí kteří utrpěli mozkovou příhodu v pěti letech po 70 trpí (trpělo) vysokým krevním tlakem. P (KT MP ) = 0, 4 3 Z lidí kteří neměli mozkovou příhodu do 75 let mělo pouze 20 procent lidí vysoký krevní tlak. P (KT MP c ) = 0, 2

Zajímají nás dvě otázky: 1 Jaká je pravděpodobnost, že 70 letý pacient má vysoký krevní tlak? P (KT ) =? 2 Jaká je pravděpodobnost, že 70 letý pacient s vysokým krevním tlakem utrpí mozkovou příhodu v následujících pěti letech? P (MP KT ) =? Řešení: P (KT ) = P (KT MP )P (MP ) + P (KT MP c )P (MP c ) = 0, 4 0, 1 + 0, 2 0, 9 = 0, 22 P (MP KT ) = P (MP KT ) P (KT ) = P (KT MP ).P (MP ) P (KT ) = 0, 4 0, 1 0, 22 = 0, 182