Univerzita Palackého v Olomouci

Podobné dokumenty
Modifikace profilu absolventa biologických studijních oborů na PřF UP: rozšíření praktické výuky a molekulárních, evolučních a cytogenetických oborů

Modifikace profilu absolventa biologických studijních oborů na PřF UP: rozšíření praktické výuky a molekulárních, evolučních a cytogenetických oborů

Testy dobré shody Máme dvě veličiny, u kterých bychom chtěli prokázat závislost, TESTY DOBRÉ SHODY (angl. goodness-of-fit tests)

Intervalové odhady. Interval spolehlivosti pro střední hodnotu v N(µ, σ 2 ) Interpretace intervalu spolehlivosti. Interval spolehlivosti ilustrace

Intervalové odhady. Interval spolehlivosti pro střední hodnotu v N(µ, σ 2 ) Interpretace intervalu spolehlivosti. Interval spolehlivosti ilustrace

PSY117/454 Statistická analýza dat v psychologii seminář 9. Statistické testování hypotéz

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

Jana Vránová, 3. lékařská fakulta UK

letní semestr 2012 Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc. dohnal@nipax.cz

TESTOVÁNÍ HYPOTÉZ STATISTICKÁ HYPOTÉZA Statistické testy Testovací kritérium = B B > B < B B - B - B < 0 - B > 0 oboustranný test = B > B

ANALÝZA DAT V R 7. KONTINGENČNÍ TABULKA. Mgr. Markéta Pavlíková Katedra pravděpodobnosti a matematické statistiky MFF UK.

Mann-Whitney U-test. Znaménkový test. Vytvořil Institut biostatistiky a analýz, Masarykova univerzita J. Jarkovský, L. Dušek

Statistika, Biostatistika pro kombinované studium. Jan Kracík

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

Přednáška X. Testování hypotéz o kvantitativních proměnných

Testování hypotéz testy o tvaru rozdělení. Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Opakování. Neparametrické testy. Pořadí. Jednovýběrový Wilcoxonův test. t-testy: hypotézy o populačním průměru (střední hodnoty) předpoklad normality

Základy biostatistiky II. Veřejné zdravotnictví 3.LF UK - II

Jednostranné intervaly spolehlivosti

TESTOVÁNÍ STATISTICKÝCH HYPOTÉZ ZÁKLADNÍ POJMY

Kategorická data METODOLOGICKÝ PROSEMINÁŘ II TÝDEN 7 4. DUBNA dubna 2018 Lukáš Hájek, Karel Höfer Metodologický proseminář II 1

Parametrické testy hypotéz o středních hodnotách spojitých náhodných veličin

analýza kategoriáln lních dat Prof. RNDr. Jana Zvárová, DrSc. Záznam epidemiologických dat Epidemiologické ukazatele

15. T e s t o v á n í h y p o t é z

RNDr. Eva Janoušová doc. RNDr. Ladislav Dušek, Dr.

Testování statistických hypotéz

Epidemiologické ukazatele. lních dat. analýza kategoriáln. Prof. RNDr. Jana Zvárová, DrSc. Záznam epidemiologických dat. a I E

Pravděpodobnost a aplikovaná statistika

Rozhodnutí / Skutečnost platí neplatí Nezamítáme správně chyba 2. druhu Zamítáme chyba 1. druhu správně

Parametrické testy hypotéz o středních hodnotách spojitých náhodných veličin

II. Statistické metody vyhodnocení kvantitativních dat Gejza Dohnal

letní semestr 2012 Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika t-test

ADDS cviceni. Pavlina Kuranova

PSY117/454 Statistická analýza dat v psychologii Přednáška 10

RNDr. Eva Janoušová doc. RNDr. Ladislav Dušek, Dr.

2 ) 4, Φ 1 (1 0,005)

Normální (Gaussovo) rozdělení

VYBRANÉ DVOUVÝBĚROVÉ TESTY. Martina Litschmannová

Jednofaktorová analýza rozptylu

Statistické testování hypotéz II

Úvod do analýzy rozptylu

Testy statistických hypotéz

STATISTICKÉ TESTY VÝZNAMNOSTI

15. T e s t o v á n í h y p o t é z

Charakteristika datového souboru

Testování statistických hypotéz. Ing. Michal Dorda, Ph.D.

Matematická statistika. Testy v. v binomickém. Test pravděpodobnosti. Test homogenity dvou. Neparametrické testy. statistika. Testy v.

Přednáška IX. Analýza rozptylu (ANOVA)

You created this PDF from an application that is not licensed to print to novapdf printer (

Jednofaktorová analýza rozptylu

Analýza rozptylu. PSY117/454 Statistická analýza dat v psychologii Přednáška 12. Srovnávání více než dvou průměrů

Mgr. Karla Hrbáčková, Ph.D. Základy kvantitativního výzkumu

= = 2368

Testování statistických hypotéz

Pravděpodobnost a matematická statistika Doc. RNDr. Gejza Dohnal, CSc.

Testování hypotéz. testujeme (většinou) tvrzení o parametru populace. tvrzení je nutno předem zformulovat

Testování statistických hypotéz. Ing. Michal Dorda, Ph.D. 1

Fisherův exaktní test

4ST201 STATISTIKA CVIČENÍ Č. 7

12. cvičení z PST. 20. prosince 2017

Seminář 6 statistické testy

Přednáška XI. Asociace ve čtyřpolní tabulce a základy korelační analýzy

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Tutoriál č. 5: Bodové a intervalové odhady, testování hypotéz.

Statistické metody uţívané při ověřování platnosti hypotéz

Statistické metody v ekonomii. Ing. Michael Rost, Ph.D.

Testování hypotéz. 1. vymezení základních pojmů 2. testování hypotéz o rozdílu průměrů 3. jednovýběrový t-test

PSY117/454 Statistická analýza dat v psychologii přednáška 8. Statistické usuzování, odhady

Ing. Michael Rost, Ph.D.

Normální (Gaussovo) rozdělení

Statistická analýza dat v psychologii. Věci, které můžeme přímo pozorovat, jsou téměř vždy pouze vzorky. Alfred North Whitehead

Seminář 6 statistické testy

Stručný úvod do testování statistických hypotéz

Testování statistických hypotéz

Me neˇ nezˇ minimum ze statistiky Michaela S ˇ edova KPMS MFF UK Principy medicı ny zalozˇene na du kazech a za klady veˇdecke prˇı pravy 1 / 33

5. Závislost dvou náhodných veličin různých typů (kategoriální a metrická veličina)

Dva případy chybného rozhodnutí při testování: a) Testační statistika padne mimo obor přijetí nulové H hypotézy O, tj.

Katedra matematické analýzy a aplikací matematiky, Přírodovědecká fakulta, UP v Olomouci

Cvičení ze statistiky - 8. Filip Děchtěrenko

LEKCE 6 ZÁKLADY TESTOVÁNÍ HYPOTÉZ

UNIVERZITA OBRANY Fakulta ekonomiky a managementu. Aplikace STAT1. Výsledek řešení projektu PRO HORR2011 a PRO GRAM

DVOUVÝBĚROVÉ A PÁROVÉ TESTY Komentované řešení pomocí programu Statistica

LEKCE 5 STATISTICKÁ INFERENCE ANEB ZOBECŇOVÁNÍ VÝSLEDKŮ Z VÝBĚROVÉHO NA ZÁKLADNÍ SOUBOR

Testování hypotéz. Testování hypotéz o rozdílu průměrů t-test pro nezávislé výběry t-test pro závislé výběry

ANALÝZA DAT V R 5. ZÁKLADNÍ STATISTICKÉ TESTY. Mgr. Markéta Pavlíková Katedra pravděpodobnosti a matematické statistiky MFF UK.

Náhodné veličiny, náhodné chyby

Analýza rozptylu. Ekonometrie. Jiří Neubauer. Katedra kvantitativních metod FVL UO Brno kancelář 69a, tel

Matematika III. 3. prosince Vysoká škola báňská - Technická univerzita Ostrava. Matematika III

Design Experimentu a Statistika - AGA46E

Problematika analýzy rozptylu. Ing. Michael Rost, Ph.D.

Program Statistica Base 9. Mgr. Karla Hrbáčková, Ph.D.

Neparametrické metody

5. T e s t o v á n í h y p o t é z

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)

Pozn. přeskakuji zde popisnou statistiku, jinak by měla být součástí každé analýzy.

Lékařská biofyzika, výpočetní technika I. Biostatistika Josef Tvrdík (doc. Ing. CSc.)

Příklad 1. Řešení 1 ŘEŠENÉ PŘÍKLADY Z MV2 ČÁST 11

Statistika. Testování hypotéz - statistická indukce Parametrické testy. Roman Biskup

Transkript:

Univerzita Palackého v Olomouci Modifikace profilu absolventa biologických studijních oborů na PřF UP: rozšíření praktické výuky a molekulárních, evolučních a cytogenetických oborů CZ.1.07/..00/8.0158 Biostatistika III. Úvod do testování statistických hypotéz (klasická frekvenční statistika) Statistické testy pro 1, a více souborů, ANOVA Martin Duchoslav Katedra botaniky PřF UP Olomouc 01

Testování statistických hypotéz Jak je možné a jakým způsobem odvodit z výsledků zjištěných na jednom výběrovém souboru informaci o celé populaci? VIZ deduktivně-induktivní induktivní proces - pomocí indukční statistiky Statistická hypotéza se týká základního souboru, který neznáme. Úkolem matematické statistiky je rozhodnout na základě 1-n výběrových souborů o platnosti určité hypotézy Toto rozhodování se provádí tzv. testem statistické hypotézy jedná se rozhodovací pravidlo, které každé realizaci náhodného výběru přiřadí jedno ze dvou rozhodnutí: zamítnutí nebo nezamítnutí hypotézy Zakladatelé: R. Fisher, J. Neyman, E. Pearson

Fisher versus Neyman & Pearson: dva rozdílné přístupy k testování hypotéz Fisher (1954, 1956): testování signifikance (významnosti) 1. Formulujeme nulovou hypotézu (H 0 ) Co to je H 0?. Provedeme experiment (pozorování) a rozhodneme na základě hypotézy o 3. volbě testové charakteristiky (kriteria, test statistics). Co to je kriterium? 4. Zjistíme tzv. P-value a rozhodneme o platnosti H 0 Co to je P-value?

Co to je statistická nulová hypotéza? Obecně se preferuje nejjednodušší vysvětlení (viz Princip parsimonie) nejčastěji se pak definuje nulová hypotéza jako: Není rozdíl mezi... nebo X a Y se rovnají... (např. Není rozdíl mezi délkou života kuřáků a nekuřáků ) to ale ve skutečnosti znamená: Rozdíly mezi skupinami nejsou větší než by bylo možné očekávat v důsledku náhodné variability. Takové tvrzení nazýváme statistická nulová hypotéza (H 0 ) (null hypothesis),, protože hypotéza vylučuje jakoukoliv další sílu (= vliv) mimo náhodnou variabilitu. Zpět

Kdy zamítám nulovou hypotézu? Nulovou hypotézu zamítám, pokud dostanu uspořádání dat, které je velmi nepravděpodobné za předpokladu platnosti nulové hypotézy! pokračuj...

Co to je testová statistika (testové kritérium)? -většinou se jedná o specifický vzorec, do kterého dosazuji numerické hodnoty charakteristik zjištěných na výběru - vzorce jsou navrženy tak, že při platnosti H 0 má testové kriterium rozdělení pravděpodobnosti shodné s některým z teoretických modelů (např. normální rozdělení, Studentovo t- rozdělení, F rozdělení, aj.) - pro teoretické modely jsou sestaveny kvantilové tabulky

* Obecně neexistuje žádný důvod proč volit právě takovou hodnotu. Jde pouze o konvenci. ** Either an exceptionally rare chance has occurred or the theory is not true (Fisher 1959, p. 39) P-hodnota a signifikantní výsledek (Fisherův přístup) Pravděpodobnost výskytu uspořádání dat z provedeného experimentu (či pozorov zorování) a extrémnějšího pak měří tzv. P = P-value pravděpodobnost,, že pozorujeme naše data nebo data stejně či více extrémní za předpokladu pravdivosti nulové hypotézy: P = P(data H 0 ). Na čem závisí P? (1) na velikosti výběru (s rostoucím n klesá), () na velikosti odchylky skutečné hodnoty parametru od hodnoty předpokládaného hypotézou (čím dále, tím je menší) a (3) na variabilitě uvnitř výběrů (menší variabilita menší P) Kdy je P dostatečné malé? Čím menší, tím silnější důkaz proti H 0. Konvencí tehdy* když P 0,05** pak zamítám H 0 a říkám, že výsledek je signifikantní ) když P > 0,05 pak nezamítám H 0 a říkám, že výsledek je nesignifikantní

Neyman a Pearson (198, 1933): testování hypotéz 1. Formulujeme nulovou hypotézu* (H 0 ) a k ní alternativu (H A ). [H A musí platit, když zamítneme H 0 ]. Zvolíme riziko (hladinu významnosti = significance level) ) v souhlase s důsledky, které by mohla mít chyba I. druhu. 3. Zvolíme rozsah výběru. 4. Provedeme experiment (pozorování) a rozhodneme na základě hypotézy o volbě testové charakteristiky (kriteria, test statistics, T). V tabulkách nalezneme kritickou hodnotu (critical value, k a ) testové charakteristiky na zvolené hladině významnosti. Jestliže T k a, nezamítneme nulovou hypotézu (Pozor! H 0 nemusí být pravdivá!!!**). Jestliže T > k a, zamítneme (reject) nulovou hypotézu a říkáme, že platí H A. ** Absence důkazu není důkazem absence (C. Sagan) 5. Spočítáme silofunkci (sílu, power) ) testu (je-li to možné) a rozhodneme, zda pravděpodobnost s níž zamítáme nulovou hypotézu když neplatí je dostatečně velká, tedy pravděpodobnost chyby II. druhu je dostatečně malá.

Co to je statistická alternativní hypotéza? Alternativní (statistická) hypotéza H A (alternative hypothesis) (ve smyslu Neymana a Pearsona): buď explicitně definována jako ne H 0 (nejčastěji, pokryje tak nejvíce alternativ) nebo konkrétní hodnotou/intervalem vědecká hypotéza se dostává do pozice alternativní hypotézy, předpokládající nenulový účinek statistická hypotéza se zabývá strukturou dat, ne mechanismem, který ho způsobil (často je náš pokus černou skříňkou black box) výzkumník musí v dalším kroku usoudit na mechanismus z pozorovaného výsledku

Hladina významnosti (Neyman-Pearsonův přístup) Hladina významnosti (α), např. α=0,05: proporce chybně zamítnutých H 0 za užití pravidla když P α, pak zamítám H 0, pokud by se experiment opakoval mnohokrát a H 0 byla pravdivá P-value dle těchto autorů jen říká, zda-li se zamítá nebo nezamítá H 0 na námi zvolené hladině významnosti (α)... nic víc... (Oakes 1986)

Možná rozhodnutí při testování statistických hypotéz Skutečnost Rozhodnutí statistického testu Zamítneme H 0 Nezamítneme H 0 H 0 je správná H 0 neplatí Chyba I. druhu Správné rozhodnutí Správné rozhodnutí Chyba II. druhu

Chyba I. Druhu (Type I error) je spojena se zamítnutím nulové hypotézy, která ve skutečnosti platí její pravděpodobnost se nazývá a značí α = RIZIKO = je to pravděpodobnost, že se dopustíme chyby I. druhu falešným zamítnutím nulové hypotézy = falešně pozitivní výsledek; = producer error 1- α = spolehlivost testu velikost této chyby se volí malá (obvykle α = 0,05; 0,01; 0,001) a její hodnotu si stanovujeme před testováním α = P? pozor: ačkoliv se P a α často ztotožňují, jejich význam je odlišný více např. Schervish MJ. (1996), Hubbard R. & Bayarri MJ. (003)

Chyba II. Druhu (Type II error) - je pravděpodobnost nesprávného přijetí nulové hypotézy Značí se β = falešně negativní výsledek; = consumer error 1-β = síla testu = jedná se o pravděpodobnost, že zamítneme nulovou hypotézu, která ve skutečnosti neplatí (měla by být alespoň 0,8, tj. pak máme dobrou šanci detekovat signifikantní rozdíl v datech, pokud je tento přítomný) β závisí na velikosti výběru (klesá), velikosti α (se snižující se α roste β) a na velikosti odchylky skutečné hodnoty parametru od hodnoty předpokládaného hypotézou (čím dále, tím je nižší) Vztah mezi sílou testu (1-β), P a n (Gotelli & Ellison 004, str.103)

Copak jsou ty chyby? (II) * H 0 : µ=140,0 H A : µ=137,5 H A H 0 1-β β oblast zamítání H 0 (a akceptace H 1 ) α kritická hodnota na hladině a oblast nezamítání H 0 oblast zamítání H 0 i H 1 (správně pro α/)

Vysvětlení 99 % chyby II. druhu H 0 : p =p =0,5 Očekávané pravděpodobnosti výskytů různého počtu samic druhu X,, pokud jsme vybrali náhodně 17 zvířat z populace druhu X. P i P i 87 % H A : p :p =1: Suma P i hodnot ( ) H A ohraničených kritickými hodnotami ( ) v případě platnosti H 0 = pravděpodobnost chyby II. druhu

Biologická versus statistická významnost Hodnocení velikosti účinku (effect size; ES) ES = µ 1 µ σ Hypotetické pozorované efekty (Hilborn & Mangel 1997, upraveno) (průměry = body, a jejich 95% konfidenční intervaly= úsečky): možné výsledky, které mohou v praxi nastat

Hybridní přístup užívaný v současnosti při testování hypotéz Formulujeme nulovou hypotézu (H 0 ) a k ní alternativu (H A ). 1. Formulujeme. Zvolíme riziko = hladinu významnosti (α) v souhlase s důsledky, které by mohla mít chyba I. druhu. 3. Zvolíme rozsah výběru. 4. Provedeme experiment (pozorování) a rozhodneme na základě hypotézy o volbě testové charakteristiky (kriteria, test statistics, T). V tabulkách nalezneme kritickou hodnotu (critical value, k α ). Jestliže T < k α, nezamítneme (not reject) ) nulovou hypotézu. Jestliže T k α, zamítneme (reject)) hypotézu a říkáme, že odchylky od hypotézy jsou statisticky významné. V čem je ta hybridnost? Prezentujeme často aktuálně zjištěné hodnoty P (např. P = 0,013, P = 0,00018) jako sílu důkazu proti H 0 (= strength of evidence against the H 0 ).

Jedna nebo dvě strany? Obecný tvar hypotézy může mít dvě formy. Buď Vás zajímá obecně, je-li (specifický) rozdíl mezi populačním parametrem (x 1 ) a hypotetizovanou hodnotou (x 0 ) = oboustranná hypotéza (testuje se oboustranným testem, two-tailingtailing testing) H 0 : x 1 = x 0 (= simple hypothesis, H A : x 1 x 0 point hypothesis) nebo je-li specifický směr rozdílu mezi populačním parametrem a hypotetizovanou hodnotou = jednostranná hypotéza (jednostranný test, one-tailing testing) H 0 : x 1 x 0 (= directional H A : x 1 > x 0 hypothesis, composite hypothesis) Př. (či obráceně)

Výběr směru hypotézy + příklad Pravidlo: Je legitimní použít jednostrannou alternativu H A pouze pokud je H A formulována před analýzou dat. Příklad: Zkoumám vliv druhů hnojiv na produkci pšenice. Pak se mohu ptát: (A) nebo (B) H 0 : Oba druhy hnojiv mají stejný účinek na výnos. H A : Oba druhy hnojiv mají různý účinek na výnos. H 0 : První druh hnojiva má stejný nebo menší účinek na výnos. H A : První druh hnojiva má větší účinek na výnos. (nebo nerovnosti obrátím) Zpět

Kritická hodnota testu Kritická hodnota = hodnota H 0 na zvolené P hodnota kvantilu hraniční pro oblast zamítání nebo α V případě oboustranného testu: musíme rozdělit danou hladinu významnosti na dvě časti reprezentující dva možné konce distribuce. Značíme k α() (),, např. t 0,05() V případě jednostranného testu: uvažujeme pouze jeden konec distribuce a danou hladinu významnosti proto nedělíme. Značíme k α(1) (1),, např. t 0,05(1) Platí, že kritická hodnota pro jednostranný test je vždy méně extrémnější než kritická hodnota pro oboustranný test, tj. jednostranný test má větší sílu než test oboustranný!

Jedna nebo * dvě strany II α/ Oboustranný test kritická hodnota -k α() kritická hodnota k α() žlutá plocha Příklad: testuji průměr kvantitativní spojité proměnné (např. výšku, hmotnost) z výběru proti očekané hodnotě při α = 0,05. α Jednostranný test kritická hodnota k α(1) žlutá plocha Zvárová 001, upraveno 1,96

Kritika testování nulových hypotéz běžné používání klamných, hloupých, banálních H 0 (= false H 0, trivial H 0, silly nulls) ideální H 0 má být taková, že její zamítnutí má logické důsledky, které vedou k lepšímu pochopení studovaného problému bohužel ve většině případů lze platnost H 0 (H 0 : není rozdíl) zamítnout apriorně bez sběru dat důvod užívání banálních H 0 ( nulový rozdíl ): je mnohdy obtížné vytvořit H 0 s nenulovým efektem: stávající teorie nemusí být dostatečně precizní, aby se taková H 0 mohla SMYSLUPLNĚ formulovat hodnota P je založena i na pravděpodobnosti dat extrémnějších než je výsledek pozorování (a které nebyly pozorovány!) většina H 0 predikuje unimodální rozdělení pravděpodobností (normální a odvozené od normálního rozdělení) vliv nepozorovaných výsledků je obvykle malý v případě zamítnutí H 0 dochází k akceptování H A bez toho, jak dobře souhlasí s daty ( případ Sally Clark) neschopnost zamítnout H 0, když je P velké příčinou může totiž být špatný design studie, např. malý počet opakování, je důležité provádět sílu testu!

Další čtení Fisher R.A. (1935): The design of experiments.- Oliver & Boyd, Edinburgh. Fisher R.A. (1954): Statistical methods for research workers.- Oliver & Boyd, Edinburgh. Fisher R.A. (1956): Statistical methods and scientific inference.- Oliver & Boyd, Edinburgh. Hubbard R. & Bayarri MJ. (003): Confusion over measures of evidence (p s s) versus errors (α s) in classical statistical testing.- Amer. Statistican 57: 171-1818 McCarthy M.A. (007): Bayesian methods for ecology.- Cambridge University Press. Neyman J., Peason E. (198): On the use and interpratation of certain test criteria for purposes of statistical inference, part I. Biometrica 0A: 175-40. Neyman J., Peason E. (1933): On the problem of the most efficient tests of statistical hypotheses.- Phil. Trans. Royal. Soc. London, Ser. A 31: 89-337. Oakes M. (1986): Statistical inference: a commentary for the social and behavioural sciences.- Wiley, Chichester. Schervish MJ. (1996): P values: what they are and what they are not.- Amer. Statistician 50: 03-06. 06. Tkadlec E. (011): Strategie a metody vědecké práce v přírodních vědách.- Olomouc.

Testování statistických hypotéz - obecné poznámky

Testování statistických hypotéz - dej si pozor na... Na co si dát při testování pozor aneb jaký test zvolit? je nutno volit testy podle toho, na jaké škále je studovaná proměnná měřena statistické testy mají specifické předpoklady a jistá omezení při jejich nesplnění či nedbání omezení je nesprávné tyto testy používat - získané výsledky jsou (mohou být) nepřesné až chybné a tedy nepravdivé testovat tutéž hypotézu (parametr) lze často více testy možné problémy s interpretací při různých závěrech těchto testů

Parametrické Základní dělení testů hypotéz testy Test Randomizační (permutační) testy Monte Carlo testy Bayesiánská analýza* Neparametrické pořadové testy - test se týká parametrů rozdělení populace (ve většině případů normálního rozdělení, tj. průměru a nebo standardní odchylky; ale i jiných rozdělení...) - data musí splňovat požadavky testu, ad normální rozdělení: tj. např. normalitu a stejnost variancí - analýza má minimální předpoklady o distribuci dat - používá randomizaci pozorovaných dat jako základ pro usuzování - výpočetně náročná = počítač - závěry z MCA jsou často aplikovatelné jen na sebraná data - test se netýká daných parametrů rozdělení populace - jako alternativa, pokud data nesplňují požadavky param. testu - užívá se pro data měřená na ordinální škále a pro data na kvantitativní škále pro malé výběry (n<10) a pracuje s pořadím dat - má menší sílu než odpovídající parametrický test v případě splnění podmínek k užití param. testu - lze je využít pouze pro jednoduchý experimentální design * Mimo rozsah učiva tohoto kurzu.

Postupné kroky při testování statistické hypotézy Monte Carlo analýza 1) specifikuj testovou statistiku ) vytvoř (simuluj) distribuci testové statistiky za předpokladu platnosti H 0 3) zvol jedno či oboustranný test 4) porovnej pozorovanou statistiku s distribucí simulovaných hodnot a stanov přibližné P Parametrická analýza 1) specifikuj testovou statistiku ) specifikuj nulovou distribuci 3) zvol jedno či oboustranný test 4) vypočti P

Základní typy uspořádání pokusu zcela znáhodněné (completely randomized) - z populace vybereme náhodně n jedinců (prvků) - z takto vybraných n jedinců (prvků) náhodně vybereme n 1 jednotek, na které aplikujeme první pokusný zásah, ze zbývajících náhodně vybereme n jedinců, na které aplikujeme druhý pokusný zásah atd. blokové (block) - blok je vytvářen jedinci (prvky), kteří jsou si v nějakém smyslu blízcí (prostorově, časově, geneticky atp.) - blokovým uspořádáním můžeme vyloučit (odfiltrovat) nekontrolovatelné či náhodné vlivy při experimentu (rozdíl mezi bloky nás nezajímá) - nejjednodušším typem je tzv. párové uspořádání (paired)

Nejtypičtější uspořádání experimentů* Příklad: 3 různé zásahy (treatments:,, ) a kontrola (control control: ) blok zcela znáhodněné (completely randomized) *existují složitější typy uspořádání - více později blokové (block) umožňuje dělit variabilitu na komponenty

Testování hypotéz rozhodovací strom aneb jaký test použít? 1 znak (proměnná) 1 soubor soubory 3 a více souborů Kolmogorov-Smirnovův t. blokové uspořádání znáhodněné uspořádání vícerozměrné kontingenční tabulky ANOVA test dobré shody test normality jednovýběrový t-test jednovýb. Wilcoxonův test Bowkerův test parametrické t. párový t-test * splňují data podmínky? neparametrické t. Wilcoxon t. kontingenční tabulky parametrické t. t-test * splňují data podmínky? neparametrické t. Mann-Whitney t. Pozn.: schéma reprezentuje výběr nejužívanějších testů pro testování hypotéz o střední hodnotě, shodě dat s očekáváním či testů normality pro 1 znak a 1- výběry (výjimky viz výše) - není proto úplné a je možné k němu mít výhrady...:-) * nebo znaky test pro nominální data test pro ordinální data test pro kvantit. data

Testy hypotéz týkajících se kvalitativních (kategoriálních) proměnných

Analýza frekvencí - test dobré shody (Goodness of fit) Získáme soubor kategoriálních* dat a přejeme si vědět, zda-li populace, ze které tento soubor pochází, se shoduje s předpokládanou teoretickou distribucí. V nejjednodušším případě srovnáváme skutečně zjištěné a očekávané četnosti jevů Sledujeme-li li více jak jeden jev, zajímá nás, jak se liší pozorované četnosti od očekávaných (tedy: zda-li je shoda mezi dosaženým a očekávaným nebo ne!) - jako výsledek experimentu (pozorování) sledujeme výskyt náhodného jevu A, o jehož pravděpodobnosti předpokládáme, že je rovna danému číslu P(A) - pozorovaná četnost jevu A v n nezávisle opakovaných pokusech je f i a relativní četnost pak p=f i /n pak

Test dobré shody Goodness of fit) (pro 1 proměnnou s a více kategoriemi) (Goodness Za míru odchylek dosažených od očekávaných odchylek je považována míra: χ k 1 = k i= 1 ( f i fˆ i fˆ fˆ i očekávaná absolutní četnost jevu i čti: chí chí-kvadrát i očekávaná absolutní četnost jevu i v kategorii k ) f skutečně zjištěná absolutní četnost jevu i v kategorii k Míra má přibližně Pearsonovo rozdělení o n = k-1 stupních volnosti χ k 1 Předpoklady: : 1) pozorování jsou klasifikována do kategorií vzájemně nezávisle. ) Ne více jak 0% kategorií má očekávané frekvence nižší než 5. Je-li vypočítané χ větší než kritická hodnota χ (α,n), zamítáme H 0 o shodě zjištěných a očekávaných frekvencí na zvolené hladině významnosti (α). Př.

Jak vypadá Pearsonovo (χ ) rozdělení? -je to funkce, jejíž hodnoty kolísají v intervalu 0,+ ) - má pouze 1 parametr: ν [ný]... stupně volnosti (= počet kategorií 1) Hustoty pravděpodobnosti pro Pearsonovo rozdělení s 1,, 3 a 6 stupni volnosti. (Sokal & Rohlf 1995)

Tabulka kritických hodnot χ distribuce (Lepš 1996)

Složená vs. jednoduchá H 0 Je-li kategorická proměnná vícestavová dichotomická (binární) H 0 je složená (compound H 0 ) = obsahuje více jak jeden nezávislý výrok H A je nesměrovaná (omninebo nondirectional) v případě zamítnutí H 0 test neposkytuje směrované rozhodnutí Př.: H 0 : Poměr krevních skupin (A, B, AB, 0) v populaci je 45:0:7:8 H A : Alespoň jeden poměr se odlišuje od předpokladu H 0 je jednoduchá (simple H 0 ) = obsahuje právě jeden nezávislý výrok H A může být i směrovaná (jednostranná) (directional) v případě zamítnutí H 0 test poskytuje směrované rozhodnutí lze provést i test jednostranné H (jdou-li data ve směru H A, dělíme P dvěma) Př.: viz následující snímek

Příklad * Genetik získal 100 potomků při křížení a ptá se, zda-li jeho výsledek odpovídá teoreticky očekávanému fenotypovému poměru žlutě a červeně kvetoucích rostlin 3:1. Získal 84:16, ale teoreticky měl získat 75:5. Je výsledek experimentu signifikantně odlišný od předpokladu? H 0 : poměr žlutá:červená odpovídá 3:1 H A : poměr je jiný (alternativa kategorie; k = χ k 1 k = i= 1 ( f i fˆ i ) fˆ i (84 75) = 75 kritická hodnota na α = 0,05: χ( α, k 1) = χ(0,05,1 1) = χ(0,05;1) = protože alternativa: : poměr je více jak 3:1 ve prospěch žluté barvy) + 3,841 (16 5) 5 χ( 0,05;1) = 3,841< χtest= 4,3 zamítáme H 0 = 1,08 + 3,4 = 4,3 (pro jednostranný test: skutečná proporce žlutých rostlin (84 ze 100=84%) je vychýlená ve směru H A (oproti předpokladu H 0 =75%), a tedy P dělíme dvěma)

Test heterogenity (více souborů jedné kategoriální proměnné) Naším cílem může být zjistit, zda-li můžeme zkombinovat výsledky jednotlivých (dílčích) experimentů (pozorování) do jednoho souboru?! H 0 : všechny vzorky (soubory) pocházejí z téže populace Př. Postup: 1. Spočítáme testy dobré shody pro všechny vzorky zvlášť.. Sečteme všechny dosažené a očekávané četnosti pro jednotlivé vzorky a spočítáme test dobré shody pro takto vzniklý jeden soubor. 3. Pokud jsou vzorky homogenní, měly by být obě hodnoty přibližně stejné rozdíl mezi nimi je též proměnná s Pearsonovým rozdělením. 4. Hodnotu této statistiky porovnám s kritickou hodnotou na příslušné a a DF (rozdíl DF výše zmíněných prom.) a rozhodnu H 0

Příklad: Mendel experimentoval s křížením hrachu a zabýval se barvou semen. Celkem provedl 10 experimentů s křížením homozygota dominantního (AA; žlutá semena) a recesivního (aa; zelená s.). Předpokladem bylo, že poměr fenotypů semen získaných křížením bude 3:1 ve prospěch žlutých semen. H 0 : Experimenty jsou homogenní (tj. pocházejí z téže populace). H A : Experimenty jsou heterogenní (tj. pocházejí z různých populací) (Zar 1999, str. 468)

Kontingenční tabulky(contingency tables) Užívají se pro zjišťování Nástavba testu dobré shody. a) vztahů mezi a více znaky nominálními (každý s a více kategoriemi) b) vlivu více kategoriálních proměnných (tzv. prediktorů) ) na jednu odpovědní kategoriální proměnnou (popř. diskrétních kvantitativních nebo spojitých kvantitativních proměnných s hodnotami sloučenými do skupin!!!) Jaké hlavní typy hypotéz umožňují testovat kontingenční tabulky? 1. Hypotézu o shodnosti struktury (1 znaku ve a více výběrech). Hypotézu o nezávislosti ( znaků v 1 výběru) 3. Hypotézu o symetrii ( znaků či opakovaných měření v 1 výběru)

Kontingenční tabulky - příklady Příklad č.1: Byl studován výskyt mihulí v tocích České republiky. Předběžné výsledky ukázaly, že jejich přítomnost/nepřítomnost v toku není určena současným stupněm znečištění ani znečištěním v minulosti (nelze ale vyloučit jednorázovou intoxikaci). Byly tedy studovány další vlastnosti jednotlivých toků, zvl. mechanické zábrany, které mohou limitovat pohyb kruhoústých a ryb v toku. Toky byly klasifikovány do typů: a) s přítomnosti jezů a splavů zabraňujících zpětnému návratu vodních obratlovců a b) bez přítomnosti jezů a splavů. Bylo celkem vyšetřeno 100 toků. Z nich bylo 50 s jezy a 50 bez jezů. Z toků typu a) byly mihule nalezeny v 10 případech, v tocích typů b) ve 40 případech. Je poměr toků s výskytem/absencí mihulí shodný v obou typech toků (tj. v tocích s bariérami/bez bariér)? Příklad č. : Zkoumáme vzájemný výskyt dvou druhů na skalní stepi. Celkem jsme na plochu rozmístili náhodně 100 plošek o rozměru 1x1 m. Na každé ploše jsme zaznamenali přítomnost/nepřítomnost druhu A a druhu B. Oba druhy se vyskytovaly v 36 čtvercích, ani jeden ve 0 čtvercích, pouze druh A se vyskytoval ve 30 čtvercích. Vyskytují se druhy vzájemně nezávisle? Příklad č. 3: Sledujeme skupinu 0 pacientů, kteří byli léčeni dvěma různými hypertenzivy A a B. Každý pacient dostával po dobu 1 měsíce lék A a po odeznění případných účinků po dobu 1 měsíce lék B. Výsledek byl klasifikován jako úspěch (tlak snížen o více než 15 mm Hg) či neúspěch. Liší se léky v účinku?

Kontingenční tabulky II. -v v mnoha situacích sbíráme data simultánně pro (a více) proměnných a tak by bylo zajímavé zjistit, zda-li frekvence výskytu v různých kategoriích jedné proměnné jsou nezávislé na frekvencích další proměnné (= H 0 ) Příklad: dvě nominální proměnné (X, Y), každá se dvěma kategoriemi (+, -) A, B, C, D = absolutní četnosti kombinací znaků = BUŇKA,, n = velikost výběru Y+ Y- Celkem X+ A B A+B X- C D C+D Celkem A+C B+D n R i R i ΣC j = ΣR i =n C j C j Marginální součty (marginální distribuce)

Kontingenční tabulky III. Jak ale spočítat očekávané frekvence, pokud by byly jevy nezávislé? Opakování: : pravděpodobnost současného výskytu dvou nezávislých jevů A a B je rovna součinu jejich pravděpodobností, tj. P(A)*P(B) P(B) Obecně pro kontingenční ) R C R C i j i j f n tabulku: ij = = n Test dobré shody pro kontingenční tabulku se pak vypočítá: χ n ˆ ( f f ) f = 1 ij ij ij = n fˆ ij RiCj se stupni volnosti DF = (r-1)(c 1)(c-1) n

Grafická vizualizace kontingenční tabulky Mozaikový diagram: frekvence buněk jsou reprezentovány (Gotelli a Ellison 004) dlaždicemi, jejichž plocha je proporční jejich relativní frekvenci v souboru šířka sloupečku je proporční jeho podílu na celku (viz C j ) výška každé dlaždice je proporční frekvenci buňky [např. A/(A+C)] 70 60 50 40 30 0 10 0 % žen studujících vysokou školu ve 4 věkových kategoriích 15-17 18-4 5-34 35 a více % Sloupcový diagram relativních frekvencí: srovnání podmíněných (%) četností jedné proměnné [např. A/(A+B)] pro separátní kategorie druhé proměnné (lze-li li určit směr vlivu, pak na ose x vynášíme kategorie vysvětlující proměnné a na ose y četnosti kategorie (í) vysvětlované proměnné) --- tzv. Row percents nebo Column percents

Kontingenční tabulky: x tabulky (= čtyřpolní tabulky) - jde o nejjednodušší typ kontingenčních tabulek s r= a c= a s DF=1 Lze rozlišit celkem 3 typy experimentálního designu, který vede k analýze prostřednictvím čtyřpolních tabulek: A. Kategorie 1 B. Kategorie ( srovnávací pokus ) - je fixováno n,, ale nejsou - před analýzou je určen jeden nebo fixovány marginální druhý okraj (absolutní četnosti) součty - buď užiji Yatesovu korekci, lépe - pro analýzu užíváme Haberovu korekci* nebo nejlépe Yatesovu korekci* nebo Fisherův exaktní test* výpočet: C. Kategorie 3 ( independence trial ) n( ad bc) -oba okraje jsou fixovány χ = -použiji Yatesovu korekci testu dobré R R C C shody* nebo Haberovu korekci* Př. 1 1

Čtyřpolní tabulky příklady 1 Příklady (kategorie 1): sloupce a řádky jsou zaměnitelné (1) Zkoumáme vzájemný výskyt dvou druhů na skalní stepi. Celkem jsme na plochu rozmístili náhodně 100 plošek o rozměru 1x1 m. Na každé ploše jsme zaznamenali přítomnost/nepřítomnost druhu A a druhu B. Oba druhy se vyskytovaly v 36 čtvercích, ani jeden ve 0 čtvercích, pouze druh A se vyskytoval ve 30 čtvercích. Vyskytují se druhy vzájemně nezávisle? () Při studiu vztahu mezi barvou vlasů a očí v populaci Němců antropolog pozoroval náhodný výběr 6800 lidí s těmito výsledky: Barva očí (O) Barva vlasů (V) Tmavá (T) Světlá (S) Celkem Tmavá (T) 76 131 857 Světlá (S) 319 814 5943 Celkem 3855 945 6800 obecně H 0 : P (C G1)=P(C G), kde G1 a G jsou dvě skupiny srovnávané ve vztahu ke znaku C (př.: H 0 : TO TV=TO SV 76/3855=131/945) nebo H : TV TO=TV SO 76/857=319/5943) Jak chápat statistickou hypotézu? jako tzv. statistickou nezávislost H 0 : Barva očí je nezávislá na barvě vlasů = H 0 : Barva vlasů je nezávislá na barvě očí. = H 0 : Barva očí a barva vlasů jsou vzájemně nezávislé.

Čtyřpolní tabulky příklady Příklad č. 3 (kategorie ): Studuji promořenost populací druhů myšic vnitřními parazity. Prohlédnu 100 zvířat 1. druhu na přítomnost / nepřítomnost parazitů (parazité přítomni u 50 jedinců) a totéž provedu pro. druh (prohlédnu 50 jedinců; paraziti u 0 jedinců). Ptám se: liší se promořenost parazity u těchto druhů? (tj. liší se proporce populace infikované parazity u druhů nebo ne?, H 0 : p 1 =p ) Příklad č. 4 (kategorie 3): Testuji schopnost druhů vodních plžů odolávat vodnímu proudu. Náhodně vyberu 0 jedinců prvního druhu a 10 jedinců druhého druhu, nechám je přitisknout k podložce a pustím vodu. Experiment ukončím ve chvíli, kdy polovina všech jedinců (bez ohledu na druh) je odnesena proudem. Jsou oba druhy schopné odolávat vodnímu proudu stejně za daných podmínek nebo ne?

Čtyřpolní tabulky II Yatesova korekce na kontinuitu χ n ad bc n C = R1R C1C Haberova korekce - složitější, počítá jinak čitatel vzorce pro čtyřpolní tabulky, výpočet viz Zar (1999), str. 491-49. 49.

Vliv skryté proměnné na analýzu frekvencí Simpsonův paradox Jsou záchranářské helikoptéry úspěšnější v záchraně životů než sanitky? helikoptéra Sanitka Postižený zemře 64 (3% z Celkem) 60 (4% z Celkem) Postižený přežije 136 840 Celkem 00 1100 Vážná nehoda Lehká nehoda helikoptéra sanitka helikoptéra sanitka Postižený zemře 48 (48%) 60 (60%) Postižený přežije 5 40 Celkem 100 100 Postižený zemře 16 (16%) 00 (0%) Postižený přežije 84 800 Celkem 100 1000 Jev, kdy vliv další = skrytá(é) (= rušivá(é)) proměnná(é) změní směr působení nebo obrátí závislost v kontingenční tabulce (při slučování dílčích skupin do jedné).

Fisherův exaktní test - vhodný pro analýzu čtyřpolních tabulek kategorie - srovnávací pokus - založen na hypergeometrické pravděpodobnosti - počítá přímo pravděpodobnost výskytu dané čtyřpolní tabulky P= f R! 11 1! R! C1! C f! f! f 1!! n! - možnost jednostranného a oboustranného* testu - zvláště vhodný, když n < 30 Jednostranný test: - pro testování H 0 je třeba, aby získaná data směřovala k H A a pak sečíst pravděpodobnosti výskytu všech čtyřpolních tabulek s extrémnějším počtem f 11 než byl v získané tabulce (tj. ve směru alternativní hypotézy) při zachování konstantních marginálních součtů - proto exaktní - nejdou-li data ve směru H A, netestujeme a říkáme, že nelze zamítnout H 0 *složitější výpočet 1

Fisherův * exaktní test - příklad V populaci lidí zkoumám, zda-li je levo/pravorukost nezávislá/závislá na pohlaví. Vybral jsem náhodně 34 mužů a 36 žen a prozkoumal jejich rukost - viz tabulka: 0.33 Muži Ženy Celkem Levorucí 6 1 18 Pravorucí 8 4 5 Celkem 34 36 70 H 0 : Levorukost je stejně či více rozšířená mezi chlapci než mezi dívkami. H A : Levorukost je méně běžnější u chlapců než u dívek. Řešení? FET Jak vypadají tyto tabulky? takto... Nezamítám H 0

Tabulky ve směru H a pro Fisherův exaktní text - příklad f 11 =6 Muži f 11 =4 Muži Ženy Levorucí 6 1 18 Pravorucí 8 4 5 Celkem 34 36 70 f 11 =5 Muži Ženy Levorucí 5 13 18 Pravorucí 9 3 5 Celkem 34 36 70 Ženy Levorucí 4 14 18 Pravorucí 30 5 Celkem 34 36 70 Celkem Celkem Celkem Pozn.: Data jsou ve směru alternativní hypotézy až po vyčerpání možností buňky f 11. Marginální součty se nemění! f 11 =3 Muži Ženy Levorucí 3 15 18 Pravorucí 31 1 5 Celkem 34 36 70 f 11 = Muži Ženy Levorucí 16 18 Pravorucí 3 0 5 Celkem 34 36 70 f 11 =1 Muži Ženy Levorucí 1 17 18 Pravorucí 33 19 5 Celkem 34 36 70 f 11 =0 Muži Ženy Levorucí 0 18 18 Pravorucí 34 18 5 Celkem 34 36 70 Celkem Celkem Celkem Celkem

Párové testování dat na nominální škále McNamarův test = test symetrie* - jedná o typ designu, kdy na stejném objektu provádíme (postupně) buď dva zásahy (treatmenty) či na něm zjišťujeme dvě nominální veličiny Pokus (Proměnná) χ H 0 : (b-c)=0 => b:c=1:1 = úspěšnost (či lépe neúspěšnost) je stejná ( b + c) b = ( b + c) Pokus (Proměnná) 1 + - + a b - c d ( b + c) c + ( b + c) ( b c = b + c ) DF=1 * Alternativa: binomický test s H 0 : p(b)=p(c)=0,5, kde n=b+c Konkordantní (a+d;; souhlasná reakce) a diskordantní (b+c;; rozdílná reakce) páry. Pokud je platná H 0, pak očekávaný počet b a c je (b+c)/ POZOR: pozorování nejsou vzájemně nezávislá, nelze užít klasický test dobré shody!!! - obdobně lze provádět test pro více jak x kategorie = Bowkerův test Př.

Příklad: Sledujeme skupinu 18 pacientů, kteří byli léčeni dvěma různými hypertenzivy A a B. Každý pacient dostával po dobu 1 měsíce lék A a po odeznění případných účinků po dobu 1 měsíce lék B. Výsledek byl klasifikován jako úspěch (tlak snížen o více než 15 mm Hg) či neúspěch. Liší se léky v účinku? McNamarův test - příklad * H 0 : Úspěšnost obou léků je shodná H A : Úspěšnost léků není shodná Zaměříme se na pacienty vykazující u každého léku jiné výsledky (= diskordantní páry; b a c). χ =(b-c) /(b+c)=(3-9) /(3+9)=3,00 χ KRIT = 3,84 χ < χ KRIT Závěr: nezamítáme H 0

Poměr proporcí (relativní risk) a poměr šancí - alternativní míry závislosti v kontingenční tabulce Poměr pravděpodobností (populačních proporcí): p 1 /p, je-li výsledek škodlivý (diagnostika), pak se poměr nazývá relativní risk (relative risk) Poměr šancí (odds ratio;θ): poměr šancí za dvou rozdílných podmínek šance (odds): p 1 /(1-p 1 ), tj. poměr pravděpodobnosti, že jev nastane, k pravděpodobnosti, že nenastane Příklad (x tabulky, typ 1) Hmotnost novorozeněte (Samuels & Witmer 003, p. 445) nízká 37 Status kouření matky kuřačka (p 1 )=37/376= 0,064 nekuřačka 197 normální 3489 5870 celkem 376 6067 (p )=197/6067 =0,03 p1 1 p p 1 p Relativní risk mít novorozeně s menší hmotností je u matek-kuřaček x větší než u nekuřaček: p 1 /p = 0,064/0,03 = Poměr šancí mít novorozeně s menší hmotností u matek-kuřaček je cca x větší než u nekuřaček: θ = [p 1 /(1-p 1 )]/ [p /(1-p )]=0,0679/0,03356=,04 θ = 1

Testování shody empir. a teoret. rozdělení ordinální a kvantit. prom. Jak zjistit, zda-li existuje shoda mezi očekávanou a skutečně zjištěnou distribucí v pokusu, kde hodnotíme ordinální či kvantitativní proměnnou (tj. kategorie lze seřadit!!!) Kolmogorov-Smirnovův test (Kolmogorov-Smirnov test; K-S test) - test testuje shodu pozorované a očekávané kumulativní frekvenční distribuce - pro každou kategorii i určíme absolutní rozdíl mezi oběma distribucemi: d i = F i Fˆ i - největší rozdíl d MAX je považován za testovou statistiku, kterou porovnáme s tabulkovou hodnotou s parametry n (velikost souboru) a k (počet kategorií) Pokud dmax d KRIT, zamítáme H 0. Poznámka: postup pro kvantitativní proměnnou je složitější, než je uvedeno. Lze testovat i H 0 : dvě proměnné mají shodnou distribuci!!! A modifikací využít test pro zjištění normality rozdělení dat (tzv. Lillieforsův test).

Kolmogorov- Smirnovův test - tabulky kritických hodnot (část) Kumulativní teoretická distribuce Kumulativní empirická distribuce (Gotelli & Ellison 004, str. 381)

Kolmogorov-Smirnovův test - příklad Příklad: Studuji chutnost 5 typů stravy pro kočky lišící se pouze obsahem vody. Obsah je kvantifikován ordinální stupnicí o 5 stupních: 1 (mokrá) až 5 (suchá). Celkem jsem testoval těchto 5 typů stravy na 35 kočkách tak, že jsem každé kočce dal na výběr z těchto 5 druhů stravy a pozoroval její reakci (výběr). Ptám se: preferují kočky nějaký typ nebo ne? * (Zar 1999)

Statistické testy hypotéz týkající se kvantitativní a ordinální proměnné

Hypotézy o jednom výběru (One-sample hypotheses)

Neparametrický znaménkový test (the = Binomický test na p=0,5 (Binomial test) the Sign test) - uvažujeme náhodný výběr o rozsahu n ze spojitého rozdělení s mediánem M; test je vhodný pokud je proměnná silně asymetrická - nejobecněji testujeme, zda-li medián určený H 0 (tedy nabývající hodnoty a) leží ve středu výběru nebo ne (tj. H 0 : M=a) - test je slabý, zvl. pro malé n - testové kritérium: S + = počet rozdílů x i -a s kladným znaménkem platí-li li H 0, má binomické rozdělení Bi (n; 0,5) (tj. H 0 je ekvivalentní: p=0,5; = binomický test [Binomial test]). - POZOR!!!: n = původní n minus počet vyřazených hodnot (= hodnoty rovnající se hypotetizovanému mediánu) - oboustranný test: : H 0 zamítáme pokud S + S α(), n nebo S + n-s α(), n (viz tabulky, nad n>5 lze aproximovat normálním r.) - jednostranný test: : H 0 zamítáme pro (a) H A : M<a, když S + < S α(1), n nebo pro (b) H A : M>a, když S + > n-s α(1), n

Znaménkový test - příklad Byla měřena teplota těla (ve stupních Celsia) 5 náhodně vybraných krabů osídlujících příbojovou zónu vystavených prostředí se stálou experimentální teplotou vzduchu 4,3 0 C: 5,8; 4,6;,9; 5,1; 7,3; 4,0; 4,5; 3,9; 6,; 4,3; 4,6; 3,3; 5,5; 8,1; 4,8; 3,5; 6,3; 5,4; 5,5; 3,9; 7,0; 4,8;,9; 5,4 Je teplota krabů shodná s teplotou vnějšího prostředí? H 0 : M = 4,3 H A : M 4,3 Počet kladných rozdílů x i -4,3: 17 Počet záporných rozdílů x i -4,3: 7 Počet vyřazených hodnot (nulových rozdílů): 1 pak n = 4 kritická hodnota S pro n = 4 a oboustranný test na α = 0,05 je: 6 a 18 (pro jednostranný test na α = 0,05 pak 7 a 17) Závěr: 17 je méně extrémní než 18 - nezamítáme H 0 (oboustranný test)

Tabulky kritických hodnot pro znaménkový test - část

Parametrický Studentův t-testtest (One-sample t-test) test) Podmínky použití testu: 1. rozdělení sledované náhodné veličiny ve výběru by nemělo být příliš odlišné od normálního (test je ale robustní na odchylky );. prostý náhodný výběr Testování oboustranné hypotézy o průměru H 0 : x =µ 0 H A : x µ 0 x µ t 0 = s DF=n-1 s x Testování jednostranné hypotézy o průměru H 0 : x µ 0 H A : x < µ 0 x µ t 0 = s DF=n-1 s x Pokud t t α(),ν zamítáme H 0 Pokud t t α(1),ν zamítáme H 0 t t α(1),ν v případě H A: x > µ 0

Hypotézy o jednom výběru H 1 : µ>µ 0 Vztah tvaru hypotézy, hladiny významnosti a rozhodování H 1 : µ µ 0 H 1 : µ<µ 0 (Zvárová 001) Příklad: α=0,05, normální rozdělení N(0;1)

Doporučení pro užití t-testutestu Mimo případ malých rozsahů souboru je důležitější podmínka prostého náhodného výběru, než že populace má normální rozdělení. n < 15: použít t-test test pokud data mají ± normální rozdělení (zhruba symetrická, jeden vrchol, žádné odlehlé hodnoty), jinak ne n 15: užít t-test test mimo případy silně šikmého rozdělení či přítomnosti odlehlých hodnot velké výběry: t-test test lze užít i pro zešikmená data pokud je n 40

Jednovýběrový t-test test - příklad

Interval spolehlivosti pro populační průměr I. Víme, že 95% všech možných průměrů výběrů (o velikosti n) z populace s µ je přítomno v t-rozdělení v rozmezí -t 0,05(),ν a t 0,05(), P t x µ t 0,05(), ν 0,05(), ν = sx 0,95 0,05(),ν P ( ) x t s x t s 0, 95 µ + = 0,05(), ν x 0,05(), ν x = konfidenční interval pro průměr (Confidence limits) Na čem závisí šíře intervalu? se n šíře intervalu se s x šíře intervalu se α šíře intervalu

Interval spolehlivosti II. Kolik intervalů spolehlivosti nepokrývá populační průměr? Odpověď: α-procent Vygenerováno náhodně 50 výběrů o n=10 z populace se známým průměrem Za předpokladu, že známe σ, pak (Zvárová 001)

Tabulky Studentova rozdělení (Zar 1996,upraveno)

Testování proporce výsledku ( úspěchů ) v populaci zabýváme se proporcí p nějakého výsledku v populaci ( úspěch ) protože pracujeme s výběrem, ) n úspěch pak odhadem p je výběrová proporce p = n lze ukázat, že s rostoucím n se rozdělení výběrové proporce blíží rozdělení normálnímu s parametry µ = p a s = (p*(1-p)/ )/n) podmínky užití: prostý náhodný výběr, dostatečně velký výběr ) p p0 Statistický test pro proporci H 0 : p = p 0 využívá z- z= statistiku mající standardizované normální rozdělení: p0 ( 1 p0) použít jedině když np n 0 a n(1-p 0 ) 10 P-hodnoty pro test H 0 jsou:

Proporce populace - příklad Náhodný výběr mezi novorozenci zjistil mezi 5468 prověřenými 13173 chlapců. Publikované poznatky ukazují, že zastoupení chlapců a dívek není 1:1, ale že chlapci jsou v populaci četnější než dívky? Jak se shoduje pozorování s předpokladem? H 0 : p = 0.5 H A : p > 0.5 p ) = = 0. 517 z = p 0 ) p p ( n 1317 5468 0. 517 0. 5 ( 0. 5)( 0. 5) 5468 0 = =. 1 p0) 5 49 Z tabulek z-rozdělení vyčteme, že P (Z 5.49) je hodnota menší než 0.00. Zamítáme H 0 a říkáme, že chlapců je v populaci novorozenců více než 50%.

Statistická tabulka normovaného normálního rozdělení (z-rozdělení) (tabulka uvádí proporci normály, která leží za hodnotou z i (tj. je více extrémní) (Zar 1996)

Kvantitativní a ordinální proměnné Hypotézy o dvou výběrech znáhodněné uspořádání (Two sample hypotheses)

Parametrický dvouvýběrový t-testtest (two-sample t-test) Testování rozdílů mezi dvěma průměry průměry: oboustranná hypotéza H 0 : µ 1 µ =0 H A : µ 1 µ 0 H 0 : µ =µ 1 H A : µ 1 µ variance rozdílu mezi nezávislými proměnnými je rovna součtu variancí těchto proměnných: t-test test vyžaduje, aby σ 1 =σ, pak střední chyba rozdílu průměrů je: t= s x x 1 s x 1 x x sp x = + n 1 1 s p n Jak spočítat společnou varianci? (=sdružený odhad rozptylu): pokud t t α() (),ν... s p... zamítáme H 0 1) s n + ( n + n 1) s * otestovat F-testem (pro jednostranný test: je důležité sledovat orientaci H 0 a tedy i znaménko t- hodnoty, která není v absolutní hodnotě, viz jednostranný t-test test) = ( n 1 1 1

Nezávislost výběrů Dvouvýběrový t-testtest - nejsou-li výběry na sobě nezávislé, tj. oba např. obsahují měření stejného jedince, pak uvedený postup nemůžeme použít! Normální rozdělení Prosté náhodné výběry Shodné rozptyly ve skupinách Podmínky užití t-testu: testu: - rozdělení sledované náhodné veličiny v obou skupinách by nemělo být příliš odlišné od normálního - pokud by pozorování v některém výběru nebyla nezávislá, pak by mohlo dojít k neoprávněnému zmenšení odhadu rozptylu s. Mohl by tedy vyjít významný rozdíl, přestože by ve skutečnosti rozdíl nebyl. - pokud se rozptyly v obou skupinách výrazně liší, můžeme použít modifikaci dvouvýběrového t testu. V tomto případě dostaneme odlišný počet stupňů volnosti.

A co když není splněna podmínka rovnosti variancí? užíváme Welchovu* aproximaci t-testutestu t = x s n + x 1 se speciálně počítanými stupni volnosti df = SE 4 1 1 1 s n ( SE1+ SE /( n 1) + SE 1 4 ) /( n 1) SE = střední chyba průměru (*též známa pod názvem Satterthwaite s methods )

Dvouvýběrový t-test: test: jednostranná hypotéza; příklad 1

Dvouvýběrový t-test; test; příklad Existují rozdíly v hmotnosti žen a mužů studujících. ročník biologie na UP? Descriptive Statistics Section Standard Standard 95.0% LCL 95.0% UCL Variable Count Mean Deviation Error of Mean of Mean pohlavix=m 16 70.315 8.364359.09109 65.85545 74.76955 pohlavix=ž 1 59.41667 8.061788.3738 54.9445 64.53888 Tests of Assumptions Section Assumption Value Probabilit y Decision(.050) Skewness Normality (pohlavix=m) -1.469 0.143505 Cannot reject normality Kurtosis Normality (pohlavix=m) 0.9918 0.31314 Cannot reject normality Omnibus Normality (pohlavix=m) 3.136 0.09763 Cannot reject normality Skewness Normality (pohlavix=ž) 0.0858 0.9316 Cannot reject normality Kurtosis Normality (pohlavix=ž) 0.4145 0.678507 Cannot reject normality Omnibus Normality (pohlavix=ž) 0.179 0.914309 Cannot reject normality Variance-Ratio Equal-Variance Test 1.0765 0.9086 Cannot reject equal variances Modified-Levene Equal-Variance Test 0.003 0.9567 Cannot reject equal variances Equal-Variance T-Test Section hmotnostx Proveden náhodný výběr 8 osob (16 mužů a 1 žen) Error Bar Plot 75.0 70.0 65.0 60.0 55.0 m pohlavix ž Alternative Prob Reject H0 Hypothesis T-Value Level at.050 Difference <> 0 3.4636 0.00186 Yes Difference < 0 3.4636 0.99907 No Difference > 0 3.4636 0.00093 Yes Difference: (pohlavix=m)-(pohlavix=ž) Aspin-Welch Unequal-Variance Test Section Alternative Prob Reject H0 Hypothesis T-Value Level at.050 Difference <> 0 3.486 0.001898 Yes Difference < 0 3.486 0.999051 No Difference > 0 3.486 0.000949 Yes hmotnostx 85.0 71.7 58.3 45.0 m Box Plot pohlavix ž

Test shody rozptylů (variancí): F-test F-test* H 0 : σ 1 = σ H A : σ 1 σ F s = 1 s obou Studovaná veličina (F) má tzv. Fisher-Snedecorovo je-li li F test F α(), ),ν1, 1,ν Použijeme pouze na data kvantitativní. Lze použít i jednostranný test kde v čitateli je větší z obou s!!!!! Snedecorovo (F) rozdělení se dvěma parametry: stupni volnosti čitatele a jmenovatele... zamítáme H 0 test je slabý, velmi náchylný na nedodržení normálního rozdělení srovnávaných souborů, zvl. pro malé soubory *Alternativou jak porovnat rozptýlenost ve skupinách měření je užít Levenův test (Levene test): ten lze užít najednou i pro více jak soubory, je robustní na odchylky od normálního rozdělení, více zde.

F-rozdělení- tabulky (část) 1 3 4 5 6 8 10 1 161,45 199,50 15,71 4,58 30,16 33,99 38,88 41,88 18,51 19,00 19,16 19,5 19,30 19,33 19,37 19,40 3 10,13 9,55 9,8 9,1 9,01 8,94 8,85 8,79 4 7,71 6,94 6,59 6,39 6,6 6,16 6,04 5,96 5 6,61 5,79 5,41 5,19 5,05 4,95 4,8 4,74 6 5,99 5,14 4,76 4,53 4,39 4,8 4,15 4,06 7 5,59 4,74 4,35 4,1 3,97 3,87 3,73 3,64 8 5,3 4,46 4,07 3,84 3,69 3,58 3,44 3,35 9 5,1 4,6 3,86 3,63 3,48 3,37 3,3 3,14 10 4,96 4,10 3,71 3,48 3,33 3, 3,07,98 11 4,84 3,98 3,59 3,36 3,0 3,09,95,85 1 4,75 3,89 3,49 3,6 3,11 3,00,85,75 13 4,67 3,81 3,41 3,18 3,03,9,77,67 14 4,60 3,74 3,34 3,11,96,85,70,60 15 4,54 3,68 3,9 3,06,90,79,64,54 16 4,49 3,63 3,4 3,01,85,74,59,49 17 4,45 3,59 3,0,96,81,70,55,45 18 4,41 3,55 3,16,93,77,66,51,41 19 4,38 3,5 3,13,90,74,63,48,38 0 4,35 3,49 3,10,87,71,60,45,35 1 4,3 3,47 3,07,84,68,57,4,3 4,30 3,44 3,05,8,66,55,40,30 3 4,8 3,4 3,03,80,64,53,37,7 4 4,6 3,40 3,01,78,6,51,36,5 5 4,4 3,39,99,76,60,49,34,4 30 4,17 3,3,9,69,53,4,7,16 35 4,1 3,7,87,64,49,37,,11 40 4,08 3,3,84,61,45,34,18,08 45 4,06 3,0,81,58,4,31,15,05 50 4,03 3,18,79,56,40,9,13,03 60 4,00 3,15,76,53,37,5,10 1,99 70 3,98 3,13,74,50,35,3,07 1,97 80 3,96 3,11,7,49,33,1,06 1,95 90 3,95 3,10,71,47,3,0,04 1,94 100 3,94 3,09,70,46,31,19,03 1,93

Interval spolehlivosti pro rozdíl mezi dvěma průměry d ± t α, n 1+ n s x 1 x d =µ 1 µ Pokud neexistuje významný rozdíl mezi průměry výběrů, lze očekávat, že interval spolehlivosti pro rozdíl středních hodnot bude zahrnovat nulu.

Neparametrický Mann-Whitney U-test - místo změřených hodnot pracujeme s jejich pořadím - data seřadíme sestupně či vzestupně (zde sestupně) bez ohledu na různé soubory - Co testujeme: H 0 :Rozdělení obou skupin je shodné (mediány se rovnají*). H A :Rozdělení obou skupin se liší (mediány se liší*). U = n n + 1 U = n n + 1 n n ( n + 1) 1 1 ( n + 1) R i = součet pořadí v souboru i n i = počet prvků v souboru i U + U = n 1 n ;hodnoty se pohybují v intervalu 0; n 1 n větší z obou U porovnáme s kritickou hodnotou U α(),n1,n je-li U či U > U, krit zamítáme H 0 (v případě řazení vzestupného hledáme menší z obou U) R R (stejným hodnotám dáváme průměrné pořadí) * tato hypotéza má jeden specifický předpoklad: rozdělení hodnot (distribuce) je shodné u obou skupin, a liší se jen pozicí mediánu, což většinou nebývá splněno, proto se používá obecnější hypotéza 1

U-test: příklad (Komenda 1994)

U-test: tabulky - část

Kvantitativní a ordinální proměnné Hypotézy o dvou výběrech blokové (= párové) uspořádání

Testování průměrného rozdílu: Oboustrannýný test: parametrický párový t-test test (paired t-test) - v testu neužíváme původní změřené hodnoty, ale rozdíly příslušných párů pozorování (měření; d i ) H : 0 µ = 0 d H : A µ d 0 Jednostranný test: H : 0 µ d 0 H : A µ d < 0 je-li t > t test α() zamítáme H 0 (),ν t = d s d ν = n-1 1 párů (nebo obráceně) Pokud t t α(1),ν zamítáme H 0 t t α(1),ν v případě H A: µ d > 0

Párový t- test: příklad H 0 : Není rozdíl v účinku přípravků A a B. H A : Je rozdíl v účinku přípravků A a B. Postup: 1. spočítáme průměr rozdílů. spočítáme standardní odchylku a standardní chybu: Průměr s s x 4 4.309458 1.536 3. dosadíme do vzorce t-testu: testu: t = 4/1,5 =,65 4. porovnáme s kritickou hodnotou t 0,05(), 7 =,365... t>t krit - zamítáme H 0

Neparametrický Wilcoxonův pořadový test Co se testuje: H 0 : Není systematická diference uvnitř párů (medián rozdílů M je nulový). H 1 : Je systematická diference uvnitř párů (medián rozdílů M je různý od nuly). - testovací procedura zahrnuje počítání rozdílů, jimž se přiřadí pořadí bez ohledu na znaménko od nejmenšího po největší - sečtou se pořadí se znaménky + a - zvlášť výsledek jsou testové statistiky T + a T - Oboustranný test: je-li menší z obou T < T α(), (),n...zamítáme H 0 Jednostranný test: : H 0 zamítáme pro (a) H A : M<a, když T + < S α(1), n nebo pro (b) H A : M>a, když T + > n-s α(1), n

Wilcoxonův pořadový test - příklad

Wilcoxon test: tabulky - část

Tří a více souborů ordinální nebo kvantitativní proměnné - statistické testy

Analýza variance (Analysis of variance; ANOVA) -máme-li více než dva výběry, testování rozdílů mezi průměry provádíme vždy analýzou variance, ne testováním dílčích hypotéz vždy pro dva výběry PROČ? Nejsme schopni udržet chybu I. druhu na požadované hladině pro všechny prováděné testy!!! Počet testů Pravděpodobnost výskytu alespoň 1 chyby I. druhu (α=0,05) 3 0,14 10 0,40 45 0,90 c 1-(1-α) C - rozlišujeme jedno (one-way) a více-cestné cestné (multiple, multifactor) ANOVy rozumíme tím (simultánní) analýzu vlivu jedné či více kategoriálních proměnných (faktorů, prediktorů) na závislou kvantitativní nebo ordinální proměnnou různé úrovně daného faktoru se nazývají hladiny (treatment level) (zde na okraj: existují i jiná - složitější - uspořádání ANOVy!!!)

ANOVA - příklady Příklad č. 1: liší se průměrný počet květů jedinců vstavače pleťového mezi 5 populacemi? Řešení: jednocestná ANOVA, faktor: populace, počet hladin: 5 (populací) Příklad č. : jaký je vliv 3 druhů hnojiv a 3 intenzit zálivky na růst vybraného druhu? Možné (vhodnější) řešení: jeden pokus (a ne dva nezávislé pokusy!!!), dvoucestná ANOVA, faktor č. 1: hnojení, počet hladin: 3 (např. hnojivo 1, hnojivo, hnojivo 3), faktor č. : zálivka, počet hladin: 3 (např. kontrola, zálivka malým a větším množstvím vody) jejich kombinace 3x3 hladiny = 9

Jednocestná ANOVA (One-way ANOVA) - testujeme vliv alespoň (nejčastěji 3 a více) hladin jednoho faktoru na kvantitativní proměnnou H : µ =µ =...=µ 0 1 k k = počet hladin faktoru (tj. počet srovnávaných souborů) PŘEDPOKLADY ANOVy: výběry pocházejí z téhož normálního rozdělení (a mají tedy stejný parametr = střední hodnotu), vyplývá z toho též rovnost (jejich) variancí σ 1 =σ =...=σ * k znáhodněné uspořádání pokusu (hodnoty jsou vzájemně nezávislé)!!! reziduály jsou normálně distribuovány vzorky jsou korektně klasifikovány otestovat tuto hlavní efekty jsou aditivní (+!!! předpoklad pro náš výklad: n 1 =n =...=n k ) např. *Doporučuje se hypotézu pomocí např. Bartletova testu

Jednocestná ANOVA Pokud platí H 0, měly by být výběry identické. Pak lze na všechny výběry pohlížet jako na výběry vybrané z jedné a téže populace. Pak máme dva alternativní způsoby, jak odhadnout varianci σ této populace: 1. průměrný rozptyl všech výběrů s p, nebo. usuzovat ze zjištěného s x zjištěného rozptylu mezi průměry výběrů Je-li H 0 pravdivá, tyto dva odhady by měly být stejné!!!

Dělení variability v Anově Vždy 3 soubory ploch pod vlivem 3 hladin hnojiva: A (plocha 1-10), 10), B (11-0) a C (1-30). Datový příklad 1 Datový příklad x µ Variabilita kolem celkového průměru x (grand mean) x i Variabilita kolem průměrů skupin x i (souborů, treatmentů) (Grafen & Hails 00, str.5,6, upraveno)

ANOVA jak je to s těmi variancemi Každá odchylka konkrétní hodnoty od celkového průměru lze rozložit na: ( xij x) = ( xij xi) + ( xi x) Pak celkový součet čtverců SS TOT reprezentuje celkovou variabilitu souboru dat = = součet čtverců uvnitř skupin SS E + součet čtverců mezi skupinami SS G k n i k SS E = ( xij xi) SSG= ni( xi x) i= 1 j= 1 i= 1 Stupně volnosti: DF TOTAL =DF E +DF G k DFE= ( ni 1) = N k i= 1 SS DFG= k 1 kde k=počet skupin, n i =velikost skupiny i, N=počet všech hodnot (tj. suma n i ) TOT = n i= 1 ( x ij x )

ANOVA jak je to konečně s těmi variancemi Model: X ij = µ+ + A i + ε ij Průměrný čtverec uvnitř skupin (= s p ) SS E SS E MS E= = DF N k E Průměrný čtverec mezi skupinami (= s x ) SSG SSG MSG= = DF k 1 Připomeneme: Je-li H 0 pravdivá, tyto dva odhady by měly být stejné!!! Jejich poměr by tak měl být roven zhruba jedné. Toto porovnání provedeme pomocí F-testu: F = MS MS G E Model v případě platnosti H 0 : X ij = µ+ ε ij G je-li F F α(1),(k 1),(Ν 1),(Ν k) zamítáme H 0