ZÁKLADY STATISTIKY
ZÁKLADY STATISTIKY 1 strana Obsah... 1 I. teoretická část Práce s daty v softwarovém prostředí Microsoft Office Excel a Statistika 6.0... 1 Abecední slovníček vybraných termínů používaných ve statistice... Koeficienty efekt size jako vodítko pro posuzování věcné významnosti statisticky testovaných rozdílů... 14.1 Korelační koeficient r P a r S... 14. Koeficient determinace d... 16.3 Další koeficienty efekt size - kritéria pro jejich výběr a hodnocení efektu... 17 3 Microsoft Office Excel... 3.1 Představení... 3. Příklad Efekt dvouměsíčního intervenčního programu aerobiku na habituální pohybovou aktivitu děvčat ve věku 15-19 let... 4 3..1 Příprava dat do tabulky... 4 3.. Výpočet základních charakteristik (aritmetický průměr, směrodatná odchylka a korelační koeficient)... 5 4 Statistika 6.0... 31 4.1 Představení... 31 4. Příprava dat to tabulky... 31 4.3 Uložení tabulky dat v Excelu a import do Statistiky... 34 4.4 Výpočet základních popisných statistických proměnných ve Statistice... 36 4.5 Použití ANOVY ve Statistice... 38 4.5.1 Vytvoření identifikační (grupovací, faktorové) proměnné... 38 4.5. Výpočet ANOVY... 40 II. praktická část Ukázka použití statistického zpracování dat v konkrétním článku.... 44 5 Příklad Efekt dvouměsíčního intervenčního programu aerobiku na habituální pohybovou aktivitu děvčat ve věku 15-19 let... 44 5.1 Abstrakt... 44 5. Abstract... 45 5.3 Úvod... 45 5.4 Metodika... 47 5.4.1 Účastníci... 47 5.4. Přístroje a dotazníky... 47 5.4.3 Postup...... 48 5.4.4 Softwarové a statistické zpracování dat... 49 5.5 Výsledky... 49 5.6 Diskuse... 53 5.7 Limity a doporučení práce... 55 5.8 Závěry... 55 5.9 Referenční seznam... 55
ZÁKLADY STATISTIKY I teoretická část Práce s daty v softwarovém prostředí Microsoft Office Excel a Statistika 6.0 1 Abecední slovníček vybraných termínů používaných ve statistice Analýza variance=rozptylu (jednofaktorová ANOVA; vícefaktorová MANOVA) Progresivní statistická metoda umožňující zjistit zda mezi dvěma nebo více metrickými proměnnými jsou významné rozdíly. Progresivita této metody spočívá ve skutečnosti, že nesrovnáváme přímo aritmetické průměry, ale rozptyly, které přesněji než aritmetický průměr charakterizují rozptýlenost nebo blízkost dat okolo aritmetického průměru. Základní myšlenkou analýzy variance je práce se dvěma rozpyly. Máme-li soubor metrických dat, který je rozdělěn do dvou či více skupin, pak můžeme vypočítat dva na sobě nezávislé odhady rozptylů: (a) mezi průměry skupin, (b) uvnitř skupin. Rozptyl uvnitř skupin lze vypočítat tak, že nejdříve vypočítáme rozptyly pro všechny skupiny a z nich pak určíme průměr. Tento rozptyl uvnitř skupin je lepším a spolehlivějším odhadem, protože není ovlivněn možnými rozdíly mezi skupinami a je dán pouze náhodným kolísáním dat. Naproti tomu je rozptyl mezi průměry skupin závislý na rozdílech mezi skupinami. Jestliže je rozptyl mezi skupinami významně vyšší než rozptyl uvnitř skupin, znamená to, že skupiny nejsou náhodnými výběry z téhož základního souboru (tzn. výsledky ve skupinách se statisticky významně liší). K objektivnímu posouzení poměru obou rozptylů se používá F-testu: rozptyl mezi skupinami F přibližně platí, že při F 4 je p 0,05 rozptyl uvnitř skupin Podmínky užití analýzy variance jsou následující: o metrická data o náhodné rozdělení dat o homogenita (rovnost) rozptylu uvnitř skupin (ANOVA nevyžaduje stejné počty prvků n ve srovnávaných souborech. Avšak výrazná odlišnost v počtu prvků mezi srovnávanými soubory (n=30 n=500; n=80 n=1000) může narušit podmínku homogenity rozptylu uvnitř skupin. Proto se při plánování výzkumu snažme užívat alespoň přibližně stejně velké soubory (Lepš, 1996). Při nesplnění podmínek ANOVY lze použít neparametrickou obdobu Kruskal-Wallisův test. Při testování vlivu jednoho faktoru, např. pohlaví, tělesné zdatnosti či věku, samostatně používáme jednofaktorovou analýzu variance (ANOVA). Při testování současného vlivu faktorů (např. pohlaví tělesná zdatnost, pohlaví věk, pohlaví tělesná zdatnost věk) využijeme vícefaktorovou analýzu variance (MANOVA). EXCEL: STATISTICA: Vložit funkci Statistické FTEST Statistika ANOVA jednofaktorová (vícefaktorová) ANOVA Aritmetický průměr je definován jako součet všech naměřených údajů vydělený jejich počtem (Hendl, 004, 93). Základní charakteristika míry polohy metrických dat (měření). M n x M - aritmetický průměr i i x 1 i - naměřené hodnoty proměnné x n n - počet prvků v souboru
ZÁKLADY STATISTIKY 3 EXCEL: STATISTICA: Vložit funkci Statistické PRŮMĚR Statistika Základní statistiky/tabulky Popisné statistiky Hladina spolehlivosti je pravděpodobnost, s jakou zjistíme tytéž výsledky pro danou proměnnou při opakovaném provádění výběru z téhož základního souboru. Nejpoužívanější hladiny jsou 90 %, 95 % nebo 99 %. Pracujeme-li s 95 % hladinou spolehlivosti, znamená to, že ze 100 opakovaných výběrů v 95 případech zjistíme tytéž výsledky pro danou proměnnou (Hendl, 004; Chráska, 000). Hladina významnosti Rozhodování o platnosti nulové, resp. alternativní hypotézy má vždy pravděpodobnostní charakter. Pravděpodobnost (riziko), že neoprávněně odmítneme nulovou hypotézu (a tudíž nesprávně přijmeme alternativní hypotézu) se nazývá hladina významnosti (Chráska, 000, 160). Jestliže provedeme test významnosti na hladině významnosti 0,05, znamená to, že pravděpodobnost, že nesprávně přijmeme alternativní hypotézu je 5 % (jinak řečeno: nulovou hypotézu odmítáme s jistotou 95 %) (Chráska, 000, 160). je pravděpodobnost, že se zamítne nulová hypotéza, ačkoliv ona platí. Tato hladina se volí velmi malá, např. 0,05 nebo 0,01 (Hendl, 004, 177). Uvedeme-li, že testovaná proměnná je významná na hladině pěti procent, myslíme tím, že pozorovaná odchylka od nuly bude překročena v méně než v pěti procentech podobných výběrů, je-li nulová hypotéza správná, popř. že si můžeme být jisti na 95 procent, že je nulová hypotéza nesprávná (Lindquist, 1967, 30). Dále podle Lindquista (1967, 30) platí, že při normálním rozložení dat musí být testovaná proměnná,576krát větší než její standardní chyba, má-li být významná na jednoprocentní hladině, nebo 1,960krát větší než její standardní chyba, má-li být významná na pětiprocentní hladině. Hypotéza Hypotéza vzniká na základě prostudované literatury, kdy je již čtenář zorientován ve sledované problematice a může si vytvořit předběžné názory na vazby mezi jednotlivými proměnnými, na kauzalitu studovaných jevů, na možná řešení zkoumaného problému (Pelikán, 004, 4). Nikdy nemůžeme změřit, otestovat celou populaci (základní soubor), ale pouze její náhodně, záměrně, stratifikovaně či kontrolovaně vybranou část (Lindquist, 1967). Přesto nás zajímá jak by dopadlo měření kdybychom místo vybrané části testovali celou populaci. Také proto formulujeme hypotézy, abychom se pokoušeli zjištěné skutečnosti zobecňovat na celou populaci. Ukázkovými příklady jsou předvolební průzkumy, kde na základě dotazování u náhodné části populace se usuzuje na volební výsledky populace celorepublikové. Hypotéza je podle Pelikána (004, 44) podmíněným výrokem o vztazích mezi dvěma nebo více proměnnými hypotéza je vždy tvrzením, byť i podmíněně formulovaným. Podle Chrásky (000, 11) hypotézami rozumíme pokusné, předběžné, prozatímní odpovědi na položené otázky. Hypotézy jsou predikcemi (předpověďmi o vztazích mezi proměnnými. Hypotéza tedy říká, že nastane-li jev A, nastane také jev B. Hypotézy dělíme na hypotézy nulové a alternativní. Nulová hypotéza je domněnka, která prostřednictvím statistických termínů tvrdí, že mezi proměnnými, které zkoumáme, není žádný vztah (Chráska, 000, 159). Obsahuje termíny: neovlivňuje, neexistuje vztah, není rozdíl apod. Další podobou hypotézy je hypotéza alternativní. V její formulaci již badatel předpokládá významnou vazbu mezi proměnnými a může stanovovat i směr ovlivnění prostřednictvím termínů: zvýší, sníží, nezvýší, nesníží, apod.
ZÁKLADY STATISTIKY 4 Alternativní hypotéza H 1 znamená situaci, kdy nulová hypotéza H 0 neplatí. Obvykle se vyjadřuje jako existence diference mezi skupinami nebo existence závislosti mezi proměnnými. Nemusí jít o přesný logický opak nulové hypotézy, protože někdy máme důvod pracovat s tzv. jednostrannou alternativní hypotézou (jestliže nulová hypotéza říká, že neexistuje rozdíl mezi středními hodnotami pro dvě populace, pak jednostranná alternativní hypotéza může např. tvrdit, že druhá populace má střední hodnotu vyšší) (Hendl, 004, 176-177). Gavora (000, 53) stanovuje tzv. zlatá pravidla hypotézy. 1. Hypotéza je tvrzení. Vyjadřuje se oznamovací větou. Na konci výzkumu musíme toto tvrzení přijmout (je to pravda) nebo vyvrátit (není to pravda).. Hypotéza vyjadřuje vztah mezi dvěma proměnnými. 3. Hypotéza se musí dát testovat (empiricky zkoumat). Její proměnné se musí dát měřit nebo kategorizovat. Frömel (00) klade tyto hlavní požadavky na správnou formulaci hypotéz: vědeckost cílem ověření hypotézy jsou nová fakta, která utvářejí základ nové vědecké teorie. V případě diplomových prací se však jedná většinou o potvrzení platné hypotézy v jiných podmínkách, ověření dílčích hypotéz. Plodnost hypotézy je právě v přínosu nových poznatků, neměli by se proto objevovat hypotézy nelogické a tautologické. Výrok typu zařazení posilovacích cvičení do tréninkového procesu basketbalistů zvýší silový základ a celkovou zdatnost hráčů je špatnou hypotézou a navíc hypotézou tautologického typu. Posilovací cvičení je určeno k tomu, aby zlepšilo silové schopnosti. Navíc jsou v hypotéze uvedené dvě závislé proměnné (silový základ a celková zdatnost). jednoznačnost správná hypotéza je vždy založena na vztahu nezávisle a závisle proměnné. Nezávisle proměnná je vlastnost (jev), která je příčinou nebo podmínkou vzniku jiné vlastnosti (jevu). Závisle proměnná je vlastnost, která je výsledkem (následkem, důsledkem) působení nezávisle proměnné (Chráska, 000, 11). Proměnné jsou jednoznačně a jednosměrně vymezeny bez dalších doplňujících vazeb či podmínek. Nestačí proměnnou pouze pojmenovat, ale je třeba ji jednoznačně vymezit (je třeba jednoznačně říci, co jí myslíme) (Chráska, 000, 33). Nejstručněji vyjádřeno, když nastane A, změní se B nebo když nastane A, tak B bude lepší než... Kerlinger (197, 35) uvádí, že...hypotézy jsou v podstatě predikcemi tvaru 'jestliže A, pak B které zavádíme, abychom ověřovali vztahy mezi A a B. Zpravidla se jedná o jasně vymezený vztah (závislost, souvislost), rozdíl nebo shodu, případně důsledek nebo příčinu. Hypotéza nesmí formulačně umožňovat alternativní výklad. ověřitelnost každou hypotézu musí být možno ověřit (nebo vyvrátit). Nejsou přípustné tzv. metafyzické hypotézy např. hypotéza o existenci Boha je metafyzickou hypotézou. Současnými měřitelnými nástroji vědy nelze tuto hypotézu ověřit či vyvrátit. Neověřitelné hypotézy jsou např. pro dosud nevypracované potřebné výzkumné techniky, pro množství zcela nekontrolovatelných proměnných, pro nereálnost ověřování v přirozených podmínkách, z etických důvodů apod. Při uvedení hypotéz je pro jejich vyšší názornost a úplnost často vhodné doplnění o vysvětlující komentář obsahující např. stanovení hladiny statistické významnosti, na které budu tvrzení hypotézy vyvracet nebo přijímat, bližší charakteristiku proměnných, stanovení věcné (logické, empirické) významnosti rozdílů, apod. Pokud hypotéza obsahuje proměnnou např. bolestivost, zkrácení (kterou určuje více charakteristik - například 3) je v komentáři nutné zdůraznit za jakých podmínek hypotézu potvrdím či nepotvrdím (např. u všech 3 charakteristik najdu signifikantní rozdíl či stačí aby ze 3 byly signifikantně rozdílné). Diplomové práci prospěje, když jsou hypotézy doplněny zdůvodněním, popřípadě i doplňujícím výkladem. Jsou-li hypotézy vytčeny, musí být v práci uvedeno, zda byly
ZÁKLADY STATISTIKY 5 potvrzeny nebo vyvráceny. Hypotézy nelze potvrzovat částečně, téměř, s výjimkami apod. Frömel, 00, 33). Kruskal-Wallisův test Jedná se o neparametrickou verzi jednofaktorové analýzy variance ANOVA. Používá se při nesplnění podmínek pro použití ANOVY (nejen pro metrická data, která mají náhodné rozdělení a jejichž rozptyly uvnitř skupin jsou přibližně stejné). Při použití Kruskal- Walisova testu nulová hypotéza předpokládá, že měření ve skupinách mají stejné mediány (Hendl, 004, 347). Protože pracujeme na úrovni ordinálního měření, nejdříve uspořádáme všechna data podle velikosti. Pak nahradíme jejich hodnoty pořadími a vypočítáme koeficienty SR i jako součty pořadí dat ve skupině i. Podle následujícího vzorce spočítáme tetsovací kritérium H, která udává rozdílnost aritmetických průměrů pořadí ve skupinách: H 1 n n 1 n i1 SRi n i 3 n 1 přibližně platí, že při H 4 je p 0,05 STATISTICA: Statistika Neparametrická statistika Porovnávání více nezávislých vzorků (skupiny) Kruskal-Wallisova ANOVA & mediánový test Mann-Whitneyův test Jedná se o neparametrickou obdobu T-testu pro nemetrická data. Slouží ke srovnání mediánů dvou nezávislých proměnných. Předpokladem je pouze skutečnost, že obě proměnné pocházejí ze dvou různých souborů (nemusí mít normální rozdělení dat). Nulovou hypotézu testujeme pomocí testového kritéria U, které vypočítáme z rovnice: U n 1 n n 1 n 1 1 R 1 U n 1, R i - testové kritérium - součet počtu pozorování první a druhé proměnné - součet pořadí první proměnné STATISTICA: Statistika Neparametrická statistika Porovnání dvou nezávislých vzorků (proměnné) Mann-Whitneyův U test Medián znamená hodnotu, jež dělí řadu podle velikosti seřazených výsledků na dvě stejně početné poloviny (Hendl, 004, 94). Charakteristika míry, která se používá u ordinálních dat (měření). Na rozdíl od aritmetického průměru je medián málo citlivý k odlehlým hodnotám. EXCEL: STATISTICA: Vložit funkci Statistické MEDIAN Statistika Základní statistiky/tabulky Popisné statistiky Měření (data) je přiřazování čísel předmětům nebo jevům podle pravidel (Kerlinger, 197, 404). Při měření se v podstatě snažíme pozorovanou vlastnost jevu nebo předmětu vyjádřit pomocí číselné hodnoty. Stanovení pravidla pro přiřazování je nejdůležitější a zároveň nejobtížnější částí měření (Chráska, 000, 38). Při zkoumání reality se často setkáváme se situacemi, kdy
ZÁKLADY STATISTIKY 6 proměnnou, kterou chceme zachytit, nelze přímo měřit (tvořivost, nálada, subjektivní pocit bolesti pacienta, sebevědomí, apod.). V těchto případech měříme ukazatele (indikátory), které s velkou pravděpodobností s danou proměnnou souvisejí. Podle přiřazování čísel objektům a jevům rozlišujeme následující úrovně měření: nominální (klasifikace) čísel se zde používá pouze pro označení proměnné např. označení pohlaví (1 muž, žena), plavecké dovednosti (1 plavec, neplavec), výskytu (1 má, nemá). Nominální měření (data) umožňují pouze třídění, čísla nemají kvantitativní význam, můžeme je nahradit písmeny nebo jinými symboly. POZOR nelze s nimi jako s čísly počítat. použitelná statistika: modus, četnost jednotlivých číselných symbolů, sčítání četností v každé kategorii, frekvenční statistika chí-kvadrát, výpočet procent % apod. ordinální (pořadí) čísla se objektům přiřazují tak, že vyjadřují pořadí podle daného kritéria např. seřazení žáků podle tělesné výšky (1 nejvyšší žák 8 nejnižší žák ve třídě), pořadí zapojování svalů (1 první, druhý 9 poslední). POZOR tato čísla však poskytují informaci pouze o pořadí měřených objektů, nikoli o velikostech rozdílů mezi nimi (Chráska, 000, 40). použitelná statistika: medián, kvartilová odchylka, Spearmanův koeficient pořadové korelace r S, Wilcoxonův párový test, Mann-Whitneyův U-test, Kruskal Wallisův test. V některých případech se však používají i postupy, které předpokládají intervalové měření (aritmetický průměr, směrodatná odchylka apod.). intervalové přiřazujeme čísla tak, že vyjadřují kvantitativní míru vlastnosti (jevu) i velikost rozdílů mezi nimi. Je zde definovaná jednotka měření, která však nemá přirozený nulový bod. Čísla získaná intervalovým měřením LZE sčítat +, odečítat -, NELZE je ale násobit a dělit: použitelná statistika: aritmetický průměr, směrodatná odchylka, Pearsonův součinový korelační koeficient r P, Studentův t-test, F-test, analýza rozptylu atd. poměrové přiřazené hodnoty čísel vyjadřují kvantitativní míru vlastnosti i velikosti násobků mezi nimi. Kromě přesně definované jednotky měření, zde existuje i přirozená nula. Lze využívat všech vlastností reálných čísel (+, -,, :,, ). Jednotlivé výsledky poměrového měření lze srovnávat na základě otázek o kolik, ale i kolikrát (Chráska, 000, 41). Měření intervalová a poměrová se souborně označují jako měření metrická. použitelná statistika: lze využít všech výše uvedených procedur. Použijeme-li však pro poměrová data postupy určené pro data ordinální nebo nominální, dochází vždy k určité ztrátě informace. Millova pravidla Ačkoli současná statistika umožňuje přesnější analýzu příčin a účinků jevů Millova pravidla (především pravidla jediné shody a jediného rozdílu) lze využít již při předběžných úvahách o možných příčinách určitých jevů a při plánování upořádání výzkumného projektu. pravidlo jediné shody Mají-li dva nebo více případů společnou jedinou okolnost, je právě tato okolnost příčinou nebo účinkem jevu. Uplatňuje-li se u zkoumaných objektů jediný shodný zásah (ostatní podmínky přitom zůstávají nezměněny), potom můžeme předpokládat, že právě tento zásah je příčinou nebo účinkem změn, které u objektů pozorujeme (Chráska, 004, 36). pravidlo jediného rozdílu Mají-li dva případy (jeden, v němž se zkoumaný jev vyskytuje, a druhý, v němž se nevyskytuje) všechny okolnosti společné až na jednu, která se objevuje jen v prvním případě, pak tato jediná okolnost, jíž se oba případy liší, je účinkem nebo příčinou jevu (Chráska, 004, 36). pravidlo kombinace shody a rozdílu Mají-li dva nebo více zkoumaných případů, v nichž se vyskytuje určitý jev, pouze jednu společnou okolnost, kdežto dva nebo více
ZÁKLADY STATISTIKY 7 případů, v nichž se jev nevyskytuje, mají společné jenom to, že se u nich tato okolnost neobjevuje, pak právě tato okolnost, jíž se obě skupiny případů liší, je účinkem nebo příčinou zkoumaného jevu (Chráska, 004, 36). pravidlo sdružených změn Jestliže se určitý jev jakýmkoli způsobem mění a vždy se také mění jiný jev nějakým způsobem, pak je první jev příčinou nebo účinkem tohoto jevu, anebo je sním spojen nějakým příčinným vztahem (Chráska, 004, 36-37). Model Zjednodušená grafická nebo slovní charakteristika použitých proměnných a jejich vzájemných vztahů. Modus Hodnota proměnné, která se v daném souboru vyskytuje nejčastěji. Charakteristika míry, která se používá u nominálních dat (měření). EXCEL: STATISTICA: Vložit funkci Statistické MODE Statistika Základní statistiky/tabulky Popisné statistiky Post-hoc testy Při statistickém srovnávání aritmetických průměrů dvou proměnných nám výsledné testové kritérium (t t-testu, F ANOVY, T Wilcoxonova testu, H Kruskal-Wallisova, U Mann-Whitneyho testu apod.) přímo vypovídá o statistické významnosti (či nevýznamnosti) rozdílů těchto proměnných. Avšak při statistickém srovnávání aritmetických průměrů více než dvou proměnných nás kromě výsledného testového kritéria především zajímá konkrétně mezi kterými aritmetickými průměry je či není statisticky významný rozdíl. K tomuto určení nám slouží post-hoc testy, které pomocí kombinační tabulky zobrazí hladiny statistické výzmanosti p mezi všemi aritmetickými průměry srovnávaných proměnných. Podle síly testu (od nejsilnějšího, nejkonzervativnějšího po nejměkčí, nejliberálnější) rozeznáváme: Scheffeho test, Tukeyův test, Bonferroniho test a Fischerův LSD test. Zvláštními případy jsou Duncanův test a HSD test při nestejných n. Neexistuje přesné, obecně platné pravidlo pro výběr konkrétního post-hoc testu k použití. Hendl (004, 345) doporučuje použít test více konzervativní, jinak vzroste nekontrolovatelně pravděpodobnost chyby I. druhu. STATISTICA: Statistika ANOVA jednofaktorová (vícefaktorová) ANOVA výběr proměnných a faktorů OK Více výsledků Post-hoc Pravděpodobnostní rozdělení dat (binomické, poissonovo a normální) Nám modelují, popisují, předpovídají náhodné chování proměnných. Lze je popsat pomocí pravděpodobnostní, distribuční či frekvenční funkce (frekvenčního histogramu) (Hendl, 004). Normální rozdělení se týká spojité proměnné, zatímco binomické a poissonovo rozdělení popisuje náhodné chování diskrétní proměnné. Použití některých statistických testů je podmíněno konkrétním typem rodělení dat. binomické rozdělení modeluje chování četností prvků s pevně danou vlastností, které skončily jež skončily specifikovaným výsledkem. Předpoklady pro vznik náhodné proměnné s binomickým rozdělením jsou podle Hendla (004, 135) tyto: o provádíme n pozorování (nebo pokusů); o pozorování jsou nezávislá znalost výsledku v jednom pozorování nám nic nevypovídá o výsledku v pozorování jiném;
ZÁKLADY STATISTIKY 8 o výsledky pozorování mohou být pouze dva, např. úspěch a neúspěch ; o pravděpodobnost každého úspěchu je stejná pro všechna pozorování nebo pokusy. poissonovo rozdělení mají náhodné proměnné (např. počet telefonních hovorů, nehod, či přijímaných pacientů za danou časovou jednotku, počet překlepů na jedné stránce, apod.), které popisují četnosti jevů s těmito vlastnostmi: o výskyt (nebo nevýskyt) jevu v daném čase závisí na tom, co se stalo jindy nebo jinde; o pravděpodobnost výskytu jevu je pro každý malý časový okamžik stejná; o neexistuje případ, že by dva jevy nastaly současně přesně v jednom časovém okamžiku. normální rozdělení nejčastěji používané rozdělení pro modelování náhodného chování proměnných v empirických vědách. Ve výzkumech se velmi často setkáváme se situací, kdy měřenou proměnnou ovlivňuje současně větší počet poměrně slabých náhodných vlivů. Toto současné působení více vlivů se projevuje tím, že značná část výsledků se soustřeďuje kolem střední hodnoty a na obě strany od ní jsou výsledky stále méně časté, přičemž extrémní hodnoty se vyskytují jen ojediněle (Chráska, 003, 73). Toto rozdělení lze graficky vyjádřit pomocí křivky (Gaussova křivka Obrázek 1), kterou lze sestrojit pomocí aritmetického průměru M a směrodatné odchylky SD. Jedná se o jednovrcholovou, zvonovitou křivku, symetrickou podle svislé osy procházející aritmetickým průměrem M. Pro normální rozdělení dat platí, že v intervalu (M-SD, M+SD) se vyskytuje přibližně /3 (68,7 %) všech hodnot. V intervalu (M-SD, M+SD) se již vyskytuje 95,4 % hodnot a v intervalu (M-3SD, M+3SD) již 99,73 % hodnot (Chráska, 003). Řada statistických procedur byla odvozena od normálního rozdělení, proto je jejich použití podmíněno normálním rozdělením dat testované proměnné. Existuje řada postupů jak ohodnotit normální rozdělení dat (např. test špičatosti, resp. šikmosti, který vyjadřuje koncentraci, resp. symetrii dat kolem střední hodnoty; pro normální rozdělení vychází špičatost=0 a šikmost=0). Jedním z nich je posouzení podle frekvenčního histogramu (Obrázek ). Hodnotíme jednovrcholovost a symetrii podle svislé osy aritmetického průměru M (Obrázek 1). pravděpodobnost 99,73 % 95,4 % 68,7 % četnost výskytu (%) -3SD -SD -SD M +SD +SD +3SD Obrázek 1. Gaussova křivka tělesná výška (cm) Obrázek. Frekvenční histogram normálního rozdělení dat t-rozdělení V případě, že neznáme teoretickou směrodatnou odchylku měřené náhodné proměnné, lze místo ní dosadit vypočítanou směrodatnou odchylku. Pak hovoříme o t- rozdělení, jehož tvar závisí na stupních volnosti. Je podobné normálnímu rozdělení v tom, že je symetrické kolem nuly, má jediný vrchol a zvonovitý tvar. Na rozdíl od něj má výraznější oba okraje.
ZÁKLADY STATISTIKY 9 Proměnná Vlastnost nabývající kvantitativních nebo kvalitativních hodnot. Z hlediska formulování hypotéz rozeznáváme především závisle a nezávisle proměnné. Nezávisle proměnná je vlastnost (jev), která je příčinou nebo podmínkou vzniku jiné vlastnosti (jevu). Závisle proměnná je vlastnost, která je výsledkem (následkem, důsledkem) působení nezávisle proměnné (Chráska, 000, 11). Nezávisle proměnná je proměnná, která z hlediska našeho výzkumu (nikoliv absolutně) nezávisí na proměnné jiné. Intervenující proměnná je pak ta nezávisle proměnná, která ovlivňuje změny proměnných dalších, které nazýváme proměnnými závislými (Pelikán, 004, 39). Podle možnosti nabývání hodnot dělíme proměnné na spojité a diskrétní. Spojitá proměnná může teoreticky nabývat libovolných hodnot z určitého intervalu reálných čísel. Diskrétní proměnné nabývají naopak pouze konečného počtu hodnot (Hendl, 004, 44-45). Příkladem spojité proměnné je čas, tlak, teplota, apod. a diskrétní pak pořadí v závodě, počet bodů v desetiboji apod. Reliabilita (spolehlivost a přesnost) Stálost dosahování stejných (velmi podobných) výsledků při opakování měření za stejných podmínek - spolehlivost. Nezatíženost chybami měření - přesnost. Za přesné považujeme takové měření, při kterém se dopouštíme jen malého počtu chyb a tyto chyby nejsou příliš velké (Chráska, 000, 4). Vysoká reliabilita je nutnou podmínkou dobré validity měření, ale samotná vysoká reliabilita ještě nezaručuje dobrou validitu. Jinými slovy: Pokud měření není spolehlivé, nemůže být ani validní (Hendl, 004, 48). Stupeň reliability měření vyjadřujeme koeficientem reliability r tt. Nabývá hodnot od 0 (nulový stupeň reliability) do 1 (maximální stupeň reliability). Definujeme jej jako poměr rozptylu chyb k celkové variabilitě dat odečtený od 1. r tt 1 s s e t s t s s t e Koeficient reliability r tt lze určit těmito čtyřmi základními metodami: opakovaného měření (test-retest) stejné měření se za stejných podmínek provádí opakovaně v čase a koeficient reliability je vypočítán jako korelační koeficient pro opakovaně změřená data. Vypovídá o shodě opakovaných měření v čase. paralelního měření stejné měření se opakovaně, ale za použití ekvivalentních technik (např. existují dvě verze A a B téhož testu). Koeficient reliability se vypočítá jako korelační koeficient mezi oběma měřeními. půlení provedené měření se rozdělí na dvě části, které se samostatně vyhodnotí a výsledky se pak navzájem korelují. Ze stupně korelace se usuzuje na stupeň reliability. vnitřní konzistence při této metodě je výpočet koeficientu reliability založen na použití dvojnásobné analýzy variance (tzn. Cronbachův korelační koeficient alfa ά). Cronbachův korelační koeficient alfa ά odhaduje očekávanou korelaci jednoho testu s alternativní formou jiného, obsahujícího stejný počet měřených proměnných. Pro konzistentní test by ά měl nabývat hodnoty alespoň 0,8 (Meloun & Militký, 00). Rozptyl a směrodatná odchylka r tt - koeficient reliability s e - rozptyl chyb s t - celková variabilita dat obě se vztahují k aritmetickému průměru měří rozptýlenost dat kolem aritmetického průměru. (Hendl, 004, 96). Rozptyl je definován jako průměrná kvadratická odchylka měření od aritmetického průměru (Hendl, 004, 96). Obě jsou základními charakteristikami variability dat.
ZÁKLADY STATISTIKY 10 s n i1 ( M i M ) n 1 Směrodatná odchylka SD je pak druhou odmocninou z rozptylu: s - rozptyl M - aritmetický průměr n - počet prvků v souboru SD s n i1 ( M i n 1 M ) SD s M n - směrodatná odchylka - rozptyl - aritmetický průměr - počet prvků v souboru EXCEL: STATISTICA: Vložit funkci Statistické SMODCH.VÝBĚR Statistika Základní statistiky/tabulky Popisné statistiky Rozsah souboru Označuje počet prvků v souboru, jeho četnost. Zpravidla jej označujeme písmenem n. Rozsah souboru výrazně ovlivňuje statistickou významnost testovaných rozdílů mezi proměnnými. Naopak koeficienty efekt size tuto závislost na rozsahu souboru při zjišťování rozdílů mezi proměnnými částečně eliminují. Statistické testy významnosti Jsou to postupy (procedury), pomocí nichž ověřujeme, zda mezi proměnnými existuje vztah (závislost, rozdíl). Jestliže na základě provedeného testu významnosti rozhodneme, že určitý výsledek šetření je statisticky významný (signifikantní), znamená to, že je velmi nepravděpodobné, že by tento výsledek byl způsoben pouhou náhodou (Chráska, 003, 78). Rozlišujeme testy parametrické a neparametrické. o Parametrické testy vyžadují splnění řady podmínek (např. metrická data aritmetický průměr, směrodatná odchylka apod., normální rozdělení proměnné), aby bylo jejich použití oprávněné. U těchto testů se nulová hypotéza týká některého parametru rozdělení náhodné proměnné (např. aritmetického průměru, směrodatné odchylky apod.). o U neparametrických testů se nulová hypotéza netýká parametrů rozdělení proměnné, nýbrž jiné obecné vlastnosti (nominální a ordinální data). Použití neparametrických testů není tak přísně podmíněno jako aplikace testů parametrických (všechny typy dat a případy, kdy není znám typ rozdělení proměnné). Avšak větší univerzálnost neparametrických testů je vykoupena jejich menší statistickou účinností. Přičemž účinnost statistického testu významnosti definujeme jako schopnost testu rozpoznat i malé odchylky od nulové hypotézy (Chráska, 003, 79). Parametrické testy mají vyšší statistickou účinnost, ale nejsou tak univerzálně použitelné jako neparametrické testy, které ve srovnání s parametrickými testy vyžadují větší rozsah testovaného souboru n. Stupeň volnosti Je číslo o jednu menší než rozsah souboru n. Platí tedy, že stupeň volnosti = n 1. T-test Jeden z nejnámějších statistických testů významnosti pro metrická data. Slouží ke srovnání aritmetických průměrů dvou nezávislých proměnných. Předpokladem je, že obě proměnné
ZÁKLADY STATISTIKY 11 pocházejí ze dvou různých souborů a mají normální rozdělení dat. Nulovou hypotézu testujeme pomocí testového kritéria t, které vypočítáme z rovnice: kde SD n1 n M 1i M 1 M j M i1 EXCEL: STATISTICA: t - testové kritérium M 1 M n1 n t M 1, - aritmetické průměry první a SD n1 n druhé proměnné n 1, - počty prvků v souborech SD - směrodatná odchylka M 1i - jednotlivé hodnoty první j1 proměnné n1 n M j - jednotlivé hodnoty druhé proměnné Vložit funkci Statistické TTEST Statistika Základní statistiky/tabulky t-test Validita (platnost a pravdivost) Kerlinger (197, 435) konstatuje, že nejobecnější definice validity je ve stručnosti obsažená v otázce: Měříme to, o čem se domníváme, že měříme. V současnosti se však vychází z požadavku, že uživatel má z výsledků měření odvodit správná rozhodnutí (Hendl, 004, 48). Podle Hendla (004, 48) validita odkazuje na přiměřenost, smysluplnost a užitečnost specifických závěrů, jež se provádějí na základě výsledku měření. Podle toho, k čemu se validita vztahuje, ji lze děli na: obsahová zjišťuje, do jaké míry měření skutečně reprezentuje dané vlastnosti nebo kvality (Hendl, 004, 49). Obsahová validita zjišťuje nakolik jsou reprezentativní položky testu, vzhledem k obsahu, který má měřit (Pelikán, 004). Podle Kerlingera (197) je obsahová validita v podstatě úsudková. souběžná se posuzuje při zavádění nové metody (testu) srovnáním s již ověřenou metodou (testem). Ověřenou proceduru někdy nazýváme zlatý standard. S měřením zlatého standardu srovnáváme výsledky nové měřící procedury (Hendl, 004, 49). Ke srovnání vztahu mezi výsledky nového testu a ověřeného testu používáme korelačních koeficientů. predikční posuzuje, do jaké míry provedené měření vypovídá o budoucím chování objektů (Chráska, 000, 4). Podle Pelikána (004, 59) Nejde jen o předpověď toho, jak se daný jedinec uplatní, jak bude probíhat určitý jev atd., jde spíše o předpověď určitého vztahu. Validitu výzkumného zjištění určitého vztahu ověřujeme v podstatě konfrontací s realitou (Pelikán, 004, 59). K jejímu výpočtu používáme korelačních koeficientů. Souběžná a predikční validita je souhrnně nazývána jako validita kriteriální. konstruktová posuzuje do jaké míry ovlivňuje výsledky provedeného měření nějaký faktor konstrukt (Chráska, 000, 4). Důkazy o konstruktové validitě mohou mít konvergentní charakter (test prokazuje vztahy k těm proměnným, jež podle teorie očekáváme) nebo diskriminační charakter (naopak nemá vztah k proměnným, když tento vztah neočekáváme) (Hendl, 004, 49). Z dalších typů validit se ještě zmíním o validitě ekologické, která se týká vlivu prostředí, v němž je výzkum realizován. Zahrnuje vliv počasí, denní a roční doby i vliv barevnosti a osvětlení prostoru apod. Variační rozpětí Charakteristika variability R, která je dána rozdílem maximální a minimální hodnoty v souboru. Nevýhodou variačního rozpětí je velká citlivost vůči odlehlým hodnotám.
ZÁKLADY STATISTIKY 1 Wilcoxonův neparametrický test Je obdobou parametrického párového t-testu. Podmínkou jeho použití je alespoň ordinální typ dat. Používá se při opakovaných měřeních stejných souborů. STATISTICA: Statistika Neparametrická statistika Porovnávání dvou závislých vzorků (skupiny) Wilcoxonův párový test Základní a výběrový soubor Základní soubor je množina všech prvků, patřících do okruhu osob nebo jevů, které mají být zkoumány v daném výzkumu (Pelikán, 004, 47). Základní soubor ale může být velice rozsáhlý až nedostupný a neproveditelný. Proto se ze základního souboru pořizuje výběrový soubor (vzorek), který by měl být co nejpřesnější zmenšenou kopií onoho původního základního souboru. Co možná největší přiblížení výběru (vzorku) základnímu souboru je důležité zejména proto, abychom i na základě výzkumu uskutečněného na výrazně menším souboru, vybraném ze souboru původního, mohli dělat obecnější závěry, platné i pro celý základní soubor (Pelikán, 004, 47). Proto se dále budu zabývat jednotlivými typy výběru: náhodný výběr je definován tak, že každý prvek populace má stejnou pravděpodobnost, že se do výběru dostane (Hendl, 004, 53). Podle Lindquista (1967, 19) je náhodný výběr pořízen tak, že všechny jiné možné kombinace stejného počtu členů základního souboru mají stejnou možnost dostat se do výběru. Pro realizaci náhodného výběru musíme mít k dispozici očíslovaný seznam všech prvků základního souboru a funkci generující náhodná čísla, pomocí níž vybereme očíslovaný prvek ze základního souboru. Takovýto seznam lze vytvořit v softwarovém prostředí Microsoft Office Excel, v němž zároveň lze náhodná čísla generovat pomocí funkce CELÁ.ČÁST((horní-mez dolní-mez + 1)*NAHČÍSLO()) + dolní-mez (Brož, 003, 537). Výsledky měření na tomto typu výběru mají obecnou platnost, lze je jen s minimální chybou zobecňovat na celý základní soubor. V praxi je náhodný výběr často neproveditelný nebo nákladný, především z důvodů značné rozsáhlosti základního souboru. Následující 4 typy výběru jsou přijatelnými náhradními metodami, jež ve výběru využívají náhodný mechanismus. stratifikovaný výběr vychází z rozdělení základního souboru na skupiny podle předem stanovených kritérií, z nichž se pak dělá náhodný výběr (Pelikán, 004, 53). Tato technika je vhodná, jestliže populaci lze stratifikovat podle pohlaví, věku nebo demografických parametrů a výzkumník chce zajistit reprezentaci každé podskupiny (Hendl, 004, 54). Tím nenarušíme princip náhodnosti a přitom zajistíme, že nedojde k nerovnoměrnosti zastoupení základních prvků nebo znaků, které nás při výzkumu zajímají (Pelikán, 004, 53). kontrolovaný výběr je zvláštním případem stratifikovaného výběru, v němž není selekce ponechána náhodě. rozdělení určitého vybraného znaku je provedeno tak, aby bylo shodné s předem stanovenou proporcí (Lindquist, 1967, 1). Počet vybraných prvků z podskupiny je proporcionální počtu prvků v základním souboru. Dejme tomu, že chceme u daného souboru školních dětí zkoumat např. tělesnou hmotnost. Víme, že tělesná hmotnost nějak souvisí s pohlavím, a chceme se ujistit, že náš výběr nemá nevhodnou proporci obou pohlaví. Víme-li, že v celkovém základním souboru je stejný počet chlapců a děvčat, můžeme pak ze všech chlapců (resp. děvčat) náhodně vybrat stejný počet chlapců a stejný počet děvčat. Tento výběr jsme učinili reprezentativním vzhledem k pohlaví. vícestupňový shlukový výběr opakovaně prováděný náhodný výběr v jednotlivých skupinách, které jsou podmnožinou té předcházející. Pro statistické zpracování takto získaných dat se používají speciální techniky, někdy lze však použít postupy zpracování dat z náhodných výběrů.
ZÁKLADY STATISTIKY 13 Často se používá pro získání informací o veřejném mínění. Například chceme-li zjistit názory lidí z panelových sídlišť měst určité velikosti. Postupuje se např. takto: 1. vybere se náhodně vzorek okresů;. z takto vybraných okresů se v každém okresu vybere náhodně určitý počet měst o dané velikosti; 3. pro takto vybraná města se vybere náhodně vzorek jejich sídlišť; 4. z vybraných sídlišť se náhodně vyberou domácnosti, ve kterých se provede dotazování. V každé vrstvě shluků se provádí náhodný výběr. Tato vícestupňová procedura vypadá velmi komplikovaně, ale ve skutečnosti je velmi efektivní a méně nákladná než prostý náhodný výběr (Hendl, 004, 54). systematický výběr je prováděn podle předem stanovaného kritéria. Stejně jako u náhodného výběru se nejprve vytvoří očíslovaný seznam všech prvků základního souboru. Avšak na rozdíl od náhodného výběru se výběr z tohoto seznamu nepořizuje náhodně, ale systematicky podle předem pevně stanoveného kritéria. Například se bude vybírat vždy jeden prvek z padesáti. Nejdříve se zvolí náhodně prvek z první padesátky. V dalším kroku se k tomuto číslu postupně přičítává číslo 50 a prvky s takto získaným pořadovým číslem se zařazují do výběru. Aby byl systematický výběr validní, musí výzkumník zajistit, že číslování prvků není závislé na charakteristikách jedinců, jež se mají zkoumat (Hendl, 004, 54-55). záměrný výběr se liší od předcházejících druhů výběrů v tom, že zde o výběru jistého prvku nerozhoduje náhoda, ale buď záměr výzkumníka, anebo úsudek zkoumané osoby (Chráska, 000, ). Záměrný výběr lze pořídít trojím způsobem: 1) prvky se dostávají do výběru samy (např. dobrovolně přihlášení lidé do anket); ) záměrný výběr průměrných jednotek, při kterém se vybírá určitý objekt (škola, třída, žák), jenž výzkumník považuje za typický (průměrný) příklad; 3) výběr pomocí kvót (kvótní výběr), který je jako jediný ze záměrných výběrů přijatelný pro zobecňování zjištěných výsledků na základní soubor, ze kterého byl kvótní výběr pořízen. Zákon (zákonitost) Určuje všeobecnou platnost závislostí, procesů, jevů a jejich vlastností za určitých, přesně popsaných podmínek (Pelikán, 004, 33). Na rozdíl od exaktních přírodních věd však v pedagogickém výzkumu hledáme spíše zákonitosti, protože vysoká variabilita proměnných působících v pedagogickém procesu znemožňuje jednoznačně definovat jeho absolutní, bezvýjimečnou platnost. Zákonitost je...zjištěná vazba mezi různými proměnnými, platná pro statisticky významnou část případů v pevně definovaných podmínkách. Hovoříme-li o statisticky významné vazbě, neznamená tento vztah absolutní platnost (Pelikán, 004, 33). Brož, M. (003). Mistrovství v Microsoft Excel 000. Brno: Computer Press. Frömel, K. (00). Kompendium psaní a publikování v kinantropologii. Olomouc: Univerzita Palackého. Gavora, P. (000). Úvod do pedagogického výzkumu. Brno: Paido. Hendl, J. (004). Přehled statistických metod zpracování dat. Praha: Portál. Chráska, M. (000). Základy výzkumu v pedagogice. Olomouc: Univerzita Palackého. Chráska, M. (003). Úvod do výzkumu v pedagogice (základy kvantitativně orientovaného výzkumu). Olomouc: Univerzita Palackého. Kerlinger, F. N. (197). Základy výzkumu chování. Praha: Academia. Lepš, J. (1996). Biostatistika. České Budějovice: Jihočeská Univerzita. Lindquist, E. F. (1967). Statistická analýza v pedagogickém výzkumu. Praha: Státní pedagogické nakladatelství. Meloun, M., & Militký, J. (00). Kompendium statistického zpracování dat. Praha: Academia. Pelikán, J. (004). Základy empirického výzkumu pedagogických jevů. Praha: Karolinum.
ZÁKLADY STATISTIKY 14 Koeficienty efekt size jako vodítko pro posuzování věcné významnosti statisticky testovaných rozdílů.1 Korelační koeficient r P a r S Rozšířenými, srozumitelnými a často používanými koeficienty efekt size jsou korelační koeficienty (r P - Pearsonův součinový korelační koeficient a r S - Spearmanův koeficient pořadové korelace). Přes některé své nedostatky zůstává Pearsonův korelační koeficient r nejdůležitější mírou síly vztahu dvou náhodných spojitých proměnných X a Y (Hendl, 004, 43). Korelační koeficienty (r P, r S ) určují míru těsnosti (síly) vztahu mezi dvěma proměnnými. nabývají hodnot -1 r +1. při r=0 jsou proměnné X a Y naprosto nezávislé (nesouvislé, beze vztahu). Čím vyšší je hodnota korelačního koeficientu tím vyšší je závislost (při příčinném vztahu) či souvislost (při asociačním vztahu) mezi proměnnými X a Y (viz tabulka 1). Jestliže je r kladné tak se zvyšující se hodnotou X roste i hodnota Y. Při záporném r s rostoucí hodnotou X klesá hodnota Y. Příčinný vztah mezi proměnnými X a Y existuje, pokud X jednoznačně způsobuje, ovlivňuje Y (změna X způsobuje změnu Y). Při asociačním vztahu jen víme, že při ovlivňování, změně X (resp. Y) se mění i Y (resp. X), nevíme však zda tuto změnu způsobuje X nebo Y či jiná další proměnná. vysoká hodnota korelačního koeficientu sama o sobě ještě nepotvrzuje existenci příčinného vztahu. Ze schématu, typu výzkumu musíme jednoznačně vědět která z proměnných je potencionální příčinou a která důsledkem (musíme znát zda hledáme příčinný nebo asociační vztah). nerozlišují mezi závisle a nezávisle proměnnou. Nezávisle proměnná je vlastnost (jev), která je příčinou nebo podmínkou vzniku jiné vlastnosti (jevu). Závisle proměnná je vlastnost, která je výsledkem (následkem, důsledkem) působení nezávisle proměnné (Chráska, 000, 11). nezmění se, když změníme jednotky měření proměnných X a Y. Pearsonův korelační koeficient r P se vypočítává přímo z naměřených párových hodnot proměnných X a Y a je, podobně jako aritmetický průměr a směrodatná odchylka, velmi ovlivněn odlehlými hodnotami. Používá se u metrických dat (např. tělesná hmotnost v [kg]; čas v [s]; síla v [N]... tyto veličiny mají pevně stanovenou nulovou hodnotu, po celé měřitelné stupnici je stejný dílek měření (rozdíl 10-9 kg je stejný jako 199-198 kg) a lze dělit (lze např. vypočítat procentuální snížení tělesné hmotnosti, zlepšení času při běhu na 100 metrů či zvýšení síly o 10 %), které mají normální rozdělení a očekáváme lineární vztah. r P n n i1 X n i n i1 n X i1 i X Y i i n i1 X i n n i1 n i1 Y Y i i n i1 Y i r P - Pearsonův korelační koeficient n - počet srovnávaných dvojic hodnot X - závisle proměnná Y - nezávisle proměnná Pearsonův korelační koeficient není vhodné použít, pokud: jedna z proměnných X, Y nemá náhodný charakter (její hodnoty jsou pevně dány). nelze předpokládat linearitu očekávaného vztahu. nelze předpokládat normální rozdělení proměnných X a Y.
ZÁKLADY STATISTIKY 15 Spearmanův korelační koeficient r S se nevypočítává přímo z naměřených párových hodnot proměnných X a Y, ale z jejich pořadí (skutečné naměřené hodnoty proměnných X a Y se převedou na pořadí např. výsledky atletického desetiboje (proměnná X) 535 bodů = 1; 500 bodů = ; 4876 bodů = 3; 4446 bodů = 4 apod., a např. tělesná výška desetibojaře (proměnná Y) 188 cm = 1; 18 cm = ; 179 cm = 3; 173 cm = 4 apod. a teprve pak se vypočítá korelační koeficient r S z pořadí (1,, 3, 4) jednotlivých proměnných X a Y). r S 6 i1 n 1 n n D i 1 r S - Spearmanův korelační koeficient D i - rozdíly z pořadí hodnot proměnných X a Y vzhledem k ostaním hodnotám seřazeného výběru podle velikosti n - počet srovnávaných dvojic hodnot Spearmanův korelační koeficient je, na rozdíl od Pearsonova korelačního koeficientu, odolný vůči odlehlým hodnotám. Lze jej použít ve všech případech, kdy již nelze použít Pearsonův korelační koeficient. Používá se u všech ordinálních dat a dat metrických, které nesplňují podmínky normálního rozdělení a očekávání lineárního vztahu. Interpretace konkrétní hodnoty korelačního koeficientu se v různých situacích posuzuje různě (v závislosti na prostředí výzkumu: laboratorní terénní, počtu sledovaných osob, přesnosti použitých meřících technik, apod.). Hendl (004) udává sílu asociace, vztahu jako: malou při r p =0,1-0,3. střední při r p =0,3-0,7. velkou při r p =0,7-1. Podle Chrásky (000, 01)..prakticky použitelná závislost je minimálně r = 0,40. Uvedená tabulka 1 slouží jen k orientačnímu posouzení vypočítaného koeficientu korelace. Určitá hodnota korelačního koeficientu může být hodnocena v různých výzkumných situacích různě. Tabulka 1. Přibližná interpretace hodnot korelačního koeficientu. (převzato z Chráska, M. (000). Základy výzkumu v pedagogice. Olomouc: Univerzita Palackého, str. 01) Koeficient korelace Interpretace r = 1 naprostá závislost (funkční závislost) 1,00 r 0,90 velmi vysoká závislost 0,90 r 0,70 vysoká závislost 0,70 r 0,40 střední závislost 0,40 r 0,0 nízká závislost 0,0 r 0,00 slabá (nepoužitelná) závislost r = 0 naprostá nezávislost
ZÁKLADY STATISTIKY 16 Podobnou interpretaci korelačního koeficientu udává Pett (1997): r 0,90 extrémně silná závislost (souvislost, vztah); 0,70 0,89 silná závislost; 0,50 0,69 střední závislost; 0,30 0,49 nízká závislost a r 0,30 slabá závislost mezi sledovanými proměnnými. Při zjišťování statistické významnosti velikosti korelačního koeficientu (program Statistika ji zobrazuje současně s hodnotou koeficientu, program Excel ji nevypočítává) musíme mít na paměti, že každý statistický výpočet je ovlivněn počtem analyzovaných dat (resp. počtem sledovaných osob). Tabulka nám znázorňuje vliv počtu korelovaných hodnot na velikost korelačního koeficientu statisticky významného na hladině p=0,05). Zatímco při srovnávání dat u 30 osob může být střední závislost statisticky nevýznamná, tak při korelování dat 300 osob může být prakticky nevýznamný, nepoužitelný vztah vysoce statisticky významný. Tabulka. Velikosti Pearsonova a Spearmanova korelačního koeficientu statisticky významné na hladině p=0,05 v závislosti na počtu srovnávaných dat (upraveno podle Chrásky (000, 003) a Hendla (004)) Počet korelovaných r 0,05 minimální hodnota korelačního koeficientu významná na hladině p=0,05 hodnot r P - Pearsonův korelační koeficient r S - Spearmanův korelační koeficient 5 0,805 0,900 0 0,378 0,564 30 0,306 0,377 50 0,35 0,305 100 0,165 00 0,117 300 0,095 400 0,08 500 0,074 Z tabulky je zřejmé, že hladina statistické významnosti korelačního koeficientu je výrazně ovlivněna rozsahem souboru, navíc intervaly pro přibližnou interpretaci jeho hodnot jsou dosti široké (tabulka 1). Proto se nabízí otázka, zda lze vyjádřit vztah mezi proměnnými přesněji, přitom co možná nejjednoduššeji? Odpovědí může být koeficient determinace, který se vypočíává z korelačního koeficientu. EXCEL: STATISTICA: Vložit funkci Statistické CORREL/PEARSON Statistika Základní statistiky/tabulky Korelační matice. Koeficient determinace d Umožňuje velice srozumitelně vysvětlit souvislost (závislost) mezi dvěma proměnnými, neboť jeho hodnotu lze převézt na procenta. Vypočítá se jako druhá mocnina korelačního koeficientu a jeho hodnota vynásobená 100 nám říká kolika procenty se podílí sledovaný faktor na výsledném efektu (Kerlinger, 197). d r variabilita vysvětlená nezávislou proměnnou celková variabilita
ZÁKLADY STATISTIKY 17 Neboť dělíme variabilitu variabilitou je koeficient determinace bezrozměrný (nemá jednotku), je poměrem. Vynásobíme-li jej 100 převedeme jeho hodnotu na procenta %. Podle Hendla (004, 70)...číslo 100r udává v procentech tu část celkové variability proměnné Y, resp. X, která je vysvětlena znalostí hodnoty X, resp. Y. Tuto hodnotu nazýváme koeficient determinace. Koeficient determinace je poměr vysvětlené variability k celkové variabilitě proměnné Y..3 Další koeficienty efekt size - kritéria pro jejich výběr a hodnocení efektu Pro posouzení významnosti rozdílů máme k dispozici minimálně tři dostupné nástroje: Prvním je klasická statistická významnost na zvolené hladině významnosti, nejčastěji p=0,05 nebo p=0,01. Testy statistické významnosti umožňují rozhodnout však pouze o tom zda sledovaný (měřený) efekt je či není nulový. Bližší informace o velikosti a významnosti efektu schází (Borenstein, 1997). Testy statistické významnosti jsou navíc značně závislé na rozsahu souboru n (Levine & Hullett, 00; Tolson, 1980). Druhým je logický úsudek (věcná logická významnost), kdy předem stanovíme rozdíly, které považujeme za významné na základě zkušenosti z předchozích výzkumů nebo rešerše z literatury. Při volbě věcně významnosti výcházejte také z chyby měření. Předem stanovený věčně významný rozdíl nemůže samozřejmě být menší než chyba měření. Třetím nástrojem pro posouzení věcné významnosti rozdílů jsou koeficienty efekt size (např. d, r,,,...), jejichž popis a použití bude objasněno v následujícím textu. Pro úplnější porozumění zjištěným výsledkům doporučuje řada zahraničních časopisů uvádět mimo statistické výzmanosti také některý z koeficientů efekt size (American Psychological Association, 00; McCartney & Rosenthal, 000). Koeficienty efekt size eliminují statistickou závislost na rozsahu souboru n. Často se při statistickém testování výsledků stává, že věcně významný rozdíl mezi dvěma (nebo více) proměnnými je vlivem nízkého rozsahu souboru statisticky nevýznamný, a obráceně při testování rozdílů proměných u souboru s n 1000 jsou i zjevně věcně nevýznamné rozdíly statisticky velmi významné. Tabulka 3. Kritéria výběru koeficientů efekt size a hodnocení jejich efektu DATA/ PROMĚNNÉ POUŽITÁ STATISTIKA KOEFICIENT efekt size HODNOCENÍ efektu Nominální Chí kvadrát x r r=0,10 malý efekt r=0,30 střední efekt r=0,50 velký efekt Ordinální, % vyjádření podílu Koeficient intervalová, Korelační koeficient determinace r faktoru na výsledném poměrová efektu M + SD, t-test, ANOVA, d=0, malý efekt Nezávislé proměnné/ Z-test, Opakovaná měření Cohenovo d d=0,5 střední efekt metrická data (pouze pro opakování) d=0,8 velký efekt Neparametrická data, více než dva nezávislé vzorky Neparametrická data, více než dva závislé vzorky Nezávislé proměnné/ metrická data Kruskal-Wallisův test = malý efekt Friedmanova Two-way ANOVA = 0,06 střední efekt = 0,14 velký efekt F-test, t-test 0,1 vypovídá o významnosti vztahu
ZÁKLADY STATISTIKY 18 Pokud to charakter dat dovoluje (ordinální a metrická data) můžeme jako koeficienty efekt size vždy použít korelační koeficienty r P, r S a koeficient determinace d (=r ) (Tabulka 3). Přičemž hodnoty r P =0,10 (resp. r P =0,30 a r P =0,50) jsou běžně interpretovány jako nízký (resp. střední a výrazný) efekt (Cohen, 1988; Dishman & Buckworth, 1996). Tabulka 3 podává přehled podmínek použití a hodnocení základních koeficientů efekt size. Bližší vysvětlení výpočtu a hodnocení základních koeficientů efekt size následuje níže: r - lze jednoduše vypočítat z t, F nebo statistiky podle rovnic 1-3 (McCartney & Rosenthal, 000) a jejich nejčastější způsob hodnocení je r = 0,10 malý efekt, r = 0,30 střední efekt, r = 0,50 velký efekt. r t t df (1) r () n F r (3) F df error t - vypočítaná hodnota t-testu - vypočítaná hodnota chí-kvadrát testu F - vypočítaná hodnota analýzy variance ANOVA n - celkový rozsah souboru df - stupeň volnosti df error - vypočítaná hodnota chí-kvadrátu Koeficient r lze použít při testování míry závislosti mezi dvěma dichotomickými proměnnými, např. pohlaví (muž, žena), nebo úkol (splnil, nesplnil) pro kontingenční tabulku x. Měří důležitost vztahu mezi dvěma skupinami znaků nominálních dat, kde každý z nich může nabývat pouze dvou hodnot (Pett, 1997; Siegel & Castellan, 1988). Je obvykle používán po signifikantním výsledku testu pro dva nezávislé soubory či pro měření reliability na nominálních datech. Podmínky pro použití jsou dichotomické proměnné, nezávislá pozorování a jejich hodnocení se skládají z četností, ne ze skóre. Jedno z možných hodnocení koeficientu r > 0,90 extrémně silná závislost (souvislost, vztah); 0,70-0,89 silná závislost; 0,50-0,69 střední závislost; 0,30-0,49 nízká závislost a < 0,30 slabá závislost mezi sledovanými proměnnými (Pett, 1997). Koeficient determinace r - vyjadřuje procentuální podíl z celkové variance, který vysvětluje vliv faktoru na sledovaný efekt, doplněk do 100 % vysvětlují ostatní faktory (Blahuš, 000; Thomas & Nelson, 001). Tolson (1980) považuje sledovaný vztah za významný při r 0,1. Cohenovo d - lze použít pro hodnocení efektu mezi dvěma nezávislými skupinami (proměnnými). Nejjednodušší vyjádření je dáno rovnicí 4, kde rozdíl aritmetických průměrů mezi skupinami, M 1 a M nebo M e, resp. M control (aritmetický průměr experimentální, resp. kontrolní skupiny) vydělíme směrodatnou odchylkou kontrolní skupiny pokud existuje. V případě, že žádná ze skupin není kontrolní, ve jmenovateli je SD pooled (rovnice 5) (Cortina & Nouri, 000; Thomas, Lochbaum, Landers, & He, 1997; Thomas & Nelson, 001). Čitatel M 1 -M je číslo nezáporné, v případě, že M 1 -M <0, bereme v úvahu absolutní hodnotu rozdílu nebo M -M 1. M 1 M d SD control (4) M 1 M d SD pooled (5), kde SD pooled n1 1 SD1 n 1 n n 1 SD
ZÁKLADY STATISTIKY 19 Nejčastější hodnocení efekt size d je 0, - malý efekt; 0,5 - střední a 0,8 - velký efekt (McCartney & Rosenthal, 000; Thomas, Lochbaum, Landers, & He, 1997; Thomas & Nelson, 001; Thomas, Salazar, & Landers, 1991). Koeficient - k některým typům statistických testů existují konkrétní koeficienty efekt size a vzorce pro hodnocení velikosti jejich účinku. Koeficient lze použít u testu Kruskal - Wallis ANOVA by Ranks (rovnice 6) a Friedman s Two - Way ANOVA (rovnice 7) s hodnocením = 0,01 malý efekt, = 0,06 střední efekt a = 0,14 velký efekt (Morse, 1999). Efekt size pro nezávislé soubory je určen rovnicí 8 (Cortina & Nouri, 000). H (6) n 1 krit (7) n df SS SS total error (8) SS total H - vypočítaná hodnota Kruskal-Wallisova testu - vypočítaná hodnota chí-kvadrát testu n - celkový rozsah souboru SS total - celkový součet čtverců celkový rozptyl SS error - součet čtverců uvnitř skupiny within group (error term) chybový rozptyl Koeficient - je jedním z prvních koeficientů efekt size (rovnice 9), který umožňuje kvantifikaci síly statistické asociace u sledovaných zdrojů odchylek (Tolson, 1980). Pro jeho výpočet lze použít také F a t statistiky (rovnice 10 a 11) (Tolson, 1980). vyjadřuje procentuální podíl z celkové variance, který vysvětluje vliv faktoru na sledovaný efekt, doplněk do 100 % vysvětlují ostatní faktory (Blahuš, 000; Thomas & Nelson, 001). Tolson (1980) považuje sledovaný vztah za významný při 0,1. Pro vícefaktorovou ANOVU je výpočet dán rovnicemi 1-14. Kde p je počet úrovní faktoru A a q je počet úrovní faktoru B a n je celkový rozsah souboru. Při ANOVĚ 3x je p=3 a q=. SS total between within (9) SS k 1 MS MS within F k 1 k 1 F k 1 n k 1 (10) t 1 (11) t n n 1 1 A p 1 FA p 1 p 1 F q 1 F p 1 q 1 F n p q1 (1) B A B q 1 FB p 1 p 1 F q 1 F p 1 q 1 F n p q 1 (13) AB A B p 1 q 1 FAB p 1 q 1 p 1 F q 1 F p 1 q 1 F n p q1 (14) A F - vypočítaná hodnota analýzy variance ANOVA t - vypočítaná hodnota t-testu k - počet sledovaných skupin n - celkový rozsah souboru SS total - celkový součet čtverců (celkový rozptyl) SS between - součet čtverců mezi skupinami ( mezi-skupinový rozptyl) MS within - průměr čtverců uvnitř skupiny ( vnitřně-skupinový rozptyl) B AB AB AB