= x (1.1) Komentář [j1]: Odstaveček na webu Následující text je... prosím nahradit za tyto tři odstavce. Děkuji.

Rozměr: px
Začít zobrazení ze stránky:

Download "= x (1.1) Komentář [j1]: Odstaveček na webu Následující text je... prosím nahradit za tyto tři odstavce. Děkuji."

Transkript

1 Ordinační analýzy V této kapitole se seznámíme s jednotlivými metodami extrakce proměnných, jejichž cílem je transformace původních proměnných do menšího počtu nových proměnných, jak již bylo uvedeno v předchozí kapitole [odkaz na kapitolu 7.5]. Z metod extrakce proměnných si zde představíme analýzu hlavních komponent (PCA Principal Component Analysis), korespondenční analýzu (CA Correspondence Analysis), vícerozměrné škálování (MDS MultiDimensional Scaling) a faktorovou analýzu (FA Factor Analysis). Pokročilejším metodám extrakce proměnných, kterými je například analýza nezávislých komponent (ICA - Independent Component Analysis), je věnována samostatná kapitola [odkaz na kapitolu 0]. ento text bezprostředně navazuje na kapitolu pojednávající o metodách volby a výběru popisných proměnných, která se zabývá selekčními algoritmy [odkaz na kapitolu 7]. Základní znalostní předpoklady zůstávají tytéž jako u výše uvedené kapitoly, zejména znalosti základních operací s vektory a množinami jsou nevyhnutelné. Následující text je součástí učebních textů předmětu Bi8600 Vícerozměrné metody a Bi004 Analýza a klasifikace dat a je určen především pro studenty matematické biologie. Přínosem může být rovněž pro studenty medicínských a dalších biologických oborů - zejména botaniky, zoologie a antropologie. Pro předmět Bi8600 Vícerozměrné metody lze klást menší důraz na podkapitolu Odvození [odkaz na podkapitolu. této kapitoly], pro magisterský předmět Bi004 Analýza a klasifikace dat je však tato kapitola podstatná pro pochopení pozadí metody analýzy hlavních komponent. omentář [j]: Odstaveček na webu Následující text je... prosím nahradit za tyto tři odstavce. Děkuji.. Analýza hlavních komponent Analýza hlavních komponent (PCA - Principal Component Analysis) patří k základním metodám extrakce proměnných. Je často používaným nástrojem pro redukci počtu proměnných například před klasifikací dat, umožňuje však i vizualizaci vícerozměrných dat díky snížení počtu proměnných a v neposlední řadě slouží rovněž k odhalení skrytých (latentních) proměnných, které mohou napomoci interpretaci dat... Výstupy z výuky Student: zná principy analýzy hlavních komponent (PCA) a z toho plynoucích vlastností rozumí algoritmu PCA a umí vysvětlit důsledky vyplývající z použití PCA pro data různého charakteru.. Princip Představme si úlohu, kdy jsou reálné objekty popsány vektory ve dvourozměrném prostoru (se dvěma souřadnicemi x a x ), např. tak, jak je zobrazeno na obr.. Nyní se pokusme vyjádřit dané vektory v jiné souřadnicové soustavě, jejíž souřadnice y a y jsou dány lineární kombinací těch původních x a x. o znamená, že v tomto dvourozměrném případě platí y = a y = a x + a x + a x a = x a a a x.. x (.) - -

2 Důsledkem takovéto lineární transformace je, že nová sou- je řadnicová soustava (y, y ) oproti původní (x, x ) pouze otočená kolem počátku. Veli- na kost otočení bude závislá hodnotách parametrů a, a, a a a. Aby byla nová souřadni- cová soustava pravoúhlá (orto- gonální) ), stejně jako původní, je nutné, aby byl skalární součin transformačních vektorů a = (a, a ) a a = (a, a ) nulový. Je současně užitečné (nemá-li dojít k prodloužení, resp. zkrácení měřítka na Obr. Princip analýzy hlavních komponent osách), aby byly oba transformační vektory normované, tj. aby velikost jejich modulu byla jednotková. Příklad. Mějme v původním prostoru zobrazeném na obr. bod o souřadnicích x 0 = (4, ). Nová soustavaa nechť je určena transformačními vztahy y = 0,8x + 0,6 x ; y Ověřte ortogonalitu transformačních vztahů a určete souřadnice bodu x 0 v nové souřadni- cové soustavě. Řešení: Skalární součin transformač čních vektorů a.a = (a.a + a.a ) = [0,8.(-0,6)+0,6.0,8] = 0. ransformace je proto ortogonální. ransformační vektory jsou i normované, protože jejich moduly jsou rovny a = a = (0,8 + 0,6 ) / = ((-0,6) + 0,8 ) / / =. Souřadnice bodu x 0 = (4,) v nové souřadnicové soustavě jsou y = 0, ,6 =, +,8 = 5; y = 0, ,8 =,4 +,4 = 0. = 0,6x + 0,8x. Můžeme tedy psát y 0 = x 0 = (5, 0). Poznámka: Zřejmě je na tomto místě vhodné připomenout a zdůraznit, že poloha bodu x 0 se v daném prostoru nezměnila. Pouze jsme jeho polohu vyjádřili v jiných souřadnicích h. - -

3 Protože hodnota druhé souřadnice vektoru y 0 je nulová, jinými slovy bod leží na ose první transformované souřadnice, stačila by pro přesné vyjádření polohy bodu v nové souřadnicové soustavě pouze hodnota první souřadnice. oto je základ principu redukce počtu souřadnic založené na lineární transformaci souřadnic. Je-li bodů v prostoru více, nelze obecně očeká- v prostoru tak, jako jsou např. na obr. body x a x. Nemůžeme tedy očekávat, že bude pro vat, že by všechny ležely na přímce procházející počátkem, ale jsou nějak rozmístěny přesné vyjádření polohy všech bodů potřeba pouze jedna souřadnice. Můžeme se ale pokusit pootočitt původní soustavu tak, aby dané body v prostoru byly v novém redukovaném prostoru vyjádřeny jednou souřadnicí co nejlépe. o co nejlépe musí být vyjádřeno nějakým mate- matickým kritériem. V případě analýzy hlavních komponent je tím kritériem celková odchyl- mi- ka všech bodů/vektorů od redukované reprezentace, popsaná pomocí kritéria ve smyslu nimální střední kvadratické odchylky. Pokud bychom při dané transformaci souřadnicového systému (viz obr..) provedli redukci rozměru prostoru odstraněním souřadnice y, promítly by se oba původní zobrazené body x a x do pozice bodu y 0 x 0 a oproti původním pozicím obou těchto bodů by se jejich nový prů-. mět lišill o. o znamená, že střední kvadratická chyba by pro tyto dva body byla rovna Pokud bychom redukovali rozměr prostoru daný souřadnicí y, byla by odchylka původní polohy od nových průmětů y a y daná v obou případech hodnotou a střední kvadratická chyba by byla. Z geometrického srovnání z obr.. je zřejmé, že větší chyby se dopustíme odstraněním souřadnice y. Nyní zvažme častý případ, kdy jsou zpracovávaná data centrována, tj. od hodnot jejich souřadnic je odečtena jejich střední hodnota (obr.). Poznámka: Vždy a zejména při řešení klasifikačních úloh je třeba důkladně zvážit, zda centrování dat, tj. odečtení jejich střední hodnoty, neodstraní informaci, která je důležitá z hlediska cílů jejich zpracování. Souřadnice centrovaných vek- jsou y 0c = (0, 0), y c = (0, ) a y c torů v transformované soustavě = (0, -), což znamená, že hodnoty první souřadnice y jsou ve všech případech nulové (tedy i rozptyl je nulový) ). Body jsou rozloženy na transformované ose y. Z geometrické představy podle obr. vyplývá, že k přesné repre- bude zentaci bodů y 0c, y c a y c stačit souřadnice y, která popisuje data ve směru největšího rozptylu. o je ale závěr naprosto opačný, Obr. Princip analýzy hlavních komponent s centrovanou množinou bodů - -

4 než tomu bylo v původním zadání. Na druhé straně celkem logický změnila se data, změnil se i způsob jejich reprezentace. Jak by se dalo postupovat při určování nové, potencionálně redukovatelné souřadnicové soustavy? Vysvětleme si na kvazioptimálním iteračním postupu, který je sice názorný, nicméně nemusí vést k zcela nejlepšímu řešení. Prakticky jej lze použít v případě, kdy je datová množina příliš veliká. Pomocí zvoleného optimalizačního algoritmu používajícího dané kritérium nalezneme tu transformovanou souřadnici (komponentu), která nejlépe splňuje zvolené optimalizační kritérium. V příkladu. je to zjevně souřadnice y, u centrovaných dat je to souřadnice ve směru největšího rozptylu dat, tedy y. Po nalezení první hlavní komponenty je nalezena druhá, která nejlépe popisuje data ve smyslu minimální střední kvadratické odchylky po odstranění první komponenty a současně je k první komponentě kolmá (ortogonální). Algoritmus poté pokračuje, než jsou nalezeny všechny nové transformované souřadnice, přičemž sledujeme, zda už je či stále není splněna podmínka pro dostatečně malou chybu vyjádření původního vektoru. Globální optimum zaručuje algoritmus vycházející z tzv. arhunenovy-loevovy transformace nebo tzv. rozkladu na singulární hodnoty (SVD Singular Value Decomposition), případně rozklad na vlastní vektory a vlastní čísla, jehož teoretické zdůvodnění je popsáno v následující kapitole... Odvození Předpokládejme, že je dáno p-rozměrných (předpokládejme sloupcových) vektorů x k X p, k =,,,. Nyní aproximujme každý vektor x k lineární kombinací m ortonormálních vektorů e i (m p). edy platí y = e. (.) k c ki i i= oeficienty c ki lze považovat za velikost i-té souřadnice vektoru x k vyjádřeného v novém systému souřadnic s bází e i, i =,,, m, tj. platí c ki = x. e. (.) k i Volíme-li jako kritérium optimality zobrazení, jak jsme již předeslali, kritérium minimální střední kvadratické odchylky, pak musíme stanovit vztah pro určení kvadratické odchylky ε k původního vektoru x k od jeho aproximace y k. Nechť je Pak pomocí vztahů (.) a (.) je ε = x y. (.4) k k k k m ε = x c. (.5) k Střední kvadratická odchylka pro všechny vektory x k, k =,,, je i= ki - 4 -

5 m = ε k = xk ei k = k= i= k= ε x kxk ei (.6) a je závislá na volbě ortonormálního bázového systému e i, který je třeba zvolit tak, aby odchylka ε byla minimální. Diskrétní konečný rozvoj podle vztahu (.) s bázovým systémem e i, optimálním podle kritéria minimální střední kvadratické odchylky nazýváme diskrétní arhunenův - Loevův rozvoj. Aby byla střední kvadratická odchylka definovaná vztahem (.6) minimální, musí druhý člen na pravé straně uvedené rovnice nabývat maximální hodnoty (vzhledem k tomu, že první člen pravé strany uvedené rovnice je pro dané zadání úlohy konstantní). Je tedy nutné maximalizovat výraz m i= e κ( x) e, (.7) i i kde κ (x) = x kxk. (.8) k= je autokorelační matice řádu p. Z jejích vlastností (symetrická, semidefinitní) vyplývá, že její vlastní čísla λ i, i =,,, p jsou reálná, nezáporná a jim odpovídající vlastní vektory v i, i =,,, p jsou buď ortonormální, nebo je můžeme ortonormalizovat (v případě vícenásobných vlastních čísel). Uspořádáme-li vlastní čísla sestupně podle velikosti, tj. λ λ λ p 0 (.9) a podle tohoto seřazení očíslujeme i odpovídající vlastní vektory, pak lze dokázat, že výraz (.8) dosahuje maxima, jestliže platí a pro velikost maxima je e i = v i, i =,,, m (.0) max m i= m e κ( x) e = λ. (.) i i i= Pro minimální střední kvadratickou odchylku tedy platí ε m m p min = k λi = r( κ( x) ) λi = i k= i= i= i= m+ i x λ. (.) o znamená, že je rovna součtu těch vlastních čísel, jimž odpovídající vlastní vektory nebyly použity při aproximaci vektoru podle vztahu (.). Pro m = p je střední kvadratická odchylka nulová. Je-li vhodnější vektory x,, x k před aproximací centrovat, vypočítáme střední hodnotu - 5 -

6 µ = x (.) k= a místo s vektorem x k počítáme s jeho centrovanou verzí x x µ k k = k. Postup výpočtu arhunenova Loevova rozvoje se nemění, ale místo autokorelační matice používáme matici kovarianční ve tvaru Platí, že S ( x) = xk xk. (.4) k= κ ( x) = S( x) + µ. µ. (.5) Ortonormální systém e,, e m je v tom případě roven vlastním vektorům v,....., v m kovarianční matice S(x). Podobně v případě standardizovaných dat, tj. když jsou po odečtení střední hodnoty jednotlivé hodnoty proměnných ještě poděleny patřičnou směrodatnou odchylkou, pak místo autokorelační matice dostáváme korelační matici (tzn. matici hodnot Pearsonova korelačního koeficientu), které popisují vzájemné korelační vztahy mezi jednotlivými proměnnými. Závěry a důsledky vyplývající z výpočtů vlastních čísel a vektorů takovéto matice zůstávají v principu zachovány, jen je třeba si uvědomit, že se opět mění charakter výchozích dat..4. Geometrická interpretace Diskrétní arhunenův Loevův rozvoj a na něj navazující analýza hlavních komponent má velice názornou matematickou interpretaci (obr.). Nechť je původní vektorový prostor dvourozměrný a je dán veličinami x a x a vektor x má tedy v původní souřadnicové soustavě souřadnice x a x. Po transformaci souřadnicového systému, která je primárně určena vlastnostmi autokorelační matice množiny vektorů, jsou souřadnice uvedeného vektoru transformovány do hodnot y a y. Vzhledem k tomu, že je transformace souřadnicové soustavy lineární, jsou obě nové souřadnice určeny lineární kombinací souřadnic původních (obr.a,b,c), tedy y = a.x + a.x = cosα.x + sinα.x ; y = a.x + a.x = sinα.x + (cosα/cosα).x. (.6) Pokud nedojde k redukci rozměru vektorového prostoru, je vektor i v transformovaných souřadnicích vyjádřen zcela přesně. Omezíme-li ale počet souřadnic, vynechávají se nejdříve souřadnice, které způsobují menší střední kvadratickou chybu, jinými slovy méně přispívají k výsledné aproximaci, v zobrazeném případě je to souřadnice y. Hodnota chyby je určena právě těmito vynechanými souřadnicemi. Při nulovém rozptylu jsou vlastní čísla autokorelační matice κ(x) = µ.µ rovna λ = ǁµǁ a λ = = λ p = 0. Vlastní vektor v prochází právě bodem, ve kterém leží všechny vektory, a - 6 -

7 ostatní vektory v,, v p se volí tak, aby i nový souřadnicový systém byl ortonormální. Střední kvadratická odchylka je v tom případě rovna nule. Pokud data centrujeme (obr.d,e), počítáme s kovarianční maticí. Pak má transformovaná bázová soustava seřazeny osy ve směrech největších rozptylů (obr.d), které jsou v této nové souřadnicové soustavě číselně rovny vlastním číslům kovarianční matice. Vlastní čísla a vlastní vektory kovarianční matice jsou různé od vlastních čísel a vektorů autokorelační matice, proto se oba arhunenovy Loevovy rozvoje logicky liší. dyž originální data navíc vztáhneme ke směrodatné odchylce (standardizujeme), tj. odstraníme další možnou užitečnou informaci pro rozlišení dat, dále ztěžujeme výpočet vlastních čísel a vektorů matice korelačních koeficientů - množina vektorů získává kompaktnější, kulovitější tvar, stírá se rozdíl mezi vlivem jednotlivých nových souřadnic, z matematického hlediska autokorelační matice ztrácí dobrou podmíněnost, což v důsledku může vést i k výpočetním chybám (obr.f)..5. Vlastnosti arhunenův Loevův rozvoj má některé vlastnosti, které jej zvýhodňují před jinými typy transformací: při daném počtu m členů rozvoje poskytuje ze všech možných aproximací nejmenší kvadratickou odchylku; při použití kovarianční matice jsou nové transformované proměnné nekorelované; pokud se výskyt vektorů řídí normálním rozložením, zajišťuje nekorelovanost proměnných současně i nezávislost; členy rozvoje nepřispívají k aproximaci rovnoměrně, vliv každého z členů uspořádané posloupnosti aproximace se zmenšuje s jeho pořadím určeným velikostí odpovídajících vlastních čísel; změna požadavků na velikost střední kvadratické odchylky nevyžaduje přepočítat celý rozvoj, je třeba pouze změnit počet jeho členů

8 Obr. Geometrická interpretace arhunenova Loevova rozvoje.6. Zobecnění pro více tříd Až dosud jsme předpokládali, že množina aproximovaných vektorů je konečná a že vekto- ry nejsou, v případě klasifikační úlohy, rozděleny podle příslušnosti k jednotlivým klasifikač- proto se ním třídám. Pro klasifikační úlohy je však členění vektorů základním předpokladem, dále zabývejme, jak se změní podmínky, když vektory x budou patřit do R klasifikačních tříd, které budou vymezeny jako části spojitého vektorového prostoru X m. Výskyt vektorů v jed- p(x ω r ) a apriorní pravděpodob bnost klasifikačních tříd bude P(ωω r ), r =,,, R. notlivých klasifikačních třídách ω r bude popsán podmíněnými hustotami pravděpodobnosti Za těchto podmínek bude autokorelační matice κ( (x) definována vztahem R = κ( ( x ) P( ω ). r= r p X x. x. p( x ω ) dx = r p X x. x. p( x) dx (.7) a kovarianční matice buď podle předpisu - 8 -

9 S ( x ) R = r= Obr.4 Souřadnicové soustavy pro výpočet kova- rianční matice P ( ωr ). ( x µ r ).( x µ r ). p( xωr ) d x, p X (.8) kde nebo vztahem µ = r X x. p( xω ) d x, r =,,..., R, p r (.9) 0 S ( x) R = r= P( ω ). ( x µ ).( x µ ). p( xωr ) dx = = ( x µ ).( x µ ). p( x )dx, r p X p X (.0) když střední hodnota µ je vážený průměr středních hodnot (obr.4a), tj. µ R = r= P ( ω ). x. p( xω ) dx = r p X r p p X x. p ( x) dx. určených podle vztahu (.9) (.) Výpočet kovarianční matice podle vztahu (.8) bere ohled na střední hodnoty vektorů v jednotlivých klasifikačních třídách, vektory ze všech klasifikačních tříd se centrují podle středních hodnot vektorů v jednotlivých třídách (obr.4b). lasifikační třídy se tedy po vycentos. Zato rování mohou rozlišit pouze podle rozptylu ve směru jednotlivých souřadnicových jsou transformované proměnné zcela nekorelované. Naopak výpočet kovarianční matice podle vztahu (.0) centruje vektory podle celkové průměrné hodnoty, neodstraňuje vliv středních hodnot vektorů v jednotlivých klasifikačních třídách (obr.4c), a je proto lépe použít této defi- nice v těch případech, kdy jsou střední hodnoty výrazně odlišné a nesou tak významnou část - 9 -

10 informace o klasifikační úloze..7. Příklady ato podkapitola je věnována ukázkovým řešením čtyř příkladů tý- kající se analýzy hlavních komponent..7.. Příklad Předpokládejme, že množinu vekvektory Obr.5 Zadání a řešení příkladu.7. torů X tvoří dva x = (,, ) a x = (,, ) (viz obr.5). Pomocí arhunenovaa Loevova rozvoje najděme novou souřadnicovou soustavu, která umožní popsat oba vektory s minimální střední kvadratickou odchylkou. Řešení: Jak lze usoudit z elementárního znění zadání a případně i ověřit z grafického vyjádření na obr.5, oba zadané vektory leží přesně na přímce dané směrovým vektorem (,, ). Proto by tento vektor měl být první hlavní komponentou, další dvě souřadnice již nejsou pro vyjádření obou zadaných vektorů podstatné. Ověřme nyní tento intuitivní závěr výpočtem. Dle vztahu (.8) pro výpočet autokorelační matice máme,5,5,5 κ = (.. x x + x x ) =. ( ) +. ( ) =,5,5,5.,5,5,5 Autokorelační matice o rozměru x má všechny tři řádky stejné, tj. jsou lineárně závislé. Vlastní čísla λ i, která vypočítáme ze vztahu,5 λ,5,5 det,5,5 λ,5 = 0,5,5,5 λ a tedy (,5 - λ) +,5 +,5.,5.(,5 - λ) = 0 λ 7,5λ = 0 jsou λ = 7,5 a dvě násobná λ, = 0. Protože hodnota vlastního čísla určuje střední kvadratickou chybu vyjádření daného vektoznamená ru při odstranění vlastnímu číslu odpovídající souřadnice (dané vlastním vektorem), to, že i když odstraníme souřadnice dané vlastními vektory odpovídajícími vlastním číslům λ a λ a použijeme pouze souřadnici definovanou vlastním vektorem náležejícím číslu λ, jsou oba vektory x a x vyjádřeny naprosto přesně. Z cvičných důvodů ale spočítejme směry všech tří vlastních vektorů y i, i=,,, které ur- číme ze vztahu - 0 -

11 [κκ - λ.i].y = 0. Pro λ = 7,5 dostáváme lineární soustavu tří rovnic 5y +,5y +,,5y která obsahuje pouze dvě lineárně nezávislé rovnice a tedy její parametrick ké řešení je y + y y = ; y = y a y = t. Při volbě parametru t = odpovídá vlastnímu číslu λ vlastní vektor y = (,, ), jak jsme usoudilii na základě geometrického rozboru úlohy. Pro vlastní čísla λ, = 0 vypadá definiční soustavaa rovnic následovně,5y +,5 y +,,5y = 0,5y +,5 y +,,5y = 0. o znamená, že dvě rovnice jsou lineárně závislé a její parametrické řešení je y = - y - y ; y = t a y = u. Parametry t a u volíme tak, aby vlastní vektory byly navzájem ortogonální í, pro y např. t = a u =, pak y = (-,, ) a pro y např. t = - a u = a tedy y = (0, -, ). V tom případě jsou všechny tři vlastní vek- vzá- tory navzájem ortogonální, každé jejich jemné skalární součty jsou rovny nule. Jak už jsme uvedli dříve, odstraněním souřadnic daných vlastními vektory y a y a ponecháním pouze souřadnice definované vlastním vektorem y se nedopustíme žádné chyby ve vyjádření zadaných vektorů x a x Obr.6 Prostorová lokalizace vektorů x a x (oba vektory leží na souřadnicové ose dané vektorem y a protoo také obě vlastní čísla λ = λ = 0). Jak by vypadalaa situace v případě, že bychom odstranili souřadnici y? Protože body x a x leží na vrcholechh krychlí s hranami o délce, resp. protilehlých k počátku (obr.6), je je- tj. d = v případě vektoru x, resp. d = v případě vektoru x. Protože je nová souřadni- cová soustava ortogonální, promítaly by se oba vektory při odstranění osy y do počátku. A jich vzdálenost od počátku a tím i souřadnice ve směru y rovna délce prostorové úhlopříčky, konečně, vzhledem k tomu, že chybu popisu vektorů ε vyjadřujeme pomocí střední kvadra- tické odchylky, je tato chyba rovna což je právě hodnota λ.,5 y,5 y,5y 5y +,5y +,5 y +,,5y 5y +,,5y = 0; = 0; = 0, d ε = ( + d ) = ( + ) = 7,5, = 0 - -

12 .7.. Příklad Určete pomocí arhunenova-loevova rozvoje novou souřadnicovou soustavu pro situaci znázorněnou na obr., tj. pro body x 0 = (4; ), x = (,4;,8) a x = (4,6;,), která umožní popsat oba vektory s minimální střední kvadratickou odchylkou. Řešení: Autokorelační funkce pro danou množinu vektorů je κ = ( x0. x0 + x. x + x. x ) = 4,4 4,6 6,4,68 =. ( 4 ) +. (,4,8) +. ( 4,6,) =.,8,,68 9,4667 Vlastní čísla λ i, která vypočítáme ze vztahu 6,4 λ,68 det = 0,68 9,4667 λ a tedy λ 5,667λ+6,667 = 0, jsou λ = 5 a λ = 0,667. Pro λ = 5 dostáváme lineární soustavu dvou rovnic 8,76 y +,68y = 0;,68y 5,57 y = 0. 4 Rovnice jsou lineárně závislé, proto je y = y; y = t. Při volbě y = je hodnota y = 4, což představuje směrový vlastní vektor y = (4, ) odpovídající souřadnici y v obr.. Pro λ = 0667 je soustava rovnic 5,57y +,68y = 0;,68y + 8,76y = 0. Při srovnání koeficientů v obou soustavách rovnic - hodnoty jsou týž, pouze v inverzním pořadí. Proto jsou souřadnice opět lineárně závislé y = y; y = t. Při volbě y = -4 4 je y =. o zase reprezentuje vlastní vektor y = (, -4), který má týž směr jako souřadnice y v obr.. Pokud odstraníme osu y a ponecháme osu y, je střední kvadratická chyba ε (0 + + ) = = = 0,667. edy hodnota právě rovná vlastnímu číslu λ. Podobně při ( ) 75 odstranění souřadnicové osy y je chyba rovna ε = = = 5 = λ..7.. Příklad Určete pomocí arhunenova-loevova rozvoje novou souřadnicovou soustavu pro centrované body podle obr., tj. pro body x 0 = (0; 0), x = (-0,6; 0,8) a x = (0,6; -0,8), která umožní popsat oba vektory s minimální střední kvadratickou odchylkou. Řešení: - -

13 Autokorelační funkce pro danou množinu vektorů je κ = ( x0. x0 + x. x + x. x ) = 0 0,6 0,6 0,4 = ,6 0,8 +. 0,6 0,8 = 0 0,8 0,8-0, - 0, 0,4667 ( ) ( ) ( ). Vlastní čísla λ i, která vypočítáme ze vztahu 0,4 λ 0, det = 0 0, 0,4667 λ a tedy λ 0,667λ = 0, jsou λ = 0a λ = 0,667. Pro λ = 0 je soustava rovnic 0,4y 0,y = 0; 0,y + 0,4667y = 0. Při srovnání koeficientů v obou soustavách rovnic - hodnoty jsou týž, pouze v inverzním 4 pořadí. Proto jsou souřadnice opět lineárně závislé a platí y = y; y = t. Při volbě y = je y = 4. o reprezentuje vlastní vektor y = (4, ), který má týž směr jako souřadnice y v obr. i obr.. Pro λ = 0,667 dostáváme lineární soustavu dvou rovnic 0,4667 y 0, y = 0; 0, y 0,4 y = 0. Rovnice jsou lineárně závislé, proto je y = y; y = t. Při volbě y = 4 je hodnota 4 y = -, což představuje směrový vlastní vektor y = (-, 4) odpovídající souřadnici y v obr. i obr.. Pokud odstraníme osu y a ponecháme osu y je střední kvadratická chyba ε (0 + + ) = = = 0,667. edy hodnota právě rovná vlastnímu číslu λ. Podobně při ( ) odstranění souřadnicové osy y je chyba rovna ε = = 0 = λ Příklad 4 Bylo provedeno měření výšky (v cm) a váhy (v kg) u pěti dětí. Naměřené hodnoty byly zaznamenány do matice : U tohoto datového souboru proveďte analýzu hlavních komponent. - -

14 Řešení: U analýzy hlavních komponent potřebujeme nejprve spočítat kovarianční matici s s s s. Pro výpočet kovarianční matice potřebujeme znát průměrnou výšku a váhu u 5 dětí: x 00 x Jednotlivé prvky kovarianční matice poté spočítáme následujícím způsobem: Rozptyl výšky: s x x x x x x x x x x Rozptyl váhy: s x x x x x x x x x x ovariance výšky a váhy: s s x x x x x x x x x x x x x x x x x x x x ovarianční matice je tedy: s s 6 s s Nyní spočítáme vlastní čísla a vlastní vektory kovarianční matice tzn., spočítáme následující determinant: Vypočteme charakteristický polynom: A jeho kořeny, které odpovídají vlastním číslům:

15 Následně spočítáme vlastní vektor odpovídající prvnímu vlastnímu číslu 84: ~6 ~ ~4,5 0 0 v ; 4,5 v v 0 v, ; např. pro 4,5 pak dostáváme: 4,5, který je po normalizaci roven,,, 0,69 0,976. ontrola, že vektor má jednotkovou délku: 0,69 0,976. Spočítáme vlastní vektor odpovídající druhému vlastnímu číslu 4: ,5 ~8 ~6 ~ v ; v 4,5 v 0 v 4,5; např. pro pak dostáváme: 4,5, který je po normalizaci roven,, má jednotkovou délku: 0,976 0,69., 0,976 0,69. ontrola, že vektor Vlastní vektory můžeme uspořádat do matice 0,69 0,976, přičemž pořadí 0,976 0,69 vlastních vektorů odpovídá pořadí vlastních čísel seřazených od největšího k nejmenšímu. Nyní vyjádříme hlavní komponenty odpovídající vlastním číslům seřazeným od největšího k nejmenšímu hlavní komponenty jsou lineární kombinace původních proměnných, přičemž koeficienty jsou souřadnice příslušného vlastního vektoru:. hlavní komponenta: 0,69 x 0,976 x (pro 84). hlavní komponenta: 0,976 x 0,69 x (pro 4) Výpočet procent vyčerpané variability:. hlavní komponenta vyčerpává:. hlavní komponenta vyčerpává: Vyčerpanou variabilitu můžeme znázornit i pomocí sutinového grafu: 0,99 (tzn., 9,9% variability v datech) 0,0707 (tzn., 7,07% variability v datech) - 5 -

16 % vyčerpané variability 00% 50% 9,9% 7,% 0% Pořadí vlastního čísla Dále spočítáme korelace hlavních komponent s původními proměnnými:,,,,,,,, 0,674 0,998 0,7787 0,06 První hlavní je vysoce korelována s váhou a středně korelována s výškou. Druhá hlavní komponenta je středně záporně korelována s výškou. Na závěr vypočítáme nové souřadnice původních bodů po transformaci pomocí obou hlavních komponent spočítaných pomocí PCA: ,69 0, ,976 0,69 0 0,696 0, ,9766 0,69 7,5 95, 05 0,698 0, ,9768 0,69 40, 98,6 0 0,694 0, ,9764 0,696, 9,4 98 0,69 0, ,976 0,69 4,7 90,8 9 0,696 0, ,9766 0,69 6,0 89,5 Souřadnice subjektů můžeme přímo získat i z hlavních komponent např. pro první subjekt: y 0,69 x 0,976 x 0,69 00,976 67,5-6 -

17 y 0,976 x 0,69 x 0,976 00,69 695, Původní data i data po transformaci pomocí PCA si znázorníme: Data v původním prostoru Data v prostoru dvou hlavních komponent Váha hlavní komponenta (7,%) Výška hlavní komponenta (9,9%) Pokud bychom k transformaci použili pouze první vlastní vektor, získáváme data v prostoru první hlavní komponenty: Data v prostoru první hlavní komponenty hlavní komponenta (9,9%).8. Literatura [] Haruštiaková, D., Jarkovský, J., Littnerová, S., Dušek, L. Vícerozměrné statistické metody v biologii. Akademické nakladatelství CERM, s.r.o., Brno. (0) [] Holčík, J. Analýza a klasifikace dat. Akademické nakladatelství CERM, s.r.o., Brno. (0) [] Jolliffe, I.. Principal Component Analysis. Springer, New York (00).. orespondenční analýza Již převedeno do elektronické podoby

18 . Vícerozměrné škálování Již převedeno do elektronické podoby. 4. Faktorová analýza Bude posláno separátně. Obsah Ordinační analýzy Analýza hlavních komponent Výstupy z výuky Princip Odvození Geometrická interpretace Vlastnosti Zobecnění pro více tříd Příklady Příklad Příklad Příklad Příklad Literatura orespondenční analýza Vícerozměrné škálování Faktorová analýza

Úlohy k přednášce NMAG 101 a 120: Lineární algebra a geometrie 1 a 2,

Úlohy k přednášce NMAG 101 a 120: Lineární algebra a geometrie 1 a 2, Úlohy k přednášce NMAG a : Lineární algebra a geometrie a Verze ze dne. května Toto je seznam přímočarých příkladů k přednášce. Úlohy z tohoto seznamu je nezbytně nutné umět řešit. Podobné typy úloh se

Více

VEKTORY. Obrázek 1: Jediný vektor. Souřadnice vektoru jsou jeho průměty do souřadných os x a y u dvojrozměrného vektoru, AB = B A

VEKTORY. Obrázek 1: Jediný vektor. Souřadnice vektoru jsou jeho průměty do souřadných os x a y u dvojrozměrného vektoru, AB = B A VEKTORY Vektorem se rozumí množina všech orientovaných úseček, které mají stejnou velikost, směr a orientaci, což vidíme na obr. 1. Jedna konkrétní orientovaná úsečka se nazývá umístění vektoru na obr.

Více

Náhodný vektor a jeho charakteristiky

Náhodný vektor a jeho charakteristiky Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich

Více

AVDAT Mnohorozměrné metody metody redukce dimenze

AVDAT Mnohorozměrné metody metody redukce dimenze AVDAT Mnohorozměrné metody metody redukce dimenze Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování vlastní čísla a vlastní vektory A je čtvercová matice řádu n. Pak

Více

11 Analýza hlavních komponet

11 Analýza hlavních komponet 11 Analýza hlavních komponet Tato úloha provádí transformaci měřených dat na menší počet tzv. fiktivních dat tak, aby většina informace obsažená v původních datech zůstala zachována. Jedná se tedy o úlohu

Více

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s

Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných

Více

vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých mocnin). Rozhodněte o definitnosti kvadratické formy κ(x).

vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých mocnin). Rozhodněte o definitnosti kvadratické formy κ(x). Řešené příklady z lineární algebry - část 6 Typové příklady s řešením Příklad 6.: Kvadratickou formu κ(x) = x x 6x 6x x + 8x x 8x x vyjádřete ve tvaru lineární kombinace čtverců (lineární kombinace druhých

Více

Úvodem Dříve les než stromy 3 Operace s maticemi

Úvodem Dříve les než stromy 3 Operace s maticemi Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová

Více

Klasifikace a rozpoznávání. Extrakce příznaků

Klasifikace a rozpoznávání. Extrakce příznaků Klasifikace a rozpoznávání Extrakce příznaků Extrakce příznaků - parametrizace Poté co jsme ze snímače obdržely data která jsou relevantní pro naši klasifikační úlohu, je potřeba je přizpůsobit potřebám

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní

X = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní ..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X

Více

Poznámky k předmětu Aplikovaná statistika, 4. téma

Poznámky k předmětu Aplikovaná statistika, 4. téma Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické

Více

Statistická analýza jednorozměrných dat

Statistická analýza jednorozměrných dat Statistická analýza jednorozměrných dat Prof. RNDr. Milan Meloun, DrSc. Univerzita Pardubice, Pardubice 31.ledna 2011 Tato prezentace je spolufinancována Evropským sociálním fondem a státním rozpočtem

Více

Základy maticového počtu Matice, determinant, definitnost

Základy maticového počtu Matice, determinant, definitnost Základy maticového počtu Matice, determinant, definitnost Petr Liška Masarykova univerzita 18.9.2014 Matice a vektory Matice Matice typu m n je pravoúhlé (nebo obdélníkové) schéma, které má m řádků a n

Více

1 Linearní prostory nad komplexními čísly

1 Linearní prostory nad komplexními čísly 1 Linearní prostory nad komplexními čísly V této přednášce budeme hledat kořeny polynomů, které se dále budou moci vyskytovat jako složky vektorů nebo matic Vzhledem k tomu, že kořeny polynomu (i reálného)

Více

Téma 22. Ondřej Nývlt

Téma 22. Ondřej Nývlt Téma 22 Ondřej Nývlt nyvlto1@fel.cvut.cz Náhodná veličina a náhodný vektor. Distribuční funkce, hustota a pravděpodobnostní funkce náhodné veličiny. Střední hodnota a rozptyl náhodné veličiny. Sdružené

Více

NÁHODNÝ VEKTOR. 4. cvičení

NÁHODNÝ VEKTOR. 4. cvičení NÁHODNÝ VEKTOR 4. cvičení Náhodný vektor Náhodným vektorem rozumíme sloupcový vektor X=(X, X,, X n ) složený z náhodných veličin X, X,, X n, který je charakterizován sdruženým rozdělením pravděpodobnosti.

Více

maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést

maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést Úlohy k zamyšlení 1. Zdůvodněte, proč třetí řádek Hornerova schématu pro vyhodnocení polynomu p v bodě c obsahuje koeficienty polynomu r, pro který platí p(x) = (x c) r(x) + p(c). 2. Dokažte, že pokud

Více

Aplikovaná numerická matematika

Aplikovaná numerická matematika Aplikovaná numerická matematika 6. Metoda nejmenších čtverců doc. Ing. Róbert Lórencz, CSc. České vysoké učení technické v Praze Fakulta informačních technologií Katedra počítačových systémů Příprava studijních

Více

I. D i s k r é t n í r o z d ě l e n í

I. D i s k r é t n í r o z d ě l e n í 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

Cvičná bakalářská zkouška, 1. varianta

Cvičná bakalářská zkouška, 1. varianta jméno: studijní obor: PřF BIMAT počet listů(včetně tohoto): 1 2 3 4 5 celkem Cvičná bakalářská zkouška, 1. varianta 1. Matematická analýza Najdětelokálníextrémyfunkce f(x,y)=e 4(x y) x2 y 2. 2. Lineární

Více

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu. Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.

Více

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.

1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou

Více

Zdrojem většiny příkladů je sbírka úloh 1. cvičení ( ) 2. cvičení ( )

Zdrojem většiny příkladů je sbírka úloh   1. cvičení ( ) 2. cvičení ( ) Příklady řešené na cvičení LA II - LS 1/13 Zdrojem většiny příkladů je sbírka úloh http://kam.mff.cuni.cz/~sbirka/ 1. cvičení (..13) 1. Rozhodněte, které z následujících operací jsou skalárním součinem

Více

Pravděpodobnost a aplikovaná statistika

Pravděpodobnost a aplikovaná statistika Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti

Více

Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika)

Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika) Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika) Kartézská soustava souřadnic je dána počátkem O a uspořádanou trojicí bodů E x,

Více

p(x) = P (X = x), x R,

p(x) = P (X = x), x R, 6. T y p y r o z d ě l e n í Poznámka: V odst. 5.5-5.10 jsme uvedli příklady náhodných veličin a jejich distribučních funkcí. Poznali jsme, že se od sebe liší svým typem. V příkladech 5.5, 5.6 a 5.8 jsme

Více

EUKLIDOVSKÉ PROSTORY

EUKLIDOVSKÉ PROSTORY EUKLIDOVSKÉ PROSTORY Necht L je lineární vektorový prostor nad tělesem reálných čísel R. Zobrazení (.,.) : L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx,

Více

Vlastní čísla a vlastní vektory

Vlastní čísla a vlastní vektory 5 Vlastní čísla a vlastní vektor Poznámka: Je-li A : V V lineární zobrazení z prostoru V do prostoru V někd se takové zobrazení nazývá lineárním operátorem, pak je přirozeným požadavkem najít takovou bázi

Více

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy

Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy Lukáš Havrlant Univerzita Palackého 10. ledna 2014 Primární zdroj Jiří Adámek: Foundations of Coding. Strany 137 160. Na webu ke stažení, heslo:

Více

Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé.

Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé. 1. Korelační analýza V životě většinou nesledujeme pouze jeden statistický znak. Sledujeme více statistických znaků zároveň. Kromě vlastností statistických znaků nás zajímá také jejich těsnost (velikost,

Více

Lineární zobrazení. 1. A(x y) = A(x) A(y) (vlastnost aditivity) 2. A(α x) = α A(x) (vlastnost homogenity)

Lineární zobrazení. 1. A(x y) = A(x) A(y) (vlastnost aditivity) 2. A(α x) = α A(x) (vlastnost homogenity) 4 Lineární zobrazení Definice: Nechť V a W jsou vektorové prostory Zobrazení A : V W (zobrazení z V do W nazýváme lineárním zobrazením, pokud pro všechna x V, y V a α R platí 1 A(x y = A(x A(y (vlastnost

Více

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.

1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}. VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:

Více

Necht L je lineární prostor nad R. Operaci : L L R nazýváme

Necht L je lineární prostor nad R. Operaci : L L R nazýváme Skalární součin axiomatická definice odvození velikosti vektorů a úhlu mezi vektory geometrická interpretace ortogonalita vlastnosti ortonormálních bázi [1] Definice skalárního součinu Necht L je lineární

Více

Afinita je stručný název pro afinní transformaci prostoru, tj.vzájemně jednoznačné afinní zobrazení bodového prostoru A n na sebe.

Afinita je stručný název pro afinní transformaci prostoru, tj.vzájemně jednoznačné afinní zobrazení bodového prostoru A n na sebe. 4 Afinita Afinita je stručný název pro afinní transformaci prostoru, tj.vzájemně jednoznačné afinní zobrazení bodového prostoru A n na sebe. Poznámka. Vzájemně jednoznačným zobrazením rozumíme zobrazení,

Více

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:

Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru: 3 Maticový počet 3.1 Zavedení pojmu matice Maticí typu (m, n, kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru: a 11 a 12... a 1k... a 1n a 21 a 22...

Více

0.1 Úvod do lineární algebry

0.1 Úvod do lineární algebry Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Lineární rovnice o 2 neznámých Definice 011 Lineární rovnice o dvou neznámých x, y je rovnice, která může být vyjádřena ve tvaru ax + by = c, kde

Více

Univerzita Pardubice Chemicko-technologická fakulta Katedra analytické chemie

Univerzita Pardubice Chemicko-technologická fakulta Katedra analytické chemie Univerzita Pardubice Chemicko-technologická fakulta Katedra analytické chemie 12. licenční studium PYTHAGORAS Statistické zpracování dat 3.1 Matematické principy vícerozměrných metod statistické analýzy

Více

PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti

PROSTORY SE SKALÁRNÍM SOUČINEM. Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti PROSTORY SE SKALÁRNÍM SOUČINEM Definice Nechť L je lineární vektorový prostor nad R. Zobrazení L L R splňující vlastnosti 1. (x, x) 0 x L, (x, x) = 0 x = 0, 2. (x, y) = (y, x) x, y L, 3. (λx, y) = λ(x,

Více

Učební texty k státní bakalářské zkoušce Matematika Skalární součin. študenti MFF 15. augusta 2008

Učební texty k státní bakalářské zkoušce Matematika Skalární součin. študenti MFF 15. augusta 2008 Učební texty k státní bakalářské zkoušce Matematika Skalární součin študenti MFF 15. augusta 2008 1 10 Skalární součin Požadavky Vlastnosti v reálném i komplexním případě Norma Cauchy-Schwarzova nerovnost

Více

ALGEBRA. Téma 5: Vektorové prostory

ALGEBRA. Téma 5: Vektorové prostory SLEZSKÁ UNIVERZITA V OPAVĚ Matematický ústav v Opavě Na Rybníčku 1, 746 01 Opava, tel. (553) 684 611 DENNÍ STUDIUM Téma 5: Vektorové prostory Základní pojmy Vektorový prostor nad polem P, reálný (komplexní)

Více

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic

Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je

Více

a počtem sloupců druhé matice. Spočítejme součin A.B. Označme matici A.B = M, pro její prvky platí:

a počtem sloupců druhé matice. Spočítejme součin A.B. Označme matici A.B = M, pro její prvky platí: Řešené příklady z lineární algebry - část 1 Typové příklady s řešením Příklady jsou určeny především k zopakování látky před zkouškou, jsou proto řešeny se znalostmi učiva celého semestru. Tento fakt se

Více

příkladů do cvičení. V textu se objeví i pár detailů, které jsem nestihl (na které jsem zapomněl) a(b u) = (ab) u, u + ( u) = 0 = ( u) + u.

příkladů do cvičení. V textu se objeví i pár detailů, které jsem nestihl (na které jsem zapomněl) a(b u) = (ab) u, u + ( u) = 0 = ( u) + u. Několik řešených příkladů do Matematiky Vektory V tomto textu je spočteno několik ukázkových příkladů které vám snad pomohou při řešení příkladů do cvičení. V textu se objeví i pár detailů které jsem nestihl

Více

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace

Vektory a matice. Obsah. Aplikovaná matematika I. Carl Friedrich Gauss. Základní pojmy a operace Vektory a matice Aplikovaná matematika I Dana Říhová Mendelu Brno Obsah 1 Vektory Základní pojmy a operace Lineární závislost a nezávislost vektorů 2 Matice Základní pojmy, druhy matic Operace s maticemi

Více

Vektorový prostor. Př.1. R 2 ; R 3 ; R n Dvě operace v R n : u + v = (u 1 + v 1,...u n + v n ), V (E 3 )...množina vektorů v E 3,

Vektorový prostor. Př.1. R 2 ; R 3 ; R n Dvě operace v R n : u + v = (u 1 + v 1,...u n + v n ), V (E 3 )...množina vektorů v E 3, Vektorový prostor Příklady: Př.1. R 2 ; R 3 ; R n...aritmetický n-rozměrný prostor Dvě operace v R n : součet vektorů u = (u 1,...u n ) a v = (v 1,...v n ) je vektor u + v = (u 1 + v 1,...u n + v n ),

Více

Program SMP pro kombinované studium

Program SMP pro kombinované studium Zadání příkladů k procvičení na seminář Program SMP pro kombinované studium Nejdůležitější typy příkladů - minimum znalostí před zkouškovou písemkou 1) Matice 1. Pro matice 1 0 2 1 0 3 B = 7 3 4 4 2 0

Více

MATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT

MATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT 8. licenční studium Univerzita Pardubice Fakulta chemicko-technologická Katedra analytické chemie MATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT Příklady: ) Najděte vlastní (charakteristická) čísla a vlastní

Více

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory

Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory Požadavky k písemné přijímací zkoušce z matematiky do navazujícího magisterského studia pro neučitelské obory Zkouška ověřuje znalost základních pojmů, porozumění teorii a schopnost aplikovat teorii při

Více

Analýza hlavních komponent

Analýza hlavních komponent Analýza hlavních komponent Ekonometrie Jiří Neubauer Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz J. Neubauer, J. Michálek (Katedra ekonometrie UO) Analýza

Více

Vícerozměrné statistické metody

Vícerozměrné statistické metody Vícerozměrné statistické metody Ordinační analýzy principy redukce dimenzionality Jiří Jarkovský, Simona Littnerová FSTA: Pokročilé statistické metody Ordinační analýza a její cíle Cíle ordinační analýzy

Více

1 Projekce a projektory

1 Projekce a projektory Cvičení 3 - zadání a řešení úloh Základy numerické matematiky - NMNM20 Verze z 5. října 208 Projekce a projektory Opakování ortogonální projekce Definice (Ortogonální projekce). Uvažujme V vektorový prostor

Více

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice

Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u

Více

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y

9. T r a n s f o r m a c e n á h o d n é v e l i č i n y 9. T r a n s f o r m a c e n á h o d n é v e l i č i n y Při popisu procesů zpracováváme vstupní údaj, hodnotu x tak, že výstupní hodnota y závisí nějakým způsobem na vstupní, je její funkcí y = f(x).

Více

Matematika I, část I. Rovnici (1) nazýváme vektorovou rovnicí roviny ABC. Rovina ABC prochází bodem A a říkáme, že má zaměření u, v. X=A+r.u+s.

Matematika I, část I. Rovnici (1) nazýváme vektorovou rovnicí roviny ABC. Rovina ABC prochází bodem A a říkáme, že má zaměření u, v. X=A+r.u+s. 3.4. Výklad Předpokládejme, že v prostoru E 3 jsou dány body A, B, C neležící na jedné přímce. Těmito body prochází jediná rovina, kterou označíme ABC. Určíme vektory u = B - A, v = C - A, které jsou zřejmě

Více

Náhodné vektory a matice

Náhodné vektory a matice Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane

Více

ANALÝZA A KLASIFIKACE DAT

ANALÝZA A KLASIFIKACE DAT ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,

Více

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X

Náhodný vektor. Náhodný vektor. Hustota náhodného vektoru. Hustota náhodného vektoru. Náhodný vektor je dvojice náhodných veličin (X, Y ) T = ( X Náhodný vektor Náhodný vektor zatím jsme sledovali jednu náhodnou veličinu, její rozdělení a charakteristiky často potřebujeme vyšetřovat vzájemný vztah několika náhodných veličin musíme sledovat jejich

Více

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC

2.6. VLASTNÍ ČÍSLA A VEKTORY MATIC .6. VLASTNÍ ČÍSLA A VEKTORY MATIC V této kapitole se dozvíte: jak jsou definována vlastní (charakteristická) čísla a vektory čtvercové matice; co je to charakteristická matice a charakteristický polynom

Více

MATEMATIKA Maturitní témata společná část MZ základní úroveň (vychází z Katalogu požadavků MŠMT)

MATEMATIKA Maturitní témata společná část MZ základní úroveň (vychází z Katalogu požadavků MŠMT) MATEMATIKA Maturitní témata společná část MZ základní úroveň (vychází z Katalogu požadavků MŠMT) 1. Číselné obory 1.1 Přirozená čísla provádět aritmetické operace s přirozenými čísly rozlišit prvočíslo

Více

5. Lokální, vázané a globální extrémy

5. Lokální, vázané a globální extrémy 5 Lokální, vázané a globální extrémy Studijní text Lokální extrémy 5 Lokální, vázané a globální extrémy Definice 51 Řekneme, že f : R n R má v bodě a Df: 1 lokální maximum, když Ka, δ Df tak, že x Ka,

Více

Numerické metody a programování

Numerické metody a programování Projekt: Inovace výuky optiky se zaměřením na získání experimentálních dovedností Registrační číslo: CZ.1.7/2.2./28.157 Numerické metody a programování Lekce 4 Tento projekt je spolufinancován Evropským

Více

Zpracování digitalizovaného obrazu (ZDO) - Popisy III

Zpracování digitalizovaného obrazu (ZDO) - Popisy III Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování

Více

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík

Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné

Více

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů Strukturální regresní modely určitý nadhled nad rozličnými typy modelů Jde zlepšit odhad k-nn? Odhad k-nn konverguje pro slušné k očekávané hodnotě. ALE POMALU! Jiné přístupy přidají předpoklad o funkci

Více

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.

10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457. 0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti

Více

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017

Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017 Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 207 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia

Více

Lineární algebra : Metrická geometrie

Lineární algebra : Metrická geometrie Lineární algebra : Metrická geometrie (16. přednáška) František Štampach, Karel Klouda LS 2013/2014 vytvořeno: 6. května 2014, 10:42 1 2 Úvod Zatím jsme se lineární geometrii věnovali v kapitole o lineárních

Více

SVD rozklad a pseudoinverse

SVD rozklad a pseudoinverse SVD rozklad a pseudoinverse Odpřednesenou látku naleznete v kapitole 12 skript Abstraktní a konkrétní lineární algebra. Jiří Velebil: Lineární algebra 19.12.2016: SVD rozklad a pseudoinverse 1/21 Cíle

Více

Matematika B101MA1, B101MA2

Matematika B101MA1, B101MA2 Matematika B101MA1, B101MA2 Zařazení předmětu: povinný předmět 1.ročníku bc studia 2 semestry Rozsah předmětu: prezenční studium 2 + 2 kombinované studium 16 + 0 / semestr Zakončení předmětu: ZS zápočet

Více

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody Fakulta chemicko-technologická Katedra analytické chemie 3.2 Metody s latentními proměnnými a klasifikační metody Vypracoval: Ing. Tomáš Nekola Studium: licenční Datum: 21. 1. 2008 Otázka 1. Vypočtěte

Více

Základy teorie pravděpodobnosti

Základy teorie pravděpodobnosti Základy teorie pravděpodobnosti Náhodná veličina Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 12. února 2012 Statistika by Birom Základy teorie

Více

Požadavky ke zkoušce

Požadavky ke zkoušce Požadavky ke zkoušce Zkouška z předmětu MATEMATIKA 2 má dvě části Písemná část: Písemná část se ještě dále rozděluje na praktickou část písemku a teoretickou část test. Písemka trvá 90 minut a je v ní

Více

Náhodná veličina a její charakteristiky. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáte. Proto je proměnná, která

Náhodná veličina a její charakteristiky. Před provedením pokusu jeho výsledek a tedy ani sledovanou hodnotu neznáte. Proto je proměnná, která Náhodná veličina a její charakteristiky Náhodná veličina a její charakteristiky Představte si, že provádíte náhodný pokus, jehož výsledek jste schopni ohodnotit nějakým číslem. Před provedením pokusu jeho

Více

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru

Necht tedy máme přirozená čísla n, k pod pojmem systém lineárních rovnic rozumíme rovnice ve tvaru 2. Systémy lineárních rovnic V této kapitole se budeme zabývat soustavami lineárních rovnic s koeficienty z pole reálných případně komplexních čísel. Uvádíme podmínku pro existenci řešení systému lineárních

Více

REÁLNÁ FUNKCE JEDNÉ PROMĚNNÉ

REÁLNÁ FUNKCE JEDNÉ PROMĚNNÉ REÁLNÁ FUNKCE JEDNÉ PROMĚNNÉ 5 přednáška S funkcemi se setkáváme na každém kroku ve všech přírodních vědách ale i v každodenním životě Každá situace kdy jsou nějaký jev nebo veličina jednoznačně určeny

Více

Náhodné (statistické) chyby přímých měření

Náhodné (statistické) chyby přímých měření Náhodné (statistické) chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně

Více

Normální rozložení a odvozená rozložení

Normální rozložení a odvozená rozložení I Normální rozložení a odvozená rozložení I.I Normální rozložení Data, se kterými pracujeme, pocházejí z různých rozložení. Mohou být vychýlena (doleva popř. doprava, nebo v nich není na první pohled vidět

Více

4EK213 LINEÁRNÍ MODELY

4EK213 LINEÁRNÍ MODELY 4EK213 LINEÁRNÍ MODELY Úterý 11:00 12:30 hod. učebna SB 324 Mgr. Sekničková Jana, Ph.D. 2. PŘEDNÁŠKA MATEMATICKÝ MODEL ÚLOHY LP Mgr. Sekničková Jana, Ph.D. 2 OSNOVA PŘEDNÁŠKY Obecná formulace MM Množina

Více

Funkce a lineární funkce pro studijní obory

Funkce a lineární funkce pro studijní obory Variace 1 Funkce a lineární funkce pro studijní obory Autor: Mgr. Jaromír JUŘEK Kopírování a jakékoliv další využití výukového materiálu je povoleno pouze s uvedením odkazu na www.jarjurek.cz. 1. Funkce

Více

Vícerozměrná rozdělení

Vícerozměrná rozdělení Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.

Více

Učební texty k státní bakalářské zkoušce Matematika Vlastní čísla a vlastní hodnoty. študenti MFF 15. augusta 2008

Učební texty k státní bakalářské zkoušce Matematika Vlastní čísla a vlastní hodnoty. študenti MFF 15. augusta 2008 Učební texty k státní bakalářské zkoušce Matematika Vlastní čísla a vlastní hodnoty študenti MFF 15. augusta 2008 1 14 Vlastní čísla a vlastní hodnoty Požadavky Vlastní čísla a vlastní hodnoty lineárního

Více

Singulární rozklad. Petr Tichý. 31. října 2013

Singulární rozklad. Petr Tichý. 31. října 2013 Singulární rozklad Petr Tichý 31. října 2013 1 Outline 1 Úvod a motivace 2 Zavedení singulárního rozkladu a jeho vlastnosti 3 Výpočet a náklady na výpočet singulárního rozkladu 4 Moor-Penroseova pseudoinverze

Více

6. Vektorový počet Studijní text. 6. Vektorový počet

6. Vektorový počet Studijní text. 6. Vektorový počet 6. Vektorový počet Budeme se pohybovat v prostoru R n, což je kartézská mocnina množiny reálných čísel R; R n = R R. Obvykle nám bude stačit omezení na případy n = 1, 2, 3; nicméně teorie je platná obecně.

Více

1 Rozptyl a kovariance

1 Rozptyl a kovariance Rozptyl a kovariance Nechť X je náhodná veličina s konečnou střední hodnotou EX Potom rozptyl náhodné veličiny X definujeme jako: DX E(X EX, pokud střední hodnota na pravé straně existuje Podobně jako

Více

Úlohy nejmenších čtverců

Úlohy nejmenších čtverců Úlohy nejmenších čtverců Petr Tichý 7. listopadu 2012 1 Problémy nejmenších čtverců Ax b Řešení Ax = b nemusí existovat, a pokud existuje, nemusí být jednoznačné. Často má smysl hledat x tak, že Ax b.

Více

Diskrétní náhodná veličina

Diskrétní náhodná veličina Lekce Diskrétní náhodná veličina Výsledek náhodného pokusu může být vyjádřen slovně to vede k zavedení pojmu náhodného jevu Výsledek náhodného pokusu můžeme někdy vyjádřit i číselně, což vede k pojmu náhodné

Více

Regresní a korelační analýza

Regresní a korelační analýza Regresní a korelační analýza Mějme dvojici proměnných, které spolu nějak souvisí. x je nezávisle (vysvětlující) proměnná y je závisle (vysvětlovaná) proměnná Chceme zjistit funkční závislost y = f(x).

Více

AVDAT Náhodný vektor, mnohorozměrné rozdělení

AVDAT Náhodný vektor, mnohorozměrné rozdělení AVDAT Náhodný vektor, mnohorozměrné rozdělení Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování, náhodná veličina, rozdělení Náhodná veličina zobrazuje elementární

Více

0.1 Úvod do lineární algebry

0.1 Úvod do lineární algebry Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Vektory Definice 011 Vektorem aritmetického prostorur n budeme rozumět uspořádanou n-tici reálných čísel x 1, x 2,, x n Definice 012 Definice sčítání

Více

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel

Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou

Více

Matematický ústav Slezské univerzity v Opavě Učební texty k přednášce ALGEBRA II, letní semestr 2000/2001 Michal Marvan. 14.

Matematický ústav Slezské univerzity v Opavě Učební texty k přednášce ALGEBRA II, letní semestr 2000/2001 Michal Marvan. 14. Matematický ústav Slezské univerzity v Opavě Učební texty k přednášce ALGEBRA II, letní semestr 2000/2001 Michal Marvan 14. Vlastní vektory Bud V vektorový prostor nad polem P. Lineární zobrazení f : V

Více

PŘÍMKA A JEJÍ VYJÁDŘENÍ V ANALYTICKÉ GEOMETRII

PŘÍMKA A JEJÍ VYJÁDŘENÍ V ANALYTICKÉ GEOMETRII PŘÍMKA A JEJÍ VYJÁDŘENÍ V ANALYTICKÉ GEOMETRII V úvodu analytické geometrie jsme vysvětlili, že její hlavní snahou je popsat geometrické útvary (body, vektory, přímky, kružnice,...) pomocí čísel nebo proměnných.

Více

Regresní a korelační analýza

Regresní a korelační analýza Regresní a korelační analýza Mějme dvojici proměnných, které spolu nějak souvisí. x je nezávisle (vysvětlující) proměnná y je závisle (vysvětlovaná) proměnná Chceme zjistit funkční závislost y = f(x).

Více

Numerické metody a programování. Lekce 4

Numerické metody a programování. Lekce 4 Numerické metody a programování Lekce 4 Linarní algebra soustava lineárních algebraických rovnic a 11 a 12 x 2 a 1, N x N = b 1 a 21 a 22 x 2 a 2, N x N = b 2 a M,1 a M,2 x 2 a M,N x N = b M zkráceně A

Více

Chyby měření 210DPSM

Chyby měření 210DPSM Chyby měření 210DPSM Jan Zatloukal Stručný přehled Zdroje a druhy chyb Systematické chyby měření Náhodné chyby měření Spojité a diskrétní náhodné veličiny Normální rozdělení a jeho vlastnosti Odhad parametrů

Více

Regresní analýza 1. Regresní analýza

Regresní analýza 1. Regresní analýza Regresní analýza 1 1 Regresní funkce Regresní analýza Důležitou statistickou úlohou je hledání a zkoumání závislostí proměnných, jejichž hodnoty získáme při realizaci experimentů Vzhledem k jejich náhodnému

Více

Operace s maticemi. 19. února 2018

Operace s maticemi. 19. února 2018 Operace s maticemi Přednáška druhá 19. února 2018 Obsah 1 Operace s maticemi 2 Hodnost matice (opakování) 3 Regulární matice 4 Inverzní matice 5 Determinant matice Matice Definice (Matice). Reálná matice

Více

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory

letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme

Více