ANALÝZA A KLASIFIKACE DAT. Institut biostatistiky a analýz
|
|
- Vratislav Vopička
- před 7 lety
- Počet zobrazení:
Transkript
1 ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík,, CSc.
2 VII. VOLBA A VÝBĚR PŘÍZNAKŮ
3 ZAČÍNÁME kolik a jaké příznaky? málo příznaků možná chyba klasifikace; moc příznaků možná nepřiměřená pracnost, vysoké náklady; KOMPROMIS (potřebujeme kritérium)
4 ZAČÍNÁME KOMPROMIS (potřebujeme kritérium) přípustná míra spolehlivosti klasifikace (např. pravděpodobnost chybné klasifikace, odchylka obrazu vytvořeného z vybraných příznaků vůči určitému referenčnímu); určit ty příznakové proměnné, jejichž hodnoty nesou nejvíce informace z hlediska řešené úlohy, tj. ty proměnné, kterou jsou nejefektivnější pro vytvoření co nejoddělenějších klasifikačních tříd;
5 ZAČÍNÁME algoritmus pro určení příznakových veličin nesoucích nejvíce informace pro klasifikátor není dosud teoreticky formalizován - pouze dílčí suboptimální řešení spočívající: ve výběru nezbytného množství veličin z předem zvolené množiny; vyjádření původních veličin pomocí menšího počtu skrytých nezávislých veličin, které zpravidla nelze přímo měřit, ale mohou nebo také nemusí mít určitou věcnou interpretaci
6 VOLBA PŘÍZNAKŮ počáteční volba příznakových veličin je z velké části empirická, vychází ze zkušeností získaných při empirické klasifikaci člověkem a závisí, kromě rozboru podstaty problému i na technických (ekonomických) možnostech a schopnostech hodnoty veličin určit
7 ZÁSADY PRO VOLBU PŘÍZNAKŮ výběr veličin s minimálním rozptylem uvnitř tříd
8 ZÁSADY PRO VOLBU PŘÍZNAKŮ výběr veličin s maximální vzdáleností mezi třídami
9 ZÁSADY PRO VOLBU PŘÍZNAKŮ výběr vzájemně nekorelovaných veličin pokud jsou hodnoty jedné příznakové veličiny závislé na příznacích druhé veličiny, pak použití obou těchto veličin nepřináší žádnou další informaci pro správnou klasifikaci stačí jedna z nich, jedno která
10 ZÁSADY PRO VOLBU PŘÍZNAKŮ výběr veličin invariantních vůči deformacím volba elementů formálního popisu závisí na vlastnostech původních i předzpracovaných dat a může ovlivňovat způsob předzpracování
11 VÝBĚR PŘÍZNAKŮ formální popis objektu původně reprezentovaný m rozměrným vektorem se snažíme vyjádřit vektorem n rozměrným tak, aby množství diskriminační informace obsažené v původním vektoru bylo v co největší míře zachováno Z: Y m X n
12 VÝBĚR PŘÍZNAKŮ dva principiálně různé způsoby: selekce nalezení a odstranění těch příznakových funkcí, které přispívají k separabilitě klasifikačních tříd nejméně; extrakce transformace původních příznakových proměnných na menší počet jiných příznakových proměnných
13 VÝBĚR PŘÍZNAKŮ dva principiálně různé způsoby: selekce nalezení a odstranění těch příznakových funkcí, které přispívají k separabilitě klasifikačních tříd nejméně; extrakce transformace původních příznakových proměnných na menší počet jiných příznakových proměnných Abychom dokázali realizovat libovolný z obou způsobů výběru, je třeba definovat a splnit určité podmínky optimality.
14 VÝBĚR PŘÍZNAKŮ PODMÍNKY OPTIMALITY Nechť J je kriteriální funkce, jejíž pomocí vybíráme příznakové veličiny. V případě selekce vybíráme vektor x= T (x 1,,x n ) ze všech možných n-tic příznaků y i, i=1,2,,m. Optimalizaci selekce příznaků formálně zapíšeme jako Zy= ( ) extr J( ) Problémy k řešení: stanovení kriteriální funkce; stanovení nového rozměru kriteriální funkce; stanovení optimalizačního postupu
15 VÝBĚR PŘÍZNAKŮ PODMÍNKY OPTIMALITY Nechť J je kriteriální funkce, jejíž pomocí vybíráme příznakové veličiny. V případě extrakce transformujeme příznakový prostor na základě výběru zobrazení Z z množiny všech možných zobrazení prostoru Y m do X n, tj. Příznakový prostor je pomocí optimálního zobrazení Z dán vztahem x =Z(y) Problémy k řešení: Zy= ( ) extr J( ) stanovení kriteriální funkce; stanovení nového rozměru kriteriální funkce; zvolení požadavků na vlastnosti zobrazení; stanovení optimalizačního postupu
16 SELEKCE PŘÍZNAKŮ PRAVDĚPODOBNOSTNÍ MÍRY pro bayesovské klasifikátory r je-li = ( 1, 2,, n ) možná n-tice příznaků, vybraných ze všech možných m hodnot y i, i=1,,m, n m, pak pravděpodobnost chybného rozhodnutí P eme je pro tento výběr rovna P eme J(a*) minj(a) 1 a minp( ) p( ). P( )d r r r minl( )d p( )d r r r maxp( ). P( )d r r max p( ). P( )d r r
17 SELEKCE PŘÍZNAKŮ PRAVDĚPODOBNOSTNÍ MÍRY pro dichotomický bayesovský klasifikátor (R=2) je celková pravděpodobnost chybného rozhodnutí e1 p( ). P( ) p( ). P( pravděpodobnost chyby bude maximální, když integrál bude nulový obě váhované hustoty pravděpodobnosti budou stejné, pravděpodobnost chyby bude minimální, když se obě hustoty nebudou překrývat. Čím větší vzdálenost mezi klasifikačními třídami, tím menší pravděpodobnost chyby ) d Integrál může být považován za vyjádření pravděpodobnostní vzdálenosti
18 zobecnění SELEKCE PŘÍZNAKŮ PRAVDĚPODOBNOSTNÍ MÍRY J( ) fp( ). P( ), i,12 d i i J() 0; J() = 0, když jsou hustoty pravděpodobnosti totožné; J() je maximální, když se hustoty nepřekrývají
19 SELEKCE PŘÍZNAKŮ PRAVDĚPODOBNOSTNÍ MÍRY
20 SELEKCE PŘÍZNAKŮ PRAVDĚPODOBNOSTNÍ MÍRY
21 SELEKCE PŘÍZNAKŮ PRAVDĚPODOBNOSTNÍ MÍRY pro více klasifikačních tříd tzv. bayesovská vzdálenost J BA R P( 2 ) r r1 p. ( ) d
22 SELEKCE PŘÍZNAKŮ POMĚR ROZPTYLŮ rozptyl uvnitř třídy pomocí disperzní matice D( ) kde R r1 P( ) r ( ).( ). p( )d, r T r r r p( )d r
23 SELEKCE PŘÍZNAKŮ POMĚR ROZPTYLŮ rozptyl mezi třídami může být dán pokud B( ) 0 B( ) R1 R P( r r1 s r1 kde R r1 rs P( ) lzetaké psát R r1 r P( ).( r P.) ( ). r s r r s. T rs p( )d T ).( 0 r, rs ), 0
24 SELEKCE PŘÍZNAKŮ POMĚR ROZPTYLŮ vyjádření vztahu obou rozptylů J r1 ()=tr(d -1 ().B()) J r2 ()=tr(b()/tr(d()) J r3 ()= D -1 ().B() = B() / D() J r4 () = ln(j r3 ())
25 NEPRAVDĚPODOBNOSTNÍ METRIKY Euklidovská metrika (s nejnázornější geometrickou interpretaci) n 1/2 ( x, x) (x x ) 2 E 1 2 i1 2i i 1 Hammingova metrika (Manhattan m.) n ( x, x) x x H 1 2 i1 2i i 1 Minkovského metrika n 1/m ( x, x) x x m M 1 2 i1 2i i 1
26 NEPRAVDĚPODOBNOSTNÍ METRIKY Euklidovská metrika (s nejnázornější geometrickou interpretaci) n 1/2 ( x, x) (x x ) 2 E 1 2 i1 2i i 1 Hammingova metrika (Manhattan m.) n ( x, x) x x H 1 2 i1 2i i 1 Minkovského metrika n 1/m ( x, x) x x m M 1 2 i1 2i i 1
27 NEPRAVDĚPODOBNOSTNÍ METRIKY Euklidovská metrika (s nejnázornější geometrickou interpretaci) n 1/2 ( x, x) (x x ) 2 E 1 2 i1 2i i 1 Hammingova metrika (Manhattan m.) n ( x, x) x x H 1 2 i1 2i i 1 Minkovského metrika n 1/m ( x, x) x x m M 1 2 i1 2i i 1
28 NEPRAVDĚPODOBNOSTNÍ METRIKY Čebyševova metrika C 1 2 i ( x, x) max x x Čebyševovu metriku lze vyjádřit jako limitu i1 2i ( C 1 2 m M 1 2 x, x) lim ( x, x) Sokalova metrika 2 1/2 E ( 1, 2 ) ( x, x) S 1 2 x x n
29 NEPRAVDĚPODOBNOSTNÍ METRIKY Čebyševova metrika C 1 2 i ( x, x) max x x Čebyševovu metriku lze vyjádřit jako limitu i1 2i ( C 1 2 m M 1 2 x, x) lim ( x, x) Sokalova metrika 2 1/2 E ( 1, 2 ) ( x, x) S 1 2 x x n
30 NEPRAVDĚPODOBNOSTNÍ METRIKY Čebyševova metrika C 1 2 i ( x, x) max x x Čebyševovu metriku lze vyjádřit jako limitu i1 2i ( C 1 2 m M 1 2 x, x) lim ( x, x) Sokalova metrika 2 1/2 E ( 1, 2 ) ( x, x) S 1 2 x x n
31 NEPRAVDĚPODOBNOSTNÍ METRIKY Volba podle toho jak potřebujeme posílit vliv proměnných, u nichž je pro dané obrazy x 1 a x 2 velký rozdíl.
32 NEPRAVDĚPODOBNOSTNÍ METRIKY nevýhody: fyzikální nesmyslnost vytvářet kombinaci veličin s různým fyzikálním rozměrem jsou-li příznakové veličiny zahrnovány do výsledné vzdálenosti se stejnými vahami, zvyšuje se vliv korelovaných veličin
33 NEPRAVDĚPODOBNOSTNÍ METRIKY možné odstranění (potlačení) nevýhod: vztažením k nějakému vyrovnávacímu faktoru, např. střední hodnotě, směrodatné odchylce, normě daného obrazu x=(x 1, x 2,,x n ) n x x, 2 i i 1 rozpětí max minx, resp. standardizací podle vztahu x x u ij j, ij i j j ij j ij i1,..., n;j 1,..., K
34 NEPRAVDĚPODOBNOSTNÍ METRIKY možné odstranění (potlačení) nevýhod: lze i subjektivně či na základě nějaké apriorní informace o úloze přiřadit každé příznakové proměnné váhový koeficient, např. váhovaná Minkovského metrika má tvar n 1/m ( x, x) a.x x m WM 1 2 i i1 2i i 1
35 NEPRAVDĚPODOBNOSTNÍ METRIKY možné odstranění (potlačení) nevýhod: váhování příznaků lze zapsat maticově u i = T C.x i, kde prvky transformační matice C jsou definovány jako c ii = a i, pro i = 1,, n c ij = 0, pro i j Za tohoto formalismu je Euklidova metrika definována vztahem ( x, x) T( xx ). C. TCx.( x ) E / 2
36 NEPRAVDĚPODOBNOSTNÍ METRIKY možné odstranění (potlačení) nevýhod: pokud jsou složky transformovaného obrazu dány lineární kombinací více složek původního obrazu, není ani matice C, ani matice C. T C čistě diagonální. Použijeme-li místo matice C. T C inverzní kovarianční matice K -1, pak definiční vztah pro váhovanou Euklidovu metriku je definičním vztahem pro Mahalanobisovu metriku T( ). 1.( 1/ 2 ( u, u) ( x, x) x x K x x) E 1 2 MA
37 NEPRAVDĚPODOBNOSTNÍ METRIKY možné odstranění (potlačení) nevýhod: pokud jsou složky transformovaného obrazu dány lineární kombinací více složek původního obrazu, není ani matice C, ani matice C. T C čistě diagonální. Použijeme-li místo matice C. T C inverzní kovarianční matice K -1, pak definiční vztah pro váhovanou Euklidovu metriku je definičním vztahem pro Mahalanobisovu metriku T( ). 1.( 1/ 2 ( u, u) ( x, x) x x K x x) E 1 2 MA Kovarianční matice dvou (náhodných) vektorů x= T (x 1,,x m ) a y= T (y 1,,y n ) je dána vztahem K(x,y)=E((x-Ex). T (y-ey)) = [cov(x i,y j )] m,n
38 KOEFICIENTY KORELACE
39 KOEFICIENTY KORELACE TO SNAD OPAKOVAT NEMUSÍME
40 KOEFICIENTY ASOCIACE
41 KOEFICIENTY ASOCIACE Koeficienty asociace jsou míry podobnosti mezi obrazy obsahujícími logické (binární, dichotomické) příznakové veličiny. Ke zjištění podobnosti je třeba sledovat shodu či neshodu hodnot odpovídajících si příznaků čtyři možné situace
42 KOEFICIENTY ASOCIACE a) u obou obrazů sledovaný jev nastal (oba odpovídající si příznaky mají hodnotu true) pozitivní shoda; b) u obrazu x i jev nastal (x ik = true), zatímco u obrazu x j nikoliv (x jk = false); c) u obrazu x i jev nenastal (x ik = false), zatímco u obrazu x j ano (x jk = true); d) u obou obrazů sledovaný jev nenastal (oba odpovídající si příznaky mají hodnotu false) negativní shoda;
43 KOEFICIENTY ASOCIACE
44 KOEFICIENTY ASOCIACE sledujeme, kolikrát pro všechny příznaky obrazů x i a x j nastaly případy shody a neshody A+D celkový počet shod příznaků; B+C celkový počet neshod příznaků; A+B+C+D =n tj. počet příznaků obou obrazů Na základě počtu zjištěných shod a neshod jsou definovány různé koeficienty asociace.
45 KOEFICIENTY ASOCIACE Jaccardův (Tanimotův) koeficient s( (není definován pro dvojice obrazů, které vykazují negativní shodu ve všech příznacích); Sokalův- Michenerův koeficient s Diceův koeficient J SM xx, ) A i j AB C ( xx, ) A D i j A B C D s( xx, ) 2A 2A D i j 2A B C (A B) (A C)
46 KOEFICIENTY ASOCIACE Russelův- Raoův koeficient s RR ( xx, ) A i j A B C D Asociační koeficienty zpravidla nabývají hodnot z intervalu 0,1. V případě R-R koeficientu je při srovnání dvou týchž obrazů hodnota s RR = 1 pouze když došlo u všech příznaků jen k pozitivní shodě.
47 KOEFICIENTY ASOCIACE Rogersův-Tanimotův koeficient s RT ( xx, ) i j A D A D 2.( B C) Hammanův koeficient s( x, x) AD (B C) H i j AB C D A D (B C) (A B C D) Na rozdíl od všech předcházejících nabývá Hammanův koeficient hodnot z intervalu -1,1, přičemž hodnoty -1 nabývá, pokud se příznaky neshodují ani jednou, 0 nabývá když je počet shod a neshod v rovnováze a +1 je v případě úplné shody mezi všemi příznaky.
48 KOEFICIENTY ASOCIACE Na základě četností A až D lze vytvářet také dříve uvedené míry: Pearsonův korelační koeficient s( xx, ) r i j AD. BC. (A B).( C D).( A C).( B D) kritérium shody 2 s( x, x) ns. i j 2 r ( x, x) i j
49 KOEFICIENTY ASOCIACE Na základě četností A až D lze vytvářet také dříve uvedené míry: Hammingova vzdálenost ( x, x) H i j Euklidova vzdálenost B C ( E i j x, x) B C
50 KOEFICIENTY ASOCIACE Z koeficientů asociace, které vyjadřují míru podobnost lze odvodit koeficienty nepodobnosti d( x, x) 1 s( x, x) X i j V případě Jaccardova a Dicova koeficientu nepodobnosti je dodefinována hodnota i pro případy úplné negativní shody tak, že d J (x i,x j ) = d D (x i,x j ) = 0 pro A = B = C = 0 x i j
51 KOEFICIENTY ASOCIACE NÁZEV ROZSAH VZTAH Cosine 0.0,1.0 Dice 0.0,1.0 Euclid 0.0,1.0 Forbes 0.0, Hamman -1.0,1.0 Jaccard 0.0,1.0 Kulczynski 0.0,1.0 Manhattan 1.0,0.0
52 KOEFICIENTY ASOCIACE NÁZEV ROZSAH VZTAH Sokal-Michener 0.0,1.0 Pearson -1.0,1.0 Rogers-Tanimoto 0.0,1.0 Russell-Rao 0.0,1.0 Simpson 0.0,1.0 Yule -1.0,1.0
53 PODOBNOST MEZI TŘÍDAMI podobnost jednoho obrazu s více obrazy jedné třídy (skupin, množin, shluků); podobnost obrazů dvou tříd (skupin, množin, shluků); zavedeme funkci, která ke každé dvojici skupin obrazů (C i, C j ) přiřazuje číslo D(C i, C j ), které podobně jako míry podobnosti či nepodobnosti (metriky) jednotlivých obrazů musí splňovat minimálně podmínky:
54 PODOBNOST MEZI TŘÍDAMI PODMÍNKY (S1) D(C i, C j ) 0 (S2) D(C i, C j ) = D(C j, C i ) (S3) D(C i, C i ) = max i,j D(C i, C j ) (S3 ) (pro míry podobnosti) D(C i, C i ) = 0 pro všechna i (pro míry podobnosti)
55 METODA NEJBLIŽŠÍHO SOUSEDA je-li d libovolná míra nepodobnosti (vzdálenosti) dvou obrazů a C i a C j jsou libovolné skupiny množiny obrazů {x i }, i=1,,k, potom metoda nejbližšího souseda definuje mezi skupinami C i a C j vzdálenost Pozn.: D NN ( CC, ) mind(x,x) i i x p C i Při použití této metody se mohou vyskytovat v jednom shluku často i poměrně vzdálené obrazy. Tzn. metoda nejbližšího souseda může generovat shluky protáhlého tvaru. q j p q
56 METODA K NEJBLIŽŠÍCH SOUSEDŮ Je zobecněním metody nejbližšího souseda. Je definována vztahem k D ( CC, ) min d(x,x,) NNk i i x p q p C q i j tj. vzdálenost dvou shluků je definována součtem k nejkratších vzdáleností mezi obrazy dvou skupin obrazů. Pozn.: Při shlukování metoda částečně potlačuje generování řetězcových struktur.
57 METODA NEJVZDÁLENĚJŠÍHO SOUSEDA opačný princip než nejbližší sousedi Pozn.: D FN ( CC, ) max d(x,x) i i x p C i Generování protáhlých struktur tato metoda potlačuje, naopak vede ke tvorbě nevelkých kompaktních shluků. q j p q je možné i zobecnění pro více nejbližších sousedů k D ( CC, ) maxd(x,x,) FNk i i x p q p C i q j
58 METODA CENTROIDNÍ vychází z geometrického modelu v euklidovském n rozměrném prostoru a určuje vzdálenost dvou tříd jako čtverec Euklidovy vzdálenosti těžišť obou tříd. je-li těžiště třídy definováno jako střední hodnota z obrazů patřících do této třídy, tj. K x {x,x,..., x }, x x,i1,..., n, rk rk1 rk2 rkn rj rik k 1 pak 2 E D( CC, ) ( x, x), C i i i j
59 METODA PRŮMĚRNÉ VAZBY vzdálenost dvou tříd C i a C j je průměrná vzdálenost mezi všemi obrazy tříd C i a C j. Obsahuje-li shluk C i P obrazů a C j Q obrazů, pak jejich vzdálenost je definována vztahem Pozn.: D ( CC, ) 1 GA i i PQ d(x,x.) Metoda často vede k podobným výsledkům jako metoda nejvzdálenějšího souseda. P Q p1 q1 p q
60 WARDOVA METODA vzdálenost mezi třídami (shluky) je definována přírůstkem součtu čtverců odchylek mezi těžištěm a obrazy shluku vytvořeného z obou uvažovaných shluků C i a C j oproti součtu čtverců odchylek mezi obrazy a těžišti v obou shlucích C i a C j.
61 WARDOVA METODA jsou-li a těžiště tříd C i a C j a těžiště sjednocené množiny, pak Wardova vzdálenost obou shluků je definována výrazem Pozn.: xi D ( CC, ) xc k 1 i W i x j n i i (x ik xc C i x) k (x x) (x x) 2. k Metoda má tendenci vytvářet shluky zhruba stejné velikosti, tedy odstraňovat shluky malé, resp. velké. i 2 j n k 1 xc k 1 i j ik n ik k x 2
62 WARDOVA METODA
63 ALGORITMY SELEKCE PŘÍZNAKŮ výběr optimální podmnožiny obsahující n (n m) příznakových proměnných kombinatorický problém (m!/(m-n)!n! možných řešení) hledáme jen kvazioptimální řešení
64 ALGORITMUS OHRANIČENÉHO VĚTVENÍ předpoklad: monotónnost kritéria selekce - označíme-li X j množinu obsahující j příznaků, pak monotónnost kritéria znamená, že podmnožiny X 1 X 2 X j X m splňuje selekční kritérium vztah J(X 1 ) J(X 1 ) J(X m )
65 ALGORITMUS OHRANIČENÉHO VĚTVENÍ uvažme případ selekce dvou příznaků z pěti
66 ALGORITMUS SEKVENČNÍ DOPŘEDNÉ SELEKCE algoritmus začíná s prázdnou množinou, do které se vloží proměnná s nejlepší hodnotou selekčního kritéria; v každém následujícím kroku se přidá ta proměnná, která s dříve vybranými veličinami dosáhla nejlepší hodnoty kritéria, tj. J({X k+1 })=max J({X k y j }), y j {Y-X k }
67 ALGORITMUS SEKVENČNÍ ZPĚTNÉ SELEKCE algoritmus začíná s množinou všech příznakových veličin; v každém následujícím kroku se eliminuje ta proměnná, která způsobuje nejmenší pokles kriteriální funkce, tj. po (k+1). kroku platí J({X m-k-1 })=max J({X m-k -y j }), y j {X m-k }
68 ALGORITMY SEKVENČNÍ SELEKCE SUBOPTIMALITA Suboptimalita nalezeného řešení sekvenčních algoritmů je způsobena: dopředná selekce - tím, že nelze vyloučit ty veličiny, které se staly nadbytečné po přiřazení dalších veličin; zpětná selekce neexistuje možnost opravy při neoptimálním vyloučení kterékoliv proměnné; Dopředný algoritmus je výpočetně jednodušší, protože pracuje maximálně v n-rozměrném prostoru, naopak zpětný algoritmus umožňuje průběžně sledovat množství ztracené informace.
69 ALGORITMUS PLUS P MÍNUS Q po přidání p veličin se q veličin odstraní; proces probíhá, dokud se nedosáhne požadovaného počtu příznaků; je-li p>q, pracuje algoritmus od prázdné množiny; je-li p<q, varianta zpětného algoritmu
70 ALGORITMUS MIN - MAX Heuristický algoritmus vybírající příznaky na základě výpočtu hodnot kriteriální funkce pouze v jedno- a dvourozměrném příznakovém prostoru. Předpokládejme, že bylo vybráno k příznakových veličin do množiny {X k } a zbývají veličiny z množiny {Y-X k }. Výběr veličiny y j {Y-X k } přináší novou informaci, kterou můžeme ocenit relativně k libovolné veličině x i X k podle vztahu J(y j,x i ) = J(y j,x i ) - J(x i )
71 ALGORITMUS MIN - MAX Informační přírůstek J musí být co největší, ale musí být dostatečný pro všechny veličiny již zahrnuté do množiny X k. Vybíráme tedy veličinu y k+1, pro kterou platí J(y k+1,x k ) = max j min i J(y j,x i ), x i X k
ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz
ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík, CSc. VII. VOLBA A VÝBĚR PŘÍZNAKŮ ZAČÍNÁME kolik a jaké příznaky? málo příznaků možná chyba klasifikace; moc příznaků možná nepřiměřená
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT pof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz VI. VOLBA A VÝBĚR PŘÍ ZAČÍNÁME kolik a jaké příznaky? málo příznaků možná chyba klasifikace;
Shluková analýza. Jiří Militky. Analýza experimentálních dat V. Červeně označené slide jsou jen pro doplnění informací a nezkouší se.
Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Shluková analýza Jiří Militky Analýza experimentálních dat V Klasifikace objektů Rozdělení objektů do shluků dle jejich podobnosti
Úvodem Dříve les než stromy 3 Operace s maticemi
Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová
4 STATISTICKÁ ANALÝZA VÍCEROZMĚRNÝCH DAT
4 SAISICKÁ ANALÝZA VÍCEROZMĚRNÝCH DA V technické biologické ale také lékařské praxi se často vedle informací obsažených v náhodném skaláru ξ vyskytují i informace obsažené v náhodném vektoru ξ s m složkami
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jří Holčík, CSc. INVESTICE Insttut DO bostatstky ROZVOJE VZDĚLÁVÁNÍ a analýz IV - pokračování KLASIFIKACE PODLE MINIMÁLNÍ VZDÁLENOSTI METRIKY PRO URČENÍ VZDÁLENOSTI
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz III. PŘÍZNAKOVÁ KLASIFIKACE - ÚVOD PŘÍZNAKOVÝ POPIS Příznakový obraz x zpracovávaných
Shluková analýza dat a stanovení počtu shluků
Shluková analýza dat a stanovení počtu shluků Autor: Tomáš Löster Vysoká škola ekonomická v Praze Ostrava, červen 2017 Osnova prezentace Úvod a teorie shlukové analýzy Podrobný popis shlukování na příkladu
Náhodné veličiny jsou nekorelované, neexistuje mezi nimi korelační vztah. Když jsou X; Y nekorelované, nemusí být nezávislé.
1. Korelační analýza V životě většinou nesledujeme pouze jeden statistický znak. Sledujeme více statistických znaků zároveň. Kromě vlastností statistických znaků nás zajímá také jejich těsnost (velikost,
Poznámky k předmětu Aplikovaná statistika, 4. téma
Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické
Diskriminační analýza hodnocení rozdílů mezi 2 nebo více skupinami objektů charakterizovanými více znaky
Diskriminační analýza hodnocení rozdílů mezi 2 nebo více skupinami objektů charakterizovanými více znaky Interpretují rozdíly mezi předem stanovenými třídami Cílem je klasifikace objektů do skupin Hledáme
Poznámky k předmětu Aplikovaná statistika, 4. téma
Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické
5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza
5 Vícerozměrná data - kontingenční tabulky, testy nezávislosti, regresní analýza 5.1 Vícerozměrná data a vícerozměrná rozdělení Při zpracování vícerozměrných dat se hledají souvislosti mezi dvěma, případně
Regresní analýza 1. Regresní analýza
Regresní analýza 1 1 Regresní funkce Regresní analýza Důležitou statistickou úlohou je hledání a zkoumání závislostí proměnných, jejichž hodnoty získáme při realizaci experimentů Vzhledem k jejich náhodnému
Řešení příkladu - klasifikace testovacího subjektu podle minimální vzdálenosti:
Řešení příkladu - klasifikace testovacího subjektu podle minimální vzdálenosti: Postup: I) zvolení metriky pro výpočet vzdáleností dvou bodů II) zvolení metriky pro určení vzdálenosti mezi dvěma množinami
Náhodný vektor a jeho charakteristiky
Náhodný vektor a jeho číselné charakteristiky 1 Náhodný vektor a jeho charakteristiky V následující kapitole budeme věnovat pozornost pouze dvourozměřnému náhodnému vektoru, i když uvedené pojmy a jejich
Pravděpodobnost a aplikovaná statistika
Pravděpodobnost a aplikovaná statistika MGR. JANA SEKNIČKOVÁ, PH.D. 2. KAPITOLA PODMÍNĚNÁ PRAVDĚPODOBNOST 3. KAPITOLA NÁHODNÁ VELIČINA 9.11.2017 Opakování Uveďte příklad aplikace geometrické definice pravděpodobnosti
Cvičná bakalářská zkouška, 1. varianta
jméno: studijní obor: PřF BIMAT počet listů(včetně tohoto): 1 2 3 4 5 celkem Cvičná bakalářská zkouška, 1. varianta 1. Matematická analýza Najdětelokálníextrémyfunkce f(x,y)=e 4(x y) x2 y 2. 2. Lineární
1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004.
Prostá regresní a korelační analýza 1 1 Tyto materiály byly vytvořeny za pomoci grantu FRVŠ číslo 1145/2004. Problematika závislosti V podstatě lze rozlišovat mezi závislostí nepodstatnou, čili náhodnou
Rosenblattův perceptron
Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného
Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy
Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Autor práce : RNDr. Ivo Beroun,CSc. Vedoucí práce: prof. RNDr. Milan Meloun, DrSc. PROFILOVÁNÍ Profilování = klasifikace a rozlišování
MATEMATICKÁ STATISTIKA. Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci
MATEMATICKÁ STATISTIKA Dana Černá http://www.fp.tul.cz/kmd/ Katedra matematiky a didaktiky matematiky Technická univerzita v Liberci Matematická statistika Matematická statistika se zabývá matematickým
Pravděpodobnost a statistika, Biostatistika pro kombinované studium. Jan Kracík
Pravděpodobnost a statistika, Biostatistika pro kombinované studium Letní semestr 2017/2018 Tutoriál č. 2:, náhodný vektor Jan Kracík jan.kracik@vsb.cz náhodná veličina rozdělení pravděpodobnosti náhodné
Náhodné vektory a matice
Náhodné vektory a matice Jiří Militký Katedra textilních materiálů Technická Universita Liberec, Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Symbolika A B Jev jistý S (nastane
Základní pojmy teorie množin Vektorové prostory
Základní pojmy teorie množin Přednáška MATEMATIKA č. 1 Katedra ekonometrie FEM UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz 7. 10. 2010 Základní pojmy teorie množin Základní pojmy
NÁHODNÝ VEKTOR. 4. cvičení
NÁHODNÝ VEKTOR 4. cvičení Náhodný vektor Náhodným vektorem rozumíme sloupcový vektor X=(X, X,, X n ) složený z náhodných veličin X, X,, X n, který je charakterizován sdruženým rozdělením pravděpodobnosti.
1. Přednáška. Ing. Miroslav Šulai, MBA
N_OFI_2 1. Přednáška Počet pravděpodobnosti Statistický aparát používaný ve financích Ing. Miroslav Šulai, MBA 1 Počet pravděpodobnosti -náhodné veličiny 2 Počet pravděpodobnosti -náhodné veličiny 3 Jevy
4. Na obrázku je rozdělovací funkce (hustota pravděpodobnosti) náhodné veličiny X. Jakou hodnotu musí mít parametr k?
A 1. Stanovte pravděpodobnost, že náhodná veličina X nabyde hodnoty menší než 6: P( X 6). Veličina X má rozdělení se střední hodnotou 6 a směrodatnou odchylkou 5: N(6,5). a) 0 b) 1/3 c) ½ 2. Je možné,
NADSTAVBOVÝ MODUL MOHSA V1
NADSTAVBOVÝ MODUL MOHSA V1 Nadstavbový modul pro hierarchické shlukování se jmenuje Mod_Sh_Hier (MOHSA V1) je součástí souboru Shluk_Hier.xls. Tento soubor je přístupný na http://jonasova.upce.cz, a je
1 Báze a dimenze vektorového prostoru 1
1 Báze a dimenze vektorového prostoru 1 Báze a dimenze vektorového prostoru 1 2 Aritmetické vektorové prostory 7 3 Eukleidovské vektorové prostory 9 Levá vnější operace Definice 5.1 Necht A B. Levou vnější
Vícerozměrná rozdělení
Vícerozměrná rozdělení 7. září 0 Učivo: Práce s vícerozměrnými rozděleními. Sdružené, marginální, podmíněné rozdělení pravděpodobnosti. Vektorová střední hodnota. Kovariance, korelace, kovarianční matice.
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz IV. LINEÁRNÍ KLASIFIKACE PRINCIPY KLASIFIKACE pomocí diskriminačních funkcí funkcí,
Statistická analýza jednorozměrných dat
Statistická analýza jednorozměrných dat Prof. RNDr. Milan Meloun, DrSc. Univerzita Pardubice, Pardubice 31.ledna 2011 Tato prezentace je spolufinancována Evropským sociálním fondem a státním rozpočtem
Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru. Kvadratická forma v n proměnných je tak polynom n proměnných s
Kapitola 13 Kvadratické formy Definice 13.1 Kvadratická forma v n proměnných s koeficienty z tělesa T je výraz tvaru f(x 1,..., x n ) = a ij x i x j, kde koeficienty a ij T. j=i Kvadratická forma v n proměnných
Stavový model a Kalmanův filtr
Stavový model a Kalmanův filtr 2 prosince 23 Stav je veličina, kterou neznáme, ale chtěli bychom znát Dozvídáme se o ní zprostředkovaně prostřednictvím výstupů Příkladem může býapř nějaký zašuměný signál,
1 Rozptyl a kovariance
Rozptyl a kovariance Nechť X je náhodná veličina s konečnou střední hodnotou EX Potom rozptyl náhodné veličiny X definujeme jako: DX E(X EX, pokud střední hodnota na pravé straně existuje Podobně jako
Testování hypotéz o parametrech regresního modelu
Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Lineární regresní model kde Y = Xβ + e, y 1 e 1 β y 2 Y =., e = e 2 x 11 x 1 1k., X =....... β 2,
AVDAT Mnohorozměrné metody metody redukce dimenze
AVDAT Mnohorozměrné metody metody redukce dimenze Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Opakování vlastní čísla a vlastní vektory A je čtvercová matice řádu n. Pak
2D transformací. červen Odvození transformačního klíče vybraných 2D transformací Metody vyrovnání... 2
Výpočet transformačních koeficinetů vybraných 2D transformací Jan Ježek červen 2008 Obsah Odvození transformačního klíče vybraných 2D transformací 2 Meto vyrovnání 2 2 Obecné vyjádření lineárních 2D transformací
Úloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
You created this PDF from an application that is not licensed to print to novapdf printer (http://www.novapdf.com)
Závislost náhodných veličin Úvod Předchozí přednášky: - statistické charakteristiky jednoho výběrového nebo základního souboru - vztahy mezi výběrovým a základním souborem - vztahy statistických charakteristik
Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda
Předmět: MA 4 Dnešní látka Opakování: normy vektorů a matic, podmíněnost matic Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Četba: Text o lineární algebře v Příručce přežití na webových
ANALÝZA A KLASIFIKACE DAT
ANALÝZA A KLASIFIKACE DAT prof. Ing. Jiří Holčík, CSc. INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz LITERATURA Holčík, J.: přednáškové prezentace Holčík, J.: Analýza a klasifikace signálů.
Texty k přednáškám z MMAN3: 4. Funkce a zobrazení v euklidovských prostorech
Texty k přednáškám z MMAN3: 4. Funkce a zobrazení v euklidovských prostorech 1. července 2008 1 Funkce v R n Definice 1 Necht n N a D R n. Reálnou funkcí v R n (reálnou funkcí n proměnných) rozumíme zobrazení
Základy teorie pravděpodobnosti
Základy teorie pravděpodobnosti Náhodná veličina Roman Biskup (zapálený) statistik ve výslužbě, aktuálně analytik v praxi ;-) roman.biskup(at)email.cz 12. února 2012 Statistika by Birom Základy teorie
Interpolace Uvažujme třídu funkcí jedné proměnné ψ(x; a 0,..., a n ), kde a 0,..., a n jsou parametry, které popisují jednotlivé funkce této třídy. Mějme dány body x 0, x 1,..., x n, x i x k, i, k = 0,
Úvod do lineární algebry
Úvod do lineární algebry 1 Aritmetické vektory Definice 11 Mějme n N a utvořme kartézský součin R n R R R Každou uspořádanou n tici x 1 x 2 x, x n budeme nazývat n rozměrným aritmetickým vektorem Prvky
4EK213 LINEÁRNÍ MODELY
4EK213 LINEÁRNÍ MODELY Úterý 11:00 12:30 hod. učebna SB 324 Mgr. Sekničková Jana, Ph.D. 2. PŘEDNÁŠKA MATEMATICKÝ MODEL ÚLOHY LP Mgr. Sekničková Jana, Ph.D. 2 OSNOVA PŘEDNÁŠKY Obecná formulace MM Množina
stránkách přednášejícího.
Předmět: MA 4 Dnešní látka Iterační metoda Jacobiova iterační metoda Gaussova-Seidelova iterační metoda Superrelaxační metoda (metoda SOR) Metoda sdružených gradientů Četba: Text o lineární algebře v Příručce
AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza
AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Shluková analýza Cílem shlukové analýzy je nalézt v datech podmnožiny
10. cvičení z PST. 5. prosince T = (n 1) S2 X. (n 1) s2 x σ 2 q χ 2 (n 1) (1 α 2 ). q χ 2 (n 1) 2. 2 x. (n 1) s. x = 1 6. x i = 457.
0 cvičení z PST 5 prosince 208 0 (intervalový odhad pro rozptyl) Soubor (70, 84, 89, 70, 74, 70) je náhodným výběrem z normálního rozdělení N(µ, σ 2 ) Určete oboustranný symetrický 95% interval spolehlivosti
Charakterizace rozdělení
Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf
Kontingenční tabulky, korelační koeficienty
Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel 973 442029 email:jirineubauer@unobcz Budeme předpokládat, že X a Y jsou kvalitativní náhodné veličiny, obor hodnot X obsahuje r hodnot (kategorií,
Náhodné chyby přímých měření
Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.
Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44
Asociativní paměti Asociativní sítě (paměti) Cíl učení Asociace známého vstupního vzoru s daným výstupním vzorem Okoĺı známého vstupního vzoru x by se mělo také zobrazit na výstup y odpovídající x správný
Maticí typu (m, n), kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru:
3 Maticový počet 3.1 Zavedení pojmu matice Maticí typu (m, n, kde m, n jsou přirozená čísla, se rozumí soubor mn veličin a jk zapsaných do m řádků a n sloupců tvaru: a 11 a 12... a 1k... a 1n a 21 a 22...
Pravděpodobnost a statistika
Pravděpodobnost a statistika 1 Náhodné pokusy a náhodné jevy Činnostem, jejichž výsledek není jednoznačně určen podmínkami, za kterých probíhají, a které jsou (alespoň teoreticky) neomezeně opakovatelné,
Univerzita Pardubice 8. licenční studium chemometrie
Univerzita Pardubice 8. licenční studium chemometrie Statistické zpracování dat při managementu jakosti Semestrální práce Metody s latentními proměnnými a klasifikační metody Ing. Jan Balcárek, Ph.D. vedoucí
IB112 Základy matematiky
IB112 Základy matematiky Řešení soustavy lineárních rovnic, matice, vektory Jan Strejček IB112 Základy matematiky: Řešení soustavy lineárních rovnic, matice, vektory 2/53 Obsah Soustava lineárních rovnic
Klasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
Vícerozměrné statistické metody
Vícerozměrné statistické metody Podobnosti a vzdálenosti ve vícerozměrném prostoru, asociační matice II Jiří Jarkovský, Simona Littnerová Vícerozměrné statistické metody Práce s asociační maticí Vzdálenosti
VÍCEKRITERIÁLNÍ ROZHODOVANÍ
VÍCEKRITERIÁLNÍ ROZHODOVANÍ 1 Obsah Typy modelů vícekriteriálního rozhodování Základní pojmy Typy informací Cíl modelů Užitek, funkce užitku Grafické zobrazení Metody vícekriteriální analýzy variant 2
Testování hypotéz o parametrech regresního modelu
Testování hypotéz o parametrech regresního modelu Ekonometrie Jiří Neubauer Katedra kvantitativních metod FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Jiří Neubauer (Katedra UO
Příklady ke čtvrtému testu - Pravděpodobnost
Příklady ke čtvrtému testu - Pravděpodobnost 6. dubna 0 Instrukce: Projděte si všechny příklady. Každý příklad se snažte pochopit. Pak vymyslete a vyřešte příklad podobný. Tím se ujistíte, že příkladu
Zpracování náhodného vektoru. Ing. Michal Dorda, Ph.D.
Ing. Michal Dorda, Ph.D. 1 Př. 1: Cestující na vybraném spoji linky MHD byli dotazováni za účelem zjištění spokojenosti s kvalitou MHD. Legenda 1 Velmi spokojen Spokojen 3 Nespokojen 4 Velmi nespokojen
MATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT
8. licenční studium Univerzita Pardubice Fakulta chemicko-technologická Katedra analytické chemie MATEMATICKÉ PRINCIPY VÍCEROZMĚRNÉ ANALÝZY DAT Příklady: ) Najděte vlastní (charakteristická) čísla a vlastní
Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice
Vektorové podprostory, lineární nezávislost, báze, dimenze a souřadnice Vektorové podprostory K množina reálných nebo komplexních čísel, U vektorový prostor nad K. Lineární kombinace vektorů u 1, u 2,...,u
Inženýrská statistika pak představuje soubor postupů a aplikací teoretických principů v oblasti inženýrské činnosti.
Přednáška č. 1 Úvod do statistiky a počtu pravděpodobnosti Statistika Statistika je věda a postup jak rozvíjet lidské znalosti použitím empirických dat. Je založena na matematické statistice, která je
příkladů do cvičení. V textu se objeví i pár detailů, které jsem nestihl (na které jsem zapomněl) a(b u) = (ab) u, u + ( u) = 0 = ( u) + u.
Několik řešených příkladů do Matematiky Vektory V tomto textu je spočteno několik ukázkových příkladů které vám snad pomohou při řešení příkladů do cvičení. V textu se objeví i pár detailů které jsem nestihl
0.1 Úvod do lineární algebry
Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Lineární rovnice o 2 neznámých Definice 011 Lineární rovnice o dvou neznámých x, y je rovnice, která může být vyjádřena ve tvaru ax + by = c, kde
0.1 Úvod do lineární algebry
Matematika KMI/PMATE 1 01 Úvod do lineární algebry 011 Vektory Definice 011 Vektorem aritmetického prostorur n budeme rozumět uspořádanou n-tici reálných čísel x 1, x 2,, x n Definice 012 Definice sčítání
Mnohorozměrná statistická data
Statistika II Katedra ekonometrie FVL UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Statistický znak, statistický soubor Jednotlivé objekty nebo subjekty, které jsou při statistickém
ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ
metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných
UČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
Matematika pro informatiky
(FIT ČVUT v Praze) Konvexní analýza 13.týden 1 / 1 Matematika pro informatiky Jaroslav Milota Fakulta informačních technologíı České vysoké učení technické v Praze Letní semestr 2010/11 Extrémy funkce
4EK213 LINEÁRNÍ MODELY
4EK213 LINEÁRNÍ MODELY Úterý 11:00 12:30 hod. učebna SB 324 3. přednáška SIMPLEXOVÁ METODA I. OSNOVA PŘEDNÁŠKY Standardní tvar MM Základní věta LP Princip simplexové metody Výchozí řešení SM Zlepšení řešení
Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy
Teorie informace a kódování (KMI/TIK) Reed-Mullerovy kódy Lukáš Havrlant Univerzita Palackého 10. ledna 2014 Primární zdroj Jiří Adámek: Foundations of Coding. Strany 137 160. Na webu ke stažení, heslo:
ANALÝZA BIOLOGICKÝCH A KLINICKÝCH DAT V MEZIOBOROVÉM POJETÍ
ANALÝZA BIOLOGICKÝCH A KLINICKÝCH DAT V MEZIOBOROVÉM POJETÍ INVESTICE Institut DO biostatistiky ROZVOJE VZDĚLÁVÁNÍ a analýz 5. LETNÍ ŠKOLA MATEMATICKÉ BIOLOGIE ANALÝZA BIOLOGICKÝCH A KLINICKÝCH DAT V MEZIOBOROVÉM
12. cvičení z PST. 20. prosince 2017
1 cvičení z PST 0 prosince 017 11 test rozptylu normálního rozdělení Do laboratoře bylo odesláno n = 5 stejných vzorků krve ke stanovení obsahu alkoholu X v promilích alkoholu Výsledkem byla realizace
1 Vektorové prostory.
1 Vektorové prostory DefiniceMnožinu V, jejíž prvky budeme označovat a, b, c, z, budeme nazývat vektorovým prostorem právě tehdy, když budou splněny následující podmínky: 1 Je dáno zobrazení V V V, které
letní semestr Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy Matematická statistika vektory
Šárka Hudecová Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta Univerzity Karlovy letní semestr 202 Založeno na materiálech doc. Michala Kulicha Náhodný vektor často potřebujeme
Generování pseudonáhodných. Ing. Michal Dorda, Ph.D.
Generování pseudonáhodných čísel při simulaci Ing. Michal Dorda, Ph.D. 1 Úvodní poznámky V simulačních modelech se velice často vyskytují náhodné proměnné. Proto se budeme zabývat otázkou, jak při simulaci
Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.
Řešení příkladu - klasifikace testovacího subjektu pomocí Bayesova klasifikátoru: ata si vizualizujeme (Obr. ). Objem mozkových komor 9 8 7 6 5 pacienti kontroly testovací subjekt 5 6 Objem hipokampu Obr.
Jiří Neubauer. Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel
Katedra ekonometrie, FVL, UO Brno kancelář 69a, tel. 973 442029 email:jiri.neubauer@unob.cz Výsledky některých náhodných pokusů jsou přímo vyjádřeny číselně (např. při hodu kostkou padne 6). Náhodnou veličinou
Grafický a číselný popis rozložení dat 3.1 Způsoby zobrazení dat Metody zobrazení kvalitativních a ordinálních dat Metody zobrazení kvan
1 Úvod 1.1 Empirický výzkum a jeho etapy 1.2 Význam teorie pro výzkum 1.2.1 Konstrukty a jejich operacionalizace 1.2.2 Role teorie ve výzkumu 1.2.3 Proces ověření hypotéz a teorií 1.3 Etika vědecké práce
VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY
VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY Jan Krejčí 31. srpna 2006 jkrejci@physics.ujep.cz http://physics.ujep.cz/~jkrejci Obsah 1 Přímé metody řešení soustav lineárních rovnic 3 1.1 Gaussova eliminace...............................
Státnice odborné č. 20
Státnice odborné č. 20 Shlukování dat Shlukování dat. Metoda k-středů, hierarchické (aglomerativní) shlukování, Kohonenova mapa SOM Shlukování dat Shluková analýza je snaha o seskupení objektů do skupin
Základy biostatistiky II. Veřejné zdravotnictví 3.LF UK - II
Základy biostatistiky II Veřejné zdravotnictví 3.LF UK - II Teoretické rozložení-matematické modely rozložení Naměřená data Výběrové rozložení Teoretické rozložení 1 e 2 x 2 Teoretické rozložení-matematické
Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika)
Eukleidovský prostor a KSS Eukleidovský prostor je bodový prostor, ve kterém je definována vzdálenost dvou bodů (metrika) Kartézská soustava souřadnic je dána počátkem O a uspořádanou trojicí bodů E x,
1. Náhodný vektor (X, Y ) má diskrétní rozdělení s pravděpodobnostní funkcí p, kde. p(x, y) = a(x + y + 1), x, y {0, 1, 2}.
VIII. Náhodný vektor. Náhodný vektor (X, Y má diskrétní rozdělení s pravděpodobnostní funkcí p, kde p(x, y a(x + y +, x, y {,, }. a Určete číslo a a napište tabulku pravděpodobnostní funkce p. Řešení:
Matematika (CŽV Kadaň) aneb Úvod do lineární algebry Matice a soustavy rovnic
Přednáška třetí (a pravděpodobně i čtvrtá) aneb Úvod do lineární algebry Matice a soustavy rovnic Lineární rovnice o 2 neznámých Lineární rovnice o 2 neznámých Lineární rovnice o dvou neznámých x, y je
Systém rizikové analýzy při sta4ckém návrhu podzemního díla. Jan Pruška
Systém rizikové analýzy při sta4ckém návrhu podzemního díla Jan Pruška Definice spolehlivos. Spolehlivost = schopnost systému (konstrukce) zachovávat požadované vlastnos4 po celou dobu životnos4 = pravděpodobnost,
V předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti
Kapitola 5 Vektorové prostory V předchozí kapitole jsme podstatným způsobem rozšířili naši představu o tom, co je to číslo. Nadále jsou pro nás důležité především vlastnosti operací sčítání a násobení
MATICE. a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij]
MATICE Matice typu m/n nad tělesem T je soubor m n prvků z tělesa T uspořádaných do m řádků a n sloupců: a 11 a 12 a 1n a 21 a 22 a 2n A = = [a ij] a m1 a m2 a mn Prvek a i,j je prvek matice A na místě
Operační výzkum. Vícekriteriální hodnocení variant. Grafická metoda. Metoda váženého součtu.
Operační výzkum Vícekriteriální hodnocení variant. Grafická metoda. Metoda váženého součtu. Operační program Vzdělávání pro konkurenceschopnost Název projektu: Inovace magisterského studijního programu
fakulty MENDELU v Brně (LDF) s ohledem na disciplíny společného základu http://akademie.ldf.mendelu.cz/cz (reg. č. CZ.1.07/2.2.00/28.
Základy lineárního programování Vyšší matematika, Inženýrská matematika LDF MENDELU Podpořeno projektem Průřezová inovace studijních programů Lesnické a dřevařské fakulty MENDELU v Brně (LDF) s ohledem
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 2015
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od podzimu 05 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia
Lineární klasifikátory
Lineární klasifikátory Lineární klasifikátory obsah: perceptronový algoritmus základní verze varianta perceptronového algoritmu přihrádkový algoritmus podpůrné vektorové stroje Lineární klasifikátor navrhnout
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 207 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia
SPOLEHLIVOST KONSTRUKCÍ & TEORIE SPOLEHLIVOSTI část 5: Aproximační techniky
SPOLEHLIVOST KONSTRUKCÍ & TEORIE SPOLEHLIVOSTI část 5: Aproximační techniky Drahomír Novák Jan Eliáš 2012 Spolehlivost konstrukcí, Drahomír Novák & Jan Eliáš 1 část 5 Aproximační techniky 2012 Spolehlivost