4. Učení bez učitele. Shlukování. K-means, EM. Hierarchické shlukování. Kompetitivní učení. Kohonenovy mapy.
|
|
- Marie Matoušková
- před 5 lety
- Počet zobrazení:
Transkript
1 GoBack
2 4. Učení bez učitele. Shlukování., EM. Hierarchické.. Kohonenovy mapy. Petr Pošík Katedra kybernetiky ČVUT FEL P. Pošík c 29 Aplikace umělé inteligence 1 / 53
3 Obsah P. Pošík c 29 Aplikace umělé inteligence 2 / 53
4 Opakování: Objekty jsou popsány vektorem příznaků x. Narozdíl od učení s učitelem k objektům není připojen štítek y. Učení bez učitele vytváří nové syntetické příznaky: Shlukování vytváří indikátor skupiny, do níž objekt patří, hledá potenciálně užitečné definice tříd. Kvantizace vektoru hledá prototypy, redukuje objem dat. Detekce odlehlých hodnot hledá objekty, které jsou neobvyklé (málo pravděpodobné). Redukce dimenzí promítá mnoho vstupních proměnných na několik málo nových syntetických proměnných. Extrakce příznaků odvozuje nové atributy na základě vstupních příznaků. Intuice: Při učení bez učitele chceme na základě struktury nalezené v datech odvodit nějaké nové závislé proměnné, ale obvykle nevíme, co by těmi závislými proměnnými mělo být. P. Pošík c 29 Aplikace umělé inteligence 3 / 53
5 Shlukování Aplikace Shlukování vs. klasifikace Podobnost Minkowského metrika Metriky: vlastnosti Vzdálenost mezi dvěma shluky P. Pošík c 29 Aplikace umělé inteligence 4 / 53
6 Shlukování (clustering) Shlukování Aplikace Shlukování vs. klasifikace Podobnost Minkowského metrika Metriky: vlastnosti Vzdálenost mezi dvěma shluky Cíl: nalézt v datech strukturu (výsledkem nemusí nutně být pravidla pro zařazení objektu do shluku) Shluk (cluster) je množina objektů, Problémy: 1. které si jsou vzájemně hodně podobné a 2. které se zároveň hodně liší od objektů v ostatních shlucích. Co znamená hodně podobné a hodně liší? Jaký je správný počet shluků? studuje algoritmy pro: formování shluků (cluster formation): jde o reprezentaci struktury, rozřazení dat do shluků segmentaci (segmentation): jde o popis struktury, nalezení hranic nebo středů shluků štítkování (cluster labeling): jde o definici struktury, přiřazení smysluplných jmen k jednotlivým shlukům P. Pošík c 29 Aplikace umělé inteligence 5 / 53
7 Aplikace Shlukování Aplikace Shlukování vs. klasifikace Podobnost Minkowského metrika Metriky: vlastnosti Vzdálenost mezi dvěma shluky Biologie Vytvoření taxonomie rostlin a živočichů na základě jejich vlastností; nalezení skupim genů s podobnými vzory exprese Marketing Skupiny zákazníků s podobným chováním Analýza obrazu Rozdělení obrazu na regiony usnadňuje detekci hranic a objektů Pojišt ovnictví Identifikace podvodného chování WWW Uspořádání dokumentů, weblogů podle zaměření; na webových mapách sdružování značek ke snížení jejich počtu na mapě Požadavky: Škálovatelnost Zpracování různých typů atributů Nalezení shluků libovolných tvarů Schopnost vypořádat se s šumem a odlehlými hodnotami Robustnost vůči pořadí vstupních dat Interpretovatelnost a použitelnost P. Pošík c 29 Aplikace umělé inteligence 6 / 53
8 Shlukování vs. klasifikace Shlukování Aplikace Shlukování vs. klasifikace Podobnost Minkowského metrika Metriky: vlastnosti Vzdálenost mezi dvěma shluky Klasifikace: Shlukování: podobná data tvoří třídy podobná data tvoří shluky štítek y je znám štítek y není znám podobnost na základě štítku y podobnost na základě vektoru x Klasifikace a po lineární transformaci souřadnic: P. Pošík c 29 Aplikace umělé inteligence 7 / 53
9 Co je podobnost? Shlukování Aplikace Shlukování vs. klasifikace Podobnost Minkowského metrika Metriky: vlastnosti Vzdálenost mezi dvěma shluky Podobnost se obvykle převádí na vzdálenost: Minkowského metrika: d(x 1, x 2 ) = ( D i=1 x 1,i x 2,i q ) 1 q (1) q = 1: L 1, Manhattan, city-block, pošt ácká metrika q = 2: L 2, Euklidovská vzdálenost q = : L Kosinová (úhlová) metrika: např. pro posouzení podobnosti dvou dokumentů (četnost slov) d(x 1, x 2 ) = x 1 T x 2 x 1 x 2 (2) Mahalanobisova vzdálenost: metrika řízená daty d(x 1, x 2 ) = (x 1 x 2 ) T Σ 1 (x 1 x 2 ) (3) P. Pošík c 29 Aplikace umělé inteligence 8 / 53
10 Minkowského metrika Shlukování Aplikace Shlukování vs. klasifikace Podobnost Minkowského metrika Metriky: vlastnosti Vzdálenost mezi dvěma shluky Body ve vzdálenosti 1 od počátku: 1 L 1 L 2 L 3 L 5 L 1.5 L Invariantní vůči rotaci je pouze Euklidovská metrika L 2 P. Pošík c 29 Aplikace umělé inteligence 9 / 53
11 Metriky: vlastnosti Shlukování Aplikace Shlukování vs. klasifikace Podobnost Minkowského metrika Metriky: vlastnosti Vzdálenost mezi dvěma shluky Ovlivňují tvar výsledných shluků: některé objekty mohou být blízko sebe pro jednu metriku a daleko od sebe pro jinou metriku Euklidovská: dobrá pro izotropické prostory špatná při obecných lineárních transformacích (kromě posunutí a otočení) Mahalanobisova: dobrá, pokud je dostatek dat dobrá, pokud za rozptyl a korelace v datech mohou náhodné procesy špatná, pokud za rozptyl v datech mohou skryté třídy Vyberte takovou metriku, která je invariantní vůči transformacím, které se běžně vyskytují u řešeného problému. P. Pošík c 29 Aplikace umělé inteligence 1 / 53
12 Vzdálenost mezi dvěma shluky Shlukování Aplikace Shlukování vs. klasifikace Podobnost Minkowského metrika Metriky: vlastnosti Vzdálenost mezi dvěma shluky Některé algoritmy neposuzují jen podobnost dvou objektů, ale také podobnost dvou shluků. Single-linkage, connectedness, minimum method Vzdálenost dvou shluků je rovna nejkratší vzdálenosti objektu v prvním shluku k objektu ve druhém shluku Complete-linkage, diameter, maximum method Vzdálenost dvou shluků je rovna nejdelší vzdálenosti objektu v prvním shluku k objektu ve druhém shluku Average-linkage Vzdálenost dvou shluků je průměrná vzdálenost objektu v prvním shluku k objektu ve druhém shluku Median-linkage Vzdálenost dvou shluků je medián vzdáleností objektu v prvním shluku k objektu ve druhém shluku Wardovo kritérium Zvýšení rozptylu po spojení shluků V-linakge Pravděpodobnost, že oba shluky pocházejí ze stejného rozdělení... P. Pošík c 29 Aplikace umělé inteligence 11 / 53
13 Divizivní P. Pošík c 29 Aplikace umělé inteligence 12 / 53
14 Divizivní Hierarchické (hierarchichal) algoritmy hledají shluky postupně, využívají již dříve nalezených shluků (bottom-up) Divizivní (top-down) Rozdělovací (partitional) algoritmy určují všechny shluky najednou ISODATA fuzzy C-means pro směs Gaussiánů Metody založené na teorii grafů Minimální kostra grafu Spektrální Na základě spektra matice vzdáleností redukují počet dimenzí, probíhá v prostoru s méně dimenzemi Kohonenovy mapy P. Pošík c 29 Aplikace umělé inteligence 13 / 53
15 Divizivní Algoritmus [Mac67] Je třeba předem stanovit počet shluků k Algoritmus: 1. Zvol v prostoru k centroidů 2. Přiřad objekty k tomu centroidu, ke kterému jsou nejblíž 3. Spočti novou pozici centroidů jako průměr k nim přiřazených bodů 4. Pokud se pozice centroidů změnila, jdi na 2. Algoritmus hledá minimum funkce (vnitroskupinový rozptyl): J = k j=1 n j xi,j c j 2 i=1 (4) Je rychlý, při každém spuštění může konvergovat k jinému lokálnímu optimu J [Mac67] J. B. MacQueen. Some methods for classification and analysis of multivariate observations. In Proceedings of 5-th Berkeley Symposium on Mathematical Statistics and Probability, volume 1, pages , Berkeley, University of California Press. P. Pošík c 29 Aplikace umělé inteligence 14 / 53
16 Ilustrace Divizivní K means clustering: iteration P. Pošík c 29 Aplikace umělé inteligence 15 / 53
17 Ilustrace Divizivní K means clustering: iteration P. Pošík c 29 Aplikace umělé inteligence 16 / 53
18 Ilustrace Divizivní K means clustering: iteration P. Pošík c 29 Aplikace umělé inteligence 17 / 53
19 Ilustrace Divizivní K means clustering: iteration P. Pošík c 29 Aplikace umělé inteligence 18 / 53
20 Ilustrace Divizivní K means clustering: iteration P. Pošík c 29 Aplikace umělé inteligence 19 / 53
21 Ilustrace Divizivní K means clustering: iteration P. Pošík c 29 Aplikace umělé inteligence 2 / 53
22 Divizivní Gaussovo rozdělení: N(x µ, Σ) = 1 (2π) D 2 Σ 1 2 exp{ 1 2 (x µ)t Σ 1 (x µ)} (5) Maximálně věrohodné (maximum likelihood, ML) odhady parametrů: µ ML = 1 N Σ ML = 1 N N x n (6) n=1 N (x n µ ML )(x n µ ML ) T (7) n=1 Směs Gaussovských rozdělení (GMM, Gaussian mixture model): P(x) = K α k N(x µ k, Σ k ) (8) k=1 Normalizace a požadavek pozitivity: K k=1 α k = 1 α k 1 P. Pošík c 29 Aplikace umělé inteligence 21 / 53
23 : Příklad Divizivní 5 x P. Pošík c 29 Aplikace umělé inteligence 22 / 53
24 Divizivní Funkce věrohodnosti parametrů GMM: L(α, µ, Σ) = P(X α, µ, Σ) = N n=1 K α k P(x n µ k, Σ k ) (9) k=1 Logaritmus funkce věrohodnosti pro GMM (logaritus je rostoucí funkce, pozice extrémů se nemění): ln L(α, µ, Σ) = N K ln α k P(x n µ k, Σ k ) (1) n=1 k=1, Dempster, Laird, Rubin (1977) [DLR77] odhad parametrů GMM metodou maximální věrohodnosti (α, µ, Σ ) = arg max ln L(α, µ, Σ) α,µ,σ Neexistuje explicitní řešení (α =..., µ =..., Σ =... ) opakuje 2 kroky: 1. Expectation 2. Maximization [DLR77] Arthur P. Dempster, Nan M. Laird, and Donald B. Rubin. Maximum likelihood from incomplete data via the EM algorithm. Journal of the Royal Statistical Society, 39(1):1 38, P. Pošík c 29 Aplikace umělé inteligence 23 / 53
25 (neformálně) Divizivní Porovnání s :, 1. krok: ke kterému centroidu má daný bod nejblíž? EM alg., krok E: s jakou pravděpodobností byl daný bod vygenerován k-tou Gaussovskou složkou (někdy se těmto číslům říká responsibilities)? n, k, n (1,..., N), k (1,..., K) : γ k (x n ) = α kp(x n µ k, Σ k ) K i=1 α ip(x n µ i, Σ i ) Interpretace: koeficienty směsi α k se dají interpretovat jako apriorní pravděpodobnosti: (11) p(x) = K k=1 p(k) α k N(x µ k, Σ k ) p(x k) Odpovídající posteriorní pravděpodobnosti: p(k x) = p(k)p(x k) p(x) = α kp(x µ k, Σ k ) K i=1 α ip(x µ i, Σ i ) = γ k(x) (12) P. Pošík c 29 Aplikace umělé inteligence 24 / 53
26 (neformálně) Divizivní Porovnání s :, 2. krok: úprava souřadnic centroidů pro jednotlivé shluky na základě aktuálního přiřazení objektů do shluků EM alg., krok M: úprava parametrů GMM na základě aktuálně platných responsibilities: k (1,..., K) : α k = 1 N N γ k (x n ) (13) n=1 µ k = N n=1 γ k(x n )x n N n=1 γ k(x n ) (14) Σ k = N n=1 γ k(x n )(x n µ k )(x n µ k ) T N n=1 γ k(x n ) (15) P. Pošík c 29 Aplikace umělé inteligence 25 / 53
27 Příklad: Zdrojová data Divizivní P. Pošík c 29 Aplikace umělé inteligence 26 / 53
28 Příklad: Vstup do EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 27 / 53
29 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 28 / 53
30 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 29 / 53
31 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 3 / 53
32 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 31 / 53
33 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 32 / 53
34 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 33 / 53
35 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 34 / 53
36 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 35 / 53
37 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 36 / 53
38 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 37 / 53
39 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 38 / 53
40 Příklad: Iterace EM algoritmu Divizivní P. Pošík c 29 Aplikace umělé inteligence 39 / 53
41 Příklad: Skutečnost a odhad EM algoritmu Skutečnost a odhad si jsou velice blízké: Máme dostatek dat Známe správný počet shluků Měli jsme štěstí, že EM alg. zkonvergoval do správného lokálního optima funkce věrohodnosti P. Pošík c 29 Aplikace umělé inteligence 4 / 53
42 Divizivní S.C.Johnson, 1967 [Joh67] N objektů, N N matice vzdáleností Algoritmus: 1. Vytvoř N shluků, každý s 1 bodem 2. Najdi nejbližší (nejpodobnější) dvojici shluků a spoj je do jednoho 3. Vypočti vzdálenosti mezi nově vzniklým shlukem a ostatními shluky 4. Opakuj 2 a 3, dokud existuje více než 1 shluk Využívá vzdálenost mezi dvěma shluky [Joh67] Stephen Johnson. Hierarchical clustering schemes. Psychometrika, 32(3): , P. Pošík c 29 Aplikace umělé inteligence 41 / 53
43 Ilustrace Divizivní Acura Olds Chrysler Dodge VW Honda Pontiac Mitsub. Nissan Audi Mercedes BMW Saab Volvo Mazda Toyota Buick Ford Isuzu Eagle Corvette Porsche Str. diagram pro 22 případů Úplné spojení Euklid. vzdálenosti Řez stromem pro 5 shluků Řez stromem pro 4 shluky Vzdálen. spojení P. Pošík c 29 Aplikace umělé inteligence 42 / 53
44 Ilustrace 5 Výsledek metodou hierarchického spojování Divizivní Faktor Mazda Toyota Eagle Porsche Corvette Audi MercedesSaab Volvo Honda Buick BMW Chrysler VW Pontiac DodgeNissan Ford Mitsub. Acura Isuzu -1 Olds Faktor 1 P. Pošík c 29 Aplikace umělé inteligence 43 / 53
45 Divizivní Divizivní 1. Zařad všechny body do jednoho shluku. 2. Rozděl shluk na několik (na 2?) menších shluků, např. algoritmem k-means. 3. Pro každý shluk, který je možné a vhodné dále dělit, pokračuj bodem 2. P. Pošík c 29 Aplikace umělé inteligence 44 / 53
46 Co je kompetitivní učení? Kohonenova mapa Algoritmus učení Funkce sousedství Ukázky činnosti P. Pošík c 29 Aplikace umělé inteligence 45 / 53
47 Co je kompetitivní učení? Co je kompetitivní učení? Kohonenova mapa Algoritmus učení Funkce sousedství Ukázky činnosti obecný princip využívající soutěž mezi elementy učení bez učitele systém se sám organizuje Aplikováno na úlohu : neurony jsou typickými představitely dat ( centroidy ) ukážeme-li síti nový bod, neurony soutěží o to, který z nich bude jeho reprezentantem soutěž probíhá na základě podobnosti neuronu a bodu P. Pošík c 29 Aplikace umělé inteligence 46 / 53
48 Kohonenova mapa Kohonenova mapa (self-organising map, SOM; self-organising feature map, SOFM) je jednovrstvá neuronová sít, kde všechny vstupy x i jsou propojeny do všech neuronů u j, neurony u j jsou uspořádány v nějaké mřížce (tj. mají souřadnice v mřížce a každý neuron ví, které další neurony jsou jeho sousedé), x 1 x 2 x 3 x w ji u j neurony u j leží ve stejném prostoru jako trénovací body x i, jejich pozice je dána váhovými vektory w j. Kohonenova mapa realizuje učení bez učitele (redukci dimenzí, ) vektory x excitují neurony u j, které jsou v prostoru blízko nich (d(x, w j ) je malá) vektory x 1 a x 2, které jsou v prostoru blízko sebe, velmi pravděpodobně excitují stejné neurony a tyto neurony jsou v mřížce blízko u sebe váhy w j představují prototyp ( střed shluku ); představují diskrétní aproximaci rozdělení trénovacích případů x i více neuronů se po naučení sítě nachází v oblastech s vyšší koncentrací trénovacích příkladů a opačně P. Pošík c 29 Aplikace umělé inteligence 47 / 53
49 Algoritmus učení Co je kompetitivní učení? Kohonenova mapa Algoritmus učení Funkce sousedství Ukázky činnosti Algoritmus 1: Učení SOM begin Inicializuj váhové vektory w j neuronů. Vyber trénovací vektor x. Najdi v mapě neuron u j, pro který je d(w j, x) minimální. Označ jej BMU (Best matching unit). Uprav váhy neuronů podle w j w j + h t BMU (j) (x w j) (16) 6 7 Inkrementuj počítadlo t a opakuj od kroku 3, dokud je t < t max end Velká role okolí při učení: topologické uspořádání (řetězec, mřížka,... ) vzdálenost sousedů (kolik kroků v mřížce musím udělat) mění se v čase jeho průměr postupně klesá je realizováno tzv. funkcí sousedství hbmu t (j) P. Pošík c 29 Aplikace umělé inteligence 48 / 53
50 Funkce sousedství Co je kompetitivní učení? Kohonenova mapa Algoritmus učení Funkce sousedství Ukázky činnosti hbmu t (j) je funkce sousedství, časově proměnné jádro: klesající funkce vzdálenosti mezi neuronem u j a BMU měřená v prostoru mřížky, např. Gaussovská: h t BMU (j) = α(t) exp ( d grid(u BMU, u j ) 2 σ(t) 2 kde α(t) (, 1) je rychlost učení (learning rate) a σ(t) je směrodatná odchylka Gaussiánu. Jak α(t), tak σ(t) monotónně klesají s přibývajícím časem. ) (17) BMU σ(t) P. Pošík c 29 Aplikace umělé inteligence 49 / 53
51 Ukázky činnosti Co je kompetitivní učení? Kohonenova mapa Algoritmus učení Funkce sousedství Ukázky činnosti Klasické Kohonenova mapa ve 3D Problém obchodního cestujícího P. Pošík c 29 Aplikace umělé inteligence 5 / 53
52 Shrnutí Reference P. Pošík c 29 Aplikace umělé inteligence 51 / 53
53 Shrnutí Shrnutí Reference je jednou z podoblastí učení bez učitele. Rozdělovací většinou je nutné zadat počet vytvářených shluků (některé algoritmy, např. ISODATA, umí počet shluků stanovit, ale potřebují dodatečné informace) : rychlá konvergence k lokálnímu optimu ztrátové funkce, snadno se implementuje pro směs Gaussiánů: obecný algoritmus, stále ještě poměrně jednoduchý algoritmus s rychlou konvergencí, je schopný vypořádat se s chybějícími daty Počet shluků lze volit až na základě dendrogramu Nutno předem zvolit typ vzdálenosti shluků (nevíme, který funguje lépe) P. Pošík c 29 Aplikace umělé inteligence 52 / 53
54 Reference Shrnutí Reference [DLR77] [Joh67] [Mac67] Arthur P. Dempster, Nan M. Laird, and Donald B. Rubin. Maximum likelihood from incomplete data via the EM algorithm. Journal of the Royal Statistical Society, 39(1):1 38, Stephen Johnson. Hierarchical clustering schemes. Psychometrika, 32(3): , J. B. MacQueen. Some methods for classification and analysis of multivariate observations. In Proceedings of 5-th Berkeley Symposium on Mathematical Statistics and Probability, volume 1, pages , Berkeley, University of California Press. P. Pošík c 29 Aplikace umělé inteligence 53 / 53
Státnice odborné č. 20
Státnice odborné č. 20 Shlukování dat Shlukování dat. Metoda k-středů, hierarchické (aglomerativní) shlukování, Kohonenova mapa SOM Shlukování dat Shluková analýza je snaha o seskupení objektů do skupin
VíceVícerozměrné statistické metody
Vícerozměrné statistické metody Shluková analýza Jiří Jarkovský, Simona Littnerová FSTA: Pokročilé statistické metody Typy shlukových analýz Shluková analýza: cíle a postupy Shluková analýza se snaží o
VíceFakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody
Fakulta chemicko-technologická Katedra analytické chemie 3.2 Metody s latentními proměnnými a klasifikační metody Vypracoval: Ing. Tomáš Nekola Studium: licenční Datum: 21. 1. 2008 Otázka 1. Vypočtěte
VíceAlgoritmy pro shlukování prostorových dat
Algoritmy pro shlukování prostorových dat Marta Žambochová Katedra matematiky a informatiky Fakulta sociálně ekonomická Univerzita J. E. Purkyně v Ústí nad Labem ROBUST 21. 26. leden 2018 Rybník - Hostouň
VíceUČENÍ BEZ UČITELE. Václav Hlaváč
UČENÍ BEZ UČITELE Václav Hlaváč Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz, http://cmp.felk.cvut.cz/~hlavac 1/22 OBSAH PŘEDNÁŠKY ÚVOD Učení
VíceAVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza
AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Shluková analýza Cílem shlukové analýzy je nalézt v datech podmnožiny
VíceVícerozměrné statistické metody
Praktické řešení v software Statistica Jiří Jarkovský, Simona Littnerová Vícerozměrné metody 1. Vstupní data pro vícerozměrné analýzy 2. Metriky podobností a vzdáleností 3. Cluster Analysis 4. Principal
Víceoddělení Inteligentní Datové Analýzy (IDA)
Vytěžování dat Filip Železný Katedra počítačů oddělení Inteligentní Datové Analýzy (IDA) 22. září 2014 Filip Železný (ČVUT) Vytěžování dat 22. září 2014 1 / 25 Odhad rozdělení Úloha: Vstup: data D = {
VíceKatedra kybernetiky, FEL, ČVUT v Praze.
Strojové učení a dolování dat přehled Jiří Kléma Katedra kybernetiky, FEL, ČVUT v Praze http://ida.felk.cvut.cz posnova přednášek Přednáška Učitel Obsah 1. J. Kléma Úvod do předmětu, učení s a bez učitele.
VíceKlasifikace a rozpoznávání
Klasifikace a rozpoznávání Prezentace přednášek M. Španěl, 2009 Ústav počítačové grafiky a multimédií Téma přednášky Unsupervised techniky Obsah: Literatura Úvod do shlukování Metriky, základní přístupy,
VícePřednáška 13 Redukce dimenzionality
Vytěžování Dat Přednáška 13 Redukce dimenzionality Miroslav Čepek Fakulta Elektrotechnická, ČVUT Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti ČVUT (FEL) Redukce dimenzionality 1 /
VíceAlgoritmy a struktury neuropočítačů ASN P3
Algoritmy a struktury neuropočítačů ASN P3 SOM algoritmus s učitelem i bez učitele U-matice Vektorová kvantizace Samoorganizující se mapy ( Self-Organizing Maps ) PROČ? Základní myšlenka: analogie s činností
VíceÚvodem Dříve les než stromy 3 Operace s maticemi
Obsah 1 Úvodem 13 2 Dříve les než stromy 17 2.1 Nejednoznačnost terminologie 17 2.2 Volba metody analýzy dat 23 2.3 Přehled vybraných vícerozměrných metod 25 2.3.1 Metoda hlavních komponent 26 2.3.2 Faktorová
VíceLineární diskriminační funkce. Perceptronový algoritmus.
Lineární. Perceptronový algoritmus. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics P. Pošík c 2012 Artificial Intelligence 1 / 12 Binární klasifikace
VíceANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz
ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT prof. Ing. Jiří Holčík,, CSc. NEURONOVÉ SÍTĚ otázky a odpovědi 1 AKD_predn4, slide 8: Hodnota výstupu závisí na znaménku funkce net i, tedy na tom, zda bude suma
VíceKybernetika a umělá inteligence, cvičení 10/11
Kybernetika a umělá inteligence, cvičení 10/11 Program 1. seminární cvičení: základní typy klasifikátorů a jejich princip 2. počítačové cvičení: procvičení na problému rozpoznávání číslic... body za aktivitu
VíceKlasifikace a rozpoznávání. Lineární klasifikátory
Klasifikace a rozpoznávání Lineární klasifikátory Opakování - Skalární součin x = x1 x 2 w = w T x = w 1 w 2 x 1 x 2 w1 w 2 = w 1 x 1 + w 2 x 2 x. w w T x w Lineární klasifikátor y(x) = w T x + w 0 Vyber
VíceMiroslav Čepek
Vytěžování Dat Přednáška 5 Self Organizing Map Miroslav Čepek Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti 21.10.2014 Miroslav Čepek
VíceZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ
Metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných
VíceRosenblattův perceptron
Perceptron Přenosové funkce Rosenblattův perceptron Rosenblatt r. 1958. Inspirace lidským okem Podle fyziologického vzoru je třívrstvá: Vstupní vrstva rozvětvovací jejím úkolem je mapování dvourozměrného
VíceProfilování vzorků heroinu s využitím vícerozměrné statistické analýzy
Profilování vzorků heroinu s využitím vícerozměrné statistické analýzy Autor práce : RNDr. Ivo Beroun,CSc. Vedoucí práce: prof. RNDr. Milan Meloun, DrSc. PROFILOVÁNÍ Profilování = klasifikace a rozlišování
VíceShluková analýza dat a stanovení počtu shluků
Shluková analýza dat a stanovení počtu shluků Autor: Tomáš Löster Vysoká škola ekonomická v Praze Ostrava, červen 2017 Osnova prezentace Úvod a teorie shlukové analýzy Podrobný popis shlukování na příkladu
VíceÚloha - rozpoznávání číslic
Úloha - rozpoznávání číslic Vojtěch Franc, Tomáš Pajdla a Tomáš Svoboda http://cmp.felk.cvut.cz 27. listopadu 26 Abstrakt Podpůrný text pro cvičení předmětu X33KUI. Vysvětluje tři způsoby rozpoznávání
VíceVytěžování znalostí z dat
Pavel Kordík (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 10 1/50 Vytěžování znalostí z dat Pavel Kordík Department of Computer Systems Faculty of Information Technology Czech Technical
VíceÚvod do optimalizace, metody hladké optimalizace
Evropský sociální fond Investujeme do vaší budoucnosti Úvod do optimalizace, metody hladké optimalizace Matematika pro informatiky, FIT ČVUT Martin Holeňa, 13. týden LS 2010/2011 O čem to bude? Příklady
VícePříklad 2: Obsah PCB v játrech zemřelých lidí. Zadání: Data: Program:
Příklad 2: Obsah PCB v játrech zemřelých lidí Zadání: V rámci Monitoringu zdraví byly měřeny koncentrace polychlorovaných bifenylů vjátrech lidí zemřelých náhodnou smrtí ve věku 40 let a více. Sedm vybraných
VíceBayesovská klasifikace digitálních obrazů
Výzkumný ústav geodetický, topografický a kartografický Bayesovská klasifikace digitálních obrazů Výzkumná zpráva č. 1168/2010 Lubomír Soukup prosinec 2010 1 Úvod V průběhu nedlouhého historického vývoje
VíceAVDAT Mnohorozměrné metody, metody klasifikace
AVDAT Mnohorozměrné metody, metody klasifikace Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Mnohorozměrné metody Regrese jedna náhodná veličina je vysvětlována pomocí jiných
VíceKlasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce p íznaků Granáty Četnost Jablka Váha [dkg] Pravděpodobnosti - diskrétní p íznaky Uvažujme diskrétní p íznaky váhové kategorie Nechť tabulka
VíceZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ
metodický list č. 1 Dobývání znalostí z databází Cílem tohoto tematického celku je vysvětlení základních pojmů z oblasti dobývání znalostí z databází i východisek dobývání znalostí z databází inspirovaných
VíceKatedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group
Vytěžování dat Miroslav Čepek, Filip Železný Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme
Víceodlehlých hodnot pomocí algoritmu k-means
Chybějící a odlehlé hodnoty; odstranění odlehlých hodnot pomocí algoritmu k-means Návod ke druhému cvičení Matěj Holec, holecmat@fel.cvut.cz ZS 2011/2012 Úvod Cílem cvičení je připomenout důležitost předzpracování
VíceStatistické metody v ekonomii. Ing. Michael Rost, Ph.D.
Statistické metody v ekonomii Ing. Michael Rost, Ph.D. Jihočeská univerzita v Českých Budějovicích Shluková analýza Shluková analýza je souhrnným názvem pro celou řadu výpočetních algoritmů, jejichž cílem
VíceVytěžování znalostí z dat
Pavel Kordík, Josef Borkovec (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 8 1/26 Vytěžování znalostí z dat Pavel Kordík, Josef Borkovec Department of Computer Systems Faculty of Information
VíceUmělé neuronové sítě
Umělé neuronové sítě 17. 3. 2018 5-1 Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2 Neuronové aktivační
VíceSTATISTICKÉ NÁSTROJE A JEJICH VYUŽITÍ PŘI SEGMENTACI TRHU STATISTICAL TOOLS AND THEIR UTILIZATION DURING THE PROCESS OF MARKETING SEGMENTATION
STATISTICKÉ NÁSTROJE A JEJICH VYUŽITÍ PŘI SEGMENTACI TRHU STATISTICAL TOOLS AND THEIR UTILIZATION DURING THE PROCESS OF MARKETING SEGMENTATION Anna Čermáková Michael Rost Abstrakt Cílem příspěvku bylo
VíceOptimální rozdělující nadplocha 4. Support vector machine. Adaboost.
Optimální rozdělující nadplocha. Support vector machine. Adaboost. Petr Pošík Czech Technical University in Prague Faculty of Electrical Engineering Dept. of Cybernetics Opakování Lineární diskriminační
VíceDobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Bayesovské modely Doc. RNDr. Iveta Mrázová, CSc.
VíceModerní systémy pro získávání znalostí z informací a dat
Moderní systémy pro získávání znalostí z informací a dat Jan Žižka IBA Institut biostatistiky a analýz PřF & LF, Masarykova universita Kamenice 126/3, 625 00 Brno Email: zizka@iba.muni.cz Bioinformatika:
VíceInstance based learning
Učení založené na instancích Instance based learning Charakteristika IBL (nejbližších sousedů) Tyto metody nepředpokládají určitý model nejsou strukturované a typicky nejsou příliš užitečné pro porozumění
VíceAlgoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)
Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů) Autor: Vladimir Vapnik Vapnik, V. The Nature of Statistical Learning Theory.
VíceMiroslav Čepek
Vytěžování Dat Přednáška 4 Shluková analýza Miroslav Čepek Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti 14.10.2014 Miroslav Čepek
VíceKlasifikace a rozpoznávání. Bayesovská rozhodovací teorie
Klasifikace a rozpoznávání Bayesovská rozhodovací teorie Extrakce příznaků 3 25 2 Granáty Jablka Četnost 15 1 5 2 3 4 5 6 7 8 Váha [dkg] Pravděpodobnosti - diskrétní příznaky Uvažujme diskrétní příznaky
VíceHledání optimální polohy stanic a zastávek na tratích regionálního významu
Hledání optimální polohy stanic a zastávek na tratích regionálního významu Václav Novotný 31. 10. 2018 Anotace 1. Dopravní obsluha území tratěmi regionálního významu 2. Cíle výzkumu a algoritmus práce
VíceOdhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
VíceModifikace algoritmu FEKM
Modifikace algoritmu FEKM Marta Žambochová Katedra matematiky a informatiky Fakulta sociálně ekonomická Univerzita J. E. Purkyně v Ústí nad Labem ROBUST 9. 14. září 2012 Němčičky Motivace Potřeba metod
VíceUž bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely
Učení bez učitele Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely Klastrování Kohonenovy mapy LVQ (Učení vektorové kvantizace) Zbývá: Hybridní modely (kombinace učení bez učitele
VíceAlgoritmy a struktury neuropočítačů ASN - P11
Aplikace UNS při rozpoznání obrazů Základní úloha segmentace obrazu rozdělení obrazu do několika významných oblastí klasifikační úloha, clusterová analýza target Metody Kohonenova metoda KSOM Kohonenova
VíceTSO NEBO A INVARIANTNÍ ROZPOZNÁVACÍ SYSTÉMY
TSO NEBO A INVARIANTNÍ ROZPOZNÁVACÍ SYSTÉMY V PROSTŘEDÍ MATLAB K. Nováková, J. Kukal FJFI, ČVUT v Praze ÚPŘT, VŠCHT Praha Abstrakt Při rozpoznávání D binárních objektů z jejich diskrétní realizace se využívají
VícePravděpodobnost v závislosti na proměnné x je zde modelován pomocí logistického modelu. exp x. x x x. log 1
Logistická regrese Menu: QCExpert Regrese Logistická Modul Logistická regrese umožňuje analýzu dat, kdy odezva je binární, nebo frekvenční veličina vyjádřená hodnotami 0 nebo 1, případně poměry v intervalu
VíceShluková analýza. Jiří Militky. Analýza experimentálních dat V. Červeně označené slide jsou jen pro doplnění informací a nezkouší se.
Červeně označené slide jsou jen pro doplnění informací a nezkouší se. Shluková analýza Jiří Militky Analýza experimentálních dat V Klasifikace objektů Rozdělení objektů do shluků dle jejich podobnosti
VíceTrénování sítě pomocí učení s učitelem
Trénování sítě pomocí učení s učitelem! předpokládá se, že máme k dispozici trénovací množinu, tj. množinu P dvojic [vstup x p, požadovaný výstup u p ]! chceme nastavit váhy a prahy sítě tak, aby výstup
VíceNeuronové sítě Ladislav Horký Karel Břinda
Neuronové sítě Ladislav Horký Karel Břinda Obsah Úvod, historie Modely neuronu, aktivační funkce Topologie sítí Principy učení Konkrétní typy sítí s ukázkami v prostředí Wolfram Mathematica Praktické aplikace
VíceStrojové učení Marta Vomlelová
Strojové učení Marta Vomlelová marta@ktiml.mff.cuni.cz KTIML, S303 Literatura 1.T. Hastie, R. Tishirani, and J. Friedman. The Elements of Statistical Learning, Data Mining, Inference and Prediction. Springer
VíceRobustní statistické metody
Populární úvod Ústav teoretické fyziky a astrofyziky, MU Brno 28. říjen 2006, Vlašim O co jde? Robustní znamená: necitlivý k malým odchylkám od ideálních předpokladů na který je metoda odhadu optimalizována.
VíceOdečítání pozadí a sledování lidí z nehybné kamery. Ondřej Šerý
Odečítání pozadí a sledování lidí z nehybné kamery Ondřej Šerý Plán Motivace a popis úlohy Rozdělení úlohy na tři části Detekce pohybu Detekce objektů Sledování objektů Rozbor každé z částí a nástin několika
VíceDetekce kartografického zobrazení z množiny
Detekce kartografického zobrazení z množiny bodů Tomáš Bayer Katedra aplikované geoinformatiky Albertov 6, Praha 2 bayertom@natur.cuni.cz Abstrakt. Detekce kartografického zobrazení z množiny bodů o známých
VíceShlukování. Zpracováno s využitím skvělého tutoriálu autorů Eamonn Keogh, Ziv Bar-Joseph a Andrew Moore
Shlukování Zpracováno s využitím skvělého tutoriálu autorů Eamonn Keogh, Ziv Bar-Joseph a Andrew Moore Motivace Míra vzdálenosti Osnova přednášky Hierarchické shlukování Hodnocení kvality rozkladu Shlukování
VíceSRE 03 - Statistické rozpoznávání
SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget ÚPGM FIT VUT Brno, burget@fit.vutbr.cz FIT VUT Brno SRE 03 - Statistické rozpoznávání vzorů II Lukáš Burget, ÚPGM FIT VUT Brno, 2006/07 1/29 Opakování
VíceZadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 2017
Zadání a řešení testu z matematiky a zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia od jara 207 Zpráva o výsledcích přijímacího řízení do magisterského navazujícího studia
Více1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15
Úvodní poznámky... 11 1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15 1.1 Základní pojmy... 15 1.2 Aplikační oblasti a etapy zpracování signálů... 17 1.3 Klasifikace diskretních
VíceGeometrické transformace
1/15 Předzpracování v prostoru obrazů Geometrické transformace Václav Hlaváč, Jan Kybic Fakulta elektrotechnická ČVUT v Praze katedra kybernetiky, Centrum strojového vnímání hlavac@fel.cvut.cz http://cmp.felk.cvut.cz/
VíceDobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze
Dobývání znalostí Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze Dobývání znalostí Pravděpodobnost a učení Doc. RNDr. Iveta Mrázová,
VíceMetody analýzy dat I. Míry a metriky - pokračování
Metody analýzy dat I Míry a metriky - pokračování Literatura Newman, M. (2010). Networks: an introduction. Oxford University Press. [168-193] Zaki, M. J., Meira Jr, W. (2014). Data Mining and Analysis:
VíceVytěžování znalostí z dat
Pavel Kordík, Jan Motl (ČVUT FIT) Vytěžování znalostí z dat BI-VZD, 2012, Přednáška 7 1/27 Vytěžování znalostí z dat Pavel Kordík, Jan Motl Department of Computer Systems Faculty of Information Technology
VíceVícerozměrné statistické metody a možnosti jejich realizace v systému STATISTICA (vzdělávací kurz)
Centrum teorie vzdělávání přírodovědných oborů Reg. č.: CZ.1.07/2.3.00/20.0166 Vícerozměrné statistické metody a možnosti jejich realizace v systému STATISTICA (vzdělávací kurz) Doc. PhDr. Miroslav Chráska,
VíceZpracování digitalizovaného obrazu (ZDO) - Popisy III
Zpracování digitalizovaného obrazu (ZDO) - Popisy III Statistické popisy tvaru a vzhledu Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování
VícePravděpodobnost, náhoda, kostky
Pravděpodobnost, náhoda, kostky Radek Pelánek IV122 Výhled pravděpodobnost náhodná čísla lineární regrese detekce shluků Dnes lehce nesourodá směs úloh souvisejících s pravděpodobností připomenutí, souvislosti
VíceNáhodné (statistické) chyby přímých měření
Náhodné (statistické) chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně
VíceMultivariátní porovnání dat - klastrová (shluková) analýza
Multivariátní porovnání dat - klastrová (shluková) analýza - bez apriorních předpokladů Shluková analýza Shluková analýza - cluster analysis úvod - definice princip algoritmy výsledky Shluková analýza
Více(supervizovaného učení), jako je regrese a klasifikace. V takové situaci pozorujeme jak soubor vlastností
Učení bez učitele Nesupervizované versus supervizované učení: Většina tohoto kurzu je zaměřena na metody učení s učitelem (supervizovaného učení), jako je regrese a klasifikace. V takové situaci pozorujeme
VíceSamoučící se neuronová síť - SOM, Kohonenovy mapy
Samoučící se neuronová síť - SOM, Kohonenovy mapy Antonín Vojáček, 14 Květen, 2006-10:33 Měření a regulace Samoorganizující neuronové sítě s učením bez učitele jsou stále více využívány pro rozlišení,
VíceVyužití metod strojového učení v bioinformatice David Hoksza
Využití metod strojového učení v bioinformatice David Hoksza SIRET Research Group Katedra softwarového inženýrství, Matematicko-fyzikální fakulta Karlova Univerzita v Praze Bioinformatika Biologické inspirace
VícePřednáška 12: Shlukování
České vysoké učení technické v Praze Fakulta informačních technologií Katedra teoretické informatiky Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti MI-ADM Algoritmy data miningu (2010/2011)
VícePoznámky k předmětu Aplikovaná statistika, 4. téma
Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické
VíceStatistická analýza dat podzemních vod. Statistical analysis of ground water data. Vladimír Sosna 1
Statistická analýza dat podzemních vod. Statistical analysis of ground water data. Vladimír Sosna 1 1 ČHMÚ, OPZV, Na Šabatce 17, 143 06 Praha 4 - Komořany sosna@chmi.cz, tel. 377 256 617 Abstrakt: Referát
VíceIng. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence
APLIKACE UMĚLÉ INTELIGENCE Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence Aplikace umělé inteligence - seminář ING. PETR HÁJEK, PH.D. ÚSTAV SYSTÉMOVÉHO INŽENÝRSTVÍ A INFORMATIKY
VíceNeparametrické odhady hustoty pravděpodobnosti
Neparametrické odhady hustoty pravděpodobnosti Václav Hlaváč Elektrotechnická fakulta ČVUT Katedra kybernetiky Centrum strojového vnímání 121 35 Praha 2, Karlovo nám. 13 hlavac@fel.cvut.cz Statistické
Více5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015
Umělé neuronové sítě 5. 4. 205 _ 5- Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce _ 5-2 Neuronové aktivační
VíceEva Fišerová a Karel Hron. Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci.
Ortogonální regrese pro 3-složkové kompoziční data využitím lineárních modelů Eva Fišerová a Karel Hron Katedra matematické analýzy a aplikací matematiky Přírodovědecká fakulta Univerzity Palackého v Olomouci
VíceKlasifikační metody pro genetická data: regularizace a robustnost
Odd medicínské informatiky a biostatistiky Ústav informatiky AV ČR, vvi Práce vznikla za finanční podpory Nadačního fondu Neuron na podporu vědy Klasifikační metody pro genetická data Regularizovaná klasifikační
VícePoznámky k předmětu Aplikovaná statistika, 4. téma
Poznámky k předmětu Aplikovaná statistika, 4. téma 4. Náhodné vektory V praxi se nám může hodit postihnout více vlastností jednoho objektu najednou, např. výšku, váhu a pohlaví člověka; rychlost chemické
VíceRoman Juránek. Fakulta informačních technologíı. Extrakce obrazových příznaků 1 / 30
Extrakce obrazových příznaků Roman Juránek Ústav počítačové grafiky a multimédíı Fakulta informačních technologíı Vysoké Učení technické v Brně Extrakce obrazových příznaků 1 / 30 Motivace Účelem extrakce
VíceOdhalení skryté struktury a vnitřních vazeb dat vícerozměrnou statistickou analýzou pitné vody
Odhalení skryté struktury a vnitřních vazeb dat vícerozměrnou statistickou analýzou pitné vody Prof. RNDr. Milan Meloun, DrSc, Katedra analytické chemie, Univerzita Pardubice, 532 10 Pardubice, milan.
VíceDefinice spojité náhodné veličiny zjednodušená verze
Definice spojité náhodné veličiny zjednodušená verze Náhodná veličina X se nazývá spojitá, jestliže existuje nezáporná funkce f : R R taková, že pro každé a, b R { }, a < b, platí P(a < X < b) = b a f
VíceAVDAT Klasický lineární model, metoda nejmenších
AVDAT Klasický lineární model, metoda nejmenších čtverců Josef Tvrdík Katedra informatiky Přírodovědecká fakulta Ostravská univerzita Lineární model y i = β 0 + β 1 x i1 + + β k x ik + ε i (1) kde y i
VíceNáhodné chyby přímých měření
Náhodné chyby přímých měření Hodnoty náhodných chyb se nedají stanovit předem, ale na základě počtu pravděpodobnosti lze zjistit, která z možných naměřených hodnot je více a která je méně pravděpodobná.
VíceMATEMATICKÁ STATISTIKA - XP01MST
MATEMATICKÁ STATISTIKA - XP01MST 1. Úvod. Matematická statistika (statistics) se zabývá vyšetřováním zákonitostí, které v sobě obsahují prvek náhody. Zpracováním hodnot, které jsou výstupem sledovaného
VíceZada ní 1. Semina rní pra ce z pr edme tu Matematický software (KI/MSW)
Zada ní. Semina rní pra ce z pr edme tu Matematický software (KI/MSW) Datum zadání: 5.. 06 Podmínky vypracování: - Seminární práce se skládá z programové části (kódy v Matlabu) a textové části (protokol
VíceOdhad parametrů N(µ, σ 2 )
Odhad parametrů N(µ, σ 2 ) Mějme statistický soubor x 1, x 2,, x n modelovaný jako realizaci náhodného výběru z normálního rozdělení N(µ, σ 2 ) s neznámými parametry µ a σ. Jaký je maximální věrohodný
VíceX = x, y = h(x) Y = y. hodnotám x a jedné hodnotě y. Dostaneme tabulku hodnot pravděpodobnostní
..08 8cv7.tex 7. cvičení - transformace náhodné veličiny Definice pojmů a základní vzorce Je-li X náhodná veličina a h : R R je měřitelná funkce, pak náhodnou veličinu Y, která je definovaná vztahem X
VíceImplementace Bayesova kasifikátoru
Implementace Bayesova kasifikátoru a diskriminačních funkcí v prostředí Matlab J. Havlík Katedra teorie obvodů Fakulta elektrotechnická České vysoké učení technické v Praze Technická 2, 166 27 Praha 6
VíceFakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:
Fakulta informačních technologií VUT Brno Předmět: Projekt: SRE Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum: 9.12.2006 Zadání Vyberte si jakékoliv 2 klasifikátory, např. GMM vs. neuronová
VíceBayesovské metody. Mnohorozměrná analýza dat
Mnohorozměrná analýza dat Podmíněná pravděpodobnost Definice: Uvažujme náhodné jevy A a B takové, že P(B) > 0. Podmíněnou pravěpodobností jevu A za podmínky, že nastal jev B, nazýváme podíl P(A B) P(A
VíceZpracování digitalizovaného obrazu (ZDO) - Segmentace II
Zpracování digitalizovaného obrazu (ZDO) - Segmentace II Další metody segmentace Ing. Zdeněk Krňoul, Ph.D. Katedra Kybernetiky Fakulta aplikovaných věd Západočeská univerzita v Plzni Zpracování digitalizovaného
VíceAlgoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy
Algoritmy a struktury neuropočítačů ASN - P2 Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy Topologie neuronových sítí (struktura, geometrie, architektura)
VíceCharakterizace rozdělení
Charakterizace rozdělení Momenty f(x) f(x) f(x) μ >μ 1 σ 1 σ >σ 1 g 1 g σ μ 1 μ x μ x x N K MK = x f( x) dx 1 M K = x N CK = ( x M ) f( x) dx ( xi M 1 C = 1 K 1) N i= 1 K i K N i= 1 K μ = E ( X ) = xf
VíceDálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU
Dálkový průzkum Země Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU Klasifikace obrazu Klasifikaci můžeme obecně definovat jako seskupování vzájemně si podobných prvků (entit) do
VíceRobustní odhady statistických parametrů
Robustní odhady statistických parametrů ěkdy pracují dobře, jinde ne. Typická data - pozorování BL Lac 100 mag 40 0 0.41 0.40 JD date 0.39 0.38 0.38223-1.586 0.017 0.40550-1.530 0.019 0.39453-1.610 0.024
VíceZpětnovazební učení Michaela Walterová Jednoocí slepým,
Zpětnovazební učení Michaela Walterová Jednoocí slepým, 17. 4. 2019 V minulých dílech jste viděli Tři paradigmata strojového učení: 1) Učení s učitelem (supervised learning) Trénovací data: vstup a požadovaný
Více