Miroslav Čepek

Podobné dokumenty
Státnice odborné č. 20

Přednáška 13 Redukce dimenzionality

Vytěžování znalostí z dat

Základy vytěžování dat

Algoritmy a struktury neuropočítačů ASN P3

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Miroslav Čepek

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

LDA, logistická regrese

logistická regrese Miroslav Čepek Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti

Přednáška 12: Shlukování

Vytěžování znalostí z dat

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody

oddělení Inteligentní Datové Analýzy (IDA)

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

Vícerozměrné statistické metody

UČENÍ BEZ UČITELE. Václav Hlaváč

Obr. 1: Vizualizace dat pacientů, kontrolních subjektů a testovacího subjektu.

Samoučící se neuronová síť - SOM, Kohonenovy mapy

Algoritmy pro shlukování prostorových dat

AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

Úvodem Dříve les než stromy 3 Operace s maticemi

4. Učení bez učitele. Shlukování. K-means, EM. Hierarchické shlukování. Kompetitivní učení. Kohonenovy mapy.

Umělé neuronové sítě

Zpracování digitalizovaného obrazu (ZDO) - Popisy III

Úloha - rozpoznávání číslic

AVDAT Mnohorozměrné metody, metody klasifikace

Matematika pro geometrickou morfometrii

AVDAT Nelineární regresní model

Univerzita Pardubice 8. licenční studium chemometrie

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Algoritmy a struktury neuropočítačů ASN - P11

STATISTICKÉ ODHADY Odhady populačních charakteristik

Úvod do optimalizace, metody hladké optimalizace

Vytěžování znalostí z dat

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Numerické metody a programování. Lekce 8

Self Organizing Map. Michael Anděl. Praha & EU: Investujeme do vaší budoucnosti. 1 / 10 Slef Organizing Map

Vícerozměrné statistické metody

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Vícerozměrné statistické metody

Metody analýzy dat I (Data Analysis I) Rozsáhlé struktury a vlastnosti sítí (Large-scale Structures and Properties of Networks) - pokračování

Připomenutí co je to soustava lineárních rovnic

ZX510 Pokročilé statistické metody geografického výzkumu

Modifikace algoritmu FEKM

6 Ordinální informace o kritériích

Numerické metody a programování. Lekce 4

Rosenblattův perceptron

Algoritmus pro hledání nejkratší cesty orientovaným grafem

Metody analýzy dat I. Míry a metriky - pokračování

Co je obsahem numerických metod?

Kybernetika a umělá inteligence, cvičení 10/11

Instance based learning

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Algoritmy výpočetní geometrie

ANALYTICKÁ GEOMETRIE LINEÁRNÍCH ÚTVARŮ V ROVINĚ

Základní spádové metody

Měření dat Filtrace dat, Kalmanův filtr

Matematika pro geometrickou morfometrii (3)

1 0 0 u 22 u 23 l 31. l u11

Moderní systémy pro získávání znalostí z informací a dat

Pokročilé neparametrické metody. Klára Kubošová

VYBRANÉ PARTIE Z NUMERICKÉ MATEMATIKY

ZÁPOČTOVÁ PRÁCE Informace a neurčitost. SOMPak

Mgr. Rudolf Blažek, Ph.D. prof. RNDr. Roman Kotecký Dr.Sc.

AVDAT Mnohorozměrné metody metody redukce dimenze

Datové struktury 2: Rozptylovací tabulky

Strukturální regresní modely. určitý nadhled nad rozličnými typy modelů

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

Statistické modely tvaru a vzhledu

Aplikovaná numerická matematika

1 Rozptyl a kovariance

OPTIMALIZAČNÍ ÚLOHY. Modelový příklad problém obchodního cestujícího:

Teorie náhodných matic aneb tak trochu jiná statistika

Shluková analýza dat a stanovení počtu shluků

Úlohy k přednášce NMAG 101 a 120: Lineární algebra a geometrie 1 a 2,

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Vytěžování znalostí z dat

NG C Implementace plně rekurentní

Lineární klasifikátory

Vytěžování znalostí z dat

Aplikovaná numerická matematika - ANM

Základy vytěžování dat

Výběrové charakteristiky a jejich rozdělení

Jaroslav Tuma. 8. února 2010

Princip řešení soustavy rovnic

ANALÝZA A KLASIFIKACE DAT

3.4 Určení vnitřní struktury analýzou vícerozměrných dat

Podobnostní transformace

Analýza hlavních komponent

Aproximace binomického rozdělení normálním

Rasterizace je proces při kterém se vektorově definovaná grafika konvertuje na. x 2 x 1

2. Schurova věta. Petr Tichý. 3. října 2012

KGG/STG Statistika pro geografy

Úvod do vícerozměrných metod. Statistické metody a zpracování dat. Faktorová a komponentní analýza (Úvod do vícerozměrných metod)

(supervizovaného učení), jako je regrese a klasifikace. V takové situaci pozorujeme jak soubor vlastností

Transkript:

Vytěžování Dat Přednáška 5 Self Organizing Map Miroslav Čepek Katedra počítačů, Computational Intelligence Group Evropský sociální fond Praha & EU: Investujeme do vaší budoucnosti 21.10.2014 Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 1 / 42

Shlukovací algoritmy, jejich omezení a cíle Jaké znáte shlukovací algoritmy? KMeans, hierarchické shlukování. Mají nějaká omezení? KMeans nedopadne pokaždé stejně, nejasný počet centroidů, zaujetí pro shluky ve tvaru hyperkouĺı, hierarchické shlukování musím spočítat N 2 vzdáleností, pro větší N není jednoduché. Můžeme mít i jiné (příbuzné) cíle vizualizace mnohorozměrných dat, redukce dimenze, apod. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 2 / 42

Další shlukovací algoritmy Existuje spousta dalších algoritmů pro shlukování dat. Ukáži vám ješte jeden samoorganizující se mapy. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 3 / 42

Kompetitivní učení Jedinci (reprezentanti, centroidy, neurony, jedinci) spolu soutěží o něco :). Nepotřebuji žádného arbitra (učitele). Učitel by jim říkal, kam se mají přesunout. Každý jedinec to umí zjistit sám. Jedinci se učí z příkladů. Systém (populace jedinců) se v průběhu času samoorganizuje. A teď to zkusíme použít na shlukování. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 4 / 42

Kompetitivní učení v pohádce Vzpomínáte si na Pohádku o kráĺıch z minulé přednášky? Do země s N domy přijelo K králů a někde se usídlili. Každý král zabral domy, které mu byly nejbĺıž a z nich vybíral daně. A protože lidé chtěli, aby jim byl král co nejbĺıž, král se přestěhoval do geometrického středu domů. Tím se ale některé domy ocitly bĺıže jinému králi a tak z nich daně začal vybírat jiný král. Králové se opět přesunuli a tak dále. Nejbližší král tedy získá všechny daně z domů, které jsou mu nejbĺıž. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 5 / 42

Kompetitivní učení v KMeans KMeans také používá kompetitivní učení. Jak? KMeans je trochu skromnější. Reprezentanti (centroidy) soutěží jen o data. A nejbližší reprezentant vyhraje zabere celou instanci. Jiného reprezentanta k instanci nepustí. Bere vše. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 6 / 42

Kvantizační chyba Minule jsem v souvislosti s KMeans mluvil o optimalizaci (minimalizaci) chyby. Této chybě se říká kvantizační chyba. Vyjadřuje průměrnou vzdálenost mezi daty a odpovídajícími reprezentanty. Průměrná vzdálenost mezi králi a jejich poddanými: kvantizační chyba = 1 počet instancí k i=0 x nearest(w i ) dist(w i, x) wi je i-tý reprezentant/král. nearest(wi ) je množina instancí/poddaných, které jsou mu nejbĺıž. x je jedna z instancí. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 7 / 42

Vektorová kvantizace Cílem (nejen) KMeans je minimalizovat tuto chybu. Tím, že minimalizuji kvantizační chybu, tlačím reprezentanty do míst, kde se nachází hodně instancí. Snažím se tím aproximovat hustotu instancí pomocí (menší) hustoty reprezentantů. Do míst, kde je vysoká hustota instancí, se snažím dostat hodně reprezentatnů a naopak do míst s málo instancemi dávám málo reprezentatnů. Cílem kvantizace vektorů je aproximace hustoty pravděpodobnosti p(x) výskytu instancí x pomocí konečného počtu reprezentantů w i. Důsledkem je mj. komprese, instance lze nahradit odkazy na jejich reprezentanty. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 8 / 42

Vítěz NEbere vše KMeans Winner takes all, z domu vybírá daně jen nejbližší král. Co když platí, že část daní může vybírat i jiný bĺızký král? Pak už neplatí, že vítěz bere vše a něco zbude i na ostatní. Pro míru dělení je důležité okoĺı. Tj. jak daleko se králi ještě vyplatí jet pro svůj díl daní. Malé okoĺı vítěz bere vše daně vybírá jen jeden král Velké okoĺı komunismus každý král dostane z každého domu kousek. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 9 / 42

Neuronový plyn Jiný způsob, jakým lze minimalizovat kvantizační chybu. Rozdíly od KMeans používám okoĺı, hard soft, jinak počítám nové pozice středů. 1 Náhodně rozmísti reprezentanty a zvol velké okoĺı. 2 Vyber nějakou vstupní instanci x j. 3 Spočítej vzdálenost mezi x j a všemi reprezentanty w i i. 4 Uprav pozice všech w i v závislosti na vzdálenosti od instance a okoĺı. 5 Zmenši okoĺı. 6 Pokud ještě chceš pokračovat, pokračuj bodem 2. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 10 / 42

Ilustrace iterace Neuronového plynu Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 11 / 42

Neuronový plyn (II) V algoritmu je několik stupňů volnosti. Inicializace vah Náhodně nebo rovnoměrné rozprostření po prostoru. Výběr nějaké vstupní instance Procházíme postupně jednotlivé instance postupně v pevném pořadí. Nevhodné, protože výstup může záviset na pořadí předkládání instancí. Projde všechny instance jednou, pak v jiném pořadí podruhé, atd. Nejčastější volba, prochází se permutace vstupní množiny. Vybírá skutečně náhodně. Čili nezaručuje, že počet předložení síti bude pro všechny instance stejný. Nepoužívá se. Není zaručeno, že nepředložím x 1 10x, pak x 2 12x, atd. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 12 / 42

Neuronový plyn (III) Uprav pozice všech středů v závislosti... Čím vzdálenější reprezentant, tím se posouvá méně. w t+1 i = w t i + α t e k λ t (x j w t i) α t je adaptační krok v t-té iteraci a určuje o kolik se maximálně může reprezentant posunout (typicky α t 1, s rostoucím t klesá k 0). k je pořadí vzdálenosti reprezentanta od instance x j. λ t definuje velikost okoĺı a s rostoucím t klesá, pokud položíme λ t = 2(σ t ) 2 je zřejmé, že okoĺı má tvar gaussovky. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 13 / 42

Neuronový plyn (IV) Zmenši okoĺı okoĺı λ t se typicky postupně zmenšuje o nějaký násobek, např. λ t+1 = 0.95 λ t, s okoĺım se podobným způsobem zmenšuje i adaptační krok α t, např. α t+1 = 0.95 α t. Pokud ješte chceš pokračovat... Dopředu určím, že chci pokračovat dokud je λ > 0.05. Nebo skonči poté, co předložíš všechny instance 10x. Kontrolní otázka: Za jakých podmínek se přesune nejbližší reprezentant na pozici právě předložené instance? Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 14 / 42

Funkce energie Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 15 / 42

Vylepšení Neuronového plynu Jak by se dal neuronový plyn vylepšit dál? Co kdyby se neposouvali všechni reprezentanti bĺızko instance? Vytvoříme přátelské vztahy mezi reprezentanty. A budou se posouvat jen kamarádi vítězného reprezentanta. Když vizualizujeme přátelství mezi reprezentanty získáme pravidelnou mřížku (síť). Typicky se používá čtvercová nebo hexagonální síť. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 16 / 42

Inspirace pro SOM Inspirací nejsou králové, ale oblasti v lidském mozku. Řídící centra jednotlivých končetin spolu souvisí a navzájem se ovlivňují. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 17 / 42

SOM Neuronová síť SOM je vynálezem prof. Kohonena z Finska. Původně vznikla jako model motorického cortexu a její první aplikace byl fonetický psací stroj. A protože se prof. Kohonen zabýval umělými neuronovými sítěmi, převzal i SOM jejich terminologii. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 18 / 42

SOM - Pozice neuronů Každý reprezentant v terminologii SOMu neuron je opět reprezentován jeho souřadnicemi v prostoru. Souřadnice každého neuronu (reprezentanta) se označují jako váhy. Když si zkusím takovou síť vizualizovat, dostaneme například: Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 19 / 42

SOM Pozice neuronů (II) Co se stalo? Ještě před chvíĺı byla ta síť přece pravidelná! To ano, ale to byla idealizovaná projekce, aby bylo názorně vidět vztahy! Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 20 / 42

SOM Algoritmus Celý SOM algoritmus vypadá takto: 1 Inicializuj váhy všech neuronů (souřadnice všech reprezentantů). 2 Vyber nějakou vstupní instanci x j. 3 Spočítej vzdálenost mezi x j a všemi neurony w i i. 4 Urči nejbližší neuron BMU (Best Matching Unit). 5 Uprav váhy (pozici) BMU a jeho okoĺı. 6 Pokud ještě chceš pokračovat, pokačuj bodem 2. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 21 / 42

Co se změnilo ve srovnání s neuronovým plynem? Určení BMU je celkem jednoduchá záležitost. Zvoĺım si metriku a aplikuji ji. Mnohem zajímavější je úprava pozice BMU a jeho okoĺı :). Jak vlastně určím neurony v okoĺı? Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 22 / 42

Změna vah graficky Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 23 / 42

Změna vah neuronu v SOM Novou pozici neuronu w i v kroku t + 1 (po předložení vzoru x j ) určím jako: w t+1 i = w t i + α t e dist(wi,bmu) 2(σ t ) 2 (x j w t i) ve srovnání s neuronovým plynem došlo k jediné změně index k udávající pořadí neuronu ve vzdálenosti od instance x j byl nahrazen jeho vzdáleností od BMU v neuronové mřížce dist(w i, BMU), podobně jako u neuronového plynu jdou parametry α t a σ t s rostoucím t k 0. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 24 / 42

Příklad Máme 3 neurony w 1 = (0, 0), w 2 = (2, 1) a w 3 = (0, 3). Ty jsou na lince, w 1 je sousedem w 2 a w 2 je sousedem w 3. Vztahy sousednosti jsou symetrické. Uvažujme instanci x = (1, 1). Který neuron je BMU? (Použijeme eukleidovskou metriku) d(w 1, x) = (0 1) 2 + (0 1) 2 = 2. = 1.41 d(w 2, x) = (2 1) 2 + (1 1) 2 = 1 = 1 d(w 3, x) = (0 1) 2 + (3 1) 2 = 5. = 2.23 Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 25 / 42

Příklad Máme 3 neurony w 1 = (0, 0), w 2 = (2, 1) a w 3 = (0, 3). Ty jsou na lince, w 1 je sousedem w 2 a w 2 je sousedem w 3. Vztahy sousednosti jsou symetrické. Uvažujme instanci x = (1, 1). Který neuron je BMU? (Použijeme eukleidovskou metriku) d(w 1, x) = (0 1) 2 + (0 1) 2 = 2. = 1.41 d(w 2, x) = (2 1) 2 + (1 1) 2 = 1 = 1 d(w 3, x) = (0 1) 2 + (3 1) 2 = 5. = 2.23 Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 25 / 42

Příklad (II) BMU je tedy w 2. Řekněme, že σ(t) = 1 a α(t) = 0.25 Zkusme vypočítat novou pozici BMU (w 2 ): µ(t) = α(t)e dist(w i,bmu) 2σ 2 (t) = 0.25 e dist(w 2,w 2 ) 2 1 2 = 0.25 e 0 = 0.25 w t+1 2 = w t 2 + µ(t)(x w t 2) = (2, 1) + 0.25 ((1, 1) (2, 1)) = = (2, 1) + 0.25( 1, 0) = (1.75, 1) w 1 se posune do pozice: µ(t) = α(t)e dist(w 1,w 2 ) 2σ 2 (t) = 0.25 e 1 2 = 0.25 0.606 = 0.151 w t+1 1 = w t 1 + µ(t)(x w t 1) = (0, 0) + 0.151 ((1, 1) (0, 0)) = = (0, 0) + (0.151, 0.151) = (0.151, 0.151) Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 26 / 42

Chyba SOM Stejně jako v Hierarchickém shlukování a KMeans potřebujeme nějakou míru dobrého shluknutí. Kvantizační chyba Tu už známe ze začátku přednášky! Průměrná vzdálenost mezi instancemi a nejbližšími neurony. Topografická chyba Popisuje kvalitu natažení mřížky sítě na vstupní data. Procento instancí, pro které platí, že jejich BMU a druhý nebližší neuron nejsou sousedy v mřížce sítě. err topo = 1 n n u(x i ) u(x i ) = 1 BMU a druhý nejbližší neuron pro x i v mřížce nesousedí. i=1 Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 27 / 42

Vizualizace SOM Dokud máme jen 2D data, tak s vizualizací není problém. Co když máme více dimenzí? U-Matice Analýza hlavních komponent Sammonova projekce Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 28 / 42

U-Matice Matice vzdáleností mezi váhovými vektory jednotlivých neuronů, typicky se vizualizuje, vzdálenosti vyjádřeny barvou světlá barva = malá vzdálenost. Zobrazuje strukturu vzdáleností v prostoru dat. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 29 / 42

U-Matice (II) Barva neuronu je vzdálenost jeho váhového vektoru od váhových vektorů okolních neuronů Tmavé váhové vektory jsou vzdáleny od ostatních datových vektorů ve vstupním prostoru. Světlé váhové vektory jsou obklopeny cizími vektory ve vstupním prostoru. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 30 / 42

U-Matice (III) Jak z U-Matice poznám shluky? Ze vzdáleností mezi neurony. Kopce oddělují clustery (údoĺı). Wikipedia Self-organizing map Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 31 / 42

Analýza hlavních komponent Jde o statistickou metodu pro redukci dimenzionality. Označuje se jako PCA z anglického Principal Component Analysis. Snaží se najít nové osy, které lépe popisují data s minimální ztrátou informace. První osa vede směrem, který má největší rozptyl hodnot, druhá osa směrem, kde je druhý největší rozptyl, atd. Osy jsou ortogonální, tedy vzájemně pravoúhlé. Vždy mi vrátí stejný počet nových os, jako mají původní data dimenzí, ale já se mohu rozhodnout některé nepoužít. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 32 / 42

Analýza hlavních komponent (II) Výpočet nových souřadnic pomocí kovariance, vlastních čísel a vlastních vektorů. http://www.cs.otago.ac.nz/cosc453/student_tutorials/ principal_components.pdf Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 33 / 42

Využití PCA v SOM Nyní můžu provést PCA projekci SOM sítě do 2D a zobrazit si ji. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 34 / 42

Využití PCA mimo SOM PCA není limitována jen na použití v SOM, ale můžu ji použít například pro průzkum dat. Stejně tak, některé metody vytěžování dat nemají rády příliš mnoho dimenzí a PCA jim můžete pomoci k lepším výsledkům. Nevýhodou je umělost nových os, která znesnadňuje interpretaci získaných výsledků: 0.125 petal length + 0.578 petal width + 0.934 sepal length 0.346 sepal width. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 35 / 42

Sammonova projekce Jinou možností je Sammonova projekce. Ta netransformuje osy, ale znovu umísťuje objekty v novém (méně dimenzionálním) prostoru. Při umisťování se snaží zachovat vztahy v datech (data, která byla bĺızko v původním prostoru, budou bĺızko i v novém prostoru). Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 36 / 42

Sammonova projekce (2) Sammonova projekce minimalizuje stresovou funkci: 1 (dist E = (x i, x j ) dist(x i, x j )) 2 i<j dist (x i, x j ) dist (x i, x j ) i<j dist (x i, x j ) je vzdálenost x i a x j v původním prostoru. dist(x i, x j ) je vzdálenost x i a x j v novém prostoru (v projekci). Pro minimalizaci se používají standardní optimalizační metody pro tuto úlohu typicky iterační metody. Při minimalizaci se pohybuje body v novém prostoru (v projekci). Tím ovlivníte dist(x i, x j ) a můžete dosáhnout zmenšení E. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 37 / 42

Sammonova projekce - ukázka Ukázka několika iterací Sammonovy projekce na Iris datech. Počáteční stav 1. iterace 10. iterace Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 38 / 42

Další vizualizace Příznakové grafy Vychází z U-Matice, ale místo vzdálenosti jednotlivých vektorů se do šestiúhelníčků kresĺı hodnoty vybrané proměnné. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 39 / 42

Shrnutí, souvislosti Samoorganizující se mapy více než shlukovací algoritmus = třídění objektů, vizualizace porozumění struktuře dat, redukce dimenze mapováním objektů na souřadnice mřížky. SOM vs PCA SOM je nelineárním zobecněním PCA. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 40 / 42

Shrnutí, souvislosti (II) SOM vs KMeans pro malý počet neuronů/středů velmi podobné chování, oba přístupy kvantizují data, aproximují hustotu vstupních dat, při více neuronech odlišnosti plynoucí z okoĺı a mřížky neuronů, K by mělo odpovídat skutečnému počtu shluků, počet neuronů je vyšší, shluky zřejmé mj. z U-Matice. Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 41 / 42

Další čtení http: //www.cis.hut.fi/somtoolbox/theory/somalgorithm.shtml http://www.cis.hut.fi/research/som-research/ http://www.ai-junkie.com/ann/som/som1.html www.cs.bham.ac.uk/~jxb/nn/l16.pdf Miroslav Čepek (ČVUT) Self Organizing Map 21.10.2014 42 / 42