Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely



Podobné dokumenty
Umělé neuronové sítě

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Neuronové sítě Ladislav Horký Karel Břinda

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Algoritmy a struktury neuropočítačů ASN - P11

NG C Implementace plně rekurentní

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Algoritmy a struktury neuropočítačů ASN P3

Úvod do optimalizace, metody hladké optimalizace

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Trénování sítě pomocí učení s učitelem

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Státnice odborné č. 20

3. Vícevrstvé dopředné sítě

Kybernetika a umělá inteligence, cvičení 10/11

Rosenblattův perceptron

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Přednáška 13 Redukce dimenzionality

Vytěžování znalostí z dat

Úloha - rozpoznávání číslic

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

VYUŽITÍ NEURONOVÝCH SÍTÍ V DIAGNOSTICE

5. Umělé neuronové sítě. Neuronové sítě

Emergence chování robotických agentů: neuroevoluce

Samoučící se neuronová síť - SOM, Kohonenovy mapy

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Dynamické Kohonenovy mapy a jejich struktura

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

PV021: Neuronové sítě. Tomáš Brázdil

Klasifikace a rozpoznávání. Lineární klasifikátory

Automatická detekce anomálií při geofyzikálním průzkumu. Lenka Kosková Třísková NTI TUL Doktorandský seminář,

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

Miroslav Čepek

Numerická stabilita algoritmů

UČENÍ BEZ UČITELE. Václav Hlaváč

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Zpětnovazební učení Michaela Walterová Jednoocí slepým,

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

2. RBF neuronové sítě

Support Vector Machines (jemný úvod)

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

Lineární klasifikátory

Neuronové sítě (11. přednáška)

MODELOVÁNÍ BONITY OBCÍ POMOCÍ KOHONENOVÝCH SAMOORGANIZUJÍCÍCH SE MAP A LVQ NEURONOVÝCH SÍTÍ

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Jaroslav Tuma. 8. února 2010

Numerické metody optimalizace - úvod

Pokročilé metody učení neuronových sítí. Tomáš Řehořek

Preceptron přednáška ze dne

Využití neuronové sítě pro identifikaci realného systému

Algoritmy a struktury neuropočítačů ASN - P1

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

Vytěžování znalostí z dat

METODIKA ZPRACOVÁNÍ EKONOMICKÝCH ČASOVÝCH ŘAD S VYUŽITÍM SIMULÁTORŮ NEURONOVÝCH SÍTÍ

Numerické metody a programování. Lekce 8

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Obsah: 1. Úvod Architektura Instalace Hardwarové požadavky Softwarové požadavky Data...

Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Jednotlivé historické modely neuronových sítí

Zpracování biologických signálů umělými neuronovými sítěmi

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Měření dat Filtrace dat, Kalmanův filtr

Agent pracující v částečně pozorovatelném prostředí udržuje na základě senzorického modelu odhaduje, jak se svět může vyvíjet.

Národní informační středisko pro podporu kvality

Neuropočítače. podnět. vnímání (senzory)

Metody analýzy dat I. Míry a metriky - pokračování

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Odečítání pozadí a sledování lidí z nehybné kamery. Ondřej Šerý

3.2 Stíněné mikropáskové vedení

KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Neuronové časové řady (ANN-TS)

Proudové šifry a posuvné registry s lineární zpětnou vazbou

maticeteorie 1. Matice A je typu 2 4, matice B je typu 4 3. Jakých rozměrů musí být matice X, aby se dala provést

Neuronové sítě v DPZ

Interpolace, ortogonální polynomy, Gaussova kvadratura

Moderní systémy pro získávání znalostí z informací a dat

VYUŽITÍ UMĚLÉ NEURONOVÉ SÍTĚ PRO EMPIRICKÝ MODEL ŠÍŘENÍ SIGNÁLU

Instance based learning

Optimalizace & soft omezení: algoritmy

4. Učení bez učitele. Shlukování. K-means, EM. Hierarchické shlukování. Kompetitivní učení. Kohonenovy mapy.

Vyhněte se katastrofám pomocí výpočetní matematiky

oddělení Inteligentní Datové Analýzy (IDA)

LWS při heteroskedasticitě

PV021 Vícevrstvá neuronová síť pro rozeznávání mikroteček. Matúš Goljer, Maroš Kucbel, Michal Novotný, Karel Štěpka 2011

Četba: Texty o lineární algebře (odkazy na webových stránkách přednášejícího).

AVDAT Mnohorozměrné metody, metody klasifikace Shluková analýza

Úvod do zpracování signálů

Markovské procesy. příklad: diabetický pacient, hladina inzulinu, léky, jídlo

Fakulta informačních technologií VUT Brno. Předmět: Srovnání klasifikátorů Autor : Jakub Mahdal Login: xmahda03 Datum:

Neuronové sítě Učení bipolárního perceptronu

Hammingův odhad. perfektní kódy. koule, objem koule perfektní kód. triviální, Hammingův, Golayův váhový polynom. výpočet. příklad

Strojové učení se zaměřením na vliv vstupních dat

Transkript:

Učení bez učitele Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely Klastrování Kohonenovy mapy LVQ (Učení vektorové kvantizace) Zbývá: Hybridní modely (kombinace učení bez učitele a s učitelem Sítě se vstřícným šířením (Counterpropagation) RBF-sítě ART (Adaptive Resonance Theory) 1 / 32

Counter-propagation Sítě se vstřícným šířením (Counter-propagation) (Hecht-Nielsen, 1987) Architektura Tři vrstvy neuronů: Vstupní vrstva Kohonenovská (klastrovací) vrstva Grossbergovská vrstva Učení s učitelem Rozpoznávání obrázek převzat z I.Mrázová, Neuronové sítě 2 / 32

Counter-propagation Architektura Sítě se vstřícným šířením (Counter-propagation) Terminologie Vstupní vrstva... n neuronů Kohonenovská vrstva... mřížka s K neurony Grossbergovská vrstva... m neuronů Sít zobrazí vstupní vektor x R n na výstupní vektor y R m z i... výstupy (aktivity) neuronů v Kohonenovské vrstvě y l... výstupy (aktivity) neuronů v Grossbergovské vrstvě w ji... váhy hran mezi vstupní a Kohonenovskou vrstvou v il... váhy hran mezi Kohonenovskou a Grossbergovskou vrstvou 3 / 32

Counter-propagation Vybavování Sítě se vstřícným šířením (Counter-propagation) Režim vybavování zobrazení f : R n R m : Vstupní vektor x vybudí jeden neuron v Kohonenovské vrstvě (vítězný).. k-tý Grossbergovská (výstupní) vrstva: Provádí standardní skalární součin: y l = výstup sítě: K v il z i = v kl i=1 Grossbergova (výstupní) hvězda y = v k Grossbergovská vrstva provádí výběr jednoho vektoru z K vektorů ( váhy hran od k-tého neuronu v Kohonenově mřížce) 4 / 32

Counter-propagation Algoritmus učení Sítě se vstřícným šířením (Counter-propagation) Algoritmus 1 Inicializace: Zvoĺıme náhodné hodnoty synaptických vah 2 Předložíme nový trénovací vzor ve tvaru ( x, t) = (vstup, požadovaný výstup). 3 Spočítáme vzdálenosti d i mezi x a w i pro každý neuron i v Kohonenovské vrstvě. Použijeme např. Euklidovskou metriku: d i = (x j w ji ) 2 4 Vyber neuron k s minimální vzdáleností d k jako,,vítěze j k = argmin i d i 5 / 32

Counter-propagation Algoritmus učení Sítě se vstřícným šířením (Counter-propagation) Algoritmus - pokračování 5 Aktualizujeme váhy w ji mezi vstupním neuronem j a neurony i Kohonenovské vrstvy, které se nacházejí v okoĺı vítězného neuronu k tak, aby lépe odpovídaly předloženému vzoru: w i (t + 1) = w i (t) = α(t)λ(i, k)(t)( x w i (t)), Λ(i, k)... funkce okoĺı 0 < α(t) < 1... parametr učení pro váhy mezi vstupní a Kohonenovskou vrstvou, klesá v čase. t představuje současný a (t + 1) následující krok učení. 6 / 32

Counter-propagation Algoritmus učení Sítě se vstřícným šířením (Counter-propagation) Algoritmus - dokončení 6 Aktualizujte váhy v kl mezi,,vítězným neuronem k z Kohonenovské vrstvy a neurony l Grossbergovské vrstvy tak, aby výstupní vektor lépe odpovídal požadované odezvě: v kl (t + 1) = (1 γ)v kl (t) + γz k t l, 0 < γ < 1... parametr učení pro váhy mezi Kohonenovskou a Grossbergovskou vrstvou, z k... označuje aktivitu,,vítězného neuronu Kohonenovské vrstvy. t l... označuje požadovanou aktivitu neuronu l Grossbergovské vrstvy 7 Pokračujeme krokem (2) 7 / 32

Counter-propagation Aplikace Sítě se vstřícným šířením (Counter-propagation) Příklady použití Heteroasociativní pamět Komprese dat např. přenos obrazů, videa Podobně jako BP-sít efektivnější výpočet, rychlejší adaptace nižší přesnost Původní využití: reprezentace zobrazení f a f 1 zároveň: 8 / 32

RBF-sítě Architektura RBF-sítě (Sítě s lokálními jednotkami) Radial basis functions (Moody, Darken, 1989) Hybridní architektura Učení s učitelem Rozdíl od counter-propagation: Gaussovské jednotky v Kohonenovské vrstvě 9 / 32

RBF-sítě Architektura RBF-sítě (Sítě s lokálními jednotkami) Neurony v Kohonenovské vrstvě Lokální výpočetní jednotky (RBF-jednotky) Neuron spočte svůj vnitřní potenciál ξ a výstup y podle: ξ = x w h Gaussovská (radiální) přenosová funkce: z = f (ξ) = e ξ2 α = e x w 2 αh 2 x R n... vstupní vektor w R n... váhový vektor neuronu h... konstanta (pro daný neuron)... šířka okoĺı α... konstanta 10 / 32

RBF-sítě Architektura RBF-sítě (Sítě s lokálními jednotkami) Celková funkce sítě f : R n R m : f l (x 1,..., x n ) = K v il z i = i=1 K i=1 v il e x w i 2 αh i 2 v l R K... váhový vektor ze skrytých neuronů do výstupního neuronu l Výstupní neurony jsou lineární jednotky 11 / 32

RBF-sítě Algoritmus učení RBF-sítě (Sítě s lokálními jednotkami) Algoritmus učení Vstup: trénovací množina s N vzory ve tvaru ( x p, d p ) = (vstup, požadovaný výstup). Výstup: parametry sítě - váhy hran a parametry neuronů Algoritmus učení má tři fáze: 1 Spočítáme středy centroidů (RBF-jednotek)... váhy w ji ze vstupní do Kohonenovské vrstvy 2 Spočítáme šířky okoĺı centroidů h i a další parametry 3 Spočítáme váhy do výstupní vrstvy... v il 12 / 32

RBF-sítě Algoritmus učení RBF-sítě (Sítě s lokálními jednotkami) Algoritmus učení - má tři fáze 1 Spočítáme středy centroidů... váhy w ji ze vstupní do Kohonenovské vrstvy samoorganizace (učení bez učitele) viz. counter-propagation 2 Spočítáme šířky okoĺı centroidů h i a další parametry např. podle vzdálenosti nejbližších sousedů (není třeba znova předkládat trénovací vzory) 3 Spočítáme váhy do výstupní vrstvy... v il např. pomocí algoritmu zpětného šíření (učení s učitelem) 13 / 32

RBF-sítě Algoritmus učení RBF-sítě (Sítě s lokálními jednotkami) Algoritmus učení - výpočet vah do výstupní vrstvy... v il Pomocí algoritmu zpětného šíření (učení s učitelem) N trénovacích vzorů ve tvaru ( x p, d p ) = (vstup, požadovaný výstup) Chybová funkce: E = 1 2 N m K ( v il z i d p ) 2 = 1 2 p=1 l=1 i=1 N m K ( v il e x p w i 2 αh i 2 d p ) 2 p=1 l=1 i=1 Adaptační pravidlo pro jeden trénovací vzor v il E γe x p w i 2 K αh i 2 (d p v il e x p w i 2 αh i 2 ) v il = γz i (d p K v il z i ) i=1 i=1 14 / 32

RBF-sítě Analýza modelu RBF-sítě (Sítě s lokálními jednotkami) Analýza modelu Univerzální aproximátor (narozdíl od BP-sítí stačí jedna skrytá vrstva)... ale potřebný počet lokálních jednotek roste exponencielně Alternativa BP-sítí, pro některé typy problémů se hodí lépe, pro některé hůře než BP-sítě Rychlé učení (až o dva řády rychlejší než BP-sítě) Neumí si poradit s irelevantními vstupy. Obtížně se hledá učící algoritmus 15 / 32

RBF-sítě Implementace v Matlabu RBF - Jak je to v Matlabu newrbe... vytvoření modelu počet výpočetních jednotek je roven počtu trénovacích vzorů net = newrbe(p,t,sc) P... vstupní vzory T... výstupní vzory SC... šířka okoĺı newrb... vytvoření modelu přidává výpočetní jednotky, dokud MSE není menší než daná mez (EG) net = newrb(p,t,eg,sc) P... vstupní vzory T... výstupní vzory EG... požadovaná MSE SC... šířka okoĺı sim... rozpoznávání Y = sim(net,p). 16 / 32

ART-sítě ART-sítě (Adaptive resonance theory) (Grossberg, Carpenter, 1986) Úloha Hybridní architektura - částečně modulární Použití Učení bez učitele Online učení Shlukování - plasticita a stabilita Rozpoznávání znaků, řečových segmentů apod. ρ... parametr bdělosti 17 / 32

ART-sítě Architektura ART-sítě (Adaptive resonance theory) Architektura ART-1 Dvouvrstvá rekurentní sít Porovnávací (vstupní) vrstva... n neuronů Rozpoznávací (výstupní) vrstva... m neuronů ART-1... binární vstupy ART-2... reálné vstupy 18 / 32

ART-sítě Architektura ART-sítě (Adaptive resonance theory) Vazby mezi neurony: ve výstupní vrstvě... laterální inhibice ze vstupní do výstupní vrstvy (váhy w ij, i = 1,..., n, j = 1,..., m,) z výstupních neuronů ke vstupním (váhy t ij, i = 1,..., n, j = 1,..., m,)... pro porovnání skutečné podobnosti s předloženým vzorem (založena na skalárním součinu) Řídící signály... G1, G2, Reset 19 / 32

ART-sítě Architektura ART-sítě (Adaptive resonance theory) Test bdělosti práh bdělosti ρ... určuje, jak bĺızko musí být předložený vzor k uloženému, aby mohly patřit do stejné kategorie Mechanismus vypnutí (zablokování) neuronu s maximální odezvou stabilita plasticita sítě sít má velké problémy i při jen trochu zašumněných vzorech (příliš narůstá počet uložených vzorů) 20 / 32

ART-sítě Algoritmus učení ART-sítě (Adaptive resonance theory) Algoritmus učení má 5 fází: 1 inicializační - nastavení počátečního stavu sítě 2 rozpoznávací - dopředný výpočet - naleznu vítězný neuron v rozpoznávací vrstvě 3 porovnávací - zpětný výpočet - provedu test bdělosti 4 vyhledávací - hledám jiný vítězný neuron 5 adaptační - adaptace vah u vítězného neuronu 21 / 32

ART-sítě Algoritmus učení ART-sítě (Adaptive resonance theory) Algoritmus učení inicializační fáze 1 Počáteční inicializace vah: t ij (0) = 1, w ij (0) = 1 1 + n, i = 1,..., n, j = 1,..., m, 0 ρ 1 w ij (t)... váha mezi vstupním neuronem i a výstupním neuronem j v čase t t ij (t)... váha mezi výstupním neuronem j a vstupním neuronem i v čase t (vzor specifikovaný výstupním neuronem j) ρ... práh bdělosti 22 / 32

ART-sítě Algoritmus učení ART-sítě (Adaptive resonance theory) Algoritmus učení inicializační a rozpoznávací fáze 2 Předlož nový vstupní vzor: x(t) = {x 1,..., x n } 3 Spočti odezvu (aktivitu) neuronů ve výstupní (rozpoznávací) vrstvě: y j (t) = n w ij (t)x i, j = 1,..., m i=1 y j (t)... aktivita výstupního neuronu j v čase t 4 Vyber neuron k, který nejlépe odpovídá předloženému vzoru (např. pomocí laterální interakce): k = argmax{y j } 23 / 32

ART-sítě Algoritmus učení ART-sítě (Adaptive resonance theory) Algoritmus učení porovnávací a vyhledávací fáze 5 Test bdělosti: Výpočet bdělosti µ vítězného neuronu k podle: µ = T. x = T. x x, n n t ik (t)x i, x = x i, i=1 i=1 Pokud platí µ > ρ, pokračuj krokem 7, jinak pokračuj krokem 6. 6 Zmraz (zablokuj) neuron k s největší odezvou: Nastav výstup neuronu k dočasně na nulu. Opakuj krok 3 (neuron k se neúčastní maximalizace). 24 / 32

ART-sítě Algoritmus učení ART-sítě (Adaptive resonance theory) Algoritmus učení adaptační fáze 7 Pokud nebyl nalezen vhodný neuron, přidej do sítě nový neuron jako,,vítězný. 8 Adaptace vah u,,vítězného neuronu k: t ik (t + 1) = t ik (t)x i, w ik (t + 1) = t ik (t)x i 0.5 + n l=1 t lk(t)x l 9 Odblokuj všechny zmražené neurony a opakuj krok 2. 25 / 32

ART-sítě Analýza modelu ART-sítě (Adaptive resonance theory) Analýza modelu Hlavní výhody: Stabilita a plasticita sítě Sít sama určí správný počet neuronů Velká citlivost na počáteční volbu parametrů: práh bdělosti pořadí předkládání vzorů Velká citlivost na šum v datech Příklady aplikací Shlukování Rozpoznávání znaků, řečových segmentů apod. 26 / 32

Konstrukční algoritmy Kaskádová korelace Kaskádová korelace (Fahlman, Labiere, 1990) robustní rostoucí architektura BP-sítě Princip Systém začíná proces učení s přímým propojením vstupů na výstup Postupně jsou přidávány další skryté neurony Vstupy každého nového neuronu jsou propojeny se všemi původními vstupy i se všemi dříve vytvořenými neurony 27 / 32

Konstrukční algoritmy Kaskádová korelace Kaskádová korelace 28 / 32

Konstrukční algoritmy Kaskádová korelace Kaskádová korelace Algoritmus učení Minimalizace MSE na výstupu sítě Učení probíhá ve dvou fázích: První fáze: Adaptace sítě pomocí algoritmu Quickprop pokud je MSE na výstupu dostatečně nízká, KONEC jinak přidáme nový neuron Druhá fáze: Přidání nového neuronu nový neuron je adaptován tak, aby maximalizoval korelaci mezi svým výstupem a chybou na výstupu sítě přidávaný neuron se,,naučí nějaký příznak, který vysoce koreluje s aktuální (zbývající) chybou Váhy do nově přidaného neuronu jsou zmrazeny a v dalších fázích se doučují jen váhy na výstup 29 / 32

Konstrukční algoritmy Kaskádová korelace Kaskádová korelace Algoritmus učení Cílem učení skrytých neuronů je maximalizace S: S = p (V i V )(E i E) i=1 p... počet trénovacích vzorů V i... výstup přidávaného neuronu pro i-tý vzor V... průměrný výstup přidávaného neuronu E i... MSE pro i-tý vzor E... průměrná chyba 30 / 32

Konstrukční algoritmy Kaskádová korelace Kaskádová korelace Algoritmus učení Cílem učení skrytých neuronů je maximalizace S: S = p (V i V )(E i E) i=1 S w k = p i=1 σ(e i E)f i I ik σ... znaménko korelace mezi výstupem a přidávaným neuronem f i... derivace přenosové funkce pro i-tý vzor I ik... k-tý vstup přidávanho neuronu pro i-tý vzor 31 / 32

Konstrukční algoritmy Kaskádová korelace Kaskádová korelace Analýza algoritmu Snadné rozšíření na více výstupů Sít sama určí správný počet neuronů... uživatel ho nemusí specifikovat Rychlé učení... v každém kroku se adaptuje jen jeden neuron, váhy do stávajících neuronů už se neadaptují stabilita Nebezpečí přeučení... saturace neuronů Vytvářejí se zbytečně hluboké sítě 32 / 32