Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

Podobné dokumenty
Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

Algoritmy a struktury neuropočítačů ASN P3

Umělé neuronové sítě

Algoritmy a struktury neuropočítačů ASN - P1

Algoritmy a struktury neuropočítačů ASN - P11

Zpracování biologických signálů umělými neuronovými sítěmi

5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Rosenblattův perceptron

Neuronové sítě Ladislav Horký Karel Břinda

NG C Implementace plně rekurentní

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

3. Vícevrstvé dopředné sítě

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Vytěžování znalostí z dat

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

5. Umělé neuronové sítě. Neuronové sítě

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

Státnice odborné č. 20

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

Lineární klasifikátory

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Samoučící se neuronová síť - SOM, Kohonenovy mapy

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Trénování sítě pomocí učení s učitelem

Úvod do optimalizace, metody hladké optimalizace

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

výběr charakteristických rysů a zkušeností ze vstupních signálů,

Přednáška 13 Redukce dimenzionality

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Moderní systémy pro získávání znalostí z informací a dat

Neuronové sítě v DPZ

PV021: Neuronové sítě. Tomáš Brázdil

Algoritmy a struktury neuropočítačů ASN - P13

Neuropočítače. podnět. vnímání (senzory)

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Algoritmy a struktury neuropočítačů ASN - P14. Neuropočítače

Neuronové sítě (11. přednáška)

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

Preceptron přednáška ze dne

Neuronové časové řady (ANN-TS)

Využití strojového učení k identifikaci protein-ligand aktivních míst

OSA. maximalizace minimalizace 1/22

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

Miroslav Čepek

Využití metod strojového učení v bioinformatice David Hoksza

Úloha - rozpoznávání číslic

Využití neuronové sítě pro identifikaci realného systému

Klasifikace předmětů a jevů

Úvod do zpracování signálů

2. RBF neuronové sítě

Vytěžování znalostí z dat

Úvodem Dříve les než stromy 3 Operace s maticemi

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

Kybernetika a umělá inteligence, cvičení 10/11

ANALÝZA A KLASIFIKACE DAT

8-9. Pravděpodobnostní rozhodování a predikce. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

MODELOVÁNÍ BONITY OBCÍ POMOCÍ KOHONENOVÝCH SAMOORGANIZUJÍCÍCH SE MAP A LVQ NEURONOVÝCH SÍTÍ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

KLASIFIKÁTOR MODULACÍ S VYUŽITÍM UMĚLÉ NEURONOVÉ SÍTĚ

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

U Úvod do modelování a simulace systémů

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Rozdělování dat do trénovacích a testovacích množin

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

ANALÝZA A KLASIFIKACE DAT

PREDIKCE POČTU UCHAZEČŮ O STUDIUM S VYUŽITÍM NEURONOVÝCH SÍTÍ

Principy počítačů I Netradiční stroje

Fakulta chemicko-technologická Katedra analytické chemie. 3.2 Metody s latentními proměnnými a klasifikační metody

Vícerozměrné statistické metody

1 Neuronové sítě - jednotlivý neuron

Metody analýzy dat I. Míry a metriky - pokračování

Speciální struktury číslicových systémů ASN P12

UČENÍ BEZ UČITELE. Václav Hlaváč

ANALÝZA A KLASIFIKACE DAT

Jednotlivé historické modely neuronových sítí

Shluková analýza dat a stanovení počtu shluků

Obr. 1 Biologický neuron

NEURONOVÉ SÍTĚ A EVOLUČNÍ ALGORITMY NEURAL NETWORKS AND EVOLUTIONARY ALGORITHMS

Geometrické transformace

Pokročilé neparametrické metody. Klára Kubošová

Matematická morfologie

ZÁPOČTOVÁ PRÁCE Informace a neurčitost. SOMPak

VYUŽITÍ NEURONOVÝCH SÍTÍ V DIAGNOSTICE

Detekce kartografického zobrazení z množiny

Emergence chování robotických agentů: neuroevoluce

Obsah: 1. Úvod Architektura Instalace Hardwarové požadavky Softwarové požadavky Data...

Klasifikace a rozpoznávání. Lineární klasifikátory

Automatická detekce anomálií při geofyzikálním průzkumu. Lenka Kosková Třísková NTI TUL Doktorandský seminář,

Metody založené na analogii

StatSoft Úvod do neuronových sítí

Analýza pohybu. Karel Horák. Rozvrh přednášky: 1. Úvod. 2. Úlohy analýzy pohybu. 3. Rozdílové metody. 4. Estimace modelu prostředí. 5. Optický tok.

Strojové učení se zaměřením na vliv vstupních dat

Numerické metody optimalizace - úvod

Transkript:

Algoritmy a struktury neuropočítačů ASN - P2 Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy Topologie neuronových sítí (struktura, geometrie, architektura) Uspořádání výkonných jednotek - neuronů (units, neurons) a jejich vzájemné propojení. propojení - orientované grafy: uzly neurony orientované větve synaptické váhy Vícevrstvé neuronové síte (Multilayer Neural Network - MLNN) neurony (výkonné jednotky) sestavené do vrstev sítě s dopředným šířením informace (feedforward)

Vrstevnatá struktura vstupní vrstva (input layer) skryté vrstvy (hidden layers) výstupní vrstva (output layer) Např.: 15-20 - 2 počet počet počet vstupních skrytých výstupních neuronů neuronů neuronů rekurentní sítě (recurrent networks) informace se šíří v dopředném směru formou jednoduchých zpětných vazeb formou vícenásobných zpětných vazeb Toto propojení zprostředkovávají synaptické váhy. Neurony tvoří vrstvy: obvykle typ McCulloch-Pitt

Topologie: cyklická (rekurentní) aproximace nelineárních vztahů acyklická (dopředná) nelinární dynamické systémy Principy učení a jeho druhy Proces učení (trénink) modifikace synaptických vah a prahů podle zvoleného algoritmu učení výběr charakteristických rysů a zkušeností ze vstupních signálů nastavení parametrů UNS tak, aby odchylka (v dané metrice) mezi požadovaným a skutečným výstupem při odezvě na soubor trénovacích vzorů byla minimální UNS jsou schopné analyzovat a rozpoznat určité množství reálných vzorů. Reálná data jsou často zašuměná. Není tedy možné klasifikovat správně úplně všechny vzory.

Dělení způsobů učení (příklady) I. 1. neasociativní - jednou nebo opakovaně je předkládán síti vzor nebo skupina vzorů bez uvažování jejich vzájemných souvislostí Cíl: uchování v paměti a vybavování 2. asociativní - cílem je extrakce vztahů mezi jednotlivými vzory nebo skupinami vzorů II. 1. učení s učitelem - (supervised learning) Perceptron, Adaline, Madaline, metoda zpětného šíření chyby 2. učení bez učitele - (unsupervised learning) spojité Hopfieldovy sítě, LVQ, Kohonenovy samoorganizující se mapy, asociativní paměti

III. 1. jednorázové učení 2. opakované učení Proces opakovaného učení A) daný počet opakovaného předkládání téhož vzoru otestování na velikost chyby proces je ukončen nebo pokračuje B) daný počet opakovaného předkládání téhož vzoru otestování na velikost chyby systém je klasifikován a odměněn nebo trestán C) posilované učení (reinforced learning) D) adaptivní upravování na základě výsledků z předchozích kroků

Základní zákony učení (learning rules, learning algorithms) Hebbův zákon učení (Hebbian learning) základ všech současných modelů, odvozen z analogie s učením biologických systémů, pro formální neuron Pravdivostní tabulka: (pro konjunkci) Aktivita x y výsledek 1 1 1 logický součin 0 1 0 1 0 0 0 0 0 v daném okamžiku musí být aktivní oba neurony současně w i j (t+1) = w i j (t) + α y i (t) x j (t) dw dt ij y j x i

Zákon učení perceptronu Jeden vstupní vektor x a požadovaný výstup tar Neuron typu McCulloch-Pitt Aktivační funkce: skoková (threshold, hardlimit) Klasifikace pouze do dvou tříd! Modifikace vah: (0 < <1/ k ), k je maximální modul tréninkových vzorků w (t+1) = w (t) + (tar y) x Minimalizace chyby: y = (tar y) = 0 správný výstup y = (tar y) = 1 w ij se nemění chybný výstup modifikace wij! Učení konverguje pouze v případě tréninkových vzorků z lineárně separabilního prostoru.

Widrow - Hoffův zákon - LMS Least Mean Square Metoda nejmenších čtverců účelové učení (performance learning) hledá se soubor vah, který odpovídá extrému účelové funkce Vyjadřuje rozdíl naměřených a vypočtených hodnot. mění váhy a prahy v souhlase s velikostí chyby pro vrstevnaté sítě minimalizuje chybu pro všechny trénovací vzory Pravidlo delta (Delta rule): chyba je redukována postupně pro každý vzor nebo skupinu vzorů - skupinová adaptace (batch updating) w ij = w ij (t + 1) w ij (t) w ij = N k 1 δ(k) (k) (k) je chyba, N je počet tréninkových vzorků, x i (k) je vstup x i

Samoorganizující se neuronové sítě ( Self Organizing Maps ) SOM Neuronové sítě s učením bez učitele (unsupervised learning) Inspirace: organizace mozku do oblastí map, podmnožiny podobných vektorů jsou navzájem propojeny. Praktické aplikace: sítě tvořené asi 1 000 neurony, učení časově náročné, výkonné počítače Použití: zejména pro analýzu velkého počtu vstupních parametrů, např. při technologických procesech (VLSI), při rozpoznávání řeči jen dílčí problémy, pro identifikaci řečníka, v robotice (řízení ramene robota v nepřístupném prostředí, pohyb robota v labyrintu ). Problém obchodního cestujícího. Při detekci poruch řeči, při zpracování biologických signálů (EEG, EKG, MEG) magnetoencefalograf

Princip: učení je založeno na schopnosti NN rozeznat ve vstupních vzorech stejné nebo blízké vlastnosti a třídit přicházející vektory podle nich. Podobné vektory sdružuje do shluků (clusters) měnící se vektory vah nejsou porovnávány s požadovanými (target) hodnotami Použití: nelze: tam, kde neznáme správné řešení, pro shlukování, vizualizaci, pro abstrakci pro rozpoznání statistických veličin Pozn: při nesprávné volbě úlohy jsou výsledky trénování špatné Kritérium: výpočet vzdálenosti mezi vzory a aktuálními hodnotami, hledání extrémů minimální vzdálenost maximální výstupní hodnota

Kompetitivní učení ( Competitive learning ) Zákon kompetice, soutěžní učení sekvence vzorků : x = x ( t ) R n t čas množina referenčních vektorů: Pozn.: referenční vektory bývají značeny také jako m i w i ( t ) : w i w i ( 0 ) R n, i = 1, 2,, k inicializace lokální propojení, signál je šířen také k sousedním neuronům, každý vstupní vektor vzorů je v každém časovém okamžiku porovnáván s každým vektorem W j Míra porovnání : vzdálenost d (X, W j ) Index j = c je index nejbližšího referenčního vektoru. Pak vzdálenost d (X, W c ) je minimum všech vzdáleností. Vektor W c se nazývá vítěz v soutěži (kompetici) (winner, centroid)

Míru naučenosti určujeme pomocí vzdálenosti resp. blízkosti reprezentace vzorů. Nejčastěji používané vzdálenosti: Euklidovská - pro pravoúhlý souřadnicový systém d E ( x, y) ( x 1 y 1 ) 2 ( x n y n ) 2 d E ( x, y) n i 1 ( x i y i ) 2 Hammingova pro binární vektory ( 0, 1 ) Určuje jaké množství elementů dvou vektorů je různé. Lze ji použít na porovnání jakýchkoliv množin z diskrétních hodnot Minkowskiho zobecnění Euklidovské vzdálenosti n 1/ d (, ) M x y x i y i i1 Elementy vektorů jsou buď binární hodnoty (0, 1) nebo písmena abecedy. x = (1, 0, 1, 1, 1, 0) u = (p, a, t, t, e, r, n) y = (1, 1, 0, 1, 0, 1) w = (w, e, s, t, e, r, n) d H (x,y) = 4 d H (x,y) = 3

Reprezentace dat spatially temporally Hodnoty signálu sousedící v prostoru nebo v čase jsou představovány vzorky (patterns) uspořádaná množina reálných čísel - vektor Elementy vektoru X = (x 1, x 2,, x n ) představují souřadnice v prostoru n-té dimenze Koncepce deterministická nebo stochastická (přirozenější) Hodnoty vzorků jsou pravděpodobností (samples), mohou nabývat diskrétní nebo spojité hodnoty. Jde o funkci rozložení pravděpodobnosti Do dnešní doby bylo metodě SOM věnováno kolem 4000 článků, speciální workshopy a samostatné sekce na všech velkých konferencích

Kde je možné najít literaturu? Na Internetu : Kaski, S., Kangas, J., Kohonen, T.: Bibliography of selforganizing map (SOM) papers: 1981-1997. Neural Computing Surveys, 1(3&4):1-176, 1998 Knihy: Kohonen, T.: Self-Organizing Maps. Berlin Heidelberg, 3-rd ed. Springer Series in Information Sciences, Springer-Verlag, 2001, ISBN 3-540-67921-9 Software: http://www.cis.hut.fi/research/software.shtml SOM_PAK (UNIX) http://www.cis.hut.fi/software.shtml SOM Toolbox (Win NT) http://www.mbnet.fi/~phodju/nenet/nenet/general.html

Kohonenovo učení základní myšlenka prostorová reprezentace dat komprese dat transformace z n - rozměrného na m - rozměrný prostor n > m propojení mezi sousedními neurony model neuronu McCulloch-Pitts nepracuje se s aktivační funkcí, ale s funkcí okolí (neighborhood function) výpočet vzdáleností a jejich minimalizace

okolí váhy w- referenční vektory vstupní vektor x(t) předem zvolená topologie mapy a okolí často čtvercová nebo hexagonální způsob modifikace velikosti okolí centroid (winner) neuron patří do okolí neuron nepatří do okolí Kohonenův algoritmus učení ( Delta pravidlo) pp. Euklideovská metrika Obecně: mapa nejčastěji dvojdimenzionální (principielně neexistuje omezení v počtu dimenzí) volba okolí (neighbourhood ) s předem známou topologií

konvergence učení - závisí na mnoha parametrech inicializační hodnoty vstupních parametrů a vah (hodnotách referenčních vektorů), počet neuronů a způsob jejich organizace v mapě, tvar a velikost sousedního okolí i-tého neuronu, rychlost učení při učení nejsou jednotlivé neurony na sobě navzájem závislé, sdružují vektory s podobnými vlastnostmi je hledán vítězný neuron (winner) cíl: rozdělení vstupních dat na kategorie (třídy) - klasifikace shlukování (clustering) Shluk (cluster) je tvořen určitým počtem vstupních vektorů, které se sobě nejvíce podobají (mají nejvíce společných nebo velmi blízkých vlastností.

Je to oblast v N-dimenzionálním prostoru (data jsou popsána N vlastnostmi features) s relativně vysokou hustotou bodů a je oddělena od ostatních oblastí s relativně nízkou hustotou bodů. Důležité: - rozmístění v mapě - počet dominantních vlastností v rámci jednoho tréninkového procesu - posun ve vstupních datech a přeřazení některé vlastnosti do jiné skupiny při opakování procesu. Problém: počet shluků Možný počet rozdělení P vzorků do K tříd: K P / K! jen pro malý počet vzorů Určení míry podobnosti (similarity measure) resp. míry neshody Nejčastěji vzdálenost

vítězný neuron: d(x, W c ) = min i [d(x, W i )] d j (X, W) = X = [x 1, x 2,,x N ], W i = [w i1, w i2,,w in ] n 2 ( X j Wi), j=1,,n i1 Poloměr okolí N c je funkcí času, s rostoucím časem se zmenšuje Proces končí pro N c = c Okolí je totožné s vítězným neuronem Kohonenův algoritmus přejde na jednoduché kompetiční učení. Vektory blízké neuronu c patří do jeho okolí, jejich váhy jsou adaptovány v souhlase s algoritmem učení. Tvoří jednotlivé shluky. Váhy neuronů ležících vně okolí Nc se nemění.

Do okolí (neighbourhood) se klasifikují všechny vstupní vektory nejvíce se podobající vítězi. Vždy klasifikační úloha. Topologie mapy (kompetitivní vrstvy) i okolí budoucího vítěze jsou předem zvolené. Příklady topologií Kohonenovy mapy a okolí vítězného neuronu. Váhové vektory v KSOM: a) rozložení při inicializaci b) po 20-ti iteracích c) po 40-ti iteracích d) po 100 iteracích

Vektory vah během trénování, 1-D mapa Reprezentace 3-D funkce rozložení pomocí 2-D mapy