Umělé neuronové sítě

Podobné dokumenty
5. Umělé neuronové sítě. neuronové sítě. Umělé Ondřej Valenta, Václav Matoušek. 5-1 Umělá inteligence a rozpoznávání, LS 2015

Asociativní sítě (paměti) Asociace známého vstupního vzoru s daným výstupním vzorem. Typická funkce 1 / 44

Rosenblattův perceptron

Trénování sítě pomocí učení s učitelem

Fiala P., Karhan P., Ptáček J. Oddělení lékařské fyziky a radiační ochrany Fakultní nemocnice Olomouc

Algoritmy a struktury neuropočítačů ASN P4. Vícevrstvé sítě dopředné a Elmanovy MLNN s učením zpětného šíření chyby

3. Vícevrstvé dopředné sítě

Už bylo: Učení bez učitele (unsupervised learning) Kompetitivní modely

Architektura - struktura sítě výkonných prvků, jejich vzájemné propojení.

Neuronové sítě Ladislav Horký Karel Břinda

Vytěžování znalostí z dat

5. Umělé neuronové sítě. Neuronové sítě

ANALÝZA A KLASIFIKACE BIOMEDICÍNSKÝCH DAT. Institut biostatistiky a analýz

Lineární klasifikátory

Algoritmy a struktury neuropočítačů ASN - P11

Neuronové sítě AIL002. Iveta Mrázová 1 František Mráz 2. Neuronové sítě. 1 Katedra softwarového inženýrství. 2 Kabinet software a výuky informatiky

Algoritmy a struktury neuropočítačů ASN P9 SVM Support vector machines Support vector networks (Algoritmus podpůrných vektorů)

Dálkový průzkum Země. Ústav geoinformačních technologií Lesnická a dřevařská fakulta MENDELU

NG C Implementace plně rekurentní

Algoritmy a struktury neuropočítačů ASN - P2. Topologie neuronových sítí, principy učení Samoorganizující se neuronové sítě Kohonenovy mapy

PV021: Neuronové sítě. Tomáš Brázdil

Algoritmy a struktury neuropočítačů ASN P3

Algoritmy a struktury neuropočítačů ASN - P1

Neuronové sítě v DPZ

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

Neuronové sítě. 1 Úvod. 2 Historie. 3 Modely neuronu

1. Soutěživé sítě. 1.1 Základní informace. 1.2 Výstupy z učení. 1.3 Jednoduchá soutěživá síť MAXNET

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ

1. Vlastnosti diskretních a číslicových metod zpracování signálů... 15

Státnice odborné č. 20

Úvod Příklad Výpočty a grafické znázornění. Filip Habr. České vysoké učení technické v Praze Fakulta jaderná a fyzikálně inženýrská

Úvod do optimalizace, metody hladké optimalizace

Algoritmy a struktury neuropočítačů ASN - P10. Aplikace UNS v biomedicíně

Jsou inspirovány poznatky o neuronech a nervových sítích živých organizmů a jejich schopnostmi:

8-9. Pravděpodobnostní rozhodování a predikce. Gerstnerova laboratoř katedra kybernetiky fakulta elektrotechnická ČVUT v Praze

Využití neuronové sítě pro identifikaci realného systému

NEURONOVÉ SÍTĚ A EVOLUČNÍ ALGORITMY NEURAL NETWORKS AND EVOLUTIONARY ALGORITHMS

ANALÝZA A KLASIFIKACE DAT

Klasifikace předmětů a jevů

Numerická stabilita algoritmů

Rozpoznávání písmen. Jiří Šejnoha Rudolf Kadlec (c) 2005

Interpolace, ortogonální polynomy, Gaussova kvadratura

Úloha - rozpoznávání číslic

Katedra kybernetiky laboratoř Inteligentní Datové Analýzy (IDA) Katedra počítačů, Computational Intelligence Group

Neuronové sítě výuka2

Technická fakulta. Katedra technologických zařízení staveb. Využití neuronových sítí pro integraci PZTS do inteligentních budov.

Klasifikace a rozpoznávání. Lineární klasifikátory

Kybernetika a umělá inteligence, cvičení 10/11

Ambasadoři přírodovědných a technických oborů. Ing. Michal Řepka Březen - duben 2013

Testování neuronových sítí pro prostorovou interpolaci v softwaru GRASS GIS

VYUŽITÍ NEURONOVÝCH SÍTÍ V DIAGNOSTICE

Neuronové sítě Učení bipolárního perceptronu

Aplikovaná numerická matematika - ANM

Zpracování biologických signálů umělými neuronovými sítěmi

Ing. Petr Hájek, Ph.D. Podpora přednášky kurzu Aplikace umělé inteligence

přetrénování = ztráta schopnosti generalizovat vlivem přílišného zaměření klasifikátorů na rozeznávání pouze konkrétních trénovacích dat

K možnostem krátkodobé předpovědi úrovně znečištění ovzduší statistickými metodami. Josef Keder

Neuronové sítě. Vlasta Radová Západočeská univerzita v Plzni katedra kybernetiky

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Samoučící se neuronová síť - SOM, Kohonenovy mapy

Lineární diskriminační funkce. Perceptronový algoritmus.

Aplikovaná numerická matematika

ZÍSKÁVÁNÍ ZNALOSTÍ Z DATABÁZÍ

Numerické metody a programování. Lekce 8

Přednáška 13 Redukce dimenzionality

Emergence chování robotických agentů: neuroevoluce

LDA, logistická regrese

Numerické metody a programování. Lekce 4

Pokročilé metody učení neuronových sítí. Tomáš Řehořek

AVDAT Nelineární regresní model

Neuronové sítě. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

výběr charakteristických rysů a zkušeností ze vstupních signálů,

Transformace obrazu Josef Pelikán KSVI MFF UK Praha

LOKALIZACE ZDROJŮ AE NEURONOVÝMI SÍTĚMI NEZÁVISLE NA ZMĚNÁCH MATERIÁLU A MĚŘÍTKA

Moderní systémy pro získávání znalostí z informací a dat

Neuronové sítě (11. přednáška)

IBM SPSS Neural Networks

oddělení Inteligentní Datové Analýzy (IDA)

Definice 1.1. Nechť je M množina. Funkci ρ : M M R nazveme metrikou, jestliže má následující vlastnosti:

Lineární algebra Operace s vektory a maticemi

Dobývání znalostí. Doc. RNDr. Iveta Mrázová, CSc. Katedra teoretické informatiky Matematicko-fyzikální fakulta Univerzity Karlovy v Praze

1 Determinanty a inverzní matice

Neuronové časové řady (ANN-TS)

Matice. Přednáška MATEMATIKA č. 2. Jiří Neubauer. Katedra ekonometrie FEM UO Brno kancelář 69a, tel

Optimální rozdělující nadplocha 4. Support vector machine. Adaboost.

Kon K e on kc k ion i i on s i m s u m s u PSY 481

Jednotlivé historické modely neuronových sítí

Neuropočítače. podnět. vnímání (senzory)

Úvod do kvantového počítání

Projekční algoritmus. Urychlení evolučních algoritmů pomocí regresních stromů a jejich zobecnění. Jan Klíma

Toolbox pro neuronové sítě pro prostředí Mathematica

APLIKACE NEURONOVÝCH SÍTÍ VE ZPRACOVÁNÍ OBRAZU

Numerické metody a programování. Lekce 7

VYSOKÉ UČENÍ TECHNICKÉ V BRNĚ BRNO UNIVERSITY OF TECHNOLOGY

PREDIKCE POČTU UCHAZEČŮ O STUDIUM S VYUŽITÍM NEURONOVÝCH SÍTÍ

Rozdělování dat do trénovacích a testovacích množin

brmiversity: Um lá inteligence a teoretická informatika

stránkách přednášejícího.

Preceptron přednáška ze dne

7 Analytické vyjádření shodnosti

Transkript:

Umělé neuronové sítě 17. 3. 2018 5-1

Model umělého neuronu y výstup neuronu u vnitřní potenciál neuronu w i váhy neuronu x i vstupy neuronu Θ práh neuronu f neuronová aktivační funkce 5-2

Neuronové aktivační funkce: sigmoidální funkce hyperbolický tangens znaménková funkce Heavisideova funkce! 0 # $ 0 5-3

Učení neuronových sítí Cílem učení je nastavit váhy spojení w ij tak, aby síť vytvářela správnou odezvu na vstupní signál. Základní způsoby učení: učení s učitelem (supervised learning) Neuronová síť se učí srovnáváním aktuálního výstupu s výstupem požadovaným (učitel) a nastavováním vah synapsí tak, aby se snížil rozdíl mezi skutečným a požadovaným výstupem. 5-4

učení bez učitele (unsupervised learning) Váhy spojení se nastavují tak, aby výstup sítě byl konzistentní, tj. aby síť poskytovala stejnou odezvu při stejných, popř. podobných vstupních vektorech. 5-5

Základní model učení D.O. Hebb (1949) učení bez učitele "síla" synaptického spojení mezi dvěma neurony se zvětší, pokud jsou oba tyto neurony aktivovány; změna hodnoty synaptického spojení je přímo úměrná součinu výstupních hodnot aktivovaných neuronů (α je tzv. koeficient učení) % &'() % *'+(, % 5-6

Typy neuronových sítí 5-7

5-8

Lineární asociativní paměť (LAM) jednovrstvá síť s dopředným šířením a pevnými vahami vstupní vektory mohou být binární (0/1), popř. reálné 5-9

Výstupní hodnoty neuronů: 5. Umělé neuronové sítě pro reálné vstupy % %, %.,.,1 pro binární vstupy Použití: 2 % % 3 4,,.,1 %. hetero-/autoasociativní paměť rekonstrukce neúplných a šumem poškozených obrazů 5-10

Reálné vstupy: Nastavení váhových koeficientů pro asociační seznam L: 5 6*7,8 +,,7 9,8 9 : vstup: 7 ; <7 ;,,7 ; = > výstup: 8 ; <8 ;,,8 ; = > nebo maticově 9 %? @, ABC D 1,,F; H 1,,I J < % =87 > kde 8K1L9MK8,,8 9 M,7K9MK7,,7 9 M 5-11

Odezva sítě na vstupní vektor N KN,,N 9 M OJN87 > N7 N8 tj. výstup je lineární kombinace vektorů A s s koeficienty určenými skalárním součinem B s X. Jsou-li vstupní vektory ortonormální, je výstup shodný s obrazem uloženým v asociativní paměti. 9 Kapacita sítě (maximální počet uchovávaných vzorů): 9P kde P je počet vzorů uchovávaných v paměti, N je dimenze vstupního vektoru. 5-12

Binární vstupy: Nastavení váhových koeficientů w ij a hodnot prahů Θ i pro asociační seznam L % Q? *Q@ % +, ABC D 1,,F; H 1,,I 3 Q %, ABC D 1,,I % Odezva sítě 1 U # * S % 3 +P# % 1 T S * % 3 +!0 R % 5-13

Příklad: Asociační seznam L = {([1011] T, [1011] T ), ([0101] T, [0101] T )} JQ8 Q7 > V WX YV Q Q Q # Q Q Q # Q Q Q # # # W # Q 1 3 Q % K M > % 5-14

Testovací vektor NK1101M Z J 3V Q Q Q # Q Q Q # Q Q Q # # # WV # # W V Q WV W # O J 3V W # 5-15

Bidirectional Associative Memory (BAM) 5-16

BAM je dvouvrstvá rekurentní síť s pevnými vahami, vstupní vektory mohou být binární (0/1), popř. bipolární (-1/1) Použití: heteroasociativní paměť rekonstrukce neúplných a šumem poškozených obrazů 5-17

Kapacita sítě (maximální počet uchovávaných vzorů): Hrubý odhad: [ P\, n = min {N, M}, kde N a M jsou počty neuronů v první a druhé vrstvě a P je maximální počet asociací. Přesnější odhad: Pokud vybereme L vektorů tak, že 5$ #,]^ Q K_ Q (`M Q a každý vektor má 4 + log 2 (n) prvků rovných 1 a zbytek 0, pak lze vytvořit BAM, pro kterou je 98% stavů stabilních. 5-18

Algoritmus trénování a činnosti BAM Krok 1: Inicializace váhových koeficientů w ij a prahové hodnoty Θ : 9 1. vrstva J < % = Q? *Q@ % + 2. vrstva J T 3 b 1 Q % %, D 1,,F 3 bb Q %, H 1,,I kde w ij jsou váhové koeficienty mezi i-tým neuronem první vrstvy a j-tým neuronem druhé vrstvy,?,@ jsou i-té prvky s-tých vektorů asociačního seznamu (mohou nabývat pouze hodnot {0,1}), P je počet prvků asociačního seznamu, Θ a Θ jsou vektory prahových hodnot neuronů první a druhé vrstvy (pro homogenní BAM jsou tyto vektory nulové). 5-19

Krok 2: Předložení neznámého vstupního vektoru B = [b 1, b n ] T, B {0,1} N Krok 3: Iterace, dokud síť konverguje: Během t-té iterace se pro 1. vrstvu: 1) vypočtou hodnoty d b e f(1 paralelně pro i = 1,2,...,M podle vztahu % b '( % @ ' 3 % b 2) vypočtou výstupní hodnoty g e f(1 pro j = 1,2,...,M podle vztahu? % '(h % b '(!# # % b '( $#? % ' % b '(# 5-20

2. vrstvu: 1) vypočtou hodnoty d e bb f(1 paralelně pro j = 1,2,...,N podle vztahu bb '( % @ % ' 3 bb 2) vypočtou výstupní hodnoty i j f(1 pro j = 1,2,...,N podle vztahu @ '(k 1 % bb '(!# # bb '( $# @ ' bb '(# Tento proces se opakuje, dokud se výstup první, popř. druhé vrstvy mění. Po ukončení iterací odpovídá vstup první vrstvy BAM vzorovému vektoru z asociačního seznamu, ktery se nejvíce podobá neznámému vektoru předloženému na vstup, výstup pak odpovídá asociaci uložené v BAM během trénování. Krok 4: Opakování od kroku 2 pro nový vstupní vektor. 5-21

Jednoduchý perceptron jednoduchý neuron, popř. jednovrstvá síť s dopředným šířením učení: s učitelem neuronová aktivační funkce: znaménková funkce, popř. jednotkový skok 5-22

Příklad použití: Klasifikátor pro lineárně separovatelné obrazy 5-23

Trénování jednoduchého perceptronu Krok 1: Počáteční inicializace vah w i, 1 P D P N a prahu Θ (náhodně) Krok 2: Přivedení vstupního vektoru a definice požadované výstupní odezvy Krok 3: Výpočet odezvy perceptronu podle vztahu ' m ' ' 3, 1 P D P F 5-24

Krok 4: Adaptace vah '( '(nko' 'M ', 1 P i P F qf (1, Agfří td uvfda qc fříqw x 1, Agfří td uvfda qc fříqw y kde d(t) je požadovaný výstup, η je tzv. zisk (koeficient učení), který nabývá hodnot z intervalu (0,1) Krok 5: Opakování od kroku 2 pro všechny trénovací dvojice Pro lineárně neseparovatelné obrazy modifikované algoritmy: Kapsový algoritmus (Gallant) LMS algoritmus 5-25

Trénování perceptronu (Widrow Hoff LMS) Krok 1: Počáteční inicializace vah w i a prahu Θ Krok 2: Přivedení vstupního vektoru X = [x 1,..., x N ] T a definice požadované výstupní odezvy d Krok 3: Výpočet vnitřního potenciálu perceptronu podle vztahu ' ' ' 3 Krok 4: Výpočet chyby prezentace podle vztahu z'o' ' 5-26

Krok 5: Adaptace vah '( '(,z' { N { Q kde 0 < α < 1 je tzv. koeficient učení Krok 6: Opakování kroků 3-5, dokud není změna vah menší než požadovaná přesnost 5-27

Vícevrstvý perceptron 5-28

Vícevrstvý perceptron je 5. Umělé neuronové sítě vícevrstvá síť s dopředným šířením učení: s učitelem neuronová aktivační funkce: sigmoidálná funkce, hyperbolický tangens, popř. jiná nelineární funkce spojitá a spojitě diferencovatelná v celém definičním oboru Použití: klasifikace obrazů aproximace funkcí predikce časových řad řízení 5-29

Trénování vícevrstvého perceptronu (Backpropagation alg.) Krok 1: Počáteční inicializace vah w ij a prahů Θ i jednotlivých neuronů. Krok 2: Přivedení vstupního vektoru X = [x 1,...,x N ] T a definice požadované výstupní odezvy D = [d 1,..., d M ] T. Krok 3: Výpočet aktuálního výstupu podle následujících vztahů (platí pro třívrstvý perceptron) Q _ ' 2 bb ;_ ' bb ; ' ; 3 _ bb 4, 1Pt PI uývfda\í ubvfug 5-30

bb ; ' 2 b %; ' b % ' % 3 ; b 4, 1P~ PF 2. v~bwfá ubvfug % b ' % ' ' 3 %, 1PHPF 1. v~bwfá ubvfug Krok 4: Adaptace vah a prahů podle vztahu % '( % '(nƒ %, popř. % '( % '(nƒ % (,& % ' % ' ) 5-31

Nastavení vah začíná u výstupních uzlů a postupuje zpětně směrem ke vstupům. V uvedených vztazích jsou w ij váhy mezi i-tým skrytým uzlem (popř. vstupním uzlem) a uzlem j-tým v čase t, b j je výstup i-tého, popř. vstupního uzlu, η je koeficient učení (zisk), α je tzv. momentový koeficient a δ j je chyba, pro kterou platí následující vztahy: % * % +*o % % + ABC uývfda\í d tw ƒ % h b % ƒ ; %; ABC u\dfř\í v~bwfé d tw ; kde k se mění přes všechny uzly vrstvy, která následuje za uzlem j. Krok 5 : Opakování kroků 3-5, dokud chyba není menší než předem stanovená hodnota. 5-32

Hopfieldova síť jednovrstvá rekurentní síť s pevnými vahami, vstupní vektory musí být binární (0/1), popř. bipolární (-1/1) 5-33

Neuronová aktivační funkce: 5. Umělé neuronové sítě funkce jednotkového skoku pro! 0 # pro $ 0 znaménková funkce (pro bipolární vstupní vektory) Použití: autoasociativní paměť rekonstrukce neúplných a šumem poškozených obrazů optimalizační problémy 5-34

Kapacita sítě (maximální počet uchovaných vzorů): 9 P #,Š, kde P je počet vzorů uchovávaných v paměti, N je počet neuronů v síti Energie: z' Q %? '? % ' 3? ' % 5-35

Hopfieldova síť (synchronní model) Krok 1: Inicializace váhových koeficientů w ij a prahu Θ i podle vztahu 9 % Q? *Q? % +, P,%P, 3 Q %,,,, % kde w ij jsou váhové koeficienty mezi i-tým a j-tým neuronem,? je i-tý prvek vzorového vektoru s-té třídy (může nabývat pouze hodnot {0,1}), P je počet vzorových vektorů. Krok 2: Předložení neznámého vstupního vektoru X = [x 1,...x N ] T, x i {0,1} #, PP, kde y i (0) je výstup i-tého neuronu v čase t=0, x i je i-tý prvek vstupního vektoru. 5-36

Krok 3: Iterace, dokud síť konverguje: Během t-té iterace se 1) vypočtou hodnoty d j f(1 paralelně pro i=1,2,, N podle vztahu '( % % ' 3 2) vypočtou výstupní hodnoty w j f(1 pro i=1,2,, N podle vztahu '( k % '(!# # '( $# ' '(# Tento proces se opakuje, dokud se výstup mění. Po ukončení iterací odpovídají výstupy vzorovému vektoru, který se nejvíce podobá vektoru vstupnímu. Krok 4: Opakování od kroku 2 pro nový vstupní vektor 5-37

Příklad: Hopfieldova síť (synchronní model) Dány trénovací vektory K1110M Z, K1100M Z Œ je 2g j 1*2g e 1+, D ŽH, 1PD,H PF, tj. J V 1 1 1 1 W X 1 1 1 1 1 1 1 1 1 1 Y V 1 1 2 2 0 2 2 2 0 2 W 0 0 2 0 2 2 0 2 3 1 2 Œ je K0101M Z e 5-38

Pro testovací vektor 0K0100M Z dostaneme: a) v 1. iteraci: 2 2 0 2 0 J 3 V 2 2 0 2 WV 1 W V 0 0 2 0 0 2 2 0 2 0 1 b) v 2. iteraci: J 3 V 1 J 3 V 1 W 0 0 2 2 0 2 1 2 2 0 2 WV 1 W V 0 0 2 0 0 2 2 0 2 0 1 2 J 3 V 1 W 0 0 1 1 WV 1 1 1 1 WV 1 1 1 1 W 1 1 3 3 W 1 3 5-39

Hopfieldova síť (asynchronní model) Krok 1: Inicializace váhových koeficientů w ij a prahu Θ i podle vztahu 9 % h Q? *Q? % +, Ž%, P,%P # % 3 Q %, %,,, kde w ij jsou váhové koeficienty mezi i-tým a j-tým neuronem,? je i-tý prvek vzorového vektoru s-té třídy (může nabývat pouze hodnot {0,1}), P je počet vzorových vektorů. Krok 2: Předložení neznámého vstupního vektoru X = [x 1,..., x N ] T, x i {0,1} #, PP, kde y i (0) je výstup i-tého neuronu v čase t=0, x i je i-tý prvek vstupního vektoru. 5-40

Krok 3: Iterace, dokud síť konverguje: Během t-té iterace se nastavují výstupy neuronů v sekvenčním pořadí pro i=1,2,, N 1) '( % % ' 3 % 2) '(!# '( k# '( $# ' '(# Krok 4: Opakování od kroku 2 pro nový vstupní vektor 5-41

Příklad: Hopfieldova síť (asynchronní model) Dány trénovací vektory K1110M Z, K1100M Z Œ je 2g j 1*2g e 1+, D ŽH, 1PD,H PF # D H, tj. J V 1 1 1 1 WX 1 1 1 1 1 1 1 1 1 1 Y V 1 1 # 2 0 2 2 # 0 2 W 0 0 # 0 2 2 0 # 3 1 2 Œ je K0 0 0 2M Z e 5-42

Pro testovací vektor 0K0100M Z dostaneme: a) v 1. iteraci: 1 J 3V 1. bit: K1100M Z 2. bit: K1100M Z 3. bit: K1100M Z 4. bit: K1100M Z 0 2 0 2 0 2 0 0 2 WV 1 W V 0 0 0 0 0 2 2 0 0 0 0 0 W postupně pro 0 2 5-43

b) v 2. iteraci: 2 J 3V 0 2 0 2 1 2 0 0 2 WV 1 W V 0 0 0 0 0 2 2 0 0 0 0 0 W postupně pro 0 2 1. bit: K1100M Z 2. bit: K1100M Z 3. bit: K1100M Z 4. bit: K1100M Z 5-44

ART (Adaptive Resonance Theory) 5-45

ART je: dvouvrstvá rekurentní síť učení: bez učitele 5. Umělé neuronové sítě vstupní vektor X: binární pro model ART-1 reálný pro model ART-2 Použití: shlukování rozpoznávání znaků, řečových segmentů apod. 5-46

Řídicí signály G2 G2 = 1, je-li alespoň jeden prvek vstupního vektoru x i = 1 G1 G1 = 1, je-li alespoň jeden prvek x i = 1. Pokud je však zároveň alespoň jeden prvek r i = 1, je G1=0 Reset je generován, je-li podobnost mezi vektorem C a X menší než předem zvolená hodnota prahu ostražitosti ρ. Podobnost mezi vektory se počítá jako skalární součin X a T dělený počtem jednotkových bitů vektoru X. 5-47

Porovnávací vrstva Každý neuron v této vrstvě přijímá tři binární signály: 1) složky x i vstupního vektoru X = [x 1, x 2,..., x N ] T, 2) zpětnovazební signál p j, který je vytvořen jako vážený součet výstupů neuronů z rozpoznávací vrstvy, 3) signál G1. Výstup neuronů c i je roven jedné, pokud jsou nejméně dva ze tří signálů rovny jedné. Na počátku jsou všechny složky vektoru R a signál G1 nastaveny na hodnotu 0 => C = X. 5-48

5-49

Rozpoznávací vrstva Rozpoznávací vrstva klasifikuje vstupní vektor. Skládá se z M neuronů (M je počet klasifikačních tříd), vstupy neuronů jsou spojeny s výstupem porovnávací vrstvy. Spojením jsou přiřazeny vektory váhových koeficientů B j *i ej +. Po předložení vstupního vektoru je v rozpoznávací vrstvě aktivován pouze neuron s vektorem váhových koeficientů nejvíce podobným vstupu. Ostatní neurony budou mít výstup nulový. 5-50

5-51

Algoritmus použití ART sítě 5. Umělé neuronové sítě Krok 1: Počáteční inicializace vah t ij,b ij a nastavení prahu ostražitosti ρ ' % # @ % # ( i = 1,2,,N, j = 1,2,,M, #P P Krok 2: Přivedení vektoru X = [x 1,..., x N ] T na vstup sítě 5-52

Krok 3: Výpočet odezvy neuronu v rozpoznávací vrstvě podle vztahu % @ % ', H 1,2,,I kde y j je odezva j-tého neuronu v rozpoznávací vrstvě, x i je i-tý prvek vstupního vektoru Krok 4: Výběr neuronu s největší odezvou y k = max(y j ) Krok 5: Výpočet podobnosti μ podle vztahu ' ; Je-li š, pokračování krokem 7, jinak provedení kroku 6 5-53

Krok 6: Zablokování neuronu s největší odezvou a opakování od kroku 3. Výstup k-tého neuronu je dočasně nastaven na nulovou hodnotu a neuron nebude testován při dalším výběru maxima Krok 7: Adaptace vah u neuronu s největší odezvou. V tomto kroku se modifikují váhy spojení t ik a b ik podle vztahů ' ; '(' ; ' @ ; '( ' ; ' #,Š( ' ; ' Krok 8: Odblokování jednotek zablokovaných v kroku 6 a opakování od kroku 2 5-54

Kohonenova síť (Self Organizing Map SOM) 5-55

Kohonenova síť je jednovrstvá síť s dopředným šířením učení: bez učitele vstupní vektor: X = [x i,...,x N ] T, j 5. Umělé neuronové sítě výstupní hodnota neuronu je definována jako vzdálenost mezi vstupním a váhovým Použití pro: vektorem, t.j. shlukování analýzu dat vytváření sémantických map aj. '& % ' % ') Q % 5-56

Algoritmus (Kohonenova síť) 5. Umělé neuronové sítě Krok 1: Počáteční inicializace vah w ij a množiny Ne i (t ), která definuje sousednost okolo každého uzlu i = 1,2,..., N. Krok 2: Přivedení vektoru X = [x i,..., x N ] T na vstup sítě a výpočet vzdálenosti mezi vstupním vektorem a váhovým vektorem každého neuronu podle vztahu o '& % ' % ') Q % Krok 3: Výběr i-tého neuronu s nejmenší vzdáleností d i (tzv. vítězného neuronu) 5-57

Krok 4: Adaptace vah vítězného neuronu a všech neuronů k, pro které platí ~ F j f (sousedí s i-tým neuronem) podle vztahu ; '( ; '(n'* ' ; '+, ~ F j f, D 1,2,F, kde f 0$ f$1 je koeficient učení, jehož hodnota s rostoucím časem klesá Krok 5: Změna sousednosti F j f pro i=1,2,..., N Krok 6: Opakování kroků 2-5 pro všechny vstupní vektory, dokud dochází ke změně vah. 5-58

vícevrstvá hierarchická neuronová síť Neocognitron Použití: např. rozpoznávání rukou psaných znaků Výhoda: schopnost správně rozpoznávat nejen naučené obrazy, ale i obrazy, které vzniknou částečným posunutím, otočením nebo jinou deformací 5-59

5-60

Příklad použití: 5-61